this post was submitted on 08 Feb 2024
1 points (100.0% liked)

/r/Denmark

153 readers
1 users here now

GÅ TIL FEDDIT.DK

Kommentarerne du skriver her sendes ikke tilbage til Reddit.

founded 1 year ago
MODERATORS
 

Jeg så i dag nogle billeder af en kollega, som en anden kollega lavede i en eller anden AI billede robot.

Det er godt nok skræmmende. Du kan simpelthen ikke se at det er fake (måske hvis du faktisk ved at der er et ar eller et modermærke etc; men for 99% vil det se ægte ud).

Hvordan vil /skal vi håndtere den slags?


Dette indlæg blev automatisk arkiveret af Leddit-botten. Vil du diskutere tråden? Tilmeld dig på feddit.dk!

The original was posted on /r/denmark by /u/Substantial_Rope667 at 2024-02-08 19:17:51+00:00.

(page 4) 50 comments
sorted by: hot top controversial new old
[–] [email protected] 1 points 8 months ago

NighthunterDK at 2024-02-08 21:27:31+00:00 ID: kpjq945


Tænker det går under krænkelse. AI og deepfake kan bruges til så meget absurd, og selvom jeg er kæmpe fortaler for det, så synes jeg at lovgivningen er lidt for løs i det hele, samt er befolkningen utrolig dårlige til at forstå hvad det egentlig bruges til.

AI har været en ting i lang tid, men det først nu hvor der er kommet et gennembrud som befolkningen har let adgang til igennem Dall-E, Midjourney, Chatgpt, men selv der har folk større fantasier end realitet er til lige nu

[–] [email protected] 1 points 8 months ago (3 children)

Scand1navian at 2024-02-08 21:55:40+00:00 ID: kpjrl2d


Vi er gået ind i en ny tidsalder med det her. Billede evidens vil mere eller mindre ikke længere være valid. Ai vil kunne producere billeder der imkriminerer dig for hvilken som helst forbrydelse. Det eneste der kan gøres er at anse alle nye billeder som falske som udgangspunkt.

load more comments (3 replies)
[–] [email protected] 1 points 8 months ago

Varsit4 at 2024-02-08 21:26:18+00:00 ID: kpjyce1


Du ringer 114 i morgen og anmelder lortet! Ikke nok med at det er klamt at gøre mod kollegaer, så er det pisse hamrende ulovligt!

[–] [email protected] 1 points 8 months ago (1 children)

SadManWithBongos at 2024-02-08 21:59:32+00:00 ID: kpjw7sx


At dele det med kolleger et måske over grænsen, ellers til "eget forbrug" kan jeg virkelig ikke se problemet. Det er fiktivt. Der er IKKE et billede af personen. Det er falskt. Det er ikke værre end at folk forestiller sig ting og sager, og vi kan ikke og skal ikke kontrollerer folks tanker.

load more comments (1 replies)
[–] [email protected] 1 points 8 months ago

Creative-Skill-7212 at 2024-02-08 22:13:56+00:00 ID: kpjzcc5


Varför ska man hantera detta fenomen? Vad är problemet?

[–] [email protected] 1 points 8 months ago

Independent_Age5142 at 2024-02-08 22:52:59+00:00 ID: kpk3eg9


Ental versus flertal. Et AI genereret nøgenbillede, flere AI generede nøgenbilleder

[–] [email protected] 1 points 8 months ago

CarobProper4716 at 2024-02-08 22:31:30+00:00 ID: kpjzfd6


Måske det får en omvendt betydning. Og folk automatisk formoder at nøgen billeder fremover er fake.

[–] [email protected] 1 points 8 months ago (1 children)

Spurvetudsen at 2024-02-08 22:42:25+00:00 ID: kpk08pl


Åh nej, har læst i din historik, at du er læge/arbejder i sundhedsvæsnet. Er det en læge, der er så vanvittig at have gjort det her? I’m not surprised, men stadig…

load more comments (1 replies)
[–] [email protected] 1 points 8 months ago

random_user_9 at 2024-02-08 22:53:34+00:00 ID: kpk4x9k


Hvis folk ved der er AI genererede billeder overalt bliver folk jo bare vandt til ikke at stole på når de ser et rigtigt billede.

Det ser jeg da som en form for beskyttelse. Hvis folk så et rigtigt nøgenbillede af mig ville de bare tro det var fake og så er det jo ligemeget.

[–] [email protected] 1 points 8 months ago

Tru3Magic at 2024-02-08 22:00:55+00:00 ID: kpjxswg


Hvis man skulle tage de mere positive briller på overfor denne tendens - ikke specifikt nøgenbilleder, men deep fake stemmer og optagelser i alle mulige andre sammenhænge - tror jeg der er en sandsynlighed for at vi "som art" bliver mere skeptiske generelt over for hvad der serveres for os på nettet og i nyheder. ...og det kunne vi da godt trænge til?

Hvis der om 10-15 år (mere let tilgængeligt/i højere grad) kan laves videoer, billeder og/eller lyd optagelser som man med det blotte øje/øre ikke kan afkode om er rigtigt eller forkert, vil det nødvendigvis præge vores handlemønstre over en bred kam.

Hvis alt som udgangspunkt er fake, er det interessant at tænke på hvordan vi vil konsumere medier

[–] [email protected] 1 points 8 months ago

Living_Individual_87 at 2024-02-08 23:20:49+00:00 ID: kpkfbfq


Hold da op hvor usselt mand! Hvilken AI bot var det helt præcist, så man ved hvad man skal holde sig væk fra?

[–] [email protected] 1 points 8 months ago

Munken1984 at 2024-02-08 21:59:32+00:00 ID: kpk5tfr


Det kunne være sjovt at prøve at få den slags app til at gøre der med en selv, så kan man jo se hvor gode de er...

Ikke at jeg nogensinden ville uploade billeder af mig selv til den slags app, man ved jo aldrig hvad dem der har lavet appen briger det til

[–] [email protected] 1 points 8 months ago (3 children)

MarionberryNo1145 at 2024-02-08 22:59:10+00:00 ID: kpke13c


u/Online-politiet

load more comments (3 replies)
[–] [email protected] 1 points 8 months ago

Jes00jes at 2024-02-08 23:37:31+00:00 ID: kpkmgcd


Lad os antage du taler sandt, og ikke bare søger browniepoints... Så håndtere vi det ved at anmelde det og fortælle personen der har produceret det, at vi tager afstand fra det og det er upassende på alle niveauer.

load more comments
view more: ‹ prev next ›