this post was submitted on 08 Feb 2024
1 points (100.0% liked)

/r/Denmark

153 readers
1 users here now

GÅ TIL FEDDIT.DK

Kommentarerne du skriver her sendes ikke tilbage til Reddit.

founded 1 year ago
MODERATORS
 

Jeg så i dag nogle billeder af en kollega, som en anden kollega lavede i en eller anden AI billede robot.

Det er godt nok skræmmende. Du kan simpelthen ikke se at det er fake (måske hvis du faktisk ved at der er et ar eller et modermærke etc; men for 99% vil det se ægte ud).

Hvordan vil /skal vi håndtere den slags?


Dette indlæg blev automatisk arkiveret af Leddit-botten. Vil du diskutere tråden? Tilmeld dig på feddit.dk!

The original was posted on /r/denmark by /u/Substantial_Rope667 at 2024-02-08 19:17:51+00:00.

you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 1 points 8 months ago (2 children)

Federal-Beautiful644 at 2024-02-08 20:05:39+00:00 ID: kpj78f1


Safewords. Der er en grund til at Microsoft Danmark opfordrer deres danske ansatte til at have et safeword de deler med venner og familie. Netop pga risikoen for stemmeforfalskning via AI.

[–] [email protected] 1 points 8 months ago (1 children)

iAmHidingHere at 2024-02-08 20:21:02+00:00 ID: kpj9y2e


Jeg tænker i lidt større skala her, f.eks. en optagelse af Mette Frederiksen.

[–] [email protected] 1 points 8 months ago

QuantityOdd6032 at 2024-02-08 20:30:07+00:00 ID: kpjbl50


Hvis en AI detekterer at man er ved at lave et nøgenbillede af sin kollega, så vil den i stedet spytte et nøgenbillede af Mette ud?

Jeg tror det ville være effektivt.

[–] [email protected] 1 points 8 months ago

Abildguarden at 2024-02-08 21:28:45+00:00 ID: kpjm3b6


Forstår ikke lige hvordan et safeword virker i denne sammenhæng?