this post was submitted on 08 Feb 2024
1 points (100.0% liked)

/r/Denmark

153 readers
1 users here now

GÅ TIL FEDDIT.DK

Kommentarerne du skriver her sendes ikke tilbage til Reddit.

founded 1 year ago
MODERATORS
 

Jeg så i dag nogle billeder af en kollega, som en anden kollega lavede i en eller anden AI billede robot.

Det er godt nok skræmmende. Du kan simpelthen ikke se at det er fake (måske hvis du faktisk ved at der er et ar eller et modermærke etc; men for 99% vil det se ægte ud).

Hvordan vil /skal vi håndtere den slags?


Dette indlæg blev automatisk arkiveret af Leddit-botten. Vil du diskutere tråden? Tilmeld dig på feddit.dk!

The original was posted on /r/denmark by /u/Substantial_Rope667 at 2024-02-08 19:17:51+00:00.

you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 1 points 8 months ago

chaos-consultant at 2024-02-08 19:33:40+00:00 ID: kpj1fm1


Det bedste vi kan gøre er at finde på algoritmer, der er i stand til at detektere billeder som er genererede af AI. Men det fører så bare til forbedringer i algoritmerne der genererer billederne, og sådan kommer det formentlig til at køre i ring i noget tid. Det her forudsætter selvfølgelig at der ikke er tale om billeder der meget indlysende er AI-genererede, hvor der mangler fingre på folks hænder eller noget i den retning.

Der er ikke unendelige mængder information i et billede, og de er desuden som udgangspunkt komprimerede. Man kunne endda forestille sig, at en simpel måde at komme udenom en hypotetisk detekterings-algoritme kunne være ved at komprimere billedet en smule mere end det var i forvejen. Derved smider man endnu mere information væk, og fjerner måske nogen af de mønstre som ellers ville markere det som et AI-genereret billede.