EliasReffstrup at 2024-02-08 19:37:00+00:00 ID: kpj21jv
Der er terabytes af porno, frit tilgængeligt på nettet. Mærkeligt at du absolut VIL afklæde dine bekendte uden deres viden.
Kommentarerne du skriver her sendes ikke tilbage til Reddit.
EliasReffstrup at 2024-02-08 19:37:00+00:00 ID: kpj21jv
Der er terabytes af porno, frit tilgængeligt på nettet. Mærkeligt at du absolut VIL afklæde dine bekendte uden deres viden.
ColaMalurt at 2024-02-08 19:43:55+00:00 ID: kpj3afm
Det er faktisk ret klamt.
SkibDen at 2024-02-08 20:50:33+00:00 ID: kpjf9jr
Indholdet er fjernet. Fra vores regler:
Moderatorerne forbeholder sig retten til at moderere indhold, der overtræder eller ved opfordring, tilskyndelse eller råd og dåd medvirker til overtrædelse af reglerne for /r/Denmark, Reddits regler, Reddiquetten eller almindelig dansk lovgivning.
Har du spørgsmål eller kommentarer til dette, kan du skrive en besked til os igennem modmail.
SkibDen at 2024-02-08 20:50:33+00:00 ID: kpjf9jr
Indholdet er fjernet. Fra vores regler:
Moderatorerne forbeholder sig retten til at moderere indhold, der overtræder eller ved opfordring, tilskyndelse eller råd og dåd medvirker til overtrædelse af reglerne for /r/Denmark, Reddits regler, Reddiquetten eller almindelig dansk lovgivning.
Har du spørgsmål eller kommentarer til dette, kan du skrive en besked til os igennem modmail.
Swedenbad_DkBASED at 2024-02-08 20:54:05+00:00 ID: kpji5wl
Tænker det skal straffes hvis det spredes, hvis det ikke gør, så er der vel ikke skide meget at gøre ved det
Titteboeh at 2024-02-08 20:10:17+00:00 ID: kpjg7ci
Er det bare chatgpt der bliver brugt eller hvilke værktøjer bruger folk til sådan noget?
Jeg synes at de billeder jeg har set (ikke nøgenbilleder, typisk businessbilleder) er det tydeligt at det er falsk så måske det har været gratis versioner
Raghul86 at 2024-02-08 20:55:43+00:00 ID: kpjic7p
Gør det samme som du ville have gjort med photoshop-versionen af samme situation de sidste 20 år?
bimxe at 2024-02-08 20:51:42+00:00 ID: kpjp25c
Den medarbejder bør fyres omgående og politianmeldes.
kinkycookiedough29 at 2024-02-08 21:06:03+00:00 ID: kpji0yy
Ej seriøst har din KOLLEGA lavet nøgenbilleder (jaja ai) af en anden KOLLEGA? Wow. Hvad er det for et absurd arbejdsmiljø. Jeg havde stået hos min chef OG hr med det samme. Det er simpelthen så langt over grænsen.
Og nej vi kan ikke “nedfinde”, så det vil blive et større problem. Men så kan vi udvise ordentlighed og sige “ej Michael/karina/whatever, hvad fanden er det for noget lort? Hvorfor laver du sådan noget - få det væk. Nu går vi to op til bossen og tager en snak om det her”.
danetourist at 2024-02-08 21:26:18+00:00 ID: kpjmy9y
Jeg ser ikke det store problem.
Hvis det skete for mig, ville jeg synes, det var ret underligt, men jeg ville ikke føle mig krænket på nogen måde. Det er jo bare et fake billede. Hvis nogen lavede en tegning, en photoshop eller et maleri, ville jeg have det på samme måde.
Hvis nogen til gengæld påstår, at det rent faktisk er mig på nogle deepfakes, så er det en anden sag. Men så ville det være bagvaskelse, og der har vi lovgivning imod det.
Eller hvis nogen sendte disse til mine kolleger eller brugte dem til chikane, ville jeg bestemt ikke være begejstret, men igen ville det være chikanen, der var problemet, ikke deepfakes.
Guilty_Constant_1365 at 2024-02-08 21:46:41+00:00 ID: kpjqtkq
Tager dig en spiller hvis hun er lækker ??
dakjelle at 2024-02-08 21:52:45+00:00 ID: kpjrd7s
Så længe man ikke ryger i fængsel er det ganske enkelt ikke "farligt" nok at begå sådan en forbrydelse.
justsomerandom3344 at 2024-02-08 21:26:35+00:00 ID: kpjp8kt
altså det hjælper vel bare folk generelt? vi er nu i en æra hvor du ikke kan vide om det er ægte eller ej, altså mister hævneporno osv alt dets magt, fordi du bare kan sige "det er deepfake"
Soaddk at 2024-02-08 21:07:49+00:00 ID: kpjifeg
Hedder det ikke AI genererede nøgenbilleder? Siden det er flertal? Eller er det bare mig som er gammel? 😊
Alternative_Pear_538 at 2024-02-08 20:23:21+00:00 ID: kpjhm1y
hvordan samfundet skal håndtere dette fænomen.
Hvorfor tænker du at vi skal håndtere det anderledes end vi allerede gør? Du har altid kunnet lave perfekte nøgenbilleder af folk du kender. Den eneste forskel er at det tidligere krævede en god erfaring med Photoshop, og nu kun kræver at man kender den rigtige prompt. Men resultatet er det samme og derfor bør vi benytte de eksisterende love, frem for at gå i total panik.
MrMoist23 at 2024-02-08 20:55:22+00:00 ID: kpjlnh5
Må man få lov at se det?
MarioSpaghettioli at 2024-02-08 21:03:42+00:00 ID: kpjlp7f
Ok. VI (du) skal håndtere det således, at VI (du) tager tydeligt afstand fra forbrydelsen og håndterer den som enhver anden blufærdighedskrænkelsesforbrydelse VI (du) møder.
Du bliver ved med at henvise til, at det ikke lige er DENNE sag men mere generelt, når folk kommer med svar. Men VI (du) skal OGSÅ håndtere denne sag, som VI (du) skal håndtere alle de andre.
Hvis der ikke bliver taget hånd om problemet, bliver det ikke løst. Hvis det er ok i dette tilfælde, hvorfor er det så ikke ok i alle de andre? "Det er jo ikke lige denne her forbrydelse, jeg tænker på. Det er alle de andre. Hvordan SKAL man dog håndtere dem???"
CaptainTryk at 2024-02-08 21:08:18+00:00 ID: kpjld1t
Minder mig om tråden med gutten, der lavede deep fake porno med kvinder i hans familie og vennegruppe, men ikke med sine kollegaer fordi han mente at det ville være at gå over stregen.
Det er en pænt gammel tråd, men jeg har sjældent oplevet mig selv blive så pisse rasende i en tråd på reddit, som jeg blev der.
Folk, der laver sådan noget materiale skal smides på porten når loven følger med udviklingen.
Det skal bare stoppes det der pis og det kan kun gå for langsomt. Håber at du melder din kollega. Han er jo farlig at have på en arbejdsplads.
cmd_commando at 2024-02-08 20:07:38+00:00 ID: kpjfwtx
Får folk til at acceptere, at 99% af billederne på sociale medier er fake
Det er kun et problem, fordi nogle tror de er ægte, lidt ligesom instabilleder, snapbilleder osv
Når den brede befolkning acceptere det, så bliver det ca ligeså krænkende som et flag i en lort
Ubiquitous_Rhino at 2024-02-08 20:20:17+00:00 ID: kpjg54m
Vi uddanner børn og unge til kritiske konstruktive forbrugere af digital teknologi. Og nej, den bimlende inkompetente murers skærm-vrøvl er ikke den rette vej at gå. Den gør det kun værre.
DJpesto at 2024-02-08 21:06:51+00:00 ID: kpjlvcf
Hvis man lige ser bort fra din konkrete oplevelse, som lyder som noget folkeskoleniveau af umodenhed, så er det ikke noget nyt.
Der har været fakes længe - folk har bare lavet dem med billedredigeringssoftware tidligere, nu er det så med en AI baseret app. Det er samme resultat. Jeg tror ikke man kan gøre så meget ved det. Jeg tror egentlig heller ikke det er så stort et problem - det peaker lige nu fordi det er ny teknologi, men om et par år er det blevet en niche igen, ligesom de der Photoshop fakes.
Soggy-Ad-1610 at 2024-02-08 21:33:34+00:00 ID: kpjqqm6
I 70 havde de fleste set hinanden nøgne, og det overlevede vi. Mon ikke bare vi rammer lidt den samme “pyt”-effekt igen?
GroinMcunt at 2024-02-08 21:56:11+00:00 ID: kpjtlga
Helt ærligt tror jeg det bedste der kunne ske var at vi fik en kultur hvor det var skråt ligemeget om man var blevet set nøgen, hvor det ikke betød en skid. For uanset hvad er der jo ikke en egentlig effekt ved det, det er jo ikke fordi der sker et eller andet magisk der fysisk ændrer noget fordi man er blevet set nøgen, det er jo noget rent kulturbetinget følelses bestemt.
Hvis du er blevet set nøgen af nogen men aldrig får det at vide ændrer det ikke noget hvis ikke nogen gør dig opmærksom på det.
I så fald ville ai generede nøgenbilleder miste den betydning som der lige nu lægges i det fordi vi lægger så stor værdi i hemmeligholdelsen af vores krops detaljer. Men hvad betyder det i virkeligheden, ikke en skid.