this post was submitted on 08 Feb 2024
1 points (100.0% liked)

/r/Denmark

153 readers
1 users here now

GÅ TIL FEDDIT.DK

Kommentarerne du skriver her sendes ikke tilbage til Reddit.

founded 1 year ago
MODERATORS
 

Jeg så i dag nogle billeder af en kollega, som en anden kollega lavede i en eller anden AI billede robot.

Det er godt nok skræmmende. Du kan simpelthen ikke se at det er fake (måske hvis du faktisk ved at der er et ar eller et modermærke etc; men for 99% vil det se ægte ud).

Hvordan vil /skal vi håndtere den slags?


Dette indlæg blev automatisk arkiveret af Leddit-botten. Vil du diskutere tråden? Tilmeld dig på feddit.dk!

The original was posted on /r/denmark by /u/Substantial_Rope667 at 2024-02-08 19:17:51+00:00.

(page 3) 50 comments
sorted by: hot top controversial new old
[–] [email protected] 1 points 8 months ago (5 children)

EliasReffstrup at 2024-02-08 19:37:00+00:00 ID: kpj21jv


Der er terabytes af porno, frit tilgængeligt på nettet. Mærkeligt at du absolut VIL afklæde dine bekendte uden deres viden.

[–] [email protected] 1 points 8 months ago

ColaMalurt at 2024-02-08 19:43:55+00:00 ID: kpj3afm


Det er faktisk ret klamt.

load more comments (4 replies)
[–] [email protected] 1 points 8 months ago

SkibDen at 2024-02-08 20:50:33+00:00 ID: kpjf9jr


Indholdet er fjernet. Fra vores regler:

Moderatorerne forbeholder sig retten til at moderere indhold, der overtræder eller ved opfordring, tilskyndelse eller råd og dåd medvirker til overtrædelse af reglerne for /r/Denmark, Reddits regler, Reddiquetten eller almindelig dansk lovgivning.


Har du spørgsmål eller kommentarer til dette, kan du skrive en besked til os igennem modmail.

[–] [email protected] 1 points 8 months ago

SkibDen at 2024-02-08 20:50:33+00:00 ID: kpjf9jr


Indholdet er fjernet. Fra vores regler:

Moderatorerne forbeholder sig retten til at moderere indhold, der overtræder eller ved opfordring, tilskyndelse eller råd og dåd medvirker til overtrædelse af reglerne for /r/Denmark, Reddits regler, Reddiquetten eller almindelig dansk lovgivning.


Har du spørgsmål eller kommentarer til dette, kan du skrive en besked til os igennem modmail.

[–] [email protected] 1 points 8 months ago

Swedenbad_DkBASED at 2024-02-08 20:54:05+00:00 ID: kpji5wl


Tænker det skal straffes hvis det spredes, hvis det ikke gør, så er der vel ikke skide meget at gøre ved det

[–] [email protected] 1 points 8 months ago (1 children)

Titteboeh at 2024-02-08 20:10:17+00:00 ID: kpjg7ci


Er det bare chatgpt der bliver brugt eller hvilke værktøjer bruger folk til sådan noget?

Jeg synes at de billeder jeg har set (ikke nøgenbilleder, typisk businessbilleder) er det tydeligt at det er falsk så måske det har været gratis versioner

load more comments (1 replies)
[–] [email protected] 1 points 8 months ago (1 children)

Raghul86 at 2024-02-08 20:55:43+00:00 ID: kpjic7p


Gør det samme som du ville have gjort med photoshop-versionen af samme situation de sidste 20 år?

load more comments (1 replies)
[–] [email protected] 1 points 8 months ago

bimxe at 2024-02-08 20:51:42+00:00 ID: kpjp25c


Den medarbejder bør fyres omgående og politianmeldes.

[–] [email protected] 1 points 8 months ago (1 children)

kinkycookiedough29 at 2024-02-08 21:06:03+00:00 ID: kpji0yy


Ej seriøst har din KOLLEGA lavet nøgenbilleder (jaja ai) af en anden KOLLEGA? Wow. Hvad er det for et absurd arbejdsmiljø. Jeg havde stået hos min chef OG hr med det samme. Det er simpelthen så langt over grænsen.

Og nej vi kan ikke “nedfinde”, så det vil blive et større problem. Men så kan vi udvise ordentlighed og sige “ej Michael/karina/whatever, hvad fanden er det for noget lort? Hvorfor laver du sådan noget - få det væk. Nu går vi to op til bossen og tager en snak om det her”.

load more comments (1 replies)
[–] [email protected] 1 points 8 months ago

danetourist at 2024-02-08 21:26:18+00:00 ID: kpjmy9y


Jeg ser ikke det store problem.

Hvis det skete for mig, ville jeg synes, det var ret underligt, men jeg ville ikke føle mig krænket på nogen måde. Det er jo bare et fake billede. Hvis nogen lavede en tegning, en photoshop eller et maleri, ville jeg have det på samme måde.

Hvis nogen til gengæld påstår, at det rent faktisk er mig på nogle deepfakes, så er det en anden sag. Men så ville det være bagvaskelse, og der har vi lovgivning imod det.

Eller hvis nogen sendte disse til mine kolleger eller brugte dem til chikane, ville jeg bestemt ikke være begejstret, men igen ville det være chikanen, der var problemet, ikke deepfakes.

[–] [email protected] 1 points 8 months ago

Guilty_Constant_1365 at 2024-02-08 21:46:41+00:00 ID: kpjqtkq


Tager dig en spiller hvis hun er lækker ??

[–] [email protected] 1 points 8 months ago

dakjelle at 2024-02-08 21:52:45+00:00 ID: kpjrd7s


Så længe man ikke ryger i fængsel er det ganske enkelt ikke "farligt" nok at begå sådan en forbrydelse.

[–] [email protected] 1 points 8 months ago

justsomerandom3344 at 2024-02-08 21:26:35+00:00 ID: kpjp8kt


altså det hjælper vel bare folk generelt? vi er nu i en æra hvor du ikke kan vide om det er ægte eller ej, altså mister hævneporno osv alt dets magt, fordi du bare kan sige "det er deepfake"

[–] [email protected] 1 points 8 months ago

Soaddk at 2024-02-08 21:07:49+00:00 ID: kpjifeg


Hedder det ikke AI genererede nøgenbilleder? Siden det er flertal? Eller er det bare mig som er gammel? 😊

[–] [email protected] 1 points 8 months ago

Alternative_Pear_538 at 2024-02-08 20:23:21+00:00 ID: kpjhm1y


hvordan samfundet skal håndtere dette fænomen.

Hvorfor tænker du at vi skal håndtere det anderledes end vi allerede gør? Du har altid kunnet lave perfekte nøgenbilleder af folk du kender. Den eneste forskel er at det tidligere krævede en god erfaring med Photoshop, og nu kun kræver at man kender den rigtige prompt. Men resultatet er det samme og derfor bør vi benytte de eksisterende love, frem for at gå i total panik.

[–] [email protected] 1 points 8 months ago

MrMoist23 at 2024-02-08 20:55:22+00:00 ID: kpjlnh5


Må man få lov at se det?

[–] [email protected] 1 points 8 months ago (1 children)

MarioSpaghettioli at 2024-02-08 21:03:42+00:00 ID: kpjlp7f


Ok. VI (du) skal håndtere det således, at VI (du) tager tydeligt afstand fra forbrydelsen og håndterer den som enhver anden blufærdighedskrænkelsesforbrydelse VI (du) møder.

Du bliver ved med at henvise til, at det ikke lige er DENNE sag men mere generelt, når folk kommer med svar. Men VI (du) skal OGSÅ håndtere denne sag, som VI (du) skal håndtere alle de andre.

Hvis der ikke bliver taget hånd om problemet, bliver det ikke løst. Hvis det er ok i dette tilfælde, hvorfor er det så ikke ok i alle de andre? "Det er jo ikke lige denne her forbrydelse, jeg tænker på. Det er alle de andre. Hvordan SKAL man dog håndtere dem???"

load more comments (1 replies)
[–] [email protected] 1 points 8 months ago

CaptainTryk at 2024-02-08 21:08:18+00:00 ID: kpjld1t


Minder mig om tråden med gutten, der lavede deep fake porno med kvinder i hans familie og vennegruppe, men ikke med sine kollegaer fordi han mente at det ville være at gå over stregen.

Det er en pænt gammel tråd, men jeg har sjældent oplevet mig selv blive så pisse rasende i en tråd på reddit, som jeg blev der.

Folk, der laver sådan noget materiale skal smides på porten når loven følger med udviklingen.

Det skal bare stoppes det der pis og det kan kun gå for langsomt. Håber at du melder din kollega. Han er jo farlig at have på en arbejdsplads.

[–] [email protected] 1 points 8 months ago

cmd_commando at 2024-02-08 20:07:38+00:00 ID: kpjfwtx


Får folk til at acceptere, at 99% af billederne på sociale medier er fake

Det er kun et problem, fordi nogle tror de er ægte, lidt ligesom instabilleder, snapbilleder osv

Når den brede befolkning acceptere det, så bliver det ca ligeså krænkende som et flag i en lort

[–] [email protected] 1 points 8 months ago

Ubiquitous_Rhino at 2024-02-08 20:20:17+00:00 ID: kpjg54m


Vi uddanner børn og unge til kritiske konstruktive forbrugere af digital teknologi. Og nej, den bimlende inkompetente murers skærm-vrøvl er ikke den rette vej at gå. Den gør det kun værre.

[–] [email protected] 1 points 8 months ago

DJpesto at 2024-02-08 21:06:51+00:00 ID: kpjlvcf


Hvis man lige ser bort fra din konkrete oplevelse, som lyder som noget folkeskoleniveau af umodenhed, så er det ikke noget nyt.

Der har været fakes længe - folk har bare lavet dem med billedredigeringssoftware tidligere, nu er det så med en AI baseret app. Det er samme resultat. Jeg tror ikke man kan gøre så meget ved det. Jeg tror egentlig heller ikke det er så stort et problem - det peaker lige nu fordi det er ny teknologi, men om et par år er det blevet en niche igen, ligesom de der Photoshop fakes.

[–] [email protected] 1 points 8 months ago

Soggy-Ad-1610 at 2024-02-08 21:33:34+00:00 ID: kpjqqm6


I 70 havde de fleste set hinanden nøgne, og det overlevede vi. Mon ikke bare vi rammer lidt den samme “pyt”-effekt igen?

[–] [email protected] 1 points 8 months ago

GroinMcunt at 2024-02-08 21:56:11+00:00 ID: kpjtlga


Helt ærligt tror jeg det bedste der kunne ske var at vi fik en kultur hvor det var skråt ligemeget om man var blevet set nøgen, hvor det ikke betød en skid. For uanset hvad er der jo ikke en egentlig effekt ved det, det er jo ikke fordi der sker et eller andet magisk der fysisk ændrer noget fordi man er blevet set nøgen, det er jo noget rent kulturbetinget følelses bestemt.

Hvis du er blevet set nøgen af nogen men aldrig får det at vide ændrer det ikke noget hvis ikke nogen gør dig opmærksom på det.

I så fald ville ai generede nøgenbilleder miste den betydning som der lige nu lægges i det fordi vi lægger så stor værdi i hemmeligholdelsen af vores krops detaljer. Men hvad betyder det i virkeligheden, ikke en skid.

load more comments
view more: ‹ prev next ›