this post was submitted on 17 Mar 2024
1 points (100.0% liked)

/r/Denmark

153 readers
1 users here now

GÅ TIL FEDDIT.DK

Kommentarerne du skriver her sendes ikke tilbage til Reddit.

founded 1 year ago
MODERATORS
 
Dette indlæg blev automatisk arkiveret af Leddit-botten. Vil du diskutere tråden? Tilmeld dig på feddit.dk!

The original was posted on /r/denmark by /u/SurKaffe at 2024-03-17 08:37:41+00:00.

top 32 comments
sorted by: hot top controversial new old
[–] [email protected] 1 points 7 months ago (1 children)

HitmanZeus at 2024-03-17 08:47:28+00:00 ID: kv990ba


Er jeg den eneste der læste det som Matas til at starte med?

[–] [email protected] 1 points 7 months ago

Alternative_Error414 at 2024-03-17 09:59:29+00:00 ID: kv9eq98


Nej

[–] [email protected] 1 points 7 months ago

liquid-handsoap at 2024-03-17 09:04:04+00:00 ID: kv9aaw6


Selvfølgelig gør de det. Tekgiganterne skal tvinges i knæ af margrethe vestager. Go get em girl

[–] [email protected] 1 points 7 months ago (1 children)

fancyhumanxd at 2024-03-17 08:58:01+00:00 ID: kv99tnt


Øøøøh? Selvfølgelig.

[–] [email protected] 1 points 7 months ago (1 children)

Cryptomartin1993 at 2024-03-17 13:48:31+00:00 ID: kva2dlc


Jeg er mest overrasket over at folk er overraskede - det er en virksomhed i et kapitalistisk system, selvfølgelig optimerer de for profit. Det smukke ved det her system er så, at vi har mulighed for ved lov at gøre den korrekte vej profitabel, men vores politikkere er en flok infantile dinosaurer så det sker ikke foreløbigt

[–] [email protected] 1 points 7 months ago

SurKaffe (OP) at 2024-03-17 15:08:39+00:00 ID: kvaepxm


Bare det at de (politikerne) selv bruger mediet uden at overveje nogen af de andre muligheder der findes..."Men det er jo gratis, og det er dér alle er"...right...

[–] [email protected] 1 points 7 months ago (2 children)

SurKaffe (OP) at 2024-03-17 08:54:07+00:00 ID: kv99iy4


Det er jo ikke nogen overraskelse for nogen. Jeg håber EU kommer på banen her og laver nogen stramme regler. Og ikke kun for børns skyld, men for os alle. Ingen forældre kan styre det 100% for deres børn på andre måder, end helt at forbyde dem adgang - det er for mig at se ikke en løsning. De store udbydere af sociale medier skal gøres ansvarlige for hvad de præsenterer brugerne for. AI kan i dag filtrere det meste skrald fra, også de irriterende fake bitcoin reklamer med kendte danskere. Men det sker ikke, og de fleste kan jo nok godt gætte at det er for stor en indtægtskilde for Meta til at de vil lukke 100% ned for det.

[–] [email protected] 1 points 7 months ago

GladForChokolade at 2024-03-17 09:01:34+00:00 ID: kv9a3ok


AI kan i dag filtrere det meste skrald fra,

Det bliver en kamp mellem AI og AI for det kan efterhånden også generere det meste.

[–] [email protected] 1 points 7 months ago (1 children)

MeagoDK at 2024-03-17 17:37:12+00:00 ID: kvb3wum


Det burde være krav om at man selv kan bestemme sit indhold. Forestil dig et YouTube hvor man tilvælger videoer og kanaler som børnene (og en selv) kan se og bliver tilbudt. Det vil famende være lækkert.

[–] [email protected] 1 points 7 months ago

Grizzi at 2024-03-18 06:20:22+00:00 ID: kve5heo


Det hedder YouTube kids….

[–] [email protected] 1 points 7 months ago

Marc2059 at 2024-03-17 10:06:26+00:00 ID: kv9faie


Vi ved det går ud over børn og der sker ingenting fra vores politikeres side. Hvornår blev Instagram sat ind på behovspyramiden? SoMe i den version vi har i dag er skadelig. For både børn og voksne, men især børnene forstår ikke hvordan de negativt bliver påvirket.

[–] [email protected] 1 points 7 months ago

JakobSejer at 2024-03-17 09:55:26+00:00 ID: kv9eekt


Chock-chock-chock-chock.....

[–] [email protected] 1 points 7 months ago (4 children)

danetourist at 2024-03-17 10:14:39+00:00 ID: kv9fybh


Hun har ingen dokumentation har for den påstand udover, hvad hun tror. 

 Ifølge Lotte Rubæk lader Meta bevidst skadeligt indhold om selvmord og selvskade ligge på deres platforme for at tjene penge

Jeg ved godt alle er klar på at hoppe med på den vogn, men prøv lige at overveje, hvad der giver mening her. 

Hvordan kan det nogensinde værre en god forretning at trække en smule mere engagement ud af det her problematiske indhold?

Hvorfor skulle Meta sætte deres omdømme og goodwill hos deres flere milliarder brugere over styr bare for at få lidt flere kliks fra en sårbar men lille gruppe?

Måske er forklaringen på problemet faktisk den som Meta selv kommer med: Det er hamrende svært at moderere milliarder af brugeres indhold på en pålidelig og effektiv måde. 

[–] [email protected] 1 points 7 months ago

kredep at 2024-03-17 12:44:55+00:00 ID: kv9u4cn


"En smule engagement"... siger redditoren der anklager andre for at snakke efter forstand.

Hvis du sviner, må du betale for oprydningen. Uanset hvor semantisk du har lyst til at dreje den, er den ikke længere end som så. Hvis det er for dyrt at gøre rent efter dig, må du indstille din forretning.

[–] [email protected] 1 points 7 months ago (1 children)

SurKaffe (OP) at 2024-03-17 10:28:19+00:00 ID: kv9h2ev


Meta har med 110% teknologien på plads til at opspore og fjerne skadeligt indhold. Det har man kunnet i årevis. Bare se alle de Youtube strikes vi så for et par år siden pga musik, der blev genkendt af AI. De kan opspore hvordan ulovligt indhold deles mellem brugere, og lade politiet retsforfølge dem. Tror du ikke de kan opspore skadeligt indhold? Hendes beskrivelse af deres ligegyldighed er meget genkendligt med den måde Mark Zuckerberg opførte sig som om han var helt blank omkring Facebook under en retssag for nogen år siden. Med alt det skrald man ellers ser på deres sociale medier, så er jeg ikke i tvivl ... penge > skadeligt indhold.

[–] [email protected] 1 points 7 months ago (2 children)

danetourist at 2024-03-17 10:51:15+00:00 ID: kv9izza


Du snakker som du har forstand til.

Det er fuldstændigt trivielt at opspore copyrighted materiale, fordi det har en klar digital signatur som meget nemt kan genkendes og som copyright-holderne aktivt holder de sociale medier opdaterede med hele tiden.

Hvis Sofie skriver noget om selvmord er det på ingen måde trivielt at fastslå om det er indhold, der kan være skadeligt for andre. Eller om det er indhold, der generelt oplyser, om det er indhold som har en terapeutisk værdi for hende og hendes nærmeste eller om Sofie er på randen af at begå selvmord og skriver noget som et råb om hjælp som så mange som muligt skal se det i stedet for at din AI slukker for hendes sidste håb.

AI teknologi som overhovedet kommer i nærheden af at kunne dette er først lige kommet på markedet!

[–] [email protected] 1 points 7 months ago (1 children)

SurKaffe (OP) at 2024-03-17 11:03:42+00:00 ID: kv9k23t


Og er der digital signatur på nogen af de forfærdelige videoer som danske børn har delt og er blevet straffet for at dele? Nej. Facebook fortæller ikke nogen hvad deres teknologi kan. Men når man ser hvad andre kan, og med deres størrelse, så kan det godt være jeg "snakker som jeg har forstand". Jeg giver ikke 25 øre for noget af det de siger officielt. De skal tjene penge, og det er hvad det handler om. Først når nogen sætter dem under hårdt pres, ligesom det skete for Apple og deres lightning stik, sker der noget.

[–] [email protected] 1 points 7 months ago

danetourist at 2024-03-17 11:17:15+00:00 ID: kv9l87k


At bede Apple om at skifte til USB-C svarer til at bede dansk landbrug om at skifte traktorer til at være el-drevne.

At bede Facebook om lave en teknologi, der fejlfrit kan censurere alle brugeres indhold at svare til at bede dansk landbrug om at avle en ko som ikke udleder metangas.

Selvfølgelig er FB fokuseret på at tjene penge, men netop derfor er de også interesserede i at løse det her problem. Der er jo ingen penge i at drive de største sociale netværk, hvis brugerne får dårlige oplevelser på dem eller der er mange, der taler om at det er farligt at bruge dem.

I forhold til digital signatur på problematiske billeder og videoer: Ja, der bruger de også digitale signaturer til at blokere. Men hvis Benny fra Tappernøje uploader en ny video til Facebook, så skriver han jo ikke til dem og deler videoens digitale signatur med dem først. Det tager noget tid før indholdet bliver identificeret som problematisk og kan blive blokeret automatisk fremover.

Og husk, når en bruger ser noget uheldigt, så kan det være blandt 1% af al det forfærdelige, der er blevet posted, og de resterende 99% er faktisk filtreret fra.

[–] [email protected] 1 points 7 months ago (1 children)

dakjelle at 2024-03-17 11:24:13+00:00 ID: kv9lupw


Exactly. Det meste indhold på nettet er indekseret af meta og det er ikke umuligt for dem at sammenligne uploads med det som allerede er indekseret. Også selvom der ikke er et MD5 match.

Og det materiale som rent faktisk er unikt skal selvfølgelig igennem en ai tagger som hurtigt kan identificere problematisk materiale som skal tjekkes af en moderator.

Men det koster jo penge at drive og Meta ved godt at de tjener bedst på det vilde indhold.

[–] [email protected] 1 points 7 months ago (1 children)

danetourist at 2024-03-17 11:40:57+00:00 ID: kv9ndns


Det meste indhold på nettet er indekseret af meta

Nej, men måske du tænker på Google?

Meta ved godt at de tjener bedst på det vilde indhold

Nej. Hvis det var tilfældet ville 4chan have en større markedsværdi end Meta.

[–] [email protected] 1 points 7 months ago

dakjelle at 2024-03-17 11:54:03+00:00 ID: kv9onb5


Selvfølgelig har Meta indekseret internettet og selvfølgelig har de mulighed for at holde fuldstændig styr på hvad der bliver uploadet til dem. Og selvfølgelig vælger de bevist at lade være med at stoppe alt fordi det giver views og koster penge at kontrollere.

[–] [email protected] 1 points 7 months ago (1 children)

part-time_memer at 2024-03-17 10:31:15+00:00 ID: kv9hb26


Så må de jo ansætte flere til at moderere deres indhold. De har jo praktisk talt ingen support overhovedet, du kan ikke kontakte dem hvis du oplever noget eller har problemer.

Hvis man ikke kan ansætte flere, så er det jo forretningsmodelen der er fucked, så må de nedskalere på en måde til de kan styre deres service.

At de har vokset sig så store, og nu bare kan sige "Platformen er for stor til at moderere" er jo falliterklæring.

[–] [email protected] 1 points 7 months ago (1 children)

danetourist at 2024-03-17 11:00:07+00:00 ID: kv9jr2a


Det kan du sige, men så er det farvel til alle social medier. Ingen kan naturligvis drive et social medie, hvor man skal mandsopdække alle brugere, hver gang de poster eller kommenterer.

Og faktisk er det vel også farvel til SMS'er og alle andre digitale kommunikationsplatforme, hvor man kan risikere at nogen sender noget farligt til en.

Men der er jo også den mulighed, at man tænker sig om og kigger på, hvad problemet egentligt er. Det er jo ikke Facebook, der deler skadeligt materiale, det er andre brugere. Hvis så mange selvskader, så skal vi måske tage hånd om det problem i stedet for? Måske skal vi tale med vores børn (uha!) i stedet for at lade de store techvirksomheder babysitte dem?

Måske er der nogle der skal have hjælp i stedet for at blive censureret? Måske skulle vi lave lovgivning om, at man ikke må dele den slags indhold?

Man kan komme i fængsel for at hylde Hamas' gerninger 5000 km væk, men uden konsekvens være medskyldig i andres selvmord og selvskade i sit eget land?

[–] [email protected] 1 points 7 months ago (1 children)

part-time_memer at 2024-03-17 11:58:31+00:00 ID: kv9p38h


Du trækker den alt for langt ud. Der skal bare være nok support til at hvis man reportere noget, så bliver det kigget på hurtigt, og ikke dagen eller en uge efter.

Og det giver ingen mening du nævner sms. Det jo ikke en platform styret af nogen, hvor man scroller igennem.

Vi skal også hjælpe folk ja.

[–] [email protected] 1 points 7 months ago

danetourist at 2024-03-17 12:35:24+00:00 ID: kv9t11r


Min telefon har et spamfilter på mine SMS'er. Så jo, der er faktisk allerede teknologi involveret, som bestemmer hvad jeg skal se på SMS. Men det er underordnet. Hvis jeg sender gruppebeskeder til folk med forfærdeligt indhold, så er det naturligvis mig som afsender, der har skylden, også selvom modtageren aktivt er gået med i gruppen. Det samme er gældende på Facebook og Instagram, det er afsenderens ansvar selvom brugeren følger afsenderen og Meta tror, det er noget du gerne vil se.

I forhold til "bare" at evaluere rapporteret indhold, så overvej at for hver gang der retmæssigt bliver rapporteret problematisk indhold, så bliver der rapporteret mange gange mere indhold som ikke er problematisk. Folk bruger den funktion i flæng, enten i ond vilje når de er uenige med nogen, eller når folk bare misforstår reglerne. Det er stadig ikke trivielt i så stor volumen som Facebook har.

[–] [email protected] 1 points 7 months ago (1 children)

appleis2001 at 2024-03-17 11:50:05+00:00 ID: kv9o932


Jeg ved godt alle er klar på at hoppe med på den vogn, men prøv lige at overveje, hvad der giver mening her. 

Dine retoriske spørgsmål giver ikke så meget mening, når man tænker over de skandaler som Meta har været involveret i det seneste årti.

Men jeg er mere interesseret over hvorfor du er så troskyldig over for Meta. I det store billede, er det ikke bedre, at man er krævende over for Meta, så de har en tilskyndelse til at yde en bedre service?

[–] [email protected] 1 points 7 months ago

danetourist at 2024-03-17 12:24:37+00:00 ID: kv9rulm


Fordi jeg har fulgt dette tæt over mange år, og jeg ser gang på gang at folk misforstår, hvad det handler om, og at folk tillægger Meta onde hensigter som ikke engang ville give mening selv, hvis Meta var en virksomhed der udelukkende var drevet for at maksimere aktionærernes profit.

At Meta har haft skandaler hængende i mange år er i mit perspektiv et udtryk for netop dette.

Jeg synes det er fint at stille krav til Meta, men det skal være rationelt og det skal være rimeligt, også i forhold til alle de andre aktører i branchen, som ofte kører frisag.

[–] [email protected] 1 points 7 months ago

Hobolonoer at 2024-03-17 17:10:07+00:00 ID: kvaz77g


Meta går uendeligt meget op i "sunde og gode fællesskaber" , men samtidig fylder de deres betalte annoncefelter med ringe forklædte phising, ransomware, pyramidespil og fake news.

Hvor er der en voksen?

[–] [email protected] 1 points 7 months ago

miklosokay at 2024-03-17 16:13:21+00:00 ID: kvaphwu


*surprised pikachu*

[–] [email protected] 1 points 7 months ago

Less_Tennis5174524 at 2024-03-17 18:36:37+00:00 ID: kvbedtl


Der skal helt klart være strengere krav til Meta og andre sociale medier, men der skal også stilles bare lidt kritik af alle de forældre der bare giver deres børn en smartphone og uden nogen forældrekontrol opsat.

En iPhone kommer med massere af værktøjer for at forældre kan styre hvad ens børn installerer og bruger af apps. Du kan styre:

  • Hvilke forudinstallerede apps der må bruges
  • Om der må hentes nye apps
  • Instille maks daglig skærmtid
  • Filtrer eksplicitte sange, film og andet der kan købes.
  • Putte filter på Safari webbrowseren så man ikke kan se porno osv. Eller sætte at alt bortset fra udvalgte hjemmesider tillades.

Derefter kan man kigge på de muligheder som de enkelte sociale medie apps har. F.eks. Snapchat som lader forældrene se hvad børnene sender og modtager, og hvem de er venner med. På Meta apps kan du styre skærmtid og indstillinger for privatliv, putte filter på forskellige typer indhold osv. På tiktok kan en forældre tænde for "STEM Mode" der gør så man primært ser indhold der er lærigt. Samt gøre deres profil privat så de ikke kan sende/modtage beskeder eller selv oploade videoer.

Hvor mange forældre har faktisk orket at sætte dette op?

[–] [email protected] 1 points 7 months ago

stfuiamafk at 2024-03-17 18:19:44+00:00 ID: kvbbfoq


Det er jo i hvert fald det, de siger. Det kan også godt være, det er sådan. Meta er meget gode til at pege på alle de ting, som er virkelig svære, når det kommer til sikkerheden blandt børn og unge

  1. Hun ved intet om, hvad der faktisk foregår i maskinrummet ift. fjerne skadeligt indhold på platformen og hvilke udfordringer, der er forbundet med det. 2. Hun indrømmer, at det muligvis er umuligt at fjerne ALT skadeligt indhold på platforme med flere milliarder brugere.

Medicin med alvorlige bivirkninger eller potentielt farligt legetøj ville også blive pillet ned fra hylderne meget hurtigt.

Nej. Du kan købe paracetamol i håndkøb, som i de rigtige doser er potentielt dødeligt. Farligt legetøj, som de klassiske magnetstange, børn elsker, og som flere er døde af at spise, er IKKE ulovlige, men derimod frarådet små børn at lege med.

Tydeligvis ikke, når børn og unge i så høj grad stadig ser skadeligt indhold. Det burde slet ikke ligge der, siger hun.

Nej, det burde ikke ligge der, men hun har selv lige erkendt, at det muligvis er UMULIGT at fjerne ALT skadeligt materiale fra en platform.

Og jeg kan virkelig ikke se, hvilket kapitalistisk incitament META skulle have i at have selvmordsvideoer og børneporno liggende på deres platform. Det er jo hverken i deres el. deres investorers interesse. Det er ikke, fordi jeg er en sucker for META og de apps, de ejer/har udviklet, men der er bare så mange åbenlyse huller i dennes "eksperts" udsagn, at jeg ikke kan lade være med at påtale det.

[–] [email protected] 1 points 7 months ago

CantKBDwontKBD at 2024-03-18 06:44:57+00:00 ID: kve7h84


What? Et selvregulerende organ oprettet af selvsamme virksomhed som organet skal kontrollere virker ikke?

Jeg. Er. I. Chok.

Nå men. Nu vil jeg gå tilbage og se hvordan det går med alle de landmænd der helt frivilligt kan vælge at nedsætte deres udslip og lever uden krav om offentlig regulering.