France
La France et les Français
Communautés principales
Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org
FAQ, guides et ressources :
Actualité internationale
Loisirs:
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
Vie Pratique:
Société:
Villes/Régions
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
- [email protected]
Pays:
Humour:
Fedivers:
Règles
-
Multi-lingual community: posts in other language than French are allowed. 🚀
-
Tous les francophones sont bienvenus. 🐌
-
Remember the human : pas d’insultes, pas d’agressivité, pas de harcèlement entre utilisateurs. 🤖
-
Xénophobie, racisme et autre forme de discrimination sont interdits.🌈
-
Pas de doublon. Pas de spam. Évitez les paywalls autant que possible.☔
-
Utilisez la fonction "Report" pour signaler le contenu contrevenant aux règles.🏴
-
Le contenu doit être en rapport avec la France ou la population française.🇨🇵
Communauté de secours:
view the rest of the comments
Déjà, sain petit rappel sur les algorithmes. Ensuite, je vais faire une défense prudente des algorithmes et une critique de leur déploiement:
Ça réagit comme on le lui demande. Dans la plupart des cas, soit en laissant pisser soit en générant une alerte pour qu'un humain regarde et prenne une décision. Pour chacun de ces cas, ça peut rentrer dans une des choses typiquement recherchées.
Maraudage de plus de 300s -> alerte si ça a été configuré.
Stationnement devant un endroit stratégique.
dépôt d'ordure ou dépôt de colis suspect.
Ce sont en effet des choses sur lesquelles les algos, tout comme les humains censés être chargés de la surveillance, peuvent générer des alertes. L'avantage des algos, c'est qu'ils ont beaucoup moins de mal à être neutres et non-racistes. Tu configures la maraude de 300s -> ça alertera de la blonde aux yeux bleus en habit bourgeois aussi bien que du SDF noir *. Le 2 poids 2 mesures arrive en fait quand on passe le relais à des humains. Quelque part je serais heureux que ça passe plutôt le relais à des robocops incapables de faire la différence, et que l'ensemble de la population se rendre compte d'à quel point les lois passées sont emmerdantes quand on les applique vraiment à tout le monde.
Notez que pour trouver suspect le fait d'être statique 5 min dans l'espace public, faut déjà être bien parano.
Mais j'aimerais qu'on arrête de foncer sur le chiffon rouge des "algos". C'est leur déploiement et leur configuration qui sont problématiques et dont on doit parler, pas du fait que ce soit algorithmique, ce qui est en soit est un progrès: ça veut dire que plus des faits sont reportés, d'une façon plus objective et moins coûteuse. Le problème c'est que justement beaucoup d'équilibres dans notre société reposent sur le fait que certaines lois ne sont justement pas correctement ni systématiquement appliquées. Le coeur du problème est là.
Parce qu'il y a quand même des potentiels d'avancée assez considérables pour la vie privée dans le déploiement d'algos plutôt que d'humains: Si tu déploies un système de video surveillance pour alerter des vols dans une entreprise, tu n'as besoin d'avoir d'alertes que pour ça, t'as pas besoin des videos de quand André et Ahmed se roulent des pelles dans le fond de l'entrepôt. Bien conçu un tel système peut ne conserver réellement que les informations utiles à sa mission et pas le reste.
Si ta métrique est le "fait signalé par euro dépensé", si tu baisses le cout, tu augmente l'efficacité économique (à nombre de signalements corrects égaux, ce que je pense que les algos n'ont pas de problème à faire). La critique de la video-surveillance est plutôt en général qu'elle déplace les problèmes: quand une caméra est installée, les crimes se déplacent hors de sa zone mais ne baissent pas dans la zone globale.
* Si vous voulez parler du racisme qui émerge de certains entraînements de modèle, on peut, mais sachez que ce n'est absolument pas systématique et que s'en prémunir ou non est une volonté politique, pas une contrainte technique.
Vu les propos du ministre de l'Intérieur actuel, ce n'est pas forcément hyper rassurant
Je te rejoins tout à fait. Mais critiquez pas la matraque, critiquez celui qui l'utilise, et adaptons la lutte. C'est bien plus facile de corriger le racisme dans un algo que dans une institution de 100 000 personnes. Exigeons que ces algos soient ouverts et examinables, ainsi que les façons de leurs configurations.
Mettez vous un moment dans la peau d'un dirigeant raciste qui décide de faire taper sur les Arabes. Vous faites une réunion avec quelques préfets, vous leur dites des trucs plein de dogwhistles "Bon, maintenant je veux qu'on embarque plus facilement les gens louches et que la peur change de camp. Faut pas se mentir, les suspect on les reconnaît vite. Vous m'avez compris."
L'algo, lui, il a pas compris. Il regarde pas CNews et si on veut l'inspecter, on peut facilement le "mettre sur le grill" pour tester ses biais. Vous devez à ce moment là, si vous voulez les rendre racistes, donner des ordres et instructions, écrites, prouvable et aisément annulables ou vous taper tout l’entraînement sur des données racistes.
Il faut, c'est clair et certain, des organismes de contrôle (on peut pas filer plus de pouvoir à la CNIL par exemple?) mais l'organisation technique du contrôle est bien plus facile et bien plus objective. Son absence en est d'autant moins excusable et c'est là qu'il faut appuyer.
Effectivement, et ça ne semble pas un scénario impossible non plus.
En fait de mon côté j'ai l'impression que aglos ou pas, les politiques trouveront toujours le moyen d'appliquer leurs politiques, ça ne changera pas grand chose de ce côté là. Les polítiques vont surveiller de très près les résultats fournis par les algos, et les modifier tant qu'ils ne correspondront pas à leurs attentes
Ce qui nous sauve, c'est que ces gens pensent que leurs biais racistes sont la réalité. Que si tu enlèves tout biais "woke" tu te retrouves avec un système qui justifie leur modèle du monde. La plupart accueillent comme des évolutions favorables les systèmes "neutres" sans se rendre compte qu'ils sont "biaisés" contre leur point de vue du monde.
C'est en effet pas impossible d'entraîner un système raciste, mais c'est pas facile à cacher. Il suffirait d'une loi disant que la CNIL ou une résurrection de la HALDE doit avoir accès aux modèles des caméras auto à des fins de tests de discrimination pour corriger tout ce système. Bien sur que les racistes vont y résister mais ce combat là est bien plus facile à gagner pour nous. Ça demande juste une loi, très peu de budget et de personnel pour un gain immense.
Quand on voit que CNEws est toujours sur la TNT malgré tous les rappels à l'ordre, j'ai l'impression que les lois ne suffisent pas malheureusement
En effet: Les lois sont appliquées par l’exécutif, on a un exécutif collaborationniste. Le problème actuel vient pas des lois en l'occurrence.