Want to make creations as awesome as this one?

No description

Transcript

Des humains derrière les algorithmes ?

EMI / EMC 3e

Objectif :Créer une image-affiche pour sensibiliser ses camarades sur un sujet lié au thème de l'activité.Pourquoi? Avoir un regard critique sur nos pratiques en lignePrendre conscience que les algorithmes ont besoin des humains et de leurs données pour fonctionner et s'améliorerComprendre comment une information en ligne arrive jusqu'à nous en passant par des filtres parfois "humains"Réfléchir à la manière dont nos données et nos activités en ligne peuvent être utilisées à notre insu, pour améliorer des services et des plateformes numériques

Choisissez un humain

Comment créer votre image explicative ?

Raphaël HerediaProfesseur-documentaliste

Coment créer votre image explicative ?

Je suis modérateur de contenu en Asie

Je suis dans le microtravail pour améliorer des IA

Google filtre les infos ou bien c'est moi?

Je bosse pour une plateforme de service à la demande

J'adore les suggestions personnalisées !

Je fais de l'astroturfing

Quand je me connecte, j'aide des robots à reconnaître des formes !

Je suis lanceur d'alerte concernant Apple et Siri

Je lutte pour des algorithmes moins racistes ou discriminants

Je travaille bénévolement pour les réseaux sociaux

Je suis dans une ferme à clics

Des personnes sont employées par des plateformes pour améliorer les performances des algorithmes : on parle de MICROTRAVAIL.Amazon Mechanical Turk(lancée par Amazon en 2005) est l'une d'elle.Elle vise à faire effectuer par des humains de nombreuses micro-tâches en ligne, comme :- valider une proposition deGoogle Traduction-identifier des objets sur des photosLa rémunération pour cette activité est très faible (1 à 2 euros l'heure) et se fait "à la tâche"Certains micro-travailleurs se plaignent de la fatigue occasionnée par ce type d'activité au bout d'un temps long : il faut passer d'une tâche à une autre rapidement.Observez le reportage pour en savoir plus :

Certaines personnes sont employées pour vérifier les contenus ou messages publiés en ligne qui posent problème ou ont été signalés. Ce sont des MODERATEURS.Ils sont chargés de modérer (accepter ou non la mise en ligne) des contenus qui pourraient être choquants :photos pornographiques, voire pédophilesphotos de scènes violentespropos haineuxCertains manifestent une détresse psychologique du fait d'être toute la journée en face d'innombrables scènes atroces.Ces modérateurs manquent de reconnaissance et sons souvent mal payés.Ils sont souvent embauchés dans d'autres pays pour des raisons économiques (lois plus souples, possibilités de donner des salaires faibles)La plupart du temps il sont invisibilisés, ils ne sont pas au contact des autres employés, et les entreprises qui les utilisent n'en parlent pas.Observez le reportage pour en savoir plus :

L'information qui m'arrive sur un moteur de recherche ou un réseau social passe en effet par des algorithmes, qui peuvent effectuer unTRI. Mais parfois ce sont les utilisateurs qui effectuent un FILTRAGE souvent inconscient !Certains algorithmes détectent nos préférences lors de nos précédentes sessions de recherche sur le web (par exemple en étant connecté à son compte Google quand on recherche / ou des suggestions publicitaires).Sur les réseaux sociaux comme Facebook ou Twitter, l'algorithme nous expose davantage aux "amis" avec lesquels on a le plus d'interactions par exemple.Certains pensent que les algorithmes nous enferment dans des "bulles de filtres" : c'est une tendance à nous enfermer dans une bulle personnalisée, en nous faisant recevoir des infos qui ont été filtrées pour nous sans qu'on le ressente.MAIS les chercheurs ne sont pas d'accord avec cette idée de bulle de filtre. En réalité, on peut facilement être exposé aux idées des autres. Internet peut nous exposer facilement à une diversité d'opinions. Avant Internet, on faisait déjà des choix pour s'informer (en choisissant une chaîne, un journal...) !Même si un moteur de recherche fait des pré-selections pour nous (les sites sont souvent rangés par popularité), la personnalisation resterait légère. Par contre il peut y avoir des différences de résultats selon le moment de la recherche, le lieu, le pays, selon le moteur utilisé...FINALMENT La bulle dans laquelle on peut s'enfermer viendrait moins de l'algorithme que de nous-même !On peut facilement conforter une croyance en cherchant des sources qui vont dans notre sens : on parle plutôt de chambre d'écho. Sur Youtube par exemple, si l'on cherche "les illuminatis sont parmi nous", on peut des suggestions sur le sujet ! FINALEMENT LA QUESTION EST DE SAVOIR SI QUAND TU VAS SUR UN MOTEUR DE RECHERCHE, TU CHERCHES UNE REPONSE OU UNE CONFIRMATION !Pour aller plus loin cette vidéo t'explique comment certains peuvent rester dans "leur bulle" sur le web.On appelle ça le "biais de confirmation" (tendance à retenir les sources d'infos qui confirment nos opinions déjà faites sur un sujet).

Certaines personnes servent de relais entre une plateforme de service et nous : il y a par exemple UBER Eats ou Deliveroo pour les commandes de nourriture.Ces entreprises mettent en relation des demandeurs (nous) et des chauffeurs/livreurs qui vont effectuer la livraison, en temps réel, pargéolocalisation.En nous connectant au service, nous (et les chauffeurs-livreurs) créeront des données qui seront utilisées par les algorithmes de l'application et de l'entreprise : infos de géolocalisation et de parcours GPS, notation des personnes et gestion de réputation, etc.Observez le reportage pour en savoir plus :

Deezer, Youtube, compte Google, pubs sur mes réseaux sociaux, applications d'achats... Certains algorithmes croisent les données des utilisateurs pour améliorer lessuggestions.Le fait de sélectionner certains contenus ou certains achats peut permettre aux algorithmes de mieux nous connaître pour nous proposer d'autres choses.Quelque exemples :Sur AMAZON, l'achat de livres permet au site de nous proposer d'autres suggestions en lien avec nos goûts ou ce qu'ont acheté les autres internautes qui ont fait la même sélection que moi.Sur DEEZER, les algorithmes de personnalisation tentent de s'améliorer en nous proposant des suggestions toujours mieux ciblées par rapport à nos goûts musicaux.Nos données peuvent être des ressources de valeur pour des enseignes commerciales !La CNIL (commission national de l'informatique et des libertés) lutte pour le respect de nos données et de notre vie privée. Elle a par exemple, pointé du doigt le système du COMMERCE PREDICTIF : grâce aux achats en ligne ou avec des cartes de fidélité il était possible de deviner les produits qui pourraient plaire à des profils de personnes et leur faire des suggestions.L'enseigne américaine Target a ainsi créé un outil de prédiction afin de deviner, en fonction des courses effectuées, le moment où des femmes tombaient enceintes. Selon certains achats effectués (préparation à l'arrivée d'un bébé), ils devinaient les changements d'habitudes d'achat, et pouvaient mieux faire des suggestions futures.Observez ce reportage pour en savoir plus, avec l'exemple de Google :

Certaines personnes planifient la publication ou le partage d'un contenu pour faire croire à une impression de grande popularité et de succès "naturel "de ce contenu. On appelle ça l' ASTROTURFING ou désinformation populaire planifiée.Cela consiste à :utiliser les algorithmes des réseaux sociaux pour faire croire qu'une info est populaire et partagée par beaucoup de personnesplanifier à plusieurs eten même temps des Like, des partages, afin d'être dans les "tendances" du moment.Le but peut-être de :populariser une marque, un produitmettre en popularité un sujetmanipuler l'opinion (sur des idées politiques par exemple, ou un sujet "polémique")Par exemple : Certains ont fait croire qu'à la suite d'un tweet d'Evian, au premier jour du Ramadan, certains musulmans s'étaient énervés et avaient incité Evian à s'excuser.Il s'est avéré que de nombreux comptes d'extrême droite et plusieurs médias avaient monté le sujet en popularité en faisant croire à un petit scandale.Observez le reportage pour en savoir plus :

Sans nous en rendre compte , nous travaillons parfois bénévolement pour améliorer des algorithmes !En nous connectant de manière sécuriséeLe ReCaptcha est un système pour vérifier que vous n'êtes pas un robot, lors d'une connexion.Il peut prendre la forme de lettres à inscrire.-> L'une des fonctions de l'outil ReCaptcha (propriété de Google) était de numériser des livres anciens. Les bouts de textes que vous devez recopier sont parfois des bouts d'un livre que Google vous demande de numériser!Ou il peut prendre la forme d'une reconnaissance de formes dans des images.-> Et bien, saviez-vous qu'en effectuant cette micro-tâche vous pouviez être en train d'aider l'algorithme à mieux distinguer des lettres et des formes?En décrivant un partage de contenu.En plaçant par exemple des tags ou des hashtags sur une photo que je publie, j'aide les algorithmes à mieux discerner les formes ! Le fait de mettre #soleil ou #plage, aide l'algorithme à mieux décrire et reconnaître une photo qui ressemblera à la vôtre!(Photo : Antonio Casilli, dans la série Invisibles, FranceTv)Derrière le plaisir procuré par ces outils, c'est comme si nous travaillions un peu pour eux ! Car nous leur fournissons des données qui leur sont utiles !Parfois les algorithmes se trompent et on peut les tromper ! Par exemple certains se sont amusés à tromper une intelligence artificielle de reconnaissance d'image avec des tests !Observez la vidéo pour en savoir plus :

Certaines personnes travaillant chez Google ou Apple auraient signalé que les ASSISTANTS VOCAUX (comme SIRI) pouvaient récupérer certaines de nos données vocales.Selon le lanceur d'alerte Thomas le Bonniec, ex-employé chez Apple,l'assistant vocal SIRI permettait à des employés comme lui de vérifier et améliorer la compréhension des enregistrements par SIRI, en validant la reconnaissance de morceaux vocaux.Un article sur le sujetObservez le reportage pour en savoir plus :

Les algorithmes peuvent-ils faire preuve de DISCRIMINATION? Certains exemples ont montré que les algorithmes apprennent au contact des humains connectés mais peuvent dysfonctionner !En 2015, Google s'excuse pour avoir identifié un couple d'afro-américains comme des "gorilles".L'algorithme fait parfois des erreurs et a besoin d'humains pour travailler à son amélioration.Mais ce problème viendrait aussi du manque de diversité parmi les ingénieurs qui conçoivent ces technologies.La chercheuse afro-américaine, Timnit Gebru, a fondé le collectif "Black in AI" (qui rassemble des chercheurs noirs dans l'intelligence artificielle). Le but est d'aider les algorithmes à être moins discriminants. Elle a été licenciée par Google en 2020 pour avoir voulu dénoncer ces problèmes.En effet :les outils de reconnaissance marchent moins bien avec les visages fémininsla reconnaissance faciale marcherait mieux avec des peaux blanchesune femme noire est doublement discriminée de ce fait.L'intelligence artificielle n'est pas raciste en elle-même ! Mais elle est exposée à des données qui ont tendance à fausser ses résultats, et interagit avec des humains internautes qui ont leur propres représentations ou stéréotypes.Observez le reportage pour en savoir plus :

En décrivant ce que je partage (mots clés, hashtag, etc) sur un réseau social, je peux aider l'intelligence artificielle à mieux identifier ces contenus. L'Intelligence artificielle apprend grâce aux données que nous lui fournissons gratuitement !En plaçant par exemple des tags ou des hashtags sur une photo que je publie, j'aide les algorithmes à mieux discerner les formes ! Le fait de mettre #soleil ou #plage, aide l'algorithme à mieux décrire et reconnaître une photo qui ressemblera à la vôtre!(Photo : Antonio Casilli, dans la série Invisibles, FranceTv)Derrière le plaisir procuré par ces outils, c'est comme si nous travaillions un peu pour eux. Car nous leur fournissons des données qui leur sont utiles !Parfois les algorithmes se trompent et on peut les tromper ! Par exemple certains se sont amusés à tromper une intelligence artificielle de reconnaissance d'image avec des tests, comme ceux-ci.Les algorithmes ne cessent d'évoluer ! En 2017, Facebook a développé un nouvel algorithme qui qui permettait de décrire une photo sans avoir besoin des mots-clés que nous avons placé en légende !https://www.begeek.fr/facebook-nouvel-algorithme-de-reconnaissance-dimage-test-230409Facebook : La reconnaissance d'image Lumos met les " tags " au placardGrâce à l'intelligence artificielle Lumos, Facebook va pouvoir analyser le contexte d'une photo sans que cette dernière ne soit taguée par des...Begeek.fr

Certaines personnes sont embauchées illégalement pour cliquer sur "j'aime" sur des contenus, pour partager des contenus ou placer des liens sur des faux sites. On vous parle de ces FERMES A CLIC et ces FERMES A LIEN.Les fermes à clic :il s'agit de groupes de travailleurs qui sont employés par une entreprise pour rendre un contenu, une information, ou un produit, populaires. Il s'agit souvent d'une fraude afin de manipuler l'opinion, gagner en popularité, ou gagner de l'argent.Ces personnes employées peuvent être amenées àCliquer sur j'aime de nombreuses fois sur le même contenuavec différents comptesPasser sa journée à partager le même contenu plein de fois, avec divers comptesCliquer sur les publicités d'un site d'une entreprise fraudeuse, afin de lui procurer de l'argent.Les fermes à lien: il s'agit de groupes de travailleurs chargés de placer un lien sur plein de faux-sites afin de rendre une fausse information ou un produit populaires.Certaines personnalités politiques, de part le monde, ont été suspectées d'embaucher ces fermes :afin de manipuler l'opinion ou de gonfler leur popularité sur les réseaux.Les fermes à clic sont souvent employées dans d'autres pays(L'inde, la Chine, le Mexique et les Philippines en abriteraient énormément).Observez le reportage pour en savoir plus :