Je vois qu& #39;on parle beaucoup d& #39;intelligence artificielle et puisque c& #39;est les vacances, je vous propose ce thread s& #39;appuyant sur le livre Coders de Clive Thompson. Désolé pour les simplifications. Je vous renvoie à cet excellent ouvrage si vous voulez des infos plus détaillées.
Tout d& #39;abord, lit-on, le rêve de tout informaticien est de créer un programme qui se comporte et pense comme un humain, qui est capable d& #39;utiliser notre langage, de former des abstractions et des concepts.
Le challenge est lancé en 1956 (Dartmouth College) : créer une intelligence artificielle. Difficile ? Incroyablement complexe. Faire penser une machine est horriblement difficile.
Imaginez. Vous créez un chatbot. Vous devez anticiper toutes les choses possibles qu& #39;un utilisateur dira. Rien que pour dire Bonjour, il faut prévoir une infinité de possibilités (hello, salut, coucou, hey, etc. Certains disent même «adieu»). Et on ne parle même pas de grammaire!
Plus dur est encore de faire que la machine apprenne par elle-même. Imaginez que vous écrivez à votre bot que l& #39;économie grecque est en berne à cause de l& #39;euro. Quel sens cela a-t-il pour une machine ? Qu& #39;est-ce qu& #39;un pays ? Qu& #39;est-ce que la Grèce? Que signifie « être en berne »?
Tout cela est tellement difficile qu& #39;on a connu un AI Winter. À partir 60, on a laissé tomber. Les seuls trucs qui ont fonctionné ont été des programmes automatisant certaines décisions bancaires à base de if-else statements, mais aucune machine capable d& #39;apprendre par elle-même.
Il faudra attendre le « big data » et le « machine learning » pour que les ordinateurs (plus puissants aussi) soient capables de collecter des tonnes d& #39;informations et ainsi « apprendre » quelque chose.
Clive Thompson donne comme exemple une entreprise de Barcelone (en 2003) capable de prédire des « tubes » en analysant des millions de chansons (rythme, mode majeur ou mineur...). Ce qu& #39;ils ont fait avec une Norah Jones alors inconnue en prédisant son succès.
Et puis viennent les « neural networks » à peu près modelés sur le modèle du cerveau humain en produisant plusieurs couches. Chaque couche est composée de nœuds, un peu comme les neurones d& #39;un cerveau connectés les uns aux autres.
Pour faire marcher un neural net, il faut l& #39;entraîner. Pour qu& #39;il reconnaisse des tournesols, vous rassemblez des images de tournesols. La 1re couche est déclenchée par les pixels de l& #39;image et ses neurones déclenchent ou non la 2e.
Et ainsi de suite jusqu& #39;à ce que l& #39;IA décide si oui ou non, c& #39;est un tournesol. Pour faire ça, il vous faut des milliers voire des millions de photos de tournesols. Mais grâce à internet, accéder à autant de données au début des années 2000 devenait enfin possible.
C& #39;est vers 2011 que des informaticiens songent à utiliser les phalanges d& #39;ordinateurs de Google pour construire de puissant réseaux neuronaux et ainsi reconnaître n& #39;importe quelle image. Ça a commencé avec des... chats.
Après ça, c& #39;est la ruée vers le deep learning : Facebook identifiant des visages, les voitures autonomes, Uber prédisant les nouveaux trajets...
Je passe sur les moyens de nourrir l& #39;IA (plein de datas, un « océan de maths »), le code construit par Google qui évite d& #39;avoir à tout faire soi-même ou le bidouillage qui s& #39;apparenterait au... jardinage.
Ce qui m& #39;a intéressé, c& #39;est ce qui suit dans le livre de Thompson. Là encore, je vais résumer à grandes enjambées, mais c& #39;est vraiment étonnant. On va voir que l& #39;IA — une machine — est remplie des préjugés humains.
En 2015, Jacky Alciné, un développeur afro-américain, découvre que Google Photos est capable de tagguer automatiquement des photos : sous les photos de vélos est écrit « vélo », sous les photos d& #39;avions est écrit « avion »...
Mais en regardant ses selfies, Alciné découvre que l& #39;étiquette générée par l’IA Google photos indique... « gorille ». https://www.theverge.com/2015/7/1/8880363/google-apologizes-photos-app-tags-two-black-people-gorillas">https://www.theverge.com/2015/7/1/...
Pourquoi l& #39;IA de Google ne reconnaissait pas un afro-américain ? Probablement parce qu& #39;elle n& #39;avait pas été entraînée suffisamment. La plupart des photos ayant servi à entraîner l& #39;IA étaient celles de blancs. Les employés de Google comptent 2% de blacks.
En fait, C. Thompson montre que les « biais » dans les IA apparaissent fréquemment. Il donne l’exemple d’algorithmes donnant à des restaurants mexicains de mauvaises notes.
Tel restaurant n& #39;était pas mauvais, mais l& #39;IA s& #39;étant nourrie des associations trouvées sur le web qui contient de nombreuses histoires impliquant des Mexicains dans histoires racistes, l& #39;IA donc a appris les préjugés racistes.
L& #39;IA peut être sexiste également. Le mot « il » est associé à « chef », « philosophe » ou « architecte » alors que le mot « elle » est associé à « libraire », « réceptionniste ». Le mot « homme » à « développeur », le mot « femme » à « femme au foyer ». https://www.cmu.edu/news/stories/archives/2015/july/online-ads-research.html">https://www.cmu.edu/news/stor...
Le problème est que l& #39;IA peut avoir un impact sur les décisions importantes, une décision judiciaire par exemple. C& #39;est le cas de COMPAS aux USA censé aider des juges surchargés de travail en prédisant les probabilités de récidive.
Pour résumer, COMPAS est un système qui a des préjugés racistes et a tendance à envoyer les noirs en prison. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing/">https://www.propublica.org/article/m...
J’arrête là. Je terminerai ce thread un peu plus tard.