aurélie jean algo

J’ai lu "De l’autre côté de la machine" d’Aurélie JEAN.

L’ouvrage, sous-titré "Voyage d’une scientifique au pays des algorithmes", est intéressant, se lit très bien, et présente le parcours de cette scientifique qui a orienté une partie de ses travaux sur les biais algorithmiques. Au passage elle désacralise ce qu’est un ordinateur, un algorithme, une intelligence artificielle. Voici quelques notes. On ne peut pas passer à côté de ces sujets quand on fait de la veille et de l’intelligence économique. (voir une présentation sur YT)

Donner du sens avec le code informatique


- Aurélie JEAN a su donner du sens dans le code informatique. Et pas le moindre. En s’interrogeant sur les langues universelles et notamment sur l’esperanto elle a eu une révélation : "C’est à ce moment précis que j’ai compris une chose fondamentale : ce que tant d’intellectuels avaient cherché à créer, je l’avais sous les yeux – ou, devrais-je dire, sous les doigts : le code informatique comme réponse au mythe de Babel".
- Elle présente l’informatique comme un miroir du réel, un reflet du monde. C’est à partir de ce monde virtuel qu’elle a construit les outils qui ont amélioré et sauvé des vies … dans le réel.

Chasser les biais algorithmiques


- Une bonne partie du livre est consacré aux biais algorithmiques.
- "J’allais désormais traquer les biais possibles à chaque étape de mon travail pour les éviter autant que possible. Je devais les anticiper, les chasser. Et cela passe par un esprit critique encore plus affuté – une sortie d’autodéfense intellectuelle pour m’éviter les pires erreurs. Noam Chomsky parlait d’autodéfense intellectuelle pour combattre toute fabrique du consentement. Je me suis souvenue de ses textes qui me rappelaient notre faiblesse à tous : croire à priori sans aucun acte de rébellion intellectuelle ce qu’on nous dit, ce qu’on voit et ce qu’on apprend (…) Comprendre ce passage de "nos" biais aux biais algorithmiques est essentiel pour porter un regard critique sur les technologies qui nous entourent aujourd’hui".
- Elle se veut vigilante "l’existence même des biais doit nous forcer à nous interroger toujours davantage sur nos travaux, nos modèles, nos conclusions. Dans le cas contraire, nous risquons de commettre de profondes erreurs, avec des conséquences parfois désastreuses".
- Elle rappelle l’effet ELIZA, ce biais naturel qui nous fait ressentir une certaine empathie envers les robots.
- Elle rappelle le cas d’algorithmes que l’on a pu déclarer racistes (parce qu’ils ne reconnaissaient pas les peaux noires par exemple) et explique que cela était dû au manque de diversité ethnique dans les équipes de développement.
- Elle prolonge la réflexion avec le cas d’outils autoapprenant à partir de bases de données biaisées. "C’est encore plus vrai dans le cadre des techniques d’apprentissage en intelligence artificielle, qui font développer dans leurs réseaux neuronaux des critères implicites biaisés et difficilement identifiables".
- Pour limiter les biais, elle imagine l’utilisation d’agents algorithmiques pour évaluer le comportement biaisé d’un algorithme. Une sorte de "police des algorithmes".
- Elle a écrit un équivalent du serment d’Hippocrate, un des premiers codes éthiques d’intelligence artificielle, le serment de Holberton-Turing. La charte d’éthique de Montréal présenté en décembre 2018 va dans le même sens.

Rassurer sur l’IA forte et le quantique


- "L’ordinateur est stupide et profondément docile. Car, au fond, que fait-il ? Il effectue sans la moindre analyse critique des tâches que nous, humains, par l’écriture de lignes de code, lui commandons d’exécuter (…) nous sommes les maitres de la machine".
- Elle attaque sans le nommer Laurent Alexandre et assure que l’Intelligence Artificielle forte n’existera jamais.
- Elle pense que l’ordinateur quantique ne pourra pas résoudre tous les problèmes "la plupart des problèmes auxquels j’ai été confrontée dans ma carrière ne trouveraient pas nécessairement plus de réponse avec la logique quantique".

Promouvoir ouverture, transdisciplinarité et éducation


- J’adore cette petite phrase "les philosophes réfléchissent sur un monde qui leur échappe, alors que les scientifiques construisent un monde sur lequel ils ne réfléchissent pas" !
- Il y a aussi une ode à la complémentarité entre disciplines "j’ai compris que le futur s’inscrit dans l’interdisciplinarité, cette capacité à translater ses compétences d’une discipline à l’autre et à travailler avec des gens profondément différents de vous-mêmes".
- "Assurer le large développement de cette culture scientifique n’est pas qu’une question d’éducation, c’est un impératif démocratique : nos débats doivent se nourrir d’une recherche de vérité, de logique, de doutes raisonnables, et non de passions sans fondement !". Et plus loin elle explique que "défendre ses libertés, c’est connaitre ses droits. Aujourd’hui les droits de chacun s’articulent autour des usages des technologies numériques, qui décident parfois en partie pour nous et nous assistent dans nos métiers et nos vies. En comprenant leurs ressorts, on appréhende plus facilement les limites de l’intelligence artificielle, mais aussi le champ des possibles".
- "C’est l’un des paradoxes de notre époque : une évolution est en cours, elle est dans tous les médias et sur toutes les lèvres, elle est dans toutes les conversations autour du zinc, du café ou verre à la main… Mais elle reste largement incomprise".

Dernier point : Elle baigne dans la tech américaine, et on ne trouvera pas de déclaration anti-gafam. Juste une petite note de bas de page "voila (entre autres) pourquoi Facebook, Google et les autres sont si gourmands des données personnelles : plus ils en collectent, plus leurs algorithmes peuvent être précis".

Je rapprocherais le livre d’Aurélie JEAN de celui de Luc Julia "L’intelligence artificielle n’existe pas" et de celui de Dominique Cardon "Culture numérique de Dominique" dont j’ai fait une synthèse sur mon blog. Concernant les biais en sociologie, ma référence est Gérald Bronner. Au final : Livre essentiel pour les professionnels de la veille et de l’intelligence économique qui veulent percevoir les impacts de l’intelligence artificielle, et en mesurer les forces et les faiblesses.

Jérôme Bondu