aurélie jean algo

J’ai lu "De l’autre côté de la machine" d’Aurélie JEAN.

L’ouvrage, sous-titré "Voyage d’une scientifique au pays des algorithmes", est intéressant, se lit très bien, et présente le parcours de cette scientifique qui a orienté une partie de ses travaux sur les biais algorithmiques. Au passage elle désacralise ce qu’est un ordinateur, un algorithme, une intelligence artificielle. Voici quelques notes. On ne peut pas passer à côté de ces sujets quand on fait de la veille et de l’intelligence économique. (voir une présentation sur YT)

Donner du sens avec le code informatique


- Aurélie JEAN a su donner du sens dans le code informatique. Et pas le moindre. En s’interrogeant sur les langues universelles et notamment sur l’esperanto elle a eu une révélation : "C’est à ce moment précis que j’ai compris une chose fondamentale : ce que tant d’intellectuels avaient cherché à créer, je l’avais sous les yeux – ou, devrais-je dire, sous les doigts : le code informatique comme réponse au mythe de Babel".
- Elle présente l’informatique comme un miroir du réel, un reflet du monde. C’est à partir de ce monde virtuel qu’elle a construit les outils qui ont amélioré et sauvé des vies … dans le réel.

Chasser les biais algorithmiques


- Une bonne partie du livre est consacré aux biais algorithmiques.
- "J’allais désormais traquer les biais possibles à chaque étape de mon travail pour les éviter autant que possible. Je devais les anticiper, les chasser. Et cela passe par un esprit critique encore plus affuté – une sortie d’autodéfense intellectuelle pour m’éviter les pires erreurs. Noam Chomsky parlait d’autodéfense intellectuelle pour combattre toute fabrique du consentement. Je me suis souvenue de ses textes qui me rappelaient notre faiblesse à tous : croire à priori sans aucun acte de rébellion intellectuelle ce qu’on nous dit, ce qu’on voit et ce qu’on apprend (…) Comprendre ce passage de "nos" biais aux biais algorithmiques est essentiel pour porter un regard critique sur les technologies qui nous entourent aujourd’hui".
- Elle se veut vigilante "l’existence même des biais doit nous forcer à nous interroger toujours davantage sur nos travaux, nos modèles, nos conclusions. Dans le cas contraire, nous risquons de commettre de profondes erreurs, avec des conséquences parfois désastreuses".
- Elle rappelle l’effet ELIZA, ce biais naturel qui nous fait ressentir une certaine empathie envers les robots.
- Elle rappelle le cas d’algorithmes que l’on a pu déclarer racistes (parce qu’ils ne reconnaissaient pas les peaux noires par exemple) et explique que cela était dû au manque de diversité ethnique dans les équipes de développement.
- Elle prolonge la réflexion avec le cas d’outils autoapprenant à partir de bases de données biaisées. "C’est encore plus vrai dans le cadre des techniques d’apprentissage en intelligence artificielle, qui font développer dans leurs réseaux neuronaux des critères implicites biaisés et difficilement identifiables".
- Pour limiter les biais, elle imagine l’utilisation d’agents algorithmiques pour évaluer le comportement biaisé d’un algorithme. Une sorte de "police des algorithmes".
- Elle a écrit un équivalent du serment d’Hippocrate, un des premiers codes éthiques d’intelligence artificielle, le serment de Holberton-Turing. La charte d’éthique de Montréal présenté en décembre 2018 va dans le même sens.

Rassurer sur l’IA forte et le quantique


- "L’ordinateur est stupide et profondément docile. Car, au fond, que fait-il ? Il effectue sans la moindre analyse critique des tâches que nous, humains, par l’écriture de lignes de code, lui commandons d’exécuter (…) nous sommes les maitres de la machine".
- Elle attaque sans le nommer Laurent Alexandre et assure que l’Intelligence Artificielle forte n’existera jamais.
- Elle pense que l’ordinateur quantique ne pourra pas résoudre tous les problèmes "la plupart des problèmes auxquels j’ai été confrontée dans ma carrière ne trouveraient pas nécessairement plus de réponse avec la logique quantique".

Promouvoir ouverture, transdisciplinarité et éducation


- J’adore cette petite phrase "les philosophes réfléchissent sur un monde qui leur échappe, alors que les scientifiques construisent un monde sur lequel ils ne réfléchissent pas" !
- Il y a aussi une ode à la complémentarité entre disciplines "j’ai compris que le futur s’inscrit dans l’interdisciplinarité, cette capacité à translater ses compétences d’une discipline à l’autre et à travailler avec des gens profondément différents de vous-mêmes".
- "Assurer le large développement de cette culture scientifique n’est pas qu’une question d’éducation, c’est un impératif démocratique : nos débats doivent se nourrir d’une recherche de vérité, de logique, de doutes raisonnables, et non de passions sans fondement !". Et plus loin elle explique que "défendre ses libertés, c’est connaitre ses droits. Aujourd’hui les droits de chacun s’articulent autour des usages des technologies numériques, qui décident parfois en partie pour nous et nous assistent dans nos métiers et nos vies. En comprenant leurs ressorts, on appréhende plus facilement les limites de l’intelligence artificielle, mais aussi le champ des possibles".
- "C’est l’un des paradoxes de notre époque : une évolution est en cours, elle est dans tous les médias et sur toutes les lèvres, elle est dans toutes les conversations autour du zinc, du café ou verre à la main… Mais elle reste largement incomprise".

Dernier point : Elle baigne dans la tech américaine, et on ne trouvera pas de déclaration anti-gafam. Juste une petite note de bas de page "voila (entre autres) pourquoi Facebook, Google et les autres sont si gourmands des données personnelles : plus ils en collectent, plus leurs algorithmes peuvent être précis".

Je rapprocherais le livre d’Aurélie JEAN de celui de Luc Julia "L’intelligence artificielle n’existe pas" et de celui de Dominique Cardon "Culture numérique de Dominique" dont j’ai fait une synthèse sur mon blog. Concernant les biais en sociologie, ma référence est Gérald Bronner. Au final : Livre essentiel pour les professionnels de la veille et de l’intelligence économique qui veulent percevoir les impacts de l’intelligence artificielle, et en mesurer les forces et les faiblesses.

Jérôme Bondu

 

 

 

 

serda formation distance

Je vous invite à suivre les deux formations que je vais donner à distance pour la Serda :
- le 04/05/2020 de 14h à 17h sur le thème : "Les fondamentaux de l'Intelligence Economique".
- le 05/05/2020 de 14h à 17h sur le thème : "Les fondamentaux de la sécurité informationnelle".

Pour ce qui est de l'intelligence économique le contenu va s'articuler en quatre points :
- Qu’est-ce que le management de l’information ?
- Mettre en place une dynamique de veille
- Gérer les problématiques d'influence
- Gérer les problématiques de sécurité informationnelle


Pour ce qui est de la sécurité informationnelle :
- Présentation des enjeux
- Présentation d'une typologie de problèmes
- Panorama des actions offensives de concurrents
- Focus sur les personnes Cibles
- Panorama des bonnes pratiques pour se protéger


Pour s'inscrire c'est ici et la. Et voici la liste des formations à distance de la Serda et le responsable de la formation Jean Gauthier.
A bientôt,
Jérôme Bondu




web20 15ans et après coauteurs

J’ai eu le plaisir de participer à l’écriture du livre « WEB 2.0… 15 ans déjà et après ? » (déjà annoncé ici). 57 pionniers du web 2.0 ont été réunis par David Fayon et Fadhila Brahimi pour produire ce beau témoignage.

Je viens de lire le livre et ait découvert les autres contributions. Voici quelques notes en deux billets (voir le premier).

Les aspects juridiques sont notamment traités par Eric Barbry et Olivier Iteanu . Ce dernier rappelle une évidence « un seul État, les États-Unis, a pu pour la première fois dans l’histoire de l’humanité, opérer au niveau mondial une surveillance des populations car il s’appuie sur une puissance industrie nationale qui collecte et stocke les données du monde entier, faisant des États-Unis le grenier des données personnelles du monde et de l’Europe en particulier ».  
Il rappelle que le respect de la vie privée tel que le droit français le défendait, est maintenant proche de ce que les Américains appelle la privacy. Or cette privacy « s’efface chaque fois que les propos sont tenus dans un espace public ». (voir p 103).

Anthony Poncier revient sur l’infobésité : « C’est donc une course contre notre « temps de cerveau disponible » est plus globalement notre niveau d’attention et de concentration qui est en jeu. Car avec l’augmentation constante de la production de contenus, c’est aussi celle des notifications, puisque nous sommes en moyenne interrompus toutes les trois minutes … ».

Cela revient comme une antienne dans beaucoup de témoignages. Olivier Berlingué cite Philippe Verdier qui confirme la chute d’attention à 8 secondes des personnes connectées » (voir à ce propos le livre de Patino La civilisation du poisson rouge).

Cyrille Frank rappelle les mécanismes de l’infobésité : « les réseaux sociaux sont passés maitres dans l’art de capter régulièrement cette attention par le système des rétributions symboliques. Les likes, retweets, favs qui récompensent nos publications entretiennent notre autosatisfaction et déclenchent ainsi des mécanismes hormonaux de plaisir, par production de dopamine ».  Si cela nous fait rester plus longtemps sur notre fil d’actualité, on voit plus de pub ! « voila pourquoi les algorithmes de Facebook se mettent à favoriser les informations les plus émotionnelles : émouvantes, choquantes, révoltantes… tout sauf la normalité trop fade du monde réel ». Et il enfonce le clou : « Pire, ils ont permis l’avènement de cette société de post-vérité où tout est relativisé, où les principes de la raison hypothéticodéductive sont remis en cause par le doute nihiliste, où les valeurs républicaines sont niées au bénéfice d’intérêts communautaires et religieux ». Et les sources d’informations sérieuses, mais ennuyeuses, disparaissent dans le fond du classement. Il conclut « Il y a donc un paradoxe assez surprenant : la technologie a permis l’explosion des sources d’information et de contenus via internet. Pourtant, c’est elle qui rétrécit aujourd’hui notre horizon informationnel ».

François Laurent et Damien Douani traitent des marques. Céline Crespin et Yann Gourvennec expliquent le combat des marques pour exister sur les réseaux sociaux. Yann a une belle métaphore pour fustiger ces réseaux qui tiennent les marques par la barbichette « c’est un peu comme si TF1 faisait payer ses annonceurs une première fois pour faire de la publicité et éteignait dans leur dos les postes de télé des spectateurs, forçant ainsi les annonceurs à remettre au pot pour rallumer les postes de TV » ! CQFD.

Mathieu Flaig traite de réalité virtuelle dans un article passionnant. Il évoque notamment l’intérêt des GAFAM. « Facebook annonce également que sa vision à 10 ans est basée sur la réalité augmentée et virtuelle (avec sa division Oculus), laissant penser que bientôt, on n’ira plus sur Facebook, mais dans Facebook ».

Serge Soudoplatoff revient sur les pouvoirs des algorithmes : « Une des grandes erreurs sur l’impact d’internet sur la société a été de croire que cela allait améliorer les rapports humains, et apporter de l’ouverture. (…) En fait, le net a favorisé les phénomènes de polarisation bien plus qu’il n’a effacé les différences ».

Mes deux articles sont en fin d’ouvrage et soulignent l’importance de reprendre la maitrise du web face aux acteurs hégémoniques.

L’ouvrage se conclut sur les manières de réenchanter internet. Et on en a besoin …

Au final, ce livre apporte une vision caléidoscopique des 15 ans du web 2.0 L’ensemble est très riche, profond, et passionnant. C’est une référence à lire et à avoir dans sa bibliothèque. Bravo David et Fadhila pour ce beau travail !

Le livre a été édité par Kawa et on pourra retrouver toutes les informations sur le site dédié réenchanter Internet

Bonne lecture !

Jérôme Bondu
Auteur de « Maîtriser Internet, … avant qu’internet ne nous maîtrise » Editions Inter-Ligere
Directeur du cabinet de conseil en Intelligence Economique Inter-Ligere.fr



web20 15ans et après

J’ai eu le plaisir de participer à l’écriture du livre « WEB 2.0… 15 ans déjà et après ? » (déjà annoncé ici). 57 pionniers du web 2.0 ont été réunis par David Fayon et Fadhila Brahimi pour produire ce beau témoignage.

Je viens de lire le livre et ait découvert les autres contributions. Voici quelques notes avec de bons extraits.

J’ai trouvé l’article de Jean-Pierre Corniou particulièrement intéressant.
- Il rappelle l’arrivée du web dans une France acquise au Minitel : « Aussi le web s’est-il installé par effraction, de façon marginale, dans le paysage économique français au milieu des années 1990. Le web n’a pas été immédiatement perçu comme une révolution, mais comme une alternative ouverte, libérale, voire libertaire, d’inspiration nord-américaine, à un système national, performant, mais couteux et fermé ».
- Il continue en pointant les faiblesses commerciales des inventions françaises : « La France avait connu une longue série de performances techniques sans retombées commerciales majeures. On peut citer le système SECAM de télévision couleur, le Minitel lancé dès 1982, mais aussi le Plan Informatique pour tous de 1985 avec les fameux ordinateurs M05 de Thomson. Dans ces trois cas, la technologie n’était pas en cause, mais le refus obstiné et orgueilleux de s’inscrire dans une logique de standards de faits internationaux a coupé les industriels de tout espoir d’exportation ».

David Fayon (avec qui j'échange régulièrement, via ses livres ou rencontres) rappelle entre autres que le web social repose sur quatre lois empiriques :
- La loi de la longue traine
- La loi de Metcalfe
- La théorie du petit monde
- La loi des médias participatifs 90/9/1

Henri Verrier commence par rappeler lui aussi que la France avait joué un rôle majeur dans la naissance d’internet avec le datagramme de Louis Pouzin (voir son livre, sa cofnérence sur RINA et son interview), une solide industrie informatique, de grandes sociétés de service, l’invention de l’ADSL, du triple play, …
Mais nous allons subir un décrochage lié à trois éléments :
- L’explosion de la bulle internet a semblé donner raison aux tenants de la vieille économie.
- La faiblesse du tissu français de capital-risque.
- La limite du marché français, alors qu’une croissance ultra rapide et internationale est un facteur clé de réussite.

Cyrille Chaudoit commence par une citation de Marc Dugain issu de son roman Transparence : « la révolution numérique a conduit à peu de dictatures, mais elle a vu éclore des démocraties autoritaires élues par des internautes manipulés sans conscience de l’être ». Et finit par La Boétie « il est moins utile de vouloir empêcher la tyrannie en luttant contre elle que d’en comprendre ses mécanismes pour parvenir à ne pas la subir, ni la désirer ». Chapeau !

Pierre Valet en rajoute une couche avec une question terriblement ironique sur la France : « comment un peuple de dépressifs notoires, le plus consommateur d’anxiolytiques au monde, est-il parvenu à confier à des pythies-algorithmiques, nourries par ses affres et noirceurs, son information, son avenir, ses choix de vie individuels comme collectifs ? ». Plus loin il lance que « au XXIème siècle, les nations sont devenues mortelles ». Et encore plus loin « la réalité n’est jamais qu’une perception manipulée par notre sérotonine et folle envie d’avoir raison, un champ de bataille, un théâtre d’ombres et d’opérations ». Et il évoque une pharmacopée :
- Retrouver notre capacité de concentration.
- Lutter contre notre indigence sémiotique, retrouver une richesse de vocabulaire.
- Renforcer le rôle de l’éducation nationale.
- Réenseigner la philosophie, en tant qu’outil permettant de penser par soi-même, et de jouer un rôle dans la fabrique du citoyen.
- Rendre nos outils d’observation du monde à nouveau intelligibles à tous.
- Nous redonner le pouvoir sur notre fil d’actualité, en pouvant réintégrer ou retirer des sources d’informations.
- Faire face aux prétentions démiurgiques d’un Google « souhaitant ordonner l’ensemble des informations du monde – tel un Jorgue de Burgos, le bibliothécaire aveugle du « Nom de la Rose » d’Umberto Ecco, qui seul connait le plan de la bibliothèque, seul en connait la géographie obscure, le système de classement, seul peut nous guider vers ses ouvrages ou les mettre à l’index des livres interdits »

C’est sur cette image sublime, forte et saisissante que je finis ce premier billet. Je m’en veux de ne pas avoir vu avant ce superbe parallèle ! Mais Pierre ne m’en voudra pas de lui piquer (en lui en attribuant bien sur la paternité ;-)

Comme on a pu le lire, ces pionniers du web sont aussi des fins lettrés, riche de plusieurs cultures, informatique, historique et littéraire.

Le livre a été édité par Kawa et on pourra retrouver toutes les informations sur le site dédié Réenchanter Internet

Bonne lecture !

Jérôme Bondu
Auteur de « Maîtriser Internet, … avant qu’internet ne nous maîtrise » Editions Inter-Ligere
Directeur du cabinet de conseil en Intelligence Economique Inter-Ligere.fr






ABD cahiers 2020 01 cover 725x1024

L’Association Belge de la Documentation publie un numéro spécial intitulé « La veille aujourd’hui » dans les Cahiers de la Documentation (numéro 2020/1 publié en mars 2020). J’ai eu le plaisir d’y participer avec un article sur la veille collaborative.

Cette participation fait suite à une conférence à Bruxelles le 9 mai 2019 sur le même thème dans le cadre de "Inforum 2019" séminaire intitulé "Stronger together : les pratiques collaboratives en Information & Documentation". Le colloque était aussi organisé par l'ABD Association Belge de Documentation.

Voici l’extrait de l’édito de Michèle ORBAN qui mentionne les co-auteurs :
« Notre itinéraire se poursuivra sous l’angle de la technologie et de l’intelligence artificielle. Cette étape incontournable sera assurée par Marc Borry, qui nous exposera les opportunités et les menaces que représentent les derniers développements de l’intelligence artificielle, et plus particulièrement du ”deep learning”, pour les veilleurs. Et parce que la technologie ne fait pas tout, Jérôme Bondu enchaînera sur la nécessité de l’aspect collaboratif à toutes les étapes du processus. »

On y lira aussi un article de Véronique Mesguich sur les méthodes d’analyse de l’information stratégique, et de Christophe Deschamps sur le mindmapping.

Bonne lecture et bravo pour ce beau travail !

Jerome