mooc serdaJ'ai eu le plaisir de participer au MOOC Serda sur la veille, l'IA et la datavisualisation.

Le MOOC est présenté comme suit : "Archimag et Serda Formation, en partenariat avec Geotrend, ont développé un Mooc consacrée à la veille et à l’intelligence économique intitulé "Veille, IA et Datavisualisation". Son ambition : initier les veilleurs aux techniques de datavisualisation les plus efficaces et leur faire découvrir les avantages de l’intelligence artificielle." Toutes les informations sur cet article écrit par Cathy Potel !

J'apprécie énormément la cartographie comme outil d'aide à l'analyse. Voici quelques exemples d'ateliers réalisés en formation et qui ont donné lieu à un billet dans mon blog. La plupart sont réalisés avec Gephi ... mais pas tous :


Quelles entreprises font le plus d’Intelligence Economique ?
Les professionnels de l’IE font-ils vraiment de la veille, de l’influence et de la sécurité économique ?
Professionnels de l'Intelligence Economique : Trouverez-vous votre profil Linkedin sur Google ou Bing ?
Comment reconstituer une partie de l’Etat-Major d’une entreprise ? Cas d’étude avec XPO Logistics.
Cartographie sur le secteur de l’Autopartage.
Comment cartographier les influenceurs sur Twitter … en 5 minutes ?
La presse parle de Liberté et d’Egalité … mais pas de Fraternité !
La presse relaye-t-elle plus l’accusation ou la mise en examen de Fillon ou de Le Pen ?
Simulons comment Youtube peut analyser votre personnalité


Bon visionnage du MOOC,

Jerome Bondu

Gayard Cover Front largeJ’ai lu Géopolitique du Darknet de Laurent Gayard (acheté sur le FIC).

Le livre ressemble beaucoup à « Darknet, GAFA, Bitcoin - L'anonymat est un choix » (du même auteur) que j’ai aussi lu et dont je vais publier le compte rendu sous peu. Ces livres traient du même thème que ceux de Jean-Philippe Rennard et de Rayna Stambouliska.

Darknets

Laurent Gayard rappelle l’origine des darknets, les projets des créateurs, leurs objectifs, et ce faisant légitime leur utilisation. Il ne masque pas les déviances possibles (et réelles) du côté dark du net, mais insiste sur leur rôle de derniers remparts face à la dystopie d’internet. Internet 2.0 représente en effet pour l’auteur un « panoptisme horizontal » et une société de contrôle. Le livre est riche en conseils pour surfer sur le côté dark, et je reprends ci-dessous quelques points pour l’amateur qui voudrait s’y balader.

La taille du web fait débat et Laurent Gayard se base sur plusieurs études :
- Internetlivestats.com avance le chiffre d’1,7 milliards de sites en ligne.
- Digimind, rappelle l'auteur, avait calculé en 2005 64 milliards de pages ... Mais bon, cela date un peu ;-)

Deepweb

L’auteur présente sa vision du deep web : un espace où l’on peut trouver des informations, mais non indexés par les moteurs.
- Il donne l’exemple suivant : on peut se balader dans le forum 4Chan mais on ne trouvera pas d’articles à partir d’une recherche dans Google. (voir note 1)
- Ce web profond représenterait 4000 ou 5000 fois le volume du web de surface (indexé) [page 27]

Il étrille l’ICANN :
- « L’ICANN en dépit des changements de statuts intervenus en septembre 2016 et de la réforme du GAC, reste toujours une entreprise de droit californien qui échappe certes à la tutelle du gouvernement américain, mais se voit de fait beaucoup plus exposée à l’influence des fameux GAFTA » (T pour Twitter).
- Et l’auteur cite Louis Pouzin « En pratique le DNS est devenu indispensable. Mais sa structure centralisée n’a rien d’indispensable. Je me réfère souvent au téléphone mobile. Il y a 1500 ou 2000 opérateurs de par le monde qui s’interrogent entre eux grâce à un système de numérotation plus intelligence qu’internet, basé sur un code pays et un code opérateur ».

Acteurs historiques et guerres cryptographiques

Il cite beaucoup d’acteurs historiques, dont David Chaum qui a inventé le routage en onion (base de Tor). Il est aussi le créateur des premières monnaies électroniques cryptographiques. Nous sommes dans les années 70 et déjà le chercheur fait un constat lucide :
- « Les bases d’une société de dossiers sont posées, dans laquelle les ordinateurs pourront être utilisés pour influencer les styles de vie, les chois vestimentaires, les habitudes, les déplacements et associations à partir des données collectées lors des transactions opérées par les consommateurs ordinaires ».
- Chaum, toujours, analyse la dépendance à la publicité « En conséquence, concepteurs, programmeurs et éditeurs web qui dépendaient de l’industrie de la publicité ont été tentés, sinon tenus, de créer une infrastructure qui faciliterait servilement la surveillance des transactions individuelles sur le web ».

Il évoque les guerres cryptographiques, commencées dès les années 70 quand le gouvernement américain freina les avancées de la cryptographie :
- Le gouvernement Clinton voulut forcer l’industrie à adopter la puce Clipper qui aurait permis de passer outre le cryptage.lii
- Puis le gouvernement a voulu imposer la clé escrow, de telle sorte que chaque système de cryptage devait donner une clé de décryptage.
- Puis ils tentèrent de casser les produits de cryptologie qui ne voulait pas donner de clé escrow.
- Jusqu’à inculper Phil Zimmerman développeur de PGP.

Les outils des darknets et du darkweb

Le thème central est le darknet / darkweb. Il présente un beau panorama d’outils, depuis les plus anciens, jusqu’aux plus récents. J’ai notamment retenu Diaspora (attention l’outil est … soutenu par Facebook) Retroshare, Zeronet, Tor (attention, soutenu le Pentagone et Google), I2P… La présentation de Tor est limpide, avec son histoire et ce que l’on peut y faire. L’auteur insiste notamment sur son interfaçage de plus en plus grand avec le web indexable :
- Avec Tor on peut aller sur Facebook ou Twitter
- Avec web2tor et tor2web (codéveloppé par Aaron Swartz et Virgil Griffith) on peut aller du dark au clear et inversement.
- Il présente les moteurs de recherche qui peuvent à partir du clear web, via Tor2Web, rechercher dans le dark : onion.link, onion.cab, ahmia.fi, onion.to (nb : j’ai testé sans résultats probants).

L’estimation de la taille du dark n’est pas plus simple que celle du clear web. Selon les études il a été recensé :
- 60 000 sites (page 142)
- 650 000 pages
- Voir notamment le projet hyperiongrey

Sur le front la cyberguerre il rappelle les principaux faits :
- Le pionnier, Kevin Mitick 
- Les attaques de l’Estonie en 2007, Géorgie en 2008, Ukraine en 2014
- L’impact du livre de deux officiers chinois « La guerre hors limite »
- Puis les attaques de Sony en 2004, les données volées à la société Mossak Fonseca (à l’origine des Panama Papers), les messages volés sur les comptes de sept responsables du parti républicain aux EU en 2016, le piratage de CNN, … et le pompon étant certainement le vol d’applications détenues par la NSA, et qui ont donné naissance à des virus extrêmement puissants (dont Wannacry) !
- Selon la spécialiste Amy Zegard, on peut trouver une faille toutes les 30 lignes de code ! Windows en compte 40 millions. CQFD


Un bémol : les images (captures d’écran) sont de très mauvaises qualités, et pour ainsi dire, illisibles. Mais l’ensemble reste très intéressant.

Jérôme Bondu

- Le livre est consultable sur Google Books
- note 1 : (humm en fait pas si sûr. J’ai testé avec la requête suivante site:4chan.org animals et l’on a bien des résultats). 4chan.org est donc bien indexé (même de manière partielle) par Google.




covid2Dans le cadre d’une formation en veille stratégique auprès des Executive Master de l’IESEG, nous avons mené un atelier d’analyse cartographique.
Il s’agissait d’analyser avec quels mots clés négatifs le coronavirus était associé. Voici les 7 mots clés sélectionnées : danger, crise, épidémie, contagion, panique, pandémie, mort.


Méthodologie


Nous avons interrogé Google Actualité sur les dernières 24 heures. Voici les 7 requêtes que nous avons créés
- intitle:coronavirus OR intitle:covid-19 intitle:épidémie
- intitle:coronavirus OR intitle:covid-19 intitle:danger
- intitle:coronavirus OR intitle:covid-19 intitle:crise
- intitle:coronavirus OR intitle:covid-19 intitle:contagion
- intitle:coronavirus OR intitle:covid-19 intitle:pandémie
- intitle:coronavirus OR intitle:covid-19 intitle:mort

covidJPG


Analyse


Après une collecte des résultats et un petit dépouillement dans un tableur, voici le graphe :
- On y voit que le mot "épidémie" est de loin le plus utilisé.
- Suivi du mot "crise"
- "Mort", "contagion" et "danger" sont à peu près à égalité.
- Viennent les mots "panique" et "pandémie" en queue de peloton.

On voit aussi qu’il y a quelques sources qui sont centrales, dans le sens où elles utilisent plusieurs des mots clés.
- Ainsi BreakingNews est lié à quatre des mots clés : épidémie, crise, contagion et danger.
- Pour BFMTV, ce sont les mots : épidémie, crises et mort.
 

covid3

- Le Figaro, joue sur la panique et la crise.
- France Soir et Sciences et Avenir, ne parlent que de crise.
 covid4


Un grand merci à la super promo de cette année ;-) Composée de Alexandre Poitou, Cécile Tapinoy, Cédric Moretau, Céleste Faivre, Elodie Saint-Cyr, Figen Kaybal, Gautier Grellety, Johann Lacroix, Juliette Bodet Prattico, Laurent Benard, Marina Ubeda, Maxime Jacobus, Miguel Dos Santos, Nathalie Moser Ribeiro, Nicolas Girard-Cheron, Papa Amadou Sarr, Rosine Trival, Sebastien Millanvoye, Sébastien Pannetier, Sidy Mohamed Cissé, Stéphan Sautron, Thibaut Duret.

Jérôme Bondu

NB : j’explique en détail les biais méthodologiques de ce type d’étude, notamment dans les articles :
- Quelles entreprises font le plus d’Intelligence Economique ?
- Professionnels de l'Intelligence Economique : Trouverez-vous votre profil Linkedin sur Google ou Bing ?
- Les professionnels de l’IE font-ils vraiment de la veille, de l’influence et de la sécurité économique ?


web20 15ans et aprèsJ'ai eu le grand plaisir de participer au livre "Web 2.0 15 ans déjà et après ?" coordonné par Fadhila Brahimi et David Fayon. J'ai pu développer l'idée d'une nécessaire réappropriation du web par les internautes, et du danger de la centralisation du pouvoir par les GAFAM et BATXH.

57 pionniers francophone du Web 2.0

Je suis en très bonne compagnie avec 57 pionniers francophone du Web 2.0 et excellents professionnels. Le livre a été préfacé par Claudie Haigneré, première spationaute française et européenne. L'ouvrage a été intelligemment découpé en 15 chapitres (pour les 15 ans du web 2.0) et le tout fait 365 pages ! On y trouvera les repères, les révolutions et les relations bouleversées ou générées par le Web 2.0. Ce livre a vocation à devenir LE livre de référence sur le Web 2.0 Internet est un magnifique outil d'épanouissement et le collectif a voulu dresser sept pistes pour réenchanter Internet !

Sommaire Web 2.0 15 ans déjà et après ?

Introduction : Le pourquoi du livre
Chapitre 1 – Repères historiques
Chapitre 2 – La conquête du Web par les pionniers
Chapitre 3 – Révolution économique
Chapitre 4 – Révolution politique
Chapitre 5 – Révolution juridique
Chapitre 6 – Révolution culturelle
Chapitre 7 – Révolution des usages
Chapitre 8 – Relation à soi et aux autres
Chapitre 9 – Relation à l’information
Chapitre 10 – Relation avec les marques
Chapitre 11 – Relation au travail
Chapitre 12 – Relation aux mondes virtuels (et réels)
Chapitre 13 – Relation aux mondes réels (et virtuels)
Chapitre 14 – Retour vers le futur
Chapitre 15 – Et d’ici 2035 ?
Conclusion : Et après ?


On peut lire sur la 4e de couverture :


"En 15 ans, le Web 2.0 a radicalement transformé notre façon de travailler, de consommer, de vendre, de communiquer… Les technologies (mobile et tablette, 3G ou 4G, médias sociaux, big data, intelligence artificielle, etc.) ont bouleversé nos sphères de vie et notre rapport aux individus, à l’information, aux objets… 57 pionniers vous proposent d’explorer rétrospectivement les conséquences du digital sur notre société (économie, politique, juridique, culturel…). Le but : imaginer 7 pistes de réenchantement pour un futur numérique plus sain et plus responsable face à la domination des géants d’Internet, GAFA (Google Apple Facebook Amazon) et BATX (Baidu Alibaba Tencent Xiaomi)."


Avec les experts


Farid Arab . Thierry de Baillon . Christine Balagué . Éric Barbry . Beer Bergman . Olivier Berlingué . Nicolas Bermond . Fanny Berrebi . Michelle Blanc . Jérôme Bondu . Fadhila Brahimi . Frédéric Canevet . Dominique Cardon . Nicolas Celic . Cyrille Chaudoit . Jean-Pierre Corniou . Céline Crespin . André Dan . Yannis Delmas-Rigoutsos . Damien Douani . Antoine Dubuquoy . Jean-Philippe Encausse . Fabrice Epelboin . Olivier Ezratty . Isabelle Falque-Pierrotin . David Fayon . Mathieu Flaig . Cyrille Frank Yann Gourvennec . David Guillocheau . Claudie Haigneré (Préface) . Olivier Iteanu . Henri Kaufman (Postface) . François Laurent . Yann Leroux . Éric Maillard . Vérone Mankou . Émilie Marquois . Grégory Maubon . Pierre Mawas . Pierre Métivier . Jean-Claude Morand . Ahmed Mehdi Omarouayache . Anthony Poncier . Grégory Pouy . PPC . Benoît Raphaël . Cyril Rimbaud Vincent Rostaing . Jean-François Ruiz . Éric Seulliet . Serge Soudoplatoff . Virginie Spies . Yaëlle Teicher Stein . Pierre Tran . Pierre Vallet . Henri Verdier

100 % des droits d’auteur sont reversés aux associations Emmaüs Connect et Startup for kids qui oeuvrent pour la réduction de l’illectronisme ou fracture numérique. Pour le commander, le lire et faire une bonne action, c’est ici ou chez votre libraire.

Le livre est édité aux Edition Kawa

Livre : 34,90€ TTC . ebook : 22,90€ TTC
Sortie : mars 2020
365 pages

Achetez le chez votre bon vieux libraire. Ou éventuellement sur Amazon.
Bonne lecture

Jérôme Bondu



Louis Pouzin 1Louis Pouzin et John Day, deux acteurs de la création d’internet, ont donné une conférence commune organisée par Inter-Mines le 25 février 2020.

L’objectif était de présenter la naissance d’Internet (intervention de Louis Pouzin), d’en critiquer l’architecture (John Day), puis de proposer le nouveau modèle RINA (interventions de Miguel Ponce de Leon et Philippe Poux). C’était passionnant. Voici quelques notes, essentiellement issues de la conférence de Louis Pouzin :

- Arpanet, n’est pas le premier réseau d’échange de données numériques. Il a été devancé par le système d’échanges d’informations mis en place entre les compagnies aériennes, et un réseau bancaire espagnol. Arpanet n’est donc pas le premier, mais a développé le réseau le plus vaste.
- En France, dans les années 70, il y a eu la volonté de rattraper un retard : un consortium européen d’entreprises informatiques était en train de voir le jour, et la C2I (française) devait les rejoindre. Pour rendre la C2I plus attrayante dans le consortium européen, le gouvernement français a voulu développer un réseau similaire à Arpanet. L’objectif était surtout d’avoir une place valable au sein du consortium.
- La commutation par paquet et surtout l’utilisation d’un chemin non-préétabli était une idée à « rebrousse-poil » des télécoms en France. Car sans chemin préétabli, pas de facturation ! Donc pas d’intérêt.
- La démonstration des Cyclades en 1972 devant divers ministères a prouvé que le système fonctionnait.
- Mais la mort de Pompidou a permis aux télécom de prendre le dessus. La CGE voyait cela aussi d’un très mauvais œil. Et EDF a aussi supporté le réseau Transpac, car il avait besoin d’une mise en réseau de leurs gros ordinateurs. Bref tout se liguait pour l’arrêt du projet Cyclade.
- Les Américains ont repris une partie du travail des Cyclades.
- Au final, Cyclade a tourné de 1972 à 1982 soit une dizaine d’années.

Louis Pouzin 2John Day a présenté avec beaucoup d’humilité et d’humour son apport à la création d’internet. Cette diapo présente sa vision très critique de l’internet d’aujourd’hui. Selon lui, beaucoup de mauvais choix ont été effectués. D’où son intérêt pour RINA.

Miguel Ponce de Leon a présenté avec beaucoup d’enthousiasme le projet RINA. Enthousiasme visible aussi dans le témoignage du Philippe Poux président de RINA.

Louis Pouzin 3

Enfin, le général Watin-Augouard a conclu brillamment cette conférence. Il a rappelé que la France en arrêtant le projet Cyclade et bloqué le travail de Louis Pouzin avait « tué une première fois Mozart ». Il espérait que la France ne reproduise pas cette bêtise en ratant le projet RINA.


Jérôme Bondu

Sur le même sujet :
- Interview de Louis Pouzin.
- Compte rendu du livre : Louis Pouzin, l’un des pères d’internet. Par Chantal Lebrument et Fabien Soyez.




toile que nous voulonsJ’ai acheté « La toile que nous voulons », ouvrage collaboratif écrit sous la rédaction de Bernard Stiegler. Je l’ai acheté essentiellement pour les articles de Dominique Cardon, Evgeny Morozov et Julian Assange. Ces trois articles sont effectivement très intéressants. Le reste est inégal. Voici quelques notes sur les 13 articles de ce livre (publiées sous forme de deux billets).

Premier billet : articles de Bernard Stiegler et Dominique Cardon.

Ce que nous entendons par web neguentropique

Dubitatif, je l’ai été, dès le premier article de Bernard Stiegler intitulé « Ce que nous entendons par web neguentropique ». Voila un auteur qui ne cherche pas à se faire comprendre. Du moins si l’on en juge par la quantité de termes abscons à peine définis. Petit florilège de citations « cette entropie qu’il faut alors qualifier de noétique conduit à la destruction de la noèse comme telle – au sens où la noésis constitue la faculté de penser telle qu’elle n’est pas réductible à l’intelligence qu’est aussi la métis. » Plus loin, il évoque la parrêsia, hypomnémata,aletheia, agoreuin, peri hermeneias, pharmakon, neguentropique. Et je vous passe l’herméneutique ou le biosomatique qui sont encore assez courants…
C’est dommage parce que fondamentalement, je perçois sous certaines phrases (parfois compréhensibles) des éléments fondamentaux. Nouvel extrait :
- « Il est vital pour l’Europe de réinventer le web, et elle en a tout à fait les moyens.
- C’est un enjeu planétaire.
- Le web doit être mis au service d’une économie luttant contre l’entropie (croissance du désordre, perte de diversité).
- La question des savoirs devient capitale. »
Quand je comprends ce qu’il dit, je suis entièrement d’accord. Dommage qu'il soit autant ésothérique …

Le web que nous voulons en huit propositions

Dominique Cardon par opposition à Stiegler écrit de manière limpide. C’est un régal. Son article « Le web que nous voulons en huit propositions » est très bien structuré :
Il commence par souligner que l’on ne peut convaincre le grand public des déviances du web avec un discours catastrophiste. (Et cela m’intéresse d’autant plus que c’est la tendance que je prends dans mes discours). « Il est frappant (écrit-il) d’observer à quel point, il est difficile de faire partager aux internautes l’idée contre intuitive que, sur le web, ils seraient contraints, domestiqués ou enfermés. Alors que l’accès aux informations et aux connaissances a connu une ouverture massive (…). Il est peu adéquat d’utiliser un ensemble de concepts qui a été construit dans un univers de rareté (…). Il rate sa cible en proposant un diagnostic si contre-productif qu’il est à la fois assez improbable et très inefficace ». Le grand public ne s’aperçoit pas de la fermeture car le système numérique mis en place n’a pas d’action sur eux, les internautes, mais sur le système. L’action n’est pas sur les « joueurs mais sur les règles du jeu ». Il n’y a pas d’assujettissement interne des individus, mais un assujettissement de l’environnement !
A partir de ce constat puissant Dominique Cardon fait huit propositions :
- Nous avons besoin des algorithmes. Nous ne pouvons pas retourner à un état du web ou Yahoo proposait un annuaire fait à la main. Cependant nous pouvons exiger une plus grande transparence dans le fonctionnement de ces algorithmes.
- Le web est un bazar et une architecture. Et dans ce vaste territoire nous avons besoin de cartes et de boussoles pour pouvoir nous déplacer. « Les usagers du web souffrent de l’absence de « grandes photos » permettant de voir le web et ses utilisations d’un point de vue que ne soit pas le leur ».
- D’une architecture à priori à une architecture à postériori. Dans ce paragraphe il explique qu’avant les algorithmes étaient les mêmes pour tout le monde. Par exemple les critères de classement des résultats de Google étaient uniques pour tous internautes (à priori). De plus en plus le web que l’on voit est personnalisé (à postériori). Avec la conséquence que l’on ne pourra plus comprendre pourquoi l’on voit ceci ou cela. « De plus en plus, les algorithmes seront non seulement secrets, mais aussi inintelligibles même pour ceux qui les fabriquent ».
- Nous sommes à nous-mêmes nos propres algorithmes. En effet, ce sont nos routines d’utilisation du web qui nous rendent si transparents, si prédictibles, et qui fait qu’au final des algorithmes peuvent nous « comprendre » si facilement.
- Les algorithmes sont des instruments, et il faut les voir comme tels.
- Il faut voir nos propres déterminations. Nous pouvons utiliser tous ces outils numériques, et les retourner pour chercher à mieux nous connaitre.
- Dézoomer pour faire réapparaitre des totalités. Nous devons faire l’effort de faire un dézoomage mental pour mieux nous percevoir dans notre environnement numérique.
- Le web se ferme par le haut et s’ouvre pas le bas. Il est de notre ressort d’agir pour continuer la dynamique créée par les pionniers du web.

Pour conclure, Dominique Cardon me semble être un des grands penseurs d’internet. A lire sans modération.

Suite de mes notes sur « La toile que nous voulons » demain.
On pourra lire mes notes sur son ouvrage « Culture numérique ».
Dominique est intervenu au Club IES en 2016.

Jérôme Bondu



couv louis pouzinIl faut lire le livre « Louis Pouzin, l’un des pères d’internet » écrit par Chantal Lebrument et Fabien Soyez, avec une préface de Korben.

Le livre se lit très vite et est réellement passionnant. On se rend compte à quel point Louis Pouzin et son équipe des Cyclades sont passés très près de la renommée. Le livre raconte le développement de l’informatique en France, les innovations, les réussites, mais aussi les avanies ! Ces dernières ont pris notamment la forme d’un président de la république sous influence, Giscard, qui va briser un bel élan. Néanmoins la trace laissée par Louis Pouzin et son équipe est bien gravée dans le marbre de l’histoire. Et l’inventeur est toujours dynamique et en avance de phase. Il porte aujourd’hui le projet RINA.
Voici quelques bons passages du livre …

Un des pères d’internet

Louis Pouzin a utilisé le datagramme (1) pour créer un premier réseau de transfert de données en paquet. Avec le datagramme les paquets sont envoyés seuls et non au sein d’un flux de messages. « Chaque paquet isolé est ainsi traité indépendamment des autres et n’arrive pas forcément dans le même ordre que l’ors de l’émission d’origine : tous les datagrammes sont alors remis en séquence, et le message découpé au départ est réassemblé à l’arrivée ».
Le projet Cyclade, dirigé par Louis Pouzin, est le premier à vouloir appliquer intégralement le concept, alors qu’Arpanet choisir un concept hybride mêlant datagramme et circuits virtuels.

Malgré cette réussite technologique, le projet Cyclade va avoir de puissants ennemis en France.
« A l’époque, en France, utiliser un tel mode de commutation de paquets était une idée presque criminelle vis-à-vis des PTT, car cela voulait dire qu’on ne leur faisait pas confiance, notamment pour la continuité du service (…) Il y avait une opposition de fond, car les PTT voulaient une politique fermée des communications [Louis Pouzin] voulait une position ouverte, avec des protocoles ouverts. C’était deux visions complètement incompatibles. (…) Une machine à faire du business contre quelque chose fait pour partager »

Cette opposition frontale va tourner au désavantage du projet Cyclade en 1974 : « Cigale (le réseau des Cyclades) marchait alors parfaitement. Mais l’administration française des télécommunications avait décidé qu’il n’avait aucun avenir et qu’il fallait tout miser sur le RCP, futur Transpac. Bien que dédié aux échanges de données, il ressemblait davantage à un réseau téléphonique classique : il était beaucoup plus facile d’y prélever des taxes. En conséquence, toute recherche tendant à développer une autre technologie était considérée comme inopportune ». Pompidou avait porté le projet Cyclade. Giscard D’Estaing va lui porter un coup fatal en stoppant toute la dynamique française en matière informatique : arrêt du plan calcul, arrêt d’Unidata, abortion de la CII par HoneyWell-Bull, et bien sûr arrêt des Cyclades !

Les conséquences de cette décision furent funestes : la réputation de la France en pâtit. Cela entraina une fuite des cerveaux. Et bien sûr, cela sortit la France du peloton de tête des recherches sur le futur internet. Quand Vinton Cerf et Bob Kahn dessinent les contours du TCP-IP, ils reprennent la solution des datagrammes.

Le livre fait la part belle à l’équipe de Louis Pouzin : notamment Hubert Zimmermann, Gérard Le Lann ou Jean-Louis Grangé.

Un homme de conviction et de combat


Louis Pouzin a mené plusieurs combats :
- Dès 1971 il s’indignait devant le conformisme face aux monopoles : Lors d’une conférence il explique : « nous devons résister à la domination d’IBM, et nous ne devons pas utiliser ses solutions techniques juste sous prétexte qu’elle représente 80% du marché »
- Sa guerre contre les monopoles s’étende aussi sur Google. On lit page 137 « Pierre Bellanger propose à Louis Pouzin et Chantal Lebrument de faire un point sur la racine internet de Google, dans un article paru le 7 mai 2016 (dans Le Monde). Fait acquis indiscutable depuis 2009, le navigateur Chrome est sur cette racine et, si c’est transparent pour l’internaute, les données restent la propriété de Google. Inutile de refuser d’avoir un compte sur un réseau social, utiliser Chrome suffit pour que l’avaleur de données se mette en marche. »
- Il critique depuis toujours l’ICANN qui fait un véritable racket sur les noms de domaine. « Le modèle de l’ICANN basé sur une location avec renouvellement est un racket, le fait que cette société de droit privé soit un monopole [est] un scandale ».
- Il fustige aussi le code des noms de domaine en ASCII qui empêche l’utilisation des accents (naturellement absent en anglais).
- Il a beaucoup bataillé pour une gouvernance partagée d’internet.
- Il dénonce bien avant les autres la surveillance de la NSA. Lors d’un sommet en 2003 il explique que « si un pays a les moyens de tout écouter et s’il ne le fait pas c’est qu’il est idiot ».

RINA, l'internet du futur

Le livre se termine sur ce que les auteurs appellent l’internet du futur. Le projet RINA présenté sur le site http://pouzinsociety.org D’ailleurs, une conférence est organisée le 25 février à 18h30 Paris à ne pas manquer (information et inscription) :
Lieu : Mines des élèves des Mines et des Ponts. 270, rue St Jacques – 75005 Paris
Avec les intervention notamment de Louis Pouzin et de John Day, pionnier d'internet (Arpanet) professeur à Boston University (USA).

En conclusion : Selon l’historienne Valérie Schafer, très souvent citée, le travail de l’équipe de Louis Pouzin « a en tout cas inscrit la France dans cette histoire des réseaux de données et de l’internet, et contribué à faire que nous ayons une histoire de l’internet qui prenne aussi source en Europe. »


A pourra voir l’interview de Louis Pouzin en 2011.


Jérôme Bondu

Note 1 : Louis Pouzin n’est pas l’inventeur du mot datagramme (formé sur télégramme) créé par un ingénieur des PTT norvégiennes Halvor Bothner-By.



 

cern

Le journal Le Temps du 4 février 2020 titre « Par crainte pour ses données, le CERN abandonne Facebook »
L’article explique : « Suite à un nouveau modèle de tarification annoncé en juillet 2019 par Facebook, l’institution se trouvait face à un choix : payer pour continuer à utiliser la version initialement gratuite ou passer à «une version certes gratuite, mais sans droits d’administration et d’accès avec une authentification CERN unique, et moyennant un transfert de toutes les données à Facebook». » Que le CERN, inventeur du web, soit tombé dans les bras de Facebook Workplace a de quoi laisser perplexe. Qu'ils en partent parce que Facebook Workplace devient payant me semble tout aussi étonnant. Et si l'outil était resté gratuit ... le CERN l'utiliserait toujours ?

Ce n'est pas tout : Il y a quelques mois Europe 1 titrait « Gmail devient payant alors que "l'ADN de Google, c'est la gratuité" ». L’article détaille : (il y a) « une nouvelle décision de Google : rendre l'accès payant à Gmail, sa messagerie électronique, lorsque ses utilisateurs dépassent quinze giga octets. Google invite, de plus en plus, les abonnés Gmail - sa messagerie électronique - à basculer sur son offre payante s'ils veulent continuer à recevoir leurs e-mails. »

On ne peut s’empêcher de faire le lien entre ces deux informations… Le temps de la gratuité a un temps. Une fois que la dépendance est assurée, soit le nigaud doit payer, soit on se rembourse sur la bête.

Fondamentalement, il y a de quoi s’étrangler les doigts sur le clavier. Les professionnels de l’information n’arrêtent pas de rappeler que les services informatiques gratuits se payent toujours en données. Dit trivialement cela donne « Si c’est gratuit c’est toi le produit ». Ou moins trivialement, j’aime personnellement beaucoup la forme un peu plus choc : Le modèle économique des GAFAM est pareil à celui des vendeurs de crack. La première dose est gratuite. L’accoutumance est immédiate. Le reste se paye au prix fort.

Il serait temps d’entrer dans une phase de maturité numérique. L’enfance informatique avec sa vision bisounours n’a qu’un temps. Les modèles de réflexion apportés par l’intelligence économique et la « souveraineté numérique » sont plus que jamais nécessaires. On pourra revoir à ce propos les interviews de Louis Pouzin et Pierre Belanger.

Jérôme Bondu




Google créé et détruit des outils régulièrement. Les professionnels de la veille se souviennent encore de la disparition de Google Reader. Demain, c’est au tour de Google Correlate.

Google Correlate permettait de détecter des corrélations avec une requête cible. Hervé Kabla détaille dans son blog l’objet de cet outil : Alors que Google trends vous permet de voir l’évolution des tendances de recherche sur une ou plusieurs requêtes, et de comparer leur popularité, Google correlate, lui, vous indique quelles sont les requêtes dont l’évolution de la fréquence d’apparition est la plus proche d’un terme ou d’une expression donnée, sur une zone géographique définie, pendant une période précise.

Corrélations de la requête "veille stratégique"

Pour illustrer cela : si vous voulez savoir quelles sont les requêtes qui sont les plus corrélées à « veille stratégique » il suffit de taper votre requête dans la fenêtre de recherche de Google Correlate. Et vous obtenez des résultats … parfois étonnants ! Car Google correlate ne vous présente pas des requêtes proches au niveau sémantique. Mais simplement au niveau statistique.

Voici un exemple avec l’expression « Veille stratégique » sur Google Correlate très corrélée avec les requêtes sur les "structures", "fluides" ou "intégration" !! Rien à voir avec la choucroute donc. Sauf que l’évolution de l’interrogation de ces différentes requêtes est quasiment identique. La preuve par le graphe ci-dessous.

Google correlate 7 



La même requête sur Google Trends.
Google correlate 8





On pouvait aussi sur Correlate tracer une courbe à la souris… Et l’outil vous présentait les requêtes dont les variations dans le temps correspondaient le mieux !
Ci-dessous mon tracé totalement aléatoire :
Google correlate 4 



Ci-dessous, les requêtes correspondantes (pour info le mot en arabe signifie « pied » :-)

Google correlate 5 


C’est la lecture du livre « Tout le monde ment » que j’ai chroniqué cette semaine qui m’a donné envi de tester Google correlate avant sa disparition. L’auteur évoque Google correlate comme un outil très puissant, idéal pour les statisticiens ou les professionnels du SEO.

Deux affirmations et deux questions

- D’abord, nous vivons une époque formidable, avec une démocratisation d’outils terriblement puissants d’accès aux données et aux connaissances !
- Mais sommes-nous capables de bien les utiliser ?
- Ensuite, nous sommes la richesse de Google, nous qui lui confions tant de choses sur nos recherches, nos besoins, nos questionnements.
- Mais sommes-nous capables d'obtenir un juste retour sur investissement ?

Si vous voulez jouez avec Correlate, vous avez jusqu’au 15 décembre … vite vite vite ...

Jérôme Bondu


NB : Pour en savoir plus on pourra lire la présentation de Google Correlate dans le blog Google.




tout le monde mentJ’ai lu et je recommande « Tout le monde ment … et vous aussi » de Seth Stephens-Davidovitz. Sous-titré « Internet et le big data : ce que nos recherches Google disent vraiment de nous ». Cet ouvrage est important quand on fait de l’intelligence économique.

Voici un compte rendu en deux parties. Lire ici la première partie.


Le big data nous permet de zoomer sur de petits sous-ensembles

- Un des exemples qui m’a le plus intéressé porte sur l’impact des films violents sur la criminalité. Les statistiques officielles prouvent qu’il y a une baisse de la criminalité les weekends de sortie de films violents. Donc on pourrait en conclure qu’il n’y a pas de corrélation. Erreur… explique l’auteur. En réalité, une analyse plus fine du big data permet de comprendre le phénomène : un film violent a beaucoup de chance d’attirer un public violent. Ces derniers vont donc rester assis de 20h à 23h sans boire d’alcool. Ils vont en ressortir « calmés » pour un temps. Et quand bien même ils boiraient à la sortie du ciné, le temps d’incubation de l’alcool va repousser les actes délictueux … Par contre lors de leur prochaine virée entre copains, l’alcool aidant, ils seront plus violents que s’ils n’avaient pas vu le film. Conclusion, la violence des films a bien un impact négatif mais décalé dans le temps ! CQFD.
- Une partie tout aussi passionnante explique que nous avons tous un profil numérique, et des cohortes de personnes nous ressemblent. L’analyse de nos doubles numériques (ou doppelgängers) peut permettre d’anticiper nos prises de position ou nos choix personnels. Beaucoup d’entreprises utilisent ce système pour améliorer leurs offres. C’est ce que fait Amazon quand il nous propose des livres qu’un de nos « doubles numériques » a aimé ! C’est certainement ce que va faire de plus en plus la médecine qui va nous proposer un traitement parce que nos « doubles numériques » l’ont bien supporté.

Le big data nous permet de rechercher non plus des corrélations mais des causalités

- Une autre partie essentielle de son ouvrage concerne l’explication des expériences randomisées (pardon pour l’anglicisme… c’est la traduction dans le livre) appelées Test A/B. Extrait : « Dans le monde digital, les expériences randomisées peuvent être rapides et peu couteuses. Inutile de recruter et de rémunérer des participants. (…) Inutile de faire remplir des questionnaires aux utilisateurs. (…) Inutile de contacter qui que ce soit. Vous n’avez même pas besoin d’informer les utilisateurs qu’ils participent à une expérience. Tel est le pouvoir du big data : il facilite beaucoup la réalisation d’expériences randomisés, qui permettent de détecter de vraies causalités, à tout moment, presque n’importe où, pourvu que l’on soit en ligne. A l’ère du big data, le monde entier est un labo » p220
- Et les GAFAM profitent à plein de cette manne : « En 2011, les ingénieurs de Google ont effectué sept-mille tests A/B. Et leur nombre progresse sans cesse. » « Facebook effectue aujourd’hui un millier de tests A/B par jour. Ce qui signifie qu’un petit nombre d’ingénieurs y lancent en une seule journée plus d’expériences randomisées et contrôlées que toute l’industrie pharmaceutique en une année entière » p231 Obama a fait un grand usage de ces tests pour améliorer sa campagne.
- Et d’où vient notre addiction à l’écran ? Il répond sans détour « De l’autre côté de l’écran, il y a un millier de gens dont le métier est de mettre à bas notre autodiscipline ». Merci qui ? Merci les GAFAM !

Sans surprise Seth Stephens-Davidovitz est technosolutionniste (vous ne l’auriez pas deviné !). Extrait de sa pensée profonde : « Les données des recherches Google ouvrent une fenêtre sans précédent sur les coins les plus sombres du psychisme humain. (…) Mais nos possibilités peuvent aussi en être renforcées. Les données peuvent servir à combattre les ténèbres. Le premier pas vers la solution des problèmes mondiaux consiste à réunir beaucoup de données pour les connaitre » p173. C’est -en  plein- le crédo de la Silicon Valley : L’informatique est le problème mais est aussi la solution … CQFD !

Big data : à manier avec précaution

Dans cette dernière partie, Seth Stephens-Davidovitz analyse les éléments qui peuvent bloquer la performance des analyses du big data.
- Il évoque le fléau de la dimension (la multiplication des jeux de données, la multiplication des variables) qui fait qu’il est possible de trouver des corrélations fausses.
- Il évoque ensuite le problème d’accorder trop d’importance à ce qui est mesurable. Le big data a ses angles morts. « Facebook emploie des psychologues, des anthropologues et des sociologues chargés de trouver précisément ce que les nombres ne disent pas ».
- Il s’interroge enfin sur le pouvoir des entreprises qui maitrisent le big data. « La question éthique est celle-ci : les entreprises ont-elles le droit de juger que nous sommes éligibles à leurs services en fonction de critères abstraits, mais statistiquement prédictifs ». Et plus loin « Puisqu’une grande partie de votre vie est quantifiée, ces jugements par extrapolation risquent de devenir (…) plus intrusifs. De meilleures prévisions peuvent mener à des discriminations plus subtiles et plus malfaisantes ». Pour finir : « Le big data peut permettre aux entreprises de bien mieux savoir ce que les clients sont disposés à payer – et donc d’être bien plus à même de pressurer certains groupes » p274

Conclusion

Seth Stephens-Davidovitz prédit une révolution fondée sur les révélations du big data. « Les algorithmes vous connaissent mieux que vous ne vous connaissez vous-même ».
Mais en bon technooptimiste il conclut « Dans ce livre-ci, le grand thème est que la science sociale devient une science véritable. Et cette science nouvelle, cette science réelle, est destinée à nous améliorer la vie ».

Personnellement, je pense qu’il fait un mensonge par omission. Oui le big data peut nous améliorer la vie. Mais le big data va surtout et d’abord améliorer la vie des propriétaires des big sociétés qui maitrisent les données et les technos. Et ils n’ont pas de limite. Leur pouvoir est absolu et supranational.
Oui pour le big data. Oui pour les bénéfices partagés de cette révolution. Mais surtout oui à une Europe forte dans ces domaines, à un contrôle public, à une morale. Tiens au fait, je viens de me rendre compte en écrivant ces lignes, que les mots Europe, public et morale, sauf erreur, sont totalement absents de son texte ! Bizarre non ? Dans le monde offert par les big techs américaines, l’Europe, le service public et la morale n’existent tout simplement pas !

Jérôme Bondu

L’auteur parle notamment de Google Correlate (outil qui ferme le 15 décembre faute de popularité). Voici une présentation de l’outil.