Google créé et détruit des outils régulièrement. Les professionnels de la veille se souviennent encore de la disparition de Google Reader. Demain, c’est au tour de Google Correlate.

Google Correlate permettait de détecter des corrélations avec une requête cible. Hervé Kabla détaille dans son blog l’objet de cet outil : Alors que Google trends vous permet de voir l’évolution des tendances de recherche sur une ou plusieurs requêtes, et de comparer leur popularité, Google correlate, lui, vous indique quelles sont les requêtes dont l’évolution de la fréquence d’apparition est la plus proche d’un terme ou d’une expression donnée, sur une zone géographique définie, pendant une période précise.

Corrélations de la requête "veille stratégique"

Pour illustrer cela : si vous voulez savoir quelles sont les requêtes qui sont les plus corrélées à « veille stratégique » il suffit de taper votre requête dans la fenêtre de recherche de Google Correlate. Et vous obtenez des résultats … parfois étonnants ! Car Google correlate ne vous présente pas des requêtes proches au niveau sémantique. Mais simplement au niveau statistique.

Voici un exemple avec l’expression « Veille stratégique » sur Google Correlate très corrélée avec les requêtes sur les "structures", "fluides" ou "intégration" !! Rien à voir avec la choucroute donc. Sauf que l’évolution de l’interrogation de ces différentes requêtes est quasiment identique. La preuve par le graphe ci-dessous.

Google correlate 7 



La même requête sur Google Trends.
Google correlate 8





On pouvait aussi sur Correlate tracer une courbe à la souris… Et l’outil vous présentait les requêtes dont les variations dans le temps correspondaient le mieux !
Ci-dessous mon tracé totalement aléatoire :
Google correlate 4 



Ci-dessous, les requêtes correspondantes (pour info le mot en arabe signifie « pied » :-)

Google correlate 5 


C’est la lecture du livre « Tout le monde ment » que j’ai chroniqué cette semaine qui m’a donné envi de tester Google correlate avant sa disparition. L’auteur évoque Google correlate comme un outil très puissant, idéal pour les statisticiens ou les professionnels du SEO.

Deux affirmations et deux questions

- D’abord, nous vivons une époque formidable, avec une démocratisation d’outils terriblement puissants d’accès aux données et aux connaissances !
- Mais sommes-nous capables de bien les utiliser ?
- Ensuite, nous sommes la richesse de Google, nous qui lui confions tant de choses sur nos recherches, nos besoins, nos questionnements.
- Mais sommes-nous capables d'obtenir un juste retour sur investissement ?

Si vous voulez jouez avec Correlate, vous avez jusqu’au 15 décembre … vite vite vite ...

Jérôme Bondu


NB : Pour en savoir plus on pourra lire la présentation de Google Correlate dans le blog Google.




tout le monde mentJ’ai lu et je recommande « Tout le monde ment … et vous aussi » de Seth Stephens-Davidovitz. Sous-titré « Internet et le big data : ce que nos recherches Google disent vraiment de nous ». Cet ouvrage est important quand on fait de l’intelligence économique.

Voici un compte rendu en deux parties. Lire ici la première partie.


Le big data nous permet de zoomer sur de petits sous-ensembles

- Un des exemples qui m’a le plus intéressé porte sur l’impact des films violents sur la criminalité. Les statistiques officielles prouvent qu’il y a une baisse de la criminalité les weekends de sortie de films violents. Donc on pourrait en conclure qu’il n’y a pas de corrélation. Erreur… explique l’auteur. En réalité, une analyse plus fine du big data permet de comprendre le phénomène : un film violent a beaucoup de chance d’attirer un public violent. Ces derniers vont donc rester assis de 20h à 23h sans boire d’alcool. Ils vont en ressortir « calmés » pour un temps. Et quand bien même ils boiraient à la sortie du ciné, le temps d’incubation de l’alcool va repousser les actes délictueux … Par contre lors de leur prochaine virée entre copains, l’alcool aidant, ils seront plus violents que s’ils n’avaient pas vu le film. Conclusion, la violence des films a bien un impact négatif mais décalé dans le temps ! CQFD.
- Une partie tout aussi passionnante explique que nous avons tous un profil numérique, et des cohortes de personnes nous ressemblent. L’analyse de nos doubles numériques (ou doppelgängers) peut permettre d’anticiper nos prises de position ou nos choix personnels. Beaucoup d’entreprises utilisent ce système pour améliorer leurs offres. C’est ce que fait Amazon quand il nous propose des livres qu’un de nos « doubles numériques » a aimé ! C’est certainement ce que va faire de plus en plus la médecine qui va nous proposer un traitement parce que nos « doubles numériques » l’ont bien supporté.

Le big data nous permet de rechercher non plus des corrélations mais des causalités

- Une autre partie essentielle de son ouvrage concerne l’explication des expériences randomisées (pardon pour l’anglicisme… c’est la traduction dans le livre) appelées Test A/B. Extrait : « Dans le monde digital, les expériences randomisées peuvent être rapides et peu couteuses. Inutile de recruter et de rémunérer des participants. (…) Inutile de faire remplir des questionnaires aux utilisateurs. (…) Inutile de contacter qui que ce soit. Vous n’avez même pas besoin d’informer les utilisateurs qu’ils participent à une expérience. Tel est le pouvoir du big data : il facilite beaucoup la réalisation d’expériences randomisés, qui permettent de détecter de vraies causalités, à tout moment, presque n’importe où, pourvu que l’on soit en ligne. A l’ère du big data, le monde entier est un labo » p220
- Et les GAFAM profitent à plein de cette manne : « En 2011, les ingénieurs de Google ont effectué sept-mille tests A/B. Et leur nombre progresse sans cesse. » « Facebook effectue aujourd’hui un millier de tests A/B par jour. Ce qui signifie qu’un petit nombre d’ingénieurs y lancent en une seule journée plus d’expériences randomisées et contrôlées que toute l’industrie pharmaceutique en une année entière » p231 Obama a fait un grand usage de ces tests pour améliorer sa campagne.
- Et d’où vient notre addiction à l’écran ? Il répond sans détour « De l’autre côté de l’écran, il y a un millier de gens dont le métier est de mettre à bas notre autodiscipline ». Merci qui ? Merci les GAFAM !

Sans surprise Seth Stephens-Davidovitz est technosolutionniste (vous ne l’auriez pas deviné !). Extrait de sa pensée profonde : « Les données des recherches Google ouvrent une fenêtre sans précédent sur les coins les plus sombres du psychisme humain. (…) Mais nos possibilités peuvent aussi en être renforcées. Les données peuvent servir à combattre les ténèbres. Le premier pas vers la solution des problèmes mondiaux consiste à réunir beaucoup de données pour les connaitre » p173. C’est -en  plein- le crédo de la Silicon Valley : L’informatique est le problème mais est aussi la solution … CQFD !

Big data : à manier avec précaution

Dans cette dernière partie, Seth Stephens-Davidovitz analyse les éléments qui peuvent bloquer la performance des analyses du big data.
- Il évoque le fléau de la dimension (la multiplication des jeux de données, la multiplication des variables) qui fait qu’il est possible de trouver des corrélations fausses.
- Il évoque ensuite le problème d’accorder trop d’importance à ce qui est mesurable. Le big data a ses angles morts. « Facebook emploie des psychologues, des anthropologues et des sociologues chargés de trouver précisément ce que les nombres ne disent pas ».
- Il s’interroge enfin sur le pouvoir des entreprises qui maitrisent le big data. « La question éthique est celle-ci : les entreprises ont-elles le droit de juger que nous sommes éligibles à leurs services en fonction de critères abstraits, mais statistiquement prédictifs ». Et plus loin « Puisqu’une grande partie de votre vie est quantifiée, ces jugements par extrapolation risquent de devenir (…) plus intrusifs. De meilleures prévisions peuvent mener à des discriminations plus subtiles et plus malfaisantes ». Pour finir : « Le big data peut permettre aux entreprises de bien mieux savoir ce que les clients sont disposés à payer – et donc d’être bien plus à même de pressurer certains groupes » p274

Conclusion

Seth Stephens-Davidovitz prédit une révolution fondée sur les révélations du big data. « Les algorithmes vous connaissent mieux que vous ne vous connaissez vous-même ».
Mais en bon technooptimiste il conclut « Dans ce livre-ci, le grand thème est que la science sociale devient une science véritable. Et cette science nouvelle, cette science réelle, est destinée à nous améliorer la vie ».

Personnellement, je pense qu’il fait un mensonge par omission. Oui le big data peut nous améliorer la vie. Mais le big data va surtout et d’abord améliorer la vie des propriétaires des big sociétés qui maitrisent les données et les technos. Et ils n’ont pas de limite. Leur pouvoir est absolu et supranational.
Oui pour le big data. Oui pour les bénéfices partagés de cette révolution. Mais surtout oui à une Europe forte dans ces domaines, à un contrôle public, à une morale. Tiens au fait, je viens de me rendre compte en écrivant ces lignes, que les mots Europe, public et morale, sauf erreur, sont totalement absents de son texte ! Bizarre non ? Dans le monde offert par les big techs américaines, l’Europe, le service public et la morale n’existent tout simplement pas !

Jérôme Bondu

L’auteur parle notamment de Google Correlate (outil qui ferme le 15 décembre faute de popularité). Voici une présentation de l’outil.

Tout le monde ment c1J’ai lu et je recommande « Tout le monde ment … et vous aussi » de Seth Stephens-Davidovitz. Sous-titré « Internet et le big data : ce que nos recherches Google disent vraiment de nous ». Cet ouvrage est important quand on fait de l’intelligence économique.

Cet ouvrage m’intéressait au plus haut point. J’y ai trouvé deux choses :
- La preuve que la maitrise du big data est un outil d’une force considérable.
- La preuve que faire des requêtes Google nous rend transparents aux yeux du géant de Montain View. Et par effet de conséquence, j’y ai trouvé une justification complémentaire de mes craintes sur la toute-puissance de Google.


Voici un compte rendu en deux parties…


Introduction

Dès le départ nous sommes dans le bain. Seth Stephens-Davidovitz explique que Google est plus qu’un moteur de recherche. Il est dans certains cas un confident, à qui l’on ne pose pas de question, mais à qui on confie un sentiment ou un secret : « je hais mon patron » « j’ai trop bu » « papa m’a tapé ». Oui la dernière requête est moche. Et il y en a d’autres…

L’auteur introduit le sujet avec la campagne de Trump face à Clinton. Il explique que la masse de données détenue par Google pouvait permettre de dire avec une précision infiniment plus fiable que les sondages qui serait le prochain président américain. Les internautes qui recherchaient « Trump Clinton polls » ou « Trump Clinton debate » ont dévoilé leur intention profonde de voter Trump, même s’ils hésitaient encore au moment où ils ont écrit cette requête. Car ces données issues de Google de mentent pas (alors qu’il est facile de mentir lors d’un sondage). Et l’auteur a déterminé que statistiquement, le nom de celui pour qui l’on va voter est placé en premier dans la requête. Google sait de vous des choses que vous ne savez même pas sur vous-même.

Seth Stephens-Davidovitz explique son positionnement d’entrée : « Je suis aujourd’hui convaincu que les recherches Google constituent le jeu de données le plus important sur le psychisme humain ». Et il va le démontrer au cours des quelque 300 pages.
- Il y a l’effet masse : « Au cours d’une journée, en cette première partie du XXIème siècle, les humains génèrent en moyenne 2,5 milliards de milliards d’octets de données ».
- Et il y a la capacité d’analyse de Google : « Les recherches en ligne, je l’affirme, sont les plus révélatrices des données » (p108)
Après le microscope qui a révolutionné la médecine, le télescope qui a révolutionné l’observation de l’univers, vient le datascope dont les « analystes des données » sont les maîtres.

Big data ou small data


Seth Stephens-Davidovitz explique dans cette partie que l’intuition se base généralement sur un petit jeu de données (small data). Même l’expérience d’une vie entière est un tout petit jeu de données. Le big data permet de faire sortir des vérités bien au-delà de toutes intuitions.

Les pouvoirs du big data


Le big data a quatre pouvoirs
- Il nous offre de nouveaux jeux de données.
- Il nous fournit des données sincères.
- Il nous permet de zoomer sur de petits sous-ensembles.
- Il nous permet de rechercher non plus des corrélations mais des causalités.
Explications :

Le big data nous offre de nouveaux jeux de données.
- Ainsi Seth Stephens-Davidovitz explique qu’une bonne manière d’estimer les taux de chômage réels est de mesurer les requêtes portant sur un dérivatif … par exemple le fait de rechercher avec Google du porno (oups). En effet, un chômeur seul chez lui sera plus enclin à faire ce type de recherche. Des différentes variables analysées, explique l’auteur, cette dernière est certainement une des plus pertinentes. Et bien, cela est un nouveau jeu de données pour analyser le chômage réel d’une ville, région, ou pays !
- Par des requêtes de tonalité, l’auteur explique qu’il est possible « d’estimer chaque jour le bonheur national brut d’un pays ».
- Par l’analyse des mots-clés d’un premier rendez-vous amoureux entre deux personnes, il peut prédire avec une bonne exactitude si les personnes vont se revoir.
- L’auteur se réjouit que les données soient maintenant conservées et utilisables par les ordinateurs. On peut se réjouir pour lui. Et surtout pour Google qui est le grand gagnant de toute cette affaire.

Le big data nous fournit des données sincères.
- Les corps sont des données. Les mots sont des données. Les clics, les liens, les fautes de frappe … Tout est « donnée » et peut permettre de comprendre la réalité sans biais.
- Il teste par exemple sur Ngram « the United States are » et « the United States is » et cela lui permet d’estimer quand le sentiment d’unité nationale a été supérieur au sentiment de pluralité des Etats.
- Le paragraphe 4 est justement intitulé « le sérum de vérité numérique ». Seth Stephens-Davidovitz démontre que les sondages sont faux car l’interviewé tombe sous ce que l’on appelle « le biais de désidérabilité sociale ». Plus les conditions d’interrogation sont impersonnelles, moins les résultats sont pervertis par ce biais. Or quoi de plus impersonnel qu’un écran ! Et il en rajoute « Même si vous mentez à vous-même, Google peut néanmoins connaitre votre vérité » p119
- Il calcule le pourcentage « réel » d’homosexuel aux États-Unis. Les chiffrages des recherches pornographiques homosexuelles effectuées par des hommes est d’environ 5%.
- Google est un confessionnal numérique … Sinon pourquoi « l’une des questions les plus communément posées à Google à propos des parties génitales des hommes est « Quelle est la taille de mon pénis ? » p134. On trouve aussi « j’aime les nichons de ma copine » Et l’auteur se demande avec humour « On voit mal ce que les hommes qui effectuent cette recherche espèrent trouver sur Google » p136
- La partie qui traite de « La vérité sur la haine et les préjugés » est aussi passionnante que dérangeante. « L’omniprésence de ces insultes raciales est effarante et bouscule certaines idées actuelles sur le racisme ».
- La partie intitulée « La vérité sur la maltraitance infantile et l’avortement » est encore plus poignante. Il démontre grâce à la fluctuation des requêtes « maman me bat » ou « papa m’a frappé » que les statistiques officielles sur la maltraitance infantile peuvent être loin du compte.

C’est choquant, mais il faut le lire pour comprendre à quel point Google est un nouveau démiurge.
La suite demain …

Jérôme Bondu







les echosLes Echos a publié le 18 novembre 2019 un article titré « Google accusé de manipuler les résultats de son moteur de recherche ». Nicolas Rauline, l’auteur de l’article, explique que le Wall Street Journal a réalisé des tests qui prouvent que Google « modifie sciemment les résultats de son moteur de recherche, pour servir ses propres intérêts et ceux de ses partenaires ». Google aurait ainsi favorisé les clients de sa propre régie publicitaire. Deuxième point, l’outil d’auto-complétion, qui vous aide à écrire vos requêtes, aurait aussi été modifié pour exclure certains thèmes polémiques. Ce sujet avait déjà créé une certaine indignation quand on s’était aperçu que l’outil aidait à compléter des questions racistes « pourquoi les Arabes sont … » « pourquoi les Juifs sont … ». Troisième point, Google « emploierait des sous-traitants pour vérifier régulièrement la qualité de ses résultats de recherche. » Alors que Google nie faire intervenir des humains dans son algorithme.

Bref, sale temps pour Google. Et quand on connait le pouvoir tentaculaire de Big Brother Google, on ne peut que s’en réjouir. Mais … quelque part, ces critiques s’appuient sur un raisonnement que me semble -en toute modestie- vicié. Explications …

Un modèle économique normal

En effet chaque émetteur d’information à sa propre ligne éditoriale, son modèle économique, et fait la promotion de ses services sur son support. Ainsi France Inter promeut régulièrement ses chroniqueurs, et notamment ses humoristes, quand ils font un spectacle. Idem pour les œuvres culturelles que la radio soutient comme le livre inter… Les chaines de télévision promeuvent elles-aussi leurs émissions sur leurs propres chaînes. Et les journaux comme les Echos ne s’en privent pas, puisque sur ce même numéro du 18 novembre, un petit encart en première page fait la publicité de la chronique de Dominique Seux dans l’émission « l’Edito Eco » sur France Inter à 7h45. La pratique est donc courante.

Pourquoi donc refuser à Google ce que tout le monde fait ? Chacun promeut en effet ses services sur ses supports de communication, et c’est bien compréhensible. Ainsi il est normal que Google promeuve ce qu’il veut… car ce moteur est fondamentalement une régie publicitaire qui vit de la vente de nos données.

Vouloir « redresser » Google, l’amender, en faire un outil « neutre » au service du bien commun est une erreur fondamentale. Car étant propriétaire de son algorithme, il pourra toujours le manipuler à loisir.

Laissons Google faire ses petites manipulations

Il faut en réalité, laisser Google faire ses petites manipulations pour que le grand public le voie tel qu’il est réellement. Pour que cela incite une partie significative de la population à changer de crèmerie. Pour que l’on retrouve plusieurs fenêtres sur le web. Pour que l’on utilise plusieurs moteurs de recherche. Pour que l’on retrouve une forme de liberté, n’ayons pas peur des mots.

L’horreur serait que Google s’approche de cette espèce de « neutralité » qu’on veut lui faire endosser, et qu’il finisse d’écraser totalement et définitivement toutes autres solutions alternatives. Évitons ce scénario cauchemardesque. Laissons Google vivre sa vie de régie publicitaire et formons le grand public à une utilisation experte et pluraliste du web !

Jérôme Bondu
Directeur de la société Inter-Ligere.fr
Président du Club IES


Sur le même sujet on pourra lire les articles :
- Dans la Google du loup.
- Monopole de Google.
- La dicature invisible du numérique.




test requete google
Très peu de personnes savent bien utiliser un moteur de recherche. En effet utiliser un moteur de recherche avec deux ou trois mots clés revient à laisser au moteur le choix des résultats qu’il va mettre en avant. C’est confier à l’outil l’effort de réflexion que l’internaute devrait avoir. Cet effort, il va le payer sous une forme particulière : des résultats plus ou moins pertinents, saupoudrés d’annonces publicitaires. Afin de pallier à ce problème on peut utiliser les fonctionnalités avancées proposées par les moteurs de recherche, et notamment les « opérateurs de recherche » (plus simplement appelées « opérateurs » ou « commandes »).

Un opérateur est un élément que l’on peut placer dans la requête et qui sert à préciser ce que l’on recherche. Le tableau ci-dessous présente les opérateurs les plus intéressants, leur utilisation, un exemple de formulation, et une approximation du nombre de résultats dans Google. Prenons l’exemple d’une recherche sur le développement durable.

Opérateur

Utilisation

Exemple

Nombre de résultats (1)

AND

L’opérateur AND ne s’écrit pas dans une requête. Il se matérialise par un espace (ce que tout le monde fait naturellement). AND est l’opérateur que chacun utilise sans le savoir. Il impose au moteur de rechercher chacun des mots.

Développement durable

229 millions

« … »

Les guillemets encadrant plusieurs mots imposent au moteur de trouver l’expression exacte. Il convient d’écrire les mots avec la bonne accentuation. La casse (majuscule / minuscule) n’est pas prise en compte.

"Développement durable"

35 millions

OR

OR permet de rechercher un mot OU un autre. C’est le seul opérateur qui doit obligatoirement être écrit en majuscule.

"Développement durable" solaire OR éolien

11 millions

NOT

L’opérateur NOT s’écrit en plaçant le signe moins (-) devant un mot et permet d’exclure ce mot. Le signe moins peut aussi se placer devant un autre opérateur.

"Développement durable" solaire OR éolien -fossiles

8 millions

 
intitle:

intitle: placé juste devant un mot ou une expression impose au moteur de les rechercher dans un titre.

intitle:"Développement durable" solaire OR éolien
-fossiles

25 000

site:

site: placé devant un nom de domaine impose au moteur de rechercher des résultats uniquement dans le site mentionné.

site:gouv.fr intitle:"Développement durable" solaire OR éolien
-fossiles

465

inurl:

inurl: placé devant un mot impose au moteur de rechercher ce mot dans une adresse internet (que l’on appelle une URL).

Dans la requête ci-joint nous allons rechercher le mot « data » dans l’URL.

inurl:data site:gouv.fr intitle:"Développement durable" solaire OR éolien
-fossiles

8

filetype:

filetype: placé devant une extension (PDF, DOC, PPT, XLS...) impose au moteur de rechercher le format correspondant.

filetype:pdf site:gouv.fr intitle:"Développement durable" solaire OR éolien
-fossiles

163

 

(1) Nombre de résultats approximatifs. Testé le 5 octobre 2019.

Sur le même sujet :

- Les opérateurs de recherche – le plus beau mensonge par omission de Google
- Etes-vous analphaNet ? Savez-vous rechercher des informations sur Internet ?
- Formation: C1- Savoir rechercher et veiller sur internet.



android 2775823 1280Le jeudi 21 novembre 2019 à 19H30
Le Club IES de l’IAE de Paris Alumni & Inter-Ligere
Vous invitent à la 152ème conférence-débat sur le thème :


SYSTEME D’EXPLOITATION SOUVERAIN - Comment lutter contre le duopole de Google et d’Apple ?

Par Gaël Duval et Guillaume Dumanois

________________________________
THEME :
Durant cette conférence, Gaël Duval et Guillaume Dumanois évoqueront la place qu’ont pris les systèmes d’exploitation dans nos usages numériques. Ils analyseront les conséquences du duopole de Google et d’Apple et les dangers à court termes. Enfin, ils présenteront leurs solutions respectives.

________________________________
INTERVENANT :
Gaël Duval, est une personnalité des logiciels libres, pionnier de Linux en France, cofondateur de Mandrakesoft (société développant Mandrake Linux) puis fondateur d'Ulteo. Son nouveau projet /e/ (originellement "eelo") consiste en un système d'exploitation dérivé de LineageOS (Android) et débarrassé des services Google, et de plusieurs services en ligne associés.

Guillaume Dumanois, est ingénieur ESIEE, titulaire d’un MBA de l’ESSEC et a occupé des fonctions de management chez Alstom et Alcatel-Lucent. Il a également été en charge du département Bâtiments Connectés chez Honeywell. Il est aujourd’hui co-fondateur d’Hyperpanel, une entité d’HyperPanel Lab qui a développé un tout nouveau système d’exploitation (Hyperpanel OS) secured by design et particulièrement adapté au monde des IoTs.

________________________________
DÉROULEMENT DE LA SOIRÉE :
19h15 - 19h30 : Accueil des participants par Jérôme Bondu
19h30 - 20h15 : Intervention de Gaël Duval et Guillaume Dumanois
20h15 - 20h30 : Débat
_______________________________
LIEU :
IAE de Paris
______________________________
INSCRIPTION OBLIGATOIRE


Au plaisir de vous y retrouver
Jerome Bondu






alogtransparency

Très bon article sur Le Point « YouTube : confessions d'un repenti ». Guillaume Chaslot a travaillé pour Youtube pendant trois ans, et raconte la perversion de l’algorithme de recommandation. Trois extraits sont éloquents et autoporteurs :

« Quand votre enfant est sur YouTube, il est face à une intelligence artificielle qui étudie ses moindres clics pour lui faire perdre le plus de temps possible. Du point de vue de Google, c'est logique. D'un point de vue de la société, c'est inefficace et absurde. »


« Un exemple, c'est la théorie de la Terre plate. Les « platistes » ne font confiance à aucun autre média, donc ils passent beaucoup plus de temps sur YouTube. Du coup, l'algorithme recommande plus ces vidéos, et les youtubeurs en créent de plus en plus. J'ai montré il y a deux ans que l'algorithme recommandait la théorie de la Terre plate environ dix fois plus que celle montrant que la Terre était ronde. D'autres exemples de cercle vicieux amplifient la haine, qui est très efficace pour le temps de vue. Haine anti-immigrés, haine anti-Francais, haine religieuse, haines de classes : les créateurs haineux ont été particulièrement mis en avant par la page d'accueil de YouTube, parce qu'ils sont très efficaces pour faire regarder de la pub. »

Et le meilleur pour la fin :
« Ces plateformes sont à l'information ce que McDonald's est à la nutrition

On pourra tester l’outil algotransparency.org mis au point par Guillaume Chaslot et qui permet de détecter les vidéos promues par YouTube. Dans le test que j’ai fait avec le mot Earth nous avons en effet une ribambelle de vidéos mises en avant par l’algorithme sur le thème de la vie extraterrestre et des secrets cachés ...
 

Jérôme Bondu






capital

J’ai lu le hors-série de Capital (n°55 pour les mois de juin, juillet, août) intitulé : Comment être aussi malin que les GAFA ? Et reprendre en main sa vie numérique...

L’ensemble est intéressant, même si le titre dans sa première partie me semble trompeur. En effet il ne s’agit pas d’être « aussi malin que les GAFA », mais simplement de limiter la casse au niveau de sa vie privée.

Voici quelques éléments intéressants glanés çà et là au fil des 102 pages :

L’article « Les chiffres fous du numérique » présente un panorama chiffré intéressant. Notamment :
- 60 likes suffisent à Facebook pour vous connaitre dans les grandes lignes.
- 70 pour vous connaitre mieux que vos amis vous connaissent
- 150 pour vos connaitre mieux que vos parents vous connaissent
- 300 pour vous connaitre mieux que votre conjoint vous connait
Lire à ce propos un précédent post "Savez-vous jusqu'où Facebook peut profiler votre personnalité ?".

L’article « Les GAFAM trop gourmand en énergie » rappelle que le numérique est une industrie extrêmement polluante, et consomme actuellement 10% de l’électricité au niveau mondial. Et cela pourrait monter à 30% en 2050.
- Envoyer un email produit 10 grammes de CO2. Autant que la production d’un sac plastique selon d’Ademe !
- Publier un selfie (une photo d’1Mo) produit 20 grammes de CO2

L’article « Comment ces entreprises exploitent vos données » rappelle entre autres le rôle méconnu des data brokers, telle la société irlandaise Experian qui a dans ses bases des profils de 95% des Français. L’ONG allemande Tactical Tech a fait une expérience édifiante. Pour 136 euros une de ses membres, Johana Moll, a pu acquérir 1million de profils provenant des applications Tinder, OKCupid ou Match.com. Et ceci en toute légalité sur le site du courtier en données USDate. Et dans ces données on trouvait bien sûr des informations sur les orientations sexuelles …

L’article « Préserver sa vie privée, c’est possible » présente des solutions alternatives, telles Qwant, Skred, Snips, Cozy Cloud, iProtego…

Enfin l’article « 10 bons réflexes pour reprendre la main sur ses données » donne -comme le titre l’indique- dix conseils tantôt opérationnels tantôt conceptuels. Les voici :
- Bien configurer son navigateur (le journal conseille d’aller sur history.google.com mais cela pointe sur https://myactivity.google.com/myactivity )
- Utiliser un moteur de rechercher alternatif à Google
- Sonder ses applications avec Exodus Privacy
- Couper sur son téléphone le GPS et le WIFI
- Se méfier sur internet du gratuit
- Faire le ménage dans son compte Facebook
- Lire les CGU avant de cliquer
- Se former à l’informatique
- Traquer les trackers
- Exercer vos droits

Cela se laisse lire. Même quand on grenouille un peu dans le domaine, on y apprend toujours des choses intéressantes.
Jérôme Bondu

--> Sur le même sujet : A lire : #Vie privée, c’est terminé ! Dossier du Canard enchaîné.


luc julia

Je recommande le livre de Luc Julia « L’intelligence artificielle » n’existe pas. Il se lit très bien. Il bat en brèche des idées reçues sur l’intelligence artificielle. Il rassure, aussi, sur un futur qui peut paraitre parfois anxiogène.

Voici une synthèse tout à fait personnelle.

Points saillants
L’ouvrage débute sur le parcours de Luc Julia. On ne peut qu’être impressionné par ce parcours brillantissime, mais en même temps, présenté humblement et avec beaucoup de simplicité. Il rappelle que la France a produit beaucoup de cerveaux en Intelligence Artificielle. Et de nombreux responsables de l’IA dans de grandes entreprises sont Français : comme Yann LeCun, Alexandre Lebrun, Jérôme Pésenti chez Facebook ; Nicolas Pinto chez Apple ; Yves Raymond chez Netflix ; Jean-Philippe Vasseur chez Ciso. Et bien sûr Luc Julia chez Samsung.

Les choses sérieuses commencent avec le deuxième chapitre : Le Malentendu.
- Le terme « intelligence artificielle »  date de 1956 lors de la conférence de Dartmouth et est mis au crédit de John McCarthy. Julia écrit : « Le choix du terme « intelligence » pour cette discipline est de fait une vaste fumisterie, car il basé sur des vœux pieux qui sont bien loin de la réalité ».
- La crainte de l’auteur est que les idées reçues négatives sur l’intelligence artificielle ne créent un arrêt des recherches et investissements. L’IA a connu déjà deux blocages dans les années 70 et 80.
- Le redémarrage des travaux sur l’IA a été permis grâce au développement d’internet et la génération massive de données. En effet, une IA a besoin énorme de big data. « Par exemple, pour qu’une machine reconnaisse un chat avec une précision de 95%, on a besoin de quelque chose comme 100 000 images de chat ». L’intelligence humaine est bien supérieure puisqu’un enfant a besoin de voir deux fois un chat pour le reconnaitre parfaitement pendant le reste de sa vie ! CQFD …
- L’auteur peste contre cette appellation « d’artificielle » et propose de la remplacer par « augmentée ». L’avantage de ce remplacement est multiple : « l’intelligence augmentée » représente mieux de quoi il s’agit. Cela fait moins peur. Cela permet aussi de conserver l’acronyme IA maintenant bien installé.
- Il procède à un rappel historique très intéressant (page 123) et présente toutes les avancées en IA comme étant plutôt des actions de « force brute » que de la réelle « intelligence ».
- L’intelligence augmentée ne peut échapper à notre contrôle, dans la mesure où nous avons la maitrise totale de ses sources, et de ce qu’elle peut produire.

Dans la quatrième partie intitulée « Dans le monde du futur », Luc Julia présente la vie telle qu’elle pourrait être en 2040 si les programmes d’IA se concrétisent. A la lecture de ces pages, je ne suis pas du tout convaincu par le monde ainsi décrit. Cela me fait plutôt frémir… Mais ceci est une opinion personnelle. A vous de juger.

La cinquième partie « L’avenir de l’IA » présente, trop rapidement à mon gout, toutes les objections que je me suis formulées à la lecture de la partie précédente :
- Protection de la vie privée et importance d’une bonne régulation.
- Piratage des données.
- Cout énergétique des calculs générés par l’IA et la blockchain. A titre d’exemple une transaction via une blockchain coute 767 KWh, contre 2 KWh avec un service par carte Visa.

Dans sa conclusion Luc Julia va plus loin en ajoutant d’autres dangers à éviter.
- Par exemple la privatisation des données : « De tout temps, ceux qui ont découvert une industrie et qui ont gagné de l’argent ont eu tendance à la capter à leur seul profit ».
- Il se pose deux questions cruciales sans pourtant y répondre : « Est-ce que ces technologies vont nous rendre plus ou moins intelligents ? Est-ce qu’elles nous rendent passifs ou au contraire proactifs ? »
- Enfin il revient en dernières pages sur les aspects écologiques « autour de 2020, l’économie digitale (…) pèsera pour 20% dans les dépenses énergétiques de la planète bleue ». « DeepMind consomme plus de 400 000 watts par heure juste pour jouer au go, alors que notre cerveau fonctionne avec seulement 20 watts par heure et peut effectuer bien d’autres tâches ».


Pour finir, c’est un livre très intéressant ! Il est à lire pour mieux comprendre les enjeux sur l’intelligence artificielle (ou comme le propose l’auteur l’intelligence augmentée).

Jérôme Bondu

Sur le même sujet :
- A lire : La guerre des intelligences, de Laurent Alexandre.
- Conférence Lille : Intelligence Artificielle : applications pratiques.
- I-expo : Intelligence humaine et Intelligence Artificielle, le duo gagnant pour une veille et une analyse stratégique fiable et efficace !



La civilisation du poion rougeJe recommande très chaudement La civilisation du poisson rouge - Petit traité sur le marché de l’attention, de Bruno Patino.

Livre très intéressant, très bien écrit et documenté. Il est rapide à lire avec moins de 170 pages. Je vous partage mes notes que je pense être assez fidèles à l’ouvrage. Comme c’est assez long je les publie en deux billets.
- Voici le résumé des 5 premiers chapitres.
- Billet suivant, les chapitres 6 à 11.
C’est parti …

Chapitre 1 : Neuf secondes
Bruno Patino ouvre son livre sur de tristes constats.
- Un poisson rouge aurait une mémoire de 8 secondes. Un internaute actuel aurait une mémoire de 9 secondes… « Nous sommes devenus des poissons rouges, enfermés dans le bocal de nos écrans, soumis au manège de nos alertes et de nos messages instantanés » (p15).
- Les jeunes Américains passent 5h par jour devant un écran pour se divertir.
- La peur de rater un message la nuit trouble le sommeil de ceux que l’on appelle désormais des « dormeurs sentinelles ».
Les coupables sont vite désignés : « cet effondrement de l’information est la conséquence première du régime économique choisi par les géants de l’information ».

Le chapitre 2 s’intitule justement Addiction !
Il pointe trois caractéristiques de notre comportement numérique :
- La tolérance (pas dans le sens positif évidemment !) est le fait que nous nous accoutumions à nos doses d’écrans, et que nous en voulions toujours plus.
- La compulsion est le fait que nous ne pouvions résister à notre piqure numérique.
- L’assuétude est le fait que cette servitude prenne de plus en plus de place dans nos vies.

Le NearFuture Laboratory a détecté quatre fragilités mentales associées à ces dépendances :
- Le syndrome d’anxiété.
- La schizophrénie de profil, pour ceux qui jonglent avec plusieurs profils.
- L’athazagoraphobie, pour ceux qui ont peur d’être oubliés par leurs pairs sur les réseaux.
- L’assombrissement, pour ceux qui suivent désespérément des personnes sur les réseaux. (p27)

Tout est bon pour capter notre attention et les plateformes n’hésitent pas à faire appel à la psychologie comportementale pour nous aliéner.
- Bruno Patino cite les travaux de Burrhus Skinner qui a mis « en lumière le biais comportemental que produisent les systèmes de récompenses aléatoires. Loin de faire naitre la distance ou le découragement, l’incertitude produit une compulsion qui se transforme en addiction (…) certaines plateformes numériques mettent en œuvre des mécanismes similaires, en captant l‘attention des utilisateurs par un système de récompense aléatoire, dont l’effet sur ceux qui y cèdent est comparable à celui des machines à sous » (p33)
- Il évoque la théorie de la complétude, ou effet Zeigarnik, qui fait que tant que l’on n’a pas le sentiment d’avoir fini quelque chose on ressent une incomplétude. C’est sur cet aspect que joue par exemple Netflix en faisant avaler à ses spectateurs des épisodes en série.
- Enfin la théorie de l’expérience optimale, fait que l’on se voit proposer des jeux qui correspondent parfaitement à notre niveau. Candy Crush en est un bon exemple.

Le chapitre 3 évoque l’utopie des créateurs de l’internet
Il évoque notamment longuement Barlow et sa déclaration d’indépendance du cyberespace. Une phrase résume bien son propos : « L’utopie initiale est en train de mourir, tuée par les monstres auxquels elle a donné naissance. Deux forces ignorées par les libertaires se sont déployées en l’absence d’entrave : l’empowerment collectif né des passions individuelles et le pouvoir économique né de l’accumulation » (p49)

Dans le chapitre suivant, Repentance, il met en avant les examens de conscience des anciens des GAFAM. Sean Parker ancien de Facebook « Dieu seul sait ce que nous sommes en train de faire avec les cerveaux de nos enfants ». Tristan Harris ancien de Google « Le véritable objectif des géants de la tech est de rendre les gens dépendant en profitant de leur vulnérabilité psychologique ». (p53) Tim Berneers-Lee créateur du web « Nous savons désormais que le web a échoué. Il devait servir l’humanité, c’est raté. La centralisation accrue du web a fini par produire un phénomène émergent de grande ampleur qui attaque l’humanité entière ».

Dans La Matrice, il présente les initiateurs de ce dévoiement au premier rang desquels J.B. Fogg et son Persuasive Technology Lab. C’est justement dans ce laboratoire qu’a été créé la magnifique discipline de la captologie ou l’art de capter l’attention de l’internaute ! Tout est dit ! Les outils de cette capture de votre esprit sont les interfaces hommes machines, le dark design et le brain hacking qui utilisent les recherches en neuroscience.

Jérôme Bondu


Sur le même sujet on pourra lire mes notes de lecture de :
- Lien vers la FNAC
- Les GAFAM contre l’internet, de Nikos Smyrnaios  
- Culture numérique, de Dominique Cardon