loveluckJ’ai lu « Réseaux, libertés et contrôle » de Benjamin Loveluck. C’est un livre très dense, très riche en informations. Ce livre est le résultat de sa thèse de doctorat. Nous ne sommes pas ici dans un travail de vulgarisation.

Voici ci-dessous quelques notes surtout liées aux trois derniers chapitres.

L’auteur décrit finement les origines d’internet et ses principales composantes

- Il rappelle le mouvement cybernétique : science du contrôle et de la communication.
- Il souligne les liens avec le monde militaire : « Internet, comme la cybernétique, est un produit du complexe militaro-scientifique, et les liens n’ont jamais été complètement coupés. La Darpa, l’agence de recherche de la Défense américaine, est toujours une source importante d’innovation et de financement, et les passerelles sont nombreuses. L’une des directrices de la Darpa, Regina Dugan, a par exemple rejoint Google en 2012.»
- Mais il rappelle aussi les racines libertaires, cypherpunk, contreculture américaine, incarnés notamment dans la figure du hacker.
- Il évoque la période qui a vu la privatisation d’internet. Le poids des lobbyies industriels et de la communication ont eu raison de la volonté initiale d’Al Gore de garder internet dans le giron du public (p122).
- Il explique l’échec des portails d’informations (type Yahoo) qui se sont heurtés aux spécificités du web.
- Certains hackers ont pu changer d’orientation. Ainsi Gates, Jobs ou Zuckerberg ont été hackers avant d’être capitaine d’industrie. Il explique que « certains pirates du passé peuvent devenir les dirigeants des monopoles d’aujourd’hui » (136). Et plus loin « les plus fervents techno-libertaires de la période contre-culturelle se sont ainsi mués en techno-libertariens militant pour le marché » (159)

L’auto-organisation et le contrôle d’internet sont au centre de ses réflexions :

- Il pointe les illusions du web « De la même façon, si tout le monde peut s’exprimer sur une page web ou un blog, seule une petite minorité de sites dépassent un seuil de visibilité important. Le web n’est pas un réseau aléatoire, et selon Barabasi ces propriétés nous obligent à réévaluer l’idée générale selon laquelle le web serait intrinsèquement un espace de liberté d’expression, de justice et de démocratie : bien que toutes les opinions puissent être publiées, la « topologie du web ne nous permet de voir qu’une infime des milliards de documents qui la compose » (p216).

Centralisation des réseaux et contrôle algorithmique

Mais ce sont les trois derniers chapitres qui m’ont le plus intéressé. A commencer par le chapitre 10 intitulé « La captation : recentralisation des réseaux et contrôle algorithmique. Le cas Google » Ce chapitre est particulièrement captivant. Voici de nombreux extraits :
- Dans la continuité de ce que l’on a pu lire plus haut, on ne peut humainement trier des milliards de documents. Google a fait un travail de réduction de la complexité. Ce travail de réduction est passé par trois étapes : capitaliser sur les partages (de liens, entre internautes, …), créer des effets de réseau et exploiter les échanges d’utilité (p232). L’analyse structurale des hyperliens permet de mettre à jour un « jugement humain latent » permettant de caractériser les pages indépendamment de leur contenu (p243). Les connaissances des profils des internautes sont dans ce que l’auteur appelle un « second index qui vient compléter l’indexation des pages du web » (p246).
- Google se nourri de l’abondance d’informations sur le web. Plus il y en a, plus l’internaute est perdu, et plus son rôle de porte d’entrée du web est renforcé. Parallèlement, plus les internautes interagissent, plus ses algorithmes ont de quoi se nourrir, et plus son classement peut être pertinent. On retombe ici sur une variation de la « sagesse des foules » (p253).
- Google ne capte pas seulement l’attention des internautes mais aussi leurs intentions. L’auteur évoque dans ce cadre « de forts soupçons de dérives (…) un pouvoir économique démesuré (…) un impérialisme technocratique » (p246). Finalement l’organisation du web est devenue une « googlearchie » (p247).
- D’autres structures sont dans une situation de monopole dans la captation d’information. Si Google est au cœur du « graphe documentaire », Facebook est au cœur du « graphe social » (p256). Les acteurs clés de l’intermédiation à l’ère numérique « s’apparentent ainsi à de nouveaux seigneurs féodaux » (p257).
- La tendance ne va pas s’inverser. Car ces grands acteurs « accomplissent une tâche essentielle de réduction de la complexité informationnelle, ils accentuent une tendance centralisatrice inhérente aux réseaux complexes » (p258).

Le chapitre 11, tout aussi intéressant présente la deuxième tendance qu’il intitule la « dissémination : décentralisation radicale et cryptographie. Du peer-to-peer à Wikileaks ». Cela renvoie aux formes les plus « libertaires voire anarchistes du libéralisme informationnel : le réseau ne doit rien savoir de ce qui transite au travers des nœuds qui le composent » (p260).

Le chapitre 12, présente la troisième tendance « l’auto-institution : un projet d’autonomie par les réseaux. Les logiciels libres et Wikipedia ».

L’ouvrage n’est pas facile à lire, mais est passionnant. Il présente la genèse d’internet et ses évolutions, jusqu’à tracer trois grands systèmes d’organisation et de contrôle : centralisation (Google, Facebook), dissémination (Perr-to-peer, Wikileaks) ou auto-organisation (Logiciels libres, Wikipedia). A nous internautes de faire pencher la balancer vers le système dans lequel nous sommes le plus à l’aise. Maîtrisons internet :-)

Jérôme Bondu