alogtransparency

Très bon article sur Le Point « YouTube : confessions d'un repenti ». Guillaume Chaslot a travaillé pour Youtube pendant trois ans, et raconte la perversion de l’algorithme de recommandation. Trois extraits sont éloquents et autoporteurs :

« Quand votre enfant est sur YouTube, il est face à une intelligence artificielle qui étudie ses moindres clics pour lui faire perdre le plus de temps possible. Du point de vue de Google, c'est logique. D'un point de vue de la société, c'est inefficace et absurde. »


« Un exemple, c'est la théorie de la Terre plate. Les « platistes » ne font confiance à aucun autre média, donc ils passent beaucoup plus de temps sur YouTube. Du coup, l'algorithme recommande plus ces vidéos, et les youtubeurs en créent de plus en plus. J'ai montré il y a deux ans que l'algorithme recommandait la théorie de la Terre plate environ dix fois plus que celle montrant que la Terre était ronde. D'autres exemples de cercle vicieux amplifient la haine, qui est très efficace pour le temps de vue. Haine anti-immigrés, haine anti-Francais, haine religieuse, haines de classes : les créateurs haineux ont été particulièrement mis en avant par la page d'accueil de YouTube, parce qu'ils sont très efficaces pour faire regarder de la pub. »

Et le meilleur pour la fin :
« Ces plateformes sont à l'information ce que McDonald's est à la nutrition

On pourra tester l’outil algotransparency.org mis au point par Guillaume Chaslot et qui permet de détecter les vidéos promues par YouTube. Dans le test que j’ai fait avec le mot Earth nous avons en effet une ribambelle de vidéos mises en avant par l’algorithme sur le thème de la vie extraterrestre et des secrets cachés ...
 

Jérôme Bondu






capital

J’ai lu le hors-série de Capital (n°55 pour les mois de juin, juillet, août) intitulé : Comment être aussi malin que les GAFA ? Et reprendre en main sa vie numérique...

L’ensemble est intéressant, même si le titre dans sa première partie me semble trompeur. En effet il ne s’agit pas d’être « aussi malin que les GAFA », mais simplement de limiter la casse au niveau de sa vie privée.

Voici quelques éléments intéressants glanés çà et là au fil des 102 pages :

L’article « Les chiffres fous du numérique » présente un panorama chiffré intéressant. Notamment :
- 60 likes suffisent à Facebook pour vous connaitre dans les grandes lignes.
- 70 pour vous connaitre mieux que vos amis vous connaissent
- 150 pour vos connaitre mieux que vos parents vous connaissent
- 300 pour vous connaitre mieux que votre conjoint vous connait
Lire à ce propos un précédent post "Savez-vous jusqu'où Facebook peut profiler votre personnalité ?".

L’article « Les GAFAM trop gourmand en énergie » rappelle que le numérique est une industrie extrêmement polluante, et consomme actuellement 10% de l’électricité au niveau mondial. Et cela pourrait monter à 30% en 2050.
- Envoyer un email produit 10 grammes de CO2. Autant que la production d’un sac plastique selon d’Ademe !
- Publier un selfie (une photo d’1Mo) produit 20 grammes de CO2

L’article « Comment ces entreprises exploitent vos données » rappelle entre autres le rôle méconnu des data brokers, telle la société irlandaise Experian qui a dans ses bases des profils de 95% des Français. L’ONG allemande Tactical Tech a fait une expérience édifiante. Pour 136 euros une de ses membres, Johana Moll, a pu acquérir 1million de profils provenant des applications Tinder, OKCupid ou Match.com. Et ceci en toute légalité sur le site du courtier en données USDate. Et dans ces données on trouvait bien sûr des informations sur les orientations sexuelles …

L’article « Préserver sa vie privée, c’est possible » présente des solutions alternatives, telles Qwant, Skred, Snips, Cozy Cloud, iProtego…

Enfin l’article « 10 bons réflexes pour reprendre la main sur ses données » donne -comme le titre l’indique- dix conseils tantôt opérationnels tantôt conceptuels. Les voici :
- Bien configurer son navigateur (le journal conseille d’aller sur history.google.com mais cela pointe sur https://myactivity.google.com/myactivity )
- Utiliser un moteur de rechercher alternatif à Google
- Sonder ses applications avec Exodus Privacy
- Couper sur son téléphone le GPS et le WIFI
- Se méfier sur internet du gratuit
- Faire le ménage dans son compte Facebook
- Lire les CGU avant de cliquer
- Se former à l’informatique
- Traquer les trackers
- Exercer vos droits

Cela se laisse lire. Même quand on grenouille un peu dans le domaine, on y apprend toujours des choses intéressantes.
Jérôme Bondu

--> Sur le même sujet : A lire : #Vie privée, c’est terminé ! Dossier du Canard enchaîné.


luc julia

Je recommande le livre de Luc Julia « L’intelligence artificielle » n’existe pas. Il se lit très bien. Il bat en brèche des idées reçues sur l’intelligence artificielle. Il rassure, aussi, sur un futur qui peut paraitre parfois anxiogène.

Voici une synthèse tout à fait personnelle.

Points saillants
L’ouvrage débute sur le parcours de Luc Julia. On ne peut qu’être impressionné par ce parcours brillantissime, mais en même temps, présenté humblement et avec beaucoup de simplicité. Il rappelle que la France a produit beaucoup de cerveaux en Intelligence Artificielle. Et de nombreux responsables de l’IA dans de grandes entreprises sont Français : comme Yann LeCun, Alexandre Lebrun, Jérôme Pésenti chez Facebook ; Nicolas Pinto chez Apple ; Yves Raymond chez Netflix ; Jean-Philippe Vasseur chez Ciso. Et bien sûr Luc Julia chez Samsung.

Les choses sérieuses commencent avec le deuxième chapitre : Le Malentendu.
- Le terme « intelligence artificielle »  date de 1956 lors de la conférence de Dartmouth et est mis au crédit de John McCarthy. Julia écrit : « Le choix du terme « intelligence » pour cette discipline est de fait une vaste fumisterie, car il basé sur des vœux pieux qui sont bien loin de la réalité ».
- La crainte de l’auteur est que les idées reçues négatives sur l’intelligence artificielle ne créent un arrêt des recherches et investissements. L’IA a connu déjà deux blocages dans les années 70 et 80.
- Le redémarrage des travaux sur l’IA a été permis grâce au développement d’internet et la génération massive de données. En effet, une IA a besoin énorme de big data. « Par exemple, pour qu’une machine reconnaisse un chat avec une précision de 95%, on a besoin de quelque chose comme 100 000 images de chat ». L’intelligence humaine est bien supérieure puisqu’un enfant a besoin de voir deux fois un chat pour le reconnaitre parfaitement pendant le reste de sa vie ! CQFD …
- L’auteur peste contre cette appellation « d’artificielle » et propose de la remplacer par « augmentée ». L’avantage de ce remplacement est multiple : « l’intelligence augmentée » représente mieux de quoi il s’agit. Cela fait moins peur. Cela permet aussi de conserver l’acronyme IA maintenant bien installé.
- Il procède à un rappel historique très intéressant (page 123) et présente toutes les avancées en IA comme étant plutôt des actions de « force brute » que de la réelle « intelligence ».
- L’intelligence augmentée ne peut échapper à notre contrôle, dans la mesure où nous avons la maitrise totale de ses sources, et de ce qu’elle peut produire.

Dans la quatrième partie intitulée « Dans le monde du futur », Luc Julia présente la vie telle qu’elle pourrait être en 2040 si les programmes d’IA se concrétisent. A la lecture de ces pages, je ne suis pas du tout convaincu par le monde ainsi décrit. Cela me fait plutôt frémir… Mais ceci est une opinion personnelle. A vous de juger.

La cinquième partie « L’avenir de l’IA » présente, trop rapidement à mon gout, toutes les objections que je me suis formulées à la lecture de la partie précédente :
- Protection de la vie privée et importance d’une bonne régulation.
- Piratage des données.
- Cout énergétique des calculs générés par l’IA et la blockchain. A titre d’exemple une transaction via une blockchain coute 767 KWh, contre 2 KWh avec un service par carte Visa.

Dans sa conclusion Luc Julia va plus loin en ajoutant d’autres dangers à éviter.
- Par exemple la privatisation des données : « De tout temps, ceux qui ont découvert une industrie et qui ont gagné de l’argent ont eu tendance à la capter à leur seul profit ».
- Il se pose deux questions cruciales sans pourtant y répondre : « Est-ce que ces technologies vont nous rendre plus ou moins intelligents ? Est-ce qu’elles nous rendent passifs ou au contraire proactifs ? »
- Enfin il revient en dernières pages sur les aspects écologiques « autour de 2020, l’économie digitale (…) pèsera pour 20% dans les dépenses énergétiques de la planète bleue ». « DeepMind consomme plus de 400 000 watts par heure juste pour jouer au go, alors que notre cerveau fonctionne avec seulement 20 watts par heure et peut effectuer bien d’autres tâches ».


Pour finir, c’est un livre très intéressant ! Il est à lire pour mieux comprendre les enjeux sur l’intelligence artificielle (ou comme le propose l’auteur l’intelligence augmentée).

Jérôme Bondu

Sur le même sujet :
- A lire : La guerre des intelligences, de Laurent Alexandre.
- Conférence Lille : Intelligence Artificielle : applications pratiques.
- I-expo : Intelligence humaine et Intelligence Artificielle, le duo gagnant pour une veille et une analyse stratégique fiable et efficace !



La civilisation du poion rougeJe recommande très chaudement La civilisation du poisson rouge - Petit traité sur le marché de l’attention, de Bruno Patino.

Livre très intéressant, très bien écrit et documenté. Il est rapide à lire avec moins de 170 pages. Je vous partage mes notes que je pense être assez fidèles à l’ouvrage. Comme c’est assez long je les publie en deux billets.
- Voici le résumé des 5 premiers chapitres.
- Billet suivant, les chapitres 6 à 11.
C’est parti …

Chapitre 1 : Neuf secondes
Bruno Patino ouvre son livre sur de tristes constats.
- Un poisson rouge aurait une mémoire de 8 secondes. Un internaute actuel aurait une mémoire de 9 secondes… « Nous sommes devenus des poissons rouges, enfermés dans le bocal de nos écrans, soumis au manège de nos alertes et de nos messages instantanés » (p15).
- Les jeunes Américains passent 5h par jour devant un écran pour se divertir.
- La peur de rater un message la nuit trouble le sommeil de ceux que l’on appelle désormais des « dormeurs sentinelles ».
Les coupables sont vite désignés : « cet effondrement de l’information est la conséquence première du régime économique choisi par les géants de l’information ».

Le chapitre 2 s’intitule justement Addiction !
Il pointe trois caractéristiques de notre comportement numérique :
- La tolérance (pas dans le sens positif évidemment !) est le fait que nous nous accoutumions à nos doses d’écrans, et que nous en voulions toujours plus.
- La compulsion est le fait que nous ne pouvions résister à notre piqure numérique.
- L’assuétude est le fait que cette servitude prenne de plus en plus de place dans nos vies.

Le NearFuture Laboratory a détecté quatre fragilités mentales associées à ces dépendances :
- Le syndrome d’anxiété.
- La schizophrénie de profil, pour ceux qui jonglent avec plusieurs profils.
- L’athazagoraphobie, pour ceux qui ont peur d’être oubliés par leurs pairs sur les réseaux.
- L’assombrissement, pour ceux qui suivent désespérément des personnes sur les réseaux. (p27)

Tout est bon pour capter notre attention et les plateformes n’hésitent pas à faire appel à la psychologie comportementale pour nous aliéner.
- Bruno Patino cite les travaux de Burrhus Skinner qui a mis « en lumière le biais comportemental que produisent les systèmes de récompenses aléatoires. Loin de faire naitre la distance ou le découragement, l’incertitude produit une compulsion qui se transforme en addiction (…) certaines plateformes numériques mettent en œuvre des mécanismes similaires, en captant l‘attention des utilisateurs par un système de récompense aléatoire, dont l’effet sur ceux qui y cèdent est comparable à celui des machines à sous » (p33)
- Il évoque la théorie de la complétude, ou effet Zeigarnik, qui fait que tant que l’on n’a pas le sentiment d’avoir fini quelque chose on ressent une incomplétude. C’est sur cet aspect que joue par exemple Netflix en faisant avaler à ses spectateurs des épisodes en série.
- Enfin la théorie de l’expérience optimale, fait que l’on se voit proposer des jeux qui correspondent parfaitement à notre niveau. Candy Crush en est un bon exemple.

Le chapitre 3 évoque l’utopie des créateurs de l’internet
Il évoque notamment longuement Barlow et sa déclaration d’indépendance du cyberespace. Une phrase résume bien son propos : « L’utopie initiale est en train de mourir, tuée par les monstres auxquels elle a donné naissance. Deux forces ignorées par les libertaires se sont déployées en l’absence d’entrave : l’empowerment collectif né des passions individuelles et le pouvoir économique né de l’accumulation » (p49)

Dans le chapitre suivant, Repentance, il met en avant les examens de conscience des anciens des GAFAM. Sean Parker ancien de Facebook « Dieu seul sait ce que nous sommes en train de faire avec les cerveaux de nos enfants ». Tristan Harris ancien de Google « Le véritable objectif des géants de la tech est de rendre les gens dépendant en profitant de leur vulnérabilité psychologique ». (p53) Tim Berneers-Lee créateur du web « Nous savons désormais que le web a échoué. Il devait servir l’humanité, c’est raté. La centralisation accrue du web a fini par produire un phénomène émergent de grande ampleur qui attaque l’humanité entière ».

Dans La Matrice, il présente les initiateurs de ce dévoiement au premier rang desquels J.B. Fogg et son Persuasive Technology Lab. C’est justement dans ce laboratoire qu’a été créé la magnifique discipline de la captologie ou l’art de capter l’attention de l’internaute ! Tout est dit ! Les outils de cette capture de votre esprit sont les interfaces hommes machines, le dark design et le brain hacking qui utilisent les recherches en neuroscience.

Jérôme Bondu


Sur le même sujet on pourra lire mes notes de lecture de :
- Lien vers la FNAC
- Les GAFAM contre l’internet, de Nikos Smyrnaios  
- Culture numérique, de Dominique Cardon

mindwritingXavier Delengaigne signe un nouveau livre « La méthode MapWriting » avec Franco Masucci. Toujours adapte de cartographie, Xavier présente ici cet outil au service de l’écriture sous toutes ses formes : écrire un article, un livre, une thèse, …

On y trouve toujours des pépites. J’ai personnellement beaucoup apprécié le chapitre sur la rédaction d’un article (presse ou web). Même si mon activité de bloggeur m’a amené à me familiariser avec ce type de prose, la présentation qu’en fait Xavier est très éclairante.

En outre, je constitue quasiment systématiquement mes plans d’intervention (conférence et formation) sous forme de cartographie. Le paragraphe « exportation vers un texte » m’a donc aussi beaucoup intéressé.

Mais il y a plus. Voici la présentation de Dunod

« Un Français sur trois rêve d’écrire un livre.
Et vous, y avez-vous déjà songé ? Cette idée trotte dans votre tête depuis longtemps. Vous n’avez toujours pas sauté le pas faute de temps, de méthode, ou encore du syndrome de la page blanche ? Une solution existe pour éviter tous ces obstacles : le Mind Mapping !
Ce livre vous initie au MapWriting, une méthode précise pour organiser clairement vos idées, produire efficacement vos écrits et bien plus encore :
- écrire un livre de A à Z ;
- rédiger un article Web ou papier ;
- terminer une thèse ou un mémoire.
Que vous soyez auteur, journaliste ou encore étudiant, avec le Mind Mapping, votre rêve d’écriture devient réalité !

Au final, une saine lecture que je recommande.

Jérôme Bondu

Pour en savoir plus :
- La présentation d’un de ces derniers livres « 101 astuces pour mieux penser » 
- Le compte rendu d’une de ses conférences à Lille organisée par le réseau des Veilleurs
- Le site de Xavier Delengaigne
- Les livres de Xavier Delengaigne chez Dunod




autopartage 1
Lors de ma dernière formation en veille et intelligence économique il était prévu un atelier cartographie. Le choix des stagiaires s’est porté sur le secteur de l’autopartage. Il a été décidé de mesurer la visibilité des différents acteurs dans la presse.

Nous avons interrogé G. Actu, avec la détection des articles qui mentionnaient un des acteurs dans le titre des articles, et sur les 12 derniers mois. Après un traitement des résultats dans excel, et grâce à Gephi nous avons pu générer la belle carte ci-dessus.

J'ai produit pas mal d’autres articles sur le même sujet :
- Quelles entreprises font le plus d’Intelligence Economique ?
- Comment reconstituer une partie de l’Etat-Major d’une entreprise ? Cas d’étude avec XPO Logistics.
- La presse parle de Liberté et d’Egalité … mais pas de Fraternité !
- Professionnels de l'Intelligence Economique : Trouverez-vous votre profil Linkedin sur Google ou Bing ?


Jérôme Bondu




mini mooc veille serda 2

Je vous recommande le mini-mooc veille édité par la Serda. J’ai une bonne raison pour cela, puisque j’ai eu le plaisir d’y participer avec Christophe Deschamps ;-)

Vous y trouverez trois sessions :
- Session 1 : Sourcing et collecte de l'information : le socle d'une veille efficace.
- Session 2 : Les autres sources à ne pas négliger : data, médias sociaux, vidéos…
- Session 3 : La veille collaborative : commenter augmenter et capitaliser sur sa veille ?

Le mini-Mooc répond à plusieurs objectifs :
- Découvrir le cycle de veille à travers l'histoire d'une veilleuse professionnelle.
- Aborder les méthodes et bonnes pratiques à mettre en place.
- Découvrir les outils à disposition du veilleur.
- Découvrir les différentes sources et les tendances actuelles.
- Intégrer une démarche collaborative pour augmenter et capitaliser sur sa veille.

Belle initiative de la part de la Serda. Cela manquait dans le paysage de la veille et de l’intelligence économique.

Jérôme Bondu

Lien pour l’inscription.
Voir le communiqué de presse.




deep web 1103706 640Le jeudi 28 mars 2019 à 19H30
Le Club IES de l’IAE de Paris Alumni et le réseau Inter-Ligere
En partenariat avec Digimind
Vous invitent à la 148ème conférence-débat sur le thème :


Darkweb : êtes-vous à l'abri du risque ?

Par Nicolas Hernandez

________________________________
THEME :
Le darkweb est la partie du web qui n'est pas référencée par les moteurs de recherche classiques. On y trouve des informations en tout genre : anodines, illicites, stratégiques pour les organisations. Ce sera sur le darkweb que les données volées de votre entreprise pourront être vendues, négociées, achetées...
Durant cette conférence, Nicolas Hernandez vous présentera en détail les risques auxquels vous ou votre société pouvez être confrontés, les bonnes pratiques pour se protéger, et les outils disponibles pour surveiller ce réseau parallèle.

________________________________
INTERVENANT :
Nicolas Hernandez a créé Aleph Networks pour aider les entreprises dans la maîtrise de leurs informations stratégiques. Il a développé une expertise dans la collecte, l’analyse et la veille dans le deep web, hidden web, dark web. Il est titulaire de trois mastères, en mathématique, en épistémologie, et en éthique médicale.

________________________________
DÉROULEMENT DE LA SOIRÉE :
19h15 - 19h30 : Accueil des participants
19h30 - 20h15 : Conférence
20h15 - 21h00 : Débat avec la salle
21h00 – 21h45 : Cocktail dînatoire

_______________________________
LIEU :
La conférence aura lieu dans les locaux de Digimind
116B Av. des Champs-Élysées 75008 Paris

______________________________
INSCRIPTION OBLIGATOIRE :
L’entrée est gratuite sous réserve d’inscription préalable et de validation de l'inscription par les partenaires (lien d'inscription).

Jérôme Bondu

-------
Sur le même sujet :

Dark Web Map … belle cartographie du darkweb Dark Web Map … belle cartographie du darkweb    
A lire : "LA FACE CACHEE D'INTERNET : HACKERS, DARKWEB, TOR, ANONYMOUS, ..." de Rayna Stamboliyska
A lire : Darknet, mythes et réalités de Jean-Philippe Rennard




loveluckJ’ai lu « Réseaux, libertés et contrôle » de Benjamin Loveluck. C’est un livre très dense, très riche en informations. Ce livre est le résultat de sa thèse de doctorat. Nous ne sommes pas ici dans un travail de vulgarisation.

Voici ci-dessous quelques notes surtout liées aux trois derniers chapitres.

L’auteur décrit finement les origines d’internet et ses principales composantes

- Il rappelle le mouvement cybernétique : science du contrôle et de la communication.
- Il souligne les liens avec le monde militaire : « Internet, comme la cybernétique, est un produit du complexe militaro-scientifique, et les liens n’ont jamais été complètement coupés. La Darpa, l’agence de recherche de la Défense américaine, est toujours une source importante d’innovation et de financement, et les passerelles sont nombreuses. L’une des directrices de la Darpa, Regina Dugan, a par exemple rejoint Google en 2012.»
- Mais il rappelle aussi les racines libertaires, cypherpunk, contreculture américaine, incarnés notamment dans la figure du hacker.
- Il évoque la période qui a vu la privatisation d’internet. Le poids des lobbyies industriels et de la communication ont eu raison de la volonté initiale d’Al Gore de garder internet dans le giron du public (p122).
- Il explique l’échec des portails d’informations (type Yahoo) qui se sont heurtés aux spécificités du web.
- Certains hackers ont pu changer d’orientation. Ainsi Gates, Jobs ou Zuckerberg ont été hackers avant d’être capitaine d’industrie. Il explique que « certains pirates du passé peuvent devenir les dirigeants des monopoles d’aujourd’hui » (136). Et plus loin « les plus fervents techno-libertaires de la période contre-culturelle se sont ainsi mués en techno-libertariens militant pour le marché » (159)

L’auto-organisation et le contrôle d’internet sont au centre de ses réflexions :

- Il pointe les illusions du web « De la même façon, si tout le monde peut s’exprimer sur une page web ou un blog, seule une petite minorité de sites dépassent un seuil de visibilité important. Le web n’est pas un réseau aléatoire, et selon Barabasi ces propriétés nous obligent à réévaluer l’idée générale selon laquelle le web serait intrinsèquement un espace de liberté d’expression, de justice et de démocratie : bien que toutes les opinions puissent être publiées, la « topologie du web ne nous permet de voir qu’une infime des milliards de documents qui la compose » (p216).

Centralisation des réseaux et contrôle algorithmique

Mais ce sont les trois derniers chapitres qui m’ont le plus intéressé. A commencer par le chapitre 10 intitulé « La captation : recentralisation des réseaux et contrôle algorithmique. Le cas Google » Ce chapitre est particulièrement captivant. Voici de nombreux extraits :
- Dans la continuité de ce que l’on a pu lire plus haut, on ne peut humainement trier des milliards de documents. Google a fait un travail de réduction de la complexité. Ce travail de réduction est passé par trois étapes : capitaliser sur les partages (de liens, entre internautes, …), créer des effets de réseau et exploiter les échanges d’utilité (p232). L’analyse structurale des hyperliens permet de mettre à jour un « jugement humain latent » permettant de caractériser les pages indépendamment de leur contenu (p243). Les connaissances des profils des internautes sont dans ce que l’auteur appelle un « second index qui vient compléter l’indexation des pages du web » (p246).
- Google se nourri de l’abondance d’informations sur le web. Plus il y en a, plus l’internaute est perdu, et plus son rôle de porte d’entrée du web est renforcé. Parallèlement, plus les internautes interagissent, plus ses algorithmes ont de quoi se nourrir, et plus son classement peut être pertinent. On retombe ici sur une variation de la « sagesse des foules » (p253).
- Google ne capte pas seulement l’attention des internautes mais aussi leurs intentions. L’auteur évoque dans ce cadre « de forts soupçons de dérives (…) un pouvoir économique démesuré (…) un impérialisme technocratique » (p246). Finalement l’organisation du web est devenue une « googlearchie » (p247).
- D’autres structures sont dans une situation de monopole dans la captation d’information. Si Google est au cœur du « graphe documentaire », Facebook est au cœur du « graphe social » (p256). Les acteurs clés de l’intermédiation à l’ère numérique « s’apparentent ainsi à de nouveaux seigneurs féodaux » (p257).
- La tendance ne va pas s’inverser. Car ces grands acteurs « accomplissent une tâche essentielle de réduction de la complexité informationnelle, ils accentuent une tendance centralisatrice inhérente aux réseaux complexes » (p258).

Le chapitre 11, tout aussi intéressant présente la deuxième tendance qu’il intitule la « dissémination : décentralisation radicale et cryptographie. Du peer-to-peer à Wikileaks ». Cela renvoie aux formes les plus « libertaires voire anarchistes du libéralisme informationnel : le réseau ne doit rien savoir de ce qui transite au travers des nœuds qui le composent » (p260).

Le chapitre 12, présente la troisième tendance « l’auto-institution : un projet d’autonomie par les réseaux. Les logiciels libres et Wikipedia ».

L’ouvrage n’est pas facile à lire, mais est passionnant. Il présente la genèse d’internet et ses évolutions, jusqu’à tracer trois grands systèmes d’organisation et de contrôle : centralisation (Google, Facebook), dissémination (Perr-to-peer, Wikileaks) ou auto-organisation (Logiciels libres, Wikipedia). A nous internautes de faire pencher la balancer vers le système dans lequel nous sommes le plus à l’aise. Maîtrisons internet :-)

Jérôme Bondu





Les robots tueursLe jeudi 6 décembre 2018 à 19H30
Le Club IES de l’IAE de Paris Alumni
Et le réseau Inter-Ligere Paris
Vous invitent à la 149ème conférence-débat sur le thème :


LES ROBOTS TUEURS : DES GUERRES SANS MORTS ?

Par Eric Martel

________________________________
THEME :
De par leurs nombreux automatismes, les drones de combat et autres appareils pilotés à distance préfigurent l’arrivée d’engins robotisés autonomes létaux que les médias appellent « robots tueurs ». Dotés d’intelligence artificielle, ces machines sont aptes à choisir et à décider d’elles-mêmes quelle cible détruire. L’autonomie des « robots tueurs » permet non seulement de transformer la conduite des opérations militaires, mais également le paradigme même de la guerre. Au-delà, se pose la question de l’automatisation de la guerre, un long processus initié dans les années 60 qui a vu l’armée jouer un rôle pionnier dans la transformation digitale que nous connaissons aujourd’hui. L’arrivée des robots létaux autonomes pose de nombreuses questions qui sauront abordées durant cette conférence.
________________________________
INTERVENANT :
Eric MARTEL est enseignant à l’IESEG et chercheur associé au LIRSA, le centre de recherche en gestion du CNAM. Docteur en sciences de gestion et ancien étudiant de l’IAE, il s’intéresse aux effets sociaux et organisationnels des nouvelles technologies. Dans ce cadre, il s’interroge sur une éventuelle corrélation entre l’automatisation du champ de bataille et la désubjectivation des combattants. Il est l’auteur de Robots Tueurs. La guerre déshumanisée, les robots et drones autonomes visent zéro mort. (2018) Éditions Favre.
________________________________
DÉROULEMENT DE LA SOIRÉE :
19h15 - 19h30 : Accueil des participants par Jérôme Bondu
19h30 - 20h15 : Intervention d’Eric Martel
20h15 - 21h00 : Débat avec la salle
21h00 – 21h45 : Cocktail dînatoire

_______________________________
LIEU :
IAE de Paris

______________________________
INSCRIPTION OBLIGATOIRE :
Inscription en ligne ou par chèque.
-    6€ pour les membres de l’AAE IAE.
-    16€ pour les non membres, dont 10 € remboursés aux IAE en cas de cotisation payée sur place ou dans la semaine qui suit l'événement.