thomas binant jerome bondu NPL

J’ai visité hier le salon Big Data et Intelligence artificielle à Paris. J’y ai retrouvé Thomas Binant devant le stand Geotrend
Thomas a par la suite animé une conférence avec Camille Pradel et la société Explore, sur une étude pour la Société du Grand Paris. Camille Pradel a notamment détaillé les rouages du traitement automatique des langues ou NLP. Domaine passionnant que Camille a bien su vulgariser. Il a par exemple rappelé la difficulté pour une machine de percevoir l’ironie. Il y a quelques années Bernard Normier avait déjà pointé cette difficulté (voir sa conférence au Club IES).

nothing to hide snowden

La maitrise de l’information est plus que jamais d’actualité. Outre les innovations mises en avant par les exposants sur le salon Big Data, j’ai bien aimé le mur « Nothing to hide » mis en place par la Gaitée Lyrique ! En rappelant le message d’Edward Snowden sur un mur complet et en offrant un cache webcam, cette œuvre alliait art, démocratie et activisme.

Hier paraissait aussi dans Les Echos un article au titre quelque peu pessimiste « Pourquoi l’intelligence artificielle cale ? » En réalité le contenu de l’article est plus nuancé que le titre, et souligne qu’il y a de très nombreuses tâches qui sont déjà confiées avec succès à des IA. Par contre, il y a encore des obstacles comme sur la reconnaissance d’images. C’est pour cela que les voitures sans conducteurs ne se sont pas encore imposées. Le mot de la fin est donné à Yann Le Cun, que l’on ne présente plus : « Il peut y avoir des progrès fantastiques dans quelques mois, quelques années, dix ans, vingt ans… ».

Prochain salon : i-expo ! J'animerai une table ronde mercredi 23/09 vers 13h sur le choix des outils de veille avec notamment Geotrend (encore :-) et Sindup. Titre de la table ronde : L’intelligence économique et la veille en 2020 : quelles plateformes choisir ? Comment automatiser votre veille ?

Au plaisir de vous y retrouver.


Jérôme Bondu





Voici les tout premiers résultats du sondage mis en place la semaine dernière, et qui vise à mesurer le positionnement des professionnels de la veille et de l’intelligence économique par rapport à l’intelligence artificielle.
Je présente ces résultats intermédiaires, bien qu’il n’y ait que 20 répondants, pour dévoiler des premières tendances, et pour inciter les lecteurs de ce billet à participer. Cela ne prend que 5 minutes et l’on peut y répondre de manière tout à fait anonyme. Je vais utiliser les résultats pour une prochaine intervention dans le cadre de Veille Mag.


Donnez votre avis (lien vers le sondage) !

Voici quelques-unes des questions posées :

Pensez-vous que l’IA va fortement impacter votre travail en intelligence économique ?


 IE IA 1

Si oui, à quelle échéance ces modifications vont-elles apparaitre ?

IE IA 2 2
 


A l’heure actuelle, comment percevez-vous l’impact de l’intelligence artificielle sur votre activité en intelligence économique ?


 IE IA 3 2

Quelles étapes du cycle de veille vont être le plus transformées ?


 IE IA 4 2


N'hésitez pas à donnez votre avis ;-)
https://framaforms.org/intelligence-economique-artificielle-1592401521
Merci d'avance...

Jérôme Bondu






neuromarketingJe vous propose de donner un petit coup de pouce pour la thèse professionnelle de Gautier Grellety, qui a suivi avec passion (n'ayons pas peur des mots :-) mon cours sur l'intelligence économique et le benchmarking à l'IESEG Paris (Executive Master Spécialisé Direction Marketing & Digital - Part Time).

Gautier est en train de réaliser une étude quanti sur le Neuromarketing et la gestion des données RGPD. Il a mis en place un questionnaire qui dure 3 minutes.

N'hésitez pas à lui apporter vos réponses. Les questions sont intéressantes et les réponses sont anonymes (aucunes données personnelles enregistrées :-).

Merci
Jerome    

geotrend covidFrance 3 Occitanie a présenté Geotrend et son moteur sur le cornavirus.

Exrtait : « Pour aider les entreprises dans leur veille économique, La startup toulousaine Geotrend, vient de créer le « Corona Virus Search Engine ». Ce premier moteur de recherche d’information stratégique autour du Covid-19, permet de fouiller parmi les 2 milliards pages web consacrées à la pandémie. »

J’ai eu le plaisir d’y apparaitre quelques instants pour promouvoir Geotrend et ses solutions innovantes dans l’intelligence artificielle.

- Voir la vidéo (Durée totale 2 min 30 / je dis un petit mot à 2 min 05)
- Lire l’article complet.
- Pour tester le moteur.


Jérôme Bondu

openclassrooms linuxJe recommande très fortement le MOOC « Reprenez le contrôle à l’aide de Linux » sur Openclassrooms.

Je partais pratiquement de zéro, même si un copain (merci Hugo :-) m’avait présenté les fondamentaux de Linux il y a un an. C’est vraiment parfait pour les grands débutants : Clair, didactique, structuré … Et l’auteur ne manque pas d’humour, ce qui ne gâte rien. Il n’y a pas d’explications vidéo (sauf l’introduction), mais cela ne manque pas. Les explications sont faciles à suivre.

J’ai donc appris les principales commandes, j’ai utilisé le traitement de texte Nano, j’ai transformé un vieil ordinateur en serveur et créé une connexion sécurisée, j’ai utilisé Vim l'éditeur de texte du programmeur, et fait un script. Bon, je n’étais pas en autonomie, et tout cela était parfaitement dirigé par le Mooc.

La promesse du Mooc "Grâce à Linux, vous avez la possibilité aujourd'hui de reprendre le contrôle de votre ordinateur et de découvrir tout un nouveau monde passionnant, le tout sans dépenser un sou ! :)" est parfaitement tenue. Bravo à Mathieu Nebra, prof de ce Mooc, et fondateur d'Openclassrooms.

En un mot, je recommande ce Mooc qui permet de bien s’initier à Linux. Je savais depuis longtemps que Linux était une des pierres sur laquelle fonder une politique d'indépendance numérique. Voila qui me permet d'allier théorie et pratique.

Dans un prochain billet, j'aborderai Python.

Jérôme Bondu

--------------------

Plan du cours :


Partie 1 - Découvrir et installer Linux
    1. Mais c'est quoi, Linux ?
    2. Téléchargez Linux, c'est gratuit !
    3. Tester et installer Ubuntu
    4. Partitionner son disque
    5. Découverte du bureau Unity
    6. Découverte du bureau KDE
    7. Installez Linux dans une machine virtuelle

Partie 2 - Manipuler la console et les fichiers
    1. La console, ça se mange ?
    2. Entrer une commande
    3. La structure des dossiers et fichiers
    4. Manipuler les fichiers
    5. Les utilisateurs et les droits
    6. Nano, l'éditeur de texte du débutant
    7. Installer des programmes avec apt-get
    8. RTFM : lisez le manuel !
    9. Rechercher des fichiers

Partie 3 - Contrôler les processus et les flux de données
    1. Extraire, trier et filtrer des données
    2. Les flux de redirection
    3. Surveiller l'activité du système
    4. Exécuter des programmes en arrière-plan
    5. Exécuter un programme à une heure différée

Partie 4 - Transférer des données à travers le réseau
    1. Archiver et compresser
    2. La connexion sécurisée à distance avec SSH
    3. Transférer des fichiers
    4. Analyser le réseau et filtrer le trafic avec un pare-feu
    5. Compiler un programme depuis les sources

Partie 5 - Automatisez vos tâches avec des scripts Bash
    1. Vim : l'éditeur de texte du programmeur
    2. Introduction aux scripts shell
    3. Afficher et manipuler des variables
    4. Les conditions
    5. Les boucles
    6. Les fonctions
    7. TP : générateur de galerie d'images

science vie jerome bondu 3
Science & Vie d’avril 2020 (numéro 1231) consacre deux pages à Qwant. Le journaliste Hugo Leroux détaille les raisons du grippage de la machine Qwant. Il a pour cela interviewé Olivier Ertzscheid, chercheur en sciences de l'information et de la communication, Olivier Andrieu, expert en SEO,  Marc Longo qui a livré récemment une véritable croisade contre Qwant, et votre serviteur.

Lors de l’entretien avec Hugo Leroux, j’ai pu mettre en avant les risques liés à l’hégémonie de Google dans la recherche sur le web. Il présente ces éléments dans un encart intitulé « Cette hégémonie rime avec dystopie » qui rappelle la très grande faiblesse de l’Europe et l’obligation d’une reprise en main de notre souveraineté numérique dans la recherche sur le web. Si Qwant n’est pas le bon cheval, tant pis. Mais il faudra de toute manière que nous puissions nous affranchir de l’hégémonie Googlienne.

Jérôme Bondu

Sur le même sujet, on pourra lire :
A lire : Article "Google vs Qwant : un combat stratégique" publié dans Archimag
Google, un colosse aux pieds d’argile, dont le succès repose sur la confiance aveugle et l’ignorance
Les renseignements en ont rêvé, Google l’a fait : MyActivity de Google 
Pourquoi faut-il promouvoir Qwant ?





intelligence artificielleJ’ai suivi et je recommande le mooc « Objectif IA : initiez-vous à l'intelligence artificielle » de Openclassrooms (durée 6 heures / niveau facile).

C’est une très bonne introduction sur le sujet.
Cela permet de bien comprendre :
- L’intelligence artificielle.
- Les trois formes d’apprentissages : Apprentissage dirigé. Apprentissage non dirigé. Apprentissage par essai/erreur ou apprentissage par renforcement.
- Le machine learning.
- Le deep learning, qui est un réseau de neurones artificiels convolutifs.
- Les réseaux neuronaux.
- Les circuits convolutifs, ce qui indique simplement que l’analyse d’une image se fait zone par zone, suite à un prédécoupage.
Il y a aussi une bonne présentation des étapes d’un projet d’intelligence artificielle.

Prochaine étape : le cours sur l’initiation au Deep learning (8h / niveau moyen)



Voir aussi sur le même thème :
- Le comte rendu du livre de Luc Julia  et celui d’Aurélie JEAN 
- La vidéo de la conférence d’Alain Garnier et François-Régis Chaumartin sur le thème de l’intelligence économique et de l’intelligence artificielle 
- L'interview de Mickaël DEREAD : Intelligence artificielle et impacts sur les entreprises
- Et l'interview de Jérémy HARROCH : Intelligence artificielle et impacts sur nos vies

Jérôme Bondu

Source image Openclassrooms




aurélie jean algo

J’ai lu "De l’autre côté de la machine" d’Aurélie JEAN.

L’ouvrage, sous-titré "Voyage d’une scientifique au pays des algorithmes", est intéressant, se lit très bien, et présente le parcours de cette scientifique qui a orienté une partie de ses travaux sur les biais algorithmiques. Au passage elle désacralise ce qu’est un ordinateur, un algorithme, une intelligence artificielle. Voici quelques notes. On ne peut pas passer à côté de ces sujets quand on fait de la veille et de l’intelligence économique. (voir une présentation sur YT)

Donner du sens avec le code informatique


- Aurélie JEAN a su donner du sens dans le code informatique. Et pas le moindre. En s’interrogeant sur les langues universelles et notamment sur l’esperanto elle a eu une révélation : "C’est à ce moment précis que j’ai compris une chose fondamentale : ce que tant d’intellectuels avaient cherché à créer, je l’avais sous les yeux – ou, devrais-je dire, sous les doigts : le code informatique comme réponse au mythe de Babel".
- Elle présente l’informatique comme un miroir du réel, un reflet du monde. C’est à partir de ce monde virtuel qu’elle a construit les outils qui ont amélioré et sauvé des vies … dans le réel.

Chasser les biais algorithmiques


- Une bonne partie du livre est consacré aux biais algorithmiques.
- "J’allais désormais traquer les biais possibles à chaque étape de mon travail pour les éviter autant que possible. Je devais les anticiper, les chasser. Et cela passe par un esprit critique encore plus affuté – une sortie d’autodéfense intellectuelle pour m’éviter les pires erreurs. Noam Chomsky parlait d’autodéfense intellectuelle pour combattre toute fabrique du consentement. Je me suis souvenue de ses textes qui me rappelaient notre faiblesse à tous : croire à priori sans aucun acte de rébellion intellectuelle ce qu’on nous dit, ce qu’on voit et ce qu’on apprend (…) Comprendre ce passage de "nos" biais aux biais algorithmiques est essentiel pour porter un regard critique sur les technologies qui nous entourent aujourd’hui".
- Elle se veut vigilante "l’existence même des biais doit nous forcer à nous interroger toujours davantage sur nos travaux, nos modèles, nos conclusions. Dans le cas contraire, nous risquons de commettre de profondes erreurs, avec des conséquences parfois désastreuses".
- Elle rappelle l’effet ELIZA, ce biais naturel qui nous fait ressentir une certaine empathie envers les robots.
- Elle rappelle le cas d’algorithmes que l’on a pu déclarer racistes (parce qu’ils ne reconnaissaient pas les peaux noires par exemple) et explique que cela était dû au manque de diversité ethnique dans les équipes de développement.
- Elle prolonge la réflexion avec le cas d’outils autoapprenant à partir de bases de données biaisées. "C’est encore plus vrai dans le cadre des techniques d’apprentissage en intelligence artificielle, qui font développer dans leurs réseaux neuronaux des critères implicites biaisés et difficilement identifiables".
- Pour limiter les biais, elle imagine l’utilisation d’agents algorithmiques pour évaluer le comportement biaisé d’un algorithme. Une sorte de "police des algorithmes".
- Elle a écrit un équivalent du serment d’Hippocrate, un des premiers codes éthiques d’intelligence artificielle, le serment de Holberton-Turing. La charte d’éthique de Montréal présenté en décembre 2018 va dans le même sens.

Rassurer sur l’IA forte et le quantique


- "L’ordinateur est stupide et profondément docile. Car, au fond, que fait-il ? Il effectue sans la moindre analyse critique des tâches que nous, humains, par l’écriture de lignes de code, lui commandons d’exécuter (…) nous sommes les maitres de la machine".
- Elle attaque sans le nommer Laurent Alexandre et assure que l’Intelligence Artificielle forte n’existera jamais.
- Elle pense que l’ordinateur quantique ne pourra pas résoudre tous les problèmes "la plupart des problèmes auxquels j’ai été confrontée dans ma carrière ne trouveraient pas nécessairement plus de réponse avec la logique quantique".

Promouvoir ouverture, transdisciplinarité et éducation


- J’adore cette petite phrase "les philosophes réfléchissent sur un monde qui leur échappe, alors que les scientifiques construisent un monde sur lequel ils ne réfléchissent pas" !
- Il y a aussi une ode à la complémentarité entre disciplines "j’ai compris que le futur s’inscrit dans l’interdisciplinarité, cette capacité à translater ses compétences d’une discipline à l’autre et à travailler avec des gens profondément différents de vous-mêmes".
- "Assurer le large développement de cette culture scientifique n’est pas qu’une question d’éducation, c’est un impératif démocratique : nos débats doivent se nourrir d’une recherche de vérité, de logique, de doutes raisonnables, et non de passions sans fondement !". Et plus loin elle explique que "défendre ses libertés, c’est connaitre ses droits. Aujourd’hui les droits de chacun s’articulent autour des usages des technologies numériques, qui décident parfois en partie pour nous et nous assistent dans nos métiers et nos vies. En comprenant leurs ressorts, on appréhende plus facilement les limites de l’intelligence artificielle, mais aussi le champ des possibles".
- "C’est l’un des paradoxes de notre époque : une évolution est en cours, elle est dans tous les médias et sur toutes les lèvres, elle est dans toutes les conversations autour du zinc, du café ou verre à la main… Mais elle reste largement incomprise".

Dernier point : Elle baigne dans la tech américaine, et on ne trouvera pas de déclaration anti-gafam. Juste une petite note de bas de page "voila (entre autres) pourquoi Facebook, Google et les autres sont si gourmands des données personnelles : plus ils en collectent, plus leurs algorithmes peuvent être précis".

Je rapprocherais le livre d’Aurélie JEAN de celui de Luc Julia "L’intelligence artificielle n’existe pas" et de celui de Dominique Cardon "Culture numérique de Dominique" dont j’ai fait une synthèse sur mon blog. Concernant les biais en sociologie, ma référence est Gérald Bronner. Au final : Livre essentiel pour les professionnels de la veille et de l’intelligence économique qui veulent percevoir les impacts de l’intelligence artificielle, et en mesurer les forces et les faiblesses.

Jérôme Bondu

 

 

 

 

mooc serdaJ'ai eu le plaisir de participer au MOOC Serda sur la veille, l'IA et la datavisualisation.

Le MOOC est présenté comme suit : "Archimag et Serda Formation, en partenariat avec Geotrend, ont développé un Mooc consacrée à la veille et à l’intelligence économique intitulé "Veille, IA et Datavisualisation". Son ambition : initier les veilleurs aux techniques de datavisualisation les plus efficaces et leur faire découvrir les avantages de l’intelligence artificielle." Toutes les informations sur cet article écrit par Cathy Potel !

J'apprécie énormément la cartographie comme outil d'aide à l'analyse. Voici quelques exemples d'ateliers réalisés en formation et qui ont donné lieu à un billet dans mon blog. La plupart sont réalisés avec Gephi ... mais pas tous :


Quelles entreprises font le plus d’Intelligence Economique ?
Les professionnels de l’IE font-ils vraiment de la veille, de l’influence et de la sécurité économique ?
Professionnels de l'Intelligence Economique : Trouverez-vous votre profil Linkedin sur Google ou Bing ?
Comment reconstituer une partie de l’Etat-Major d’une entreprise ? Cas d’étude avec XPO Logistics.
Cartographie sur le secteur de l’Autopartage.
Comment cartographier les influenceurs sur Twitter … en 5 minutes ?
La presse parle de Liberté et d’Egalité … mais pas de Fraternité !
La presse relaye-t-elle plus l’accusation ou la mise en examen de Fillon ou de Le Pen ?
Simulons comment Youtube peut analyser votre personnalité


Bon visionnage du MOOC,

Jerome Bondu

Gayard Cover Front largeJ’ai lu Géopolitique du Darknet de Laurent Gayard (acheté sur le FIC).

Le livre ressemble beaucoup à « Darknet, GAFA, Bitcoin - L'anonymat est un choix » (du même auteur) que j’ai aussi lu et dont je vais publier le compte rendu sous peu. Ces livres traient du même thème que ceux de Jean-Philippe Rennard et de Rayna Stambouliska.

Darknets

Laurent Gayard rappelle l’origine des darknets, les projets des créateurs, leurs objectifs, et ce faisant légitime leur utilisation. Il ne masque pas les déviances possibles (et réelles) du côté dark du net, mais insiste sur leur rôle de derniers remparts face à la dystopie d’internet. Internet 2.0 représente en effet pour l’auteur un « panoptisme horizontal » et une société de contrôle. Le livre est riche en conseils pour surfer sur le côté dark, et je reprends ci-dessous quelques points pour l’amateur qui voudrait s’y balader.

La taille du web fait débat et Laurent Gayard se base sur plusieurs études :
- Internetlivestats.com avance le chiffre d’1,7 milliards de sites en ligne.
- Digimind, rappelle l'auteur, avait calculé en 2005 64 milliards de pages ... Mais bon, cela date un peu ;-)

Deepweb

L’auteur présente sa vision du deep web : un espace où l’on peut trouver des informations, mais non indexés par les moteurs.
- Il donne l’exemple suivant : on peut se balader dans le forum 4Chan mais on ne trouvera pas d’articles à partir d’une recherche dans Google. (voir note 1)
- Ce web profond représenterait 4000 ou 5000 fois le volume du web de surface (indexé) [page 27]

Il étrille l’ICANN :
- « L’ICANN en dépit des changements de statuts intervenus en septembre 2016 et de la réforme du GAC, reste toujours une entreprise de droit californien qui échappe certes à la tutelle du gouvernement américain, mais se voit de fait beaucoup plus exposée à l’influence des fameux GAFTA » (T pour Twitter).
- Et l’auteur cite Louis Pouzin « En pratique le DNS est devenu indispensable. Mais sa structure centralisée n’a rien d’indispensable. Je me réfère souvent au téléphone mobile. Il y a 1500 ou 2000 opérateurs de par le monde qui s’interrogent entre eux grâce à un système de numérotation plus intelligence qu’internet, basé sur un code pays et un code opérateur ».

Acteurs historiques et guerres cryptographiques

Il cite beaucoup d’acteurs historiques, dont David Chaum qui a inventé le routage en onion (base de Tor). Il est aussi le créateur des premières monnaies électroniques cryptographiques. Nous sommes dans les années 70 et déjà le chercheur fait un constat lucide :
- « Les bases d’une société de dossiers sont posées, dans laquelle les ordinateurs pourront être utilisés pour influencer les styles de vie, les chois vestimentaires, les habitudes, les déplacements et associations à partir des données collectées lors des transactions opérées par les consommateurs ordinaires ».
- Chaum, toujours, analyse la dépendance à la publicité « En conséquence, concepteurs, programmeurs et éditeurs web qui dépendaient de l’industrie de la publicité ont été tentés, sinon tenus, de créer une infrastructure qui faciliterait servilement la surveillance des transactions individuelles sur le web ».

Il évoque les guerres cryptographiques, commencées dès les années 70 quand le gouvernement américain freina les avancées de la cryptographie :
- Le gouvernement Clinton voulut forcer l’industrie à adopter la puce Clipper qui aurait permis de passer outre le cryptage.lii
- Puis le gouvernement a voulu imposer la clé escrow, de telle sorte que chaque système de cryptage devait donner une clé de décryptage.
- Puis ils tentèrent de casser les produits de cryptologie qui ne voulait pas donner de clé escrow.
- Jusqu’à inculper Phil Zimmerman développeur de PGP.

Les outils des darknets et du darkweb

Le thème central est le darknet / darkweb. Il présente un beau panorama d’outils, depuis les plus anciens, jusqu’aux plus récents. J’ai notamment retenu Diaspora (attention l’outil est … soutenu par Facebook) Retroshare, Zeronet, Tor (attention, soutenu le Pentagone et Google), I2P… La présentation de Tor est limpide, avec son histoire et ce que l’on peut y faire. L’auteur insiste notamment sur son interfaçage de plus en plus grand avec le web indexable :
- Avec Tor on peut aller sur Facebook ou Twitter
- Avec web2tor et tor2web (codéveloppé par Aaron Swartz et Virgil Griffith) on peut aller du dark au clear et inversement.
- Il présente les moteurs de recherche qui peuvent à partir du clear web, via Tor2Web, rechercher dans le dark : onion.link, onion.cab, ahmia.fi, onion.to (nb : j’ai testé sans résultats probants).

L’estimation de la taille du dark n’est pas plus simple que celle du clear web. Selon les études il a été recensé :
- 60 000 sites (page 142)
- 650 000 pages
- Voir notamment le projet hyperiongrey

Sur le front la cyberguerre il rappelle les principaux faits :
- Le pionnier, Kevin Mitick 
- Les attaques de l’Estonie en 2007, Géorgie en 2008, Ukraine en 2014
- L’impact du livre de deux officiers chinois « La guerre hors limite »
- Puis les attaques de Sony en 2004, les données volées à la société Mossak Fonseca (à l’origine des Panama Papers), les messages volés sur les comptes de sept responsables du parti républicain aux EU en 2016, le piratage de CNN, … et le pompon étant certainement le vol d’applications détenues par la NSA, et qui ont donné naissance à des virus extrêmement puissants (dont Wannacry) !
- Selon la spécialiste Amy Zegard, on peut trouver une faille toutes les 30 lignes de code ! Windows en compte 40 millions. CQFD


Un bémol : les images (captures d’écran) sont de très mauvaises qualités, et pour ainsi dire, illisibles. Mais l’ensemble reste très intéressant.

Jérôme Bondu

- Le livre est consultable sur Google Books
- note 1 : (humm en fait pas si sûr. J’ai testé avec la requête suivante site:4chan.org animals et l’on a bien des résultats). 4chan.org est donc bien indexé (même de manière partielle) par Google.