Science sans conscience n’est que ruine de l’âme, disait l’IA…

Par  le 07 novembre 2016 - 17:34 dans

Avez-vous lu Zéro, de Marc Elsberg ? Non?

Voici un pitch ascenseur : une société du genre Gafa, Freemee, collecte les données des gens, avec leur consentement, au travers de bracelets et lunettes connectées, de leurs cartes de fidélité, de leurs achats, etc. En échange, elle leur propose de valoriser ces données, et d’acquérir des apps mobiles, basées sur des algorithmes prédictifs, du machine learning et de la big data qui les conseillent pour se dépasser et se transformer. Évidemment cela tourne mal. Les algorithmes vont trop loin et tuent des gens. Les méchants créateurs du service veulent le cacher et le patron de la CIA veut s’en servir pour devenir président des États-Unis.

Richard Strul, CEO de RESONEO

Depuis le mythe du Golem, l’humanité appréhende qu’une créature de l’homme se retourne contre son maître: Frankenstein, Hal dans 2001, Skynet dans Terminator.

Mais récemment la réalité aurait tendance à rejoindre la fiction. L’omniprésence d’acteurs technologiques mondiaux, dont la puissance dépasse celle de nombre de nations, ainsi que l’universalisation du monde connecté commencent à générer de sérieuses questions et pointent du doigt trois sujets délicats.

Le premier, c’est notre capacité à conserver la compréhension de systèmes d’intelligence que nous dotons d’aptitudes cognitives supérieures aux nôtres dans un environnement où la donnée devient pléthorique.

Il y a peu, un ingénieur de Google chargé de l’implémentation de Rankbrain, l’IA qui a été mise en place dans le premier moteur de recherche du monde, a déclaré qu’il savait en gros ce qu’était censé faire Rankbrain mais plus du tout comment il le faisait.

Le patron du développement d’un géant du jeu video a déclaré la même chose à propos du système de machine learning qui est censé adapter seul l’expérience utilisateur des joueurs et évoluer en fonction.

Elon Musk, fondateur de Tesla, et Stephen Hawking, célèbre astrophysicien, tirent depuis un certain temps la sirène d’alarme sur ce point, certains que cette voie mène au suicide de l’homo sapiens.

Le second sujet, c’est notre velléité croissante à abdiquer notre espace privé contre de la commodité et du service. Il y a 10 ans, les premières applications qui utilisaient la géolocalisation scandalisaient tout le monde. Aujourd’hui nous acceptons d’être pistés partout et de confier (plus ou moins à notre insu parfois) une foule de données à des acteurs qui en font parfois un usage imprévu. À noter qu’il existe déjà des sociétés qui nous engagent à valoriser nos données, l’or noir des temps à venir, comme dans Zéro et que les objets connectés vont faire exploser les possibilités dans ce domaine, intégrés qu’ils seront dans notre quotidien, anodins et discrets.

Le troisième point, et il a défrayé la chronique récemment, c’est la gouvernance de toute cette intelligence. Le consortium annoncé en septembre par les Gafa (sauf Apple), IBM et Microsoft, destiné à définir les best practices de l’IA, vient rejoindre l’open IA de Musk et Hawking sur un terrain sensible. Qui définit ce qui est acceptable ? Mark Zuckerberg, qui a annoncé que la vie privée était une notion obsolète ? Google, dont l’OS Android habite à présent 80% de nos téléphones portables ? Cette initiative a au moins le mérite de matérialiser une conscience des risques et opportunités de ces nouvelles technologies, même s’il est évident que les «Gafim» entrevoient peut être aussi dans cette entité un outil de lobbying et une assurance contre les foudres qu’ils pourraient s’attirer en cas de «dérapage» commercial, technique… ou politique.

Quel rôle une agence peut-elle jouer dans ce nouveau monde ? En premier lieu un défrichage et une veille permanente, pour offrir aux annonceurs autant de lisibilité que possible sur cette évolution technologique quelque peu fuligineuse et en tirer le meilleur parti. Et partant de cette compétence, avoir un véritable rôle de pilote et de garde fou pour éviter aux marques de basculer du côté obscur de la force, à leur insu, avec tous les risques de retour de flamme que cela peut présenter.

L’IA est comme la langue d’Esope ; elle peut être la pire et la meilleure des choses.

Cette tribune a été publiée dans Stratégies le 28/10/2016

Tweet about this on TwitterShare on LinkedInShare on FacebookShare on Google+Email this to someone
Partagez cet article!
Aucun commentaire