-
Hello Future ...
Une brève histoire de l’IA
Au commencement étaient les ordinateurs. Puis Alan Turing invente le test qui porte son nom. En 1956, le séminaire du Darmouth College marque les débuts de la recherche en intelligence artificielle. Voici les principales étapes d’une marche en avant qui n’est pas achevée.
1943
Vous avez dit IA ?
L’intelligence artificielle tient le haut du pavé depuis quelques mois.
Mais que recouvre exactement cette expression ?
Où en est-on de ses progrès ?C’était la vedette de la deuxième édition du salon Viva Technology, en juin 2017 à Paris : l’intelligence artificielle. Pas surprenant car, comme l’a noté Stéphane Richard, le PDG d’Orange, lors d’un « keynote », « l’intelligence artificielle est entrée dans une nouvelle dimension, grâce aux progrès du deep learning (apprentissage profond) qui lui ont permis de devenir une technologie beaucoup plus fiable ». Et d’illustrer son propos par deux chiffres : 75 %, c’était en 2011 le taux de reconnaissance d’objets dans une image ; on est aujourd’hui à 97 %, « même si la lumière est pauvre ou l’image floue ». Comme Stéphane Richard l’a souligné, « cette tâche est réalisée par l’IA avec un résultat bien meilleur et une rapidité supérieure à ce que peut effectuer n’importe quel opérateur humain ». Pour le patron d’Orange, « nous sommes à un moment décisif de l’histoire en termes de rythme d’innovation et de potentiel disruptif dans tous les secteurs ».
Une brève histoire de l’IA
Au commencement étaient les ordinateurs. Puis Alan Turing invente le test qui porte son nom. En 1956, le séminaire du Darmouth College marque les débuts de la recherche en intelligence artificielle. Voici les principales étapes d’une marche en avant qui n’est pas achevée.
1943
La naissance des ordinateurs
Les premiers ordinateurs voient le jour. Construits avec des technologies qui précédaient les circuits intégrés (tubes à vide, relais électromécaniques), ils sont peu performants.
1950
Le test de Turing
Le mathématicien britannique Alan Turing publie son article "Computing Machinery and Intelligence" et met au point son test à l’aveugle pour déterminer qui est l’humain ou l’ordinateur.
1950
La première machine capable d’apprendre
Claude Shannon développe Theseus, une souris électromécanique capable d’apprendre à trouver la sortie d’un labyrinthe. Avant même l’apparition du terme "intelligence artificielle", il s’agissait de la première démonstration effective d’une machine capable d’apprendre.
1956
Le séminaire du Dartmouth College
Le séminaire du Dartmouth College, aux Etats-Unis, invente le terme d'Intelligence Artificielle (IA) et aboutit à la création de concepts qui marquent les débuts de la recherche en IA.
1958
Le "list processing"
John McCarthy, co-organisateur du séminaire du Dartmouth College, créé le langage informatique LISP (mot forgé à partir de l’anglais "list processing") qui permet de faciliter la programmation d’IA.
1959
Le "General Problem Solver"
Herbert Simon et Allen Newell inventent le General Problem Solver, une stratégie de résolution de problèmes largement utilisée dans le domaine de l'intelligence artificielle.
1965
Le programme Eliza
Eliza est un programme informatique écrit par Joseph Weizenbaum, capable de dialoguer en anglais en incarnant le rôle d’une psychologue.
1974
Le système MYCIN
MYCIN est un système expert utilisant l’IA pour identifier des bactéries causant des infections sévères et recommander des antibiotiques en adaptant le dosage au poids des patients.
1996
La victoire de Deep Blue
Le champion d’échecs Garry Kasparov est battu par le superordinateur Deep Blue d’IBM. Un événement qui démontre que l’IA est plus performante que l’homme dans certains domaines précis.
2005
Le robot Stanley
En 2005, Stanley, un robot construit à l’université Stanford, remporte le "DARPA Grand Challenge" en conduisant de manière autonome pendant 131 miles sur une piste de désert sans avoir fait de reconnaissance préalable.
2011
Le programme Watson
Le programme d’IA Watson d’IBM surclasse les meilleurs joueurs du jeu télévisé américain de questions réponses Jeopardy !
2017
L’AlphaGo
En mars 2016, le programme d’IA de Google AlphaGo bat un des meilleurs joueurs mondiaux de jeu de go, puis le 27 mai 2017, il bat le champion du monde Ke Jie qui annonce sa retraite.
Vous avez dit IA ?
L’intelligence artificielle tient le haut du pavé depuis quelques mois.
Mais que recouvre exactement cette expression ?
Où en est-on de ses progrès ?C’était la vedette de la deuxième édition du salon Viva Technology, en juin 2017 à Paris : l’intelligence artificielle. Pas surprenant car, comme l’a noté Stéphane Richard, le PDG d’Orange, lors d’un « keynote », « l’intelligence artificielle est entrée dans une nouvelle dimension, grâce aux progrès du deep learning (apprentissage profond) qui lui ont permis de devenir une technologie beaucoup plus fiable ». Et d’illustrer son propos par deux chiffres : 75 %, c’était en 2011 le taux de reconnaissance d’objets dans une image ; on est aujourd’hui à 97 %, « même si la lumière est pauvre ou l’image floue ». Comme Stéphane Richard l’a souligné, « cette tâche est réalisée par l’IA avec un résultat bien meilleur et une rapidité supérieure à ce que peut effectuer n’importe quel opérateur humain ». Pour le patron d’Orange, « nous sommes à un moment décisif de l’histoire en termes de rythme d’innovation et de potentiel disruptif dans tous les secteurs ».
« Nous sommes à un moment décisif de l’histoire en termes de rythme d’innovation et de potentiel disruptif dans tous les secteurs »
Stéphane Richard, PDG d'OrangeMais qu’est-ce donc que cette IA qui fait les gros titres et suscite autant d’interrogations que d’espoirs ou d’inquiétudes ? Nicolas Demassieux, directeur de la recherche d’Orange, plante le décor : « l’IA cherche à reproduire les capacités cognitives de l’être humain avec des algorithmes et des ordinateurs ». Selon Jean-Gabriel Ganascia, enseignant à l’université Pierre et Marie-Curie et chercheur au CNRS, qui intervenait lors du dernier festival Futur en Seine, en juin 2017, « le terme a été introduit en 1956 par deux jeunes mathématiciens qui ont eu l’idée d’étudier l’intelligence avec les ordinateurs, apparus dix ans auparavant. Leur but : décomposer l’intelligence en fonctions élémentaires et simuler chaque fonction avec un ordinateur. Par exemple : le raisonnement, la reconnaissance des objets sur des images, le langage naturel, etc ».
Deep learning et machine learning.
Ces deux jeunes chercheurs sont John McCarthy du Dartmouth College et Marvin Minsky de Harvard. Avec Nathaniel Rochester d’IBM et Claude Shannon de Bell Telephone Laboratories, ils organisent cette année-là un séminaire au Dartmouth College, université privée du New-Hampshire (États-Unis). C’est le début des recherches en intelligence artificielle. « Nous tenterons de découvrir comment une machine pourrait utiliser le langage, créer des abstractions et des concepts, s’améliorer elle-même, résoudre des problèmes qui sont aujourd’hui l’apanage de l’intelligence humaine », écrivait à l’époque John McCarthy.
Avant ce séminaire fondateur, le mathématicien anglais Alan Turing avait mis au point son célèbre
décrit dans une publication fondatrice1 . Il s’agissait de faire converser un humain avec d’autres personnes et un ordinateur. Si la personne n’était pas capable de différencier les hommes de la machine, celle-ci avait réussi le test.
L’apparition récente des techniques d’apprentissage profond et l’apprentissage automatique font bondir les performances des algorithmes
Mais durant plusieurs décennies, les recherches stagnent sans découvertes majeures. Jusqu’à l’accélération récente des techniques d’apprentissage automatique, ou « machine learning », vers des techniques d’apprentissage profond, « deep learning », qui a fait bondir les performances des algorithmes et leur a permis de s’attaquer à des tâches bien plus complexes.
Le deep learning utilise la notion de réseaux de neurones formels, soit la représentation mathématique et informatique d’un neurone biologique, née en 1943. Le machine learning, lui, permet à une machine d’adapter ses comportements en se fondant sur l’analyse des données à sa disposition. Un robot peut ainsi apprendre à marcher en commençant par des mouvements aléatoires, puis en sélectionnant les mouvements lui permettant d’avancer.
« Depuis cinq ans, on observe une accélération indubitable des performances de l’IA. Par exemple, la reconnaissance de formes ou d’objets dans les images. Sur cette tâche précise, on peut affirmer que l’IA est meilleure que l’homme », décrit Nicolas Demassieux, qui travaille sur l’intelligence artificielle depuis les années 1980. « Le français Yann Le Cun, responsable du programme IA de Facebook, a démontré en 2010 que, sur d’immenses quantités d’images, il obtenait de meilleures performances avec l’IA qu’avec les autres techniques », ajoute Jean-Gabriel Ganascia. Même efficacité de l’intelligence artificielle pour la détection d’un cancer de la peau à partir d’une coupe histologique (tranche d’un organe suffisamment fine pour pouvoir être observée au microscope), qu’a réussi récemment le programme Watson d’IBM.
IA faible, IA forte.
Mais si les progrès de l’IA sont réels, celle-ci est toujours qualifiée de
, en opposition à l’IA
et consciente d’elle-même que prédisent les transhumanistes. Vous applaudissez le superordinateur Deep Blue d’IBM qui a battu le champion d’échecs Garry Kasparov dès 1997 ? Vous saluez le programme informatique AlphaGo de Google DeepMind qui a vaincu le champion du monde de jeu de go l’année dernière ? Désolé, mais ce sont des IA faibles ! De même que les chatbots, ces logiciels de conversation automatique qu’on trouve de plus en plus dans les services de relation client, comme Watson pour Orange Bank. Ou encore des assistants personnels présents dans nos smartphones ou couplés à des enceintes connectées, comme Siri d’Apple, Cortana de Microsoft, Alexa d’Amazon et Djingo d’Orange. « Un jour, nous pourrons dialoguer avec ces assistants de manière naturelle, mais ce n’est pas encore le cas », constate Luc Julia, « père » de Siri d’Apple et désormais vice-président innovation de Samsung.
Faibles, certes, « ces IA sont très efficaces pour remplir une tâche spécialisée », précise Nicolas Demassieux. Le patron de la recherche d’Orange ajoute : « L’intelligence humaine, elle, peut faire énormément de choses : raisonner, communiquer, manipuler des concepts, etc. Une IA qui reconnaît un chat dans une image ne maîtrise pas le concept de chat. L’IA faible actuelle est encore très très loin de ce que peut réaliser un humain ».
La manière dont « pense » l’IA est l’un des problèmes que ne savent pas encore résoudre les chercheurs. C’est ce qu’on appelle le phénomène de la boîte noire.
Pour l’instant, les systèmes d’intelligence artificielle fonctionnent en étant abreuvés de masses de données par des opérateurs humains. « Mais il nous manque encore un moyen de faire réfléchir la machine », explique Luc Julia. La manière dont « pense » l’IA est d’ailleurs un des problèmes que ne savent pas encore résoudre les chercheurs. C’est ce qu’on appelle le phénomène de la boîte noire : l’IA répond parfaitement à une tâche une fois entraînée, mais ne sait pas expliquer comment elle est arrivée à ce résultat. « L’expérience de l’IA n’est pas transmissible à l’humain et elle ne sait pas décrire son raisonnement », note Nicolas Demassieux.
La singularité ? Une supercherie.
L’IA actuelle est donc pour l’instant un ensemble de techniques qui s’améliorent peu à peu, mais encore très éloignées de l’androïde conscient et immortel des films de science-fiction. Jean-Gabriel Ganascia, auteur du Mythe de la Singularité 2 , pense que l’arrivée prochaine – Raymond Kurzweil évoque 2030 – d’une IA omnisciente et dangereuse est « une supercherie ».
« La singularité se base sur deux arguments, explique-t-il. Un : la loi de Moore, définie en 1964 par le fondateur d’Intel, qui établit que la puissance des processeurs double tous les 18 mois. Or, la technologie du silicium qui compose ces puces a des limites physiques. Deuxième argument : le machine learning permet aux IA de s’auto enseigner. Là encore, cet apprentissage a des limites. Quand on apprend, il faut à un moment introduire des notions totalement nouvelles comme l’ont fait Galilée ou Einstein. On ne sait pas comment une machine peut d’elle même établir ces nouveaux paradigmes. »
Cette technologie perfectible a pourtant commencé à bouleverser nos modes de vie, et va continuer à le faire dans le futur, avec l’arrivée programmée des
, des robots chirurgiens, des algorithmes avocats ou des majordomes virtuels. A Viva Technology, Stéphane Richard a rappelé que « l’intelligence artificielle offre un potentiel certain de croissance, à la fois pour l’économie comme pour l’humanité. Les innovations dérivées de l’IA vont devenir le centre névralgique des entreprises et de la société en général, et tous les acteurs doivent s’y préparer intellectuellement, politiquement, socialement ».
Tout voir
8 changements de l’IA
dans nos vies
Smartphones, automobiles, maison, commerce, relation client, santé et même justice, l’intelligence artificielle est une réalité dans bien des aspects de
« Lamomali - Manitoumani (Live Francofolies de La Rochelle 2017) Histoire du ciel (3/4) « Météorites, entre ciel et terre » »
Tags : l’ia, artificielle, d’un, machine, programme
-
Commentaires