Qu'est ce que l'intelligence artificielle ? histoire et définitions

En tant que concepteur, pourquoi devriez-vous être en mesure de comprendre l'intelligence artificielle ? C'est un terme que l'on entend beaucoup dans les médias et les cercles technologiques ces derniers temps, une sorte de fourre-tout qui pourrait décrire n'importe quoi, des assistants personnels virtuels aux robots, en passant par les personnages de science-fiction ou le dernier algorithme d'apprentissage profond. Peut-être travaillez-vous dans le domaine de l'IA et avez-vous une compréhension plus nuancée de ces différents domaines, ou peut-être avez-vous simplement le sentiment que votre travail sera affecté d'une manière ou d'une autre par l'IA dans les années à venir, mais vous ne savez pas exactement comment.

Qu'est ce que l'intelligence artificielle ? histoire et définitions

L'IA à travers le temps

Plutôt que de commencer notre examen de l'IA dans les années 1950, notre chronologie commence bien plus tôt, dans l'Iliade d'Homère, lorsque nous cherchions déjà à doter les statues et les dieux de qualités humaines.

Beaucoup de choses se sont passées depuis lors ! Aujourd'hui, nous avons atteint un niveau record en termes de progression, de financement et d'enthousiasme pour l'IA, même s'il existe encore un écart important entre les attentes de la science-fiction et la réalité de ce que les machines peuvent accomplir.

L'IA est encore très loin d'atteindre une intelligence générale de type humain, mais elle s'améliore de plus en plus dans l'accomplissement de tâches étroitement définies.

Voici les principales composantes de la définition de l'IA aujourd'hui et pourquoi elle est importante pour vous en tant que concepteur :

  • Elle est largement basée sur les données.
    Les récentes avancées de l'IA n'auraient pas été possibles sans les énormes quantités de données collectées par tous nos appareils connectés et la capacité de les stocker.

  • Elle est étroite et très ciblée.
    L'IA est très douée pour trouver des modèles dans les données et accomplir des tâches spécifiques que nous avons définies, mais elle ne généralise pas très bien en dehors des paramètres prédéfinis.

  • Elle ne se préoccupe pas du résultat de ses calculs.
    Contrairement au désordre inhérent à la prise de décision humaine, la capacité de l'IA à prendre des décisions n'est pas influencée par des arrière-pensées ou par le nombre d'heures de sommeil de la nuit dernière, mais se concentre uniquement sur la tâche à accomplir. Cependant, comme elle ne distingue pas le bon du mauvais, tous les préjugés qui existent dans les données sont perpétués.

  • Les capacités de l'IA sont apprises, et non programmées.
    L'IA peut s'améliorer d'elle-même de manière itérative - sans être programmée à chaque étape, elle peut tirer des enseignements de ses expériences et améliorer ses prédictions et décisions futures, ce qui lui confère des capacités de plus en plus sophistiquées.

  • C'est un terme qui évolue.
    L'IA est définie différemment selon les communautés et sa définition continuera à évoluer avec les progrès technologiques futurs.

Sachant cela, nous pensons que l'IA aura un impact considérable sur le domaine du design tel que nous le connaissons. Comme elle commence à influencer la conception de toutes les entreprises, produits, services et expériences (d'utilisateur), il est essentiel que nous ayons une compréhension fondamentale de ce avec quoi nous travaillons, et que nous décidions comment nous voulons exploiter son potentiel.

Les hauts et les bas de l'Intelligence artificielle à travers le temps

Précurseurs : une volonté de forger les dieux
Bien que nous nous imaginions généralement quelque chose de futuriste lorsque nous pensons à l'IA, cette notion existe depuis des siècles. Vers 750 avant J.-C., dans l'Iliade d'Homère, par exemple, l'infirme Héphaïstos crée des automates pour l'aider à se déplacer :
Ils sont dorés et ressemblent à des jeunes femmes vivantes. Il y a de l'intelligence dans leur cœur, de la parole et de la force, et ils ont appris des dieux immortels comment faire les choses.

Dans son livre "Machines Who Think", Pamela McCorduck décrit une foule d'autres créatures qu'Héphaïstos a créées pour diverses tâches, dont au moins une nous est sûrement familière, bien qu'un peu menaçante : Pandore et son infâme boîte.

La mécanisation de la pensée
Au-delà de ces exemples de fiction, l'Antiquité a connu d'importantes avancées dans le domaine du raisonnement et de la logique, qui ont conduit à notre langage codifié actuel, base de toute informatique. L'intelligence artificielle, dans son essence, suppose que la pensée peut être mécanisée et reproduite. Aristote a été l'un des premiers à organiser les pensées en arguments logiques en développant le syllogisme, qui prend souvent la forme de trois lignes, comme par exemple :
Tous les hommes sont mortels.
Socrate est un homme.
Par conséquent, Socrate est mortel.

Le mathématicien perse Muhammad ibn Musa al-Khwarizmi, également connu sous son nom latinisé Algoritmi (dont nous avons tiré le mot algorithme), est également un personnage clé dans de nombreux concepts que nous considérons comme acquis en IA aujourd'hui. Le mot algèbre, par exemple, est dérivé de "al-jabr", l'une des deux opérations qu'il utilisait pour résoudre les équations quadratiques. D'autres progrès réalisés tout au long du 17e siècle par des mathématiciens et des philosophes tels que Gottfried Wilhelm Leibniz, Thomas Hobbes, René Descartes se sont appuyés sur ces fondations, visant à rendre la pensée aussi systématique que l'algèbre ou la géométrie.
Bien que de nombreuses autres avancées mathématiques aient contribué à l'intelligence artificielle moderne au cours des siècles suivants, la mathématicienne anglaise du 19e siècle Ada Lovelace se distingue par ses approches créatives et ses travaux révolutionnaires en informatique. Elle a été la première à suggérer que l'ordinateur mécanique polyvalent de Charles Babbage, l'Analytical Engine, pouvait avoir des capacités allant au-delà du calcul, et a ensuite créé son premier algorithme, ce qui lui a valu le titre de première programmeuse informatique au monde.

La naissance de l'intelligence artificielle
Bien que l'on ait assisté à des progrès dans le domaine de l'informatique tout au long du début du 20e siècle, l'intelligence artificielle a réellement pris son essor dans les années 1950, avec une conférence au Dartmouth College en 1956 affirmant que tout apprentissage et toute intelligence pouvaient être décrits de manière suffisamment précise pour être simulés par une machine. C'est à cette occasion qu'est apparu le terme "intelligence artificielle", qui désigne "la simulation de l'intelligence humaine par des machines". En réfléchissant à l'atelier de Dartmouth 50 ans plus tard, l'un des organisateurs, John McCarthy, s'est dit : "J'aurais pensé que l'atelier de Dartmouth aurait été un succès : "J'aurais pensé que l'atelier aurait été connu pour les résultats qu'il a produits. En fait, il a été connu dans une large mesure simplement parce qu'il a popularisé le terme "intelligence artificielle"."

L'autre grande étape de l'IA des années 50 que vous connaissez peut-être est le célèbre "test de Turing". Popularisé par la performance de Benedict Cumberbatch dans The Imitation Game, l'informaticien britannique Alan Turing a suggéré que si une machine pouvait mener une conversation impossible à distinguer d'une conversation avec un humain, alors une "machine pensante" était plausible. En d'autres termes, un ordinateur ne serait intelligent que s'il pouvait tromper un humain en lui faisant croire qu'il était humain.

La période qui a suivi, du milieu des années cinquante au début des années soixante-dix, a été qualifiée d'"âge d'or" de l'IA, avec d'énormes progrès en informatique et une augmentation de l'enthousiasme et du financement public. Plus précisément, Marvin Minsky a poursuivi sur la lancée de l'atelier de Dartmouth en cofondant le laboratoire d'IA du Massachusetts Institute of Technology en 1959 et a continué à diriger le domaine tout au long des années 60 et 70. Les jeux ont également commencé à se révéler un moyen idéal pour développer et tester l'intelligence informatique, IBM ayant mis au point un programme capable de jouer aux dames en 1951. Dans les années 60, l'algorithme du "plus proche voisin" a été créé pour tenter de résoudre le "problème du voyageur de commerce" : "Étant donné une liste de villes et les distances entre chaque paire de villes, quel est l'itinéraire le plus court possible qui visite chaque ville exactement une fois et retourne à la ville d'origine ?". L'algorithme qui en résulta constitua les prémices de la reconnaissance élémentaire des formes.
En 1969, cependant, Marvin Minsky et Seymour Papert ont publié Perceptrons, un livre qui abordait certaines des limites de la technologie des réseaux neuronaux existante, et qui était peut-être un signe avant-coureur de "l'hiver de l'IA" des années suivantes.

Les hivers de l'IA dans les années 70 et 80
Avec un tel succès des années 50 aux années 70, alimenté non seulement par les progrès scientifiques mais aussi par les attentes élevées du public nourries par la science-fiction comme 2001, l'Odyssée de l'espace de Stanley Kubrick ou I, Robot d'Isaac Asimov, une collision avec les limites de l'IA était inévitable.
Essentiellement, lorsque les ordinateurs n'ont pas pu répondre aux attentes irréalistes de chacun, le financement et l'enthousiasme se sont taris, entraînant le démantèlement des laboratoires d'IA dans le monde entier. Bien qu'il y ait eu un bref second souffle de 1980 à 1987 grâce à un investissement important du Japon, ce boom a été de courte durée et a été suivi d'un autre hiver de l'IA de 1987 à 1993.

Le paysage de l'IA aujourd'hui - Pourquoi tant d'intérêt ?

Un outil populaire pour mesurer l'engouement pour les technologies est le Hype Cycle de Gartner, qui présente cette année l'apprentissage profond et l'apprentissage automatique à son apogée. Bien qu'il soit souvent considéré comme un indicateur de la couverture médiatique plutôt que de la recherche scientifique, il existe des avancées légitimement intéressantes qui ont conduit à la popularité actuelle de l'IA. Alors, tout cela n'est-il que du battage médiatique ? Pas tout à fait. Examinons quelques grandes étapes de l'IA au cours des dernières années environ, qui ont contribué à notre obsession actuelle.

Étapes récentes de l'IA :

  • 2011 : Introduction de Siri d'Apple, qui utilise le langage naturel pour répondre aux questions, faire des recommandations et effectuer des actions simples ou, à défaut, chercher des informations sur Internet pour vous.

  • 2012 : Les réseaux neuronaux convolutifs (CNN) détruisent la concurrence lors de la classification ImageNet, les "Jeux olympiques annuels de la vision par ordinateur", provoquant un tollé dans la communauté et déclenchant un énorme regain d'intérêt pour l'apprentissage profond.

  • Google forme un réseau neuronal pour reconnaître avec succès des chats dans des vidéos YouTube à l'aide d'un algorithme d'apprentissage profond, bien qu'il n'ait reçu aucune information sur la distinction des caractéristiques des chats.

  • 2013 : NEIL, l'amusant Never Ending Image Learner, est lancé à l'université Carnegie Mellon pour comparer et analyser en permanence les relations entre différentes images, dans le but d'apprendre la capacité humaine, ô combien souhaitable et pourtant insaisissable, du bon sens.

  • 2015 : Facebook commence à déployer DeepFace, un système de reconnaissance faciale par apprentissage profond qui a été entraîné sur quatre millions d'images téléchargées par les utilisateurs de Facebook. Il peut identifier les visages avec une précision de 97,35 %, soit une amélioration de plus de 27 % par rapport aux systèmes précédents.

  • 2015 : Les Deep Q Networks de DeepMind apprennent à jouer à des jeux Atari, marquant l'arrivée à l'âge adulte de l'apprentissage par renforcement profond.

  • 2015-17 : AlphaGo, de Google DeepMind, bat les champions de go Fan Hui, Lee Sedol et Ke Jie, le joueur classé №1 au monde à l'époque.

  • 2015 : Google DeepDream amène tout le monde à se demander si les machines peuvent faire de l'art, en générant des images trippantes à l'aide d'un réseau neuronal convolutif, un logiciel conçu pour détecter les visages et d'autres motifs dans les images dans le but de classer automatiquement les images.

  • Depuis 2015 : L'artiste Ross Goodwin explore de nouvelles formes de réalité narrée à l'aide de l'apprentissage automatique avec son narrateur poétique de "photo automatique" Word Camera et a programmé l'IA éponyme "Benjamin" pour écrire le scénario d'un film avec David Hasselhoff.

  • De 2015 à aujourd'hui : Une gamme d'assistants personnels IA est introduite dans les foyers, Siri d'Apple se battant désormais avec Cortana de Microsoft, Alexa d'Amazon et Google Now pour attirer votre attention.

  • 2017 : Libratus, conçu par le professeur Tuomas Sandholm de Carnegie Mellon et son étudiant diplômé Noam Brown, a gagné contre quatre joueurs de haut niveau à la version complexe du poker - Texas Hold'em.

  • 2017 : Deepmind de Google et les créateurs du jeu vidéo multijoueur de guerre spatiale StarCraft II ont publié les outils permettant aux chercheurs en IA de créer des bots capables de se mesurer aux humains. Les robots n'ont pas encore gagné et ne devraient pas le faire avant un certain temps, mais lorsqu'ils y parviendront, il s'agira d'un exploit bien plus important que de gagner au Go.


Avancées dans l'apprentissage automatique et l'apprentissage profond

Tous ces jalons n'auraient pas été possibles sans les avancées majeures réalisées dans les domaines les plus passionnants de l'intelligence artificielle au cours de la dernière décennie : l'apprentissage automatique et l'apprentissage profond. Bien que ces termes semblent similaires, ils ne sont pas tout à fait les mêmes. Soyons clairs.
À partir de la fin des années 90 et du début des années 2000, l'augmentation des capacités de stockage et de traitement des ordinateurs a permis aux systèmes d'IA de conserver suffisamment de données et d'exploiter suffisamment de puissance pour s'attaquer à des processus plus complexes. Dans le même temps, l'explosion de l'utilisation et de la connectivité de l'internet a créé une quantité toujours plus grande de données, telles que des images, du texte, des cartes ou des informations sur les transactions, qui peuvent être utilisées pour entraîner les machines.
Au lieu de l'ancien système programmatique de règles "si-alors" et de procédures logiques symboliques compliquées qui nécessitent des milliers de lignes de code pour guider la prise de décision de base comme dans la bonne vieille intelligence artificielle, ou GOFAI , l'apprentissage automatique fonctionne à l'envers. À l'aide d'énormes ensembles de données, les algorithmes apprennent de manière itérative, en recherchant des modèles pour donner un sens aux entrées futures. L'apprentissage automatique a été joliment résumé par Arthur Samuel, pionnier de l'apprentissage automatique, qui, en 1959, l'a décrit comme le "domaine d'étude qui donne aux ordinateurs la capacité d'apprendre sans être explicitement programmés". L'apprentissage automatique est utilisé aujourd'hui pour résoudre un large éventail de problèmes, tels que l'identification des cellules cancéreuses, la prédiction du film que vous voudrez regarder ensuite, la compréhension de toutes sortes de langage parlé ou la détermination de la valeur marchande de votre maison.

Les progrès récents de l'apprentissage automatique sont en grande partie dus à la croissance de l'apprentissage profond, un sous-domaine de l'apprentissage automatique. L'apprentissage profond s'inspire de la structure du cerveau, en reliant de nombreuses structures simples, semblables à des "neurones", pour réaliser des tâches intéressantes dans un réseau neuronal. En empilant plusieurs couches de ces neurones artificiels (d'où le terme "profond"), le réseau dans son ensemble peut apprendre à effectuer des tâches complexes. Il est intéressant de noter que les neurones de ces couches finissent souvent par remplir des rôles spécifiques, comme la reconnaissance des bords ou du contour d'un objet spécifique. La force unique de l'apprentissage profond est que ces sous-tâches - souvent appelées "caractéristiques" - sont apprises directement à partir des données, plutôt que d'être spécifiées par les programmeurs. Cela permet à l'apprentissage profond de s'attaquer à des problèmes dont les solutions ne sont pas évidentes pour les humains.
Prenons un exemple concret : la reconnaissance des cellules cancéreuses. Une approche classique de l'IA reposerait sur un expert humain qui tenterait de distiller son propre processus de décision, puis de le codifier dans l'algorithme. Par exemple, nous pourrions signaler les cellules qui dépassent une certaine taille, qui ont un contour flou ou une forme particulière. Avec l'apprentissage profond, cependant, nous pouvons alimenter directement des images de cellules étiquetées pour indiquer si elles sont cancéreuses ou non, et notre réseau neuronal apprendra à sélectionner les caractéristiques les plus utiles de l'image pour cette tâche particulière. Il s'agit d'un exemple classique d'"apprentissage supervisé" : nous fournissons des entrées et des sorties souhaitées, et l'algorithme apprend à passer de l'une à l'autre.
Nous pouvons également nous passer complètement des étiquettes et demander à l'algorithme de regrouper les cellules qui ont quelque chose en commun. Ce processus est connu sous le nom de clustering, et c'est un type d'apprentissage non supervisé. Ce processus, connu sous le nom de "clustering", est un type d'apprentissage non supervisé. Ici, nous ne fournissons pas de supervision sous la forme d'étiquettes, nous utilisons simplement l'apprentissage profond pour trouver une structure dans les données. Dans notre exemple, nos cellules sont peut-être de types très différents - cellules de la peau, du foie et des muscles - et il serait utile de les regrouper avant d'essayer de déterminer quelles cellules de chaque groupe sont cancéreuses. Parmi les autres applications courantes du clustering, citons l'identification des différents visages sur vos photos, la compréhension des différents types de clients et le regroupement des articles d'actualité sur un même sujet.


Ne croyez pas au battage médiatique : Mythes et réalités de l'IA

Avec tous ces progrès rapides de l'IA ces dernières années, on pourrait penser que nous en sommes tous enthousiasmés, n'est-ce pas ? Eh bien, pas tout le monde. Comme lors des premières années de gloire de l'IA, dans les années 50 et 60, il existe toujours un écart important entre nos attentes à l'égard de l'IA, fondées sur les représentations de la science-fiction et des médias, et ce dont l'IA est réellement capable aujourd'hui. (Sans parler de la peur rampante de la perturbation, des problèmes de confidentialité ou de la perte d'emploi associés à ces prédictions).
Une autre façon de cadrer cette discussion est la différence entre l'intelligence artificielle "étroite" et "générale". Jusqu'à présent, les plus grands succès de l'IA ont concerné l'intelligence artificielle "étroite", c'est-à-dire l'accomplissement d'une tâche spécifique dans le cadre de paramètres stricts, comme Siri tapant un message texte dicté pour vous, ou reconnaissant un chat dans une image. Il n'y a aucune notion de conscience de soi ou de capacité générale de résolution de problèmes dans l'IA étroite. À l'inverse, une grande partie de ce qui a captivé l'imagination du public au cours des décennies a été ce fantasme d'une "intelligence artificielle générale" sous la forme d'un assistant de type humain, semblable à Hal 9000, R2D2 ou Samantha dans Her, où l'IA a une intelligence égale, voire supérieure à celle des humains.
Pour être très clair, nous sommes encore loin de tout ce qui ressemble à une IA générale. Yoshua Bengio, l'un des fondateurs d'Element AI, est explicite lorsqu'il parle de ce sujet : il ne pense pas qu'il soit raisonnable de faire une prédiction basée sur le temps pour savoir quand cela pourrait arriver. Dans un récent exposé, il a exposé quelques raisons spécifiques pour lesquelles nous n'en sommes pas encore là, la première étant que tous les succès industriels de l'IA à ce jour ont été basés uniquement sur l'apprentissage supervisé. Nos systèmes d'apprentissage sont encore assez simples d'esprit, dans la mesure où ils s'appuient sur des indices superficiels dans les données qui ne donnent pas de bons résultats en dehors des contextes d'apprentissage.

Par exemple, lorsque Google a entraîné un réseau neuronal à générer des images d'haltères à partir de milliers de photos, il a presque réussi. Certes, nous avons deux poids reliés par une barre, mais que font ces bras fantômes ? Bien que le réseau neuronal ait réussi à identifier les propriétés visuelles communes des haltères, puisque les images sources montraient toujours des humains tenant des haltères, il a également supposé que les haltères avaient des bras.
Malgré ces limites importantes, à entendre Elon Musk s'affronter à Mark Zuckerberg l'été dernier, on pourrait croire qu'une troisième guerre mondiale alimentée par l'IA est imminente. Dans un récent billet de blog, notre PDG Jean-François Gagné nous ramène aux fondamentaux de l'état actuel de l'IA :
"L'IA est très étroite, et fragile. Elle ne fonctionne pas bien en dehors du cadre pour lequel elle a été conçue. Elle ne peut gérer que des fonctions objectives simples ; donc, c'est vraiment nous, les humains, qui utilisons notre intelligence humaine pour l'appliquer efficacement jusqu'au point où un travail peut être automatisé."

Les nombreuses définitions de l'IA

Maintenant que nous sommes au courant des développements historiques et des progrès récents de l'IA, examinons les nombreuses définitions que nous avons trouvées pour la décrire au fil des ans. Si certains affirment que le terme est tellement galvaudé ces derniers temps qu'il n'a plus de sens, nous ne sommes pas prêts à l'abandonner.

Comment le terme "IA" est utilisé aujourd'hui

Pour définir l'IA, commençons par examiner l'intelligence. D'un côté, on pourrait adopter une notion simpliste de l'intellect, basée sur un score de QI par exemple. Mais nous savons tous que l'intelligence est en fait beaucoup plus complexe. Le dictionnaire Oxford la définit comme suit : "la capacité d'acquérir et d'appliquer des connaissances et des compétences", tandis que l'approche du Cambridge Dictionary est un peu différente : "la capacité d'apprendre, de comprendre et de porter des jugements ou d'avoir des opinions fondées sur la raison." D'autres ont développé des façons plus nuancées de mesurer l'intelligence au fil des ans, comme la théorie des intelligences multiples d'Howard Gardner, mettant en avant des modalités telles que musicales-rythmiques et harmoniques, visuelles-spatiales, verbales-linguistiques, logiques-mathématiques, corporelles-kinesthésiques et existentielles, entre autres. Notre conception de l'intelligence est plus proche de cette dernière définition, permettant l'acquisition, le traitement et l'application d'informations dans un large éventail de contextes.

Notre idée de l'intelligence est également très anthropomorphique : elle est basée sur la façon dont nous, les humains, réfléchissons et résolvons les problèmes. L'IA est largement comprise de la même manière, en ce sens qu'un système artificiellement intelligent arrive à des conclusions d'une manière qui ressemble à l'approche d'un être humain. S'appuyant sur cette idée, David C. Parkes et Michael P. Wellman présentent la notion d'IA comme "homo economicus, l'agent mythique parfaitement rationnel de l'économie néoclassique". Mais s'il est tentant de penser que nous pourrions concevoir une entité parfaitement rationnelle, les données utilisées pour former l'IA sont souvent intrinsèquement imparfaites, en raison de biais humains ou autres, ce qui rend la "rationalité parfaite" presque impossible à évaluer.
Un rapport de 2016 de la Maison Blanche sur l'IA résume les difficultés à trouver une définition cohérente : "Il n'existe pas de définition unique de l'IA qui soit universellement acceptée par les praticiens. Certains définissent l'IA de manière vague comme un système informatisé qui présente un comportement que l'on considère généralement comme nécessitant de l'intelligence. D'autres définissent l'IA comme un système capable de résoudre rationnellement des problèmes complexes ou de prendre des mesures appropriées pour atteindre ses objectifs, quelles que soient les circonstances du monde réel qu'il rencontre." Il est intéressant de noter qu'ils n'utilisent pas le terme "comportement humain" ici, mais simplement "comportement".

Le philosophe suédois Nick Bostrom se concentre sur la notion d'apprentissage et d'adaptation dans l'IA dans son livre Superintelligence : Paths, Dangers, Strategies : "Une capacité d'apprentissage serait une caractéristique intégrale de la conception de base d'un système destiné à atteindre l'intelligence générale... Il en va de même pour la capacité à gérer l'incertitude et les informations probabilistes." D'autres, comme le professeur d'ingénierie informatique Ethem Alpaydın dans une Introduction à l'apprentissage automatique, affirment qu'"un système intelligent devrait être capable de s'adapter à son environnement ; il devrait apprendre non pas à répéter ses erreurs mais à répéter ses succès."

Nos définitions
En plus d'examiner comment les autres définissent l'IA aujourd'hui, une partie de nos recherches a également consisté à envoyer un sondage à l'échelle de l'entreprise demandant à nos collègues de définir l'intelligence artificielle, en une phrase (ou deux, ou trois). Les résultats de l'enquête ont fait apparaître trois grandes catégories de réponses :

  • L'IA est la capacité d'un ordinateur à prendre des décisions ou à prédire, sur la base des données dont il dispose.

  • L'IA est la capacité d'un ordinateur à reproduire des fonctions cérébrales d'ordre supérieur telles que la perception, la cognition, le contrôle, la planification ou la stratégie.

  • L'IA est un programme créé par des données et des calculs, c'est-à-dire non codé en dur.


Pour notre propos d'aujourd'hui, ces définitions sont-elles suffisantes ? Quels sont les pièges à éviter lorsqu'on tente de définir un concept aussi vaste et en constante évolution ?

Pourquoi est-ce si difficile ?

Le phénomène du "fourre-tout" est l'un des principaux défis à relever lorsque l'on parle d'IA. Les utilisations fréquentes du terme ont donné lieu à un large éventail d'applications et à une confusion inhérente, comme l'explique Genevieve Bell, docteur en anthropologie à Stanford et directrice de la recherche sur l'interaction et l'expérience chez Intel :
"Pour moi, l'intelligence artificielle est un terme fourre-tout qui a connu des hauts et des bas de popularité. Il est de retour en ce moment. C'est un terme générique qui permet de parler d'informatique cognitive, d'apprentissage automatique, d'apprentissage profond et d'algorithmes. C'est un fourre-tout car il signifie tout et rien à la fois. C'est une catégorie culturelle autant qu'une catégorie technique."

Le terme est souvent utilisé dans de mauvaises circonstances (ou plutôt dans des circonstances imprécises) car il est très large, comme le souligne ce document de discussion du McKinsey Global Institute de 2017, AI : The next digital frontier :
"...Il est difficile à cerner car les gens mélangent et associent différentes technologies pour créer des solutions à des problèmes individuels. Elles sont parfois traitées comme des technologies indépendantes, parfois comme des sous-groupes d'autres technologies et parfois comme des applications... Certains cadres regroupent les technologies d'IA par fonctionnalité de base..., d'autres les regroupent par applications commerciales..."


Un autre défi majeur dans la définition de l'IA est le fait que la science et ses applications sont en constante évolution. Comme l'explique Pamela McCorduck dans son livre "Machines Who Think", il arrive souvent qu'un système intelligent résolvant un nouveau problème soit écarté comme "simple calcul" ou "pas de véritable intelligence". Le philosophe Bostrom résume bien la situation : "Une grande partie de l'IA de pointe a filtré dans des applications générales, souvent sans être appelée IA, car une fois qu'une chose devient suffisamment utile et courante, elle n'est plus étiquetée IA." Par exemple, le programme d'IBM qui jouait aux dames en 1951 aurait pu être considéré comme une IA révolutionnaire à l'époque, mais serait décrit comme de l'informatique de base aujourd'hui. Ou plus récemment, certains soutiendraient de manière pessimiste qu'il n'y a rien d'"intelligent" dans une "IA étroite", comme AlphaGo battant Lee Sedol.
Compte tenu de tous ces défis, y a-t-il un moyen de réduire le bruit culturel et médiatique qui obscurcit notre jugement et de nous concentrer sur des questions tangibles ? Lorsque nous utilisons le mot "IA", nous faisons généralement référence à une technologie spécifique, comme le traitement du langage naturel, l'apprentissage automatique ou la vision artificielle. Il convient donc de commencer par être aussi précis que possible. Dans d'autres circonstances, cependant, l'utilisation du terme "IA" n'est pas déplacée, comme dans les situations où nous ne savons vraiment pas précisément quelle technologie est utilisée. C'est un piège dans lequel nous ne sommes pas à l'abri de tomber, à l'instar de tous les praticiens de l'IA et des journalistes qui alimentent ce débat permanent.

L'avenir
En essayant de définir clairement ce qu'est l'IA, nous avons découvert qu'elle a des significations très différentes selon les personnes. C'est une idée qui a captivé notre imagination pendant très longtemps. Même si nous la réduisons à l'informatique, elle reste très vaste. Dans cette optique, nous pensons qu'il est important de se concentrer sur la façon dont l'IA change déjà nos vies, sur les percées actuelles qui suscitent cet engouement. Kevin Kelly a bien résumé la situation lors d'une récente conférence TED :
"Il n'y a pas d'experts en IA à l'heure actuelle. Beaucoup d'argent y est consacré, des milliards de dollars y sont dépensés ; c'est un marché énorme, mais il n'y a pas d'experts, comparé à ce que nous saurons dans 20 ans. Nous n'en sommes donc qu'au début du commencement, à la première heure de tout cela... Le produit d'IA le plus populaire dans 20 ans, que tout le monde utilise, n'a pas encore été inventé. Cela signifie que vous n'êtes pas en retard."


En d'autres termes, il est normal que nos notions de l'IA impliquent de multiples points de vue et des idées parfois contradictoires, car elle évolue et se produit maintenant. Il ne s'agit pas d'une dérobade, mais plutôt d'un appel à accepter l'ampleur et le désordre inhérents à l'IA tout en s'efforçant de l'améliorer.

Tout cela pour dire que nous n'allons pas établir LA définition. Cependant, nous souhaitons que les concepteurs qui s'attaquent à la technologie mise en production aujourd'hui aient une compréhension de base de l'IA et de ses capacités. Si "l'IA est ce qui n'a pas encore été fait", comme le dit le théorème de Tesler, alors c'est précisément là que nous devons regarder - non pas ce qui a déjà été fait, mais ce qui est possible, ou qui le sera très bientôt.
Nous pensons qu'au fond, l'IA est une immense opportunité d'apprentissage et que, si elle est développée de manière réfléchie, elle peut propulser l'homme vers des progrès considérables. De même que les charrues tirées par des chevaux ont révolutionné l'agriculture dans les années 1100 et que les moteurs à vapeur ont fait entrer l'industrie et les transports dans une nouvelle ère au 18e siècle, nous pensons que l'IA sera à la base du prochain siècle d'innovation numérique. Comme l'a récemment déclaré Max Tegmark, professeur de physique au MIT, ce n'est pas le moment de penser à l'avenir comme à un événement prédestiné vers lequel nous nous dirigeons inévitablement, mais plutôt de nous demander : "Quel genre d'avenir voulons-nous concevoir avec l'IA ?".

Sources

https://www.elementsofai.com/
https://www.coursera.org/learn/machine-learning
https://en.wikipedia.org/wiki/Artificial_intelligence
https://www.onisep.fr/Pres-de-chez-vous/Hauts-de-France/Amiens/Informations-metiers/Le-numerique-et-l-intelligence-artificielle/L-intelligence-artificielle-et-ses-domaines-d-application