Le concept d'intelligence artificielle (IA) remonte à l'Antiquité et aux légendes sur des êtres artificiels dotés de conscience, tels que le golem dans le folklore juif. Selon la mythologie, les golems étaient des êtres fabriqués à partir de substances sans vie comme la terre, qui étaient animés par une sorte d'incantation.
Années 1950 : Alan Turing
L'IA moderne trouve ses origines dans les premiers ordinateurs du milieu du XXe siècle et chez des pionniers tels que le mathématicien, cryptographe et informaticien britannique Alan Turing. Dans son article de 1950 intitulé «Computing Machinery and Intelligence», Turing posa une question : les machines peuvent-elles utiliser l'information et la raison pour résoudre des problèmes et prendre des décisions de la même manière que les humains ? À bien des égards, cette question guide encore les efforts contemporains visant à créer et à faire progresser les technologies de l'IA.
Au cours de la vie de Turing, les limitations technologiques ont considérablement entravé les avancées potentielles de l'IA. Les ordinateurs étaient rares, extrêmement coûteux (coûtant jusqu'à 200 000 dollars par mois dans les années 1950) et rudimentaires par rapport au matériel moderne. Un problème clé pour la génération de Turing est que les ordinateurs de l'époque ne pouvaient exécuter que des commandes, sans les stocker. Les ordinateurs pouvaient effectuer des fonctions mais n'étaient pas encore capables de se souvenir de ce qu'ils avaient fait.
Années 1950 : Logic Theorist
L'un des premiers programmes d'IA s'appelait Logic Theorist, développé au milieu des années 1950 par Allen Newell, Cliff Shaw et Herbert Simon. Logic Theorist était un programme informatique capable d'utiliser un langage symbolique pour prouver des théorèmes mathématiques. En plus d'être une avancée technologique révolutionnaire pour l'IA, Logic Theorist a également eu un impact de plusieurs décennies sur le domaine de la psychologie cognitive.
Années 1960 à 1980 : Développement technologique et lancement de programmes d'IA ultérieurs
Dans les années 1960 et 1970, la technologie informatique a progressé rapidement. Les ordinateurs étaient capables de traiter plus rapidement et de stocker plus d'informations. Peut-être encore plus important, ils sont devenus plus courants, accessibles et moins chers. À la suite de Newell, Shaw et Simon, d'autres informaticiens ont créé de nouveaux algorithmes et programmes qui étaient de mieux en mieux capables de cibler des tâches et des problèmes spécifiques. Cela inclut ELIZA, un programme de Joseph Weizenbaum conçu comme un précurseur du traitement du langage naturel.
L'une des raisons du succès de l'IA pendant cette période était le soutien financier solide de la Defense Advanced Research Projects Agency (DARPA) et des principales institutions académiques. Ce soutien et la rapidité des développements dans la technologie de l'IA ont conduit des scientifiques comme Marvin Minsky à prédire en 1970 qu'une machine avec l'« intelligence générale d'un être humain moyen » n'était qu'à trois à huit ans.
Pourtant, il y avait de nombreux obstacles à surmonter avant d'atteindre cet objectif. Les informaticiens ont découvert que le traitement du langage naturel, la reconnaissance de soi, la pensée abstraite et d'autres compétences spécifiques à l'homme étaient difficiles à reproduire avec des machines. De plus, le manque de puissance de calcul des ordinateurs tels qu'ils existaient à l'époque constituait encore un obstacle majeur.
Les années 1980 ont vu de nouveaux développements dans ce qu'on appelle le «deep learning», permettant aux ordinateurs de tirer parti de l'expérience pour apprendre de nouvelles compétences. Les systèmes experts, lancés par Edward Feigenbaum, pouvaient commencer à reproduire les processus de prise de décision par les humains.
1990s: Deep Blue
L'un des exemples les plus médiatisés d'IA à ce jour s'est produit en 1997, lorsque le programme informatique Deep Blue d'IBM a battu le champion du monde d'échecs et grand maître Gary Kasparov. Le match a été largement médiatisé, faisant connaître l'IA au public d'une manière qui ne l'avait jamais été auparavant. En même temps, les logiciels de reconnaissance vocale avaient suffisamment progressé pour être intégrés aux systèmes d'exploitation Windows. En 1998, l'IA a fait une autre percée importante dans la vie publique avec la sortie du Furby, le premier jouet robot «animal de compagnie».
Années 2000 : Robots humanoïdes, voitures sans conducteur
Au début des années 2000, plusieurs robots humanoïdes ont rapproché l'IA des tropes de la science-fiction. Kismet, un robot avec un visage humain et capable de reconnaître et de simuler des émotions, a été lancé en 2000. Honda a sorti un robot humanoïde similaire appelé ASIMO la même année. En 2009, Google a développé un prototype de voiture sans conducteur, bien que cette avancée n'ait été révélée que plus tard.
Années 2010 à aujourd'hui
La dernière décennie environ a vu les technologies et les applications d'IA se multiplier à un rythme effréné. ImageNet, lancé à l'origine en 2007, est une puissante base de données d'images annotées utilisée pour former des programmes d'IA. Des applications d'IA très médiatisées ont trouvé leur place dans l'émission de télévision populaire Jeopardy !, les jeux vidéo, et même l'iPhone lorsqu'il a lancé l'assistant virtuel Siri en 2011. Alexa d'Amazon, Cortana de Microsoft et d'autres programmes et outils d'IA ont encore popularisé cette technologie.
Maintenant, à l'ère de l'Internet des objets (IoT), on trouve probablement l'IA dans plus d'endroits que jamais auparavant. Les véhicules autonomes, les outils d'apprentissage automatique, les chatbots, les assistants virtuels et d'autres programmes d'IA continuent de se lancer, souvent à un rythme accéléré et avec une puissance croissante. L'un des programmes d'IA les plus médiatisés de l'histoire, le chatbot ChatGPT, a été lancé fin 2022 et a rapidement inspiré des légions de fans et des programmes de chatbot connexes. Les investisseurs se concentrent de plus en plus sur les entreprises d'IA. L'avenir de l'IA semble prometteur, bien qu'il y ait aussi ceux qui restent sceptiques quant aux préoccupations éthiques ou autres.
Fiche de référence
- L'intelligence artificielle (IA) en tant que concept remonte à l'Antiquité, mais l'IA moderne a commencé au milieu du XXe siècle avec des pionniers comme Alan Turing.
- Dans les années 1950, les ordinateurs n'étaient pas assez avancés pour développer l'IA et ils étaient beaucoup trop coûteux pour la plupart (les frais de location pouvaient atteindre 200 000 dollars par mois).
- Newell, Shaw et Simon ont créé Logic Theorist au milieu des années 1950. Logic Theorist est un programme informatique souvent considéré comme le premier programme d'IA. Il peut résoudre des théorèmes mathématiques en utilisant des symboles.
- Le financement de l'IA a augmenté dans les années 1960 et 1970, notamment grâce au soutien gouvernemental de la DARPA.
- Les principales avancées des années 1980 comprennent l'avènement de «l'apprentissage profond», permettant aux ordinateurs d'apprendre par l'expérience, et des systèmes experts capables de commencer à reproduire le processus de prise de décision d'un être humain.
- Au cours des années 2000, l'IA est devenue populaire grâce à Deep Blue d'IBM, aux jouets Furby, aux Roombas et finalement à l'assistant virtuel Siri d'Apple, entre autres.
- Maintenant, les développeurs lancent de nouveaux programmes d'IA sous la forme de véhicules autonomes, d'outils d'apprentissage automatique, de chatbots, d'assistants virtuels, et plus encore, ce qui conduit à un internet des objets (IoT) en pleine croissance et d'innombrables nouveaux cas d'utilisation.