Sur les traces de l’Intelligence Artificielle

lundi 26 août 2024

Denise Lachat

Au début des années 2000, l'Intelligence Artificielle a commencé à se répandre dans notre vie quotidienne. Son histoire remonte pourtant aux années 1950, quand des scientifiques ont commencé à se demander si les machines pouvaient penser et apprendre comme les êtres humains.

Il y a une bonne vingtaine d‘années que les smartphones sont devenus populaires et ont introduit des assistants vocaux comme Siri chez Apple et Google Assistant. Ces assistants utilisent l'Intelligence Artificielle (IA) pour comprendre nos commandes vocales, répondre à nos questions et nous aider dans nos tâches quotidiennes.

Point de départ avec Alan Turing

L'histoire de l'intelligence artificielle remonte pourtant beaucoup plus loin. C’est aux années 1950 que des scientifiques ont commencé à se demander si les machines pouvaient penser et apprendre comme les êtres humains. On doit ce nouveau terme à Alan Turing, grand mathématicien britannique. Né en 1912, il est d'abord connu pour avoir créé le premier prototype d'ordinateur avec lequel il a réussi à déchiffrer les messages cryptés de la célèbre machine « Enigma », un code très élaboré utilisé par l'armée allemande pendant la Deuxième Guerre mondiale.

En 1950, le mathématicien a imaginé un test révolutionnaire appelé « le test de Turing ». Ce test se présente sous la forme d’un jeu composé de trois joueurs, situés dans des pièces différentes. Un interrogateur pose des questions par écrit à un homme et une femme dans le but de déterminer leur genre en se basant sur leurs réponses. Cependant, l’homme est invité à se faire passer pour une femme afin de rendre le jeu plus complexe. Après la première partie, l’homme est remplacé par un ordinateur qui continue à se faire passer pour une femme. À la fin, la performance de l’interaction entre l’humain et la machine est comparée afin de décrire le niveau de la faculté de l’intelligence artificielle d’imiter une conversation humaine – si l’ordinateur parvient à se faire passer pour un humain et donc à tromper l’interrogateur, il est considéré « intelligent ».

Ce test a été un point de départ important pour la recherche en intelligence artificielle. Turing lui-même a prédit que les ordinateurs seraient un jour capables de passer le test avec succès. Il estimait qu’en l’an 2000, des machines seraient capables de tromper environ 30 pourcents des juges humains durant un test de cinq minutes. Il a également prédit ce qui est aujourd’hui connu sous le terme «machine learning», l’apprentissage des ordinateurs.

En 1950 toujours, deux étudiants d’Harvard, Marvin Minsky et Dean Edmonds, ont créé le Stochastic Neural Analog Reinforcement Calculator (Snarc). Snarc utilise 3000 tubes à vide pour simuler un réseau de 40 neurones. L'idée derrière Snarc est de créer un ordinateur qui peut apprendre et prendre des décisions comme un être humain. En effet, Snarc peut étudier des exemples et des informations pour comprendre comment faire certaines choses. Il peut également prendre des décisions en utilisant des règles.

Jouer aux échecs

Au cours des années 1950 et 1960, des chercheurs ont commencé à explorer les capacités des ordinateurs pour résoudre des problèmes logiques et mathématiques. En 1952, Arthur Samuel crée un logiciel capable d’apprendre à jouer aux échecs de manière autonome. Un moment clé de l'histoire de l'IA s'est produit beaucoup plus tard, en 1997, lorsque l'ordinateur Deep Blue, développé par IBM, a battu le champion du monde d'échecs, Garry Kasparov. Cela a été un moment marquant, car ce fut la première fois qu'un ordinateur surpassait un être humain dans un jeu aussi complexe. Cependant, selon nos standards actuels, Deep Blue serait qualifiée de «machine réactive». Elle était certes capable d'observer un échiquier et de reconnaître les pions et les mouvements possibles, mais son intelligence se limitait à faire des prédictions sur les mouvements et à choisir le coup suivant le plus logique. La machine n'était donc pas en mesure d'apprendre à connaître son adversaire en collectant des données sur ses habitudes, ses erreurs de jeu ou ses coups typiques.

Mais retournons aux années 1950 d’abord. En 1955, les chercheurs américains Allen Newell et Herbert A. Simon développent l’un des projets pionniers: le Logic Theorist. Il s’agit d’un programme informatique pouvant prouver des théorèmes mathématiques. Il peut résoudre des problèmes de logique en utilisant des règles et des étapes de raisonnement, et il apprend de ses expériences pour devenir meilleur dans la résolution de problèmes. L'objectif de Newell et Simon en créant le Logic Theorist était de montrer qu'un ordinateur pouvait être programmé pour penser et résoudre des problèmes logiques de manière similaire à un être humain.

La conférence à Dartmouth College

En 1956, une conférence historique sur l'Intelligence Artificielle a eu lieu à Dartmouth College, aux États-Unis. Cette conférence, qui a réuni plusieurs chercheurs, est considérée comme le point de départ officiel de la recherche en IA. L'objectif était d'explorer la possibilité de créer des machines intelligentes capables d'apprendre, de résoudre des problèmes et de simuler des processus cognitifs humains. Lors de cette conférence, le terme «Intelligence Artificielle» sera créé.

Dans les années 1970 et 1980, l’Intelligence Artificielle a suscité des doutes, son développement s’est ralenti, notamment car les chercheurs en IA n'ont pas été en mesure de répondre aux attentes élevées qui avaient été placées sur eux. En conséquence, de nombreux projets de recherche en IA ont été annulés et les financements ont été coupés; l’industrie milliardaire de l’IA a commencé à s’effondrer.

Le développement de XCON

Ce qui fut appelé «l'hiver» de l'IA a pris fin avec le développement XCON en 1978 par Digital Equipment Corporation. XCON fut le premier système expert commercial, conçu pour configurer des commandes pour de nouveaux systèmes informatiques. Il avait un énorme succès: on estime qu'il aurait permis à l'entreprise d'économiser 40 millions de dollars en seulement six ans d'exploitation et a suscité un véritable engouement pour les investissements dans l'IA.

Au fil des années, les ordinateurs sont devenus de plus en plus puissants grâce aux avancées technologiques. Les chercheurs ont exploré différentes approches pour la développer. Par exemple, dans les années 1980 et 1990, une technique appelée « réseaux de neurones artificiels » a été utilisée. Cette approche s’inspire du fonctionnement du cerveau humain.

En 2006, Geoffrey Hinton, Yoshua Bengio et Yann LeCun développent les fondements des réseaux neuronaux profonds et du Deep Learning. Ces avancées et l'entraînement des réseaux neuronaux permettent de résoudre des problèmes plus complexes. En 2011, le système d'IA IBM Watson remporte le jeu télévisé américain «Jeopardy!» contre les participants humains les plus performants. En 2014, Google présente son projet de recherche DeepMind et montre comment un réseau neuronal appelé Deep Q-Network (DQN) obtient de meilleurs résultats que les joueurs humains dans les jeux Atari, sans entraînement préalable. En 2016, AlphaGo, un système d'IA développé par DeepMind, bat Lee Sedol, le meilleur joueur de Go au monde. Le jeu de «Go» a longtemps été considéré comme extrêmement difficile pour l'intelligence artificielle en raison de sa complexité et du très grand nombre de déplacements possibles.

Aujourd’hui, l'IA est utilisée dans de nombreux domaines, de la médecine à la finance, en passant par les voitures autonomes. L'IA est également utilisée dans la reconnaissance faciale, la traduction automatique, les recommandations de films et de musique, et bien d'autres applications.

En 2022, Open AI a fait sensation dans le monde entier, notamment avec la publication de ChatGPT. ChatGPT a été créé par Sam Altman, un des fondateurs d'OpenAI. C’est le succès sans précédent de ce robot conversationnel qui a relancé le débat sur les risques de l’AI en force ces dernières années. Force est de constater cependant que les algorithmes font partie de notre quotidien depuis longtemps.

IA forte et IA faible

On distingue l'IA faible et l'IA forte. L'IA faible est le type d'intelligence artificielle auquel nous sommes habitués dans la vie quotidienne. La mission de l'IA faible est de se concentrer sur un exemple d'application concret. Elle reste à un niveau d'intelligence très superficiel. Par exemple, une IA faible peut être entraînée à prédire la météo. D'autres exemples d'IA faible sont les systèmes d'assistance comme Siri ou Alexa. Le programme de correction orthographique de Microsoft Word ou les systèmes de navigation font également partie de cette catégorie. Il ne s'agit pas d'imiter l'intelligence humaine, mais de rendre notre quotidien plus efficace.

L’IA forte aspire à simuler l'intelligence humaine dans toute sa complexité. Elle serait donc dotée de la capacité de comprendre, d'apprendre de manière autonome, de raisonner, et même de faire preuve de conscience et donc d’intentionnalité. L’idée d’une telle machine – qui n’existe pas à ce jour – est l’objet d’autant d'enthousiasme que d'inquiétudes.

L’IA forte ne doit pas être confondue avec l’Intelligence Artificielle Générale (IAG,) concept plus récent, invoqué notamment par Sam Altman, le fondateur d’OpenAI. Tandis que l'IA forte se concentre sur la capacité d'une machine à égaler l'intelligence humaine sous tous ses aspects, l'IAG décrit une étape où l'intelligence artificielle peut apprendre, comprendre et agir de manière autonome à travers une gamme variée de tâches et d'environnements, similaire à l'intelligence humaine.

Sources: AIHubYou, Wix, Leexi, Wild Code School