Faire part de naissance de l'intelligence artificielle
Fini la science-fiction ! Non, Terminator n’est pas une super-intelligence issue de la singularité technologique et fabriquée en série par Skynet. Mais juste un énième mythe. Voici, plutôt le récit « authentique » de la naissance de celle que l’on appelle l’intelligence artificielle (à tort « maybe », le débat est toujours d’actualité mais ce n’est pas le plus important).
Ses pères fondateurs sont au nombre de 4. De plus elle dispose d’un acte de naissance original et dûment signé de John McCarthy à Dartmouth. Alors, la saga des pionniers de l’IA continue avec les pères fondateurs de l’intelligence artificielle. En voici ma « copie intégrale d’acte de naissance ».
New Hampshire, USA
« Spécimen » Acte de naissance
Numéro d’enregistrement : 1956-07-01-08-31-D-NH-USA
PRENOM : Intelligence
NOM : Artificielle
Année de naissance : 1956
Lieu de naissance : Dartmouth College à Hanovre, New Hampshire, USA
Paternité : John McCarthy, Marvin Minsky, Claude Shannon et Nathaniel Rochester
Once Upon a Time… in Dartmouth
Il était une fois, une équipe de « 4 mousquetaires » scientifiques, mathématiciens et informaticiens. Tous bien décidés à en découdre avec un sacré projet de recherche… celui de l’intelligence artificielle.
Pour y parvenir, ils vont organiser un colloque à Dartmouth College (Hanovre dans le New Hampshire aux États-Unis) en 1956. Celui-ci s’est tenu pendant huit semaines. Et a réuni 20 des plus brillants esprits en informatique et sciences cognitives. L’objectif étant de doter les machines de la capacité de résoudre des problèmes habituellement réservés aux humains. Mais aussi qu’elles puissent également s’améliorer d’elle-même par la même occasion.
“ tout aspect de l’apprentissage et de n’importe quelle caractéristique de l’intelligence peut être si précisément décrit qu’en principe, une machine devrait pouvoir être fabriquée pour simuler l’intelligence. Des tentatives seront menées pour trouver comment fabriquer des machines étant capables d’utiliser le langage naturel. Mais aussi de formuler des abstractions et des concepts. Et enfin de résoudre des sortes de problèmes habituellement réservés aux humains, et de s’améliorer elles-mêmes. ”.
John McCarthy, professeur adjoint de mathématiques à Dartmouth College
L'étude des automates
Alors, en amont de ce colloque, John McCarthy, professeur adjoint de mathématiques à Dartmouth, et Claude Shannon, du MIT, ont coédité le volume 34 de la revue « Annals of Mathematics Studies journal ». Il s’agit de l’étude des automates. Ce sont des machines auto-opérantes conçues pour suivre automatiquement des séquences d’opérations prédéterminées ou répondre à des instructions prédéterminées. En tant que mécanismes d’ingénierie, ils apparaissent déjà dans une grande variété d’applications quotidiennes. Alors imaginez ci celles-ci devenaient auto-apprenantes…
"À l'époque, je pensais que si nous pouvions réunir toutes les personnes intéressées par le sujet, leur consacrer du temps et éviter les distractions, nous pourrions faire de réels progrès "
John McCarthy - 1955 Tweet
La proposition de projet de recherche sur l'intelligence artificielle (31 août 1955 - Dartmouth)
Alors, dans le cadre de ce colloque, voici quelques aspects de la vision développée de l’intelligence artificielle :
Machines automatiques
D’une part, si une machine peut effectuer un travail, alors un calculateur automatique peut être programmé pour simuler cette machine. Les vitesses et les capacités de mémoire des ordinateurs actuels sont peut-être insuffisantes pour simuler un grand nombre des fonctions supérieures du cerveau humain. Cependant, l’obstacle majeur n’est pas le manque de capacité des machines, mais notre incapacité à écrire des programmes tirant pleinement parti de ce que nous avons.
Comment programmer un ordinateur pour qu’il utilise un langage ?
D’autre part, on peut supposer qu’une grande partie de la pensée humaine consiste à manipuler des mots selon des règles de raisonnement et des règles de conjecture. Alors, de ce point de vue, la formation d’une généralisation consiste à admettre un nouveau mot et certaines règles selon lesquelles les phrases qui le contiennent impliquent et sont impliquées par d’autres. Cette idée n’a jamais été formulée de manière très précise et aucun exemple n’a été élaboré.
Les réseaux de neurones
Ensuite, comment un ensemble de neurones (hypothétiques) peut-il être agencé de manière à former des concepts. Un travail théorique et expérimental considérable a été effectué sur ce problème. Et des résultats partiels ont été obtenus mais le problème nécessite davantage de travail théorique.
Théorie de la taille d’un calcul
Par ailleurs, si on nous donne un problème bien défini. Un problème pour lequel il est possible de tester mécaniquement si une réponse proposée est une réponse valide ou non. Alors, une façon de le résoudre est d’essayer toutes les réponses possibles dans l’ordre. Mais cette méthode est inefficace. Et pour l’exclure, il faut disposer d’un critère d’efficacité de calcul. Une certaine considération montrera que pour obtenir une mesure de l’efficacité d’un calcul, il est nécessaire d’avoir sous la main une méthode de mesure de la complexité des dispositifs de calcul. Ce qui peut être fait si l’on dispose d’une théorie de la complexité des fonctions. Quelques résultats partiels sur ce problème ont été obtenus par Shannon et McCarthy.
L’auto-amélioration
En outre, il est probable qu’une machine réellement intelligente mènera des activités qui peuvent être décrites comme de l’auto-amélioration. Dès lors, certains schémas ont été proposés et méritent d’être étudiés plus profondément. Et il semble probable que cette question puisse également être étudiée de manière abstraite.
Abstractions
De plus, un certain nombre de types d' »abstraction » peuvent être définis de manière distincte et plusieurs autres de manière moins distincte. Ainsi, une tentative directe de classification de ces types d’abstraction et de description des méthodes de formation d’abstractions à partir de données sensorielles et autres semble utile.
Hasard et créativité
Enfin, la différence entre la pensée créative et la pensée compétente non imaginative réside dans l’injection d’un certain caractère aléatoire. Alors, pour être efficace, ce caractère aléatoire doit être guidé par l’intuition. En d’autres termes, la supposition éclairée ou l’intuition incluent un caractère aléatoire contrôlé dans une pensée autrement ordonnée.
“..une conception imaginative pour qu’un ordinateur puisse jouer aux échecs tel un humanoïde. En y incorporant la notion de buts, des niveaux de jeux différents avec des mouvements “suffisamment bons”. Le tout devait être exprimée symboliquement dans un langage qui ressemblait au calcul des prédicats.”
- Extrait, "Allen Newell" dans Biographical Memoirs (1997) par Herbert A Simon.
Les résultats du colloque de Dartmouth
Que retient-on des résultats du colloque de Dartmouth ?
- Tout d’abord, le terme d’intelligence artificielle (IA) a été inventé par McCarthy au cours de la conférence.
- McCarthy a par la suite mis l’accent sur les travaux de Newell, Shaw et Simon sur le langage de traitement de l’information (IPL) et leur machine à théorie logique (Moor, 2006).
Ce colloque va en outre marquer l’âge d’or dans le domaine scientifique de l’intelligence artificielle. Pendant plus de deux décennies (1953-1973), l’optimisme était de mise et les nombreux financements ont permis des découvertes majeures.
Quel est le chemin parcouru à la suite de cette conférence ?
- L’un des participants à la conférence, Arthur Samuel, créera le programme de jeu de dames Samuel, l’un des premiers programmes d’auto-apprentissage au monde (1956) et inventera le terme « apprentissage automatique » en 1959.
- Oliver Selfridge est souvent appelé le « père de la perception automatique » pour ses recherches sur la reconnaissance des formes.
- Minsky a reçu le prix Turing en 1969 pour son « rôle central dans la création, la mise en forme, la promotion et l’avancement du domaine de l’intelligence artificielle ».
- Newell et Simon ont reçu le même prix en 1975 pour leurs contributions à « l’intelligence artificielle et à la psychologie de la cognition humaine ».
Il faudra attendre encore quelques années avant de
Réaliser de réelles prouesses spectaculaires
Constater que le vrai défi est ailleurs
Augmenter l'humain plutôt que le mettre en compétition avec les machines...
Une conférence commémorant le 50e anniversaire de la première rencontre de 1956 a eu lieu du 13 au 15 juillet 2006. Celle-ci avait trois objectifs :
- Célébrer le rassemblement de 1956 ;
- Evaluer les progrès de l’IA et
- Projeter l’avenir de l’IA ;
Découvrez le résumé de cette conférence anniversaire à travers l’article rédigé par James Moor dans AI Magazine Vol. 27 Number 4 (2006).
Biographies des pères de l’intelligence artificielle
John McCarthy
Professeur adjoint de mathématiques, Dartmouth College, John McCarthy a travaillé sur un certain nombre de questions liées à la nature mathématique du processus de pensée, notamment la théorie des machines de Turing, la vitesse des ordinateurs, la relation entre un modèle de cerveau et son environnement, et l’utilisation des langues par les machines. Certains résultats de ces travaux sont inclus dans le prochain ouvrage « Annals Study » édité par Shannon et McCarthy. Les autres travaux de McCarthy ont été réalisés dans le domaine des équations différentielles.
Marvin L. Minsky
Harvard Junior Fellow en mathématiques et en neurologie, Minsky a construit une machine permettant de simuler l’apprentissage par des réseaux nerveux et a rédigé une thèse de doctorat en mathématiques à Princeton intitulée « Neural Nets and the Brain Model Problem » qui comprend des résultats en théorie de l’apprentissage et en théorie des réseaux neuronaux aléatoires.
Claude E. Shannon
Mathématicien, Bell Telephone Laboratories, Shannon a développé la théorie statistique de l’information, l’application du calcul propositionnel aux circuits de commutation. Et il a obtenu des résultats sur la synthèse efficace des circuits de commutation, la conception de machines qui apprennent, la cryptographie, et la théorie des machines tournantes. Avec J. McCarthy, il coédite une étude des Annales de mathématiques sur la « Théorie des automates ».
Nathaniel Rochester
Directeur de la recherche sur l’information, IBM Corporation, Poughkeepsie, New York. Rochester s’est occupé du développement du radar pendant sept ans. Et des machines informatiques pendant sept ans. Avec un autre ingénieur, il a été conjointement responsable de la conception de l’IBM Type 701, un ordinateur automatique à grande échelle largement utilisé aujourd’hui. Il a mis au point certaines des techniques de programmation automatique qui sont largement utilisées aujourd’hui et s’est intéressé aux problèmes liés à l’exécution par des machines de tâches qui, auparavant, ne pouvaient être effectuées que par des personnes. Il a également travaillé sur la simulation des réseaux nerveux en mettant l’accent sur l’utilisation des ordinateurs pour tester les théories en neurophysiologie.
Expert du Digital avec plus de 20 ans d’expérience au service du B2B et du B2C, dans toutes les tailles d’entreprise et à l’échelle internationale. Mes plus récents développements ont été orientées vers des solutions e-commerce et Omnicanales. Passionné, je suis auteur, formateur et en veille permanente.
Contrôler et améliorer l’expérience client grâce à l’intelligence artificielle
Découvrez mon « Capstone Project » issu de ma formation pour cadre de l’Université Berkeley ExecEd de Californie :
« Artificial Intelligence: Business Strategies and Applications »
Un commentaire