Alors qu’Aristote désignait le cœur comme siège des sensations, le cerveau n’étant composé que de terre et d’eau, il fallut attendre le Moyen-âge pour que la compréhension et la représentation de l’intelligence soit associée à la tête. Avicenne (980-1037), Albert le Grand (1200-1280 env.), Gregor Reisch (1467-1525 env.) furent les premiers à représenter des fonctions cérébrales définies par une topographie de la boîte crânienne et fondées sur la possible existence de ventricules accueillant notre entendement et nos émotions. Avec la Renaissance, l’anatomie dévoile la complexité de l’objet cerveau, les premières planches de Léonard de Vinci, suivies tout au long du 16e siècle par les gravures des ouvrages de Johannes Dryander et d’Andreas Vesalius. La leçon d’anatomie du docteur Joan Deyman (1656) de Rembrandt accentue l’idée d’une séparation du corps et de l’esprit telle qu’affirmée par René Descartes. L’analyse anatomique offre progressivement une compréhension morphologique du cerveau. Raymond Vieussens, Jacques-Fabien Gautier d’Agoty et Felix Vicq d’Azyr projettent de construire une cartographie des facultés, qui s’affirma avec la pseudo-science qu’était la phrénologie.
La première mise en évidence grâce au microscope d’un réseau nerveux (Pierre Gratiolet), mène à la découverte des neurones (Johann Purkinje, Otto Deiters). Enfin, l’affirmation du cerveau comme système dynamique (Camillo Colgi, Santiago Ramón y Cajal) conduit à l’invention de nouvelles représentations du cerveau, comme la radiographie, les encéphalogrammes, ou la résonance magnétique, révélant la puissance de neurotransmission du monde cérébral.
Section 2 - L’intelligence des jeux
L’idée qu’un automate puisse se confronter à l’intelligence humaine a émergé historiquement au travers de jeux comme le Tic-Tac-Toe (Morpion), le jeu de dames, ou les échecs. Au-delà des faux automates comme ceux du Baron von Kempelen (Le Turc mécanique, 1769) ou de Charles Hopper (Ajeeb, 1865), Charles Babbage, le concepteur de la machine analytique préfigurant l’ordinateur, développe une première recherche sur les arbres de décisions à partir du Tic-Tac-Toe. Si Leonardo Torres crée le premier automate fonctionnel (El Ajedrecita, 1910), c’est la conception du théorème du minimax par John von Neumann, un algorithme optimisant l’arborescence des décisions permettant aux ordinateurs d’évaluer la pertinence de chaque coup, qui ouvre la voie aux modèles d’apprentissage. Alan Turing, Konrad Zuse, Claude Shannon... Les pionniers du domaine computationnel ont développé des programmes informatiques de jeux, échecs ou dames, afin d’optimiser la logique des arbres de décisions comme la recherche arborescente Monte Carlo.
L’accroissement de la puissance des ordinateurs qui favorisa le développement de l’intelligence artificielle par Allen Newell et Herbert Simon puis par des chercheurs comme Donald Michie et John McCarthy, ont stimulé la confrontation entre l’homme et la machine, jusqu’à la création du programme Deep Blue et la victoire de la machine sur le joueur d’échecs Garry Kasparov en 1997. À la suite de cet événement, le programme AlphaGo Zero de la société Google DeepMind bat le champion Lee Sedol en 2016, la même société développant une intelligence artificielle similaire pour le jeu de stratégie en temps réel StarCraft.
Section 3 - Cyberzoo
Si les premiers robots interagissant avec leur environnement apparaissent au début du 20e siècle (Electric Dog, 1919, Philidog, 1928), ce sont bien les pionniers de l’informatique, mathématiciens et théoriciens des systèmes l’information et de la communication qui vont développer les premières machines interactives leur donnant le plus souvent la forme d’un animal. Norbert Wiener, qui publie La cybernétique. Information et régulation de l’animal et de la machine (1948), crée la Palomilla (1949) en lui donnant l’image d’une mite. Il introduit la notion de feedback, qui sera développée par W. Ross Ashby, auteur de Design for a Brain (1952) et concepteur de l’Homeostat (1948-1949), une machine qui réagit aux perturbations de son environnement. Le neurophysiologique Wiliam Grey Walter, qui a conçu les premiers robots dotés d’un système à deux neurones dotés d’une capacité d’apprentissage, leur donne la forme des tortues automates.
Ainsi, les pionniers de la cybernétique multiplient les recherches sur l’intelligence artificielle créant un cyberzoo, des machines prenant la forme d’animaux variés, renards, ou coccinelles ou tortues, jusqu’à les comparer à des animaux réels. Frank Rosenblatt crée dans cette optique le Perceptron (1957), un algorithme d’apprentissage qu’il confronte à l’intelligence des souris. Évitant l’image galvaudée des robots anthropomorphes, ce « cyberzoo » préfigure les modèles de l’intelligence artificielle et anticipe les applications neuronales actuelles, des systèmes connectés à la voiture autonome.
Section 4 - Consciences augmentées
Sous l’impulsion de Warren McCulloch les Conférences Macy (1942-1953) rassemblèrent des spécialistes de toutes disciplines, des mathématiciens, logiciens, ingénieurs mais aussi des psychologues, des anthropologues, et furent à l’origine du mouvement cybernétique inspiré des sciences cognitives et des sciences de l’information. Ces multiples rencontres stimulèrent de nombreuses recherches sur la compréhension de la possible simulation de l’intelligence humaine. L’armée américaine développa de nombreux programmes sur l’extension des capacités de l’esprit, sur les psychotropes, le contrôle des individus (Mind Control) et les possibles d’une intelligence artificielle. L’idée d’une extension de la conscience (Extended Mind) est indissociable des recherches sur l’intelligence computationnelle. L’écrivain William Burroughs et Brion Gysin, inventeur de la Dream Machine (1960), manifestèrent leur intérêt pour les stupéfiants mais aussi pour la cybernétique.
Alors que la CIA initiait des recherches sur le LSD, une drogue qui s’affirmait comme un vecteur du mouvement psychédélique (Richard Aldcroft), l’ouvrage manifeste de la contre-culture aux fondements d’une utopie digitale, le Whole Earth Catalog (1968) édité par Stewart Brand. Nombre de créateurs développent des objets technologiques comme les casques de Walter Pichler, d’Haus-Rucker-Co, Coop Himmelb(l)au, Stelarc ou Ugo la Pietra aussi bien que des environnements immersifs comme ceux du collectif USCO (Compagny of Us), de l’architecte et designer Ken Isaacs ou de l’artiste Aldo Tambellini.
Section 5 - Arbres et réseaux
La classification des connaissances est héritée d’une première totalisation du savoir héritée du philosophe grec Aristote (5eme siècle av. J.C), puis d’une seconde par Porphyre (3e siècle) qui définissait le diagramme d’une « échelle de l’être ». Sous l’impulsion du philosophe et logicien Raymond Lulle, elle prend ensuite en 1295 la forme d’un arbre, l’Arbor scientae, largement diffusé tout au long du 15e et 16e siècle. L’arbre s’impose alors comme le modèle d’une organisation du savoir, une structure logique qui deviendra un modèle de représentation dans de multiples publications, dont celles de Gregor Reisch (1515) et d’Athanasius Kircher (1669). Les arbres de classifications formalisent ainsi le savoir de toutes les disciplines scientifiques, de l’Encyclopédie de Diderot & d’Alembert (1752) jusqu’aux vastes classifications des espèces de Jean Baptiste de Lamarck (1815), en passant par les théories de Charles Darwin (1859).
Si l’arbre reste tout au long du 20e siècle un schéma opératif, de nouvelles lois logiques imposent le modèle du réseau, un système topologique sans hiérarchie au travers des premiers graphes de Gottlob Frege ou Rudolf Carnap. Réseaux linéaires, réseaux en grille, les arbres de décision développés dans les systèmes statistiques prennent alors la forme de « réseaux bayesiens » [structurés selon le théorème de probabilité de Thomas Bayes (1701-1761)] qui définissent la formalisation logique des premiers réseaux neuronaux artificiels (McCulloch et Pitts, 1943 – Frank Rosenblatt, 1960). Les premiers réseaux de neurones convolutifs de Kunihiko Fukushima (1975) ou de John Hopfield (1982), les cartes auto-adaptatives de Teuvo Kohonen (1984), ouvrent la voie à des formes d’organisation, non plus du savoir, mais d’un traitement massif des données (Big Data).