Return to site

Intelligence artificielle - II

Retour à Dartmouth, New Hampshire, USA

Nous sommes encore à la préhistoire de l’intelligence artificielle aujourd’hui. - Luc Julia, VP Innovation, Samsung

Provocation, forcément. Qui a le bon goût de rappeler tout de même une réalité : sans remonter au XIXème de Charles Babbage [WP], l'IA a une histoire et des moments de cristallisation. L'été 1956 en fait partie, avec la tenue du Dartmouth SummerResearch Project on Artificial Intelligence, aux USA [WP].

Ne partez pas tout de suite ! Je ne vais pas vous fatiguer avec un obscur truc de plus de 60 ans. Je vais simplement mettre en avant certains éléments de cette conférence, généralement reconnue comme le lancement de l'activité de recherche sur l'IA - dont la résurgence actuelle n'est qu'une conséquence.


Le but affiché était le suivant:

The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves.

Les participants, futurs experts du domaine, étaient plutôt optimistes, puisqu'ils imaginaient que des avancées significatives seraient possibles lors de la durée de la conférence, soit 6 à 8 semaines.

Les problématiques à traiter étaient nombreuses, et ont un certain écho avec ce qu'on entend de nos jours. Je reprends les catégories du papier initial [www].

Automatic Computers

The speeds and memory capacities of present computers may be insufficient to simulate many of the higher functions of the human brain, but the major obstacle is not lack of machine capacity, but our inability to write programs taking full advantage of what we have.

Nous n'avons presque plus de limitations sur la puissance de calcul ni sur la capacité de stockage, nous avons des langages de programmation performants, et pourtant, j'ai comme l'impression que nous bloquons toujours sur l'exploitation optimale de ces capacités.

How Can a Computer be Programmed to Use a Language

It may be speculated that a large part of human thought consists of manipulating words according to rules of reasoning and rules of conjecture.

Il y avait à l'époque une grosse activité sur le traitement automatique du langage (NLP), la sémantique et les problématiques de langage informatique. Ces points ont été traités, mais le langage de programmation, vu comme langage commun entre l'homme et la machine, est toujours au cœur de l'IA. On l'oublie un peu, en se focalisant sur le deep-learning et les outils statistiques spécialisés.

Neuron Nets

Ou réseaux de neurones, base fondamentale des algorithmes de ce qu'on appelle aujourd'hui les réseaux de neurones.

How can a set of (hypothetical) neurons be arranged so as to form concepts. Considerable theoretical and experimental work has been done on this problem by [...]. Partial results have been obtained but the problem needs more theoretical work.

Quand on vous dit ces algorithmes sont anciens ... ! Évidemment, les choses ont évolués, puisqu'à l'époque, il n'y avait pas encore de langage de programmation proprement dit ; les idées étaient cependant dans l'air.

Theory of the Size of a Calculation

If we are given a well-defined problem [...] one way of solving it is to try all possible answers in order. This method is inefficient [...]. [It] is necessary to have on hand a method of measuring the complexity of calculating devices [...].

On parle aujourd'hui, pour ceux qui sont un peu au courant de ces considérations techniques, de complexité algorithmique. Les investisseurs, business angels ou start-upers parlent, eux, de scaling, sans vraiment savoir ce qui se cache derrière ce terme. C'est évidemment le problème actuel de limitations de performances, la limite dure à dépasser. Dit autrement, c'est ce qui peut empecher tout prototype ou un proof-of-concept de passer en production.

Self-improvement

Probably a truly intelligent machine will carry out activities which may best be described as self-improvement.

Auto-apprentissage, auto-amélioration ... on dépasse de loin l'auto-apprentissage proclamé des réseaux de neurones. Les conférenciers de l'époque étaient encore sur de l'IA dure, type HAL-9000 ou cerveau positronique d'Asimov. De l'IA symbolique, complètement oubliée aujourd'hui. Autre point généralement négligé actuellement, en ces temps de focalisation sur la vérité des data, est la créativité et l'irruption de l'aléatoire.

A fairly attractive and yet clearly incomplete conjecture is that the difference between creative thinking and unimaginative competent thinking lies in the injection of a some randomness. The randomness must be guided by intuition to be efficient.

Qu'en dire ?

Qu'en 1956, ces jeunes scientifiques étaient ambitieux. Ils ont fondé une science et posé les bases de l'informatique décisionnelle actuelle. Le bruit actuel autour du deep-learning et des algorithmes de reconnaissance de chats sur le net n'est que l'écume du domaine de l'intelligence artificielle : certes attrayant si la lumière est propice, mais par temps de grand vent, on s'en prend plein la tronche. Et le vent souffle, aujourd'hui. Sans parler à leur place, je gage qu'ils auraient pouffé en voyant ce qui se dit aujourd'hui.

Il est important de laisser passer le buzz et de ne pas sombrer dans d'obscures profondeurs littéraires: il y a tant à faire !

Allez plus loin ? Les notes de Solomoff sur la conférence sont ici, avec des photos et d'autres documents.

All Posts
×

Almost done…

We just sent you an email. Please click the link in the email to confirm your subscription!

OKSubscriptions powered by Strikingly