Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
« Métaphore de l’ordinateur et linguistique cognitive » Thèse de doctorat sous la Direction de M. Jean PAMIÈS Université de Toulouse II Par Christiane NOTARI RÉSUMÉ
La métaphore de l'ordinateur règne au cœur des sciences cognitives. Elle prend sa source dans la théorie mathématique de la calculabilité [thèses dites de Church et de Turing (1936), et démonstration de Turing (1937)], et assimile depuis l’avènement de l’ordinateur matériel, conçu par John von Neumann en 1945, l'esprit au logiciel, et le cerveau au matériel d'un ordinateur. L’avènement de l’ordinateur confirme tout un aréopage d’éminents chercheurs dans l’idée que pensée et calcul sont équivalents. Dans ce contexte, il est fait abstraction de la conscience, du libre arbitre, de l'intelligence, de l'imagination, de la créativité, des émotions, des sentiments, au profit de règles formelles manipulant des symboles vides de son et de sens.
La théorie de la calculabilité est donc la source originale des sciences cognitives. L’ordinateur, concrétisation matérielle de cette théorie (machine abstraite de Turing), voit le jour quelques années plus tard, et va permettre de corroborer et renforcer rétroactivement et durablement cette analogie entre pensée et calcul. Il est en effet la preuve tangible qu’un calcul peut être mis en oeuvre par une machine, et apparaît alors comme la solution au vieux problème philosophique des rapports entre le corps et l’esprit. Les sciences cognitives étant matérialistes, le cerveau va se trouver assimilé au matériel de l’ordinateur, le lien étant ainsi établi entre l’esprit calculateur (esprit-logiciel) et la matière qui le sous-tend (cerveau-matériel). L’ordinateur devient l’emblème de tous les tenants du paradigme computationnel. Dans ce contexte matérialiste, le cerveau est assimilé à un ordinateur numérique.
Alan Turing, concepteur de la machine abstraite de Turing a largement contribué à promouvoir cette idée avec le fameux test de Turing1, où un observateur extérieur est mis au défi de différencier cerveau et ordinateur, c’est-à-dire les réponses faites par un être humain de celles faites par la machine.
1. Cf. Alan Turing (1950). Computing machinery and intelligence. Mind vol. LIX, N° 236, 433-460. http://www.abelard.org/turpap/turpap/htm.
1
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008 Le mot « métaphore » a une acception spécifique au sein de la linguistique cognitive. George Lakoff et Mark Johnson1 (1980) ont émis l’hypothèse que la métaphore n'est pas un simple fait de langage, une simple figure de style, mais un processus mental continuel, habituel et régulier, qui permet de raisonner et de comprendre. La métaphore opère au niveau conceptuel, par projection automatique et inconsciente d'un domaine source concret vers un domaine cible abstrait, et projette sur ce dernier tout ou partie de la logique du domaine source, c'est-à-dire tout ou partie des inférences, des déductions, des conclusions, qu'il implique. Le cerveau darwinien est donc imaginatif par essence, et pour atteindre l’objectivité qui sied à tout travail scientifique, le chercheur doit lutter en permanence contre cette tendance naturelle et inconsciente du cerveau à bâtir des métaphores. La théorie de la métaphore conceptuelle conduit à remettre en cause le modèle chomskyen.
En effet, la linguistique cognitive chomskyenne se situe clairement dans la mouvance du paradigme computationnel des sciences cognitives, et a pour clé de voûte l’affirmation que la syntaxe est équivalente à un calcul, impliquant que le cerveau darwinien est formel par essence. Cette position est la conséquence des métaphores utilisées par Chomsky pour construire sa théorie du langage : d’abord la métaphore de l’automate, puis la métaphore de l’ordinateur. Je m’efforce de montrer dans cette thèse comment elles influencent toutes les deux sa théorie. Par souci de clarté et pour synthétiser plus de cinquante ans de travaux, j’ai regroupé les différents états de la linguistique chomskyenne en trois phases essentielles : •
Première phase (1957-1981) : la grammaire générative et transformationnelle (Generative and Transformational Grammar) ;
•
Deuxième phase (1981-1995) : la théorie des principes et des paramètres (Principles-andParameters Theory) ;
•
Troisième phase (1995 à ce jour) : le Programme Minimaliste (The Minimalist Program).
Chaque phase est influencée par une métaphore : •
La métaphore de l’automate, utilisée de manière explicite, durant la première phase ;
•
La métaphore de l’ordinateur, utilisée de manière implicite, durant les deux dernières phases.
1. Cf. George Lakoff et Mark Johnson. Les métaphores de la vie quotidienne. Traduction française de Michel Defornel avec la collaboration de Jean-Jacques Lecercle. Paris : Les Editions de Minuit. 1985. Metaphors We Live By. Chicago: University of Chicago Press. 1980.
2
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
La transition entre les deux métaphores ne coïncide pas exactement avec la fin de la première phase et le début de la deuxième phase, telles qu’elles sont délimitées ci-dessus. On peut estimer l’entrée en vigueur de la métaphore de l’ordinateur à partir de 1975 dans Reflections on Language, où Noam Chomsky renforce l’hypothèse innéiste initiale, en affirmant désormais que le langage est un organe génétiquement déterminé, utilisant ainsi la métaphore du « programme » génétique, inspirée par l’ordinateur. Noam Chomsky propose donc une théorie innéiste du langage et utilise, dans ses premiers travaux, la théorie des automates, issue de la théorie de la calculabilité, comme instrument de formalisation des langues naturelles. Le langage est mécanisé, traité comme les langages formels des logiciens et des informaticiens.
Syntactic Structures (1957) avait pour but le développement d’une grammaire formelle, c’est-à-dire de proposer une description précise des règles pouvant générer toutes et rien que les phrases bien formées d’une langue.
Dès 1965, Noam Chomsky entame le tournant cognitif (cognitive turn) avec Aspects of the Theory of Syntax. Il donne une dimension psychologique et biologique à sa démarche. L’hypothèse innéiste transforme sa théorie formelle initiale en une théorie cognitive de l’esprit. C’est de cette manière qu’il ouvre la voie à la linguistique dite cognitive. Le mécanisme formel est « greffé » dans le cerveau biologique.
Aspects of the Theory of Syntax introduit une deuxième métaphore, la métaphore de l’ordinateur. La proposition « le langage est inné », implique la notion de « programme » génétique, s’inspirant directement de la notion de programme informatique. Cette deuxième métaphore va rester latente jusqu’en 1975 (Reflections on Language) où le langage est assimilé à un organe génétiquement déterminé : la Grammaire Universelle (Universal Grammar) qui donne une explication de l’acquisition de la compétence linguistique. Sans ce « logiciel » héréditaire, les êtres humains ne pourraient pas parler et apprendre à parler. Cet organe mental est censé se développer comme un organe physique. Noam Chomsky parle de « maturation » de l’organe linguistique. L’enfant n’apprend donc pas sa langue maternelle. La compétence (competence) est le fruit de la Grammaire Universelle innée, et grâce à elle, l’enfant acquiert sans effort sa langue maternelle. La syntaxe est définie comme le domaine d’investigation central de la faculté de langage. La théorie délimite d’emblée un périmètre de recherche jugé adéquat. La sémantique, la phonologie, la pragmatique, sont reléguées dans des composants, modules ou interfaces interprétatifs.
3
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
Le plan de cette thèse est le suivant : Dans la première partie, je décris la genèse de la métaphore de l’ordinateur, en présentant : •
En introduction générale, les principaux concepts permettant de clarifier le titre de cette thèse (entre autres, les paradigmes computationnel et connexioniste des sciences cognitives, illustrés respectivement par la métaphore de l’ordinateur et celle du cerveau, puis une esquisse de ce qu’est la linguistique cognitive en général, et la linguistique cognitive chomskyenne en particulier) ;
•
Le cadre historique et les principaux paradigmes des sciences cognitives ;
•
La théorie de la calculabilité (résultats de Kurt Gödel, Alonzo Church et Alan Turing) qui est la source mathématique de la métaphore de l’automate et la métaphore de l’ordinateur ;
•
Les liens que cette théorie implique entre logique et machine, et entre esprit et machine ;
•
La théorie de la métaphore conceptuelle (conceptual metaphor) de George Lakoff et Mark Johnson (1980, 1999) et de Mark Johnson (1987) ;
•
La théorie de la fusion conceptuelle (conceptual blending) de Mark Turner (1996) et de Gilles Fauconnier et Mark Turner (2002).
Dans la deuxième partie, je commence par un exposé critique des principales hypothèses de Noam Chomsky, en présentant les arguments majeurs qu’il avance contre le béhaviorisme, le structuralisme et l’empirisme. J’oppose notamment à la notion d'innéité celle d’épigenèse, et remets en cause une des prémisses fondamentale de l’hypothèse innéiste, à savoir l'argument de la pauvreté du stimulus (argument from the poverty of the stimulus), d'où découle l'idée que la syntaxe ne pourrait pas être apprise par l'expérience. Je suggère qu'il est inutile de recourir au génome, si l'on veut bien envisager celle-ci non pas comme un ensemble de règles formelles, mais, à la manière de Ronald Langacker, comme un ensemble possédant schématiquement un contenu phonologique et sémantique. Dans ce contexte, la grammaire noyau (core grammar) se met en place de manière épigénétique, avec des contraintes biologiques et environnementales, comme les autres éléments linguistiques [lexique, idiomes et grammaire périphérique (periphery grammar)]. Lorsque l’on supprime le cadre modulaire et mécaniste dans lequel elle est enserrée, à cause de la métaphore de l’automate, puis de la métaphore de l’ordinateur, cette partie de la grammaire (core grammar) est plus facile à apprendre que la grammaire périphérique (periphery grammar), puisqu'elle est plus régulière. Si l'enfant n'a pas besoin de module spécial pour acquérir les éléments complexes de sa langue maternelle, il peut s'en passer pour les éléments plus simples.
Je mets ensuite en évidence la manière dont la linguistique chomskyenne est tout au long de son histoire influencée, d’abord par la métaphore de l’automate, puis par la métaphore de l’ordinateur, en
4
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008 assimilant de manière constante la syntaxe à un calcul, à un mécanisme qui manipule des symboles abstraits sans fondement perceptif ou conceptuel. Puisque Noam Chomsky est matérialiste, l’automate mathématique, et plus tard le « logiciel » syntaxique (Grammaire Universelle), sont tous deux forcément mis en œuvre par le cerveau, la métaphore de l’ordinateur s’imposant d’elle-même.
Dans la troisième partie, je développe une série d’arguments, mathématiques, linguistiques, psychologiques, biologiques, évolutionnistes, contre le paradigme computationnel du langage et de l’esprit.
En premier lieu, je présente les résultats mathématiques de Terence Langendoen et Paul Postal (1984) qui montrent que les langues naturelles ne sont pas des ensembles récursivement énumérables, et ceux de Paul Postal (2004) qui montrent que les lexiques des langues naturelles ne sont pas des ensembles finis d’éléments.
Ensuite je remets en cause la notion de syntaxe autonome, en opposant à la grammaire générative, les grammaires de constructions [Charles Fillmore, Paul Kay et Mary Kay O’Connor (1988), Paul Kay et Charles Fillmore (1999), Adele Goldberg (1995, 2003), Ronald Langacker (1987, 1991), William Croft (2001), William Croft et Alan Cruse (2004)]. En effet, à partir de 1981, Noam Chomsky considère a contrario les constructions grammaticales comme des épiphénomènes, générés par un petit nombre de principes généraux et de paramètres spécifiques aux langues particulières.
J'apporte des arguments pour mettre en évidence l'interdépendance des différents niveaux : phonologiques, sémantiques et syntaxiques. Une stricte dichotomie entre le lexique et la syntaxe n’est pas étayée par l’analyse du langage. L'idée que la syntaxe est équivalente à un calcul devrait produire des formes syntaxiques d’une régularité sans faille. Or les exceptions existent partout, même pour les règles les plus générales. Toutes les langues présentent des particularités liées notamment au lexique, et donc la syntaxe est sujette à des influences sémantiques, phonologiques et aussi pragmatiques. Si l’analyse de la langue montre que la syntaxe peut subir des influences, on se demande comment cela peut se produire dans le cadre théorique chomskyen, où cette dernière est totalement isolée et ne combine que des formes symboliques sans contenu phonologique ou sémantique.
Je suggère que l’hypothèse des « constructions » comme représentations cognitives adéquates pour rendre compte de l’ensemble des faits de langage semble plus complète et plus compatible avec l’analyse du langage, la manière dont un enfant apprend sa langue maternelle [Michael
5
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008 Tomasello (1992, 2003), Michael Tomasello et al. (1997), E. Lieven, J. Pine et G. Baldwin (1997), E. Lieven, J. Pine et C. Rowland (1998)], et avec la biologie de l’évolution, [Philip Lieberman (2004)].
Je remets en cause la notion d’esprit désincarné, en proposant une cognition incarnée, où l’esprit humain est décrit comme fondamentalement « littéraire » [Mark Turner (1996)], cette propriété découlant directement de la nature elle-même « littéraire » de la conscience humaine [Antonio Damasio (1999)].
Puis j’examine les implications de la métaphore de l'ordinateur par rapport au fonctionnement du cerveau réel, notamment l'hypothèse de la modularité l'assimilant à un ensemble de systèmes spécialisés, dont chaque module est « programmé » génétiquement pour assurer une tâche cognitive précise.
Je défends l'idée d'un esprit incarné dans son environnement physique et social [Merlin Donald (1993, 2002), Humberto Maturana et Francisco Varela (1998), Antonio Damasio (1994, 1999, 2003), Gerald Edelman (1992) Gerald Edelman et Giulio Tononi (2000)]. Les aptitudes cognitives de l'être humain procèdent de sa capacité à symboliser, de sa conscience étendue, de sa culture, et non pas uniquement de mécanismes inconscients, même si la connaissance consciente est nourrie par maintes routines inconscientes, émergeant de l’action consciente de l’organisme dans son environnement. J'oppose une vision intégrée de l'esprit face à une vision modulaire. La conscience semble être le pont qui unit la biologie et la psychologie, et qui confère au sujet son libre arbitre et sa capacité de connaître. Elle est un ensemble très complexe de processus dynamiques, le fruit le plus achevé de l'évolution. Elle est encore loin d'être élucidée, mais elle est fondamentale pour définir la nature humaine et la cognition.
Je montre, à travers les travaux de Merlin Donald, pourquoi la conscience est primordiale pour expliquer la cognition et comment l’esprit a évolué dans l’histoire de l’espèce, en passant par plusieurs stades (esprit épisodique, mimétique, mythique, théorique), chacun conservant la mémoire des étapes antérieures, et comment il est possible de passer d’un cerveau de primate à celui de l’homme actuel.
Je présente les résultats des travaux de Francisco Varela, sur l’unité de la conscience. Il montre comment cette unité se produit grâce à l’activation synchrone de différentes parties du cerveau lors de l’exécution d’une tâche cognitive. Cette synchronisation fait émerger la conscience, permettant l’accomplissement d’une tâche transcendante qu’aucune partie du cerveau ne peut effectuer isolément.
6
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008 Je montre, à travers les travaux de Humberto Maturana et Francisco Varela, pourquoi le système nerveux est fondamental pour expliquer la conscience et la cognition. J’expose leur concept d’autopoïèse, qui permet d’éliminer clairement tout amalgame entre intelligence naturelle et intelligence artificielle et les conséquences de la théorie autopoïétique concernant la connaissance humaine.
Je présente la TSGN (la Théorie de la Sélection des Groupes Neuronaux) de Gerald Edelman et Giulio Tononi, qui propose une explication biologique de la conscience, et définit le cerveau comme un système sélectif, et la sélection comme un processus épigénétique.
Je montre, avec les travaux d’Antonio Damasio, comment la conscience n’est pas un processus monolithique, mais se compose de deux strates superposées : la conscience noyau1 (core consciousness), que nous partageons avec les autres espèces, sur laquelle s’enracine la conscience étendue2 (extended consciousness), proprement humaine, qui gouverne la faculté de langage. C’est un phénomène hybride qui procède à la fois de la biologie et de la culture, de par la plasticité du cerveau et son long développement ex utero dans le cadre de l’expérience consciente. La pensée symbolique linguistique, relevant de la conscience étendue, s’articule sur une pensée en images non symbolique, relevant de la conscience noyau. Donc la faculté de langage n’est pas indépendante des autres facultés cognitives.
1. « Conscience noyau » (core consciousness) selon la terminologie d’Antonio Damasio, et « conscience primaire » (primary consciousness) selon la terminologie de Gerald Edelman.
2. « Conscience étendue » (extended consciousness) selon la terminologie d’Antonio Damasio, et « conscience supérieure » (high-order consciousness) selon la terminologie de Gerald Edelman.
7
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008 Enfin je montre que l’idée d’un organe syntaxique parfait, tel que présenté dans le Programme Minimaliste (The Minimalist Program), cadre mal avec la théorie et la biologie de l’évolution [Philip Lieberman (2004)], et que si l’hypothèse d’une grammaire universelle est vraie, on devrait s’attendre à des carences génétiques de certains principes ou paramètres privant certains individus de la capacité totale ou partielle de parler, ou d’apprendre une langue particulière. Or cela ne se produit pas. On devrait s’attendre également à un renforcement des paramètres de la langue maternelle au détriment d’autres langues, pour faciliter l’apprentissage des enfants. Or cela encore ne se produit pas. Un enfant tibétain, issu de populations parlant tibétain depuis des temps immémoriaux, apprendra l’arabe ou le russe ou n’importe quelle autre langue, si les circonstances obligent sa famille à émigrer dans un autre pays. Il parlera avec la même facilité sa langue maternelle et celle de son pays d’adoption.
En conclusion générale, je récapitule les idées clés de cette thèse, en espérant avoir dissipé l’idée que l’esprit humain fonctionne comme un ordinateur, et que le langage humain dépend d’un organelogiciel inné. Les mécanismes syntaxiques se mettent en place lors de l’épigenèse, dans le cadre de la conscience et de l’expérience, et leur automatisation a lieu par le biais de l’usage de la langue comme n’importe quelle action motrice. Sans pratique régulière il n’y a pas d’automatisation. Nous en faisons d’ailleurs le constat lors de l’apprentissage d’une deuxième langue. Si le calcul permet de simuler certains aspects de l’esprit humain et du langage, cela ne signifie pas que ce dernier soit réductible à un mécanisme préprogrammé inconscient. Cette idée prend sa source dans la théorie mathématique de la calculabilité, notamment la machine de Turing (automate mathématique, mais aussi fondement théorique de l’ordinateur), renforcée par la machine de von Neumann (version technologique de l’ordinateur).
Conclusion : Noam Chomsky fait de l’intelligence artificielle Le paradoxe de la linguistique chomskyenne, est qu’elle se veut branche de la psychologie et de la biologie tout en ignorant ces disciplines. Elle se veut matérialiste tout en ignorant la matière, ne s’occupant que de la fonction logique de l’esprit et occultant le substrat matériel. Noam Chomsky prétend faire une théorie de la connaissance, alors qu’il ne fait que simuler certaines régularités syntaxiques avec des outils mathématiques, en postulant un automate, puis un logiciel, tous deux inconscients, en guise d’explication. A son corps défendant, il fait donc de l’intelligence artificielle, mais n’explique rien quant au fonctionnement de l’intelligence réelle et du langage. Le cerveau n’est pas un ordinateur. Cette mauvaise métaphore occulte une de ses propriétés fondamentale : la conscience, qui donne accès à la connaissance.
8