Computationnalisme

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}
Révision datée du 14 octobre 2023 à 01:28 par >Alenoach (Catégorie)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
Fichier:Cerveau Symboles.jpg
Le cerveau humain, simple machine à effectuer des calculs ?

Le computationnalisme est une théorie fonctionnaliste en philosophie de l'esprit qui, pour des raisons méthodologiques, conçoit l'esprit comme un système de traitement de l'information et compare la pensée à un calcul (en anglais, computation<ref>Hobbes concevait la raison de cette façon : Léviathan, I, 5, « De la raison et de la science » : Modèle:Citation Mais, contrairement à Jerry Fodor, Hobbes concevait le « discours mental » comme peuplé d'idées qui sont des images, et non des symboles.</ref>) et, plus précisément, à l'application d'un système de règles. Par computationnalisme, on entend la théorie développée en particulier par Hilary Putnam et Jerry Fodor<ref name=Horst/>, et non le cognitivisme en général.

Présentation

Le terme a été proposé par Hilary Putnam en 1961, et développé par Jerry Fodor dans les années 1960 et 1970<ref name="Horst">Horst, Steven (2003, révisé en 2005), The Computational Theory of Mind, Stanford Encyclopedia of Philosophy.</ref>. Cette approche a été popularisée dans les années 1980, en partie parce qu'elle répondait à la conception chomskyenne du langage comme application de règles, et aussi parce que ce modèle computationnaliste était présupposé, selon Fodor, par les sciences cognitives et les recherches sur l'intelligence artificielle.

En anglais, la computation se réfère à la calculabilité, c'est-à-dire au fait de passer d'une entrée à une sortie par le biais d'un algorithme déterminé. Le computationnalisme n'est pas une thèse ontologique sur la nature de l'esprit : il ne prétend pas que toute pensée se réduit à un calcul de ce style, mais qu'il est possible d'appréhender certaines fonctions de la pensée selon ce modèle, qu'elles soient conscientes ou infraconscientes (par exemple les processus de vision, selon l'approche des neurosciences computationnelles développée par David Marr au début des années 1980<ref name=Horst/>).

En termes de doctrine, le computationnalisme peut être caractérisé comme une synthèse entre le réalisme intentionnel et le physicalisme<ref name=Horst/>. Le premier affirme l'existence et la causalité des états mentaux, et prend en compte les attitudes propositionnelles, c'est-à-dire la manière dont le sujet se comporte à l'égard d'une proposition (« je crois que x », « je pense que p », etc.). Le second affirme que toute entité existante est une entité physique. Le computationnalisme se présentait ainsi comme alternative à l'éliminativisme matérialiste, qui refusait l'existence de toute entité mentale<ref name=Horst/>. Deux noyaux théoriques ont aussi été essentiels à la formation de la théorie computationnaliste : d'une part, le formalisme mathématique développé au début du Modèle:Lien siècleModèle:Vérification siècle, qui permet en gros de concevoir les mathématiques comme la manipulation de symboles à partir de règles formelles (axiomatique de Hilbert) ; d'autre part, la calculabilité (et la machine de Turing). À l'aide de ces deux ensembles théoriques, on peut passer du noyau sémantique à la simple syntaxe mathématique, et de celle-ci à l'automatisation, sans jamais nier l'existence de la sémantique (c'est-à-dire du sens).

Le computationnalisme a été la cible de diverses critiques, en particulier de John Searle, Hubert Dreyfus, ou Roger Penrose, qui tournaient toutes autour de la réduction de la pensée et/ou de la compréhension à la simple application d'un système de règles. À la fin des années 1980, il a été concurrencé par un nouveau modèle cognitif, le connexionnisme<ref name=Horst/>. Celui-ci vise à montrer qu'on peut expliquer le langage de la pensée sans faire appel à un raisonnement gouverné par un système de règles, comme le fait le computationnalisme<ref name=Horst/>.

Combiner le réalisme intentionnel avec le physicalisme

Outre l'analogie de la pensée avec la ratiocination (ou calcul), le fonctionnalisme est lié à une « théorie représentative de l'esprit »<ref name=Horst/>, qui stipule l'existence des attitudes propositionnelles : les croyances et les désirs sont ainsi une relation entre un sujet pensant et les représentations symboliques du contenu de ces états<ref name=Horst/>. Ainsi, croire que le chat est sur le fauteuil, c'est adopter une attitude propositionnelle distincte (celle de la croyance) de l'attitude qui consiste à souhaiter que le chat soit sur le fauteuil ; dans les deux cas, la représentation symbolique mentale (« le chat sur le fauteuil ») conserve la même valeur sémantique, mais l'attitude propositionnelle (croire ou vouloir) diffère<ref name=Horst/>. L'approche computationnaliste considère que les états mentaux sont des représentations, au sens où ils sont composés de représentations symboliques ayant des propriétés sémantiques et syntaxiques, à l'instar des symboles utilisés dans la calculabilité mathématique<ref name=Horst/>. Il repose donc sur l'affirmation selon laquelle les attitudes propositionnelles impliquent des représentations symboliques<ref name=Horst/>. En ceci, il s'oppose à l'éliminativisme matérialiste, qui dénie toute existence aux entités mentales<ref name=Horst/>.

La théorie de la représentation de Jerry Fodor, formulée dans sa conception du « mentalais » ou du langage de la pensée, se distingue toutefois des théories classiques de la représentation (Hobbes, Descartes, etc.) en ce que les représentations ne sont pas assimilées à des images, mais à des symboles<ref name=Horst/>,<ref name="Ludwig">Introduction de Pascal Ludwig à l'anthologie GF Corpus, Le langage, Flammarion, 1997.</ref>.

Outre cette théorie représentative, le computationnalisme soutient aussi une théorie causale des états mentaux : les états mentaux sont reliés entre eux par le principe de causalité<ref name=Laberge>Jean Laberge, Le problème de la relation du corps et de l’esprit, {{#ifeq: | s | Modèle:Siècle | IVe{{#if:|  }} }} partie : Le fonctionnalisme, Cégep du Vieux Montréal.</ref>. Au cœur de cette théorie, on trouve ainsi la possibilité de formuler, sous forme exclusivement syntaxique, au sens mathématique du terme, le contenu sémantique des états mentaux, et ensuite de lier la syntaxe au principe de causalité.

En d'autres termes, on appréhende la pensée en tant que système de règles à appliquer. Cela pose un premier problème philosophique, dans la mesure où concevoir la pensée de cette façon peut conduire à confondre une régularité empirique, qui obéit à une règle, à l'application de cette règle<ref name=Horst/>. Ou encore : ce n'est pas parce qu'un comportement est régulier qu'il obéit à une norme<ref name=Horst/>.

Cette théorie semble donc opérer un amalgame entre le concept de cause et celui de raison : comment penser que nos représentations mentales s'enchaînent uniquement sur un processus causal ? N'est-ce pas faire fi du caractère normatif qu'elles possèdent, et d'abord du fait que nous les évaluons en fonction d'un « standard de validité » (par exemple le critère de la vérité)<ref name=Horst/>?

Formalisme et calculabilité : de la sémantique au mécanisme

C'est par le biais, d'une part, du formalisme mathématique, développé à la fin du Modèle:Lien siècleModèle:Vérification siècle par Gauss, Peano, Frege et Hilbert, et d'autre part de la calculabilité, que le computationnalisme traite ce problème<ref name=Horst/>. En effet, le formalisme réussit, en élaborant une axiomatique, à exclure ou à codifier les intuitions sémantiques du mathématicien (par exemple l'intuition à la source du postulat sur la parallèle d'Euclide<ref name=Horst/>). Le formalisme considère ainsi, en grossissant le trait, que les mathématiques existent en dehors de toute intention et de toute pensée. Ils fonctionnent à l'aide de symboles qui demandent à être manipulés selon des règles formelles.

Le deuxième aspect mathématique décisif dans la théorie computationnaliste, c'est la définition des fonctions calculables par Alan Turing, en 1936. En élaborant le modèle abstrait de la machine de Turing, celui-ci montrait que toute opération n'impliquant que des schémas syntaxiques pouvait être dupliqué mécaniquement<ref name=Horst/>. On parle aussi de la thèse de Church-Turing<ref name=Marchal/>.

Ainsi, la formalisation mathématique montre comment les propriétés sémantiques des symboles peuvent parfois être codés selon des règles syntaxiques, tandis que la machine de Turing montre comment la syntaxe peut être relié à un processus causal, qui permet de concevoir un mécanisme capable d'évaluer toute fonction formalisable. La formalisation relie la sémantique à la syntaxe, et la machine de Turing la syntaxe au mécanisme<ref name=Horst/>.

Le computationnalisme pouvait en outre s'appuyer sur la « révolution cognitiviste » opérée en linguistique par Chomsky<ref name=Horst/>. La linguistique générative de Chomsky affirme ainsi qu'à partir d'un système de règles limité, nous pouvons comprendre une infinité d'énoncés ; ce qui implique, à son tour, que l'on peut concevoir une infinité de pensées<ref name=Horst/>. Selon Jerry Fodor (1975), la compétence linguistique théorisée par Chomsky conduisait à postuler un langage de la pensée (« mentalais »)<ref name=Horst/>.

L'algorithme, transformation de l'entrée en une sortie

La théorie fonctionnaliste comporte ainsi trois types de spécifications :

  • les spécifications d’entrées (input en anglais), les spécifications qui stipulent le genre de choses qui causent les états mentaux chez les personnes ;
  • les spécifications des états internes qui décrivent les interactions causales des états mentaux ;
  • les spécifications de sorties (output en anglais) qui disent quels genres d’action ou de comportements sont causés par les états mentaux.

Modèle:Loupe

On passe des entrées aux sorties par le biais d'un algorithme. C'est le principe de base d'une machine de Turing ou même d'une machine à compteurs, modèle abstrait de calculabilité qui est concrétisé, par exemple, par un distributeur de cannettes : celui-ci réagit aux inputs (on lui donne Modèle:Unité ou Modèle:Unité), et, en fonction de ceux-ci et de l'état de ses magasins (état interne), délivre la cannette et rend la monnaie ou attend plus de monnaie<ref name=Laberge/>. La calculabilité permet ainsi d'identifier la classe des fonctions informatiques pouvant être calculées à l'aide d'un algorithme. Ces fonctions sont des ensembles d'instructions réalisant une certaine tâche : on parle aussi parfois de « routine » (rote procedure).

Fonctionnalisme, matérialisme, physicalisme et le problème des qualia

Modèle:Section à recycler Dans cette mesure, le fonctionnalisme, selon Hilary Putnam (1992), n'est pas nécessairement un matérialisme : les états mentaux peuvent être accrochés à différents supports, que ce soit le cerveau ou le hardware et le software d'un ordinateur, ou tout autre support<ref name=Laberge/>. Sur la différence entre fonctionnalisme et matérialisme, et la possibilité d'adopter une théorie dualiste tout en maintenant le fonctionnalisme, Laberge (ibid.) cite Hilary Putnam, « La nature des états mentaux »<ref>in Les Études philosophiques, juillet/septembre 1992, Modèle:P..</ref>. Ainsi, même si la pensée s'appuie sur un support matériel (le cerveau), on peut alors l'étudier sans se soucier de ce support (contrairement à une certaine approche matérialiste voire réductionniste courante dans les neurosciences) : une même idée peut en effet être exprimée sur des supports physiques très différents (par la voix, sur papier, sur un mur, sur un ordinateur, etc.) Toutefois, dans la mesure où le principe de causalité est le plus souvent associé à la matière, la plupart des fonctionnalistes sont aussi matérialistes<ref name=Laberge/>.

Dans cette mesure, le fonctionnalisme s'apparente à un behaviorisme méthodologique : contrairement au behaviorisme ontologique, il n'affirme pas qu'il n'y a pas d'états mentaux. Mais, de même que le behaviorisme méthodologique, il laisse de côté les aspects subjectifs, qualitatifs, des états mentaux (ou qualia), c'est-à-dire l'ensemble des expériences subjectives qui peut faire l'objet, par exemple, d'un poème ou d'une déclaration amoureuse, ou du simple fait d'aimer telle couleur. On parle ainsi de « fonctionnalisme de la boîte noire »<ref name=Laberge/>.

Toutefois, la thèse de Putnam a été attaquée par John Searle, l'un des critiques les plus importants du computationnalisme. Selon lui, non seulement il est impossible, comme le prétend Putnam, de concilier le fonctionnalisme avec un dualisme à propos des états mentaux et des états physiques (dualisme pensée/cerveau), mais la tentative même du computationnalisme de concilier l'intentionnalisme réalisme avec le physicalisme est voué à l'échec. En effet, Modèle:Citation.

L'hypothèse du mécanisme numérique

L'hypothèse du « mécanisme numérique» ("digital mecanism") a été développée par Bruno Marchal<ref name="Marchal">Marchal, Bruno, L'hypothèse du computationnalisme et ses conséquences, introduction à sa thèse (la thèse complète est en ligne).</ref>, en y adjoignant 2 hypothèses d'une autre nature<ref>http://iridia.ulb.ac.be/~marchal/lillethesis/Rapport%20Grigorieff[1].pdf</ref>:

  • d'une part, la thèse de Church, pierre d'angle de l'informatique théorique,
  • d'autre part, ce qu'il appelle le réalisme arithmétique, c'est-à-dire le fait que la vérité arithmétique est intrinsèque, "d'une ontologie non substantielle", dixit Marchal.

C'est cette conjonction de 3 hypothèses que Bruno Marchal nomme "computationnalisme", mais qui n'est pas admise comme telle par tous les tenants du computationnalisme. Il s'agit en effet à la fois d'une thèse ontologique forte, selon laquelle la conscience pourrait survivre avec un cerveau artificiel (de même qu'elle survit avec un rein artificiel), et d'une thèse logique faible, dans la mesure où il faut pour cela une description d'un état instantané du cerveau sur laquelle Marchal ne pose aucune restriction. En d'autres termes, il est possible qu'il faille connaître l'état quantique de tout l'univers pour obtenir une telle description adéquate du cerveau<ref name=Marchal/>. Les systèmes de téléportation utilisés par la science-fiction, et repris en tant qu'expérience de pensée sur le problème de l'identité personnelle (voir par ex. Derek Parfit, 1984), utiliseraient une telle hypothèse.

Critiques de l'hypothèse computationnaliste

Diverses critiques ont été adressées à la théorie computationnaliste, qui tournent toutes autour de la question des règles. En effet, le computationnalisme postule qu'on peut assimiler la pensée à un système d'application de règles, ce qui permet en retour d'identifier des fonctions informatiques complexes comme étant un équivalent de pensée. Ces critiques ne sont pas forcément fatales au computationnalisme, mais en limitent l'extension à certains processus déterminés de pensée, qui pourraient être modalisés selon un système de règles.

Modèle:Refnec.

Qu'est-ce qui est calculable ?

Une critique ancienne provient de John Lucas (1961), qui affirme que le théorème d'incomplétude de Gödel pose des problèmes insurmontables à l'analogie esprit/machine<ref>Lucas, J.R., (1961), « Minds, Machines, and Godel ». in Philosophy, 36: 112-127. Cité par Horst, S., art. cit. de la Stanford Encyclopedia.</ref>. Cet argument a été développé par Roger Penrose, selon qui un mathématicien humain est capable de comprendre plus et de démontrer plus que ce qui est simplement calculable<ref name=Horst/>. Cela a fait l'objet de nombreux débats (David Lewis, Solomon Feferman, etc<ref name=Horst/>.).

Un autre argument a été formulé par Hubert Dreyfus dans What Computers Can't Do (1972)<ref name=Horst/>. Fin connaisseur de Heidegger et de la phénoménologie, Dreyfus souligne ainsi la différence centrale qui distingue le processus cognitif utilisé lorsqu'un novice apprend une compétence et lorsqu'un expert agit. Ainsi, un joueur d'échec débutant applique un système de règles (par exemple, avancer le pion de deux cases ou occuper le centre). Mais un champion d'échecs n'applique pas de règles : il « voit » le « coup juste »<ref name=Horst/>. L'application de règles, au cœur du computationnalisme, serait ainsi le propre des processus cognitifs limités<ref name=Horst/>. Il est difficile, en particulier, de transformer une compétence experte en algorithme, lorsque cette compétence tire ses ressources d'une connaissance générale étrangère au domaine du problème visé<ref name=Horst/>.

Les tentatives visant à construire des réseaux connexionnistes, ou celle de Rodney Brooks visant à construire une intelligence artificielle simple sur le modèle des insectes, sont une réponse partielle aux objections de Dreyfus<ref name=Horst/>. Ce dernier considère en effet ces tentatives comme plus prometteuses, et pense que la théorie de Walter Jackson Freeman III répond à certaines formulations de Merleau-Ponty à propos de l'apprentissage d'une compétence<ref name=Horst/>. Il reste toutefois sceptique, considérant dans What Computers Still Can't Do (1992) qu'on ne fait que donner une chance, méritée, d'échouer, au connexionnisme<ref name=Horst/>.

Il faut toutefois souligner que, si la théorie computationnaliste a souvent été interprétée comme visant à rendre compte de l'ensemble, ou presque, des processus cognitifs, y compris les processus infraconscients tels que la vision (David Marr), selon Jerry Fodor (1984 et 2000), seuls les « raisonnements modulaires », par opposition aux « raisonnements globaux », sont susceptibles d'être appréhendés par ce modèle<ref name=Horst/>. Dans The Mind Doesn't Work That Way (2000), Fodor affirme dès l'introduction qu'il n'avait jamais imaginé qu'on puisse interpréter sa théorie de façon à croire qu'elle rendrait compte de la pensée en général<ref name=Horst/>.

Peut-on assimiler calculabilité et compréhension ?

Modèle:Loupe L'une des plus puissantes objections a été formulée par John Searle (1980), à travers l'expérience de pensée de la chambre chinoise, qui se veut une réponse au test de Turing. Il s'agit de se demander si la calculabilité (computation) peut suffire à expliquer la compréhension<ref name=Horst/>. Par son test, Turing visait à substituer à la question « les machines peuvent-elles penser ? » la question de savoir si elles peuvent réussir un examen, appelé « jeu de l'imitation », dans lequel les personnes examinées doivent déterminer, sur le seul fondement des réponses qu'on leur donne, si leur interlocuteur invisible est une personne ou une machine (voir le programme ELIZA)<ref name=Horst/>.

Or, Searle affirme qu'on ne peut extrapoler de la réussite au test de Turing la possibilité de penser. L'expérience de la chambre chinoise est simple : il suffit d'imaginer qu'on enferme une personne dans une salle, et qu'elle ne puisse communiquer à l'extérieur qu'à l'aide de symboles chinois, langue qu'elle ne comprend pas. Un cahier stipulant certaines règles de manipulation de ces symboles lui est fourni. Il s'agit ainsi de l'équivalent du test de Turing : ce dispositif imite un ordinateur digital qui reçoit des input symboliques et les transforme en output symboliques à l'aide d'un système de règles, qui peuvent être appliquées à des informations non-sémantiques, qui seraient exclusivement syntaxiques ou symboliques<ref name=Horst/>. Or, Searle conclut qu'on ne peut évidemment pas parler d'une compréhension, puisqu'on a stipulé dès le départ que la personne ne comprenait pas le chinois ; ce qui ne l'empêchait pas de communiquer adéquatement à l'aide du système de règles<ref name=Horst/>. On ne peut donc que simuler la compétence linguistique par une machine, mais non pas la dupliquer<ref name=Horst/>.

Deux lignes de réponse ont été adressées à l'objection de Searle. Certains sont allés jusqu'à définir la compréhension en termes fonctionnalistes : puisque le dispositif de la Chambre chinoise fonctionne, il faut dire qu'il suffit à la compréhension<ref name=Horst/>. L'autre type de réponse concède que Searle a raison, mais tente de complexifier le schéma en ajoutant de nouveaux traits, par exemple la possibilité d'apprendre de nouvelles règles, la faculté d'interagir avec son environnement, etc., qui permettrait de parler d'une compréhension véritable, induite, et non d'une simple simulation<ref name=Horst/>. Searle a alors adapté son argument pour prendre en compte ces nouvelles facultés, tout en continuant à nier qu'une machine ne puisse faire autre chose que simuler la compréhension<ref name=Horst/>.

L'alternative connexionniste

Modèle:Loupe À la fin des années 1980, l'approche connexioniste a commencé à concurrencer le computationnalisme, dont le principal titre de légitimité, selon Fodor, était qu'il était la seule théorie apte à rendre compte de l'évolution des sciences cognitives et des modèles implicites utilisés par celles-ci<ref name=Horst/>. Le connexionnisme tente d'élaborer des modèles de compréhension des processus cognitifs qui ne passent pas par le simple usage et application de règles<ref name=Horst/>. Précédé par quelques travaux innovateurs de Wiener et de Rosenblatt, l'approche connexionniste a surgi sur la scène philosophique avec la publication de l'ouvrage de Rumelhart et McClelland, Parallel Distributed Processing (1986)<ref>Rumelhart, David E., James McClelland, and the PDP Research Group. 1986. Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Cambridge, Mass: MIT Press. Cité par Horst, art. cit.</ref>.

Techniquement, la différence entre les deux approches réside surtout dans le fait que la première est intrinsèquement séquentielle et la seconde fait une très grande part au parallélisme des opérations. Dans les deux cas sont bien entendu appliqués des systèmes de règles, sans quoi il ne resterait rien à étudier.

Donald Knuth suggère que le conscient est de nature séquentielle (nous ne pouvons analyser clairement qu'une chose à la fois) et l'inconscient de nature parallèle. Il y voit une raison du grand succès de la programmation chez les nerds, qui sont mal à l'aise face aux phénomènes ne relevant pas de la pure logique.

Notes et références

Notes

Modèle:Références

Références

Modèle:Références

Annexes

Bibliographie

Articles connexes

Modèle:Portail