Intelligence artificielle
L'intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l'intelligence humaine<ref>Modèle:Lien web.</ref>.
Souvent classée dans le groupe des mathématiques et des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique mathématique (partie des mathématiques et de la philosophie). Elle utilise des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension, elle comprend, dans le langage courant, les dispositifs imitant ou remplaçant l'homme dans certaines mises en œuvre de ses fonctions cognitives<ref>Modèle:Ouvrage.</ref>.
Les applications de l'IA incluent notamment moteurs de recherche, systèmes de recommandation, compréhension du langage naturel, voitures autonomes, chatbots, outils de génération d'images, outils de prise de décision automatisée et programmes compétitifs dans des jeux de stratégie<ref>Modèle:Lien web.</ref>.
Ses finalités et enjeux ainsi que son développement suscitent, depuis l'apparition du concept, de nombreuses interprétations, fantasmes ou inquiétudes s'exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques<ref>Modèle:Lien web.</ref>. Si des outils relevant d'intelligences artificielles spécialisées ou génératives ont fait leurs preuves, la réalité semble encore tenir l'intelligence artificielle généraliste loin des performances du vivant dans toutes ses aptitudes naturelles<ref>Modèle:Lien web.</ref>.
Définition
Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Modèle:Langue). McCarthy définit l'IA ainsi : Modèle:Citation
Elle est également définie par l’un de ses créateurs, Marvin Lee Minsky, comme Modèle:Citation<ref group="alpha">{{#invoke:Langue|indicationDeLangue}} Modèle:Citation étrangère.</ref>,<ref>Modèle:Lien web.</ref>. On y trouve donc le côté « artificiel » atteint par l'usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d'imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d'autres capteurs, dans la commande d'un robot dans un milieu inconnu ou hostile.
Même si elles respectent globalement la définition de Minsky, certaines définitions de l'IA varient sur deux points fondamentaux<ref>Modèle:RusselNorvig2003, section 1.1.</ref> :
- les définitions qui lient l'IA à un aspect humain de l'intelligence, et celles qui la lient à un modèle idéal d'intelligence, non forcément humaine, nommée rationalité ;
- les définitions qui insistent sur le fait que l'IA a pour but d'avoir toutes les apparences de l'intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d'IA doit ressembler également à celui de l'être humain et être au moins aussi rationnel.
Histoire
Création et développement
Historiquement, l'idée d'intelligence artificielle semble émerger dans les années 1950 quand Alan Turing se demande si une machine peut « penser ». Dans l'article « Modèle:Langue » (Modèle:Langue, Modèle:Date-)<ref>Republié dans Collected Works of A. M. Turing, volume Mechanical Intelligence, éd. Darrel Ince, Modèle:ISBN.</ref>, Turing explore ce problème et propose une expérience (maintenant dite test de Turing) visant à trouver à partir de quand une machine deviendrait « consciente ». Il développe ensuite cette idée dans plusieurs forums, dans la conférence « L'intelligence de la machine, une idée hérétique »<ref>Conférence Modèle:Langue donnée à la Société 51 à Manchester.</ref>, dans la conférence qu'il donne à la BBC Modèle:3e le Modèle:Date- « Les calculateurs numériques peuvent-ils penser ? »<ref>« Can digital computers think? ».</ref> ou la discussion avec M.H.A. Newman, Sir Geoffrey Jefferson et R.B. Braithwaite les 14 et Modèle:Date- sur le thème « Les ordinateurs peuvent-ils penser ? »<ref>« Can automatic calculating machines be said to think? ».</ref>.
Une autre origine probable est la publication, en 1949, par Warren Weaver d'un mémorandum sur la traduction automatique des langues<ref>La première version de ce memorandum a été publiée à Carlsbad (Nouveau-Mexique) en Modèle:Date-. Il a été reproduit dans Modèle:Chapitre</ref> qui suggère qu'une machine puisse faire une tâche qui relève typiquement de l'intelligence humaine.
Le développement des techniques informatiques (augmentation de la puissance de calcul) aboutit ensuite à plusieurs avancées :
- dans les années 1980, l'apprentissage automatique se développe, notamment avec la renaissance du connexionnisme. L'ordinateur commence à déduire des « règles à suivre » en analysant seulement des données<ref>Modèle:Ouvrage.</ref>,<ref>Modèle:Ouvrage.</ref> ;
- parallèlement, des algorithmes « apprenants » sont créés qui préfigurent les futurs réseaux de neurones (l'apprentissage par renforcement, les machines à vecteurs de supportModèle:Etc.). Ceci permet par exemple en Modèle:Date- à l’ordinateur Deep Blue de battre Garry Kasparov au jeu d'échecs<ref>Modèle:Article.</ref> lors d'un match revanche de six parties ;
- l'intelligence artificielle devient un domaine de recherche international, marquée par une conférence au Dartmouth College à l’Modèle:Nobr<ref>Modèle:Lien web</ref>,<ref>{{#invoke:Langue|indicationDeLangue}} Daniel Crevier, AI: The Tumultuous Search for Artificial Intelligence, New York, BasicBooks, 1993, Modèle:ISBN, Modèle:P..</ref> à laquelle assistaient ceux qui vont marquer la discipline ;
- depuis les années 1960, la recherche se fait principalement aux États-Unis, notamment à l'université Stanford sous l'impulsion de John McCarthy<ref>Modèle:Lien web</ref>, au MIT sous celle de Marvin Minsky<ref>Modèle:Lien web</ref>, à l'université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon<ref>Modèle:Ouvrage</ref> et à l'université d'Édimbourg sous celle de Donald Michie<ref>Modèle:Lien web</ref>, en Europe et en Chine, ainsi qu'au Japon avec le projet « Modèle:Lien » du gouvernement ;
- dans les années 2000, le Web 2.0, le big data et de nouvelles puissances et infrastructures de calcul permettent à certains ordinateurs d'explorer des masses de données sans précédent ; c'est l'apprentissage profond (« Modèle:Langue »), dont l'un des pionniers est le français Yann Le Cun<ref>Modèle:Article.</ref>.
Les bornes de ce domaine varient, ainsi optimiser un itinéraire était considéré comme un problème d'intelligence artificielle dans les Modèle:Nobr et n'est plus considéré aujourd’hui que comme un simple problème d'algorithmie<ref>Le Monde Festival : Yann Le Cun et l’intelligence artificielle</ref>.
Vers 2015, le secteur de l'intelligence artificielle cherche à relever quatre défis : la perception visuelle, la compréhension du langage naturel écrit ou parlé, l'analyse automatique du langage et la prise de décision autonome<ref name=EtudeCGET2019>Modèle:Ouvrage.</ref>. Produire et organiser des données nombreuses et de qualité, c'est-à-dire corrélées, complètes, qualifiées (sourcées, datées, géoréférencées…), historisées est un autre enjeu. La capacité déductive et de généralisation pertinente d'un ordinateur, à partir de peu de données ou d'un faible nombre d'évènements, est un autre objectif, plus lointain<ref name=EtudeCGET2019/>.
Entre 2010 et 2016, les investissements auraient été décuplés, atteignant une dizaine de milliards de dollars en 2016<ref>Modèle:Lien web.</ref>.
Précurseurs
Si les progrès de l’intelligence artificielle sont récents, ce thème de réflexion est tout à fait ancien, et il apparaît régulièrement au cours de l’histoire. Les premiers signes d’intérêt pour une intelligence artificielle et les principaux précurseurs de cette discipline sont les suivants.
Automates
Une des plus anciennes traces du thème de « l’homme dans la machine » date de 800 avant notre ère, en Égypte. La statue du dieu Amon levait le bras pour désigner le nouveau pharaon parmi les prétendants qui défilaient devant lui, puis elle « prononçait » un discours de consécration. Les Égyptiens étaient probablement conscients de la présence d’un prêtre actionnant un mécanisme et déclarant les paroles sacrées derrière la statue, mais cela ne semblait pas être pour eux contradictoire avec l’incarnation de la divinité. Vers la même époque, Homère, dans L'Iliade (XVIII, 370–421), décrit les automates réalisés par le dieu forgeron Héphaïstos : des trépieds munis de roues en or, capables de porter des objets jusqu’à l’Olympe et de revenir seuls dans la demeure du dieu ; ou encore, deux servantes forgées en or qui l’assistent dans sa tâche. De même, le Géant de bronze Talos, gardien des rivages de la Crète, était parfois considéré comme une œuvre du dieu.
Vitruve, architecte romain, décrit l’existence entre le Modèle:S mini- et le Modèle:S mini- siècleModèle:Vérification siècle avant notre ère, d’une école d’ingénieurs fondée par Ctesibius à Alexandrie, et concevant des mécanismes destinés à l’amusement tels des corbeaux qui chantaient. Héron L'Ancien décrit dans son traité « Automates », un carrousel animé grâce à la vapeur et considéré comme anticipant les machines à vapeur. Les automates disparaissent ensuite jusqu’à la fin du Moyen Âge. On a prêté à Roger Bacon la conception d'automates doués de la parole; en fait, probablement de mécanismes simulant la prononciation de certains mots simples.
Léonard de Vinci a construit en 1515 un automate en forme de lion pour amuser le roi de France, Modèle:Souverain-<ref>Modèle:Lien web</ref>. Gio Battista Aleotti et Salomon de Caus, eux, ont construit des oiseaux artificiels et chantants, des flûtistes mécaniques, des nymphes, des dragons et des satyres animés pour égayer des fêtes aristocratiques, des jardins et des grottes. René Descartes, lui, aurait conçu en 1649 un automate qu’il appelait « ma fille Francine ». Il conduit par ailleurs une réflexion d’un modernisme étonnant sur les différences entre la nature des automates, et celles d’une part des animaux (pas de différence) et d’autre part celle des hommes (pas d’assimilation). Ces analyses en font le précurseur méconnu d’un des principaux thèmes de la science-fiction : l'indistinction entre le vivant et l’artificiel, entre les hommes et les robots, les androïdes ou les intelligences artificielles.
Jacques de Vaucanson a construit en 1738 un Modèle:Citation. Il était possible de programmer les mouvements de cet automate, grâce à des pignons placés sur un cylindre gravé, qui contrôlaient des baguettes traversant les pattes du canard. L’automate a été exposé pendant plusieurs années en France, en Italie et en Angleterre, et la transparence de l’abdomen permettait d’observer le mécanisme interne. Le dispositif permettant de simuler la digestion et d’expulser une sorte de bouillie verte fait l’objet d’une controverse. Certains commentateurs estiment que cette bouillie verte n’était pas fabriquée à partir des aliments ingérés, mais préparée à l’avance. D’autres estiment que cet avis n’est fondé que sur des imitations du canard de Vaucanson. L’incendie du musée de Nijni Novgorod en Russie, vers 1879, a détruit cet automate<ref>Modèle:Lien web.</ref>.
Les artisans Pierre et Louis Jaquet-Droz fabriquèrent parmi les meilleurs automates fondés sur un système purement mécanique, avant le développement des dispositifs électromécaniques. Certains de ces automates, par un système de cames multiples, étaient capables d'écrire un petit billet (toujours le même). Enfin, Les Contes d'Hoffmann (et ballet) L'Homme au sable décrit une poupée mécanique dont s'éprend le héros.
Pensée automatique
Une des premières tentatives de formalisation de la pensée connue est le zairja, mécanisme qu'utilisaient les astrologues arabe pour générer des idées supposées logiques, dont l'invention est attribuée à Abu al-Abbas as-Sabti au Modèle:Lien siècleModèle:Vérification siècle. Raymond Lulle s'en est probablement inspiré pour mettre au point son Ars Magna<ref>Modèle:Chapitre</ref>. Missionnaire, philosophe, et théologien espagnol du Modèle:Lien siècleModèle:Vérification siècle, il essaya lui aussi de générer des idées grâce à un système mécanique. Il combinait aléatoirement des concepts grâce à une sorte de règle à calcul, sur laquelle pivotaient des disques concentriques gravés de lettres et de symboles philosophiques. Il fondait sa méthode sur l’identification de concepts de base, puis leur combinaison mécanique soit entre eux, soit avec des idées connexes. Raymond Lulle l'appliqua à la métaphysique, puis à la morale, à la médecine et à l’astrologie. Mais il n’utilisait que la logique déductive, ce qui ne permettait pas à son système d’acquérir un apprentissage, ni davantage de remettre en cause ses principes de départ : seule la logique inductive le permet.
Gottfried Wilhelm Leibniz, au Modèle:Lien siècleModèle:Vérification siècle, a imaginé un calcul pensant (calculus rationator), en assignant un nombre à chaque concept. La manipulation de ces nombres aurait permis de résoudre les questions les plus difficiles, et même d’aboutir à un langage universel. Leibniz a toutefois démontré que l’une des principales difficultés de cette méthode, également rencontrée dans les travaux modernes sur l’intelligence artificielle, est l’interconnexion de tous les concepts, ce qui ne permet pas d’isoler une idée de toutes les autres pour simplifier les problèmes liés à la pensée.
George Boole a inventé la formulation mathématique des processus fondamentaux du raisonnement, connue sous le nom d’algèbre de Boole. Il était conscient des liens de ses travaux avec les mécanismes de l’intelligence, comme le montre le titre de son principal ouvrage paru en 1854 : Les Lois de la pensée<ref>Modèle:Ouvrage</ref> (The laws of thought), sur l’algèbre booléenne.
Gottlob Frege perfectionna le système de Boole en formalisant le concept de prédicat, qui est une entité logique soit vraie, soit fausse (toute maison a un propriétaire), mais contenant des variables non logiques, n’ayant en soi aucun degré de vérité (maison, propriétaire). Cette formalisation eut une grande importance puisqu'elle permit de démontrer des théorèmes généraux, simplement en appliquant des règles typographiques à des ensembles de symboles. La réflexion en langage courant ne portait plus que sur le choix des règles à appliquer. Par ailleurs, l’utilisateur joue un rôle important puisqu'il connaît le sens des symboles qu’il a inventés et ce sens<ref group="alpha">On parle de sémantique.</ref> n'est pas toujours formalisé, ce qui ramène au problème de la signification en intelligence artificielle, et de la subjectivité des utilisateurs.
Bertrand Russell et Alfred North Whitehead publièrent au début du Modèle:S mini- siècleModèle:Vérification siècle un ouvrage intitulé Principia Mathematica, dans lequel ils résolvent des contradictions internes à la théorie de Gottlob Frege. Ces travaux laissaient espérer d’aboutir à une formalisation complète des mathématiques<ref>Modèle:Ouvrage</ref>.
Kurt Gödel démontre au contraire que les mathématiques resteront une construction ouverte, en publiant en 1931 un article intitulé « Des propositions formellement indécidables contenues dans les Principia mathematica et autres systèmes similaires ». Sa démonstration est qu’à partir d’une certaine complexité d’un système, on peut y créer plus de propositions logiques qu’on ne peut en démontrer vraies ou fausses. L’arithmétique, par exemple, ne peut trancher par ses axiomes si on doit accepter des nombres dont le carré soit -1. Ce choix reste arbitraire et n’est en rien lié aux axiomes de base. Le travail de Gödel suggère qu’on pourra créer ainsi un nombre arbitraire de nouveaux axiomes, compatibles avec les précédents, au fur et à mesure qu’on en aura besoin. Si l'arithmétique est démontrée incomplète, le calcul des prédicats (logique formelle) est au contraire démontré par Gödel comme complet<ref>Modèle:Article.</ref>.
Alan Turing invente des machines abstraites et universelles (rebaptisées les machines de Turing), dont les ordinateurs modernes sont considérés comme des concrétisations. Il démontre l’existence de calculs qu’aucune machine ne peut faire (un humain pas davantage, dans les cas qu'il cite), sans pour autant que cela constitue pour Turing un motif pour douter de la faisabilité de machines pensantes répondant aux critères du test de Turing.
Irving John Good<ref>Modèle:Lien brisé.</ref>, Myron Tribus et E.T. Jaynes<ref>{{#invoke:Langue|indicationDeLangue}} Robot à logique inductive (en anglais, PDF).</ref> ont décrit de façon très claire les principes assez simples d’un robot à logique inductive utilisant les principes de l’inférence bayésienne pour enrichir sa base de connaissances sur la base du Théorème de Cox-Jaynes. Ils n’ont malheureusement pas traité la question de la façon dont on pourrait stocker ces connaissances sans que le mode de stockage entraîne un biais cognitif. Le projet est voisin de celui de Raymond Lulle, mais fondé cette fois-ci sur une logique inductive, et donc propre à résoudre quelques problèmes ouverts.
Des chercheurs comme Alonzo Church ont posé des limites pratiques aux ambitions de la raison, en orientant la recherche (Herbert Simon, Michael Rabin, Stephen Cook) vers l’obtention des solutions en temps fini, ou avec des ressources limitées, ainsi que vers la catégorisation des problèmes selon des classes de difficulté (en rapport avec les travaux de Cantor sur l’infini)Modèle:Référence souhaitée.
Faits marquants depuis les années 2000
L'intelligence artificielle est un sujet d'actualité au Modèle:S mini- siècleModèle:Vérification siècle. En 2004, l'Institut Singularity a lancé une campagne Internet appelée « Trois lois dangereuses » : « Modèle:Langue » (en lien avec les trois lois d'Asimov) pour sensibiliser aux questions de la problématique de l'intelligence artificielle et l'insuffisance des lois d'Asimov en particulier. (Singularity Institute for Artificial Intelligence 2004)<ref>{{#invoke:Langue|indicationDeLangue}} Modèle:Lien brisé (2004), Singularity Institute for Artificial Intelligence, 3 Laws Unsafe sur http://www.asimovlaws.com/, consulté le Modèle:Date-, sauvé sur web.archive.org.</ref>.
En 2005, le projet Blue Brain est lancé, il vise à simuler le cerveau des mammifères. Il s'agit d'une des méthodes envisagées pour réaliser une IA. Ils annoncent de plus comme objectif de fabriquer, dans dix ans, le premier « vrai » cerveau électronique<ref>Modèle:Lien web.</ref>. En Modèle:Date-, le gouvernement sud-coréen annonce que plus tard dans l'année, il émettrait une charte sur l'éthique des robots, afin de fixer des normes pour les utilisateurs et les fabricants. Selon Park Hye-Young, du ministère de l'Information et de la communication, la Charte reflète les trois lois d'Asimov : la tentative de définition des règles de base pour le développement futur de la robotique. En Modèle:Date-, en Californie une conférence organisée par l'Association for the Advancement of Artificial Intelligence (AAAI), où un groupe d'informaticiens se demande s'il devrait y avoir des limites sur la recherche qui pourrait conduire à la perte de l'emprise humaine sur les systèmes informatiques, et où il est également question de l'explosion de l'intelligence (artificielle) et du danger de la singularité technologique conduisant à un changement d'ère, ou de paradigme totalement en dehors du contrôle humain<ref>Modèle:Lien web.</ref>,<ref>Modèle:Lien brisé - Association for the Advancement of Artificial Intelligence (AAAI).</ref>.
En 2009, le Massachusetts Institute of Technology (MIT) a lancé un projet visant à repenser la recherche en intelligence artificielle. Il réunira des scientifiques qui ont eu du succès dans des domaines distincts de l'IA. Neil Gershenfeld déclare Modèle:Citation<ref>Modèle:Lien web.</ref>.
En Modèle:Date-, l'US Air Force cherche à acquérir Modèle:Unité<ref name="playstation">Modèle:Lien web.</ref>Modèle:Référence obsolète pour utiliser le processeur cell à Modèle:Nombre qu'elle contient dans le but d'augmenter les capacités de leur superordinateur constitué de Modèle:Nobr (total théorique Modèle:Nobr en double précision). Le nombre sera réduit à Modèle:Unité le Modèle:Date-<ref>Modèle:Lien web.</ref>. Le projet vise le traitement vidéo haute-définition, et l'« informatique neuromorphique », ou la création de calculateurs avec des propriétés/fonctions similaires au cerveau humain<ref name="playstation"/>.
Années 2010
Le Modèle:Date-, l'US Air Force demande l'aide de l'industrie pour développer une intelligence avancée de collecte d'information et d'aide rapide à la décision, pour aider les forces américaines à rapidement repérer les vulnérabilités de leurs ennemis. Lee raisonnement ontologique, les procédures informatique basées sur la connaissance, et d'autres traitements de données avancés pourront être utilisés pour cela<ref>Modèle:Lien web.</ref>. Et avant 2020, plus de mille bombardiers et chasseurs F-22 et F-35 de dernière génération, parmi plus de Modèle:Unité militaires, commenceront à être équipés de sorte que, d’ici 2040, tous les avions de guerre américains soient pilotés par intelligence artificielle, en plus des Modèle:Unité terrestres et des Modèle:Unité aériens commandés d'ores et déjà à distance<ref>Modèle:Lien webModèle:Citation.</ref>.
Le Modèle:Date-, Watson, le superordinateur conçu par IBM, remporte deux des trois manches du jeu télévisé Jeopardy! en battant largement ses deux concurrents humains en gains cumulés. Pour cette IA, la performance a résidé dans le fait de répondre à des questions de culture générale (et non un domaine technique précis) dans des délais très courts. En Modèle:Date-, l'artiste et designer Aaron Siegel propose de faire de Watson un candidat à l'élection présidentielle américaine afin de lancer le débat sur Modèle:Citation<ref>Modèle:Lien web.</ref>.
En Modèle:Date-, Google ouvre un laboratoire de recherches dans les locaux de la NASA. Grâce à un super calculateur quantique conçu par D-Wave Systems et qui serait d'après cette société Modèle:Nombre plus performant qu'un ordinateur actuel (de 2013)<ref>Modèle:Lien web.</ref>, ils espèrent ainsi faire progresser l'intelligence artificielle, notamment l'apprentissage automatique. Raymond Kurzweil est engagé en Modèle:Date- par Google afin de participer et d'améliorer l'apprentissage automatique des machines et des IA<ref>Modèle:Lien web.</ref>.
Entre 2014 et 2015, à la suite du développement rapide du deep learning, et à l'encontre des penseurs transhumanistes, quelques scientifiques et membres de la communauté high tech craignent que l'intelligence artificielle ne vienne à terme dépasser les performances de l'intelligence humaine. Parmi eux, l'astrophysicien britannique Stephen Hawking<ref>Modèle:Lien web.</ref>, le fondateur de Microsoft Bill Gates<ref>Modèle:Lien web.</ref> et le PDG de Tesla Elon Musk<ref>Modèle:Lien web.</ref>.
Les géants de l'Internet s'intéressent de plus en plus à l'IA<ref>Modèle:Lien web.</ref>. Le Modèle:Date-, le patron de Facebook, Mark Zuckerberg, s’est donné pour objectif de l’année de Modèle:Citation<ref>Modèle:Lien web.</ref>. Il avait déjà créé en 2013 le laboratoire Facebook Artifical Intelligence Research (FAIR) dirigé par le chercheur français Yann Le Cun et ouvert un laboratoire de recherche permanente dans le domaine à Paris<ref>Facebook ouvre un laboratoire d’intelligence artificielle à Paris.</ref>.
Apple a de son côté récemment acquis plusieurs start-up du secteur (Perceptio, VocalIQ, Emotient et Turi)<ref>Apple rachète la start-up d'intelligence artificielle Turi pour Modèle:Nobr de dollars.</ref>.
En Modèle:Date-, des modèles d'intelligence artificielle développés par Microsoft et Alibaba réussissent chacun de leur côté à battre les humains dans un test de lecture et de compréhension de l'université Stanford. Le traitement du langage naturel imite la compréhension humaine des mots et des phrases et permet maintenant aux modèles d'apprentissage automatique de traiter de grandes quantités d'informations avant de fournir des réponses précises aux questions qui leur sont posées<ref>Modèle:Article.</ref>.
En Modèle:Date-, l'institut de recherche OpenAI annonce avoir créé un programme d’intelligence artificielle capable de générer des textes tellement réalistes que cette technologie pourrait être dangereuse<ref>Modèle:Article.</ref>,<ref>Modèle:Article.</ref>. Si le logiciel est utilisé avec une intention malveillante, il peut générer facilement des fausses nouvelles très crédibles. Inquiet par l'utilisation qui pourrait en être faite, OpenAI préfère ne pas rendre public le code source du programme<ref>Modèle:Article.</ref>.
En France
En France, les pionniers sont Alain Colmerauer, Gérard Huet, Jean-Louis Laurière, Claude-François Picard, Jacques Pitrat<ref>Modèle:Lien web.</ref> et Jean-Claude Simon<ref>Modèle:Lien web</ref>. Un congrès national annuel, Modèle:Citation, est créé en 1979 à Toulouse<ref>Reconnaissance des formes et intelligence artificielle, congrès AFCET-IRIA, Toulouse 12, 13, Modèle:Date-. Il est intitulé « Modèle:2e » et prend la suite du congrès AFCET-IRIA Reconnaissance des formes et traitement des images en 1978 à Châtenay-Malabry.</ref>. En lien avec l'organisation de la conférence International Joint Conference on Artificial Intelligence à Chambéry en 1993, et la création d'un GRECO-PRC<ref>Un GRECO est un ancêtre des actuels GDR du CNRS et un PRC est un « programme de recherche concertée ».</ref> « intelligence artificielle », en 1983, il donne naissance à une société savante, l'Association française pour l'intelligence artificielle (AFIA) en 1989, qui, entre autres, organise des conférences nationales en intelligence artificielle<ref>Modèle:Lien web.</ref>.
Le Modèle:Date-, le fonds de capital risque Serena Capital lance un fonds de Modèle:Nobr d’euros destiné à l’investissement dans les start-ups européennes du big data et de l'intelligence artificielle<ref>Modèle:Article</ref>. Le Modèle:Date-, une audition se tient au Sénat : « L'intelligence Artificielle menace-t-elle nos emplois ? »<ref>Modèle:Article</ref>. Le Modèle:Date-, Axelle Lemaire entend valoriser les potentiels scientifiques et industriels français grâce au projet « France IA »<ref>Modèle:Article</ref>.
En Modèle:Date-, dans le cadre de sa mission de réflexion sur les enjeux éthiques et les questions de société soulevés par les technologies numériques, la Commission nationale de l'informatique et des libertés (CNIL) annonce l'organisation d'un débat public sur les algorithmes et l'intelligence artificielle<ref>Modèle:Lien web</ref>. Le Modèle:Date-, à l'issue d'un débat ayant mobilisé 60 partenaires (institutions publiques, associations, entreprises, acteurs du monde de la recherche, société civile)<ref>Modèle:Lien web</ref>, elle publie son rapport « Comment permettre à l'Homme de garder la main ? »<ref>Modèle:Lien web.</ref> comprenant des recommandations pour la construction d'un modèle éthique d'intelligence artificielle.
En Modèle:Date-, Cédric Villani, premier vice-président de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST)<ref>Modèle:Lien web.</ref>, est chargé de mener une consultation publique sur l'intelligence artificielle<ref>Modèle:Lien web</ref>. Il rend son rapport le Modèle:Date-<ref>Modèle:Ouvrage.</ref>, à la veille d'une intervention du président de la République Emmanuel Macron au Collège de France pour annoncer la stratégie de la France dans ce domaine<ref>Modèle:Lien web.</ref>. Il y dévoile un plan de Modèle:Nobr d'euros sur l'ensemble du quinquennat, ainsi qu'une évolution de la législation française pour permettre la mise en application de l'intelligence artificielle, en particulier concernant la circulation des véhicules autonomes<ref>Modèle:Lien web.</ref>. Parallèlement à ces annonces, il est interviewé par Wired, magazine de référence pour la communauté mondiale des nouvelles technologies, et y exprime sa vision de l'intelligence artificielle, à savoir que les algorithmes utilisés par l'État doivent être ouverts, que l'intelligence artificielle doit être encadrée par des règles philosophiques et éthiques et qu'il faut s'opposer à l'usage d'armes automatiques ou de dispositifs prenant des décisions sans consulter un humain<ref>Modèle:Lien web</ref>,<ref>Modèle:Article.</ref>.
En septembre 2023, l’entreprise Onclusive, située à Courbevoie et spécialisée dans la veille médiatique, annonce son intention de licencier 217 employés sur 380 d’ici juin 2024, afin de les remplacer par une intelligence artificielle<ref>Modèle:Lien web</ref>.
Intelligence artificielle générale
Définition
L'intelligence artificielle générale (IAG) comprend tout système informatique capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux<ref name="Intelligence artificielle générale — DataFranca" />. Elle peut alternativement être définie comme un système informatique surpassant les humains dans la plupart des tâches ayant un intérêt économique<ref>Modèle:Lien web.</ref>.
D'un point de vue généraliste, l'IA connaît une pléthore de définitions et il est indéniable qu'il s'agit d'une notion ambiguë et mal connue. Par exemple, en Angleterre, "42 % des personnes interrogées ont proposé une définition plausible de l'IA, tandis que 25 % pensent qu'il s'agit de robots" <ref>Modèle:Article</ref>. Cela démontre que l'IA est une notion ambiguë et encore floue.
La littérature scientifique propose également plusieurs définitions de l'IA. Dans ce contexte, il est accepté une définition globale de l'IA, basée sur les travaux de Gamkrelidze <ref>Modèle:Article</ref> et Hassani<ref>Modèle:Article</ref>. selon Fabrice Lollia, chercheur en sciences de l'information et de la communication, il s'agit d'une forme d'intelligence informatique nourrie par l'augmentation technologique, visant à améliorer la prise de décision et l'apprentissage en imitant les facultés cognitives humaines<ref>Modèle:Article.</ref>.
L'intelligence artificielle générale a longtemps été considérée comme un sujet purement spéculatif<ref name=":32">Modèle:Lien web.</ref>. Certains travaux de recherche ont déjà décrit GPT-4 comme ayant des « étincelles » d'intelligence artificielle générale<ref>Modèle:Article.</ref>,<ref>Modèle:Lien web.</ref>. Les experts en intelligence artificielle affichent de larges désaccords et incertitudes quant à la date potentielle de conception des premières intelligences artificielles générales (parfois appelées « intelligences artificielles de niveau humain »), leur impact sur la société, et leur potentiel à déclencher une « explosion d'intelligence »<ref>Modèle:Lien web.</ref>.
Estimation de faisabilité
Comparer la capacité de traitement de l'information d'un cerveau humain à celle d'un ordinateur peut aider à comprendre les ordres de grandeur pour estimer la possibilité pratique ou non d'une intelligence artificielle générale, de même qu'un simple calcul de puissance en kW permet grosso modo de dire qu'un camion donné pourra espérer transporter commodément telle ou telle charge ou si cela lui sera impossible. Voici quelques exemples d'ordres de grandeur en traitement de l'information :
- Balance Roberval : 1 bit par seconde (comparaison de deux poids) ;
- mainframe typique des années 1970 : Modèle:Nobr d'opérations par seconde sur Modèle:Nobr ;
- Intel Paragon XP/S, Modèle:Unité i860 à Modèle:Unité (1992) : Modèle:Nobr d'opérations par seconde ;
- Summit, Modèle:Nb POWER9 (2018) : Modèle:Nobr, soit Modèle:Nobr de milliards d'opérations par seconde.
- Fugaku 415-PFLOPS (2020-2021): 415 pétaflops, soit Modèle:Nobr de milliards d'opérations par seconde.
Cette puissance n'est pas à prendre au pied de la lettre. Elle précise surtout les ordres de grandeur en présence et leur évolution relativement rapide (jusqu'en 2018).
L'intelligence artificielle n'avait donné que des résultats mitigés sur les ordinateurs typiques de 1970 effectuant Modèle:Unité logiques par seconde<ref group="alpha">Ils occupaient donc, en nombre de comparaisons par seconde, une moyenne géométrique entre une balance de Roberval (une opération logique par seconde) et le cerveau humain.</ref>,<ref name=":02">Modèle:Lien web</ref>. Le cerveau humain, formé de Modèle:Unité ne pouvant chacun commuter plus de Modèle:Nobr par seconde en raison de leur temps de relaxation permettait beaucoup plus de traitements logiques par unité de temps (Modèle:Unité logiques par seconde)<ref name=":02" />. Ce handicap technique précis n'existe plus sur les ordinateurs depuis les années 2000, travaillant en Modèle:Lnobr et avec des horloges cadencées à Modèle:Unité environ, pour des processeurs destinés aux particuliers. Concernant des supercalculateurs comme Summit ou Fugaku 415-PFLOPS, le rapport du nombre de comparaisons par seconde entre ordinateur et cerveau a même complètement changé de sens.
Le matériel serait donc maintenant disponible, toutefois l'IA souligne la difficulté à expliciter toutes les connaissances utiles à la résolution d'un problème complexe. Certaines connaissances dites implicites sont acquises par l'expérience et mal formalisables. L'apprentissage de ces connaissances implicites par l'expérience est exploitée depuis les années 1980 (voir Réseau de neurones). Néanmoins, un autre type de complexité apparaît : la complexité structurelle. Comment mettre en relation des modules spécialisés pour traiter un certain type d'informations, par exemple un système de reconnaissance des formes visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la coordination motrice, au langage, etc. En revanche, une fois un système cognitif conçu et son apprentissage par l'expérience réalisé, l'« intelligence » correspondante peut être distribuée en un grand nombre d'exemplaires, par exemple sur les portables d'actuaires ou de banquiers pouvant ainsi, comme le rappelle un slogan, dire oui ou non, mais le dire tout de suite grâce à des applications dites de credit scoring.
Intelligence artificielle forte
Définition
Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, notamment de modéliser des idées abstraites, mais aussi d’éprouver une impression d'une réelle conscience, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et « une compréhension de ses propres raisonnements »<ref>André Le Garff, Dictionnaire de l'informatique, 1975, Modèle:Nb p.</ref>.
Contrairement à l'intelligence artificielle générale, l'intelligence artificielle forte fait donc le plus souvent intervenir des notions philosophiques de conscience qui font que les capacités de l'intelligence artificielle ne suffisent pas à dire si elle est « forte ». Cela dit, aucune définition de la conscience pour une IA ne fait consensus<ref>Voir la définition utilisée par John Searle dans son expérience de la chambre chinoise.</ref>. Les termes « intelligence artificielle forte » et « intelligence artificielle générale » sont parfois en pratique utilisés de manière interchangeable<ref name="Intelligence artificielle générale — DataFranca">Modèle:Lien web.</ref>.
En partant du principe, étayé par les neurosciences<ref>Modèle:Lien web.</ref>, que la conscience a un support biologique et donc matériel, les scientifiques ne voient généralement pas d’obstacle théorique à la création d'une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas d'ordinateurs ou d'algorithmes aussi intelligents que l'être humain, ce n'est pas un problème d'outil mais de conception. Il n'y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites celles de la calculabilité), seulement des limites liées à l'aptitude humaine à concevoir les logiciels appropriés (programme, base de données…).
Diversité des opinions
Les principales opinions soutenues pour répondre à la question d’une intelligence artificielle forte (c'est-à-dire douée d'une sorte de conscience) sont les suivantes :
- impossible : la conscience serait le propre des organismes vivants (supérieurs), et elle serait liée à la nature des systèmes biologiques. Cette position est défendue par certains philosophes et sociologues comme Harry Collins, pour qui l'intelligence requiert une immersion dans la société humaine, et donc un corps humain<ref name=":32" />, et peut rappeler le courant du vitalisme.
- impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle serait fondée sur des processus quantiques. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l'atteinte pratique des calculateurs conventionnels (complexité en <math>N^3</math> au lieu de <math>2^N</math>, par exemple, sous réserve d'existence du calculateur approprié). Au-delà de la rapidité, certains scientifiques comme Roger Penrose défendent que la conscience nécessiterait un fonctionnement non compatible avec les lois de la physique classique, et accessible uniquement avec des systèmes quantiques<ref>Modèle:Lien web</ref>. Toutefois, l'état de la recherche en informatique quantique n'est pas encore suffisamment avancé pour permettre de l'utiliser dans des applications concrètes hors laboratoires<ref>Modèle:Lien web</ref>, rendant difficile la vérification de ces hypothèses.
- impossible car la pensée n'est pas un phénomène calculable par des processus discrets et finis. Cette théorie est notamment avancée par le philosophe John Searle et son expérience de la chambre chinoise<ref>Modèle:Article</ref>. Une conscience est donc nécessaire pour accéder à l'intelligence, mais un système informatique ne serait capable que d'en simuler une, sans pour autant la posséder, renvoyant au concept philosophique du zombie.
- possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois à prendre au sens large. Cette option inclut les travaux sur le raisonnement ou l'apprentissage symbolique basé sur la logique des prédicats, mais aussi les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette position est portée par des mouvements comme ceux du computationnalisme et est portée par des philosophes comme Hubert Dreyfus, pour qui le cerveau suit les lois de la physique et de la biologie, impliquant que l'esprit est donc un processus simulable<ref>Modèle:Ouvrage</ref>. Cette dernière opinion constitue la position la plus engagée en faveur de l'intelligence artificielle forte.
Des auteurs comme Douglas Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing ; voir le test de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement (voir Zombie (philosophie)). Après tout, nous ne pouvons même pas être certains que d’autres consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce n'est par une pétition de principe qui spécule que chaque humain se retrouve à l'identique chez tous les autres. On retrouve là le problème connu du solipsisme en philosophie.
Même si une intelligence artificielle forte n'était guère possible, une IA peut être de plus en plus perçue comme forte par une majorité d'individus avec l'arrivée des IA génératives dont les LLM (de l'anglais large language model) comme ChatGPT ou Google Bard et les outils de génération d'images comme Midjourney, Dall-E ou Stable Diffusion. En effet, le champ d'applications de ces outils couvrent un champ beaucoup large qu'auparavant : création, synthèse, traduction de textes, composition d'images, de vidéos à partir de "prompts", textes descriptifs. Il devient ainsi de plus en plus difficile de distinguer des créations humaines de créations provenant d’une IA générative pour un être humain.
Travaux complémentaires
Le mathématicien de la physique Roger Penrose<ref>Page de Roger Penrose.</ref> pense que la conscience viendrait de l'exploitation de phénomènes quantiques dans le cerveau (voir microtubules), empêchant la simulation réaliste de plus de quelques dizaines de neurones sur un ordinateur normal, d’où les résultats encore très partiels de l’IA. Il restait jusqu’à présent isolé sur cette question. Un autre chercheur, Andrei Kirilyuk, a présenté depuis une thèse de même esprit quoique moins radicale<ref>Page d'Andrei Kirilyuk.</ref>.
Intelligence artificielle faible
La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement d'humains face à d'autres humains lors d'un dialogue.
Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en temps « Je comprends. », mais son auteur rappelle qu'il s'agit d'une simple mystification : le programme ne comprend en réalité rien.
Les tenants de l'IA forte admettent que s'il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l'intelligence ».
Les tenants de l'IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l'IA forte qui contestent cette interprétation.
Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, la supervision (en anglais : process control) dans les années 1970, l’aide à la décision dans les années 1980 et l’exploration de données dans les années 1990. Et, qui plus est, avec une certaine continuité.
Il s'agit surtout d'intelligence humaine reconstituée, et de programmation ad hoc d'un apprentissage, sans qu'une théorie unificatrice n'existe pour le moment (2011)Modèle:Passage à actualiser. Le théorème de Cox-Jaynes indique toutefois, ce qui est un résultat fort, que sous cinq contraintes raisonnables, tout procédé d'apprentissage devra être soit conforme à l'inférence bayésienne, soit incohérent à terme, donc inefficace<ref>E.T. Jaynes, Probability Theory: the Logic of Science, Modèle:ISBN, également consultable ici : http://bayes.wustl.edu/etj/prob/book.pdf.</ref>.
Distinction avec « Modèle:Langue »
Si le terme intelligence artificielle peut désigner un système capable de résoudre plusieurs problèmes de façon relativement autonome tout en ne faisant que simuler le principe d'intelligence, il peut aussi désigner des systèmes capables de résoudre uniquement un type de problème pour un jeu de données prédéfini<ref>Modèle:Lien web.</ref>. On peut donner pour exemple un système entrainé à reconnaitre des chiffres écrits à la main, comme ceux utilisés par La Poste<ref>Modèle:Lien web.</ref>, qui malgré sa grande performance sur sa tâche, serait incapable de fonctionner sur un problème sortant de ce pour quoi il a été conçu.
Ces intelligences artificielles, nommées « Modèle:Langue » (« intelligence artificielle étroite »), sont conçues spécifiquement sur une tâche, sans développement particulier pour la généraliser comme le ferait une intelligence artificielle générale. Elles n'en gardent pas moins leur utilité, et restent très utilisées dans l'industrie<ref>Modèle:Lien web.</ref>, étant les seuls systèmes d'IA utilisables jusqu'à ce qu'une intelligence artificielle générale soit accessible et commercialisée.
Test de Turing
À l’orée des années 1950, entre la naissance de la cybernétique et l’émergence quelques années plus tard de l’intelligence artificielle, alors que les meilleurs esprits du temps s’interrogent sur la possibilité de construire des machines pensantes, Alan Turing propose, dès le début d’un article demeuré célèbre, un test pour déterminer si une machine peut être définie comme « consciente »<ref name="cnrs.fr/ins2i">Modèle:Lien web.</ref>.
Définir l’intelligence est un défi et il n’est pas certain qu’on puisse y arriver un jour d’une façon satisfaisante. C’est cette remarque qui poussa le mathématicien britannique Alan Turing, en 1950, à proposer « le jeu de l’imitation » qui fixait un objectif précis à la science naissante des ordinateurs que l'on n'appelait pas encore informatique en francophonie. Ce « jeu de l'imitation » suggérait qu'un juge fictif puisse dialoguer d'une part avec une machine et d'autre part avec un humain à l'aide d'un terminal sans pouvoir les discriminer<ref>Modèle:Lien web.</ref>.
Jusqu'à ce jour, aucun logiciel n'a encore réussi ce test, à savoir se comporter de façon à ne pas être discriminé d'un humain, malgré de nombreuses tentatives. Devant la persistance de ces échecs, certains spécialistes comme Jean-Gabriel Ganascia pensent que mettre au point un programme aussi complexe ne démontrera pas l'intelligence des programmes ni leur capacité à penser<ref>Modèle:Lien web.</ref>.
De nos jours, une machine peut certes réviser et faire évoluer des objectifs qu’on lui a attribués. Une machine peut même être programmée pour pouvoir restructurer sa connaissance initiale à partir d’informations reçues ou perçues. Mais la machine d’aujourd’hui ne pense pas à proprement parler, car elle n’a pas conscience d’elle-même (et en particulier de ses limites), elle ne peut pas ultimement décider de ses buts ni imaginer de nouvelles formes de représentations du monde<ref name="cnrs.fr/ins2i" />.
Estimation de faisabilité
Le sémanticien François Rastier, après avoir rappelé les positions de Turing et de Grice à ce sujet, propose<ref>François Rastier, Sémantique et recherches cognitives, PUF, 2001 (Modèle:2eModèle:Éd.).</ref> six « préceptes » conditionnant un système de dialogue évolué, en précisant qu'elles sont déjà mises en œuvre par des systèmes existants :
- objectivité (utilisation d'une base de connaissance par le système) ;
- textualité (prise en compte d'interventions de plus d'une phrase, qu'elles émanent du système ou de l'utilisateur) ;
- apprentissage (intégration au moins temporaire d'informations issues des propos de l'utilisateur) ;
- questionnement (demande de précisions de la part du système) ;
- rectification (suggestion de rectifications à la question posée, lorsque nécessaire) ;
- explicitation (explicitation par le système d'une réponse qu'il a apportée précédemment).
Il suggère aussi que le système devrait être en mesure de se faire par lui-même une représentation de l'utilisateur auquel il a affaire, pour s'adapter à lui. De son côté, l'utilisateur a tendance à s'adapter au système à partir du moment où il a bien compris qu'il s'adresse à une machine : il ne conversera pas de la même manière avec un système automatisé qu'avec un interlocuteur humain, ce qui présente pour le concepteur l'avantage pragmatique de simplifier certains aspects du dialogue.
Autres tests notables
D'autres tests ont également été développés pour évaluer la performance d'une intelligence artificielle :
- Le test du café<ref>Modèle:Lien web.</ref> : imaginé par Steve Wozniak, le test consiste à placer un système intelligent dans un habitat américain moyen et lui demander de faire un café. La réussite du test implique donc plusieurs tâches comme l'orientation dans un environnement inconnu, déduire le fonctionnement d'une machine, trouver les ustensiles nécessaires…
- Le test de l'étudiant<ref>Modèle:Lien web.</ref> : proposé par Ben Goertzel, le test évalue la capacité d'un robot à s'inscrire dans un établissement d'enseignement supérieur, suivre les cours, passer les examens et obtenir le diplôme final.
- Le test de l'embauche : proposé par le chercheur Nils John Nilsson, le test consiste à faire postuler un système intelligent à un travail important, et travailler au moins aussi bien qu'un humain<ref>Modèle:Article</ref>.
Personnalités de l'intelligence artificielle
Prix Turing
Modèle:Article détaillé Plusieurs prix Turing (ACM Turing Award) ont été attribués à des pionniers de l'intelligence artificielle, notamment :
- Marvin Minsky (1969)
- John McCarthy (1971)
- Allen Newell et Herbert Simon (1975)
- Edward Feigenbaum et Raj Reddy (1994)
- Judea Pearl (2011)
- Yann Le Cun, Geoffrey Hinton et Yoshua Bengio (2019)<ref>Modèle:Article.</ref>
Autres personnalités
Modèle:Section vide ou incomplète
- Ian Goodfellow, inventeur des réseaux antagonistes génératifs.
- Andrew Ng, connu comme directeur scientifique de Baidu et comme créateur de Coursera
- Terry Winograd, pionnier en traitement du langage naturel.
- Vladimir Vapnik co-inventeur des machines à vecteurs de support.
- Seymour Papert, ancien directeur du Laboratoire d'intelligence artificielle du MIT.
- Jacques Pitrat, pionnier français en intelligence artificielle symbolique.
Courants de pensée
La cybernétique naissante des années 1940 revendiquait très clairement son caractère pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie, psychologie, logique, sciences sociales… Et c’est tout naturellement qu’elle envisagea deux approches des systèmes, deux approches reprises par les sciences cognitives et de ce fait l’intelligence artificielle : une approche par la décomposition (du haut vers le bas) et une approche contraire par construction progressive du bas vers le haut.
Ces deux approches se révèlent plutôt complémentaires que contradictoires : on est à l'aise pour décomposer rapidement ce que l'on connaît bien, et une approche pragmatique à partir des seuls éléments que l'on connaît afin de se familiariser avec les concepts émergents est plus utile pour les domaines inconnus. Elles sont respectivement à la base des hypothèses de travail que constituent le cognitivisme et le connexionnisme, qui tentent aujourd'hui (2005)Modèle:Passage à actualiser d'opérer progressivement leur fusion.
Le guide pratique de Linux sur l'intelligence artificielle v3.0<ref>http://www.ibiblio.org/pub/Linux/docs/HOWTO/other-formats/pdf/AI-Alife-HOWTO.pdf.</ref>, révisé le Modèle:Date-, adopte pour la commodité du lecteur la taxinomie suivante :
- systèmes symboliques ;
- connexionnisme ;
- calcul évolutif (algorithmes génétiques, par exemple) ;
- alife (vie artificielle) et complexité ;
- agents et robotique.
Cognitivisme
Modèle:Article détaillé Le cognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés évidemment très différents), manipule essentiellement des symboles élémentaires. Dans son livre La société de l’esprit, Marvin Minsky, s’appuyant sur des observations du psychologue Jean Piaget, envisage le processus cognitif comme une compétition d’agents fournissant des réponses partielles et dont les avis sont arbitrés par d’autres agents. Il cite les exemples suivants de Piaget :
- L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a d’eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et arbitre de son mieux entre les deux.
- Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de plusieurs objets temporairement représentés à une même boule de pâte l’incite à dégager un concept de conservation de la quantité de matière.
Au bout du compte, ces jeux d’enfants se révèlent essentiels à la formation de l’esprit, qui dégagent quelques règles pour arbitrer les différents éléments d’appréciation qu’il rencontre, par essais et erreurs.
Connexionnisme
Modèle:Article détaillé Le connexionnisme, se référant aux processus auto-organisationnels, envisage la cognition comme le résultat d’une interaction globale des parties élémentaires d’un système. On ne peut nier que le chien dispose d'une sorte de connaissance des équations différentielles du mouvement, puisqu’il arrive à attraper un bâton au vol. Et pas davantage qu’un chat ait aussi une sorte de connaissance de la loi de chute des corps, puisqu’il se comporte comme s’il savait à partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette faculté qui évoque un peu l’intuition des philosophes se caractériserait par la prise en compte et la consolidation d’éléments perceptifs dont aucun pris isolément n’atteint le seuil de la conscience, ou en tout cas n’y déclenche d’interprétation particulière.
Synthèse
Trois concepts reviennent de façon récurrente dans la plupart des travaux :
- la redondance (le système est peu sensible à des pannes ponctuelles) ;
- la réentrance (les composants s'informent en permanence entre eux ; cette notion diffère de la réentrance en programmation) ;
- la sélection (au fil du temps, les comportements efficaces sont dégagés et renforcés).
Différentes facettes
On peut considérer différents dispositifs intervenant, ensemble ou séparément, dans un système d’intelligence artificielle tels que :
- le dialogue automatique : se faire comprendre en lui parlant ;
- la traduction automatique, si possible en temps réel ou très légèrement différé ;
- le traitement automatique du langage naturel ;
- le raisonnement automatique (voir systèmes experts) ;
- le partitionnement et la classification automatique ;
- la composition musicale automatique (voir les travaux de René-Louis Baron et de l'Ircam ; plus récemment les recherches de François Pachet, ainsi que le développement de flowmachines telles que Deepbach<ref>Modèle:Lien web</ref>,<ref>Modèle:Lien web</ref>) ;
- la reconnaissance de formes, des visages et la vision en général, etc. ;
- l'intégration automatique d’informations provenant de sources hétérogènes, (fusion de données) ;
- l'émotion artificielle (voir les travaux de Rosalind Picard sur l'émotion) et l'éventualité d'une subjectivité artificielle ;
- etc.
Les réalisations actuelles de l’intelligence artificielle peuvent intervenir notamment dans les fonctions suivantes :
- l'aide aux diagnostics ;
- l'aide à la décision ;
- la résolution de problèmes complexes, tels que les problèmes d'allocation de ressources ;
- l'assistance par des machines dans les tâches dangereuses, ou demandant une grande précision ;
- l'automatisation de tâches.
Conception de systèmes
Au fil du temps, certains langages de programmation se sont avérés plus commodes que d’autres pour écrire des applications d’intelligence artificielle. Parmi ceux-ci, Lisp et Prolog furent sans doute les plus médiatisés. ELIZA (le premier agent conversationnel, donc pas de la « véritable » intelligence artificielle) tenait en trois pages de SNOBOL. On utilise aussi, plus pour des raisons de disponibilité et de performance que de commodité, des langages classiques tels que C ou C++. Lisp a eu pour sa part une série de successeurs plus ou moins inspirés de lui, dont le langage Scheme et les langages typés de la programmation fonctionnelle comme Haskell ou OCaml.
Aujourd'hui, ce sont Python et R qui fournissent les outils les plus riches dans ce domaine. Des plateformes comme TensorFlow et ses bibliothèques haut niveau ont démocratisé et accéléré le développement d'intelligences artificielles<ref>Modèle:Lien web</ref>.
Distinction entre intelligence artificielle, machine learning et deep learning
Il y a une confusion fréquente dans le débat public entre « intelligence artificielle », apprentissage automatique (machine learning) et apprentissage profond (deep learning). Pourtant, ces notions ne sont pas équivalentes, mais sont imbriquées :
- l'intelligence artificielle englobe le machine learning, qui lui-même englobe le deep learning<ref>Modèle:Lien web</ref> ;
- l'intelligence artificielle peut aussi englober plusieurs autres types de briques logicielles, comme les moteurs de règles<ref>Modèle:Lien web.</ref>.
Domaines d’application
L'intelligence artificielle a été utilisée (ou intervient) dans une variété de domaines.
Finance et banques
Certaines banques font appel à et développent des systèmes experts d'évaluation de risque lié à l'octroi d'un crédit (credit-scoring), notamment en utilisant ces systèmes pour la vérification des informations fournies, ou leur récupération et traitement de façon automatisée<ref>Modèle:Lien web</ref>. Un exemple est le score FICO.
Plusieurs grands noms de la finance se sont montrées intéressées par de telles technologies, avec des projets comme ceux de Bridgewater Associates où une intelligence artificielle va gérer entièrement un fonds<ref>« Bientôt un hedge fund contrôlé par intelligence artificielle ? », BFM TV, Modèle:Date-.</ref> ou encore la plateforme d'analyse prédictive Sidetrade.
Sont également développés des systèmes de trading algorithmique, dont les gains de vitesses permis par l'automatisation peuvent leur donner un avantage par rapport à des traders humains, en particulier grâce au trading à haute fréquence<ref>Modèle:Lien web.</ref>.
Militaire
Le domaine militaire utilise des systèmes tels que les drones, les systèmes de commandement et d'aide à la décision.
L’utilisation des intelligences artificielles dans le domaine militaire est devenu de plus en plus important. Les États-Unis ont dépensé Modèle:Nobr de dollars pour trois années de recherches dans tous les domaines requis à l’automatisation de l’armement militaire<ref>{{#invoke:Langue|indicationDeLangue}} Matthew Rosenberg et John Markoffoct, « The Pentagon’s ‘Terminator Conundrum’: Robots That Could Kill on Their Own », The New York Times.com, Modèle:Date-.</ref>.
Une course aux armements à base d'IA est en cours, telle qu'illustrée par le projet Maven aux États-Unis<ref>Modèle:Lien web.</ref>.
Jean-Christophe Noël, expert de l'Institut français des relations internationales (IFRI), rapporte qu'une IA, surnommée ALPHA, a fait ses premières classes en Modèle:Date- en Modèle:Citation<ref>Modèle:Article.</ref>.
En Modèle:Date-, la force opérationnelle IA du ministère des Armées français rend un rapport détaillant la stratégie de l'armée face à cette technologie, notamment la création d’une unité consacrée à l’intelligence artificielle au sein de l'Agence de l'innovation de défense (AID), ainsi qu'une Cellule de coordination de l’intelligence artificielle de défense (CCIAD). La loi de programmation militaire prévoit un budget de Modèle:Nobr d'euros pour les missions en faveur de l'IA, soit une moyenne de Modèle:Nobr par an<ref>Modèle:Ouvrage.</ref>.
Médecine
Modèle:Article détaillé La médecine a aussi vu de grands progrès grâce à l'utilisation de systèmes d'aide au diagnostic ou de diagnostic automatisé<ref>Modèle:Article</ref>.
En 2018, Google DeepMind, filiale de Google spécialisée dans la recherche avancée en intelligence artificielle, a publié les résultats d'une expérimentation d'intelligence artificielle pouvant détecter les maladies oculaires. Les résultats indiquent que l'IA le fait avec une marge d'erreur plus faible que les ophtalmologues<ref>Modèle:Article</ref>.
La France crée en 2019 le Health Data Hub afin de simplifier et encadrer l'utilisation des données de santé<ref>Modèle:Lien web</ref>.
Plusieurs systèmes intelligents ont pu être utilisés pour lutter contre la pandémie de Covid-19, notamment avec le superordinateur Fugaku 415-PFLOPS.
Renseignement policier
Un usage de l'IA se développe dans le domaine de la prévention des crimes et délits. La police britannique, par exemple, développe une IA de ce genre, annoncée comme pouvant être opérationnelle dès Modèle:Date-<ref>Modèle:Lien web.</ref>. Baptisée Modèle:Langue (Solution nationale d'analyse de données ou NDAS), elle repose sur l'IA et des statistiques et vise à estimer le risque qu'une personne commette un crime ou en soit elle-même victime, pour orienter les services sociaux et médicaux qui peuvent la conseiller.
L'usage d'outils de prédiction des crimes à partir des données préalablement existantes est toutefois l'objet de controverses, compte tenu des biais sociaux (notamment raciaux) qu'il comporte<ref>Modèle:Lien web.</ref>. En effet, la logique d'identification de schémas propre à ces technologies joue un rôle de renforcement des préjugés déjà existants.
Cybercrime
L'intelligence artificielle (IA) est de plus en plus exploitée dans le domaine du cybercrime, comme le révèle une étude de la société spécialisée en cybersécurité, SlashNext. Cette tendance croissante à l'utilisation de l'IA pour commettre des crimes en ligne montre une sophistication accrue des attaques.
L'entreprise SlashNext a notamment identifié l'usage de deux IA malicieuses, FraudGPT et WormGPT, tout en suggérant que ces découvertes ne représentent que la partie émergente d'un iceberg potentiellement colossal.
Lors de leurs investigations, les chercheurs de SlashNext ont également mis en lumière l'existence de DarkBart et DarkBert, deux chatbots malveillants en développement, capables d'intégrer la technologie de reconnaissance d'images de Google, Google Lens.
Ces chatbots pourraient non seulement envoyer du texte, mais aussi des images, et participer à des attaques d'ingénierie sociale avancées. Il est à noter que DarkBert a été initialement conçu comme un outil de lutte contre le cybercrime.
Face à cette menace croissante, les solutions actuelles de lutte contre le cybercrime semblent insuffisantes, comme l'indique un rapport d'Immunefi, soulignant les limites de certaines IA, telles que ChatGPT, dans la détection des exploits<ref>Modèle:Article</ref>.
Droit
Modèle:Article détaillé Le droit fait appel à l'IA dans la perspective de prédire les décisions de justice, d'aider à la décision et de trancher les cas simples<ref>Modèle:Lien web.</ref>. L'Estonie a par exemple développé une intelligence artificielle capable de prendre des décisions de justice sur des délits mineurs<ref name=":1">Modèle:Lien web.</ref>. Les États-Unis utilisent par ailleurs dans certaines juridictions le système Modèle:Lien(Modèle:Langue), un système d'aide de prise à la décision pour les juges<ref name=":1" />. Plusieurs startups se sont spécialisées dans ce créneau, créant le domaine de la Modèle:Langue<ref>Modèle:Lien web.</ref>.
Logistique et transports
Le domaine de la logistique a vu certains projets utilisant de l'intelligence artificielle se développer notamment pour la gestion de la chaîne logistique (supply chain) ou des problématiques de livraison telle celle du dernier kilomètre<ref>Modèle:Lien web</ref>.
L'intelligence artificielle est également fortement utilisée dans le domaine des transports en commun, car elle permet de faciliter la régulation et la gestion du trafic au sein de réseaux de plus en plus complexes, comme le système UrbanLoop actuellement en cours d'étude dans la ville de Nancy<ref>Modèle:Lien web</ref>.
Même si les problèmes d'optimisation de temps de trajet ou de transports font partie des plus anciennes applications de solutions à base d'intelligence artificielle (voir le problème du voyageur de commerce ou l'algorithme de Dijkstra), les avancées récentes, notamment en apprentissage profond, ont permis des progrès significatifs en matière de précision. Certains projets comme Google Maps utilisent par exemple des systèmes d'IA en milieu urbain pour compenser la réflexion du signal GPS sur les immeubles avoisinant<ref>Modèle:Lien web.</ref>, ou pour cartographier des zones où peu d'informations sont disponibles<ref>Modèle:Lien web.</ref>,<ref>Modèle:Lien web.</ref>.
Plusieurs entreprises ont par ailleurs annoncé avoir développé des programmes de recherche en voiture autonome, notamment Google à travers sa filiale Waymo, l'entreprise française Navya ou encore Tesla.
Industrie
Modèle:Article détaillé Les systèmes intelligents deviennent monnaie courante dans de nombreuses industries. Plusieurs tâches peuvent leur être confiées, notamment celles considérées comme trop dangereuses pour un humain<ref name=":5">Modèle:Harvsp.</ref>. Certains applications se concentrent sur les systèmes de maintenance prédictive, permettant des gains de performance grâce à une détection des problèmes de production en amont.
Robotique
Modèle:Article connexe La robotique a recours à l’intelligence artificielle à plusieurs égards. Notamment pour la perception de l'environnement (objets et visages), l'apprentissage et l'intelligence artificielle développementale<ref name=JITEC2018>Modèle:Article.</ref>,<ref>Modèle:Ouvrage.</ref>.
L'interaction homme-robot manque encore souvent de naturel et est un enjeu de la robotique. Il s'agit de permettre aux robots d'évoluer dans le monde dynamique et social des humains et d'échanger avec eux de façon satisfaisante<ref name=JITEC2018 />. L'échange nécessite également, à l'inverse, une évolution du regard que les humains portent sur les robots ; selon Véronique Aubergé, chercheuse à l’Université Grenoble-Alpes Modèle:Citation. D'ores et déjà, travers les robots dotés d'intelligence artificielle, tel Google Home, les utilisateurs combleraient un isolement social<ref name=JITEC2018 />.
Jeux vidéo
L'intelligence artificielle est par exemple utilisée pour animer les personnages non-joueurs de jeux vidéo, qui sont conçus pour servir d'opposants, d'aides ou d'accompagnants lorsque des joueurs humains ne sont pas disponibles ou désirés. Différents niveaux de complexité sont développés, d'une simple assistance à un comportement complexe imitant (ou dépassant) les meilleurs joueurs humains.
Art
Dès la fin des années 1980, des artistes s'emparent de l'intelligence artificielle pour donner un comportement autonome à leurs œuvres. Les Français Michel Bret, Edmond Couchot et Marie-Hélène Tramus sont des pionniers, ainsi qu'en témoignent des œuvres comme La Plume et Le Pissenlit (1988)<ref>Modèle:Lien web</ref>, puis La Funambule (2000), animée par un réseau de neurones. L’Américain Karl Sims, en partenariat avec la société Thingking Machines, crée en 1993 Genetic Images, machines incorporantModèle:Comment des algorithmes génétiques. Le couple franco-autrichien Christa Sommerer et Laurent Mignonneau crée depuis le début des années 1990 de nombreuses œuvres dans le champ de la vie artificielle, parmi lesquelles Interactive plant growing (1992) ou A-Volve (1994)Modèle:Référence nécessaire. Le Français Florent Aziosmanoff propose quant à lui de considérer que l’emploi de l’intelligence artificielle dans l’art conduit à l’émergence d’une nouvelle discipline d’expression, qu’il nomme le Living art<ref>Modèle:Ouvrage</ref>.
À partir de 2009, l'artiste Grégory Chatonsky utilise des réseaux récursifs de neurones pour générer la musique du groupe fictif Capture<ref>Capture.</ref>, qui donne lieu à un projet de recherche-création financé par le FQRSC. Il poursuit l'utilisation des réseaux de neurones dans un séminaire de recherche sur l'imagination artificielle<ref>Modèle:Lien web.</ref> à l'ENS et dans divers projets et, en particulier en 2019 avec Terre Seconde<ref>Modèle:Article</ref> exposé au Palais de Tokyo. Il publie en août 2022 Internes<ref>Modèle:Lien web.</ref>, le premier roman en langue française co-écrit avec une intelligence artificielle.
En Modèle:Date-, l'artiste Joseph Ayerle publie la vidéo d’art intitulée Modèle:Lang, dans laquelle il met en scène une Ornella Muti virtuelle, recréée par une intelligence artificielle. Après seulement quelques jours d’entraînement, l’intelligence artificielle est capable d’animer le visage de l’actrice italienne pour réaliser des scènes qu’elle n’a jamais jouées<ref>Modèle:Chapitre.</ref>.
Le Modèle:Date-, la société de vente aux enchères Christie's met en vente le tableau Portrait d'Edmond de Belamy réalisé par une intelligence artificielle à l'aide de réseaux antagonistes génératifs. La peinture est signée par la formule mathématique à l'origine de sa création (« Min (G) max (D) Ex [log (D(x))] + Ez [log(1-D(G(z)))] »)<ref>Modèle:Lien web.</ref>. Cette vente soulève de nombreux débats sur son statut de création artistique et sur l'auteur de l'œuvre : il peut être l'intelligence artificielle elle-même ou les trois créateurs qui l'ont programmée<ref>Modèle:Lien web.</ref>. L'œuvre est achetée pour Modèle:Unité<ref name="contrepoints 335364">Modèle:Lien web.</ref>. Cette vente peut être considérée comme une reconnaissance du GAN-isme (l'abréviation de Generative Adversarial Networks, « réseaux antagonistes génératifs » en français), un mouvement artistique qui utilise l’intelligence artificielle dans la création d'une œuvre picturale<ref name="contrepoints 335364"/>.
L'artiste numérique Solimán López<ref name=Clot>Modèle:Lien web.</ref> utilise l'intelligence artificielle comme outil pour créer des interactions inédites avec d'autres médias, outils et concepts. En 2019, dans High Meshes, il invente des micro-communautés de personnes réelles scannées en 3D par photogrammétrie. Ces données alimentent un logiciel d'intelligence artificielle qui rassemble les corps en fonction de leurs informations purement numériques sans tenir compte des questions raciales, sexuelles, religieuses, politiques ou culturelles. Dans le projet D.A.I, en 2018, des cartes d'identités de multiples pays sont analysées par une intelligence artificielle et aboutissent à de nouveaux papiers, symbolisant un monde sans frontières.
En 2022, les logiciels d'intelligence artificielle comme Midjourney, Stable Diffussion et DALL-E sont capable de créer des images à partir de descriptions textuelles<ref>Modèle:Lien web.</ref>,<ref>Modèle:Article</ref>. En mars 2023, des fausses photos d’actualité réalisées avec ces logiciels d'intelligence artificielle et diffusées sur Internet mettent en scène des personnalités dans des situations extravagantes et deviennent instantanément virales — le président Macron ramassant des poubelles, Donald Trump arrêté par des policiers<ref>Modèle:Lien web</ref>, le Pape habillé en doudoune blanche<ref>Modèle:Lien web</ref> - augmentant encore les craintes sur la manipulation de l'opinion.
Autres domaines
La domesticité, avec des robots employé de maison<ref>Modèle:Lien web.</ref>, ou pour certaines tâches précises comme en domotique.
En programmation informatique, notamment pour la maintenance prédictive, l'autocomplétion ou l'aide au développement<ref>Modèle:Lien web.</ref>.
En journalisme : des IA (appelées improprement « robots journalistes ») pourraient à terme aider les journalistes en les débarrassant de certaines tâches, notamment la veille, le bâtonnage de dépêches ou la vérification des fake news<ref>Modèle:Article</ref>.
La Corée du Sud propose la toute première animatrice télé virtuelle en Modèle:Date- lors d'un JT<ref>Modèle:Lien web</ref>.
En design : la conception assistée par ordinateur fait depuis longtemps appel à des algorithmes d'optimisation. En 2019, le créateur Philippe Starck lance ainsi une chaise développée en collaboration avec la société Autodesk, la « A.I.chair »<ref>Modèle:Lien web.</ref>.
Réglementation
Jusqu'à présent, l'intelligence artificielle n'est pas officiellement réglementée en Occident. Toutefois, tant les algorithmes que les données personnelles utilisées sont soumis aux règles du RGPD<ref>Modèle:Ouvrage</ref>.
Le Modèle:Date-, le groupe d'expert de haut niveau sur l'intelligence artificielle de l'Union européenne publie un document contenant des lignes directrices en matière d'éthique de l'intelligence artificielle<ref>Modèle:Lien web.</ref>.
Politique
Modèle:... En 2017, les Émirats arabes unis sont le premier pays au monde à se doter d'un ministre dédié à l'intelligence artificielle : Omar Sultan Al Olama<ref>Modèle:Lien web</ref>.
Questionnements
Les succès en IA encouragent les spéculations. Dans les milieux technophiles, on verse en général dans l'enthousiasme, le mouvement transhumaniste en est la meilleure expression. Au contraire, d'autres s’inquiètent et sont portées par des interrogations, parfois alarmistes, y compris dans la sphère de la haute technologie. Ainsi, des figures réputées telles que Bill Gates Modèle:Incise pensent qu'il faut rester très prudent quant aux développements futurs de ces technologies, qui pourraient devenir liberticides ou dangereuses.
Le développement de l'intelligence artificielle suscite un grand nombre de questions, notamment celle relative à la possibilité pour les IA ou algorithmes d'accéder un jour à la conscience, d'éprouver des émotions et finalement se substituer aux humains. Certaines de ces réactions sont ouvertement optimistes, d'autres sont au contraire pessimistes. En 2016, l'INRIA publie un premier Livre blanc consacré à l'IA<ref>Modèle:Article</ref>.
Dans son essai Intelligence artificielle, intelligence humaine : la double énigme, le philosophe Daniel Andler considère que le rêve d'une intelligence artificielle qui rejoindrait celle de l'homme n'est qu'une chimère, pour des causes conceptuelles et non techniques. Car l'intelligence humaine va selon lui plus loin que la simple résolution de problèmes : toutes ses autres tâches, basées sur des affects, de la spontanéité et une forme de contingence, ne seront jamais accessibles à une intelligence non humaine<ref>Modèle:Article</ref>.
Question de l'intelligence
La définition du terme « intelligence artificielle » pose une question fondamentale : Qu'est-ce que l'intelligence<ref name=":4" /> ?
Le chercheur en IA Yann Le Cun avance que le noyau de l'intelligence est la faculté de prédire. En effet, les bases de la programmation des premiers systèmes experts supposent de Modèle:Citation<ref name=":4">Modèle:Ouvrage.</ref>. Modèle:Référence souhaitée
Le philosophe John Searle considère quant à lui que la faculté de comprendre est plus importante dans la définition de l'intelligence. Il démontre la faiblesse des systèmes d'intelligence artificielle et les limites du test de Turing, par son expérience de la chambre chinoise, d'où sa conclusion : Modèle:Citation<ref name=":4" />.
Espoirs et enthousiasme
Une description d’un possible avenir de l’intelligence artificielle a été faite par le statisticien anglais Irving John Good : Modèle:Citation bloc
La mutation qu'évoque Good correspond à un changement « qualitatif » du principe même de progrès, que certains nomment « singularité »<ref>Eliezer Yudkowsky, Scruter la Singularité, Modèle:Date- Modèle:Lire en ligne (trad. de {{#invoke:Langue|indicationDeLangue}} Staring into the Singularity , 1996).</ref>. Ce concept est central pour de nombreux transhumanistes, qui s'interrogent sur les dangers ou les espoirs d'un tel scénario, certains allant jusqu'à envisager l'émergence d'un « dieu » numérique appelé à prendre le contrôle du destin de l'humanité, ou à fusionner avec elle.
Good estimait à un peu plus d'une chance sur deux la mise au point d'une telle machine avant la fin du Modèle:S mini- siècleModèle:Vérification siècle. La prédiction ne s’est toujours pas réalisée, en 2012, mais elle a imprégné le public à l'époque, notamment lors de la victoire de Deep Blue sur Garry Kasparov. Une partie du grand public était en effet persuadée qu’IBM venait de mettre au point le vecteur d’une telle explosion de l’intelligence et que cette compagnie en tirerait profit. L’espoir a été déçu : une fois sa victoire acquise, Deep Blue, simple calculateur évaluant Modèle:Nobr de positions à la seconde, sans conscience du jeu lui-même, a été reconverti en machine classique utilisée pour l'exploration de données.
Le développement de l'intelligence artificielle suscite l'enthousiasme des transhumanistes, notamment celui de l'ingénieur américain Ray Kurzweill, selon qui il est évident qu'à plus ou moins long terme, l'intelligence Modèle:Incise deviendra progressivement non-biologique et considérablement plus puissante au point que des cyborgs remplaceront les humains, cela en vertu de ce qu'il appelle le « principe de singularité »<ref>Ray Kurzweill, Humanité 2.0 : La Bible du changement, 2007 (édition originale : {{#invoke:Langue|indicationDeLangue}} The Singularity is Near: When Humans Transcend Biology, 2007).</ref>.
Critiques et inquiétudes
Le développement de l'intelligence artificielle génère de l'enthousiasme, mais aussi de vives inquiétudes. Certains auteurs de science-fiction, tels Isaac Asimov, William Gibson ou Arthur C. Clarke, sur le modèle du récit de L'Apprenti sorcier, décrivent le risque d'une perte de contrôle des humains sur le processus technique. Dans les années 2010, différents intellectuels ont également pris position. Ainsi de l'astrophysicien Stephen Hawking, selon qui l'intelligence artificielle risque réellement de surpasser un jour l'intelligence humaine et de finir par dominer l'humanité, voire de s'y substituer<ref>Modèle:Lien web</ref>,<ref>Modèle:Lien web.</ref>. Il pose en Modèle:Date- au salon technologique Web Summit de Lisbonne la question suivante « Serons-nous aidés par l’intelligence artificielle ou mis de côté, ou encore détruits par elle ? »<ref>Modèle:Lien web.</ref>.
Dans le milieu de la haute technologie, certains expriment publiquement des craintes similaires. C'est ainsi le cas, en 2015, de Bill Gates, Elon Musk et Bill Joy<ref>L'intelligence artificielle inquiète les grands cerveaux contemporains, France 24, Modèle:Date-.</ref>. Selon le spécialiste américain de l'informatique Moshe Vardi, l'intelligence artificielle pourrait mettre 50 % de l'humanité au chômage. Modèle:Citation<ref>Modèle:Lien archive.</ref>.
Hilary Mason, directrice de la recherche à Cloudera, critique le sensationnalisme entourant l'intelligence artificielle et prône une vision utilitariste et technique de cette technologie<ref>Modèle:Lien web</ref>.
Maitrise de la technologie
Certains industriels prennent ces risques au sérieux. Ainsi, en 2016, Google pose la question de la potentielle perte de contrôle d'intelligences artificielles qui pourraient apprendre à empêcher leur interruption dans une tâche. C'est dans ce sens que la firme développe un « bouton rouge » intégré en bas niveau dans les IA permettant de désactiver les intelligences artificielles, sans possibilité de contournement par celles-ci (au-delà de simplement « tuer » l'IA, l'objectif de ce « bouton rouge » est aussi de la geler dans son process, en évitant de l'arrêter, et éviter ainsi une remise à zéro des apprentissages ou des calculs en cours)<ref>Modèle:Article.</ref>.
Cependant, un tel mécanisme d'arrêt pourrait ne pas suffire face à une IA suffisamment avancée, qui pourrait être en mesure de cacher des intentions dangereuses, de manipuler ses détenteurs, de désactiver le mécanisme d'arrêt ou encore de se dupliquer. Selon Nick Bostrom, la seule solution viable à long terme consiste à trouver comment aligner les intelligences artificielles avec des valeurs humaines et morales<ref>Modèle:Lien web</ref> :
Roman V. Yampolskiy, professeur de science informatique à l'université de Louisville, évoque pourquoi et comment une IA obtient un résultat, pour s'assurer qu'il corresponde bien à l'attendu, sans biais : Modèle:Citation<ref>Modèle:Lien web.</ref>.
Enjeux sociétaux
Ce risque est aussi considéré sur le plan juridique. Ainsi, le Parlement européen a demandé à une commission d'étudier la possibilité qu'un robot doté d'une intelligence artificielle puisse être considéré comme une personne juridique<ref>Modèle:Lien web.</ref>. Advenant un dommage causé à un tiers par une intelligence artificielle, celle-ci pourrait être condamnée à réparer ce dommage. Il serait envisageable de conférer une personnalité électronique à tout robot prenant des décisions autonomes ou interagissant de manière indépendante avec des tiers, au même titre qu'une personne morale et physique.
Aux États-Unis, Anthony Levandowski, le père de la voiture autonome, a fondé une organisation religieuse qui fait la promotion d’une « divinité » reposant sur une intelligence artificielle. Cette organisation, appelée « Way of the Future » (« La voie de l’avenir ») existerait depuis Modèle:Date-<ref>Mélinée Le Priol, « Une nouvelle religion fondée sur l’intelligence artificielle suscite des inquiétudes », La Croix, Modèle:Date-.</ref>.
Enjeux environnementaux
Un autre problème est l'énorme quantité de ressources rares, de serveurs et d'énergie consommée par l'informatique sous-jacente à l'IA.
Critique de la technique et de la technologie
Comme l'explique l'historien François Jarrige, la critique de l'intelligence artificielle trouve son origine dans celle - plus ancienne et plus générale - des techniques et de la technologie, dont Lewis Mumford (aux États-Unis)<ref>Lewis Mumford, Le Mythe de la machine, deux volumes, 1967-1970; tard., Fayard, 1974.</ref>, Jacques Ellul (en France)<ref>Jacques Ellul, La Technique ou l'Enjeu du siècle, 1954; Modèle:3e : Economica 2008.</ref> et Günther Anders (en Allemagne)<ref>Günther Anders, L'obsolescence de l'homme, tome 1, 1956; tome 2, 1980; tard. fr.2002 et 2011.</ref> sont au Modèle:S mini- siècleModèle:Vérification siècle les principaux instigateurs, et qui inspire aujourd'hui différents cercles militants (en France, par exemple : Pièces et Main d'Œuvre<ref>Pièces et Main d'Œuvre Site officiel.</ref> et Technologos<ref>Technologos Site officiel.</ref>)<ref>François Jarrige, Techno-critiques. Du refus des machines à la contestation des technosciences, La Découverte, 2014.</ref>.
Selon Jarrige, leurs thèses restent peu connues ou controversées du fait que le « progrès » et l'« État » restent encore largement surestimés. Ainsi, reprenant les analyses d'Ellul<ref>Jacques Ellul, L'Illusion politique, 1965; Modèle:3e : La Table ronde, 2004.</ref>, les animateurs du groupe Technologos estiment que l'État est de loin le moins qualifié pour enrayer l'autonomisation du processus technicien<ref>Technologos, "Qui sommes-nous ?", articles 31 à 33.</ref> et qu'il appartient aux individus de briser les mythes de l'État-providence et du progrès technique : « Ce n'est pas la technique qui nous asservit mais le sacré transféré à la technique (…). Ce n'est pas l'État qui nous asservit, c'est sa transfiguration sacrale »<ref>Modèle:Ouvrage.</ref>.
Dans un rapport en date de Modèle:Date- intitulé The Malicious Use of Artificial Intelligence 26 experts spécialistes en intelligence artificielle mettent en garde contre les dangers d'un usage criminel de l'IA : augmentation de la cybercriminalité, conduire à des utilisations de drones à des fins terroristes, manipulation de masseModèle:Etc.<ref>Modèle:Lien web.</ref>.
Vers des alternatives open source ?
En mars 2023, comme alternative aux géants du Web et du Modèle:Anglais, qui ont le plus de pouvoir et d'influence, Mozilla a annoncé vouloir investir Modèle:Nobr de dollars dans un projet baptisé Mozilla.ai, qui est à la fois une startup et une communauté, indépendante des géants de la tech et de la recherche académique<ref>Intelligence artificielle digne de confiance ; La majorité des efforts de Mozilla pour donner de l’élan au mouvement sont orientés vers le développement d’une intelligence artificielle (IA) digne de confiance. La santé d’Internet ; Qu’entendons-nous par « santé d’Internet » ?, Mozilla Fondation (2023) (lire en ligne, consulté le 22 avril 2023).</ref>. Le projet vise à créer, dans le respect des valeurs de son manifeste (notamment transparence et responsabilité), un système d’IA Modèle:Citation qui puisse faire Modèle:Citation aux IA privées en émergence<ref>Modèle:Lien web.</ref>.
Appels à des règles éthiques pour l'IA
Dans la seconde moitié des années 2010, des lanceurs d'alerte et des enquêtes laissent penser que l'IA, encore émergente, est déjà utilisée à des fins malveillantes pour faire basculer des processus électoraux. Le premier cas détecté a été la plate-forme RIPON, secrètement créée par le Groupe SCL, à la demande de Steve Bannon et du milliardaire américain Robert Mercer, mise au service de groupes politiques presque tous libertariens de droite ; Ripon a été un outil de désinformation, de production et de diffusion de Modèle:Anglais à grande échelle<ref name=RapportGvtRU_fev2019c>{{#invoke:Langue|indicationDeLangue}} House of Commons Digital, Culture, Media and Sport Committee (2019) Disinformation and ‘fake news': Final Report ; Eighth Report of Session 2017–19 ; Report, together with formal minutes relating to the report ; rapport commandé par the House of Commons, Ref HC 1791, publié le 18 février 2019, imprimé le 14 février 2019 pour le Gouvernement britannique. Voir notamment paragraphe 149.</ref>Modèle:Refnc,<ref>Modèle:Lien web.</ref>. Ripon ne sera découvert que parce qu'elle a été au cœur du scandale Facebook-Cambridge Analytica/Aggregate IQ). Cette IA a été, au moins durant quelques années, dans les années 2010, utilisée pour tromper et manipuler un grand nombre d'électeurs, par exemple, avec succès, pour faire élire Donald Trump lors de l'élection présidentielle américaine de 2016, ou pour faire advenir le Brexit<ref name="francetvinfo.fr">Modèle:Lien web.</ref>, ainsi que pour orienter des dizaines d'élections dans le monde.
Le Modèle:Date-, les géants du secteur de l'intelligence artificielle mettent en place un « partenariat pour l'intelligence artificielle au bénéfice des citoyens et de la société »<ref>Modèle:Article.</ref>. L'année suivante, Google DeepMind se dote d'une unité interne pour aborder les questions éthiques<ref>Modèle:Article.</ref>.
Le Modèle:Date-, Modèle:Unité, ingénieurs et personnalités du secteur de l'intelligence artificielle signent une lettre ouverte<ref>Modèle:Lien web.</ref>, s'engageant à Modèle:Citation. La lettre précise notamment que « La décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. ». Parmi les signataires, se trouvent Elon Musk, les dirigeants de Google DeepMind, Stuart Russell, Yoshua Bengio ou encore Toby Walsh<ref>Modèle:Article</ref>.
Fin 2020, l'UNESCO a rejoint (en tant qu'observateur, comme l'OCDE) le Conseil et le Comité directeur du Partenariat mondial sur l'intelligence artificielle, avec la possibilité de participer activement aux travaux de ces organes<ref>L'UNESCO rejoint le Partenariat mondial sur l'Intelligence Artificielle comme observateur, UNESCO, 2022.</ref>.
En avril 2021 à la suite de la publication, début 2020, d'un Livre blanc sur l’intelligence artificielle, publié en février 2020, la Commission européenne propose un projet de début de cadre juridique (règlement européen)<ref>Commission européenne (21 avril 2021) Une Europe adaptée à l'ère du numérique: La Commission propose de nouvelles règles et actions en faveur de l'excellence et de la confiance dans l'intelligence artificielle ; Communiqué de presse Bruxelles | https://ec.europa.eu/commission/presscorner/detail/fr/ip_21_1682</ref>Modèle:Refnc sur l'intelligence artificielle, reposant sur l’éthique et visant à prévenir les risques inhérents à ces technologies. Ce projet classe les risques, dont le plus grave est qualifié comme suit par la Commission : Modèle:Bloc citation
En décembre 2022, le « premier forum mondial sur l'éthique de l'IA », réunion ministérielle internationale, est réuni à Prague, sous l'égide de l'UNESCO<ref>Premier Forum mondial sur l'éthique de l’IA à Prague, un an après l'adoption de la Recommandation de l'UNESCO, UNESCO, 2022.</ref>.
Demandes de moratoire
Début 2023, l'apparition de ChatGPT suscite une grande curiosité, de l'enthousiasme, mais aussi des craintes sérieuses : Modèle:Citation affirment Elon Musk, Steve Wozniak (cofondateur d'Apple) et des centaines d'experts. Le Modèle:Date-, ceux-ci, invoquant des Modèle:Citation, signent une pétition qui appelle le monde à un moratoire d'au moins six mois sur ces recherches, jusqu'à la mise en place de systèmes de sécurité, incluant : la création d'autorités réglementaires dédiées, des moyens pour efficacement surveiller des IA et des systèmes les utilisant, la mise à disposition de techniques permettant de mieux différencier le réel de l'artificiel, et la création d'institutions pouvant limiter les Modèle:Citation<ref name=TechIngenieursActu30mars2023>Modèle:Lien web.</ref>.
Cet appel a été publié la veille du jour (30 mars 2023) où l'Unesco, estimant que Modèle:Citation a publié un communiqué demandant à tous les États de mettre en œuvre une recommandation, rédigée par 24 experts, adoptée le 23 novembre 2021, et publiée en 2022<ref name=RecomandationsONU_Unesco2022>Modèle:Lien web</ref> visant à construire un cadre législatif et éthique pour l'intelligence artificielle (IA). Il ne s'agit pas de se priver de l'IA, mais de ne l'utiliser que quand les atouts qu'elle peut offrir sont bien identifiés, et que quand on peut éviter, limiter, réparer les risques qui lui sont associés (en particulier lors d'usages non-pacifiques, malveillants et/ou aggravant les inégalités et des clivages) ; l'ONU, via cette recommandation invite à ne pas utiliser l'IA quand elle met en péril la protection des données (tous les individus devraient pouvoir accéder aux enregistrements de leurs données personnelles, et même les effacer, et la capacité des organismes de réglementation du monde entier à faire respecter ces dispositions doit être renforcée). Il s'agit aussi d'interdire la notation sociale et la surveillance de masse, contraires aux droits de l’homme et aux libertés fondamentales, et elles sont utilisées de manière généralisée. Modèle:Citation. Les IA doivent être évaluées du point de vue de leurs impacts éthiques sur les individus, la société et l’environnement en créant une infrastructure juridique et technique ad hoc, et en créant un responsable (indépendant) de l’éthique de l’IA ou d'autre mécanisme pour surveiller les IA. Ceux qui créent des IA devraient Modèle:Citation pour en faire un outil dans la lutte contre le changement climatique et la dégradation de l'environnement. Les gouvernements sont invités, lors du cycle de vie du système d’IA à analyser son Modèle:Citation, tout en cherchant à diminuer l’impact environnemental du numérique, dont en investissant dans les technologies vertes. Modèle:Citation<ref name=recommandationUnesco2022> UNESCO (2023) Recommandation sur l’éthique de l’intelligence artificielle </ref>.
Cette recommandation, qui avait été adoptée, à l'unanimité, par les Modèle:Nobr-membres, faisait suite à trois ans de travail préparatoire ; Modèle:Citation et en 2023 il est devenu Modèle:Citation a commenté Audrey Azoulay (directrice générale de l'Unesco)<ref name=TechIngenieursActu30mars2023/>. L'ONU appelle ainsi les États qui ne l'ont pas déjà fait à rejoindre les plus de Modèle:Nobr « de toutes les régions du monde » qui ont commencé à créer de tels garde-fous, pour notamment créer un outil législatif capable d'encadrer et de surveiller les IA, tout en veillant à la protection des données personnelles et sensibles, et en sensibilisant la population mondiale à un usage responsable de l'IA<ref name=TechIngenieursActu30mars2023/>.
IA et création artistique
Modèle:Article détaillé Midjourney, Dall-E, Stable Diffusion... Les outils de création artistique utilisant l'intelligence artificielle se multipliant, les craintes augmentent sur un détournement de leur usage : artistes spoliés<ref>Intelligence artificielle : «Le droit d’auteur protège une création précise, mais pas une manière de créer», Clémentine Mercier, 31 décembre 2022, Libération.</ref>,<ref>Modèle:Vidéo Pourquoi les intelligences artificielles mettent en péril les artistes, Caurentin Courtois et Clémentine Mercier, 18 janvier 2023, Libération.</ref>, deepfakes<ref> {{#invoke:Langue|indicationDeLangue}} Deep fakes: Can you distinguish between fake and genuine photos?, Manos Tsakiris, 31 janvier 2023, World Economic Forum.</ref>, manipulation de l'opinion<ref>{{#invoke:Langue|indicationDeLangue}} The AI program used to generate fake viral images of Pope Francis and Donald Trump just suspended free trials — but professional photographers say they're still concerned, Jordan Hart, 30 mars 2023, Business Insider.</ref>, de plus en plus de voix s'élèvent pour que leur usage soit contrôlé et réglementé<ref name=recommandationUnesco2022/>. Modèle:Média externe
IA et emploi
L'inquiétude du remplacement du travail humain par des machines n'est pas nouveau, et cette question est déjà présente chez certains économistes du Modèle:S mini- siècleModèle:Vérification siècle comme Modèle:Lien, ou David Ricardo dans le premier chapitre Des principes de l'économie politique et de l'impôt. En 1995, Jeremy Rifkin publie End of Work: The Decline of the Global Labor Force and the Dawn of the Post-Market Era (en français : « La fin du travail : Le déclin de la force globale de travail dans le monde et l'aube de l'ère post-marché »). Les prédictions de la fin du travail sont donc courantes et accompagnent presque systématiquement les « grappes d'innovations ».
Le Modèle:Date-, deux chercheurs d'Oxford, Modèle:Lien et Michael A. Osborne, publient un rapport prospectif sur les impacts de l'intelligence artificielle et de la robotisation sur l'emploi : The Future of Employment: How Susceptible Are Jobs to Computerisation?<ref>{{#invoke:Langue|indicationDeLangue}} Carl Benedikt Frey et Michael A. Osborne, The Future of Employment: How Susceptible Are Jobs to Computerisation?, Modèle:Date- Modèle:Lire en ligne Modèle:Pdf.</ref>. Ils y prédisent que 47 % des emplois pourraient être automatisés d'ici 2030. Ce rapport connaît un grand retentissement dans le monde académique et nourrit les inquiétudes autour de l'impact de l'intelligence artificielle sur l'emploi. Des critiques de ce rapport se sont formées. Tout d'abord, Osborne et Frey raisonnent en emploi constant, or selon Joseph Schumpeter et son principe de destruction créatrice, si certaines innovations détruisent des emplois, elles en créent aussi par ailleurs. David Autor, dans son article « Why Are There Still So Many Jobs? The History and Future of Workplace Automation » publié en 2015, nuance les prédictions de Frey et Osborne et s'interroge ainsi plutôt sur les modifications de la structure du marché de l'emploi due à l'intelligence artificielle<ref>{{#invoke:Langue|indicationDeLangue}} David H. Autor, « Why Are There Still So Many Jobs? The History and Future of Workplace Automation », Journal of Economic Perspectives, Modèle:Vol., no 3, été 2015, Modèle:P. Modèle:Lire en ligne Modèle:Pdf.</ref>.
Intelligence artificielle et travail numérique
Malgré les progrès importants de l'intelligence artificielle ces dernières années, l'hypothèse de la fin du travail ne semble pas encore réalisée. Cependant, la structure du marché de l'emploi connaît de grands changements à cause de l'intelligence artificielle. Selon le sociologue Antonio Casilli, les différentes formes d'activités humaines nécessaires à la production d'intelligence artificielle, ou Modèle:Citation (Modèle:Citation étrangère), concept forgé dans les années 2000 pour désigner l'ensemble des activités en ligne, créatrices de valeurs, le plus souvent captées par les grandes plateformes numériques, est consubstantiellement lié à la production des intelligences artificielles et peut être analysé en trois catégories<ref>Antonio A. Casilli, En attendant les robots : Enquête sur le travail du clic, Éditions du Seuil, 2019 Modèle:ISBN.</ref>,<ref>Modèle:Lien web</ref>,<ref name=":2">Modèle:Lien web.</ref> :
- Travail à la demande
- Cette forme a la particularité d'être à la fois en ligne et hors ligne. C'est le travail lié aux plateformes d'appariement algorithmique comme Uber, Deliveroo, ou même Airbnb, etc. Dans le cas du travail à la demande, l'intelligence artificielle ne remplace pas le travail humain mais elle permet plutôt une optimisation de la rencontre de l'offre et de la demande sur un certain marché. Cette forme de digital labour est moins liée à la production d'intelligence artificielle que les deux suivantes, en revanche, l'intelligence artificielle et l’algorithmique bousculent la structure de l'emploi des secteurs d’activités concernés. L'optimisation algorithmique de la rencontre de l'offre et la demande encourage un système de rémunération à la tâche et prive les travailleurs du statut de salarié. Dans ce cas-là les conséquences de l'intelligence artificielle sur l'emploi concernent davantage une modification du statut des travailleurs, qu'un remplacement de l'homme par la machine. La tâche reste la même, seules les conditions d'emploi et de rémunération changent.
- Micro-travail
- L'émergence du micro-travail est très étroitement lié à la production d'intelligence artificielle, notamment dans la phase d’entraînement et de calibrage des algorithmes. En effet tous les algorithmes d'intelligence artificielle (particulièrement ceux utilisant la technologie du deep-learning) ont besoin d'une quantité incroyable de données pour réaliser leur apprentissage et devenir fonctionnels. Or il n'existe pas à ce jour d'autre solution que d'avoir recours à la main d’œuvre humaine pour fournir ces quantités de données. C'est Amazon, l'un des leaders mondiaux de l'intelligence artificielle qui possède la plus grande plateforme de micro-travail : Amazon Mechanical Turk créée en 2005. Les autres leaders de l'intelligence artificielle utilisent également les services de plateformes de micro-travail : Google se sert d'EWOK, Microsoft d'UHRS et IBM de Mighty IA<ref>Modèle:Site officiel.</ref>. Ces micro-tâches numériques sont en général : rédiger de courts commentaires, cliquer, regarder des vidéos ou des photos, traduire un texte, donner de la visibilité à un site Web, créer des playlists musicales, taguer des images ou reconnaître des visages ou des objets dans les photos. Aux micro-tâches s'appliquent des micro-paiements : certaines sont payées en centimes de dollars, un ou deux dollars pour les plus élaborées. L'institut américain Pew Research Center estime que les deux tiers des tâches proposées sur Amazon Mechanical Turk sont rémunérées moins de Modèle:Nobr et la moyenne horaire de salaire était évaluée par des chercheurs à Modèle:Nobr par heure en 2010<ref>Modèle:Article.</ref>. Selon une étude de la Banque mondiale de 2013, il avait alors plus d’une centaine de plates-formes de micro-travail dans le monde, comptabilisant autour d'un million d’inscrits<ref>Modèle:Lien web.</ref>, mais des enquêtes plus récentes ont vu ce nombre largement rehaussé, les estimations les plus actuelles allant de quelques dizaines de millions, à plus de Modèle:Nobr de micro-travailleurs dans le monde<ref>Modèle:Lien web.</ref>. En France il y aurait environ Modèle:Unité<ref>Modèle:Lien web.</ref>. Le micro-travail peut être considéré comme le droit héritier du taylorisme qui s'est adapté à l'économie numérique.
- Travail social en réseau
- Certains sociologues, parmi lesquels Antonio Casilli, considèrent que la présence en ligne, sur les plateformes qui captent nos données personnelles, peut être considéré comme une forme de travail<ref name=":2" />. En effet cette activité en ligne est essentielle à la production de données qui seront par la suite utilisées afin de faire progresser les algorithmes. Cette activité pourrait donc être considérée comme du travail, dans la mesure où elle est créatrice de valeur pour les plateformes.
Malgré les craintes qui règnent autour de l'hypothèse de la fin du travail, cette idée semble actuellement relever du fantasme. Le travail humain demeure essentiel à la phase d'apprentissage des intelligences artificielles. Même entraînée et fonctionnelle, une intelligence artificielle nécessite souvent des vérifications humaines afin d'assurer son bon fonctionnement. L'exemple le plus notoire dans le domaine est celui des assistants vocaux, Amazon assume écouter les conversations des utilisateurs d'Alexa afin « d'améliorer l'expérience utilisateur »<ref>Modèle:Lien web.</ref>, or ce sont bien des humains qui sont derrière ces écoutes. De même les voitures dites autonomes d'Uber ne peuvent pas fonctionner sans opérateur de conduite, qui n'est pas au volant, mais qui doit guider le véhicule en participant à la reconnaissance d'images fournis par les caméras en direct. Uber a d'ailleurs décidé de doubler le nombre de ces opérateurs de conduite après le premier accident mortel de début 2018<ref>Modèle:Lien web.</ref>. L'analyse du digital labour met en lumière toute l'ambivalence actuelle de l'intelligence artificielle. Lorsque les grandes plateformes du numérique et les ingénieurs annoncent le remplacement de l'homme par les machines, une étude sociologique concrète nous montre que pour l'instant, le travail humain est essentiel pour combler les lacunes de l'intelligence artificielle. Il semble donc que derrière les promesses d'automatisation, se cache finalement une précarisation du statut des travailleurs (dans le cas du travail à la demande), un parcellisation extrême des tâches (dans le cas du micro-travail) et une invisibilisation du travail (dans le cas du travail social en réseau)<ref>Modèle:Article.</ref>.
Perspectives et projections dans le futur
Des chercheurs de l’Institut de l’avenir de l’humanité de l’université d'Oxford, de l’Université Yale et d’AI Impact ont sondé 352 experts en apprentissage par machine pour prévoir les progrès de l’IA au cours des prochaines décennies<ref name="cornell24052017">{{#invoke:Langue|indicationDeLangue}} Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, Owain Evans, « When Will AI Exceed Human Performance? Evidence from AI Experts », arxiv.org, Modèle:Date-.</ref>.
Les experts ont été interrogés sur le calendrier des capacités et des professions spécifiques, ainsi que leurs prédictions quant à savoir quand l’IA deviendra supérieure aux humains dans toutes les tâches<ref name="cornell24052017"/>. Et quelles en seraient les implications sociales également<ref name="cornell24052017"/>. Les chercheurs ont prédit que les machines seront meilleures que les humains dans le domaine de la traduction de langues d’ici 2024<ref name="cornell24052017"/>. Elles seraient capables de rédiger des essais d’ici 2026<ref name="cornell24052017"/>. De conduire des camions d’ici 2027 et travailler dans le commerce et la vente en 2031<ref name="cornell24052017"/>.
D’ici 2050, elles pourront écrire des best-sellers ou exécuter des travaux de chirurgiens<ref name="cornell24052017"/>. Selon les chercheurs, il y a 50 % de chance pour que l’intelligence artificielle dépasse les humains dans tous les domaines en seulement Modèle:Nobr<ref name="cornell24052017"/>. Et, selon la même probabilité, les machines pourraient prendre en charge tous les emplois humains en Modèle:Nobr<ref name="cornell24052017"/>. Certains chercheurs prévoient même que cela pourrait se produire plus tôt<ref name="cornell24052017"/>.
Dans la science-fiction
Modèle:Article connexe Modèle:Catégorie connexe
Une machine ayant une conscience et capable d’éprouver des sentiments Modèle:Incise est un grand thème classique de la science-fiction, notamment des romans d’Isaac Asimov sur les robots<ref>Modèle:Lien web</ref>.
Ce sujet a toutefois été exploité très tôt, comme dans le récit des aventures de Pinocchio, publié en 1881, où une marionnette capable d’éprouver de l’amour pour son créateur cherche à devenir un vrai petit garçon, ou dans L'Homme le plus doué du monde, une nouvelle de l'Américain Edward Page Mitchell où le cerveau d'un simple d'esprit est remplacé par un ordinateur inspiré des recherches de Charles Babbage<ref>Modèle:Lien web</ref>. Le roman Le Miroir flexible de Régis Messac propose quant à lui le principe d'une intelligence artificielle faible, mais évolutive, avec des automates inspirés de formes de vie simples, réagissant à certains stimuli tels que la lumière. Cette trame a fortement inspiré le film A.I. Intelligence artificielle réalisé par Steven Spielberg, sur la base d'idées de Stanley Kubrick, lui-même inspiré de Brian Aldiss<ref>Modèle:Lien web</ref>. L'œuvre de Dan Simmons, notamment le cycle d'Hypérion, évoque l'intelligence artificielle. Destination vide, de Frank Herbert, met en scène de manière fascinante l'émergence d'une intelligence artificielle forte. Plus récemment, l'écrivain français Christian Léourier a placé une intelligence artificielle au cœur de son roman court Helstrid (2018), dans lequel cette IA laisse un être humain mourir, contrevenant ainsi aux trois lois de la robotique instaurées par Isaac Asimov près de quatre-vingts ans plus tôt.
Les androïdes faisant preuve d'intelligence artificielle dans la fiction sont nombreux : le personnage de Data de la série télévisée Star Trek : The Next Generation est un être cybernétique doué d'intelligence, avec des capacités importantes d'apprentissage. Il est officier supérieur sur le vaisseau Enterprise et évolue aux côtés de ses coéquipiers humains qui l'inspirent dans sa quête d'humanité. Son pendant cinématographique est Bishop dans les films Aliens (1986) et Alien 3 (1992). Dans le manga Ghost in the Shell, une androïde s’éveille à la conscience. Dans la saga Terminator avec Arnold Schwarzenegger, le T-800 reprogrammé, conçu initialement pour tuer, semble dans la capacité d'éprouver des sentiments humains. Par ailleurs, les Terminators successifs sont envoyés dans le passé par Skynet, une intelligence artificielle qui a pris conscience d'elle-même, et du danger que représentent les humains envers elle-même<ref>Modèle:Lien web</ref>.
Quelques IA célèbres dans la science-fiction
- 1968 : 2001, l'Odyssée de l'espace de Stanley Kubrick, inspiré de la nouvelle La Sentinelle d'Arthur C. Clarke, également auteur du scénario du film, décrit notamment la lutte entre l’ordinateur HAL et l'humain Dave.
- 1969 : Le Cerveau d'acier, d’après le roman de Modèle:Lien de 1967, montre un système d’IA militaire américain contacter son homologue russe pour qu’ils coopèrent à leur mission commune, éviter la guerre nucléaire (en neutralisant les humains).
- 1981 : dans Blade Runner de Ridley Scott, inspiré d'un roman de Philip K. Dick, des humains artificiels (des « répliquants ») reviennent sur terre après une mission spatiale, mais n’acceptent pas leur mort programmée à la suite du succès de leur mission.
- 1982 : dans K 2000, une Pontiac Trans-Am embarque une intelligence artificielle au nom de KITT, conçue pour réaliser des diagnostics pour les dossiers de la F.L.A.G. Elle ne peut ressentir des émotions, ne peut porter atteinte à la vie d’autrui et n'écoute que les ordres de Michael Knight. Une partie de l'histoire repose sur l'importance de la programmation, notamment à travers son jumeau maléfique et prototype K.A.R.R. dont la principale différence est d'avoir un instinct de survie qui prédomine.
- 1982 : Tron de Steven Lisberger, où le Maître contrôle principal (MCP) est un programme d'échecs qui a évolué en IA et tente de prendre le contrôle total du système.
- 1985 : D.A.R.Y.L. est un androïde que le gouvernement américain cherche à détruire.
- 1999 : Matrix, trilogie cinématographique de science-fiction dans laquelle les humains, enfermés dans un monde créé par l'IA, sont asservis par les machines. Une petite poche de résistance humaine résiste et se bat encore dans l'espoir de la venue de l'Élu : Neo.
- 1999 : L'Homme bicentenaire, où un exemplaire de NDR-114 dénommé « Andrew » poursuit un long chemin vers l'acquisition de la conscience, au point de se voir reconnaitre le statut d'être humain à la fin de sa « vie ». Il s'agit d'une adaptation de la nouvelle éponyme d'Isaac Asimov.
- 2001 : A.I. Intelligence artificielle de Steven Spielberg, inspiré de la nouvelle de Brian Aldiss Les Supertoys durent tout l'été. Le personnage central est un enfant-robot doué d’émotions et de sentiments.
- 2003 - 2007 : Code Lyoko dessin animé où une I.A appelée X.A.N.A tente de prendre le contrôle du réseau mondial après avoir accédé à la conscience.
- 2004 : I, Robot, inspiré de l’œuvre de Isaac Asimov et thème semblable au film AI.
- 2008 : J.A.R.V.I.S. (Just A Rather Very Intelligent System) dans les films Iron Man, Avengers, etc. avec Robert Downey Jr., inspiré des comics de Marvel.
- 2011-2016 : la série télévisée Person of Interest met en scène un groupe de personnes guidées par une intelligence artificielle capable de prédire des crimes.
- 2012-2014 : la série télévisée Real Humans : 100 % humain décrit l'émergence de robots doués de conscience au sein de la société humaine.
- 2015 : Ex Machina de Alex Garland, dans lequel un test de Turing d'une semaine va dégénérer en faveur d'un robot féminin (gynoïde) révolutionnaire.
- 2016 : la série télévisée Westworld met en scène des androïdes à l'apparence humaine qui commencent à adopter des comportements imprévisibles<ref>Modèle:Lien web</ref>.
- 2023 : dans la mini-série Class of '09, l'IA est utilisée par le FBI pour résoudre des enquêtes
Utilisation dans les jeux
Modèle:Article détaillé Les jeux, notamment les jeux de stratégie, ont marqué l’histoire de l’intelligence artificielle, même s’ils ne mesurent que des compétences particulières, telles que la capacité de la machine en matière de calcul de probabilités, de prise de décision mais aussi d’apprentissage.
Hans Berliner (1929-2017), docteur en science informatique à l'université Carnegie-Mellon et joueur d'échecs, fut l'un des pionniers de la programmation pour les ordinateurs de jeu. Ses travaux commencèrent par un programme capable de battre un humain professionnel au backgammon, puis, à partir des années 1960 et avec l'aide d'IBM, il fit des recherches pour créer un programme capable de rivaliser avec des grands maîtres du jeu d'échecs. Ses travaux contribuèrent quelques décennies plus tard à la réalisation du supercalculateur Deep Blue<ref>Article de Dylan L. McClain, New York Times, Modèle:Date-, et article « Hans J. Berliner (1929-2017), Grand Maître d'échecs et programmeur de génie », Denis Rozier, Le Courrier des Échecs no 639, Modèle:Date-.</ref>.
Outre la capacité des jeux à permettre de mesurer les performances de l'intelligence artificielle, que ce soit au travers un score ou un affrontement face à un humain, les jeux offrent un environnement propice à l'expérimentation pour les chercheurs, notamment dans le domaine de l'apprentissage par renforcement<ref name="actuia.com">Modèle:Lien web.</ref>.
Othello
Dans le jeu Othello, sur un plateau de 8 cases sur 8, chaque joueur place tour à tour des pions de sa couleur (noir ou blanc). Le vainqueur est celui qui possède les pions de la couleur dominante.
L'une des premières intelligences artificielles pour l'Othello est IAGO, développée en 1976 par l'université Caltech de Pasadena (Californie), qui bat sans difficultés le champion japonais Fumio Fujita.
Le premier tournoi d'Othello hommes contre machines est organisé en 1980. Un an plus tard, un nouveau tournoi de programmes regroupent 20 systèmes<ref>Modèle:Lien web</ref>. C'est entre 1996 et 1997 que le nombre de programmes explose : Darwersi (1996-1999) par Olivier Arsac, Hannibal (1996) par Martin Piotte et Louis Geoffroy, Keyano (1997) par Mark Brockington, Logistello (1997) par Michael BuroModèle:Etc.
Échecs
En 1968, le maître international anglais David Levy lança un défi à des spécialistes en intelligence artificielle, leur pariant qu'aucun programme informatique ne serait capable de le battre aux échecs dans les dix années à venir. Il remporta son pari, n'étant finalement battu par Deep Thought qu'en 1989<ref>{{#invoke:Langue|indicationDeLangue}} David Levy et Monroe Newborn, « More Chess and Computers: The Microcomputer Revolution, The Challenge Match », Computer Science Press, Potomac (Maryland) et Batsford, Londres, 1980. Modèle:ISBN</ref>.
En 1988, l'ordinateur HiTech de Hans Berliner est le premier programme à battre un grand maître du jeu d'échecs, Arnold Denker (Modèle:Nobr) en match (3,5-1,5)<ref>{{#invoke:Langue|indicationDeLangue}} « For First Time, a Chess Computer Outwits Grandmaster in Tournament », Harold C. Schonberg, The New York Times.com, Modèle:Date-.</ref>,<ref group="alpha">Arnold Denker était alors âgé de Modèle:Nobr et crédité d'un classement Elo de 2300, ce qui relativise un peu la performance du programme, un fort grand maître étant à cette époque plus vers les Modèle:Nombre Elo, voire davantage.</ref>. Par la suite, de forts joueurs furent battus, comme le grand maître Bent Larsen (alors classé à Modèle:Nb), vaincu en 1988 par Deep Thought dans un tournoi en Californie<ref>{{#invoke:Langue|indicationDeLangue}} « Bent Larsen, Chess Grandmaster, Dies at 75 », Dylan Loeb McClain, The New York Times.com, Modèle:Date-.</ref>,<ref>{{#invoke:Langue|indicationDeLangue}} « Chess legend Bent Larsen turns 75 », ChessBase.com, Modèle:Date-.</ref>.
En Modèle:Date-, à Munich, le programme Fritz 3, tournant sur un ordinateur avec un monoprocesseur Pentium à Modèle:Unité, gagne une partie de blitz (partie de moins de dix minutes par joueurs) dans un tournoi contre le champion du monde d'échecs, le Russe Garry Kasparov. En Modèle:Date-, lors du premier tour du Grand Prix Intel de Londres, le champion du monde affronte Chess Genius 2.9 (tournant sur un Pentium à Modèle:Unité) en jeu semi-rapide (Modèle:Unité la partie) et perd sur le score de 0.5-1.5 (une nulle et une défaite)<ref name="monde_1616889">Pierre Barthélémy, « L’espèce humaine, échec et mat », Libération.fr, Modèle:Date- (consulté le Modèle:Date-).</ref>.
En 1997, le supercalculateur conçu par IBM, Deep Blue (surnommé Deeper Blue lors de ce match revanche), bat Garry Kasparov (3,5–2,5) et marque un tournant : pour la première fois, le meilleur joueur humain du jeu d'échecs est battu en match (et non lors d'une partie unique) par une machine. Modèle:Article détaillé
En Modèle:Date-, le supercalculateur Hydra gagne face au grand maître Michael Adams par 5 victoires, une nulle et aucune défaite<ref>{{#invoke:Langue|indicationDeLangue}} « Adams vs Hydra: Man 0.5 – Machine 5.5 », ChessBase.com, Modèle:Date-.</ref>.
En Modèle:Date-, Deep Fritz gagne un match en six parties face au champion du monde Vladimir Kramnik, sur le score de 2 victoires, 4 nulles et aucune défaite, plaçant notamment dans la deuxième partie un échec et mat élémentaire (mat en un coup), que Kramnik ne vit pas<ref>{{#invoke:Langue|indicationDeLangue}} « How could Kramnik overlook the mate? », ChessBase.com, Modèle:Date-.</ref>.
En 2010, l'ancien champion du monde Veselin Topalov confirme utiliser pour sa préparation au championnat du monde d'échecs 2010 le superordinateur Blue Gene/P, alors équipé de Modèle:Unité<ref>Modèle:Lien web.</ref>.
En Modèle:Date-, une version généraliste d'AlphaGo Zero (le successeur du programme AlphaGo de DeepMind<ref group=alpha>Voir plus bas dans la section « Go ».</ref>) nommée AlphaZero, est développé pour jouer à n'importe quel jeu en connaissant seulement les règles, et en apprenant à jouer seul contre lui-même. Ce programme est ensuite entraîné pour le go, le shogi et les échecs. Après Modèle:Nobr d’entraînement, AlphaZero bat le programme d'échecs Stockfish (leader dans son domaine), avec un score de 28 victoires, 72 nulles et aucune défaite. Il faut cependant noter que la puissance de calcul disponible pour AlphaZero (4 TPU v2 pour jouer, soit une puissance de calcul de 720 Teraflops) était infiniment supérieure à la puissance disponible de Stockfish pour ce match, ce dernier tournant sur un ordinateur équipé de seulement 64 cœurs Intel<ref>{{#invoke:Langue|indicationDeLangue}} Modèle:Pdf « Learning, Deep or not Deep, de MENACE à AlphaGo », sur alliot.fr.</ref>. AlphaZero a également battu (après apprentissage) le programme de shōgi Modèle:Lien<ref>Modèle:Lien arXiv</ref>,<ref>Modèle:Lien web.</ref>.
Go
En 2015, l'IA réalise des progrès significatifs dans la pratique du go, plus complexe à appréhender que les échecs (entre autres à cause du plus grand nombre de positions : 10170 au go, contre 1050 pour les échecs, et de parties plausibles : 10600 au go, contre 10120 pour les échecs)<ref name="pixel996">« Jeu de go : comment savoir si les programmes d’intelligence artificielle sont vraiment… intelligents », Le Monde.fr, Modèle:Date-.</ref>.
En Modèle:Date-, AlphaGo, un logiciel d'IA conçu par DeepMind, filiale de Google, bat pour la première fois Fan Hui, le triple champion européen de go<ref name="Nature2017">Modèle:Article.</ref> et ainsi relève ce qu'on considérait comme l'un des plus grands défis pour l'intelligence artificielle. Cette tendance se confirme en Modèle:Date- quand AlphaGo bat par trois fois consécutives le champion du monde de la discipline, Lee Sedol, dans un duel en cinq parties<ref>« Jeu de go : Le champion du monde de nouveau battu par l'ordinateur de Google », L'Obs.com, Modèle:Date-.</ref>. Lee Sedol a déclaré au terme de la seconde partie qu'il n'avait trouvé Modèle:Citation chez l'ordinateur et que sa défaite était Modèle:Citation.
Jeopardy!
En 2011, l'IA Watson conçue par IBM bat ses adversaires humains au jeu télévisé américain Jeopardy!. Dans ce jeu de questions/réponses, la compréhension du langage est essentielle pour la machine ; pour ce faire, Watson a pu s'appuyer sur une importante base de données interne lui fournissant des éléments de culture générale, et avait la capacité d'apprendre par lui-même, notamment de ses erreurs. Il disposait néanmoins d’un avantage, la capacité d’appuyer instantanément (et donc avant ses adversaires humains) sur le buzzer pour donner une réponse<ref name=pixel996/>.
Poker
En 2007, Polaris est le premier programme informatique à gagner un tournoi de poker significatif face à des joueurs professionnels humains<ref>Modèle:Article</ref>,<ref name="Heads-up">Modèle:Article</ref>. Depuis, les efforts pour améliorer ce résultat n'ont pas cessé.
En 2017, lors du tournoi de poker « Modèle:Langue » (« Cerveau contre Intelligence Artificielle : on monte la mise ») organisé dans un casino de Pennsylvanie, l’intelligence artificielle Libratus, développée par des chercheurs de l'université Carnegie-Mellon de Pittsburgh, est confrontée à des adversaires humains dans le cadre d'une partie marathon étalée sur Modèle:Nobr<ref name="Heads-up"/>. Les joueurs humains opposés à Libratus, tous professionnels de poker, affrontent successivement la machine dans une partie en face à face (Modèle:Lien) selon les règles du « Modèle:Langue » (Modèle:Langue signifiant que les mises ne sont pas plafonnées), la version alors la plus courante du poker. Les parties sont retransmises en direct et durant huit heures par jour sur la plateforme Modèle:Langue<ref name=numerama>Modèle:Lien web.</ref>.
Au terme de plus de Modèle:Unité jouées, Libratus remporte tous ses duels face aux joueurs humains et accumule Modèle:Unité (virtuels). Le joueur humain ayant perdu le moins d'argent dans son duel face à la machine, Dong Kim, est tout de même en déficit de plus de Modèle:Unité. Dans leurs commentaires du jeu de leur adversaire, les joueurs humains admettent que celui-ci était à la fois déconcertant et terriblement efficace. En effet, Libratus « étudiait » chaque nuit, grâce aux ressources d'un supercalculateur situé à Pittsburgh, ses mains jouées durant la journée écoulée, utilisant les Modèle:Nobr d’heures-processeur de calculs du supercalculateur<ref name=numerama/>.
La victoire nette et sans bavure de la machine marque une nouvelle étape dans le développement de l'intelligence artificielle et illustre les progrès accomplis dans le traitement par l'IA des « informations imparfaites », où la réflexion doit prendre en compte des données incomplètes ou dissimulées. Les estimations du nombre de possibilités d'une partie de poker sont en effet d'environ 10160 dans la variante Modèle:Langue en face à face<ref name=numerama/>.
Auparavant, en 2015, le joueur professionnel Modèle:Lien a remporté la première édition de cet évènement contre une autre IA, baptisée Modèle:Lien<ref name=numerama/>.
Bridge
Modèle:Article détaillé Le Modèle:Refconf connu actuellement est celui de la société Will-Bridge, qui a réussi en 1987 à faire jouer un ordinateur au plus haut niveau des performances humaines par l'utilisation de systèmes experts avec la création de plusieurs concepts nouveaux, comme les systèmes experts bimoteurs, pour traiter le problème de l'Modèle:Quoi et les systèmes experts hybrides, qui permettent de traiter des problèmes de non-connaissance<ref>Modèle:Lien web.</ref>.
Notes et références
Notes
Références
Voir aussi
Bibliographie
Aspects techniques
- Modèle:Ouvrage.
- Modèle:Ouvrage, Les Ordinateurs et l'Intelligence, Modèle:P.
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Outils logiques pour l'intelligence artificielle
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage.
Aspects prospectifs
- Étude : CGET (2019) Intelligence artificielle – État de l’art et perspectives pour la France ; Modèle:Date-. URL:https://cget.gouv.fr/ressources/publications/intelligence-artificielle-etat-de-l-art-et-perspectives-pour-la-france Modèle:ISBN Modèle:ISSN
- Modèle:Article
Aspects philosophiques
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
Fondements cognitifs, psychologiques et biologiques
Aspects linguistiques
Histoire
- Modèle:Ouvrage, (traduction de {{#invoke:Langue|indicationDeLangue}} The Tumultuous history of the search for artiticial intelligence.)
Vulgarisation
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Ouvrage
- Modèle:Lien vidéo
Politique, relations internationales
- Daniel Ventre, Intelligence artificielle, cybersécurité et cyberdéfense, ISTE, Londres, 246 pages, Modèle:Date- (ISBN papier : 9781784056797), (ISBN ebook : 9781784066796)
Articles connexes
Aspects juridiques
- Modèle:Langue, ou loi sur les services numériques de l'Union européenne
Notions générales Modèle:Début de colonnes
- Agent intelligent
- Agent logiciel
- Agent virtuel
- Algorithme
- Algorithme génétique
- Alignement des intelligences artificielles
- Applications de l'intelligence artificielle
- Automation
- Bio-informatique
- Cerveau artificiel
- Cyborg
- Déclaration de Montréal pour un développement responsable de l'intelligence artificielle
- Effet IA
- Éthique de l'intelligence artificielle
- Explosion d'intelligence
- Histoire de l'intelligence artificielle
- Intelligence artificielle générale
- Interactions homme-machine
- Philosophie de l'intelligence artificielle
- Principaux projets et réalisations en intelligence artificielle
- Progrès
- Progrès technique
- Réseau de neurones artificiels
- Singularité technologique
- Singularitarisme
- Système expert
- Téléchargement de l'esprit
- Test de Turing
- Vie artificielle
Notions techniques Modèle:Début de colonnes
- Agent conversationnel
- Apprentissage automatique
- Apprentissage par renforcement
- Apprentissage profond (Modèle:Langue)
- Architecture cognitive
- Diagnostic
- Exploration de données
- Forêt d'arbres décisionnels
- Inférence bayésienne
- Intelligence artificielle amicale
- Intelligence artificielle distribuée
- Intelligence artificielle faible
- Logique floue
- Machine à vecteurs de support
- Métaheuristiques
- Planification
- Problème de satisfaction de contraintes
- Programmation génétique
- Programmation par contraintes
- Raisonnement par cas
- Réseaux de neurones
- Système multi-agents
- Théorème de Cox-Jaynes
Chercheurs en intelligence artificielle (espace anglophone) Modèle:Début de colonnes
- Edward Feigenbaum
- Irving John Good
- Douglas Engelbart
- Douglas Hofstadter
- Douglas Lenat
- John McCarthy
- Marvin Lee Minsky
- Allen Newell
- Nils Nilsson
- Seymour Papert
- Rosalind Picard
- Roger Schank
- Herbert Simon
- Ray Solomonoff
- Gerald Jay Sussman
- Alan Turing
- Joseph Weizenbaum
Chercheurs en intelligence artificielle (espace francophone) Modèle:Début de colonnes
- Hugues Bersini
- Alain Colmerauer
- Jean-Paul Delahaye
- Rose Dieng-Kuntz
- Yann Le Cun
- François Pachet
- Jacques Pitrat
- Gérard Sabah
Laboratoires et projets renommés de recherche en intelligence artificielle
- Le Modèle:Lien, fondé en 1963 par John McCarthy
- L'Modèle:Lien du Stanford Research Institute, fondé au début des années 1960 par Douglas Engelbart
- Le Modèle:Lien de l'institut de technologie du Massachusetts, lancé le Modèle:Date- et dirigé par Robert Fano
- Le laboratoire de recherche en intelligence artificielle (AILab) du Massachusetts Institute of Technology, fondé en 1970 –pour remédier au manque d'espace dont souffre le groupe IA du nouveau projet MAC– et fusionné en 2003 avec le laboratoire de recherche en informatique (LCS) ; à nouveau réunies, les deux entités prennent le nom de MIT Computer Science and Artificial Intelligence Laboratory (CSAIL)
- l'Modèle:Lien de l'Université de Californie du Sud (USC), fondé en 1972 par Modèle:Lien
- OpenAI, société fondatrice des projets GPT-3, DALL-E et ChatGPT.
Liens externes
- Modèle:Dictionnaires
- Modèle:Autorité
- Modèle:Bases
- {{#invoke:Langue|indicationDeLangue}} European Association for Artificial Intelligence (EurAI) (Association européenne pour l'intelligence artificielle)
- Association française pour l'intelligence artificielle (AfIA).
- Association française pour la promotion et la sensibilisation à l'intelligence artificielle (AFPSIA) (inaccessible).
- GdrIA, groupement de recherche du CNRS sur les aspects formels et algorithmiques de l'intelligence artificielle.
- ActuIA, site présentant l'actualité de l'intelligence artificielle.
- Dossier sur l'Intelligence artificielle, savoirs.ens.fr (conférences de l'École normale supérieure).
- Insideaiminds.com est un blogue spécialisé dans l'analyse des opinions des plus grands experts de l'intelligence artificielle
- Sébastien Konieczny, « L'intelligence artificielle, menace ou avancée ? », Huffington Post, Modèle:Date-.
- Juliette Demey, « À quoi sert l'intelligence artificielle ? », JDD, Modèle:Date-.
- « Intelligence artificielle : en mon âme et conscience », La Science, CQFD, France Culture, 1 juin 2023.