Singularité technologique

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}

Modèle:Mettre à jour Modèle:Événement en cours

Fichier:PPTSuperComputersPRINT.jpg
La frise chronologique de Ray Kurzweil (2005) date le moment où un superordinateur sera plus puissant qu'un cerveau humain, et pourra alors le simuler : il s'agit d'une méthode envisagée pour créer une intelligence artificielle, utilisée notamment dans le projet Blue Brain.

La singularité technologique (ou simplement la Singularité) est l'hypothèse selon laquelle l'invention de l'intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine<ref name="Singularity hypotheses">Modèle:Ouvrage</ref>.

Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d'intelligence » créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l'intelligence humaine<ref name="Singularity hypotheses"/>,<ref name=chalmers>{{#invoke:Langue|indicationDeLangue}} David Chalmers, « The singularity: A philosophical analysis », dans Journal of Consciousness Studies 17.9-10, 2010, Modèle:P..</ref>,<ref name=":0">Modèle:Ouvrage</ref>.

Le risque serait que l'humanité perde le contrôle de son destin<ref>{{#invoke:Langue|indicationDeLangue}} Bill Joy, « Why the future doesn’t need us », Wired Magazine (8.04), avril 2000 (consulté le 7 août 2007).</ref>. L'auteur de science fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l'ère humaine<ref name=":0" />, la nouvelle superintelligence continuant de s'améliorer et d'évoluer technologiquement à une vitesse incompréhensible pour les humains<ref name="vinge1993">{{#invoke:Langue|indicationDeLangue}} Vernor Vinge, « The Coming Technological Singularity: How to Survive in the Post-Human Era », originellement dans Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, Modèle:P., 1993.</ref>.

Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 1950<ref>Kurzweil appuie son propos en rapportant une citation apocryphe de Von Neumann, qui selon l'explication que donne Kurzweil (dans la Modèle:3e du premier chapitre de son livre The Singularity is Near) serait une paraphrase de Von Neumann par Stanislaw Ulam, « Tribute to John Von Neumann », dans Bulletin of the American Mathematical Society 64.3, pt. 2 (May 1958). Von Neumann aurait ainsi dit, selon Ulam : Modèle:Citation Comme le relève Theodore Modis (dans Technological Forecasting & Social Change 73 (2006) 95–127), ces propos signalent plus une illusion qu'un phénomène réel, ce qui s'éloigne de l'interprétation que donne Kurzweil de la citation de Von Neumann.</ref> et ses conséquences ont été débattues dans les années 1960 par I. J. Good. Selon Ray Kurzweil<ref>{{#invoke:Langue|indicationDeLangue}} Ray Kurzweil, The Singularity is Near, Ed. Viking, 2005, Modèle:P. 10.</ref>, cofondateur de la Singularity University<ref>Modèle:Lien web.</ref>,<ref name=":0" />, la singularité deviendrait réalité approximativement en 2045.

La possibilité et la date de survenue de cet évènement hypothétique fait toutefois l'objet de débats entre scientifiques. Plusieurs futurologues et transhumanistes l’attendent pour la troisième décennie du Modèle:Lien siècleModèle:Vérification siècle<ref>url Un monde sans humains, documentaire de Philippe Borrel, Arte, 2012.</ref>,<ref name=":0" />.

Émergence du concept

Fichier:PPTMooresLawai.jpg
Kurzweil écrit que, en raison du changement de paradigme, une tendance de la croissance exponentielle va des circuits intégrés jusqu'aux récents transistors, les tubes à vide, les relais électromécaniques et les ordinateurs électromécaniques.

L'idée de présenter l'évolution exponentielle de la technologie remonte au moins à 1932, avec John B. Sparks et son « histocarte de l’évolution ». Vers la même époque, cette idée a été critiquée par le cybernéticien Heinz von Foerster (secrétaire des conférences Macy auxquelles a participé John von Neumann, entre autres)<ref>Modèle:Lien web.</ref>, en soutenant que les souvenirs s'estompent naturellement d'une manière exponentielle.

Même si le concept de singularité ne s’est développé qu'au cours des deux dernières décennies du Modèle:Lien siècleModèle:Vérification siècle, l’origine du terme remonte en fait aux années 1950 :

Modèle:Citation bloc

Dans sa conférence du Modèle:Date-, « Psychanalyse et cybernétique ou de la nature du langage », Jacques Lacan relève, à son époque, un bougé des lignes du côté de la science, frémissement qu’il perçoit ainsi : Modèle:Citation (cette citation fut à plusieurs reprises extraite de son contexte et attribuée à tort à John von Neumann lui-même).

En 1965, Irving John Good décrit un concept de singularité plus proche de son acception actuelle, dans le sens où il inclut l’arrivée d’intelligences artificielles générée par une première amorçant le phénomène :

Modèle:Citation bloc

Le terme de singularité ne désigne pas une croissance devenant infinie à l'instar d'une singularité mathématique, mais représente le fait que les modèles prédictifs existants ne sont plus appropriés à sa proximité, de la même façon que les modèles physiques actuels ne sont plus adaptés au voisinage d’une singularité de l'espace-temps.

La singularité vingienne

Fichier:PPTParadigmShiftsFrr15Events FR.jpg
Lorsqu’on représente sur un graphe logarithmique quinze listes différentes d’événements de l'histoire humaine, le graphe mettrait en évidence une tendance exponentielle. Listes préparées entre autres par Carl Sagan, Paul D. Boyer, l'Encyclopædia Britannica, l'American Museum of Natural History et l’Université de l'Arizona, compilées par Ray Kurzweil.

Le concept de « singularité technologique » fut repopularisé en partie grâce au mathématicien et auteur Vernor Vinge<ref>Voir les romans Un feu sur l'abîme, Au tréfonds du ciel et La Captive du temps perdu.</ref>. Vinge a commencé à parler de la singularité dans les années 1980 et a formulé ses idées dans son premier article sur le sujet en 1993 : l’essai Technological Singularity<ref>Modèle:Lien web.</ref>. Il y postule que, d’ici trente ans, l’humanité aurait les moyens de créer une intelligence surhumaine mettant un terme à l’ère humaine<ref name=":0" />. Depuis, la singularité a été le sujet de nombreuses nouvelles et essais futuristes.

Vinge écrit que des intelligences surhumaines, créées par des humains aux capacités augmentées cybernétiquement ou par d'autres intelligences artificielles moins développées, seraient capables d’améliorer leurs propres capacités plus efficacement que les esprits humains les ayant conçues. Ainsi, une spirale de progrès de plus en plus rapide amènerait à des progrès technologiques très importants en une courte période de temps.

La singularité peut être vue comme la fin des civilisations humaines actuelles et le début d’une nouvelle organisation. Dans son œuvre, Vinge s’interroge sur les raisons de cette fin et conclut que les humains pourraient s'organiser pendant la Singularité en une forme supérieure d’intelligence<ref name=":0" />. Après la création de cette intelligence « surhumaine », les humains seraient, d’après Vinge, des formes de vie ayant une moindre influence sur le développement du monde, plutôt membres participants à un système que « pilotes dans l'avion ».

L'explosion de l'intelligence

Modèle:Article détaillé

Fichier:Estimations of Human Brain Emulation Required Performance.svg
Estimations de la puissance de traitement nécessaire pour émuler un cerveau humain à différents niveaux, ainsi que du supercalculateur le plus rapide du TOP500, cartographié par année, et d'une ligne de tendance. Détermination exponentielle, avec l'hypothèse du doublement de la puissance de calcul tous les 1,1 an pour la ligne de tendance.

Irving John Good a spéculé en 1965 sur les effets des machines plus intelligentes que les hommes : Modèle:Citation bloc

Jeff Hawkins a répondu à cette spéculation dans le rapport spécial IEEE Spectrum sur la singularité<ref>{{#invoke:Langue|indicationDeLangue}} Modèle:Citation bloc</ref> : Modèle:Citation bloc

L'accélération du progrès

Fichier:Countdown to Singularity - Linear.svg
Représentation des grandes avancées sur une échelle temporelle.

Eliezer Yudkowsky explique de manière abordable l'effet de l'accélération dans Scruter la Singularité (2004)<ref>introduction de Scruter la Singularité, éditions hache.</ref> : Modèle:Citation bloc

Raymond Kurzweil, qui est un futuriste et un inventeur (il a notamment inventé différents modèles de synthétiseurs), a proposé des théories étendant la loi de Moore à des formes de calcul autres qu’informatiques<ref name=":0" />, qui suggèrent que les phases de croissance exponentielle du progrès technologique feraient partie de motifs visibles à travers toute l’histoire humaine et même avant, dès l’apparition de la vie sur Terre, en prenant en compte sa complexification biologique. D’après Kurzweil, ce motif aboutit au Modèle:Lien siècleModèle:Vérification siècle à un progrès technologique inimaginable, ce qui ne veut pas dire infini.

Pour se représenter de manière abordable l'accélération de la vitesse, la vitesse étant le progrès, ce serait identique à un changement de vitesse sur une voiture ou un vélo : ce qui correspond à changer pour un rapport de couple supérieur permettant d'atteindre une vitesse supérieure, ce qui équivaut à plus de progrès pour une même valeur temporelle.

La vitesse des flux, la vitesse d'apprentissage dans une société sont des composantes pouvant définir des limites systémiques dans la société.

La question sera donc de savoir si toute l'humanité voudra changer de vitesse, ce qui pourrait par conséquent redéfinir la notion d'humanité, ou s’il y aura une humanité qui préférera rester à sa vitesse, ou peut être que l'avènement de la singularité se passera « trop vite » et personne ne pourra réagir : en prendre conscience avec un temps de réaction et d'observation à la vitesse humaine, puis la réaction politique, et législative.

La définition de la singularité technologique serait alors : un progrès technologique si rapide que cela dépasse la capacité des humains à la contrôler ou à la prédire, à la comprendre et à réagir à temps<ref>The nanotech pioneers: where are they taking us? par Steven A. Edwards, Modèle:ISBN</ref>. Quelles sont les conséquences à long terme de la révolution industrielle pour l'humanité ? Et n'est-ce pas déjà une forme de singularité ?

Les questions d'ordre philosophique surgissent : l'« humain » est-il dépassé, et y a-t-il un mal à accepter ses limites naturelles<ref name=":0" /> ? Y a-t-il un mal à vouloir s'améliorer ? Peut-on raisonnablement refuser le téléphone portable, dans notre société, et quelles en sont les conséquences ? Vous pouvez remplacer pour l'exemple l'outil téléphone portable par tout autre gadget à se greffer en permanence pour augmenter les capacités humaines. Slavoj Žižek pointe ce manque de réflexion de la société, et le manque d'attention voire de capacité et de temps pour la population, pour analyser et comprendre des grands problèmes philosophiques qui s'annoncent : OGM, manipulation génétique, cure génétique, intelligence artificielleModèle:Etc<ref>Slajov Zizek en conférence chez Google</ref>

Loi de Moore

Selon la loi de Moore, le nombre de transistors de la dernière gamme de processeur est doublé tous les deux ans. Ce chiffre a baissé d'où le ralentissement de l'accélération exponentielle. Et selon Ray Kurzweil, cela devrait se poursuivre jusqu'en 2019 pour cette technologie, jusqu'à ce qu'un autre type de technologie prenne le relais (optique, quantique ou moléculaire)<ref>Ray Kurzweil (2001-03-07). "The Law of Accelerating Returns". KurzweilAI.net. http://www.kurzweilai.net/articles/art0134.html?printable=1. Consulté le 24 juin 2006.</ref>.

Lawrence Krauss et Glenn D. Starkman annoncent quant à eux une limite ultime se trouvant dans 600 ans<ref>Ethan Mollick (2006). "Establishing Moore's Law". IEEE Annals of the History of Computing. http://www2.computer.org/portal/web/csdl/doi/10.1109/MAHC.2006.45. Consulté le 18 octobre 2008.</ref>.

On remarque également :

Il faut remarquer qu'il y a une limite physique dans la technologie utilisée actuellement. L'électronique ne peut aller sous la taille d'un atome.

Cependant plusieurs voies permettraient de dépasser cette limite :

Molecular Cellular Automata Achieves 700 bits of Parallel Processing</ref>,<ref>Molecular computer mimics human brain, Processor can solve complex problems, even heal itself</ref> ;

Les singularités

Intelligences créatives et décisionnelles

Les singularités créatives seraient dans le domaine de la puissance de création et de recherche brute : une intelligence artificielle, si elle est créée, dépasserait rapidement l'ensemble de l'humanité dans ce domaine<ref name=":0" />.

Culturelles

Les singularités culturelles visent à augmenter l'humain et ses perceptions par diverses informations pour créer une réalité augmentée, une immersion dans une réalité virtuelle ou parallèle à la nôtre.

L'ouverture (en parallèle avec le Principe responsabilité, et le Principe de précaution) est un des choix de politique de société en système ouvert important pour l'avenir :

  • Selon Jamais Cascio : Une Singularité se basant sur l'« accès-libre » est une réponse aux risques à venir. Les personnes qui ont embrassé la possibilité d'un grand bouleversement pour l'humanité dans un avenir proche (appelé parfois singularité) devraient s'occuper à rendre possible l'intégration globale des intérêts particuliers dans des systèmes ouverts, au moins autant qu'ils travaillent à rendre possible la singularité<ref>Openness and the Metaverse Singularity by Jamais Cascio, Originally presented at Singularity Summit 2007, September 8, 2007. Reprinted with permission on KurzweilAI.net November 7, 2007. "For me, the solution is clear. Trust depends upon transparency. Transparency, in turn, requires openness. We need an Open Singularity."</ref>.

Transhumanisme

D’après l’idéologie transhumaniste dont l’entrepreneur et directeur de l’ingénierie de Google, Ray Kurzweil est le principal théoricien, la singularité technologique ressemble davantage à une promesse eschatologique qui prédit une transformation profonde et radicale des sociétés humaines grâce au développement surprenant de l’intelligence artificielle (IA). Les dynamiques vertigineuses des IA associées aux progrès dans les champs des nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) conduiront probablement pour les transhumanistes à la fusion de l’homme et de la machine, de l’union du biologique à la technologie dont les effets pratiques seront de résoudre les problèmes humains les plus complexes (moraux, culturels, économiques, politiques, etc.) et même d’éradiquer la mort. La fusion effective de l’homme et de l’intelligence artificielle annoncerait la naissance d’une nouvelle humanité qui bénéficierait des capacités analytiques d’un superordinateur et qui serait débarrassée des inconvénients du corps biologique<ref>Modèle:Ouvrage</ref>.

Critique des singularistes

Critique du modèle scientifique

Des auteurs, sans critiquer directement la notion de singularité, remettent en question l'idée d'accélération technologique.

Le concept de singularité ne tient pas compte des besoins et des ressources disponibles en énergie. Soit il postule des ressources infinies, soit il estime sans le démontrer que les besoins ne changeront que peu. Accessoirement, il ne tient pas compte de la limite quantique à laquelle la miniaturisation des composants électroniques se heurtera nécessairement un jour, ni de perturbations négligeables aux échelles actuelles et qui ne le resteront pas forcément à d'autres échelles (particules alpha, etc.) ; à moins que l'ordinateur quantique ne prenne le relais des composants traditionnels...

Les hypothèses relatives à la Singularité sont régulièrement critiquées pour leur manque de solidité scientifique. Theodore Modis rappelle par exemple<ref name=TFSC>Technological Forecasting & Social Change 73 (2006) 95–127</ref> qu'une courbe exponentielle ne débouche sur aucune singularité, mais continue à croître à l'infini. Douglas Hofstadter se montre lui aussi très critique, avançant que cette idée n'exprime en fait qu'un souhait de ses défenseurs<ref>An Interview with Douglas R. Hofstadter, following I am a Strange Loop</ref>.

Jonathan Huebner écrit en conclusion de son article que Modèle:Citation<ref>Modèle:Citation</ref>,<ref>Jonathan Huebner, A possible declining trend for worldwide innovation, Technological Forecasting & Social Change 72 (2005) 980–986</ref>. De telles analyses se retrouvent également chez Bob Seidensticker<ref>Bob Seidensticker, Future Hype: The Myths of Technology Change, Berrett-Koehler Publishers, Inc., 2006</ref> ou chez David Bodanis<ref>David Bodanis, Slow Forward, Is the speed of technological change an illusion? Discover, Vol. 27 No. 06, June 2006.</ref>.

Il existe bien des limites politiques, économiques, militaires (et stratégiques), des limites en ressources, et surtout la connaissance et les découvertes technologiques ont également leurs limites. Comme le conçoit également Ray Kurzweil.

De plus, Ray Kurzweil ne prend pas suffisamment en compte ce qu'est réellement une intelligence artificielle. L'Homme a toujours créé des outils pour améliorer l'économie et la société, mais ces améliorations de plus en plus nombreuses ne peuvent dépasser l'intérêt de la société concernée, elles ne seront toujours que des moyens de plus en plus développés pour atteindre les buts de celle-ci. Une intelligence artificielle est l'un de ces outils que l'Homme crée pour satisfaire ses besoins. Par conséquent, quand bien même l'amélioration exponentielle de la technologie se prolongerait dans les années à venir, elle a une limite absolue qu'elle ne dépassera jamais : les besoins de la société qui, eux, ne sont pas exponentiels. Par conséquent, cela signifie qu'une fois que la technologie sera en mesure de complètement satisfaire la société, son évolution se stabilisera. Pour cette raison, toute singularité liée à l'amélioration d'une société a une limite prédéterminée : l'apogée de la société concernée.

Critique humaine

Modèle:Section travail inédit La connaissance, et le développement technologique ayant leurs limites : doit-on remettre volontairement ou non notre pouvoir de décision en tant qu'espèce humaine à une intelligence artificielle (Intelligence qui par définition ne pourra être contrôlée de manière fiable) ?

C'est une question de choix politique lié à la fois à la grandeur d'un état et à la fois individuel : il n'y a pas une singularité, mais des singularités<ref>Our world does not evolve along a single path but by multiple inter-related networked processes. Singularity Summit 2009: The Singularity Is Near, Ray Kurzweil</ref>,<ref name=":0" />.

Cette réflexion mérite d'être commencée dès aujourd'hui Modèle:Référence souhaitée

  • Peut-on accepter toute évolution technologique, ayant un impact sur la définition de ce qu'est l'humanité ?Modèle:Référence nécessaire
  • Peut-on accepter une évolution technologique, ayant un trop grand risque de perte de contrôle de la société humaine ?

Modèle:Référence nécessaire

Critique dialectique

Plusieurs auteurs sont très critiques à l'endroit de la notion de singularité, notamment telle que développée par Ray Kurzweil. Theodore Modis écrit ainsi : Modèle:Citation<ref>Modèle:Citation</ref>,<ref name=TFSC/>.

De son côté, Ted Gordon met également en doute les thèses de Kurzweil : Modèle:Citation<ref>Modèle:Citation</ref>,<ref name=TFSC/>.

Drew McDermott, sans être aussi sévère, s'inquiète des conséquences de ce genre de littérature pour les recherches en Intelligence Artificielle : Modèle:Citation<ref>Modèle:Citation</ref>,<ref>D. McDermott, Kurzweil’s argument for the success of AI, Artificial Intelligence 170 (2006) 1227–1233</ref>.

Plus simplement, on peut se rappeler que les singularités prévues en histoire de la physique (effondrement de l'atome de Bohr, catastrophe de l'ultraviolet…) n'ont jamais été observées, mais ont conduit plus simplement à un changement de modèle à leur voisinage.

Structure d'étude

À l'image du Santa Fe Institute créé pour regrouper les recherches sur le sujet de la complexité, mais sur une base d'activité saisonnière, une « université d'été de la Singularité » (Singularity University) a été créée en 2009 avec le concours de Google et de la NASA et offrira chaque été neuf semaines de cours sur le sujet à 120 étudiants<ref>Modèle:Lang 3 février 2009</ref> pour la somme de Modèle:Unité.

La singularité technologique dans la fiction

Modèle:Colonnes

Notes et références

Modèle:Références

Voir aussi

Modèle:Autres projets

Bibliographie

  • Ray Kurzweil, « Humanité 2.0 : La bible du changement », M21 Éditions, 2007, Modèle:ISBN (traduction de « The Singularity is near »)
  • Serge Boisse, « L'esprit, l'IA et la Singularité », Modèle:ISBN
  • Kate Darling, Alain Bensoussan, Yannis Constantinides, Jean-Gabriel Ganascia, John Mc Carthy, Olivier Tesquet, « En compagnie des robots », Modèle:ISBN

Articles connexes

Notions générales Modèle:Colonnes

Penseurs « pro-singularité » Modèle:Colonnes Penseurs « anti-singularité » Modèle:Colonnes

Liens externes

Modèle:Liens

Modèle:Palette Modèle:Portail