Singularité technologique
Modèle:Mettre à jour Modèle:Événement en cours
La singularité technologique (ou simplement la Singularité) est l'hypothèse selon laquelle l'invention de l'intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine<ref name="Singularity hypotheses">Modèle:Ouvrage</ref>.
Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d'intelligence » créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l'intelligence humaine<ref name="Singularity hypotheses"/>,<ref name=chalmers>{{#invoke:Langue|indicationDeLangue}} David Chalmers, « The singularity: A philosophical analysis », dans Journal of Consciousness Studies 17.9-10, 2010, Modèle:P..</ref>,<ref name=":0">Modèle:Ouvrage</ref>.
Le risque serait que l'humanité perde le contrôle de son destin<ref>{{#invoke:Langue|indicationDeLangue}} Bill Joy, « Why the future doesn’t need us », Wired Magazine (8.04), avril 2000 (consulté le 7 août 2007).</ref>. L'auteur de science fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l'ère humaine<ref name=":0" />, la nouvelle superintelligence continuant de s'améliorer et d'évoluer technologiquement à une vitesse incompréhensible pour les humains<ref name="vinge1993">{{#invoke:Langue|indicationDeLangue}} Vernor Vinge, « The Coming Technological Singularity: How to Survive in the Post-Human Era », originellement dans Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, Modèle:P., 1993.</ref>.
Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 1950<ref>Kurzweil appuie son propos en rapportant une citation apocryphe de Von Neumann, qui selon l'explication que donne Kurzweil (dans la Modèle:3e du premier chapitre de son livre The Singularity is Near) serait une paraphrase de Von Neumann par Stanislaw Ulam, « Tribute to John Von Neumann », dans Bulletin of the American Mathematical Society 64.3, pt. 2 (May 1958). Von Neumann aurait ainsi dit, selon Ulam : Modèle:Citation Comme le relève Theodore Modis (dans Technological Forecasting & Social Change 73 (2006) 95–127), ces propos signalent plus une illusion qu'un phénomène réel, ce qui s'éloigne de l'interprétation que donne Kurzweil de la citation de Von Neumann.</ref> et ses conséquences ont été débattues dans les années 1960 par I. J. Good. Selon Ray Kurzweil<ref>{{#invoke:Langue|indicationDeLangue}} Ray Kurzweil, The Singularity is Near, Ed. Viking, 2005, Modèle:P. 10.</ref>, cofondateur de la Singularity University<ref>Modèle:Lien web.</ref>,<ref name=":0" />, la singularité deviendrait réalité approximativement en 2045.
La possibilité et la date de survenue de cet évènement hypothétique fait toutefois l'objet de débats entre scientifiques. Plusieurs futurologues et transhumanistes l’attendent pour la troisième décennie du Modèle:Lien siècleModèle:Vérification siècle<ref>url Un monde sans humains, documentaire de Philippe Borrel, Arte, 2012.</ref>,<ref name=":0" />.
Émergence du concept
L'idée de présenter l'évolution exponentielle de la technologie remonte au moins à 1932, avec John B. Sparks et son « histocarte de l’évolution ». Vers la même époque, cette idée a été critiquée par le cybernéticien Heinz von Foerster (secrétaire des conférences Macy auxquelles a participé John von Neumann, entre autres)<ref>Modèle:Lien web.</ref>, en soutenant que les souvenirs s'estompent naturellement d'une manière exponentielle.
Même si le concept de singularité ne s’est développé qu'au cours des deux dernières décennies du Modèle:Lien siècleModèle:Vérification siècle, l’origine du terme remonte en fait aux années 1950 :
Dans sa conférence du Modèle:Date-, « Psychanalyse et cybernétique ou de la nature du langage », Jacques Lacan relève, à son époque, un bougé des lignes du côté de la science, frémissement qu’il perçoit ainsi : Modèle:Citation (cette citation fut à plusieurs reprises extraite de son contexte et attribuée à tort à John von Neumann lui-même).
En 1965, Irving John Good décrit un concept de singularité plus proche de son acception actuelle, dans le sens où il inclut l’arrivée d’intelligences artificielles générée par une première amorçant le phénomène :
Le terme de singularité ne désigne pas une croissance devenant infinie à l'instar d'une singularité mathématique, mais représente le fait que les modèles prédictifs existants ne sont plus appropriés à sa proximité, de la même façon que les modèles physiques actuels ne sont plus adaptés au voisinage d’une singularité de l'espace-temps.
La singularité vingienne
Le concept de « singularité technologique » fut repopularisé en partie grâce au mathématicien et auteur Vernor Vinge<ref>Voir les romans Un feu sur l'abîme, Au tréfonds du ciel et La Captive du temps perdu.</ref>. Vinge a commencé à parler de la singularité dans les années 1980 et a formulé ses idées dans son premier article sur le sujet en 1993 : l’essai Technological Singularity<ref>Modèle:Lien web.</ref>. Il y postule que, d’ici trente ans, l’humanité aurait les moyens de créer une intelligence surhumaine mettant un terme à l’ère humaine<ref name=":0" />. Depuis, la singularité a été le sujet de nombreuses nouvelles et essais futuristes.
Vinge écrit que des intelligences surhumaines, créées par des humains aux capacités augmentées cybernétiquement ou par d'autres intelligences artificielles moins développées, seraient capables d’améliorer leurs propres capacités plus efficacement que les esprits humains les ayant conçues. Ainsi, une spirale de progrès de plus en plus rapide amènerait à des progrès technologiques très importants en une courte période de temps.
La singularité peut être vue comme la fin des civilisations humaines actuelles et le début d’une nouvelle organisation. Dans son œuvre, Vinge s’interroge sur les raisons de cette fin et conclut que les humains pourraient s'organiser pendant la Singularité en une forme supérieure d’intelligence<ref name=":0" />. Après la création de cette intelligence « surhumaine », les humains seraient, d’après Vinge, des formes de vie ayant une moindre influence sur le développement du monde, plutôt membres participants à un système que « pilotes dans l'avion ».
L'explosion de l'intelligence
Irving John Good a spéculé en 1965 sur les effets des machines plus intelligentes que les hommes : Modèle:Citation bloc
Jeff Hawkins a répondu à cette spéculation dans le rapport spécial IEEE Spectrum sur la singularité<ref>{{#invoke:Langue|indicationDeLangue}} Modèle:Citation bloc</ref> : Modèle:Citation bloc
L'accélération du progrès
Eliezer Yudkowsky explique de manière abordable l'effet de l'accélération dans Scruter la Singularité (2004)<ref>introduction de Scruter la Singularité, éditions hache.</ref> : Modèle:Citation bloc
Raymond Kurzweil, qui est un futuriste et un inventeur (il a notamment inventé différents modèles de synthétiseurs), a proposé des théories étendant la loi de Moore à des formes de calcul autres qu’informatiques<ref name=":0" />, qui suggèrent que les phases de croissance exponentielle du progrès technologique feraient partie de motifs visibles à travers toute l’histoire humaine et même avant, dès l’apparition de la vie sur Terre, en prenant en compte sa complexification biologique. D’après Kurzweil, ce motif aboutit au Modèle:Lien siècleModèle:Vérification siècle à un progrès technologique inimaginable, ce qui ne veut pas dire infini.
Pour se représenter de manière abordable l'accélération de la vitesse, la vitesse étant le progrès, ce serait identique à un changement de vitesse sur une voiture ou un vélo : ce qui correspond à changer pour un rapport de couple supérieur permettant d'atteindre une vitesse supérieure, ce qui équivaut à plus de progrès pour une même valeur temporelle.
La vitesse des flux, la vitesse d'apprentissage dans une société sont des composantes pouvant définir des limites systémiques dans la société.
La question sera donc de savoir si toute l'humanité voudra changer de vitesse, ce qui pourrait par conséquent redéfinir la notion d'humanité, ou s’il y aura une humanité qui préférera rester à sa vitesse, ou peut être que l'avènement de la singularité se passera « trop vite » et personne ne pourra réagir : en prendre conscience avec un temps de réaction et d'observation à la vitesse humaine, puis la réaction politique, et législative.
La définition de la singularité technologique serait alors : un progrès technologique si rapide que cela dépasse la capacité des humains à la contrôler ou à la prédire, à la comprendre et à réagir à temps<ref>The nanotech pioneers: where are they taking us? par Steven A. Edwards, Modèle:ISBN</ref>. Quelles sont les conséquences à long terme de la révolution industrielle pour l'humanité ? Et n'est-ce pas déjà une forme de singularité ?
Les questions d'ordre philosophique surgissent : l'« humain » est-il dépassé, et y a-t-il un mal à accepter ses limites naturelles<ref name=":0" /> ? Y a-t-il un mal à vouloir s'améliorer ? Peut-on raisonnablement refuser le téléphone portable, dans notre société, et quelles en sont les conséquences ? Vous pouvez remplacer pour l'exemple l'outil téléphone portable par tout autre gadget à se greffer en permanence pour augmenter les capacités humaines. Slavoj Žižek pointe ce manque de réflexion de la société, et le manque d'attention voire de capacité et de temps pour la population, pour analyser et comprendre des grands problèmes philosophiques qui s'annoncent : OGM, manipulation génétique, cure génétique, intelligence artificielleModèle:Etc<ref>Slajov Zizek en conférence chez Google</ref>
Loi de Moore
Selon la loi de Moore, le nombre de transistors de la dernière gamme de processeur est doublé tous les deux ans. Ce chiffre a baissé d'où le ralentissement de l'accélération exponentielle. Et selon Ray Kurzweil, cela devrait se poursuivre jusqu'en 2019 pour cette technologie, jusqu'à ce qu'un autre type de technologie prenne le relais (optique, quantique ou moléculaire)<ref>Ray Kurzweil (2001-03-07). "The Law of Accelerating Returns". KurzweilAI.net. http://www.kurzweilai.net/articles/art0134.html?printable=1. Consulté le 24 juin 2006.</ref>.
Lawrence Krauss et Glenn D. Starkman annoncent quant à eux une limite ultime se trouvant dans 600 ans<ref>Ethan Mollick (2006). "Establishing Moore's Law". IEEE Annals of the History of Computing. http://www2.computer.org/portal/web/csdl/doi/10.1109/MAHC.2006.45. Consulté le 18 octobre 2008.</ref>.
On remarque également :
- la puissance de calcul des superordinateurs est doublée tous les dix mois ;
- la taille mémoire disponible sur un disque dur est doublée tous les dix-huit mois<ref name="pcworld">Disque dur de 4 To chez Hitachi en 2011</ref> : un disque 3.5 pouces : 2011 - Modèle:Unité ; 2014 - Modèle:Unité<ref name="pcworld"/> ; projection : 2023 - Modèle:Unité ;
- la quantité d'information sur le réseau internet double tous les dix ou douze mois environ<ref>Modèle:Pdf Internet growth: Is there a “Moore's Law” for data traffic?.</ref>
- le trafic internet double tous les quinze mois<ref>« Le trafic Internet va quadrupler en cinq ans » (cisco), infos-du-net.com.</ref> ;
- le niveau et la vitesse des interrelations sociales, ou web temps réel, suit également la loi de Moore. (Avec par exemple 350 000 tweets, et 1 000 000 liens bit.ly, et 9 nouvelles page Wikipédia par minute, …)<ref>Web2 Expo SF by Hilary Mason</ref> ;
- les caméras, télescopes, IRMs (appareil principalement médical) et séquenceurs ADN ont une précision et rapidité qui double tous les dix-huit mois<ref>Data-intensive supercomputing Michael Norman, director of the San Diego Supercomputer Center (SDSC) at the University of California, San Diego (UCSD).</ref> ;
- la consommation d'énergie suit également cette évolution<ref>World Energy in Exajoules by energy source from 1800 to 2008</ref>, et l'énergie solaire spatiale est envisagée par des pays et entreprises<ref>{{#invoke:Langue|indicationDeLangue}} « Solar Wind Power (SWP) Satellites could provide 100 billion times current world energy needs », nextbigfuture.com.</ref>,<ref>{{#invoke:Langue|indicationDeLangue}} « National Space Society Announces the Kalam-NSS Energy Initiative for Space Based Solar Power », nextbigfuture.com.</ref>. Le soleil produit plus d'énergie que nous n'en produirons durablement à la surface de la terre.
Il faut remarquer qu'il y a une limite physique dans la technologie utilisée actuellement. L'électronique ne peut aller sous la taille d'un atome.
Cependant plusieurs voies permettraient de dépasser cette limite :
- le changement de l'élément lié à l'information, par exemple les processeurs ou la mémoire quantique, moléculaire. Les avancées en ordinateurs moléculaires<ref>Brain-Like Computing on an Organic Molecular Layer</ref> et quantiques<ref>Reconnaissance d’image : Google compte sur l’informatique quantique</ref> démontrent les possibilités réelles de ces technologies. La technologie quantique permettrait de résoudre des problèmes complexes avec un nombre d'opérations comparativement énormément diminué (simplification NP complexe)<ref>10 page paper - Investigating the Performance of an Adiabatic Quantum Optimization Processor</ref>,<ref>High performance Quantum Monte Carlo simulations on a large-scale Internet-based computing platform were used to compare the median adiabatic times with the median running times of two classical solvers</ref>,<ref>New Developments in Quantum Algorithms</ref>. La technologie moléculaire permettrait l'apprentissage et la résolution d'autres types de problèmes complexes<ref>
Molecular Cellular Automata Achieves 700 bits of Parallel Processing</ref>,<ref>Molecular computer mimics human brain, Processor can solve complex problems, even heal itself</ref> ;
- le changement d'architecture de processeur, les processeurs actuels ont une architecture parfaite pour les calculs, mais ne sont pas adaptés au problème complexe qui faciliterait la création d'une intelligence artificielle. Le DARPA a lancé un projet de construction de processeur probabiliste, le GP5, le cinquième type de processeur après les CPU, DSP, FPGA, et GPU<ref>DARPA funds Mr Spock on a Chip, Lyric's probability processor</ref>. Les probabilités sont utilisées en intelligence artificielle pour le datamining, pour l'approche probabiliste dans certains domaines de l'intelligence artificielle (reconnaissance visuelle, linguistique computationnelle, sémantique, apprentissage machine et logique floue)<ref>Ben Goertzel at Singularity Summit 2009 -- Pathways to Beneficial Artificial General Intelligence</ref> ;
- le changement de matériaux pour augmenter la fréquence (ex. : gallium, gallium + silicium<ref>Des puces hybrides Silicium-Nitrure de Gallium pour des transistors plus rapides</ref>) ;
- si la limite est atteinte, pour obtenir plus de puissance il faudra plus d'espace. Les processeurs peuvent évoluer sur plusieurs couches (en trois dimensions)<ref>"After the Transistor, a Leap Into the Microcosm", The New York Times, August 31, 2009. Retrieved August 31, 2009.</ref> ;
- les progrès logiciels à effectuer sont nombreux : structures de bases de données, utilisation…
Les singularités
Intelligences créatives et décisionnelles
Les singularités créatives seraient dans le domaine de la puissance de création et de recherche brute : une intelligence artificielle, si elle est créée, dépasserait rapidement l'ensemble de l'humanité dans ce domaine<ref name=":0" />.
Culturelles
Les singularités culturelles visent à augmenter l'humain et ses perceptions par diverses informations pour créer une réalité augmentée, une immersion dans une réalité virtuelle ou parallèle à la nôtre.
L'ouverture (en parallèle avec le Principe responsabilité, et le Principe de précaution) est un des choix de politique de société en système ouvert important pour l'avenir :
- Selon Jamais Cascio : Une Singularité se basant sur l'« accès-libre » est une réponse aux risques à venir. Les personnes qui ont embrassé la possibilité d'un grand bouleversement pour l'humanité dans un avenir proche (appelé parfois singularité) devraient s'occuper à rendre possible l'intégration globale des intérêts particuliers dans des systèmes ouverts, au moins autant qu'ils travaillent à rendre possible la singularité<ref>Openness and the Metaverse Singularity by Jamais Cascio, Originally presented at Singularity Summit 2007, September 8, 2007. Reprinted with permission on KurzweilAI.net November 7, 2007. "For me, the solution is clear. Trust depends upon transparency. Transparency, in turn, requires openness. We need an Open Singularity."</ref>.
Transhumanisme
D’après l’idéologie transhumaniste dont l’entrepreneur et directeur de l’ingénierie de Google, Ray Kurzweil est le principal théoricien, la singularité technologique ressemble davantage à une promesse eschatologique qui prédit une transformation profonde et radicale des sociétés humaines grâce au développement surprenant de l’intelligence artificielle (IA). Les dynamiques vertigineuses des IA associées aux progrès dans les champs des nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) conduiront probablement pour les transhumanistes à la fusion de l’homme et de la machine, de l’union du biologique à la technologie dont les effets pratiques seront de résoudre les problèmes humains les plus complexes (moraux, culturels, économiques, politiques, etc.) et même d’éradiquer la mort. La fusion effective de l’homme et de l’intelligence artificielle annoncerait la naissance d’une nouvelle humanité qui bénéficierait des capacités analytiques d’un superordinateur et qui serait débarrassée des inconvénients du corps biologique<ref>Modèle:Ouvrage</ref>.
Critique des singularistes
Critique du modèle scientifique
Des auteurs, sans critiquer directement la notion de singularité, remettent en question l'idée d'accélération technologique.
Le concept de singularité ne tient pas compte des besoins et des ressources disponibles en énergie. Soit il postule des ressources infinies, soit il estime sans le démontrer que les besoins ne changeront que peu. Accessoirement, il ne tient pas compte de la limite quantique à laquelle la miniaturisation des composants électroniques se heurtera nécessairement un jour, ni de perturbations négligeables aux échelles actuelles et qui ne le resteront pas forcément à d'autres échelles (particules alpha, etc.) ; à moins que l'ordinateur quantique ne prenne le relais des composants traditionnels...
Les hypothèses relatives à la Singularité sont régulièrement critiquées pour leur manque de solidité scientifique. Theodore Modis rappelle par exemple<ref name=TFSC>Technological Forecasting & Social Change 73 (2006) 95–127</ref> qu'une courbe exponentielle ne débouche sur aucune singularité, mais continue à croître à l'infini. Douglas Hofstadter se montre lui aussi très critique, avançant que cette idée n'exprime en fait qu'un souhait de ses défenseurs<ref>An Interview with Douglas R. Hofstadter, following I am a Strange Loop</ref>.
Jonathan Huebner écrit en conclusion de son article que Modèle:Citation<ref>Modèle:Citation</ref>,<ref>Jonathan Huebner, A possible declining trend for worldwide innovation, Technological Forecasting & Social Change 72 (2005) 980–986</ref>. De telles analyses se retrouvent également chez Bob Seidensticker<ref>Bob Seidensticker, Future Hype: The Myths of Technology Change, Berrett-Koehler Publishers, Inc., 2006</ref> ou chez David Bodanis<ref>David Bodanis, Slow Forward, Is the speed of technological change an illusion? Discover, Vol. 27 No. 06, June 2006.</ref>.
Il existe bien des limites politiques, économiques, militaires (et stratégiques), des limites en ressources, et surtout la connaissance et les découvertes technologiques ont également leurs limites. Comme le conçoit également Ray Kurzweil.
De plus, Ray Kurzweil ne prend pas suffisamment en compte ce qu'est réellement une intelligence artificielle. L'Homme a toujours créé des outils pour améliorer l'économie et la société, mais ces améliorations de plus en plus nombreuses ne peuvent dépasser l'intérêt de la société concernée, elles ne seront toujours que des moyens de plus en plus développés pour atteindre les buts de celle-ci. Une intelligence artificielle est l'un de ces outils que l'Homme crée pour satisfaire ses besoins. Par conséquent, quand bien même l'amélioration exponentielle de la technologie se prolongerait dans les années à venir, elle a une limite absolue qu'elle ne dépassera jamais : les besoins de la société qui, eux, ne sont pas exponentiels. Par conséquent, cela signifie qu'une fois que la technologie sera en mesure de complètement satisfaire la société, son évolution se stabilisera. Pour cette raison, toute singularité liée à l'amélioration d'une société a une limite prédéterminée : l'apogée de la société concernée.
Critique humaine
Modèle:Section travail inédit La connaissance, et le développement technologique ayant leurs limites : doit-on remettre volontairement ou non notre pouvoir de décision en tant qu'espèce humaine à une intelligence artificielle (Intelligence qui par définition ne pourra être contrôlée de manière fiable) ?
C'est une question de choix politique lié à la fois à la grandeur d'un état et à la fois individuel : il n'y a pas une singularité, mais des singularités<ref>Our world does not evolve along a single path but by multiple inter-related networked processes. Singularity Summit 2009: The Singularity Is Near, Ray Kurzweil</ref>,<ref name=":0" />.
Cette réflexion mérite d'être commencée dès aujourd'hui Modèle:Référence souhaitée
- Peut-on accepter toute évolution technologique, ayant un impact sur la définition de ce qu'est l'humanité ?Modèle:Référence nécessaire
- Peut-on accepter une évolution technologique, ayant un trop grand risque de perte de contrôle de la société humaine ?
Critique dialectique
Plusieurs auteurs sont très critiques à l'endroit de la notion de singularité, notamment telle que développée par Ray Kurzweil. Theodore Modis écrit ainsi : Modèle:Citation<ref>Modèle:Citation</ref>,<ref name=TFSC/>.
De son côté, Ted Gordon met également en doute les thèses de Kurzweil : Modèle:Citation<ref>Modèle:Citation</ref>,<ref name=TFSC/>.
Drew McDermott, sans être aussi sévère, s'inquiète des conséquences de ce genre de littérature pour les recherches en Intelligence Artificielle : Modèle:Citation<ref>Modèle:Citation</ref>,<ref>D. McDermott, Kurzweil’s argument for the success of AI, Artificial Intelligence 170 (2006) 1227–1233</ref>.
Plus simplement, on peut se rappeler que les singularités prévues en histoire de la physique (effondrement de l'atome de Bohr, catastrophe de l'ultraviolet…) n'ont jamais été observées, mais ont conduit plus simplement à un changement de modèle à leur voisinage.
Structure d'étude
À l'image du Santa Fe Institute créé pour regrouper les recherches sur le sujet de la complexité, mais sur une base d'activité saisonnière, une « université d'été de la Singularité » (Singularity University) a été créée en 2009 avec le concours de Google et de la NASA et offrira chaque été neuf semaines de cours sur le sujet à 120 étudiants<ref>Modèle:Lang 3 février 2009</ref> pour la somme de Modèle:Unité.
La singularité technologique dans la fiction
Notes et références
Voir aussi
Bibliographie
- Ray Kurzweil, « Humanité 2.0 : La bible du changement », M21 Éditions, 2007, Modèle:ISBN (traduction de « The Singularity is near »)
- Serge Boisse, « L'esprit, l'IA et la Singularité », Modèle:ISBN
- Kate Darling, Alain Bensoussan, Yannis Constantinides, Jean-Gabriel Ganascia, John Mc Carthy, Olivier Tesquet, « En compagnie des robots », Modèle:ISBN
Articles connexes
Notions générales Modèle:Colonnes
Penseurs « pro-singularité » Modèle:Colonnes Penseurs « anti-singularité » Modèle:Colonnes
Liens externes
- {{#invoke:Langue|indicationDeLangue}} Reducing long-term catastrophic risks from artificial intelligence, the Singularity Institute for Artificial Intelligence.
- {{#invoke:Langue|indicationDeLangue}} The singularity is near: when humans transcend biology(google books) par Ray Kurzweil, Modèle:ISBN
- {{#invoke:Langue|indicationDeLangue}} Technological Singularity, Vernor Vinge, 1993.
- {{#invoke:Langue|indicationDeLangue}} Special report on the Singularity.
- {{#invoke:Langue|indicationDeLangue}} Singularity Symposium
- {{#invoke:Langue|indicationDeLangue}} Singularity Hub
- Johann Roduit, La singularité technologique et le revenu de base inconditionnel, Le Temps, Modèle:Date-.