L'intelligence artificielle pourrait nous avoir empêchés d'entrer en contact avec des extraterrestres, selon une étude
Si nous n'avons pas encore réussi à trouver des extraterrestres, l'intelligence artificielle pourrait être en cause, selon une nouvelle étude. Pourquoi ? Découvrons-le ensemble.
La théorie du Grand Filtre et la recherche de contacts extraterrestres
Freepik
Les scientifiques recherchent depuis toujours un contact avec des extraterrestres, mais en réalité, aucune preuve de leur existence n'a jamais été recueillie, bien qu'il serait présomptueux d'imaginer vivre sur la seule planète de l'Univers entier abritant des formes de vie. Une nouvelle étude a suggéré que l'intelligence artificielle pourrait être responsable du manque de contact entre les extraterrestres et l'humanité.
Étant donné l'immensité de l'espace, rempli d'étoiles et de planètes, il est assez étrange de n'avoir jamais reçu de signes témoignant de la présence de civilisations extraterrestres. Cette "absurdité" est connue sous le nom de paradoxe de Fermi, qui a longtemps suscité l'intérêt scientifique et causé une grande perplexité. Aujourd'hui, un scientifique se demande si le développement rapide de l'intelligence artificielle ne serait pas le secret de ce manque de contact avec les extraterrestres. L'idée repose sur la théorie du "Grand Filtre", selon laquelle la vie intelligente doit surmonter des obstacles et des difficultés significatifs pour évoluer vers une civilisation avancée, capable d'explorer l'espace.
De l'IA à l'ASI, la superintelligence artificielle
Michael Garrett, astrophysicien à l'Université de Manchester, au Royaume-Uni, suggère que le mystérieux Grand Filtre pourrait se cacher dans l'évolution de l'intelligence artificielle en superintelligence artificielle. Après les progrès incroyables de l'IA, les scientifiques se concentrent sur une avancée supplémentaire, concernant l'ASI, c'est-à-dire la superintelligence artificielle. Il s'agit d'une forme d'intelligence artificielle non seulement capable de surpasser l'intelligence humaine, mais qui serait également libre des limites d'apprentissage humaines en termes de rapidité.
Selon l'étude, le développement illimité de l'ASI pourrait conduire à l'extinction des civilisations d'ici deux cents ans. Une longévité de seulement deux siècles pourrait expliquer pourquoi le SETI, Search for Extraterrestrial Intelligence, n'a jamais détecté l'existence de civilisations extraterrestres technologiquement avancées dans notre galaxie.
"L'IA doit être réglementée d'urgence"
Freepik
Selon Garrett, une réglementation urgente est nécessaire dans le domaine du développement de l'IA. Le physicien Stephen Hawking avait alerté sur le développement d'une IA capable de surpasser l'intelligence humaine. Garrett a expliqué : "Sans une réglementation pratique, l'IA pourrait représenter une grave menace pour l'avenir non seulement de notre civilisation technologique, mais de toutes les autres."
En fin de compte, l'astrophysicien envisage que des obstacles insurmontables au cours de l'évolution des civilisations les aient empêchées de devenir des civilisations spatiales. "Le progrès rapide de l'IA pourrait coïncider avec une phase critique dans le développement d'une civilisation : la transition d'une espèce monoplanétaire à une espèce multiplanétaire." Le risque est donc de vaciller au moment où l'IA dépasse notre capacité à la contrôler et à explorer notre galaxie. "Dans ce scénario, j'estime que la durée de vie typique d'une civilisation technologique pourrait être inférieure à 100 ans, ce qui correspond approximativement au laps de temps entre la capacité de recevoir et de transmettre des signaux entre les étoiles (1960) et l'apparition estimée de l'ASI (2040) sur Terre. Il appartient à chacun d'entre nous de veiller à ce que lorsque nous atteignons les étoiles, nous le fassions non pas comme un avertissement pour les autres civilisations, mais comme un phare d'espoir – une espèce qui a appris à prospérer aux côtés de l'intelligence artificielle", conclut Garrett.