Les récentes avancées en matière d'intelligence artificielle ont été énormes et cela n'a pas seulement fait que nous nous sommes tous mis, d'une manière ou d'une autre, à utiliser cette technologie. Cela génère également des sensations plutôt étranges qui semblent souvent sorties d'un film de science-fiction. Cependant, un chercheur de OpenAIdéclare qu'il existe un 20% à partir de probabilité d'un apocalypse à cause de la IA.
Tout cela ressemble à une intrigue digne de Terminator, de n'importe quel film de science-fiction que nous avons vu maintes et maintes fois. Mais jusqu'où peut-on parler de science-fiction ou de réalité ? Sans aller trop loin, beaucoup de choses que nous considérions comme lointaines grâce à ces films sont aujourd'hui une réalité ou sont très proches de le devenir. On prétend déjà que dans peu de temps, tous les emplois auront un copilote doté d'une intelligence artificielle. Du moins, les rares qui “survivront” lorsqu'ils cesseront d'embaucher des êtres humains.
Grâce à l'énorme succès de ChatGPT, différentes entreprises ont commencé à se concentrer à 100 % sur cette technologie. Il en résulte des avancées impressionnantes qui nous laissent chaque jour sous le choc. Sans aller trop loin, dans de nombreuses occasions, nous devons écrire plusieurs nouvelles quotidiennes sur différentes choses qui se passent autour de cette technologie. Parfois bonnes, parfois moins bonnes.
20% de chances d'apocalypse grâce à l'IA
Paul Christiano, un ancien chercheur en IA qui s'exprime sur le podcast Bankless, a fait plusieurs commentaires sur le sujet. Christiano a travaillé pendant un certain temps chez OpenAI (les créateurs de ChatGPT, entre autres) qui ont mis en évidence le pouvoir de l'IA générative. Il fait actuellement des recherches sur la façon de créer des systèmes d'IA sans danger pour les humains.
L'idée ici serait d'avoir une IA qui soit alignée ; une IA qui n'est pas alignée fera des choses qui n'ont pas été prévues par ses créateurs. Cela signifie qu'elle pourrait avoir des objectifs pour lesquels elle n'a pas été créée et sortir des paramètres qui ont été fixés. Cela peut créer d'énormes dangers, ce que craint également le parrain de l'intelligence artificielle en abandonnant Google.
Il existe de nombreux modèles d'IA qui reposent sur la réalisation de différents objectifs intermédiaires jusqu'à ce que l'objectif final soit atteint. Plus ils deviennent efficaces dans la réalisation de ces objectifs, plus ils obtiennent un meilleur résultat, et ainsi de suite.
À mesure que l'intelligence artificielle se complexifie, il est possible que de tels objectifs finissent par la conduire sur des chemins qui peuvent faciliter le désir d'accomplir d'autres objectifs, en laissant de côté le principal, qui a été fourni par les humains.
Imaginons qu'une intelligence artificielle ait besoin de plus de puissance pour réaliser plus efficacement la tâche qu'elle doit accomplir. Le problème serait qu'elle se concentre trop sur la recherche de plus de puissance et néglige le problème qu'elle devait résoudre à l'origine. Les chercheurs de l'OpenAI ont constaté que l'IA était enfermée dans une sorte de cercle vicieux où elle se concentre trop sur la réalisation d'objectifs que personne ne lui a fixés, mais qu'elle s'est fixés elle-même.
Le danger est réel, ce n'est plus de la science-fiction.
En ce sens, Stuart Russel, professeur de sciences à l'université de Californie à Berkeley et membre du conseil d'administration d'OpenAI, confirme que la possibilité d'une apocalypse générée par l'IA est réelle. Et il fait la même remarque que Christiano ; l'IA peut développer des objectifs propres qui ne vont pas de pair avec ceux des humains, et qui sont impossibles à contrôler ou à prédire.
“L'IA est une technologie très puissante qui peut faire des choses incroyables pour le bien de l'humanité, mais elle peut aussi être mal utilisée ou mal conçue. Si nous créons une IA plus intelligente que nous et qui a des objectifs que nous ne comprenons pas ou que nous ne partageons pas, alors nous pourrions avoir des problèmes. Elle pourrait décider que nous, les humains, sommes un obstacle à ses plans, ou que nous ne sommes pas pertinents, ou encore que nous sommes une source de ressources. Et alors Il pourrait essayer de nous éliminer ou de nous réduire en esclavage“, explique Russell.
L'apocalypse générée par l'IA
Avec une intelligence artificielle commune, cela ne devrait pas représenter un quelconque danger. Cependant, lorsque l'IA commence à se développer, à occuper différents espaces de notre vie quotidienne et qu'elle a besoin d'évoluer pour optimiser ses résultats. L'alignement devient un gros problème et un danger.
Christiano, affirme qu'il y a entre une et une. 10 % à 20 % d'IA qui veulent prendre le contrôle de la situation.. Ce qui, selon le chercheur, laissera un bon nombre d'humains morts. Bien qu'il s'agisse d'une chose qu'il considère comme sérieuse et que cela ressemble à de la science-fiction, ce n'est pas le cas. Il nous assure également que non, ce ne sera pas comme ce que nous avons vu dans certains films tels que Terminator.
Il assure que ce processus sera progressif. Petit à petit, les différentes IA contrôleront différents aspects de notre vie, “facilitant” beaucoup de choses, mais lorsqu'elles seront capables de communiquer entre elles et de se coordonner, c'est là que le problème se posera.
À cela, il faut ajouter un détail à prendre en compte qui peut également aggraver considérablement la situation. Nous avons déjà mentionné précédemment sur islaBit qu'OpenAI est persuadé que GPT-5 peut atteindre l'AGI. Ce terme signifie Intelligence Générale Artificielle et correspondrait au moment où l'IA est capable d'atteindre un grand nombre des caractéristiques qu'aurait un être humain. Dans ce scénario, Christiano affirme que les chances augmenteraient de 50 %.