Selon des scientifiques, il y a 5 % de chances que l’intelligence artificielle provoque l’extinction de l’humain
Pour de nombreux chercheurs en intelligence artificielle (IA), le développement futur d’une IA surhumaine présente un risque non négligeable de provoquer l’extinction de l’humanité, mais il existe également un désaccord et une incertitude généralisés sur ces risques.
Selon une enquête menée auprès des plus grands spécialistes de l’IA, il y a 5 % de chances que celle-ci devienne incontrôlable et anéantisse l’humanité. À court terme, les chercheurs estiment que l’IA deviendra nettement plus avancée, capable de créer une chanson pop du Top 50 et d’écrire un best-seller avant 2030. Au moins, nos maîtres artificiels nous distrairont avant de nous tuer…
Selon les chercheurs de l’université de Californie à Berkeley (États-Unis) et de l’Université d’Oxford (Royaume-Uni) qui ont mené l’étude en décembre (lien plus bas :
Bien que les prédictions des experts en IA ne doivent pas être considérées comme un guide fiable de la vérité objective, elles peuvent fournir une pièce importante du puzzle. Leur familiarité avec la technologie et la dynamique de ses progrès passés les place dans une bonne position pour faire des suppositions éclairées sur l’avenir de l’IA.
L’enquête a interrogé 2 778 scientifiques ayant publié des études sur l’IA évaluées par des pairs sur leurs prévisions pour l’avenir. Le sentiment dominant ? L’incertitude.
Environ 68 % des chercheurs pensent que l’IA surhumaine a plus de chances de produire de bons résultats que de mauvais, mais près de la moitié de ces optimistes évoquent une possibilité non nulle d’extinction de l’humanité. L’étude met en évidence le danger que représente la création d’une intelligence artificielle puissante pour les plus grands chercheurs du monde. Un large consensus s’est dégagé sur le fait que la recherche visant à minimiser les risques de l’IA devrait être prioritaire, mais les chercheurs étaient divisés sur la question de savoir si les progrès de l’IA en général devraient s’accélérer ou se ralentir.
Plus de 80 % des chercheurs en IA se sont dits « extrêmement » ou « fortement » préoccupés par le fait qu’elle puisse favoriser la diffusion de fausses informations. Une majorité de chercheurs ont exprimé des préoccupations similaires concernant des dirigeants autoritaires qui utilisent l’IA pour contrôler leur population, les systèmes d’IA qui aggravent les inégalités économiques et le rôle de l’IA dans la création de virus artificiels. Cette enquête semble être la plus importante de ce type à ce jour.
Les principaux développeurs américains d’IA font référence à la sécurité dans leur énoncé de mission. En décembre, OpenAI a publié son premier document sur l’alignement de l’IA surhumaine sur les valeurs humaines. L’entreprise américaine d’intelligence artificielle Anthropic a établi une constitution pour ses systèmes d’IA afin de s’assurer qu’ils agissent conformément aux règles de notre société. Mais ces méthodes fonctionneront-elles vraiment avec des modèles d’IA plus intelligents que les humains ? Cela reste à voir, car l’IA actuelle n’est pas si intelligente que cela.
Les chercheurs ont donné leurs meilleures estimations de la date à laquelle la société réalisera 39 avancées majeures en matière d’IA. Les experts prévoient que l’IA sera capable d’assembler des LEGO, de traduire de nouvelles langues et de construire des jeux vidéo avant 2033. En 2063, les chercheurs estiment que l’IA pourrait faire le travail d’un chirurgien ou même d’un chercheur en IA.
L’étude publiée dans la revue AI Impacts (PDF) : Thousands of AI authors on the future of AI et présentée dans cette même revue : 2023 Expert Survey on Progress in AI.