Les PDG d'OpenAI et de Google DeepMind signent une déclaration avertissant que l'IA présente un "risque d'extinction"
Plus de 350 experts de l'industrie de l'IA, y compris d'OpenAI et de Google, avertissent que l'IA est aussi dangereuse que les grandes pandémies et la guerre nucléaire.
-
Un groupe d'experts en intelligence artificielle (IA) a averti que l'IA pourrait constituer une menace pour l'humanité si elle n'est pas développée et utilisée de manière responsable. Le groupe, qui comprend des chercheurs de Google, Microsoft et OpenAI, a publié un article dans la revue Nature le 30 mai 2023, exposant leurs préoccupations.
Sam Altman, PDG d'OpenAI, Dario Amodei, PDG d'Anthropic, et Demis Hassabis, PDG de Google DeepMind sont les signataires les plus notables.
"Atténuer le risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société, tels que les pandémies et la guerre nucléaire", lit-on dans la lettre ouverte. Le New York Times rapporte que la déclaration sera publiée par le Center for AI Safety, une nouvelle organisation à but non lucratif. Plus de 350 chercheurs, ingénieurs et dirigeants d'entreprise en IA ont cosigné la lettre.
Geoffrey Hinton et Yoshua Bengio sont deux chercheurs notables qui ont signé. Ce sont deux des trois chercheurs qui ont remporté un prix Turing pour le développement de réseaux de neurones. Tous deux innovateurs en IA, Hinton et Bengio sont connus comme les « parrains » de l'innovation en IA. Plus tôt ce mois-ci, Hinton a quitté son poste chez Google après avoir été frustré par le manque de vision et de leadership de Google dans le développement de l'IA. Il a également mis en garde contre les dangers potentiels de l'IA.
Les experts soutiennent que l'IA pourrait être utilisée pour créer des armes autonomes qui pourraient tuer sans intervention humaine. Ils craignent également que l'IA ne soit utilisée pour manipuler les gens ou diffuser de fausses informations. Le groupe appelle à un effort mondial pour développer l'IA de manière sûre et responsable.
L'avertissement des experts en IA intervient à un moment où l'IA devient rapidement plus puissante. Ces dernières années, l'IA a été utilisée pour développer des voitures autonomes, des logiciels de reconnaissance faciale et même des chatbots alimentés par l'IA. Alors que l'IA continue de se développer, il est important de considérer les risques potentiels ainsi que les avantages potentiels.
Les experts en IA qui ont publié l'article dans Nature ne sont pas les premiers à mettre en garde contre les dangers potentiels de l'IA. En 2015, Elon Musk et Stephen Hawking ont co-écrit une lettre ouverte appelant à l'interdiction des armes autonomes. Et en 2017, le Future of Life Institute, une organisation à but non lucratif qui promeut la recherche sur les risques existentiels, a publié un rapport sur les dangers de l'IA.
Les avertissements des experts en intelligence artificielle et d'autres experts sont un signal d'alarme. Il est clair que l'IA est une technologie puissante avec le potentiel de faire beaucoup de mal. Il est essentiel que nous développions l'IA de manière responsable et que nous prenions des mesures pour atténuer les risques.
Il y a beaucoup de préoccupations concernant l'IA et les législateurs et même ceux qui sont impliqués dans l'industrie de l'IA les expriment. Le plus grand paradoxe de la technologie à l'heure actuelle est peut-être que le développement se poursuit sur l'IA générative avancée malgré de nombreuses personnalités importantes qui dénoncent les dangers. Je suppose que la question évidente est la suivante : si des dirigeants comme Sam Altman sont inquiets, pourquoi développent-ils encore des systèmes d'IA ? Est-ce purement axé sur le profit, ou est-ce de l'orgueil et la conviction que nous pouvons contrôler cette technologie ?
Sam Altman est le co-fondateur d'OpenAI (avec Elon Musk) et actuel PDG de la société de recherche en IA. Il est devenu l'un des leaders technologiques les plus puissants au cours des derniers mois, alors que ChatGPT est devenu le chatbot AI le plus courant. Altman a également noué un partenariat approfondi avec Microsoft suite à des milliards de dollars d'investissements de la société Redmond.
Alors qu'OpenAI et Microsoft ont développé leurs produits d'IA tels que GPT-4, ChatGPT, Bing Chat, Microsoft 365 Copilot et GitHub Copilot. Cependant, les critiques d'Altman affirment qu'OpenAI a été trop rapide pour développer ses produits d'IA générative sans attendre les réglementations appropriées. Elon Musk, ancien partenaire d'Altman chez OpenAI, est l'un de ces critiques, affirmant que la situation actuelle de l'entreprise n'est pas ce qu'il voulait.
Musk a également rejoint d'autres leaders de la technologie pour créer le projet Initiative for Life, qui appelle les développeurs d'IA à cesser le développement de modèles plus puissants que GPT-4 pendant au moins six mois. Il convient de noter qu'Altman a récemment affirmé que GPT-5 n'était pas développé par OpenAI. Cette semaine, Altman a pris la parole lors d'une audience du Congrès aux États-Unis et a admis qu'il fallait mettre en place des réglementations claires et strictes pour le développement de l'IA.
L'IA pourrait menacer notre existence malgré les inquiétudes, elle avance à plein régime pour le développement de l'IA