Root NationNouvellesActualités informatiquesLes experts en technologie exigent l'arrêt des expériences d'IA

Les experts en technologie exigent l'arrêt des expériences d'IA

-

Des leaders technologiques et d'éminents chercheurs en IA ont signé lettre ouverte, qui appelle les laboratoires d'IA et les entreprises à "suspendre immédiatement" leurs travaux.

Les signataires, dont Steve Wozniak et Elon Musk, conviennent que les risques nécessitent une interruption d'au moins six mois de la production de technologies qui dépassent le cadre GPT-4. Il s'agit d'obtenir la joie et la satisfaction des systèmes d'IA qui existent actuellement, et de permettre aux gens de s'y adapter et de voir qu'ils sont utiles.

Les leaders et experts technologiques appellent à l'arrêt des expériences d'IA

La lettre ajoute que la prudence et la prévoyance sont nécessaires pour garantir la sécurité des systèmes d’IA, mais elles sont ignorées. La référence à GPT-4, un nouveau modèle OpenAI capable de répondre par du texte à des messages écrits ou visuels, intervient alors que les entreprises se précipitent pour créer des systèmes de chat sophistiqués utilisant cette technologie. Exemple, Microsoft a récemment confirmé que son moteur de recherche Bing mis à jour fonctionnait sur le modèle GPT-4 depuis plus de 7 semaines, et Google a récemment officiellement introduit barde – propre système d'intelligence artificielle générative basé sur LaMDA.

Les inquiétudes concernant l'IA existent depuis longtemps, mais la course à l'adoption de la technologie la plus avancée est évidente intelligence artificielle le premier est déjà alarmant. "Ces derniers mois, les laboratoires d'IA ont été entraînés dans une course incontrôlée pour développer et mettre en œuvre des esprits numériques de plus en plus puissants que personne - pas même leurs auteurs - ne peut comprendre, prédire ou contrôler de manière fiable", indique la lettre.

Les leaders et experts technologiques appellent à l'arrêt des expériences d'IA

La lettre a été publiée par l'organisation à but non lucratif Future of Life Institute (FLI), qui s'efforce de minimiser les risques catastrophiques et existentiels mondiaux et l'utilisation abusive des nouvelles technologies, en particulier l'IA. Auparavant, Musk avait fait don de 10 millions de dollars à FLI pour la recherche sur la sécurité de l'IA. Outre lui et Wozniak, les signataires comprennent un certain nombre de leaders mondiaux dans le domaine de l'IA, tels que le président du Centre pour l'IA et la politique numérique, Mark Rothenberg, le physicien du MIT et président du FLI, Max Tegmark, et l'auteur Yuval Noah Harari.

Harari a également co-écrit un éditorial dans le New York Times la semaine dernière mettant en garde contre les risques associés à intelligence artificielle, sur lequel les fondateurs du Center for Humane Technologies et d'autres signataires de la lettre ouverte, Tristan Harris et Aza Raskin, ont travaillé avec lui.

L'appel fait suite à une enquête menée l'année dernière auprès de plus de 700 chercheurs en apprentissage automatique dans laquelle près de la moitié ont déclaré qu'il y avait environ 10% de chances de "conséquences extrêmement graves" de l'IA, y compris l'extinction humaine. Interrogés sur la sécurité dans la recherche sur l'IA, 68 % des répondants ont déclaré qu'il fallait faire plus ou beaucoup plus.

Lisez aussi:

sources'engager
S'inscrire
Avertir de
invité

0 Commentaires
Avis intégrés
Voir tous les commentaires