Root NationNouvellesActualités informatiquesLe code écrit par l'intelligence artificielle peut être dangereux

Le code écrit par l'intelligence artificielle peut être dangereux

-

Les algorithmes d'apprentissage automatique font fureur en ce moment, car ils sont utilisés pour créer tout type de contenu "original" après une formation sur d'énormes ensembles de données préexistants. Cependant, l'intelligence artificielle (IA) générant du code pourrait poser un réel problème pour la sécurité des logiciels à l'avenir.

Les systèmes d'IA comme GitHub Copilot promettent de faciliter la vie des programmeurs en créant des morceaux entiers de "nouveau" code basé sur des données textuelles en langage naturel et un contexte préexistant. Mais les algorithmes de génération de code peuvent également introduire un facteur d'insécurité, comme l'a récemment découvert une nouvelle étude impliquant plusieurs développeurs.

En ce qui concerne spécifiquement Codex, la plate-forme d'intelligence artificielle développée par OpenAI qui est également le moteur de code derrière le copilote GitHub susmentionné, 47 développeurs différents ont participé à l'étude. Des étudiants aux professionnels expérimentés, ils ont été mis au défi d'utiliser Codex pour résoudre des problèmes liés à la sécurité en Python, JavaScript, C et d'autres langages de programmation de haut niveau.

Le code écrit par l'intelligence artificielle peut être intrinsèquement dangereux

Les chercheurs ont noté que lorsque les programmeurs avaient accès à l'IA du Codex, le code résultant était plus susceptible d'être incorrect ou peu sûr par rapport aux solutions "manuelles" conçues par un groupe témoin. De plus, les programmeurs disposant de solutions basées sur l'IA étaient plus susceptibles de dire que leur code non protégé était sûr, par rapport au groupe de contrôle susmentionné.

Ale Perry, étudiant diplômé de l'Université de Stanford et co-auteur principal de l'étude, a déclaré que "les systèmes de génération de code ne peuvent actuellement pas remplacer les développeurs humains". Selon lui, les développeurs peuvent utiliser des outils d'intelligence artificielle pour effectuer des tâches hors de leur compétence ou pour accélérer le processus de programmation dans lequel ils possèdent déjà certaines compétences. Selon l'auteur de l'étude, ils devraient se préoccuper des deux et toujours vérifier le code généré.

Selon Megha Srivastava, étudiante diplômée à Stanford et deuxième co-auteur de l'étude, Codex n'est pas inutile : malgré les défauts de l'IA "stupide", les systèmes de génération de code peuvent être utiles lorsqu'ils sont utilisés pour des tâches à faible risque. De plus, les programmeurs qui ont participé à l'étude n'avaient pas beaucoup d'expérience en matière de sécurité, ce qui pourrait aider à identifier le code vulnérable ou dangereux, a déclaré Srivastava.

Le code écrit par l'IA peut être intrinsèquement dangereux

Les algorithmes d'IA peuvent également être modifiés pour améliorer les suggestions de codage, et les entreprises développant leurs propres systèmes peuvent obtenir de meilleures solutions avec un modèle qui génère du code plus adapté à leurs propres pratiques de sécurité. Selon les auteurs de l'étude, la technologie de génération de code est un développement "excitant" et de nombreuses personnes sont impatientes de l'utiliser. C'est juste qu'il reste encore beaucoup de travail à faire pour trouver les bonnes solutions pour combler les lacunes de l'IA.

Vous pouvez aider l'Ukraine à lutter contre les envahisseurs russes. La meilleure façon de le faire est de faire don de fonds aux forces armées ukrainiennes par le biais de Sauver la vie ou via la page officielle NBU.

Intéressant aussi :

sourcetechspot
S'inscrire
Avertir de
invité

0 Commentaires
Avis intégrés
Voir tous les commentaires
Autres articles
Abonnez-vous pour les mises à jour
Populaire maintenant