Root NationDes articlesAnalytiqueSix commandements de l'intelligence artificielle

Six commandements de l'intelligence artificielle

-

Les années suivantes seront marquées par le développement rapide des technologies d'intelligence artificielle. Peut-être est-il nécessaire d'introduire des cadres clairement définis pour la création et l'utilisation de l'IA ? Est-ce que 6 mois d'expérience suffisent pour réguler une technologie qui n'a même pas encore quitté le labo ? Cette question sort de plus en plus de la bouche des experts et des journalistes en matière d'intelligence artificielle. Les voix et les appels à prendre des mesures pour réglementer l'intelligence artificielle - tant au niveau des utilisateurs qu'au niveau du développement des projets - se font de plus en plus entendre. L'histoire de tels appels a commencé il y a assez longtemps.

La présence omniprésente de l'intelligence artificielle dans l'espace numérique et, surtout, de modèles capables de créer un contenu qui ne différera pas de celui créé par l'homme, évoque des émotions très différentes. D'un côté, nous avons un groupe de passionnés qui voient l'avenir de l'IA et, malgré ses capacités relativement limitées (car l'IA ne pense pas, et se contente souvent de prendre des informations sur Internet), n'ont pas peur de lui confier de nombreuses tâches . De l'autre côté de la barricade se trouve un groupe qui exprime son scepticisme et son inquiétude face aux tendances actuelles du développement de l'intelligence artificielle.

Postulat de l'IA

Le pont entre les deux groupes est constitué par les chercheurs en intelligence artificielle, qui, d'une part, citent de nombreux exemples de la façon dont l'intelligence artificielle a affecté positivement la réalité environnante. En même temps, ils comprennent qu'il est trop tôt pour se reposer sur leurs lauriers et qu'un énorme saut technologique apporte de nombreux défis et une grande responsabilité. Un exemple clair de cette attitude est un groupe international de chercheurs en intelligence artificielle et en apprentissage automatique dirigé par le Dr Ozlem Garibay de l'Université de Floride centrale. La publication de 47 pages, écrite par 26 scientifiques du monde entier, identifie et décrit six défis que les institutions de recherche, les entreprises et les sociétés doivent relever pour sécuriser leurs modèles (et les logiciels qui les utilisent).

Oui, c'est un travail scientifique sérieux avec des explications importantes pour comprendre l'avenir de l'intelligence artificielle. Qui est intéressé, peut indépendamment lire ce rapport scientifique et tirez vos propres conclusions. En termes simples, les scientifiques ont identifié 6 commandements de l'intelligence artificielle. Tous les développements et actions de l'IA doivent s'y conformer afin qu'ils soient sûrs pour les personnes et le monde.

Postulat de l'IA

Dans mon article, écrit précisément sur la base de ces travaux scientifiques, je vais essayer de formuler les principaux postulats, lois selon lesquelles l'intelligence artificielle devrait exister et se développer. Oui, c'est mon interprétation presque libre des conclusions des scientifiques concernant le développement de l'intelligence artificielle et une tentative de les présenter dans, pour ainsi dire, une version biblique. Mais c'est ainsi que je voulais vous présenter ce travail scientifique de scientifiques respectés.

Intéressant aussi : Construire l'IA : qui mène la course ?

La première loi : le bien-être humain

Le premier postulat des chercheurs est de focaliser les travaux de l'intelligence artificielle sur le bien-être humain. En raison du manque de "valeurs humaines, de bon sens et d'éthique", l'intelligence artificielle peut agir d'une manière qui conduira à une détérioration significative du bien-être humain. Les problèmes peuvent être le résultat des capacités surhumaines de l'IA (par exemple, la facilité avec laquelle l'IA bat les humains - et pas seulement aux échecs), mais aussi le fait que l'IA ne pense pas par elle-même, et n'est donc pas capable de "filtrer" les préjugés ou erreurs évidentes.

Postulat IA

- Publicité -

Les chercheurs notent qu'une confiance excessive dans les technologies d'intelligence artificielle peut affecter négativement le bien-être des gens. Une société qui comprend peu le fonctionnement réel des algorithmes d'intelligence artificielle a tendance à trop lui faire confiance ou, au contraire, a une attitude négative envers les contenus générés par un certain modèle, en particulier les chatbots. Compte tenu de ces facteurs et d'autres, l'équipe de Garibay appelle à placer le bien-être humain au centre des futures interactions IA-humain.

Lisez aussi: ChatGPT : un guide d'utilisation simple

La deuxième loi : la responsabilité

La responsabilité est un terme qui ne cesse d'apparaître dans le monde de l'IA dans le contexte de ce pour quoi nous utilisons l'apprentissage automatique et de la manière exacte dont les modèles et algorithmes d'IA sont développés et entraînés. L'équipe internationale souligne que la conception, le développement et la mise en œuvre de l'intelligence artificielle doivent se faire exclusivement avec de bonnes intentions.

Postulat IA

Selon eux, la responsabilité doit être considérée non seulement dans un contexte technique, mais également dans un contexte juridique et éthique. La technologie doit être considérée non seulement du point de vue de son efficacité, mais aussi dans le contexte de son utilisation.

"Avec l'introduction de techniques avancées d'apprentissage automatique, il devient de plus en plus important de comprendre comment une décision a été prise et qui en est responsable” - écrivent les chercheurs.

La troisième loi : la confidentialité

La vie privée est un sujet qui fait boomerang dans tous les discours sur la technologie. Surtout quand tout se discute sur les réseaux sociaux. Cependant, cela est extrêmement important pour l'intelligence artificielle car elle n'existe pas sans base de données. Et que sont les bases de données ?

Les scientifiques les décrivent comme "une abstraction des éléments de base qui composent notre façon de voir le monde". Ces blocs sont généralement des valeurs banales : couleurs, formes, textures, distances, temps. Alors que l'IA étroite se concentrait sur un seul objectif, tel que le degré d'ouverture de l'obturateur à une intensité lumineuse donnée, utilise des données objectives accessibles au public, l'IA dans des applications plus larges (ici, par exemple, des modèles texte-image tels que Midjourney , ou des modèles de langage tels que ChatGPT ) peuvent utiliser des données sur et créées par des personnes. Il convient également de mentionner les articles de presse, les livres, les illustrations et les photographies publiés sur Internet. Les algorithmes d'intelligence artificielle ont accès à tout, parce que nous le leur avons nous-mêmes donné. Sinon, il ne saura rien et ne répondra à aucune question.

Postulat IA

Les données des utilisateurs affectent fondamentalement à la fois les personnes sur lesquelles ces données sont collectées et les personnes du système où les algorithmes d'intelligence artificielle seront implémentés.

Par conséquent, le troisième défi concerne une compréhension large de la vie privée et la garantie de droits tels que le droit de rester seul, le droit de limiter l'accès à soi-même, le droit au secret de sa vie personnelle ou de ses affaires, le droit de contrôler ses l'information, c'est-à-dire le droit de protéger sa personnalité, son individualité et sa dignité. Tout cela doit être écrit dans les algorithmes, sinon la confidentialité n'existera tout simplement pas, et les algorithmes d'IA peuvent être utilisés dans des stratagèmes frauduleux ainsi que des infractions pénales.

Lisez aussi: 7 façons les plus cool d'utiliser ChatGPT

Quatrième loi : Structure du projet

L'intelligence artificielle peut être extrêmement simple et à usage unique, mais dans le cas de modèles plus grands avec une nature large et multitâche, le problème n'est pas seulement la confidentialité des données, mais aussi la structure de conception.

Par exemple, GPT-4, le dernier modèle d'intelligence artificielle d'OpenAI, malgré sa taille et son impact sur le monde de l'IA (et au-delà), n'a pas de documentation entièrement publique. Autrement dit, nous ne comprenons pas quels sont les objectifs finaux pour les développeurs, ce qu'ils veulent obtenir dans le résultat final. Par conséquent, nous ne pouvons pas évaluer pleinement les risques associés à l'utilisation de ce modèle d'IA. GPT-3, d'autre part, formé sur les données du forum 4chan, est un modèle avec lequel vous ne voulez absolument pas interagir. Le forum 4chan est l'un des phénomènes les plus intéressants sur Internet. C'est un exemple d'anarchie absolue, totale, qui en pratique n'est limitée par aucun cadre. C'est là que des groupes de piratage comme Anonymous ou LulzSec ont été créés. C'est la source de bon nombre des mèmes les plus populaires, un endroit pour discuter de sujets controversés et publier des opinions encore plus controversées. Bien que le tableau d'images en anglais note que "jusqu'à présent, c'est légal", cela est quelque peu discutable, étant donné que 4chan s'engage occasionnellement avec les médias, y compris des contenus racistes, nazis et sexistes.

Postulat IA

- Publicité -

L'équipe du professeur Garibay souhaite que chaque modèle d'intelligence artificielle fonctionne dans un cadre clairement défini. Non seulement à cause du bien-être de la personne avec qui l'IA interagit, mais aussi à cause de la capacité à évaluer les risques liés à l'utilisation du modèle. La structure de tout projet doit inclure le respect des besoins, des valeurs et des souhaits des différents groupes culturels et parties prenantes. Le processus de création, de formation et de mise au point de l'IA doit être axé sur le bien-être humain, et le produit final - le modèle d'IA - doit être axé sur l'amélioration et l'amélioration de la productivité de la communauté humaine elle-même. Les modèles où les risques ne peuvent pas être identifiés doivent avoir un accès limité ou contrôlé. Ils ne doivent pas être une menace pour l'humanité, mais au contraire contribuer au développement de l'homme et de la société dans son ensemble.

Lisez aussi: Twitter entre les mains d'Elon Musk - une menace ou une « amélioration » ?

La Cinquième Loi : Gouvernance et Contrôle Indépendant

Les algorithmes d’intelligence artificielle ont littéralement changé le monde en seulement un an. Bard par Google et Bing premières par Microsoft a considérablement affecté les actions des deux géants en bourse. À propos, ils ont contribué à la croissance des actions de ces sociétés, même dans le contexte des actions. Apple. ChatGPT a commencé à être activement utilisé par les élèves, ils communiquent avec lui, l'examinent et posent des questions. La chose la plus importante est qu'il a la capacité d'auto-apprendre, de corriger ses erreurs. L'intelligence artificielle commence même à fonctionner dans les gouvernements de certains pays. C'est le cas du Premier ministre roumain, Nicolae Chuca embauché un virtuel un assistant qui le renseignera sur les besoins de la société. Autrement dit, l'intelligence artificielle joue un rôle de plus en plus important dans nos vies.

IA

Compte tenu de l'interdépendance toujours croissante entre l'intelligence artificielle, l'homme et l'environnement, les scientifiques estiment nécessaire de créer des organes de gouvernance et de contrôle indépendants de son développement. Ces organismes contrôleront l'ensemble du cycle de vie de l'intelligence artificielle : de l'idée au développement et à la mise en œuvre. Les autorités définiront correctement différents modèles d'IA et examineront les cas liés à l'intelligence artificielle et aux sujets de la vie sociale. Autrement dit, l'intelligence artificielle peut faire l'objet d'affaires judiciaires, ainsi que de poursuites. Bien sûr, pas lui personnellement, mais ses développeurs.

Lisez aussi: Tout sur Neuralink : le début de la folie cyberpunk ?

La sixième loi : L'interaction de l'homme et de l'intelligence artificielle

Dans les programmes d'intelligence artificielle, chacun peut trouver quelque chose pour lui-même : générer du texte, détecter du contenu dans des images, répondre à des questions, générer des images, reconnaître des personnes sur des photos, analyser des données. Ces multiples usages ne préoccupent pas seulement les personnes qui tentent d'adapter l'intelligence artificielle aux normes légales et éthiques. Beaucoup craignent d'être évincés du marché du travail par les modèles d'IA. Parce que les algorithmes d'intelligence artificielle pourront faire la même chose plus rapidement, moins cher et peut-être même mieux qu'une personne. En même temps, il y a des gens qui comptent sur l'IA dans leur travail, c'est-à-dire que l'intelligence artificielle est déjà un assistant indispensable pour eux aujourd'hui.

IA

Mais d'après les études auxquelles les scientifiques se réfèrent, il est clair que le remplacement des personnes par une main-d'œuvre artificielle bon marché est encore assez loin. Malgré cela, ils insistent déjà sur la nécessité d'établir une stricte hiérarchie d'interaction entre l'humain et l'intelligence artificielle. Selon eux, les humains devraient être placés au-dessus de l'intelligence artificielle. L'intelligence artificielle doit être créée dans le respect des capacités cognitives d'une personne, en tenant compte de ses émotions, de ses interactions sociales, de ses idées, de sa planification et de son interaction avec les objets. Autrement dit, dans toutes les situations, c'est la personne qui doit se tenir au-dessus de l'intelligence artificielle, contrôler le comportement et le contenu créé par le modèle, et en être responsable. En termes simples, même l'IA la plus avancée doit obéir à une personne et ne pas aller au-delà de ce qui est autorisé, afin de ne pas nuire à son créateur.

Lisez aussi: Comment l'Ukraine utilise et adapte Starlink en temps de guerre

conclusion

Oui, quelqu'un dira que les scientifiques n'ont rien indiqué d'important et de nouveau dans leur rapport. Tout le monde en parle depuis longtemps. Mais déjà maintenant, il est nécessaire de mettre l'IA dans un cadre législatif. Atteindre le GPT-4, c'est comme atteindre un couteau à l'aveuglette. Ils nous cachent des informations clés. Tous les développements de l'intelligence artificielle, et en particulier le projet ChatGPT d'Open AI, me rappellent souvent l'éducation d'un petit enfant. Parfois, il semble que ce soit un enfant d'origine étrangère. Oui, un étranger, mais c'est toujours un enfant qui apprend, fait des erreurs, se comporte parfois de manière inappropriée, est irritable, se dispute avec ses parents. Bien qu'il grandisse et se développe très rapidement.

IA

L'humanité peut ne pas suivre son développement et les choses peuvent devenir incontrôlables. Par conséquent, l'humanité a déjà besoin de comprendre pourquoi nous développons tout cela, de connaître les objectifs ultimes, d'être des "parents responsables", car sinon "l'enfant" peut tout simplement détruire ses "parents".

Lisez aussi: 

Yuri Svitlyk
Yuri Svitlyk
Fils des Carpates, génie mathématique méconnu, « avocat »Microsoft, altruiste pratique, gauche-droite
- Publicité -
S'inscrire
Avertir de
invité

0 Commentaires
Avis intégrés
Voir tous les commentaires