I.A.

L’IA à usage général pose de sérieux risques et ne devrait pas être exclue de la loi de l’UE sur l’IA (Point de vue)

Aujourd’hui, des experts et des scientifiques en IA dirigés par Amba Kak et le Dr Sarah Myers West (AI Now Institute), le Dr Alex Hanna et le Dr Timnit Gebru (Distributed AI Research Institute), Maximilian Gahntz (Mozilla Foundation), le Dr Zeerak Talat ( Chercheur indépendant), et le Dr Mehtab Khan (Yale ISP) a publié une note d’information affirmant que «l’intelligence artificielle à usage général» (GPAI) comporte des risques graves et ne doit pas être exemptée en vertu de la prochaine loi de l’UE sur l’IA. Ils ont été rejoints par plus de 50 signataires institutionnels et individuels.

Le mémoire offre des conseils aux régulateurs de l’UE alors qu’ils se préparent à donner le ton réglementaire pour lutter contre les méfaits de l’IA dans la loi. Il fait valoir ce qui suit :

  1. GPAI est une catégorie étendue. Pour que la loi sur l’IA de l’UE soit à l’épreuve du temps, elle doit s’appliquer à un éventail de technologies, plutôt que de se limiter aux chatbots/grands modèles linguistiques (LLM). La définition utilisée dans l’approche générale du Conseil de l’UE pour les négociations en trilogue fournit un bon modèle.
  2. Les modèles GPAI comportent des risques inhérents et ont causé des dommages avérés et de grande envergure. Bien que ces risques puissent être transmis à un large éventail d’acteurs et d’applications en aval, ils ne peuvent pas être efficacement atténués au niveau de la couche application. 
  3. La GPAI doit être réglementée tout au long du cycle du produit, et pas seulement au niveau de l’application, afin de tenir compte de l’éventail des parties prenantes impliquées. L’étape de développement initiale est cruciale, et les entreprises qui développent ces modèles doivent être responsables des données qu’elles utilisent et des choix de conception qu’elles font. Sans réglementation au niveau du développement, la structure actuelle de la chaîne d’approvisionnement de l’IA permet effectivement aux acteurs développant ces modèles de profiter d’une application distante en aval tout en évitant toute responsabilité correspondante.
  4. Les développeurs de GPAI ne devraient pas pouvoir renoncer à leur responsabilité en utilisant une clause de non-responsabilité légale standard. Une telle approche crée une échappatoire dangereuse qui permet aux développeurs originaux de GPAI (souvent de grandes entreprises bien dotées) de se tirer d’affaire, plaçant plutôt la responsabilité exclusive sur les acteurs en aval qui manquent de ressources, d’accès et de capacité pour atténuer tous les risques. 

La réglementation devrait éviter d’approuver des méthodes étroites d’évaluation et de contrôle de la GPAI qui pourraient se traduire par un exercice superficiel de cases à cocher. Il s’agit d’un domaine de recherche actif et très disputé qui devrait faire l’objet d’une large consultation, notamment auprès de la société civile, des chercheurs et d’autres acteurs non industriels. 

Article en anglais et possibilité de télécharger les 12 pages du brief complet (en anglais également) sur AINOW : https://bit.ly/3myyY7o

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s