Applications

Intelligence artificielle : des employés d’OpenAI tirent la sonnette d’alarme

Ils veulent que les gouvernements surveillent les pionniers de l’IA.

Il y a

le

© Unsplash / Levart_Photographer

Des anciens employés d’OpenAI et de Google Deep Mind (le département IA d’Alphabet), mais aussi des salariés toujours en poste, ont signé et publié une lettre. Cette dernière vise à faire part au grand public de leurs inquiétudes concernant l’intelligence artificielle, et pour demander des garanties et des mesures aux gouvernements ainsi qu’aux grandes entreprises qui la développent.

La lettre est signée par 13 personnes en tout, dont 5 qui sont encore en poste. Du côté de ceux qui sont encore en poste chez OpenAI, ils sont du nombre de quatre, et aucun n’a donné son nom. Chez Google Deep Mind en revanche, le seul signataire encore en poste, ne s’est pas caché, il s’agit de Neel Nada.

Le contenu de la lettre

Afin de communiquer leurs ressentis et leurs revendications, les rédacteurs de la lettre sont allés jusqu’à acheter un nom de domaine, afin qu’elle soit mise en ligne sur une page web indépendante, sans les distractions extérieures des réseaux sociaux. C’est aussi probablement une manière de proposer un support différent, dont on se souviendra. Le domaine en question se nomme righttowarn.ai , qui veut dire droit d’avertir en français.

Les employés introduisent dans un premier temps la lettre avec une brève présentation de qui ils sont, puis vont communiquer sur le fait qu’ils sont au courant, plus que le commun des mortels, des réels enjeux et des risques de l’IA :

Ces risques vont de l’aggravation des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité. Les entreprises d’IA elles-mêmes ont reconnu ces risques.

La lettre cite des sources afin de garantir la véracité des faits avancés, puis les signataires y expriment leur souhait que les risques cités soient atténués grâce à des mesures concrètes. Ils comptent pour cela sur les différents régulateurs et décideurs à travers le monde.

Le problème de la recherche dans l’IA

Les avancées technologiques en matière d’intelligence artificielle posent problème, notamment à cause de la compétitivité du domaine. Les entreprises les plus avancées en la matière évoluent dans un environnement concurrentiel féroce. Elles n’ont par conséquent aucun intérêt à exposer leurs découvertes, ou à être surveillées par les régulateurs du monde entier. La lettre précise :

Les sociétés d’IA possèdent d’importantes informations non publiques sur les capacités et les limites de leurs systèmes, l’adéquation de leurs mesures de protection et les niveaux de risque de différents types de dommages. Cependant, elles n’ont actuellement que de faibles obligations de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile. Nous ne pensons pas qu’on puisse compter sur elles pour le partager volontairement.

Le dernier point soulevé par la lettre peut facilement s’illustrer avec OpenAI, qui prônait à ses début un modèle non lucratif, basé sur le partage des découvertes en matière d’IA, pour le bien de l’humanité. L’entreprise a depuis totalement changé d’optique et les signataires appellent par conséquent les régulateurs à agir.

Ils souhaitent notamment pousser les leaders de l’IA : à s’engager à respecter la liberté d’expression, à faciliter un processus anonyme pour partager les préoccupations liées aux risques, et à promouvoir la transparence. Ils insistent sur l’importance de protéger les lanceurs d’alerte et de permettre la communication ouverte des risques de l’IA, sans représailles, tout en préservant les secrets commerciaux et la propriété intellectuelle.

Cette affaire n’est pas sans rappeler la demande de régulation de Mark Zuckerberg faite à l’Union européenne en mai 2020. Le patron de Meta craignait déjà les capacités de l’IA il y a quatre ans. Il a par conséquent demandé à Bruxelles d’être un modèle en établissant une réglementation claire sur le sujet.

La demande du patron de Meta a été sérieusement prise en compte, puisque l’Union européenne a été le premier régulateur au monde à proposer un cadre en décembre 2023, qui implique notamment l’interdiction du score social à la chinoise sur le vieux continent.

i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
605 avis
Cliquez pour commenter

Sur le même sujet

Quitter la version mobile