Actualités

L’Union européenne interdit le « score social » et statue sur l’IA

Une première dans le monde.

Il y a

le

© Dall-E x iPhon.fr

Après de longues négociations, les députés européens sont parvenus hier à une entente avec le conseil concernant le sujet de l’intelligence artificielle. Ils ont ensemble décidé des mesures à mettre en place afin de la réguler au mieux.

L’Union européenne est par ailleurs la première institution au monde à proposer une réglementation en la matière, comme l’a mentionné Thierry Breton dans sa dernière publication sur le réseau social [X].

Il est vrai que l’institution est pour une fois en avance sur son sujet. Mais l’initiative n’est peut-être pas de leur ressort. Par le passé, voyant que les systèmes qu’ils étaient en train de développer avaient la capacité de compromettre les systèmes démocratiques en place, certains des principaux acteurs opérant dans le secteur de l’IA ont demandé à l’UE d’être régulé. C’est ce qu’a rapporté Aurélie Jean, une chercheuse française réputée mondialement dans le domaine, qui ajoute que Mark Zuckerberg faisait également partie de cette demande de régulation.

« La loi sur l’IA fixe des règles pour les modèles d’IA de grande envergure et puissants, garantissant qu’ils ne présentent pas de risques systémiques pour l’Union et offre de solides garanties à nos citoyens et à nos démocraties contre tout abus de la technologie par les autorités publiques. »

Les IA dont nous entendons parler de manière répétée depuis un peu plus d’un an maintenant sont par ailleurs des IA dites génératives (Chat GPT, Bard, etc..). Elles ne font que répéter ce que des êtres humains leur ont appris. Les craintes quant à une IA qui serait susceptible de compromettre le modèle démocratique en place sont du type « générale ».On expliquait cela dans un précédent article sur le sujet.

Les réglementations mises en place

Voici la liste des applications de l’IA que souhaite interdire l’UE :

  • les systèmes de catégorisation biométrique qui utilisent des caractéristiques sensibles (par exemple, convictions politiques, religieuses, philosophiques, orientation sexuelle, race) ;
  • récupération non ciblée d’images faciales provenant d’Internet ou de séquences de vidéosurveillance pour créer des bases de données de reconnaissance faciale ;
  • la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement ;
  • notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
  • Des systèmes d’IA qui manipulent le comportement humain pour contourner leur libre arbitre ;
  • L’IA est utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).

Une partie des mesures citées ci-dessus peuvent faire l’objet d’une exonération dans le cadre de certaines enquêtes.

Certains systèmes d’IA jugés potentiellement à « haut risque » à cause de « leurs dommages potentiels importants à la santé, à la sécurité, aux droits fondamentaux, à l’environnement, à la démocratie et à l’État de droit » devront en outre se soumettre à des obligations très strictes.

Voir aussi:

i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
606 avis
5 Commentaires

Sur le même sujet

Quitter la version mobile