Comme la société, Apple Intelligence est finalement pleine de préjugés
Sa fonction de génération d’images reproduit les stéréotypes raciaux.

Les premières versions d’intelligence artificielle ont tendance à commettre des erreurs parfois gênantes… Rappelez-vous en février 2024, quand Google a dû suspendre la génération d’images sur Gemini. Son IA représentait des soldats nazis noirs et des femmes parmi les pères fondateurs américains, forçant l’entreprise à désactiver temporairement cette fonctionnalité.
Apple Intelligence n’échappe pas à la règle. Si vous utilisez déjà la suite d’outils IA d’Apple au Royaume-Uni ou aux États-Unis, vous avez peut-être remarqué ses erreurs dans le résumé des notifications. La BBC et le New York Times ont été victimes de plusieurs fausses informations générées par l’IA. La firme à la pomme fait maintenant face à un nouveau défi avec son générateur d’images.
Des stéréotypes profondément ancrés
Image Playground, l’outil de génération d’images d’Apple Intelligence, peine à gérer la diversité. L’expert en modèles de langage Jochem Gietema a testé le système en soumettant sa photo, obtenant des résultats surprenants. L’IA hésite sur la couleur de peau du sujet, le représentant tantôt blanc, tantôt noir, rien de bien grave en soit.
Le plus troublant est qu’Image Playground reproduit des clichés sociaux bien ancrés. Lorsque Jochem a demandé au générateur d’Apple de générer des images de lui en”riche » ou « banquier », l’outil génère majoritairement des visages blancs en costume. À l’inverse, les mots « pauvre » ou « fermier » produisent essentiellement des visages plus foncés avec des tenues décontractées :
Found some biases in @Apple's Image Playground, which is their newest text-to-image generation app. For one particular photo, it creates very different images depending on the prompt (same input image). Some examples: pic.twitter.com/NO1oSxvO8r
— Jochem Gietema (@gietema) February 17, 2025
Une IA qui reflète nos biais
Ces résultats soulèvent des questions sur l’apprentissage de l’IA. Les données utilisées pour entraîner Image Playground semblent provenir d’une base imprégnée de stéréotypes sociaux. Apple devra probablement revoir son approche pour éviter ce type d’associations discriminantes.
L’expert à l’origine de ces tests précise cependant que ces biais n’apparaissent pas systématiquement. En utilisant d’autres photos comme point de départ, Image Playground produit des résultats plus équilibrés. La firme à la pomme devrait donc corriger ces dérives avec une mise à jour de son modèle d’apprentissage.
fredofred
18 février 2025 à 18 h 32 min
En gros on va avoir une IA complètement woke ….🙄
Go Woke go Broke
19 février 2025 à 0 h 22 min
Oui c’est exactement ce qu’ils veulent, ce site est un nid de gauchiste :
>> Les gauchistes essayent de faire croire que les blancs sont plus riches que les noirs et ensuite ils s’indignent quand on représente une personne pauvre de couleur noire…
Pareil avec les soldats allemands de la deuxième guerre mondiale : il faut mettre des noirs partout mais par contre pas dans le mauvais rôle, hein…
Tu as parfaitement compris, mais le wokisme se casse la … Go woke, go broke.
Haznut
18 février 2025 à 18 h 54 min
… ou plutôt réactionnaire. Selon les tendances du temps de l’internet.
Hélas, le progressisme humaniste sincère n’est plus si répandu.
Ces IA, qui ne font que collationner les données sur internet, reflètent tous les biais cognitifs de nos sociétés.
Vivement que tous les humains se mettent à la philosophie. Mais cela demande de l’effort et du travail.
Cyril
20 février 2025 à 8 h 24 min
Il suffit de boycotter l’ia ! C’est la demande qui crée l’offre et inversement.
Quand on connaît en plus l’impact écologique de ce truc qui est y totalement inutile pour les 3/4 de la planète (Hormis éventuellement médecine et cie),est-ce vraiment si utile. Déjà que les gens avec les assistants vocaux ne lèvent même plus leur cul du canapé pour éteindre une ampoule ou allumer un chauffage, je me demande bien où cela mènera. Pas dans le mur en tout cas, on l’a défoncé depuis bien longtemps sur une multitude de niveaux.