La prochaine nouveautés des AirPods pourrait être très étonnante
Voir avec vos oreilles, ça vous dit ?

Selon certaines rumeurs, Apple envisage d’intégrer un dispositif plutôt surprenant à sa prochaine génération d’AirPods : des caméras ! Les brevets déposés par la firme laissent penser que la nouvelle itération de leurs écouteurs sans fil pourrait inclure cette nouvelle fonctionnalité.
Mark Gurman avait déjà sous-entendu cette idée au mois de décembre dernier ; le concept semble se dessiner plus précisément désormais, selon des informations rapportées par la newsletter PowerOn et diverses sources industrielles.
Des AirPods capables de vous suivre… littéralement
Le projet, identifié sous le nom de code B796, prévoit l’intégration de modules optiques à faible résolution directement dans les écouteurs. Selon l’analyste Ming-Chi Kuo, ces capteurs infrarouges permettraient notamment de détecter les mouvements de tête des utilisateurs.
Cette intégration pourrait voir le jour d’ici deux à trois ans selon les différentes sources. Néanmoins, la question paraît assez pertinente : pourquoi implémenter des caméras dans des écouteurs qui servent, dans la grande majorité des cas, à écouter de la musique, passer des appels ou regarder des films/vidéos tranquillement dans son coin ? Comme Apple fait rarement ses choix au hasard, il y a bien une utilité au projet B796.
AirPods et IA : un flux d’informations visuelles en temps réel
Ces modules optiques s’intègrent en réalité dans la vision au long terme d’Apple de la réalité augmentée (AR). Nous savons que la firme développe actuellement des lunettes connectées, les Apple Glass, semblables aux Ray-Ban de Meta. Ces lunettes, visant un design élégant et léger, font face à un défi technique de taille : l’intégration des capteurs nécessaires à la réalité augmentée sans compromettre leur esthétique et leur confort.
C’est ici que les AirPods entrent en jeu. En les équipant de caméras infrarouges, Apple créerait un réseau de capteurs distribué autour du visage. Cette conception délesterait les lunettes d’une partie de leurs composants optiques, préservant ainsi leur légèreté. Les AirPods deviendraient alors des extensions sensorielles, captant l’environnement depuis les oreilles pendant que les lunettes se concentrent sur l’affichage.
Une approche que l’on pourrait qualifier de décentralisée, qui transformerait également les interactions avec l’iPhone. Les capteurs des AirPods alimenteraient continuellement l’IA du téléphone en données contextuelles, permettant une analyse environnementale permanente. On pourrait dès lors bénéficier d’une assistance numérique contextuelle sans avoir à sortir son téléphone de sa poche.
L’entreprise envisage d’y intégrer des capteurs supplémentaires pour mesurer le rythme cardiaque, la réponse galvanique de la peau (mesure de la conductance électrique de la peau qui varie en fonction de l’excitation émotionnelle et de l’activation physiologique), ou encore suivre les mouvements pendant l’activité physique. Les AirPods pourraient même détecter la proximité des mains près des oreilles grâce à des capteurs capacitifs.
Enfin, dernier point : le mariage entre les AirPods et le Vision Pro. Les caméras infrarouges amélioreraient la perception de l’environnement par le casque de réalité mixte, tout en optimisant le rendu audio en fonction du regard de l’utilisateur. Si l’ajout de caméras semble surprenant pour des écouteurs, elles pourraient devenir la norme d’ici la prochaine décennie, surtout au vu de la place croissante de l’AR/VR dans le secteur de la tech.
- Apple envisage d’ajouter des caméras à ses AirPods pour étendre leur utilité au-delà de l’écoute, notamment dans des applications de réalité augmentée.
- Ces capteurs seraient conçus pour fonctionner en complémentarité avec les Apple Glass et l’iPhone, offrant une perception enrichie de l’environnement.
- Les futurs AirPods pourraient également intégrer des fonctionnalités avancées liées à la santé et à l’activité physique.
Keizer Sauze
1 février 2025 à 22 h 54 min
“ces capteurs infrarouges permettraient notamment de détecter les mouvements de tête des utilisateurs.” C’est déjà le cas, toujours aussi pertinent ici…