Apple

Siri aussi…

Apple aurait été épinglé à permettre l’écoute par des humains de certains enregistrements audio effectués auprès de Siri. Et à l’instar de l’affaire concernant Google et les écoutes de Google Assistant, les faux positifs ne seraient pas si rares.

Il y a

le

© Apple

Après Google et Amazon, c’est au tour d’Apple de faire la une au sujet de son assistant vocal et du respect de la vie privée. Une source du journal The Guardian a révélé de nombreuses informations sur son travail de traitement de certaines requêtes Siri.

Siri, pas si différent de Google Assistant ?

L’informateur précise travailler pour une société sous-traitante d’Apple. Celle-ci a pour tâche d’écouter certains enregistrements audio captés par Siri auprès d’utilisateurs, de les analyser et de les noter à des fins d’amélioration de la technologie sous-tendant l’I.A. d’Apple. Il existerait plusieurs entreprises de ce type à travers le monde, travaillant dans le même but.

Et pour évaluer l’assistant vocal, selon la source, les employés de ces sociétés doivent également signaler toute erreur d’activation, ou faux positifs. Il y aurait beaucoup de requêtes de ce type à traiter, la majorité provenant de l’Apple Watch et de l’HomePod. L’Apple Watch serait particulièrement sujette aux faux positifs, car pour activer Siri sur cette dernière, il est possible de simplement la porter près de la bouche et d’effectuer la requête.

Ainsi, des activations accidentelles seraient régulièrement entendues par la personne source des révélations et ses collègues. Ils leur arriveraient ainsi d’avoir à écouter des enregistrements audio de transactions illégales de stupéfiants, d’actes sexuels, ou de discussion entre médecin et patient, entre autres.

En outre, toujours selon The Guardian et son informateur, les enregistrements sont accompagnés de diverses informations, comme le positionnement géographique ainsi que des détails sur les contacts et apps mentionnées.

© Apple

Les réponses d’Apple

À l’inverse d’Amazon et de Google, ce type de révélation prend une autre envergure en concernant Apple et Siri. Car la firme de Cupertino s’inscrit depuis plusieurs années comme défendeur de la vie privée justement. En témoigne l’un de ses fameux slogans “ce qui se passe sur votre iPhone, reste sur votre iPhone”. La société californienne, afin de soigner son image, n’a donc pas tardé à répondre à l’article de The Guardian. Elle a alors émis plusieurs précisions.

D’une part, selon elle, les enregistrements de Siri audibles par des humains ne constituent qu’une infime portion de toutes les requêtes effectuées sur des millions d’appareils Apple, soit moins de 1 %. Elle ajoute qu’à aucun moment il n’est possible de lier l’enregistrement audio et l’Apple ID de l’utilisateur. Et puis elle finit par préciser que les utilisateurs sont libres de désactiver la géolocalisation pour Siri dans les réglages, pour éviter que ses requêtes Siri ne puissent être localisées géographiquement.

Finalement, jamais Apple ne semble réfuter les différents points de l’article du Guardian, ce qui parait assez inquiétant. Car c’est ainsi que Siri présente un fonctionnement finalement assez semblable à celui des assistants vocaux concurrents, notamment en matière de vie privée.

i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
606 avis
17 Commentaires

Sur le même sujet

Quitter la version mobile