Apple n’a besoin que de 15 minutes pour reproduire votre voix
iOS 17 sera présenté le 5 juin par Apple mais la marque à la pomme a déjà montré quelques fonctionnalités.
Apple a déjà présenté une fonctionnalité d’iOS 17. Loin de sa tradition du secret, la marque à la pomme vient de donner un premier aperçu des mises à jour d’accessibilité qui seront disponibles cette année. Dans un document elle mentionne notamment « Live Speech » et « Personal Voice », deux nouvelles options qui devraient faciliter la vie de millions d’utilisateurs.
« Live Speech » doit permettre aux personnes l’utilisant de lire en temps réel ce qui vient d’être écrit sur l’iPhone. Cette fonctionnalité doit permettre aux personnes ayant du mal à parler à avoir des conversations téléphoniques simplement. Les victimes de SLA (sclérose latérale amyotrophique) perdent petit à petit l’usage de la parole et peuvent utiliser cette fonctionnalité pour continuer à communiquer.
Comprendre pour imiter
Afin de rendre son option, plus « humaine » Apple travaille depuis de longs mois pour rendre la voix de lecture moins « robotique ». C’est ici que « Personal Voice » rentre en jeu. Cette fonctionnalité doit permettre de comprendre et refaire la « signature vocale » d’une personne.
Pour cerner parfaitement la voix d’une personne, Apple demande à l’utilisateur de prendre 15 minutes de son temps pour paramétrer au mieux le système. La personne va alors devoir lire des phrases choisies au hasard et Apple va enregistrer les fréquences les unes après les autres.
Une voix synthétique plus vraie que nature
L’objectif est de comprendre comment la personne parle, avec quelle vitesse, quel accent, mais aussi de savoir quels sont les mots qui peuvent la mettre en difficulté ou encore les lettres et syllabes qui peuvent être plus marquées. Après ce petit travail de 15 minutes, l’iPhone doit être capable de reproduire une voix proche de celle de l’utilisateur, utilisable pour toute une conservation avec « Live Speech ».
Pour Philip Green, membre de l’association Team Gleason l’arrivée de cette nouvelle fonctionnalité est une excellente nouvelle. En 2018 les médecins lui ont diagnostiqué un SLA et il perd depuis l’usage de la parole. « Pouvoir créer une voix synthétique en seulement 15 minutes avec son iPhone, c’est extraordinaire ».