iOS 14 et accessibilité : des progrès pour les utilisateurs atteints de déficience visuelle
Apple est une des entreprises les plus à la pointe autour de la question de l’accessibilité de ses produits.
« Faire un iPhone pour tous » c’est l’ambition affichée par Apple. Dans ce sens, le site de la marque dédiée à l’accessibilité a récemment été redessiné par la firme. Cette nouvelle mise en page met un peu plus en avant les fonctionnalités disponibles pour les personnes en situation de handicap sur un iPhone ou un iPad.
Car il est aujourd’hui très difficile de vivre sans un smartphone, la marque à la pomme s’applique à ce que ses produits soient les plus inclusifs possibles. En ce sens, Apple vient de mettre en place une nouvelle fonctionnalité qui améliore encore VoiceOver, une option déjà très connue, et très utile pour toutes personnes souffrant d’une déficience visuelle. Grâce à la reconnaissance d’écran, maintenant disponible dans la dernière version d’iOS 14, il est possible pour l’iPhone de comprendre automatiquement quelles icônes sont situées sur l’écran d’accueil.
La mise à jour va plus loin vu qu’elle offre la possibilité de reconnaître les boutons et les fonctionnalités de l’écran d’accueil. Chose qui était alors possible, uniquement si le propriétaire du téléphone venait paramétrer tout cela manuellement. Ce ne sera plus nécessaire dorénavant, l’iPhone apprendra seul à mieux comprendre l’écran d’accueil, et il apprendra de ses erreurs pour se perfectionner. « La reconnaissance d’écran est une deuxième étape. — après l’arrivé de l’étiquetage d’icônes automatique — nous pouvons regarder les pixels à l’écran et identifier la hiérarchie des objets avec lesquels vous pouvez interagir, et tout cela se produit sur l’appareil en quelques dixièmes de seconde », a expliqué en ce sens Chris Fleizach, membre de l’équipe d’Apple responsable de la partie « accessibilité ».
Pour donner un exemple de ce que cette nouvelle fonctionnalité va apporter, elle sera ainsi capable de lire les informations dans une photo, comme dans l’exemple sous la photo ci-dessous.
wham
10 décembre 2020 à 16 h 47 min
Il me semble que la vocalisation descriptive d’une photo date de iOS 11, non ? ⟹ https://a11y-guidelines.orange.com/fr/mobile/ios/wwdc/2017/215/#amelioration-de-la-description-dune-photo-0801
Pierre Otin
11 décembre 2020 à 9 h 04 min
@wham : iOS 11 était bien capable de décrire le contenu d’une photo grossièrement et même de lire du texte inclus dans une photo. Mais iOS 14 peut faire beaucoup plus. Le système peut détecter un bouton sur une image, mais aussi une icône, des menus, etc. Sans mentionner le fait que l’analyse est beaucoup plus précise désormais. La photo en exemple dans l’article le montre bien. Le système décrit que deux personnes posent pour une photo, en souriant, ce qui correspond à une profondeur de traitement de l’image poussée que ne pouvait pas faire le logiciel dans ses anciennes versions.