Apple et le futur de l’accessibilité dans iOS 11

Maintenant qu’Apple a levé le voile sur les prochaines itérations majeures de ses différents systèmes d’exploitation au sein de sa conférence de lundi, il est désormais possible d’entrevoir ce qui se dessine au niveau de leur accessibilité intrinsèque. Du coup, on peut à présent tenter de faire un petit récapitulatif des changements même si les versions actuelles n’en sont qu’au stade liminaire et que rien ne sera figé dans le marbre tant que les versions grand public n’auront pas été publiées cet automne !

iOS 11

Dans cette publication, nous débutons par iOS. Pour la version 11, la firme de Cupertino semble s’être principalement focalisée sur l’iPad, en vue de rapprocher davantage ses tablettes de l’expérience que l’on pourrait avoir sur un ordinateur. Pour autant, l’accessibilité n’a pas été reléguée au second plan, bien au contraire :

  • VoiceOver peut désormais extraire le texte contenu dans des images même si elles n’ont pas été labellisées au préalable, grâce à une petite dose d’intelligence artificielle associée à une fonction de reconnaissance optique de caractère (OCR) ;
  • La personnalisation de la verbosité du lecteur d’écran est plus flexible. On peut par exemple décider quelles seront les en-têtes à énoncer au sein des tableaux ;
  • Une meilleure gestion des informations relatives au rotor, ce qui nous évitera entre autres l’interminable « Actions disponibles » sur l’écran d’accueil à chaque balayage…
  • Une meilleure gestion de la saisie et l’édition de texte par le biais d’une plage braille, notamment au niveau du curseur ;
  • La possibilité de personnaliser le centre de contrôle en ajoutant certains paramètres d’accessibilité, afin de les avoir plus rapidement sous la main ;
  • L’énonciation et l’affichage en braille des sous-titres incrustées dans des vidéos par VoiceOver ;
  • Une meilleure prise en charge des fichiers PDF, afin d’indiquer à l’utilisateur les types d’éléments tels que des titres, des cases à cocher, des champs texte, etc. ;
  • La possibilité de converser avec Siri par écrit pour ceux qui n’ont pas envie de lui parler, ce qui devrait également ravir les personnes aveugles atteintes de surdité ;
  • L’adaptation dynamique de l’agrandissement de caractères selon certains contextes, pour les personnes mal-voyantes ;
  • Une gestion améliorée de l’inversion des couleurs dans du contenu multimédia, afin que seules les portions pertinentes soient concernées par l’inversion ;
  • Une personnalisation plus flexible de la mise en sur-brillance, selon que le texte est sélectionné ou s’il est énoncé par les synthèses vocales du système ;
  • L’amélioration de l’outil permettant d’effectuer des audits d’accessibilité d’une application (pour les développeurs).

Malgré la tentation de vouloir l’installer pour certains d’entre-nous, je me permets néanmoins de rappeler qu’iOS 11 dans son état actuel est fortement déconseillé au grand public en raison de son instabilité flagrante… Ce n’est d’ailleurs pas pour rien qu’Apple le cantonne aux développeurs pour le moment ! En tout cas, la bonne nouvelle est que notre application semble fonctionner parfaitement avec cette version, ce qui devrait nous éviter de bosser sur sa compatibilité cet été… Contrairement à l’année dernière où on a dû faire des heures sup à cause d’Apple. ?

50 réflexions sur « Apple et le futur de l’accessibilité dans iOS 11 »

  1. L’ouverture du NFC même si ce n’est pas à proprement parlé une évolution de l’accessibilité est un changement majeur.
    Je suis diabétique et j’utilise un Free Style Libre. Pour pouvoir lire les résultats je suis obligé d’utiliser un Samsung avec Androïd… et donc me traîner un second téléphone juste pour cela. Si demain Apple ouvre le NFC, ne serait que pour la lecture, je suppose que pour nous ce sera un grand pas.

    1. En effet Romain, sous iOS 11 les développeurs pourront concevoir des applications exploitant la lecture des tags NFC et donc, rien n’empêchera un laboratoire de proposer ce genre de fonctionnalité pour les diabétiques par exemple.

    2. Bonjour Romain! Si je comprends bien, actuellement Voice Over donne pas le résultat d’une application du lecteur de glycémies qui se synchronise avec le IPhone?

      1. Non le problème est que la connection se fait par nfc avec le lecteur de glycémie .
        Et jusqu’à présent apple bloquait cette fonctionnalité

  2. Merci Kevin pour ces excellantes nouvelles.
    N’ayant pas le courage de m’embarquer dans un bêtatest des futures versions d’iOs, j’aimerais savoir si tu voudrais bien être mon intermédiaire pour transmettre quelques requêtes à Apple si tu en as la possibilité.
    Je pourrais les exposer dans ces commentaires ou en privé si tu préfères. Bien à toi,
    JP

    1. Il est préférable que chaque personne lui transmette ses propres rapports de bug, car la diversité des profiles constitue souvent une information pertinente sur le plan technique ; d’autant plus que chaque utilisateur a une façon d’exploiter le terminal qui lui est propre. ?

    1. Avec plaisir Marie ! Au cours du ClubCast en direct j’avais promis d’écrire quelque chose à ce sujet… ?

  3. Oui Kevin, je comprends, mais je l’ai fait il y a déjà longtemps et cela n’a pas été pris en compte, c’est pour cela que je fais appel à toi.
    Il s’agit du clavier braille virtuel dont je suis un grand utilisateur.
    Je constate deux problèmes majeurs avec ce clavier. Premièrement, en mode abrégé braille, les fautes d’orthographe ne sont pas mentionnées.
    Deuxièmement, le clavier braille virtuel ne prend pas en compte les substitutions de texte enregistrées dans réglages/Général/clavier/remplacement.
    et donc je me demandais si les remontées d’un bêta testeurs n’avaient pas plus de poids que celle d’un quidam ?
    Pardon d’insister,
    JP

  4. bonjour kevin lors des bêtas test dont tu participe, quabd tu signal un bug a apple, tu dois leurs signalé ca en anglais? c’est juste pour un renseignement. merci,

      1. merci kévin pour cette information, testé des betas test doit être très intéressant, mais malheureusement je ne métrise pas totalement l’anglais….

  5. Merci beaucoup pour cet article. Cela nous permet d’entrevoir de bonnes choses. Bonne journée

  6. J’attend avec impatience de pouvoir mettre des paramètres d’accessibilité sur le panneau de contrôle à bientôt et merci

  7. Bonsoir Kevin.
    Merci pour toutes ces belles informations. Mais j’avais une petite question est-ce que nous allons avoir droit à des nouvelles voix sur la prochaine version ? Merci de me répondre.

  8. Merci Kevin tu est vraiment génial de nous partager toutes ces informations, merci aussi à Apple de penser à nous et de développer dans notre sens, il n’y a rien pour se comparer à lui

    1. Elle sera disponible cet automne Marie. On devrait en savoir plus lors de la présentation de la prochaine génération d’iPhone, en septembre.

    1. Near Field Communication.
      C’est ce qui te permet de payer sans contact avec ta carte bancaire ou ton téléphone par exemple. C’est une technologie qui est utilisé pour lire des données ou connecter 2 dispositifs.
      Cela permettrait ensuite aux développeurs de proposer des apps qui nous aideraient. Nous pourrions par exemple étiqueter bien des choses et les lire avec le téléphone. ça existe déjà mais il faut, encore, utiliser une autre machine.
      La technologie permet également de connecter 2 appareils comme le fait le Bluetooth mais il est peu probable qu’Apple ouvre son système jusque là.

  9. Salut, comment fais-tu pour lire du texte sur une image, il y a une manipulation affaire avec VoiceOver ou c’est automatique ? Merci

    1. Pour l’instant un tape à 3 doigts déclenche le processus mais rien ne garantit que cela ne changera pas lorsque la version finale sera disponible.

  10. Bonjour, Kevin, quand tu dis que l’on va pouvoir avoir accès aux sous-titres inclus dans des vidéos, est-ce que cela veut dire qu’on va pouvoir regarder un film en V.O. et avoir accès instantanément à tous les sous-titres? Ça, ce serait vraiment bien, mais je ne suis pas sûre d’avoir bien compris.

    1. Bonsoir Sabrina. Il s’agit des légendes décrivant en détail les images à l’écran, à l’instar de celles proposées aux personnes sourdes et mal-entendantes. Le fait que VoiceOver soit désormais en mesure de les vocaliser et les afficher en braille pourrait notamment nous permettre d’audio-décrire textuellement du contenu vidéo.

  11. Bonjour, si il y a des testeurs parmi nous, êtes-vous parvenus à accéder au centre de contrôle, à AirDrop, à AirPlay ?

    1. Elle a été publiée ce soir mais toujours réservée aux développeurs pour le moment.

  12. bonjour, je réitère la question de Claude Renault, est-ce quelqu’un arrive avec iOs 11 a accéder à air-play depuis le controle centre? parce que j’avoue que ça serait utile pour les airpods notamment. Merci d’avance.

  13. Bonjour, merci pour les infos, NFC RFID pour les diabéthiques, c’est à court terme la possibilité de lire une glycémie sans se piquer, avec des patches transdhermiques. Presque une révolution. Les sous-titres vocalisés, peut-être un grand espoir aussi, notamment pour les vidéos de présentation youtube, qui aujourd’hui avec la mondialisation n’existent presque plus jamais en Français, en français il y a de la musique. Et d’éventuels sous-titres. Nous la musique… L’OCR tout le monde voit à quoi ça peut nous conduire en matière d’autonomie, pour, par exemple, identifier sommairement ce qu’il y a sur un emballage. Mais pour l’instant, j’ai 2 grosses difficultés, je me débrouille très mal dans l’appstore ou je ne parviens pas à ouvrir une appli que j’aurai déjà sur mon smartphone, quant à certaines applications types météo, ça me dit degré, mais pas combien de degrés. Idem pour la température de mon lave-linge etc. ça c’est un peu embêtant espérons qu’ils y remédient vite… Olivier

  14. Salut, La beta Publiques Est Disponible à Présent. Existe-t-il Une Astuce Pour Passer de La beta Développeur, Directement à La beta Public, Sans Passer Par Une Restauration Vers iOS 10. ? Est-ce qu’en Installant le Profil Public, Cela Pourrait Fonctionner ?

  15. Salut.
    Est-ce que quelqu’un a compris comment fonctionne la fonction « faire glisser », notamment pour déplacer les apps ?

    1. Finalement c’était que la fonction été boguée. Elle l’est toujours, mais elle est utilisable maintenant. on comprend assez vite son fonctionnement.

  16. Bonjour,
    Merci Kevin pour les info entre autres concernant la détection du texte sur une images/photos.
    NB : Je viens de découvrir également qu’il faut que le rideau d’écran soit désactivé pour que le texte puisse être détecté !
    En tout cas c’est vraiment trop cool qu’ils ont mis cette fonction ! ?

  17. Bonjour quelle paramètres peut on ajouté dans le centre de contrôle au niveau de l’accessibilité svp?

    1. Salut zizou.
      On peut ajouter les raccourcis d’accessibilité, la loupe, et la taille du texte.

  18. Bonjour, un très grand pas pour Apple je vais enfin pouvoir lire des écritures sur les images je suis très content. Vive Apple. Il n’y a rien pour se comparer à lui. Apple est l’une des meilleures marques. J’aime beaucoup cette marque je m’en séparerais jamais.lire des sous-titres c’est encore plus mieux vive Apple

  19. À 12 ans je sais faire des choses incroyables avec l’iPhone. Mais j’avais une question. Est-ce que quand tu dis que VoiceOver va pouvoir décrire des sous-titres est-ce que cela veut dire qu’il va pouvoir aussi décrire les images. PS je suis non-voyant atteint de la maladie du glaucome. Merci de me répondre. Ce serait vraiment pas mal qui décrit des sous-titres et des images ça serait un très très très grand pas.

Les commentaires sont fermés.