Nell'ultimo anno, i produttori di sistemi operativi hanno compiuto un netto salto di qualità nel campo dell'accessibilità, per consentire non solo l'utilizzo dei dispositivi ma facilitare la vita stessa degli utenti.
Microsoft, con Windows 11, ha rilasciato una serie di novità in questo senso, e l'altro giorno Apple ha presentato un pacchetto di funzionalità, basate sulle ultime novità hardware e nel campo del machine learning, per l'accessibilità visiva, uditiva, cognitiva o di mobilità. Tra queste, ne spicca una destinata a chi potrebbe perdere la capacità di parola (come per esempio chi ha ricevuto una recente diagnosi di SLA), che permette di ricreare la propria voce sintetizzata in pochi minuti.
La funzione, chiamata Personal Voice (Voce Personale), è integrata con Live Speech, che consente di digitare quello che si vuole dire per farlo pronunciare ad alta voce durante le chiamate telefoniche e FaceTime, nonché le conversazioni di persona.
Ma Personal Voice è ancora più stupefacente, perché leggendo ad alta voce una serie di messaggi di testo per un totale di appena 15 minuti su iPhone o iPad, permetterà di comunicare esattamente con la propria voce. Apple afferma che la funzione utilizza l'apprendimento automatico sul dispositivo senza inviare dati ai propri server, quindi le informazioni degli utenti rimangono private e sicure.
Ma questa non è l'unica novità. Per le persone con disabilità cognitive, Apple ha anche annunciato Assistive Access, un pacchetto di app che consiste in versioni semplificate delle sue app principali che "alleggeriscono il carico cognitivo". Tra queste abbiamo una versione combinata di Telefono e FaceTime, oltra a versioni modificate delle app Messaggi, Fotocamera, Foto e Musica che presentano pulsanti ad alto contrasto, etichette di testo di grandi dimensioni e strumenti di accessibilità aggiuntivi.
Novità anche per l'app Lente, che riceverà una nuova modalità di rilevamento per aiutare gli utenti non vedenti o ipovedenti a interagire con oggetti fisici con numerose etichette di testo.
Ad esempio, Apple afferma che un utente può puntare la fotocamera del proprio dispositivo su un'etichetta, come una tastiera a microonde, che l'iPhone o l'iPad leggerà quindi ad alta voce mentre l'utente sposta il dito su ciascun numero o impostazione sull'apparecchio.
Ma anche il Mac non è escluso da questa ondata di novità, e riceverà la possibilità di associare dispositivi acustici Made for iPhone, oltre a un modo più semplice per regolare le dimensioni del testo in Finder, Messaggi, Posta, Calendario e Note.
Gli utenti potranno anche mettere in pausa le GIF in Safari e Messaggi, personalizzare la velocità con cui Siri parla e utilizzare il controllo vocale per suggerimenti fonetici durante la modifica del testo. Tutto ciò si basa sulle funzionalità di accessibilità esistenti di Apple per Mac e iPhone, che includono sottotitoli in tempo reale, un lettore di schermo VoiceOver, rilevamento delle porte e altro ancora.
Apple afferma che le funzionalità arriveranno "entro la fine dell'anno", il che suggerisce che potrebbero far parte di iOS 17 e macOS 14.