Le minorazioni visive affliggono all’incirca 285 milioni di persone nel mondo, di cui 39 milioni sono non vedenti e gli altri 246 milioni sono affetti da un moderato a un grave deficit visivo. Si tratta quindi una grande comunità di persone, eppure viene rivolta poca attenzione allo sviluppo di nuovi strumenti per aiutarli a destreggiarsi in questo mondo. La maggior parte si basa su una combinazione delle informazioni ricevute dagli altri sensi — udito, tatto, perfino l’odorato — e da semplici strumenti come il bastone che li avvertano della presenza di eventuali ostacoli.
In un mondo dove i computer ci aiutano in tutto, dalla navigazione spaziale al contare i passi che facciamo in un giorno, ci proponiamo di migliorare la mobilità e l’autonomia delle persone con deficit visivo, al di la del bastone. Lavorando con telecamere miniaturizzate e computer — di cosi piccole dimensioni da poter essere inseriti negli indumenti — i nostri ricercatori sfidano la tecnologia al fine di creare un’esperienza il più possibile vicina alla vista di qualunque cosa immaginata in precedenza.
Nella sua forma più semplice, ciò significa assistere i non vedenti mentre cercano di muoversi nel mondo in modo sicuro. Ma vi sono possibilità ben più ampie. Mentre l’obiettivo primario del nostro progetto e quello di aiutare le persone ad arrivare dove vogliono, crediamo che questi dispostivi forniti di micro computer e sensori, possano aiutarli anche a sperimentare il mondo che li circonda. In futuro i sistemi indossabili riusciranno ad accrescere l’indipendenza delle persone non vedenti nel gestire ogni attività nel corso di una giornata, dal recarsi al lavoro il mattino, al provvedere al pranzo, o a trovare il file esatto, necessario per l’appuntamento di lavoro in programma.
Nel 2012 lo scomparso Professor Seth Teller, in collaborazione con ABF, aveva dato inizio al progetto MIT Fifth Sense. La premessa è che la visione attraverso un computer possa essere utilizzata per muoversi in sicurezza e per identificare gli oggetti. La sfida è quella di sviluppare un’apparecchiatura indossabile, dotata di un sistema Small Form Factor (SFF), eppure in grado di processare potentemente un flusso di immagini per mappare il feed back trasformandolo in indicazioni e descrizioni dell’ambiente atte a soddisfare i bisogni di una persona non vedente o ipovedente. Tali operazioni richiedono di solito computer di notevoli dimensioni.
Lo scorso anno lavorando con i nostri studenti e dottori ricercatori (post docs) abbiamo sviluppato un congegno indossabile end-to-end, per consentire sicurezza nei movimenti, che utilizza una telecamera portatile per acquisire informazioni relative al mondo esterno, come la gamma e la direzione degli ostacoli, la direzione dello spazio libero, e l’identità e la posizione degli oggetti da individuare all’interno di uno spazio.
Questo sistema fornisce feedback tattile e viene presentato all’utente su una cintura che produce vibrazioni. Inoltre il sistema è dotato di un rilevatore di profondità e di riconoscimento utilizzato per assistere l’utente in attività quali, ad esempio, raggiungere una sedia vuota. Nello specifico questo progetto ha fornito
- un sistema di visione indossabile con feed-back tattile e tecnologia SFF per muoversi in sicurezza;
- un chip miniaturizzato che viene personalizzato per fornire i dati necessari per muoversi in sicurezza con tecnologia SFF per il sistema indossabile
- algoritmi in tempo reale per segmentare lo spazio libero, per mapparlo e trasformarlo in istruzioni per muoversi in sicurezza, così come per fornire indicazioni atte a identificare oggetti nello spazio consentendo compiti di concetto come “trovare una sedia vuota in una stanza.”
Daniela Rus ed Anantha Chandrakasan
EECS/CSAIL, MIT