Anonim

Camera-toting EyeRing kan hjelpe blinde personer til å "se " objekter

Helse og velvære

Paul Ridden

13. august 2012

4 bilder

EyeRing-systemet har en fingerbåret kameramodul og trådløst tilkoblet smarttelefon som gir en visuelt nedsatt bruker med lydbasert tilbakemelding på objekter tatt av linsen

Generelt sett retter de aller fleste forstørrede virkelighetsapplikasjoner som forbedrer verden rundt oss ved å overlegge digitalt innhold på bilder som vises på smarttelefon, nettbrett eller dataskjermer, rettet mot den synlige brukeren. Et team fra Fluid Interfaces Group på MIT's Media Lab har utviklet en klumpete fingerbåret enhet kalt EyeRing som oversetter bilder av objekter fanget gjennom en kameralinse til lydbasert tilbakemelding for å hjelpe blinde.

EyeRing-systemet ble opprettet av Suranga Nanayakkara (som for tiden styrer Augmented Senses Research Group ved Singapore University of Technology og Design), doktorstudent Roy Shilkrot og lektor og grunnlegger av Fluid Interfaces Group, Pattie Maes. Den har et 3D-trykt ABS-nylon ytre hus som inneholder en liten VGA-kameraenhet, en 16 MHz AVR-prosessor, en Bluetooth-radiomodul og et 3, 7V Li-ion-batteri. Det er også en mini-USB-port for lading av batteriet og omprogrammering av enheten, en strømbryter og en tommel-aktivert knapp for bekreftelse av kommandoer.

Brukeren peker ringenes kamera på et objekt, forteller systemet hvilken type informasjon som trengs via en mikrofon på hodetelefonledningen og deretter klikker knappen på siden av enheten. Kameraet klikker et bilde og sender det til en Bluetooth-koblet smarttelefon. En spesialutviklet Android-app behandler bildet ved hjelp av datasynalgoritmer i henhold til den forhåndsinnstilte modusen valgt av brukeren, og bruker en tekst-til-tale-modul for å kunngjøre de riktige resultatene gjennom hodetelefoner som er koblet til smarttelefonen.

EyeRing-systemet for proof-of-concept-prototypen kan i øyeblikket brukes til å identifisere valuta, tekst, prisinformasjon om koder og farger, og forhåndsinnstillingsmodus kan endres ved å dobbeltklikke på knappen og snakke en annen kommando i mikrofonen. Informasjonen vises også på skjermen til smarttelefonen i tekstform.

Andre applikasjoner for systemet inkluderer rutefri navigering. Den gjeldende versjonen bestemmer avstanden fra objekter ved å sammenligne to bilder tatt av kameraet, og kan til og med lage et 3D-kart over omgivelsene. Fremtidige implementeringer kan inkludere muligheten til å skyte live video og gi all slags nyttig informasjon til brukeren.

EyeRing-prosjektet er fortsatt veldig mye et arbeid pågår, med Maes bekrefter at eventuelle trekk mot kommersialisering er sannsynlig minst to år unna. Gruppen jobber allerede på et iOS-smaken, og størrelsen og formen er forbedret (tenk Ringbow).

Enkeltbrukerprøver med en frivillig har bekreftet det eksisterende systemets hjelpepotensial, men tilsetning av flere sensorer (for eksempel en infrarød lyskilde eller en lasermodul, et andre kamera, en dybdesensor eller treghetssensorer) til fingeren slitt enhet kunne åpne den opp til helt nye nivåer av nytte.

Kilde: MIT

Følgende korte video viser EyeRing-prototypen i drift:

EyeRing har et 3D-trykt ABS-nylon ytre hus som inneholder en liten VGA-kameraenhet, en 16 MHz AVR-prosessor, en Bluetooth-radiomodul og et 3, 7V Li-ion-batteri

Brukeren peker ringen på et objekt, forteller systemet hvilken type informasjon som trengs via en mikrofon på hodetelefonledningen og deretter klikker knappen på siden av ringenheten for å aktivere kameraet og sende et bilde til en Bluetooth-koblet smarttelefon for behandling

EyeRing-systemet har en fingerbåret kameramodul og trådløst tilkoblet smarttelefon som gir en visuelt nedsatt bruker med lydbasert tilbakemelding på objekter tatt av linsen

EyeRing'ene kan også tillate visuelt forstyrrede brukere å "lese " tekst i ikke-braillebøker

Anbefalt Redaksjonens