Anonim

Studentdesignet hjelp til døve konverterer tale til AR-bildetekster

Bra tenkt

Ben Coxworth

28. oktober 2015

LTCCS-forstørret virkelighetsdisplay kan klippes inn på brukernes eksisterende briller, resept eller på annen måte (Kreditt: Frants Innovators)

Tale-til-tekst-systemer eksisterer allerede, som viser forstørret virkelighet. Nå har en gruppe av New York City-tenåringer ledet av Daniil Frants (som internert ved MIT Media Lab da han var 14) kombinert de to teknologiene for å danne LTCCS (Live Time Closed Captioning System). Når det er oppe, kan det revolusjonere måten døvemenn kommuniserer med høringsverdenen på.

Systemet består av tre komponenter: En kompakt mikrofon som er klistret på brukerens klær (som om de er et nyhetsanker), en smartbords-størrelse Raspberry Pi / Adafruit-drevet mikrocomputer som holdes i en lomme og en Google Glass-lignende skjerm.

Miken er kalibrert for å hente menneskelig tale, selv i miljøer med betydelig bakgrunnsstøy. Den lyden behandles av datamaskinen, som konverterer den til tekst og overfører dataene trådløst til skjermen. Klippet til et eksisterende par av tredjepartsbriller, som viser i sin tur viser brukeren teksten, overlappet over deres utsikt over høyttaleren.

Det er tilsynelatende svært lite i veien for forsinkelse mellom ordene som blir talt og blir vist.

Foreløpig har lagmedlemmene opprettet en fungerende proof-of-concept-modell, og bygger nå en fungerende prototype. Til dette formål har de vendt til Indiegogo for å heve utviklingsmidler. Et løfte på US $ 650 vil gi deg en egen LTCSS, når og hvis den når produksjon.

Mer informasjon er tilgjengelig i tonehøyden nedenfor.

Kilde: Indiegogo

LTCCS-forstørret virkelighetsdisplay kan klippes inn på brukernes eksisterende briller, resept eller på annen måte (Kreditt: Frants Innovators)

Anbefalt Redaksjonens