Słuchawki, które widzą. VueBuds to koniec barier językowych!
Naukowcy z Uniwersytetu Waszyngtońskiego stworzyli prototypowy system VueBuds, który zmienia standardowe słuchawki bezprzewodowe w inteligentnego asystenta wzrokowego. Dzięki miniaturowym kamerom i lokalnej sztucznej inteligencji, urządzenie potrafi tłumaczyć teksty i identyfikować obiekty w czasie rzeczywistym, nie naruszając przy tym prywatności użytkownika.
VueBuds – wzrokowa inteligencja ukryta w Twoich uszach
Koncepcja VueBuds opiera się na prostocie i dyskrecji, których brakuje inteligentnym okularom. System integruje mikroskopijne kamery bezpośrednio w obudowie słuchawek, co pozwala użytkownikowi na interakcję z otoczeniem bez wyciągania telefonu. Wyobraź sobie, że patrzysz na opakowanie produktu w obcym języku i po prostu pytasz asystenta o tłumaczenie. Odpowiedź usłyszysz w uchu już po jednej sekundzie.
To podejście „hands-free” rozwiązuje największe bolączki wearable AI. W przeciwieństwie do smart-okularów, które budzą kontrowersje estetyczne i prywatnościowe, VueBuds są niemal nieodróżnialne od zwykłych słuchawek TWS. System wykonuje statyczne zdjęcia o niskiej rozdzielczości zamiast ciągłego nagrywania wideo, co czyni go bardziej subtelnym i energooszczędnym rozwiązaniem.

Prywatność i przetwarzanie na urządzeniu
Jednym z kluczowych atutów VueBuds jest bezpieczeństwo danych. Zdjęcia przesyłane są przez Bluetooth do połączonego smartfona, gdzie lokalny model AI przetwarza je w mgnieniu oka. Dzięki temu wrażliwe informacje nie trafiają do chmury. Ponadto słuchawki wyposażono w widoczną diodę sygnalizującą pracę kamery oraz opcję natychmiastowego usunięcia wykonanych ujęć.
Inżynieryjne wyzwania: Rozmiar ziarenka ryżu i oszczędność energii
Największą barierą dla twórców było zużycie energii. Kamery są znacznie bardziej wymagające dla baterii niż mikrofony, dlatego zespół badawczy postawił na innowacyjną miniaturyzację. Zastosowano czujniki wielkości ziarenka ryżu, które rejestrują obraz w skali szarości.
- Szybkość reakcji: Dzięki połączeniu obrazów z obu słuchawek w jedną klatkę, system reaguje w około 1 sekundę (dwukrotnie szybciej niż przy przetwarzaniu oddzielnym).
- Pole widzenia: Kąt widzenia kamer wynosi od 98 do 108 stopni, co pozwala na swobodne obejmowanie wzrokiem przedmiotów trzymanych w dłoniach.
- Optymalizacja Bluetooth: Niska rozdzielczość pozwala na błyskawiczny przesył danych bez drenowania akumulatora.
VueBuds vs. Smart-okulary: Kto wygrywa w testach?
Podczas testów z udziałem 74 uczestników, VueBuds stanęły w szranki z okularami Ray-Ban Meta. Choć prototyp korzysta z obrazów o niższej jakości, jego skuteczność okazała się zaskakująco wysoka. Uczestnicy preferowali słuchawki w zadaniach związanych z tłumaczeniem tekstu, podczas gdy okulary lepiej radziły sobie z liczeniem obiektów.
Statystyki skuteczności VueBuds robią wrażenie: 83–84% dokładności w tłumaczeniu i rozpoznawaniu obiektów oraz aż 93% przy identyfikacji tytułów książek i ich autorów. Choć obecny model nie widzi kolorów, naukowcy już planują wdrożenie sensorów barwnych oraz specjalistycznych modeli AI dedykowanych wsparciu osób niedowidzących i tłumaczeniom symultanicznym.
Prototyp VueBuds to zapowiedź nowej ery urządzeń ubieralnych, w której AI staje się cichym i wszechobecnym asystentem. Wykorzystując sprzęt, który i tak nosimy przy sobie – słuchawki – naukowcy omijają bariery społeczne i techniczne, przed którymi stoją inteligentne okulary. Choć to wciąż wczesna faza rozwoju, prezentacja wyników na konferencji ACM w Barcelonie może wyznaczyć kierunek dla przyszłych modeli od Apple, Samsunga czy Google.
Technogadżet w liczbach