Apple przejmuje technologię czytania z ruchu warg: krok w kierunku cichych interfejsów

19

Niedawne przejęcie przez Apple izraelskiego startupu Q.ai za 2 miliardy dolarów sygnalizuje zwrot w kierunku bardziej intuicyjnej i potencjalnie inwazyjnej interakcji człowiek-komputer. Transakcja, o której po raz pierwszy poinformował Financial Times i potwierdziła Reuters, to nie tylko duża inwestycja dla Apple, ale kluczowy element układanki dotyczącej przyszłości osobistych interfejsów technologicznych. Q.ai specjalizuje się w technologiach interpretujących ruchy twarzy, w tym czytanie z ruchu warg, co pozwala na wprowadzanie poleceń do systemów AI bez wypowiadania słów. Zakup podkreśla rosnący trend wśród firm zajmujących się technologiami noszenia, polegający na poszukiwaniu bardziej dyskretnych metod interakcji niż sterowanie głosowe.

Ewolucja technologii Apple Touch

Zainteresowanie Apple Q.ai nie jest niczym nowym. Firma nabyła PrimeSense, technologię stojącą za kamerą Kinect firmy Microsoft, już w 2013 roku. Zakup ten doprowadził do opracowania macierzy TrueDepth wykorzystywanej do identyfikacji twarzy i śledzenia dłoni w zestawie słuchawkowym Vision Pro. Technologia Q.ai opiera się na tym fundamencie, oferując możliwość śledzenia subtelnych sygnałów twarzy, takich jak ruchy mięśni i ekspresja emocjonalna, za pomocą czujników optycznych. Konsekwencje są jasne: Apple stara się tworzyć doświadczenia odpowiadające Twoim intencjom zanim zaczniesz mówić.

Cicha interakcja: następna granica

Przejęcie wpisuje się w szerszą strategię Apple mającą na celu rozwój ekosystemu połączonych urządzeń do noszenia ze sztuczną inteligencją, w tym szpilek, okularów, słuchawek i zegarków. Według doniesień następna generacja słuchawek AirPods będzie wyposażona w kamery na podczerwień, co czyni je idealnymi kandydatami do integracji technologii czytania z ruchu warg Q.ai. Nawet zestaw słuchawkowy Vision Pro mógłby na tym zyskać, ponieważ obecne metody interakcji (śledzenie wzroku, gesty i polecenia głosowe) mogą wydawać się niewygodne. Ciche wprowadzanie poleceń zapewni bardziej naturalną i bezproblemową obsługę.

Poza Apple: szerszy trend

Apple nie jest osamotniony w tym przedsięwzięciu. Meta i Google również badają alternatywne metody wprowadzania danych. Kanał neuronowy Meta ma na celu dodanie śledzenia wzroku do inteligentnych okularów, natomiast okulary Google będą integrować gesty oparte na zegarku. Trwa wyścig w tworzeniu interfejsów wykraczających poza sterowanie głosowe, ale budzi to również obawy dotyczące prywatności.

Konsekwencje dla prywatności i przyszłość wprowadzania danych

Każda technologia umożliwiająca czytanie z ruchu warg i rozpoznawanie wyrazu twarzy może powodować nadużycia, w tym śledzenie i zdalne podsłuchiwanie. Pytanie brzmi, czy cicha interakcja będzie bardziej prywatna niż obecne polecenia głosowe. Oprócz czytania z ruchu warg firmy takie jak Wearable Devices opracowują taśmy neuronowe, które interpretują impulsy elektryczne z neuronów ruchowych, a niektóre nawet badają elektroencefalografię (EEG) do pomiaru sygnałów mózgowych.

Posunięcie Apple nie jest anomalią. To kolejny krok w nieuniknionym trendzie, zgodnie z którym urządzenia ubieralne będą w coraz większym stopniu integrowane z ludzkimi zachowaniami, czy nam się to podoba, czy nie.

Rozwój cichych interfejsów oznacza znaczącą zmianę w sposobie interakcji z technologią. Chociaż wygoda i intuicyjność są oczywiste, konsekwencje dla prywatności wymagają dokładnego rozważenia. Przyszłość interakcji człowiek-komputer zmierza w stronę ukrycia, ale zmierza także w stronę świata, w którym nasze niewypowiedziane intencje mogą nie pozostać na zawsze prywatne.