Realistyczne twarze robotów: wypełnianie luki między maszynami i ludźmi

17

Dyskomfort towarzyszący spotkaniu z czymś prawie, ale nie do końca ludzkim, pozostaje główną przeszkodą w robotyce. Zjawisko to, zwane doliną niesamowitości, wyjaśnia, dlaczego roboty zaprojektowane do naśladowania nas często wydają się… nienaturalne. Naukowcy z Uniwersytetu Columbia czynią postępy w pokonywaniu tej przeszkody, ulepszając sposób, w jaki roboty synchronizują ruch warg z mową, przybliżając nas do maszyn, które wchodzą z nami w bardziej naturalną interakcję.

Problem z mową robota

Przez wiele lat jednym z głównych powodów, dla których roboty były postrzegane jako „złowrogie”, była ich niezdolność do naśladowania ruchów ludzkich warg podczas mowy. Według Hoda Lipsona, profesora inżynierii na Uniwersytecie Columbia, ten obszar badań nad robotyką, zaskakująco, pozostaje niedoceniany. Celem nie jest tylko nakłonienie robotów do mówienia — chodzi o to, aby mówiły w sposób, który nie powoduje dyskomfortu ani nieufności.

Przełom: synchronizacja ust sterowana dźwiękiem

Zespół z Uniwersytetu Columbia opracował nową technikę, która koncentruje się na dźwięku języka, a nie na jego znaczeniu. Ich humanoidalna twarz-robota, zwana Emo, jest wyposażona w silikonową skórę i złącza magnetyczne, które umożliwiają złożone ruchy ust, zdolne do uformowania 24 spółgłosek i 16 samogłosek. Innowacja polega na „potoku uczenia się”, który wykorzystuje sztuczną inteligencję do generowania precyzyjnych poleceń kontroli ruchu warg, zapewniając doskonałą synchronizację z dźwiękiem.

Co ciekawe, Emo potrafi mówić wieloma językami – w tym francuskim, chińskim i arabskim – nawet tymi, w których nie został specjalnie przeszkolony. Dzieje się tak, ponieważ system analizuje właściwości akustyczne języka, zamiast próbować zrozumieć same słowa. Jak to ujmuje Lipson, model działa „bez żadnego zrozumienia języka”.

Dlaczego to ma znaczenie: rozwój robotyki humanoidalnej

To badanie pojawia się w krytycznym momencie. Branża robotyki szybko zmierza w kierunku tworzenia bardziej realistycznych maszyn, co można było zobaczyć na targach CES 2026, gdzie firmy zaprezentowały wszystko, od najnowocześniejszych robotów Boston Dynamics po asystentów domowych, a nawet robotycznych towarzyszy z osobowościami kontrolowanymi przez sztuczną inteligencję. Rośnie zapotrzebowanie na roboty, które mogą płynnie integrować się ze środowiskiem człowieka.

Najnowsze badania potwierdzają tę tendencję: badania pokazują, że zdolność robota do wyrażania empatii i skutecznej komunikacji jest niezbędna do pomyślnej interakcji człowiek-robot. Inne badania podkreślają znaczenie aktywnej mowy dla współpracy przy rozwiązywaniu złożonych problemów. Zasadniczo, jeśli chcemy pracować i żyć obok robotów, muszą one komunikować się tak jak my.

Przyszłość interakcji człowiek-robot

Chociaż celem niekoniecznie jest stworzenie nierozróżnialnych maszyn, realistyczna technologia synchronizacji ruchu warg ma szerokie implikacje. Lipson sugeruje, że przyszłe badania mogą przynieść korzyści każdemu humanoidalnemu robotowi zaprojektowanemu do interakcji z ludźmi. Oferuje nawet proste rozwiązanie projektowe, aby uniknąć nieporozumień: „wymagać, aby humanoidalne roboty miały niebieską skórę”, co stanowi wyraźny wizualny sygnał, że nie są ludźmi.

Ostatecznie ulepszanie mowy robotów to coś więcej niż tylko dokładność techniczna. Chodzi o budowanie zaufania, promowanie współpracy i zapewnienie, że w miarę rozprzestrzeniania się robotów, będą one usprawniać, a nie zakłócać nasze codzienne życie.