Apple acquisisce la tecnologia di lettura labiale: un passo verso interfacce silenziose

5

La recente acquisizione da 2 miliardi di dollari da parte di Apple della startup israeliana Q.ai segnala uno spostamento verso un’interazione uomo-computer più intuitiva e potenzialmente invasiva. La mossa, riportata per la prima volta dal Financial Times e confermata da Reuters, non è solo un grande investimento per Apple, ma è un pezzo chiave nel puzzle delle future interfacce tecnologiche personali. Q.ai è specializzato in una tecnologia in grado di interpretare i movimenti facciali, inclusa la lettura delle labbra, consentendo l’input silenzioso di comandi ai sistemi di intelligenza artificiale. Questa acquisizione evidenzia la crescente tendenza delle aziende tecnologiche indossabili a guardare oltre il controllo vocale verso metodi di interazione più discreti.

L’evoluzione della tecnologia di rilevamento di Apple

L’interesse di Apple per Q.ai non è nuovo. La società aveva precedentemente acquisito PrimeSense nel 2013, la tecnologia alla base della fotocamera Kinect di Microsoft. Questo acquisto ha portato allo sviluppo della serie di fotocamere TrueDepth utilizzata per Face ID e tracciamento delle mani nelle cuffie Vision Pro. La tecnologia di Q.ai si basa su queste basi, offrendo la possibilità di tracciare sottili segnali facciali, come movimenti muscolari ed espressioni emotive, utilizzando sensori ottici. Le implicazioni sono chiare: Apple mira a creare interfacce che rispondano alle tue intenzioni prima che tu parli.

Interazione silenziosa: la prossima frontiera

L’acquisizione è in linea con la strategia più ampia di Apple di sviluppare un ecosistema di dispositivi indossabili IA connessi, tra cui spille, occhiali, auricolari e orologi. I rapporti indicano che la prossima generazione di AirPod incorporerà fotocamere a infrarossi, rendendoli i primi candidati per l’integrazione della tecnologia di lettura labiale di Q.ai. Anche le cuffie Vision Pro potrebbero trarne vantaggio, poiché gli attuali metodi di interazione (sguardo fisso, gesti delle mani e comandi vocali) possono sembrare scomodi. L’input silenzioso dei comandi offrirebbe un’esperienza utente più naturale e fluida.

Oltre Apple: la tendenza più ampia

Apple non è sola in questa ricerca. Meta e Google stanno anche esplorando metodi di input alternativi. La banda neurale di Meta mira ad aggiungere il tracciamento oculare agli occhiali intelligenti, mentre gli occhiali di Google integreranno i gesti basati sull’orologio. È in corso la corsa per creare interfacce che vadano oltre il controllo vocale, ma ciò solleva anche preoccupazioni sulla privacy.

Implicazioni sulla privacy e futuro dell’input

Qualsiasi tecnologia in grado di leggere le labbra e riconoscere le espressioni facciali può essere utilizzata in modo improprio, compreso il monitoraggio e l’ascolto remoto. La domanda è se l’interazione silenziosa sarà più privata degli attuali comandi vocali. Oltre alla lettura labiale, aziende come Wearable Devices stanno sviluppando bande neurali che interpretano gli impulsi elettrici dei motoneuroni, e alcune stanno persino esplorando l’elettroencefalografia (EEG) per misurare i segnali cerebrali.

La mossa di Apple non è un’eccezione. È un altro passo nell’inevitabile tendenza verso un’integrazione più profonda dei computer indossabili con il comportamento umano, che ci piaccia o no.

Lo sviluppo di interfacce silenziose rappresenta un cambiamento significativo nel modo in cui interagiamo con la tecnologia. Sebbene la comodità e l’intuitività siano chiare, le implicazioni sulla privacy richiedono un’attenta considerazione. Il futuro dell’interazione uomo-computer si sta muovendo verso la sottigliezza, ma si sta anche muovendo verso un mondo in cui le nostre intenzioni inespresse potrebbero non rimanere private a lungo.