додому Ultime notizie e articoli Sora di OpenAI: l’alba dei social media generati dall’intelligenza artificiale

Sora di OpenAI: l’alba dei social media generati dall’intelligenza artificiale

OpenAI ha lanciato Sora, una nuova applicazione di social media basata sul suo ultimo modello di generazione di video AI, Sora 2. La premessa principale dell’app è semplice: una piattaforma simile a TikTok interamente popolata con contenuti generati dall’intelligenza artificiale. Ciò segna una svolta significativa per OpenAI, sollevando la questione se gli utenti abbracceranno un feed social riempito esclusivamente con video sintetici.

Un’interfaccia familiare, un nucleo inquietante

L’interfaccia di Sora imita le app di social media esistenti, presentando un feed algoritmico “Per te” con funzionalità Mi piace, commenti e condivisione. Gli utenti possono anche filtrare i contenuti in base all’umore. Tuttavia, dietro questo design familiare si nasconde la realtà inquietante che ogni video è creato dall’intelligenza artificiale. La caratteristica distintiva dell’app, Cameos, consente agli utenti di caricare la propria immagine e consentire ad altri di utilizzarla nei video AI.

Il CEO di OpenAI, Sam Altman, è diventato un soggetto frequente di questi deepfake generati dall’intelligenza artificiale. Gli utenti hanno creato video che lo ritraggono in scenari assurdi – inclusi arresti, confessioni e bizzarri atti fisici – tutti resi con sorprendente realismo. Sebbene la qualità di Sora 2 sia sufficientemente elevata da rendere credibili questi scenari, la decisione di OpenAI di consentire tali contenuti è nella migliore delle ipotesi una strategia di marketing discutibile.

Sora 2: un salto nella generazione di video con intelligenza artificiale

Sora 2 rappresenta un progresso significativo nelle funzionalità video AI. A differenza dei modelli precedenti, eccelle nella generazione dei dialoghi, richiedendo uno scripting minimo per ottenere risultati coerenti. Un semplice messaggio come “Altman canta una ballata sui costi di inferenza” produrrà una canzone completa scritta dall’intelligenza artificiale. Il modello aggiornato gestisce inoltre i comandi complessi in modo più efficace, sebbene la generazione del video richieda ancora 2-5 minuti per clip.

Nonostante i filtri di moderazione intesi a bloccare le somiglianze delle celebrità, gli utenti hanno trovato soluzioni alternative. Un video mostra Altman in un campo con Pikachu, una chiara violazione del copyright e una potenziale responsabilità legale per OpenAI.

I confini sfumati della realtà

L’aspetto più sorprendente dei video di Sora è la loro indistinguibilità dai contenuti generati dagli esseri umani. Segnali sottili come strani salti o pelle eccessivamente perfetta sono gli unici indizi. L’audio è chiaro, il testo è privo di errori e la qualità complessiva è ingannevolmente realistica. Ciò solleva serie preoccupazioni circa la diffusione della disinformazione e l’erosione della fiducia nei media online.

Mentre alcuni contenuti generati dall’intelligenza artificiale rientrano nella categoria degli “slop” (video inutili e di bassa qualità), Sora 2 produce risultati di qualità superiore. Tuttavia, contribuisce ancora al crescente mare di contenuti inutili generati dall’intelligenza artificiale che possono facilmente essere interpretati erroneamente come realtà.

La trappola del coinvolgimento dell’IA

Il design di Sora incoraggia lo scorrimento e il coinvolgimento senza pensieri, in modo simile ad altre avvincenti piattaforme di social media. Gli utenti possono facilmente perdere ore sfogliando video generati dall’intelligenza artificiale senza alcuna ricompensa tangibile, tranne forse una distrazione momentanea. La mancanza di strumenti di modifica da parte dell’app rafforza ulteriormente questo ciclo; rigenerare i video è l’unico modo per apportare modifiche, un processo lento e frustrante.

OpenAI afferma che l’app mira a favorire la connessione umana, ma l’esperienza sembra più isolante e disorientante. La funzione Cameo di Sora, intesa per essere giocosa, è matura per gli abusi. Sebbene gli utenti possano scegliere di non utilizzare le loro sembianze, l’attrattiva principale dell’app risiede nella creazione di deepfake strani e potenzialmente dannosi.

Un futuro di realtà sintetica

I video di Sora includono filigrane e dichiarazioni di non responsabilità sui metadati, ma in un’era di calo della fiducia, è improbabile che queste misure di salvaguardia scoraggino un uso improprio. L’app evidenzia la controversia più ampia sulla generazione multimediale basata sull’intelligenza artificiale, ma OpenAI continua a spingersi oltre i confini dei contenuti sintetici.

Resta da vedere se Sora rappresenti un esperimento innocuo o un passo pericoloso verso un panorama sociale completamente artificiale. Per ora, rappresenta un duro promemoria del potere – e dei potenziali pericoli – dell’intelligenza artificiale nell’era dei social media.

Exit mobile version