DiscoverVeramenteCosa succede quando i video AI diventano troppo realistici?
Cosa succede quando i video AI diventano troppo realistici?

Cosa succede quando i video AI diventano troppo realistici?

Update: 2025-10-17
Share

Description

Sora, il sistema di intelligenza artificiale di OpenAI per generare video estremamente realistici è finito al centro di una serie di polemiche che riguardano l’utilizzo di immagini di personaggi pubblici - viventi o defunti - e contenuti discriminatori.


Ma l’utilizzo offensivo e propagandistico di questi contenuti non riguarda solo le celebrità ma tutte e tutti noi. 




Scriveteci all’indirizzo segnalazioni@facta.news o segnalateci le notizie che volete verificare al numero 3421829843.


Seguiteci sul nostro sito Facta.news, sui nostri profili Facebook, Instagram, Telegram, TikTok e Bluesky


 


Condotto da Simone Fontana e Anna Toniolo 


Episodio scritto da Simone Fontana e Anna Toniolo 


Prodotto da Jessica Mariana Masucci


LINK UTILI


L’estremo realismo di Sora 2 è diventato uno strumento di odio e derisione - Facta


È arrivato Vibes, il feed artificiale di Meta dove tutto è finto (tranne i potenziali rischi) - Facta


Su TikTok c’è tutto un filone di video contro i napoletani fatti con l’AI - Il Post


CREDIT BRANI


“Dynamic world” di StockStudio 


“Documentary” di Coma-media 

Learn more about your ad choices. Visit megaphone.fm/adchoices

Comments 
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Cosa succede quando i video AI diventano troppo realistici?

Cosa succede quando i video AI diventano troppo realistici?

Facta