DiscoverPensieri in codicePerché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne
Perché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne

Perché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne

Update: 2025-08-17
Share

Description

In questo episodio esploriamo i motivi per cui dobbiamo mantenere un atteggiamento critico verso l’Intelligenza Artificiale generativa. Analizziamo tre fenomeni fondamentali: le allucinazioni (quando i modelli producono informazioni false ma convincenti), la sicofantia (la tendenza ad assecondare sempre l’utente anche quando ha torto) e le menzogne (quando i modelli nascondono i loro veri processi di ragionamento). Scopriamo perché questi comportamenti sono intrinseci al funzionamento stesso dei Large Language Model e come il metodo di addestramento basato su feedback umano contribuisca a questi problemi. Un episodio essenziale per chiunque utilizzi strumenti di IA nella vita quotidiana o professionale.


Pensieri in codice



Entra a far parte della community



Canale Telegram

Gruppo Telegram


Sostieni il progetto



Sostieni tramite Satispay

Sostieni tramite Revolut

Sostieni tramite PayPal (applica commissioni)


Sostieni utilizzando i link affiliati di Pensieri in codice:
Amazon,
Todoist,
Readwise Reader,
Satispay




Sostenitori di oggi:


Edoardo Secco, Carlo Tomas, Michele S., Paola Z.





Partner




GrUSP (Codice sconto per tutti gli eventi: community_PIC)


Schrödinger Hat





Fonti dell'episodio





https://www.ibm.com/think/topics/ai-hallucinations




https://openai.com/it-IT/index/introducing-gpt-4-5




https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots




https://arxiv.org/abs/2401.11817




https://www.theatlantic.com/technology/archive/2025/05/sycophantic-ai/682743




https://arxiv.org/abs/2310.13548




https://www.anthropic.com/research/reasoning-models-dont-say-think




https://assets.anthropic.com/m/71876fabef0f0ed4/original/reasoning_models_paper.pdf




https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie




https://www.nature.com/articles/s41586-024-07930-y




https://www.uniladtech.com/news/ai/sam-altman-trust-chatgpt-eerie-statement-hallucination-claims-782637-20250625






Crediti





Sound design - Alex Raccuglia


Voce intro - Maria Chiara Virgili


Voce intro - Spad


Musiche - Kubbi - Up In My Jam, Light-foot - Moldy Lotion, Creativity, Old time memories


Suoni - Zapsplat.com


Cover e trascrizione - Francesco Zubani



Comments 
loading
In Channel
Vibe coding

Vibe coding

2025-04-2033:30

loading
00:00
00:00
1.0x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Perché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne

Perché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne

Valerio Galano