DiscoverLes dessous de l'IA44. Risques existentiels, alignement, perte de contrôle : science ou science-fiction ? 2/2 - Maxime Fournes
44. Risques existentiels, alignement, perte de contrôle : science ou science-fiction ? 2/2 - Maxime Fournes

44. Risques existentiels, alignement, perte de contrôle : science ou science-fiction ? 2/2 - Maxime Fournes

Update: 2025-10-30
Share

Description

Si beaucoup de voix s’accordent à dire que les technologies d’intelligence artificielle doivent être encadrées, pourquoi le sujet d’un moratoire au nom des risques liés à l’IA déclenche-t-il autant de crispations ?

Dans cet épisode des Dessous de l’IA, j’échange avec Maxime Fournis, ingénieur en mathématiques et fondateur de la branche française de Pause AI, un mouvement qui milite pour un moratoire sur le développement des intelligences artificielles générales.

Nous revenons ensemble sur un débat souvent caricaturé mais rarement posé sereinement, celui sur les risques liés au développement des technologies d’IA.

Nous abordons notamment :

→ Quels sont les non-dits ou les sous entendus derrière cette approche par les risques ? → Que veut réellement dire “mettre l’IA sur pause” ?→ Comment envisager un encadrement de ces technologies ?

→ Quels sont les risques réels ou fantasmés associés à ces technologies ?

Une discussion dense et honnête pour comprendre le point de vue de ceux qui appellent à ralentir au nom du risque.



This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit clment629.substack.com
Comments 
loading
In Channel
loading
00:00
00:00
1.0x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

44. Risques existentiels, alignement, perte de contrôle : science ou science-fiction ? 2/2 - Maxime Fournes

44. Risques existentiels, alignement, perte de contrôle : science ou science-fiction ? 2/2 - Maxime Fournes

Clément Durand