DiscoverThe Flares - Podcasts#63 - L’Alignement de l’IA : Un Défi d’Ingénierie au Stade de l’Alchimie – avec Gabriel Alfour
#63 - L’Alignement de l’IA : Un Défi d’Ingénierie au Stade de l’Alchimie – avec Gabriel Alfour

#63 - L’Alignement de l’IA : Un Défi d’Ingénierie au Stade de l’Alchimie – avec Gabriel Alfour

Update: 2025-10-11
Share

Description

⚠️ Découvrez du contenu EXCLUSIF (pas sur la chaîne) ⚠️ ⇒ https://the-flares.com/y/bonus/

⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️

Le contenu vous intéresse ?
Abonnez-vous et cliquez sur la 🔔

Vous avez aimé cette vidéo ?
Pensez à mettre un 👍 et à la partager.
C'est un petit geste qui nous aide grandement 🥰

⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/

Sommaire :

0:00:00 - Peux-tu te présenter et nous expliquer ce qui t'a amené à t'intéresser à la sécurité de l'IA ?
0:02:26 - Peux-tu nous en dire plus sur l'organisation Conjecture, sa mission principale et vos actions ?
0:05:34 - Quel est l'état des lieux des capacités de l'IA aujourd'hui et en quoi cela pose-t-il déjà des risques ?
0:11:20 - Que penses-tu du concept de P(doom) (probabilité d'extinction) et est-il utile pour le débat public ?
0:14:14 - Quelle est ta définition de l'intelligence artificielle générale (AGI) ?
0:16:11 - Souscris-tu au concept de "FOOM" (décollage rapide) où une IA s'auto-améliorerait de manière explosive ?
0:21:35 - Es-tu d'accord avec la thèse d'Eliezer Yudkowsky : "si on la construit, tout le monde meurt" ?
0:30:07 - Tu présentes l'alignement comme un problème d'ingénierie plus large que l'IA (marchés, gouvernements). Peux-tu développer cette idée ?
0:41:55 - Quelle est la relation entre alignement et contrôle, et peut-on vraiment contrôler un système plus intelligent que nous ?
0:51:01 - Que penses-tu de la stratégie des labos d'utiliser des IA pour aider à aligner les IA futures (scalable oversight) ?
1:00:34 - Peux-tu nous expliquer l'agenda de recherche que vous aviez chez Conjecture, notamment l'émulation cognitive ?
1:03:43 - Que faire concrètement ? Faut-il une pause internationale et comment les auditeurs peuvent-ils contribuer ?

-----------------------------------------------------------------

✍️ QUI EST DERRIÈRE CE CONTENU ? ☕

➡ Production : The Flares - https://the-flares.com
➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/

-----------------------------------------------------------------

🌎 SUIVEZ-NOUS 🌎

💬 Discord : https://the-flares.com/y/discord
💬 Communauté : https://the-flares.com/y/communaute
🐦 Twitter : https://the-flares.com/y/twitter
👨 Facebook : https://the-flares.com/y/facebook
▶️ Youtube : https://the-flares.com/y/youtube
👕 Goodies : https://the-flares.com/y/goodies

-----------------------------------------------------------------

💡 SOURCES & RÉFÉRENCES 💡

➡ Site de Conjecture :
https://www.conjecture.dev/
➡ Site de control AI :
https://controlai.com/
➡ Le compendium :
https://www.thecompendium.ai/introduction
➡ Site de Micro Commit :
https://microcommit.io/
➡ Site de Pause AI :
https://pauseai.info/

-----------------------------------------------------------------

👩‍🚀 QUI SOMMES-NOUS ? 👨‍🚀

https://the-flares.com/y/about

-----------------------------------------------------------------

📧 CONTACTEZ-NOUS 📧

https://the-flares.com/y/contact

-----------------------------------------------------------------

#AvenirDuMonde #IntelligenceArtificielle

Dans cet épisode de la Prospective, nous accueillons Gabriel Alfour, CTO de Conjecture, une start-up dédiée à la recherche sur la sûreté de l’IA, et conseiller chez Control AI. Partant d’un constat lucide sur l’échec des approches techniques actuelles, il élargit la notion d’alignement au-delà de l’IA pour en faire un problème d’ingénierie des systèmes intelligents, des marchés financiers aux constitutions politiques. Une discussion approfondie sur les points de non-retour, les dynamiques de la course à l’AGI, et pourquoi nous avons collectivement échoué à concevoir des systèmes alignés sur le bien commun, même avant l’arrivée de l’IA. Sommaire : 0:00:00 – [...]

⬇️ Lisez la suite ici ⬇️

https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-ia-conjecture-controlia-risque-existentiel-gabriel-alfour/
Comments 
In Channel
loading
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

#63 - L’Alignement de l’IA : Un Défi d’Ingénierie au Stade de l’Alchimie – avec Gabriel Alfour

#63 - L’Alignement de l’IA : Un Défi d’Ingénierie au Stade de l’Alchimie – avec Gabriel Alfour

The Flares