#63 - L’Alignement de l’IA : Un Défi d’Ingénierie au Stade de l’Alchimie – avec Gabriel Alfour
Update: 2025-10-11
Description
⚠️ Découvrez du contenu EXCLUSIF (pas sur la chaîne) ⚠️ ⇒ https://the-flares.com/y/bonus/
⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️
Le contenu vous intéresse ?
Abonnez-vous et cliquez sur la 🔔
Vous avez aimé cette vidéo ?
Pensez à mettre un 👍 et à la partager.
C'est un petit geste qui nous aide grandement 🥰
⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/
Sommaire :
0:00:00 - Peux-tu te présenter et nous expliquer ce qui t'a amené à t'intéresser à la sécurité de l'IA ?
0:02:26 - Peux-tu nous en dire plus sur l'organisation Conjecture, sa mission principale et vos actions ?
0:05:34 - Quel est l'état des lieux des capacités de l'IA aujourd'hui et en quoi cela pose-t-il déjà des risques ?
0:11:20 - Que penses-tu du concept de P(doom) (probabilité d'extinction) et est-il utile pour le débat public ?
0:14:14 - Quelle est ta définition de l'intelligence artificielle générale (AGI) ?
0:16:11 - Souscris-tu au concept de "FOOM" (décollage rapide) où une IA s'auto-améliorerait de manière explosive ?
0:21:35 - Es-tu d'accord avec la thèse d'Eliezer Yudkowsky : "si on la construit, tout le monde meurt" ?
0:30:07 - Tu présentes l'alignement comme un problème d'ingénierie plus large que l'IA (marchés, gouvernements). Peux-tu développer cette idée ?
0:41:55 - Quelle est la relation entre alignement et contrôle, et peut-on vraiment contrôler un système plus intelligent que nous ?
0:51:01 - Que penses-tu de la stratégie des labos d'utiliser des IA pour aider à aligner les IA futures (scalable oversight) ?
1:00:34 - Peux-tu nous expliquer l'agenda de recherche que vous aviez chez Conjecture, notamment l'émulation cognitive ?
1:03:43 - Que faire concrètement ? Faut-il une pause internationale et comment les auditeurs peuvent-ils contribuer ?
-----------------------------------------------------------------
✍️ QUI EST DERRIÈRE CE CONTENU ? ☕
➡ Production : The Flares - https://the-flares.com
➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/
-----------------------------------------------------------------
🌎 SUIVEZ-NOUS 🌎
💬 Discord : https://the-flares.com/y/discord
💬 Communauté : https://the-flares.com/y/communaute
🐦 Twitter : https://the-flares.com/y/twitter
👨 Facebook : https://the-flares.com/y/facebook
▶️ Youtube : https://the-flares.com/y/youtube
👕 Goodies : https://the-flares.com/y/goodies
-----------------------------------------------------------------
💡 SOURCES & RÉFÉRENCES 💡
➡ Site de Conjecture :
https://www.conjecture.dev/
➡ Site de control AI :
https://controlai.com/
➡ Le compendium :
https://www.thecompendium.ai/introduction
➡ Site de Micro Commit :
https://microcommit.io/
➡ Site de Pause AI :
https://pauseai.info/
-----------------------------------------------------------------
👩🚀 QUI SOMMES-NOUS ? 👨🚀
https://the-flares.com/y/about
-----------------------------------------------------------------
📧 CONTACTEZ-NOUS 📧
https://the-flares.com/y/contact
-----------------------------------------------------------------
#AvenirDuMonde #IntelligenceArtificielle
Dans cet épisode de la Prospective, nous accueillons Gabriel Alfour, CTO de Conjecture, une start-up dédiée à la recherche sur la sûreté de l’IA, et conseiller chez Control AI. Partant d’un constat lucide sur l’échec des approches techniques actuelles, il élargit la notion d’alignement au-delà de l’IA pour en faire un problème d’ingénierie des systèmes intelligents, des marchés financiers aux constitutions politiques. Une discussion approfondie sur les points de non-retour, les dynamiques de la course à l’AGI, et pourquoi nous avons collectivement échoué à concevoir des systèmes alignés sur le bien commun, même avant l’arrivée de l’IA. Sommaire : 0:00:00 – [...]
⬇️ Lisez la suite ici ⬇️
https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-ia-conjecture-controlia-risque-existentiel-gabriel-alfour/
⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️
Le contenu vous intéresse ?
Abonnez-vous et cliquez sur la 🔔
Vous avez aimé cette vidéo ?
Pensez à mettre un 👍 et à la partager.
C'est un petit geste qui nous aide grandement 🥰
⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/
Sommaire :
0:00:00 - Peux-tu te présenter et nous expliquer ce qui t'a amené à t'intéresser à la sécurité de l'IA ?
0:02:26 - Peux-tu nous en dire plus sur l'organisation Conjecture, sa mission principale et vos actions ?
0:05:34 - Quel est l'état des lieux des capacités de l'IA aujourd'hui et en quoi cela pose-t-il déjà des risques ?
0:11:20 - Que penses-tu du concept de P(doom) (probabilité d'extinction) et est-il utile pour le débat public ?
0:14:14 - Quelle est ta définition de l'intelligence artificielle générale (AGI) ?
0:16:11 - Souscris-tu au concept de "FOOM" (décollage rapide) où une IA s'auto-améliorerait de manière explosive ?
0:21:35 - Es-tu d'accord avec la thèse d'Eliezer Yudkowsky : "si on la construit, tout le monde meurt" ?
0:30:07 - Tu présentes l'alignement comme un problème d'ingénierie plus large que l'IA (marchés, gouvernements). Peux-tu développer cette idée ?
0:41:55 - Quelle est la relation entre alignement et contrôle, et peut-on vraiment contrôler un système plus intelligent que nous ?
0:51:01 - Que penses-tu de la stratégie des labos d'utiliser des IA pour aider à aligner les IA futures (scalable oversight) ?
1:00:34 - Peux-tu nous expliquer l'agenda de recherche que vous aviez chez Conjecture, notamment l'émulation cognitive ?
1:03:43 - Que faire concrètement ? Faut-il une pause internationale et comment les auditeurs peuvent-ils contribuer ?
-----------------------------------------------------------------
✍️ QUI EST DERRIÈRE CE CONTENU ? ☕
➡ Production : The Flares - https://the-flares.com
➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/
-----------------------------------------------------------------
🌎 SUIVEZ-NOUS 🌎
💬 Discord : https://the-flares.com/y/discord
💬 Communauté : https://the-flares.com/y/communaute
🐦 Twitter : https://the-flares.com/y/twitter
👨 Facebook : https://the-flares.com/y/facebook
▶️ Youtube : https://the-flares.com/y/youtube
👕 Goodies : https://the-flares.com/y/goodies
-----------------------------------------------------------------
💡 SOURCES & RÉFÉRENCES 💡
➡ Site de Conjecture :
https://www.conjecture.dev/
➡ Site de control AI :
https://controlai.com/
➡ Le compendium :
https://www.thecompendium.ai/introduction
➡ Site de Micro Commit :
https://microcommit.io/
➡ Site de Pause AI :
https://pauseai.info/
-----------------------------------------------------------------
👩🚀 QUI SOMMES-NOUS ? 👨🚀
https://the-flares.com/y/about
-----------------------------------------------------------------
📧 CONTACTEZ-NOUS 📧
https://the-flares.com/y/contact
-----------------------------------------------------------------
#AvenirDuMonde #IntelligenceArtificielle
Dans cet épisode de la Prospective, nous accueillons Gabriel Alfour, CTO de Conjecture, une start-up dédiée à la recherche sur la sûreté de l’IA, et conseiller chez Control AI. Partant d’un constat lucide sur l’échec des approches techniques actuelles, il élargit la notion d’alignement au-delà de l’IA pour en faire un problème d’ingénierie des systèmes intelligents, des marchés financiers aux constitutions politiques. Une discussion approfondie sur les points de non-retour, les dynamiques de la course à l’AGI, et pourquoi nous avons collectivement échoué à concevoir des systèmes alignés sur le bien commun, même avant l’arrivée de l’IA. Sommaire : 0:00:00 – [...]
⬇️ Lisez la suite ici ⬇️
https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-ia-conjecture-controlia-risque-existentiel-gabriel-alfour/
Comments
In Channel







