#62 - Course à l’IA : La course vers le précipice ? avec Henry Papadatos
Update: 2025-08-23
Description
Sommaire :
0:00:00 - Peux-tu te présenter et nous expliquer ce qui t'a amené à t'intéresser à la sécurité de l'IA ?
0:02:56 - Peux-tu nous présenter ton organisation et ses missions principales en matière de gouvernance de l'IA ?
0:07:45 - Peux-tu faire un état des lieux des capacités actuelles des intelligences artificielles ?
0:18:06 - Quelles sont les capacités actuelles des IA qui posent déjà des enjeux concrets en matière de sécurité ?
0:21:49 - Votre organisation a publié un audit de sécurité des laboratoires d'IA, quels sont les meilleurs et les moins bons élèves ?
0:24:24 - Comment la course pour être le premier à développer une AGI influence-t-elle la négligence de la sécurité ?
0:35:10 - Est-il probable que les États-Unis finissent par nationaliser l'industrie de l'IA pour des raisons de sécurité nationale ?
0:36:48 - Quelles sont les estimations actuelles sur l'arrivée d'une IA de niveau général humain (AGI) ?
0:39:38 - Pourquoi vouloir créer des IA générales plutôt que des IA spécialisées surpuissantes pour résoudre des problèmes spécifiques (médecine, énergie) ?
0:40:42 - Comment expliques-tu le concept de risque existentiel à des personnes qui ne sont pas familières avec le sujet ?
0:49:14 - Pourquoi développons-nous des intelligences plus fortes que nous, alors que nous savons que cela comporte des risques ?
0:52:21 - Même si les IA deviennent très puissantes, le passage du 'software' au 'hardware' ne va-t-il pas ralentir leur impact sur le monde réel ?
0:58:56 - Quel sera l'impact sur les emplois et la société si l'IA automatise la plupart des tâches humaines ?
1:02:22 - Y a-t-il un risque que tout se passe bien jusqu'à ce que tout se passe mal, avec des IA qui cacheraient leurs véritables intentions ?
1:04:30 - Comment expliques-tu le désaccord profond entre experts, certains alertant sur les risques existentiels et d'autres les rejetant complètement ?
1:10:55 - Où en sont les tentatives de régulation, notamment avec l'AI Act européen, et est-ce suffisant ?
1:15:26 - Pourrait-on réguler la chaîne d'approvisionnement, par exemple en traquant les puces les plus puissantes ?
1:19:13 - Est-ce qu'il faudra attendre un accident ou une catastrophe majeure pour que des régulations sérieuses soient mises en place ?
1:23:05 - Les 'agents IA' autonomes ne pourraient-ils pas causer un accident en se répliquant de manière incontrôlée, comme un virus informatique ?
1:26:36 - Que penses-tu du rapport prospectif 'AI 2027' et de son scénario d'accélération exponentielle ?
1:31:44 - Comment des expériences récentes prouvent-elles que les IA peuvent déjà feindre l'alignement pour ne pas être modifiées ?
1:45:41 - Y a-t-il un risque que nous créions des consciences artificielles capables de souffrir et de les enfermer dans des "enfers numériques" ?
-----------------------------------------------------------------
✍️ QUI EST DERRIÈRE CE CONTENU ? ☕
➡ Production : The Flares - https://the-flares.com
➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/
-----------------------------------------------------------------
💡 SOURCES & RÉFÉRENCES 💡
➡ Site de Safer AI :
https://www.safer-ai.org/
➡ Classement des labo d'IA en matière de sécurité :
https://ratings.safer-ai.org/
➡ Site d'Henry Papadatos :
https://henrypapadatos.com/
➡ Scenario AI 2027 :
https://ai-2027.com/
Dans cet épisode de la Prospective, nous accueillons Henry Papadatos, expert en gestion des risques de l’IA et Directeur Général de SaferAI.
⬇️ Lisez la suite ici ⬇️
https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/course-a-lia-course-vers-precipice-henry-papadatos-saferai-risque-extinction/
0:00:00 - Peux-tu te présenter et nous expliquer ce qui t'a amené à t'intéresser à la sécurité de l'IA ?
0:02:56 - Peux-tu nous présenter ton organisation et ses missions principales en matière de gouvernance de l'IA ?
0:07:45 - Peux-tu faire un état des lieux des capacités actuelles des intelligences artificielles ?
0:18:06 - Quelles sont les capacités actuelles des IA qui posent déjà des enjeux concrets en matière de sécurité ?
0:21:49 - Votre organisation a publié un audit de sécurité des laboratoires d'IA, quels sont les meilleurs et les moins bons élèves ?
0:24:24 - Comment la course pour être le premier à développer une AGI influence-t-elle la négligence de la sécurité ?
0:35:10 - Est-il probable que les États-Unis finissent par nationaliser l'industrie de l'IA pour des raisons de sécurité nationale ?
0:36:48 - Quelles sont les estimations actuelles sur l'arrivée d'une IA de niveau général humain (AGI) ?
0:39:38 - Pourquoi vouloir créer des IA générales plutôt que des IA spécialisées surpuissantes pour résoudre des problèmes spécifiques (médecine, énergie) ?
0:40:42 - Comment expliques-tu le concept de risque existentiel à des personnes qui ne sont pas familières avec le sujet ?
0:49:14 - Pourquoi développons-nous des intelligences plus fortes que nous, alors que nous savons que cela comporte des risques ?
0:52:21 - Même si les IA deviennent très puissantes, le passage du 'software' au 'hardware' ne va-t-il pas ralentir leur impact sur le monde réel ?
0:58:56 - Quel sera l'impact sur les emplois et la société si l'IA automatise la plupart des tâches humaines ?
1:02:22 - Y a-t-il un risque que tout se passe bien jusqu'à ce que tout se passe mal, avec des IA qui cacheraient leurs véritables intentions ?
1:04:30 - Comment expliques-tu le désaccord profond entre experts, certains alertant sur les risques existentiels et d'autres les rejetant complètement ?
1:10:55 - Où en sont les tentatives de régulation, notamment avec l'AI Act européen, et est-ce suffisant ?
1:15:26 - Pourrait-on réguler la chaîne d'approvisionnement, par exemple en traquant les puces les plus puissantes ?
1:19:13 - Est-ce qu'il faudra attendre un accident ou une catastrophe majeure pour que des régulations sérieuses soient mises en place ?
1:23:05 - Les 'agents IA' autonomes ne pourraient-ils pas causer un accident en se répliquant de manière incontrôlée, comme un virus informatique ?
1:26:36 - Que penses-tu du rapport prospectif 'AI 2027' et de son scénario d'accélération exponentielle ?
1:31:44 - Comment des expériences récentes prouvent-elles que les IA peuvent déjà feindre l'alignement pour ne pas être modifiées ?
1:45:41 - Y a-t-il un risque que nous créions des consciences artificielles capables de souffrir et de les enfermer dans des "enfers numériques" ?
-----------------------------------------------------------------
✍️ QUI EST DERRIÈRE CE CONTENU ? ☕
➡ Production : The Flares - https://the-flares.com
➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/
-----------------------------------------------------------------
💡 SOURCES & RÉFÉRENCES 💡
➡ Site de Safer AI :
https://www.safer-ai.org/
➡ Classement des labo d'IA en matière de sécurité :
https://ratings.safer-ai.org/
➡ Site d'Henry Papadatos :
https://henrypapadatos.com/
➡ Scenario AI 2027 :
https://ai-2027.com/
Dans cet épisode de la Prospective, nous accueillons Henry Papadatos, expert en gestion des risques de l’IA et Directeur Général de SaferAI.
⬇️ Lisez la suite ici ⬇️
https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/course-a-lia-course-vers-precipice-henry-papadatos-saferai-risque-extinction/
Comments
In Channel