Intelligence artificielle : l’erreur est-elle humaine ?
Description
L’intelligence artificielle est régulièrement soupçonnée de commettre des erreurs... Sont-elles le reflet des erreurs humaines cachées derrière les machines ? De la recommandation de contenus sur YouTube à la justice prédictive, le jugement de l’IA a plus ou moins d’impacts dans nos vies en fonction de ses domaines d’application. Ce nouvel épisode d’Au Crible de la Science, une série de podcasts réalisée avec et pour les lycéen.nes, se penche sur la question.
L’intelligence artificielle désigne les algorithmes censés simuler le fonctionnement du raisonnement humain. Source de progrès pour beaucoup, elle suscite néanmoins des inquiétudes que le chercheur en psychologie cognitive Jean-François Bonnefon et le chercheur en innovations médiatiques Antonin Descampe décryptent en répondant aux questions des étudiants de 1ère et 2nde année de BTS Systèmes numériques du lycée Champollion de Figeac.
Jean-François Bonnefon est chercheur en psychologie cognitive au CNRS. Il a rejoint les économistes de Toulouse School of Economics, Toulouse School of Management et l’Institute for Advanced Study. Il est titulaire de la Chaire IA moral de l’Institut interdisciplinaire d’intelligence artificielle de Toulouse, ANITI, et préside un groupe d'experts de la Commission européenne de l'éthique sur les véhicules autonomes.
Antonin Descampe est chercheur dans le domaine des innovations médiatiques à l’Université catholique de Louvain et mène des recherches au sein de l’Observatoire de recherche sur les médias et le journalisme. Il est co-responsable de l’Observatoire des pratiques socio-numériques, une plateforme du Laboratoire d'études et de recherches appliquées en sciences sociales de l’Université Toulouse 3 - Paul Sabatier.
Références conseillées par les invités
- Moral Machine, plate-forme en ligne, développée au Massachusetts Institute of Technology, qui génère des dilemmes moraux et collecte des informations sur les décisions que les citoyens prennent entre deux résultats destructeurs.
- La Voiture qui en savait trop : L'intelligence artificielle a-t-elle une morale ?, Jean-François Bonnefon, éditions Humensciences, 2019
- Intelligence Artificielle, comment automatiser sans déshumaniser, une micro-conférence par Antonin Descampe, VertPop, 2021
- Automating the news : How algorithms are rewriting the media, de N. Diakopoulos, éditions Harvard University Press, 2019 : sur la manière dont les médias sont révolutionnés par l'IA
- Le JournalismAI festival, un événement annuel dédié à l'utilisation de l'IA dans les médias d'informations
- The age of surveillance capitalism: The fight for a human future at the new frontier of power, S. Zuboff, 2019 : Un livre sur la manière dont nos données sont utilisées pour nous connaître mieux afin de nous influencer (et nous faire consommer)
- Les travaux d’Antoinette Rouvroy, juriste, chercheuse au CRIDS à Namur en Belgique, sur la notion de gouvernementalité algorithmique
- Le site de l'EU sur la régulation de l’IA, qui définit une gestion des risques de l'IA.
- Transparents mais corruptibles: Les algorithmes au défi des comportements « adversariaux » dans le domaine journalistique, A. Descampe, A. et Standaert, F.-X., Les Cahiers du journalisme - Recherches, 2022
Retrouvez l'article et les morceaux choisis associés à cet épisode sur Exploreur
Consultez le dossier pédagogique de la thématique Intelligence artificielle
Le podcast Au Crible de la Science est une coproduction Université fédérale Toulouse Midi-Pyrénées">Université fédérale Toulouse Midi-Pyrénées - Exploreur ">Exploreur et Toulouse Métropole - Quai des Savoirs">Quai des Savoirs. Production radiophonique conçue en partenariat avec le Ministère de la Culture, l'Académie de Toulouse, le CNRS et Campus FM.
Animation : Valérie Ravinet
Préparation : Catherine Thèves
Réalisation : Arnaud Maisonneuve
Technique : Thomas Gouazé et Laurent Codoul