Spécial - Responsabilité IA - Parce que... c'est l'épisode 0x638!
Description
Parce que… c’est l’épisode 0x638!
Shameless plug
- 12 au 17 octobre 2025 - Objective by the sea v8
- 14 et 15 octobre 2025 - ATT&CKcon 6.0
- 14 et 15 octobre 2025 - Forum inCyber Canada
- Code rabais de 30% - CA25KDUX92
- 4 et 5 novembre 2025 - FAIRCON 2025
- 8 et 9 novembre 2025 - DEATHcon
- 17 au 20 novembre 2025 - European Cyber Week
- 25 et 26 février 2026 - SéQCure 2026
Description
Introduction
Dans cet épisode spécial du podcast, l’hôte et Davy Adam explorent le vaste sujet de la responsabilité de l’intelligence artificielle, un domaine largement débattu dans l’espace public mais souvent mal compris. Face à la demande croissante des clients et à l’omniprésence de ces technologies, ils constatent la nécessité d’examiner comment utiliser l’IA correctement, ses limites, et surtout comment éviter les pièges courants.
Comprendre l’IA et l’IA générative
Beaucoup de clients confondent l’IA générale et l’IA générative. L’IA englobe toute application reproduisant une activité humaine codée pour accomplir des tâches spécifiques, comme les jeux d’échecs électroniques des années 90. L’IA générative, quant à elle, constitue un sous-segment du machine learning et du deep learning. Elle s’appuie sur des services pré-entraînés massivement sur des tâches comme la génération de texte, d’images, de sons, de vidéos ou de code, ainsi que sur des systèmes de questions-réponses et de chatbots.
Ces outils génératifs attirent les entreprises par leur capacité à systématiser des tâches répétitives sur de grands volumes avec un certain niveau de personnalisation. Cependant, contrairement à ce que beaucoup pensent, ces technologies ne sont pas neutres et leur intégration ne se résume pas à installer un simple plugin.
Les risques et limites fondamentaux
Les hallucinations et la nature statistique
L’un des défis majeurs de l’IA générative réside dans sa nature fondamentalement statistique. Contrairement à Google qui indexe du contenu factuel, l’IA générative ne comprend pas réellement les questions posées. Elle analyse l’ordonnancement des mots et génère la suite statistique la plus probable basée sur son entraînement. Cette approche provoque ce qu’on appelle des “hallucinations” : l’IA, incapable de reconnaître qu’une question n’a pas de sens, s’obstine à fournir une réponse en assemblant des mots statistiquement probables, même si le résultat est erroné ou inventé.
Yan Lecun, chercheur chez Google, souligne que les IA génératives actuelles ne survivront pas sur ce modèle car elles manquent du recul nécessaire pour comprendre quand une question est inappropriée. L’IA n’est intelligente que dans la mesure de la qualité des données qu’on lui fournit et des questions qu’on lui pose.
Les biais multiples
Les biais constituent un autre enjeu majeur, et ils se manifestent à plusieurs niveaux. D’abord, il y a le biais humain : les développeurs projettent leur propre perception du monde dans les données d’entraînement. Un homme blanc de 47 ans, par exemple, n’a pas une expérience représentative de l’ensemble de l’humanité, et cette limitation peut se refléter dans les choix de données, leur filtrage et leur labellisation.
Ensuite, il existe des biais sociologiques préexistants dans les données elles-mêmes. En médecine, les femmes sont historiquement sous-représentées dans les études cliniques, reproduisant ainsi des discriminations séculaires. La reconnaissance faciale illustre parfaitement ce problème : entraînée principalement sur des visages caucasiens, elle performe mal sur les autres populations.
L’ordre même dans lequel les informations sont ingérées par le modèle peut influencer les réponses. Les tentatives de débiaisage se révèlent complexes, comme l’a montré Google avec des résultats historiquement inexacts en essayant de corriger les représentations.
Responsabilité et transparence
L’utilisateur d’une IA générative demeure responsable de tout ce qu’elle génère en son nom. Cette responsabilité juridique a été établie par une jurisprudence canadienne impliquant Air Canada, dont le chatbot avait fourni des informations erronées sur un rabais de 200 dollars. L’entreprise a été jugée responsable des promesses faites par son IA.
Cette responsabilité implique la capacité d’expliquer la logique menant à chaque résultat (explainability). Les organisations doivent pouvoir rendre des comptes aux auditeurs, clients, partenaires ou tribunaux sur le fonctionnement de leurs systèmes d’IA. Cela nécessite une compréhension approfondie de l’origine des données, des algorithmes d’apprentissage, des modèles utilisés et de leur paramétrage.
Les bonnes pratiques d’implémentation
Définir des périmètres clairs
Les intervenants insistent sur l’importance de définir précisément le rôle de l’IA générative. Elle ne doit pas être considérée comme un nouvel employé polyvalent, mais comme un outil spécialisé avec des fonctions précises : générer des résumés, traduire des documents, systématiser des tâches répétitives. L’anthropomorphisme constitue un piège dangereux : l’IA n’a aucune émotion, empathie ou véritable intelligence, c’est une application statistique qui transforme des inputs en outputs.
Les domaines à éviter
Certains domaines sont inappropriés pour l’IA générative, notamment le médical et le légal pour des décisions critiques. Si ces professionnels peuvent utiliser l’IA pour synthétiser ou traduire des documents, ils ne doivent jamais s’y fier pour des diagnostics ou des défenses juridiques. La complexité contextuelle de ces domaines, où même les experts humains peinent à obtenir des verdicts unanimes, dépasse largement les capacités actuelles des IA génératives.
Enrichir et contrôler les données
Les organisations peuvent améliorer leurs IA génératives par plusieurs méthodes. Le RAG (Retrieval Augmented Generation) permet d’ajouter des bases de connaissances spécifiques au métier. Le prompt engineering, le one-shot ou few-shot learning permettent de fournir des exemples de réponses préformatées. Des paramètres comme la “température” permettent de contrôler le niveau de créativité, utile pour la littérature mais risqué pour la documentation technique.
Les “guardrails” (garde-fous) permettent d’interdire certains vocabulaires ou domaines, limitant ainsi les risques de réponses inappropriées ou dangereuses.
Gouvernance et sécurité
Comités d’éthique et d’IA
La mise en place d’un comité d’IA devient indispensable pour toute organisation adoptant ces technologies. Ce comité, à la fois technique, professionnel et éthique, doit réfléchir aux questions de responsabilité, éviter les erreurs et établir des frameworks reproductibles pour chaque nouveau projet d’IA.
Cette gouvernance s’intègre naturellement dans les structures existantes comme les Cloud Centers of Excellence, car les données d’IA proviennent souvent du cloud et doivent être cartographiées, labellisées et nettoyées.
Menaces de sécurité
L’empoisonnement des données constitue une menace émergente. Des acteurs malveillants, notamment étatiques, peuvent injecter des données fausses dans les sources d’entraînement pour influencer les résultats. L’exemple de Microsoft avec son chatbot sur Twitter, devenu rapidement nazi et misogyne en 24 heures suite à des interactions malveillantes, illustre cette vulnérabilité. Dans un contexte géopolitique tendu, ces risques nécessitent des stratégies robustes de filtrage et de validation des données.
Conclusion
L’adoption de l’IA générative exige une approche mature et réfléchie. Comme pour l’apprentissage de la conduite automobile, il ne suffit pas de savoir manipuler l’outil : il faut comprendre et respecter un “code de l’IA”. Les organisations doivent accepter de tâtonner, d’apprendre et d’itérer pour développer progressivement une culture d’entreprise capable d’intégrer ces technologies de manière responsable, éthique et efficace. La consommation énergétique considérable de ces systèmes et leur impact sociétal renforcent encore l’urgence d’une utilisation consciente et maîtrisée.
Collaborateurs
Crédits
- Montage par Intrasecure inc
- Locaux virtuels par Riverside.fm