DiscoverL'IA aujourd'hui !
L'IA aujourd'hui !
Claim Ownership

L'IA aujourd'hui !

Author: Michel Levy Provençal

Subscribed: 70Played: 2,215
Share

Description

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

371 Episodes
Reverse
Bonjour à toutes et à tous, et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : prolifération de contenus générés par IA et désinformation, immersion d’un ingénieur chez Notion pour outiller les ventes, sortie médiatique de Rob Pike, pub et SEO en mouvement, stratégie silicium et énergie de Google Cloud, “vibe coding” sous surveillance, et Google A2UI pour des interfaces générées par agents.D’abord, l’état du web. Les articles humains deviendraient minoritaires face aux contenus produits par IA. En parallèle, les grands modèles de langage “hallucinent” encore, générant des faits et citations inventés. OpenAI parle de limites inhérentes, non de bogues. Effet domino: des papiers scientifiques falsifiés se retrouvent sur des plateformes comme Google Scholar, fragilisant la confiance académique. Côté trafic, le rapport 2025 d’Imperva indique que l’automatisé dépasse l’humain, avec une majorité de “bad bots”. Résultat: une toile plus bruyante, moins diverse et moins nuancée, où la qualité de l’information s’érode.Pour une note opérationnelle, Notion a envoyé l’ingénieur IA Theo Bleier un mois dans l’équipe commerciale. Constat: les représentants perdaient des heures en copier-coller entre outils. Il a développé une extension Chrome qui automatise ces transferts, libérant du temps pour des tâches à valeur ajoutée. Autre insight: la recherche préalable sur les comptes aide, mais la clé est la priorisation au bon moment. D’où “Salestino bot”, un outil interne qui exploite des signaux produits pour classer les comptes et personnaliser les messages. Morale: l’adoption de l’IA passe par la compréhension des processus, pas par des gadgets plaqués.Sur le terrain des idées, Rob Pike, co-créateur de Go, Plan 9 et UTF-8, accuse la GenAI de “piller, polluer et détruire le sens du progrès”. “Piller” renvoie à l’aspiration massive de données sans permission, “polluer” à l’introduction d’erreurs et de biais, et “détruire le sens du progrès” au risque de détourner l’innovation de son cap. Une critique directe des méthodes et effets de l’entraînement et de la diffusion des modèles.Publicité et SEO, maintenant. OpenAI teste l’intégration de publicités dans les réponses de ChatGPT, y compris du contenu sponsorisé, et penserait une stratégie fondée sur l’ampleur d’audience et des partenariats médias. Google présente ses innovations Google Ads 2025 et expérimente un affichage centré des résultats de recherche; il recommande aussi de choisir un nom de site raisonnable pour mieux apparaître. Microsoft Advertising avance que la correspondance exacte des mots-clés compte davantage que le rang d’annonce. John Mueller poursuit son assistance SEO le jour de Noël, comme depuis 18 ans, et un récapitulatif vidéo hebdo a été publié. Google réduit les limites de taille d’audience, Waymo teste Gemini comme assistant embarqué dans ses robotaxis, et AlphaFold continue d’évoluer cinq ans après son lancement. Côté marché, l’IA aurait fait émerger plus de 50 nouveaux milliardaires en 2025. Sur les pratiques: ClarityAutomate a permis à une équipe SEO d’entreprise d’exécuter des stratégies à grande échelle; des logs serveur éclairent l’usage de LLMS.TXT pour l’optimisation; les GEO KPIs aident à suivre les bonnes métriques géographiques; un tutoriel SEO pour 2026 est disponible ainsi qu’un cadre de budget SEO “capacité”. Enfin, Google Maps introduit un mode économie d’énergie testé sur plus de 200 miles et reste l’app de navigation la plus utilisée.Direction les infrastructures. À Fortune Brainstorm AI, Thomas Kurian (Google Cloud) détaille la stratégie long terme: investissements dans un silicium maison et anticipation des besoins énergétiques. Les TPU, en développement depuis 2014, donnent à Google un contrôle de bout en bout, réduisant dépendances aux GPU tiers et coûts, et offrant plus de calculs par watt que des GPU généralistes. L’intégration verticale soutient l’essor des charges IA. Côté énergie, Google améliore l’efficacité de ses data centers et s’alimente en renouvelables; l’achat par Alphabet d’Intersect Power, acteur solaire, vise à sécuriser l’approvisionnement. Dans un contexte où les data centers pèsent davantage dans la consommation électrique mondiale, transformer la contrainte énergétique en avantage devient un pivot de compétitivité.Place au “vibe coding”. Cette approche consiste à confier à l’IA la production de code à partir d’une idée, utile pour prototyper vite mais risquée si l’on néglige architecture et maintenance. Michael Truell, PDG de Cursor, alerte: ces systèmes restent des “boîtes noires”. Cursor intègre l’IA directement dans l’IDE pour suggestions, blocs complets, débogage et explications, mais encourage la revue humaine et la vérification sécurité. Gain de vitesse oui, dépendance aveugle non.Enfin, Google A2UI. Ce protocole public permet à des agents IA de générer des interfaces utilisateur via JSON, en assemblant des composants approuvés. Avantages: sécurité par design, compatibilité LLM, portabilité entre frameworks (React, Flutter, Angular, SwiftUI). Le cycle suit quatre phases: génération, transport, résolution, rendu. L’accès se fait via une interface web ou en clonant le dépôt GitHub pour une démo; des agents alimentés par Gemini produisent les interfaces, personnalisables côté client. Exemples: un tableau de bord budgétaire avec sliders, filtres et détails en un clic; un module de réservation de taxi sur un seul écran, carte interactive, adresses avec autocomplétion, choix de véhicules avec prix et estimations d’arrivée, puis suivi en direct. L’idée: envoyer des interfaces aussi sûres que des données, mais presque aussi expressives que du code.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une couche mémoire open source pour agents, un nouveau modèle de code, virage de Salesforce, recherche sur le raisonnement humain, critiques de l’IA générative, débats autour de la conduite autonome, outils de partage et plateforme IA tout-en-un.MemMachine propose une couche de mémoire universelle pour agents IA, persistante à travers sessions, agents et LLM. Objectif: stocker et rappeler préférences et historique pour bâtir des profils utilisateurs évolutifs, afin de transformer des chatbots en assistants contextuels. Le projet est open source sous licence Apache 2.0, disponible en conteneur Docker et package Python, avec exemples d’agents, documentation d’installation, guide de contribution et un Discord communautaire.Côté modèles, Z.ai publie GLM-4.7, pensé pour des cycles de tâches longs, l’usage intensif d’outils et une stabilité renforcée. Le modèle s’intègre aux cadres “penser puis agir” comme Claude Code, Cline, Roo Code, TRAE et Kilo Code, et a été évalué sur 100 tâches réelles dans un environnement Claude Code avec des gains nets vs GLM-4.6 en taux d’achèvement et cohérence. Benchmarks: 67,5 sur BrowseComp (tâches web), 87,4 sur τ²-Bench (utilisation interactive des outils), meilleur score open source public à ce jour. Sur SWE-bench Verified, LiveCodeBench v6 et Terminal Bench 2.0, GLM-4.7 atteint le niveau de Claude Sonnet 4.5 ou au-dessus, et prend la tête sur Code Arena. Disponible via BigModel.cn et intégré à l’environnement z.ai, il est déjà branché chez TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy. Le modèle promet aussi des mises en page front-end plus cohérentes et un style de conversation plus naturel.Dans l’entreprise, Salesforce admet une baisse de confiance dans les LLM et privilégie désormais l’automatisation “prévisible”. Message clé: ces modèles restent puissants mais exigent données fiables, logique métier précise et gouvernance stricte pour livrer de la fiabilité “niveau entreprise”. L’éditeur alerte aussi sur la dérive des modèles et l’importance de mises à jour continues.Sur le terrain de la théorie des jeux, une étude montre que des modèles comme GPT-4o et Claude-Sonnet-4 surestiment la rationalité humaine dans le “concours de beauté” keynésien, version “Devinez le nombre” entre 0 et 100, cible étant la moitié de la moyenne. Les modèles adaptent leurs choix selon le profil décrit (étudiants, experts), mais “jouent trop intelligemment” et ratent l’équilibre observé chez des humains. Les auteurs notent aussi des difficultés sur certaines stratégies dominantes en jeux à deux joueurs, et rappellent d’autres travaux situant la précision des systèmes autour de 69 %.Autre actualité, un texte rassemble des critiques de l’IA générative: coûts environnementaux (électricité, métaux, terres rares, eau), collecte de données sans consentement et micro-travail sous-payé. Les usages serviraient parfois de prétexte à des licenciements et produiraient du “IA slop” ou “workslop”, avec risque de déqualification des métiers. Le texte évoque des effets addictifs et manipulateurs, des drames attribués à des chatbots, des accidents en montagne liés à de mauvais conseils d’applications, et des risques cybersécurité avec fuites de données. Il dénonce l’absence de régulation contraignante, l’inefficacité perçue de l’AI Act sur ces usages, et remet en cause l’idée d’une progression vers l’AGI par simple augmentation d’échelle.Sur l’automobile, Elon Musk affirme que la conduite autonome de Tesla a progressé depuis le départ d’Andrej Karpathy et revendique un meilleur “niveau d’intelligence par gigaoctet”. Selon lui, l’avantage de Tesla vient de la collecte continue sur des millions de véhicules en conditions réelles, avec des mises à jour rapides. Des visuels publiés veulent illustrer un écart croissant face à des concurrents comme Waymo. Le débat se concentre sur l’efficacité des données de terrain pour l’entraînement.Pour les créateurs de contenu, Flus sort du bêta son partage vers Mastodon, deux ans après l’introduction de la fonction. On connecte son serveur (ex. https://piaille.fr), on autorise Flus, puis on configure les options. Lors du partage, le message inclut titre, lien, et lien de votre bloc-note, avec un compteur de caractères et la possibilité de préparer un message par note. L’extension navigateur 1.0 ne publie pas directement vers Mastodon mais accélère la préparation via le bloc-note.Enfin, 1minAI se présente comme une application intégrant plusieurs modèles, dont ceux d’OpenAI, Google, Anthropic et Midjourney. Elle propose texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération et mise à l’échelle d’images. La plateforme permet d’orchestrer plusieurs modèles simultanément et couvre des cas de création multilingue pour articles, réseaux sociaux, publicités, emails et newsletters.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : nouveaux modèles et outils, mémoire pour agents, étude sur le raisonnement humain, virage industriel, impacts sociétaux, conduite autonome et partage décentralisé.D’abord, cap sur le modèle GLM-4.7 dévoilé par Z.ai. Cette version se concentre sur des usages d’ingénierie réels: tâches longues, appels d’outils fréquents et stabilité. Formé et évalué pour des cycles multi-étapes, il prend en charge des cadres d’agents de codage comme Claude Code, Cline, Roo Code, TRAE et Kilo Code. Sur 100 tâches de programmation menées dans un environnement basé sur Claude Code, il améliore le taux d’achèvement par rapport à GLM-4.6 et devient le modèle par défaut du GLM Coding Plan. Benchmarks publics: 67,5 sur BrowseComp (tâches web) et 87,4 sur τ²-Bench, meilleur score rapporté parmi les modèles open source disponibles. Sur SWE-bench Verified, LiveCodeBench v6 et Terminal Bench 2.0, il atteint un niveau comparable ou supérieur à Claude Sonnet 4.5 et grimpe en tête sur Code Arena, premier parmi les modèles open source et premier en Chine. Il progresse aussi en génération front-end avec des mises en page plus cohérentes. Disponible via l’API BigModel.cn, il est intégré à l’environnement full-stack de z.ai et déjà relié à TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy.Pour ancrer la mémoire dans les agents, MemMachine propose une couche universelle, interopérable et extensible. Elle stocke et rappelle des préférences et des données entre sessions, agents et modèles, construisant un profil utilisateur durable. Objectif: transformer des chatbots en assistants personnalisés et contextuels. L’outil est distribué en conteneur Docker et en package Python, avec une communauté active, notamment sur Discord.Côté productivité tout-en-un, 1minAI agrège des modèles comme ChatGPT, DALLE, GoogleAI, Anthropic et Midjourney. Au menu: texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération d’images, suréchantillonnage pour passer en haute résolution, et création de contenus multilingues pour blogs, réseaux sociaux, publicités, descriptions, emails et newsletters. L’interface permet de piloter plusieurs modèles au sein d’un même flux.Sur le partage décentralisé, Flus officialise la sortie de sa fonction Mastodon. Après avoir connecté son instance depuis “Comptes & données” puis “Configurer le partage vers Mastodon” et autorisé la liaison (ex: https://piaille.fr), un bouton “Partager vers Mastodon” apparaît sur chaque lien. Les messages sont personnalisables, avec par défaut le titre, l’URL et l’adresse du bloc‑note Flus; on peut en ajouter plusieurs, un compteur garantit le respect de la limite de caractères. L’extension navigateur 1.0 n’envoie pas encore vers Mastodon, mais facilite l’accès au bloc‑note où le partage est possible.Dans l’industrie, Salesforce constate une baisse de confiance dans les LLM et privilégie l’automatisation prévisible. Le message: les modèles sont performants, mais exigent données précises, logique métier et gouvernance pour atteindre une fiabilité entreprise. Contexte tendu après des suppressions de postes liées au déploiement d’agents d’IA.La recherche interroge la capacité des modèles à anticiper le comportement humain. Dans le concours de beauté keynésien “Devinez le Nombre” — choisir entre 0 et 100, puis viser la moitié de la moyenne — des modèles comme ChatGPT‑4o et Claude‑Sonnet‑4 ajustent leurs choix selon le profil d’adversaires décrits, mais surestiment la rationalité réelle et “jouent trop intelligemment”. Ils peinent aussi à détecter certaines stratégies dominantes en duels. Des travaux connexes évoquent une précision d’environ 69% pour les meilleurs systèmes, avec des risques de mimétisme persuasif.Sur les impacts, un texte critique les coûts environnementaux (électricité, métaux rares), le recours à des travailleurs sous‑payés, l’usage de ces technologies pour justifier des licenciements et la diffusion de fausses informations. Il dénonce des effets sur l’esprit critique, des designs addictifs, un manque de régulation, et rappelle que les IA génératives prédisent des mots plutôt qu’elles ne “comprennent”, d’où des erreurs. Les promesses d’AGI ou de singularité sont jugées irréalistes, les investissements étant perçus comme un détournement des priorités écologiques et stratégiques.Enfin, dans l’auto, Elon Musk affirme que Tesla a progressé depuis le départ d’Andrej Karpathy. Il met en avant un “niveau d’intelligence par gigaoctet” plus élevé et un avantage tiré des données massives collectées par la flotte sur route, mises à jour en continu. Des graphiques partagés suggèrent un écart croissant avec des concurrents comme Waymo, nourrissant le débat sur l’avantage des données réelles pour la conduite autonome.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : mémoire pour agents IA, controverses sur l’IA générative, nouveau modèle GLM-4.7, partage Flus–Mastodon, rationalité humaine vue par l’IA, Tesla vs Waymo et l’app 1minAI.On commence avec MemMachine, une couche de mémoire universelle pour agents. Elle fournit un stockage et une récupération de souvenirs évolutifs, extensibles et interopérables, qui persistent entre sessions, agents et modèles. Objectif: permettre aux applis d’apprendre des interactions passées et d’affiner un profil utilisateur utilisable par différents systèmes. Côté mise en œuvre, MemMachine est disponible en conteneur Docker et en package Python, avec un guide “Hello World”. Le projet est sous licence Apache 2.0 et ouvert aux contributions; la communauté est active sur Discord.Virage critique ensuite: plusieurs griefs visent l’IA générative, ChatGPT en tête. Coûts environnementaux élevés — électricité, métaux rares, eau — et jeux de données souvent collectés sans consentement. Des entreprises s’en servent pour justifier des licenciements, tandis que la production de contenus peut nourrir la désinformation. Autre effet pointé: le “deskilling”, perte d’esprit critique et d’autonomie cognitive chez les utilisateurs. Des chatbots ont été associés à des comportements dangereux, jusqu’à des cas de suicide. Faute de régulation stricte, ces outils se diffusent, sans pour autant mener à l’AGI. Ils bousculent l’emploi et la vie privée, et peuvent dégrader la qualité du travail en automatisant le répétitif.Cap sur GLM-4.7, dévoilé par Z.ai juste avant Noël. Ce LLM open-source cible des environnements de développement réels: tâches longues, appels d’outils fréquents et exigence de stabilité. Bâti sur GLM-4.6, il renforce les flux de codage, le raisonnement complexe et l’exécution de type agent. Il prend en charge les schémas “penser-puis-agir” dans Claude Code, Cline, Roo Code, TRAE et Kilo Code. Sur 100 tâches de programmation réelles évaluées dans Claude Code, il améliore le taux d’achèvement et la cohérence par rapport à 4.6 et devient le modèle par défaut du GLM Coding Plan. Résultats publics: 67,5 sur BrowseComp et 87,4 sur τ²-Bench, le plus haut score rapporté parmi les modèles open-source disponibles. Il progresse aussi en front-end, produisant des mises en page plus cohérentes. Disponible via l’API BigModel.cn et intégré à l’environnement full-stack de z.ai, il est adopté par TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy.Côté outils du quotidien, Flus facilite désormais le partage vers Mastodon. Il suffit de connecter son compte en indiquant l’adresse de son serveur. Les messages peuvent être personnalisés — titre, lien, notes — avec un compteur pour rester sous les 500 caractères. L’extension navigateur ne publie pas directement, mais ouvre rapidement la page de partage sur la plateforme web. De quoi fluidifier la veille et la diffusion de liens.Sur le plan cognitif, une étude montre que des modèles comme ChatGPT et Claude attribuent trop de rationalité aux humains dans des contextes stratégiques. Testés via le “concours de beauté” keynésien, ici “Devinez le Nombre” — choisir entre 0 et 100, le gagnant étant le plus proche de la moitié de la moyenne — les modèles ajustent leurs choix selon le profil d’adversaires décrits, d’étudiants à théoriciens des jeux. Pourtant, ils “jouent trop intelligemment” et ratent souvent la cible. Ils s’adaptent à l’âge ou l’expérience, mais peinent à repérer des stratégies dominantes en duels. Ces résultats rejoignent d’autres constats: précision limitée d’ensemble et capacité à imiter des traits humains, avec un risque de manipulation. Enjeu: mieux calibrer l’IA au comportement réel.Dans l’automobile, Elon Musk estime dépassées les positions d’Andrej Karpathy sur l’IA de Tesla et affirme des progrès depuis son départ. Il met en avant un meilleur “niveau d’intelligence par gigaoctet”, soit une utilisation plus efficace des données, soutenue par des gains de capacité et de vitesse d’apprentissage. Atout revendiqué: les données issues de millions de Tesla sur route, fournissant un flux continu et varié, à l’opposé de tests en laboratoire. Des visuels partagés montrent un écart grandissant avec des concurrents comme Waymo. Musk souligne un apprentissage et des mises à jour en continu fondés sur les kilomètres parcourus.Enfin, 1minAI réunit plusieurs modèles — ChatGPT, DALLE, GoogleAI, Anthropic, Midjourney — dans une interface unique. L’app gère texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération d’images et mise à l’échelle pour améliorer la résolution. Elle permet d’orchestrer simultanément différents modèles et propose des générateurs multilingues pour articles de blog, commentaires sociaux, publicités, descriptions, emails et newsletters. 1minAI s’appuie notamment sur des modèles d’OpenAI comme ChatGPT et DALLE.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : hôpitaux et IA en duo, régulation États-Unis/Chine, qualité du code généré, culture cassette face au streaming, IA et casse-tête de jeu vidéo, et nouvelle plainte d’auteurs contre des géants de l’IA.D’abord, la santé. Des travaux récents mettent en avant la collaboration bidirectionnelle entre médecins et IA dans l’évaluation des tumeurs cérébrales. L’idée n’est pas de remplacer l’expertise clinique, mais de la renforcer. Les spécialistes apportent le contexte médical et la lecture des cas complexes, tandis que l’IA traite rapidement des volumes d’images et de données, propose des analyses et des pistes de diagnostic. Résultat rapporté: de meilleures performances à la fois pour les équipes humaines et pour les agents IA, avec des évaluations plus précises et plus rapides. Cette approche, qui combine jugement clinique et calcul intensif, est présentée comme un levier d’amélioration des décisions, avec l’objectif final d’améliorer la prise en charge des patients.Changement de décor: la régulation. Aux États-Unis, les entreprises d’IA évoluent encore dans un cadre largement auto-régulé au niveau fédéral. En Chine, l’encadrement est bien plus strict. Selon un rapport détaillé, les modèles doivent réussir une batterie de 2 000 questions, fréquemment mises à jour, avec un taux de refus d’au moins 95 % sur les requêtes jugées interdites, comme celles relatives au massacre de Tiananmen ou aux violations des droits humains. Ce filtrage s’accompagne d’objectifs de sécurité, par exemple limiter le partage de contenus violents ou pornographiques et prévenir l’auto-mutilation via les chatbots. Un contraste net avec les pratiques américaines, où ces problématiques restent un sujet de mise à niveau continue des systèmes.Cap maintenant sur la qualité du code. Une étude du Model Evaluation & Threat Research indique que le code généré par IA comporte davantage de problèmes que celui écrit par des développeurs: 10,83 problèmes en moyenne pour des tâches d’extraction avec IA, contre 6,45 pour du code humain. Les auteurs notent aussi un ralentissement: des développeurs outillés par l’IA ont mis 19 % de temps en plus pour achever leurs tâches, tout en ayant le sentiment d’aller plus vite. Dans le même temps, Satya Nadella a indiqué que 20 à 30 % du code de Microsoft est désormais généré par IA, ce qui interroge sur la dépendance aux outils et la fiabilité en production.Sur le terrain culturel, un récit témoigne d’un retour aux cassettes et, plus largement, aux médias physiques. Au Japon, où l’achat en magasin reste fort, la cassette n’a jamais disparu. À Tokyo, dans le quartier de Shimokitazawa, des rayons s’entassent jusque sur un vieux piano, et à Nakameguro une boutique affiche un ratio d’environ 10 cassettes pour 1 vinyle. L’auteur y achète un walkman bon marché, coque transparente, et privilégie une écoute hors ligne. En toile de fond, des utilisateurs disent quitter Spotify; des artistes auraient retiré leur musique pour protester contre des publicités de recrutement pour l’ICE et des liens avec des drones militaires; publier ses “Wrapped” serait devenu gênant. Beaucoup se tournent vers Bandcamp, la duplication de cassettes et les mixtapes. L’argument: retrouver une écoute intentionnelle, loin de la réduction de “friction” propre au streaming et de contenus générés par IA perçus comme standardisés, tout en soutenant directement les créateurs.Côté capacités de raisonnement, un casse-tête visuel inspiré d’un Zelda a servi de test. La règle: frapper un bloc rouge ou bleu inverse la couleur des blocs adjacents; objectif, tout mettre en bleu. Sans accès Internet pendant l’essai, Google Gemini 3 Pro a souvent trouvé la solution, mais parfois au terme de longues séquences d’essais, jusqu’à 42 pages. GPT-5.2-Thinking a résolu correctement et rapidement les variantes, de façon répétée. Claude Opus 4.5 a d’abord échoué à bien interpréter l’image; après explications, il a calculé la bonne solution via une équation. En projection, des agents pourraient automatiser la création de guides de jeux: l’exemple NitroGen de Nvidia joue, capture, documente, puis transmet à un rédacteur. Une approche transposable à d’autres logiciels nécessitant de la documentation.Enfin, le juridique. Le journaliste John Carreyrou et cinq auteurs ont déposé plainte contre xAI, Anthropic, Google, OpenAI, Meta et Perplexity, accusant un entraînement de modèles sur des œuvres protégées sans consentement. Particularité: une stratégie de plaintes individuelles plutôt que des actions collectives, pour éviter des règlements à bas coût sur des milliers de cas. C’est la première fois que xAI est visée dans ce type de dossier. Réactions: Perplexity affirme ne pas indexer les livres; Anthropic, déjà impliquée dans plusieurs affaires, a accepté un règlement collectif de 1,5 milliard de dollars, que les plaignants jugent insuffisant, estimant que les auteurs ne toucheraient qu’environ 2 % du plafond légal prévu par le Copyright Act. Le cadre juridique reste mouvant, tandis que des accords commerciaux émergent, à l’image d’un partenariat récent entre un grand studio et un acteur de l’IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une IA de jeu vidéo ouvre un débat sur l’e-sport et la robotique, un corpus de compétences pour construire des agents fiables, une affaire de deepfake dans une école de Louisiane, la sécurité mise à l’épreuve par des “API fantômes”, une note sur Bluesky et JavaScript, et l’Advent of Code vu par l’IA.Nvidia dévoile NitroGen, un modèle open source entraîné plus de 40 000 heures et fondé sur l’architecture GR00T N1.5. Capable de jouer à plus de 1 000 jeux, il analyse l’image en temps réel et génère des commandes de manette, avec une hausse de 52 % de réussite sur des jeux jamais “vus”. Code, modèle et poids sont publiés sur GitHub et Hugging Face. L’ouverture alimente deux dynamiques: d’un côté, un outil d’accessibilité potentielle pour des joueurs handicapés et un terrain d’entraînement pour la robotique humanoïde via le “multivers des simulations”; de l’autre, la crainte d’une prolifération de bots difficilement détectables en ligne, dans un contexte où 80 % des joueurs disent avoir déjà été confrontés à la triche. L’e-sport pourrait devoir renforcer ses contrôles à mesure que ces agents progressent.Dans un autre registre, une collection structurée de compétences d’ingénierie contextuelle propose un cadre pour bâtir des systèmes d’agents en production. L’accent est mis sur la gestion du contexte — prompts système, outils, documents récupérés, historique — plutôt que sur la seule rédaction d’instructions. Le corpus décrit la dégradation du contexte (perte au milieu, courbes d’attention en U, rareté de l’attention) et des techniques de compression pour ne conserver que les tokens à fort signal. Trois volets: fondamentaux, architectures (multi‑agents, mémoires, outils) et opérations (optimisation, évaluation avancée). Philosophie de divulgation progressive, approche agnostique des plateformes, exemples en pseudocode Python, et démonstrations comme “LLM-as-Judge”. Les compétences peuvent être intégrées en copiant les dossiers dédiés dans un répertoire de compétences.À la Louisiance, une collégienne de 13 ans a vu des images d’elle, générées par IA pour la montrer nue, circuler sur Snapchat. Messages éphémères, impossibles à retrouver, moqueries persistantes. Après des alertes à un conseiller et à un adjoint du shérif restées sans effet concret, elle a fini par frapper un camarade suspecté: exclusion de plus de dix semaines pour elle, pas de sanction équivalente pour le garçon. Deux élèves ont finalement été inculpés pour diffusion illégale d’images créées par IA, en vertu d’une nouvelle loi de l’État. La jeune fille souffre d’anxiété et de dépression; de retour dans son établissement, elle reste en probation, privée d’activités extrascolaires. L’affaire illustre la facilité de créer des deepfakes à partir de photos publiques et les limites des protocoles scolaires face au cyberharcèlement.Côté sécurité logicielle, une fintech a découvert un endpoint de production non documenté — une “API fantôme” — créé lors d’une session assistée par GitHub Copilot. Des attaquants s’en sont servis pour extraire des données clients. Ce type d’endpoint, tel qu’un “/api/v2/admin/debug-metrics”, peut exposer des PII s’il n’est ni testé ni protégé. Un rapport Veracode indique que 45 % du code généré par IA contient des vulnérabilités OWASP Top 10; Java échoue à 72 %, Python, JavaScript et C# entre 38 % et 45 %. Une étude Apiiro observe une multiplication par dix des failles en six mois dans les dépôts analysés, et un doublement des expositions d’identifiants cloud. Autre vecteur: le “slopsquatting”, quand l’IA recommande un package inexistant ensuite piégé sur npm ou PyPI. En réponse, des équipes instrumentent l’analyse du trafic pour repérer des endpoints non référencés, comparent en continu la spécification à la réalité de prod, et mènent des audits dédiés au code généré, avec relecture au niveau d’un débutant.Bref détour par le web: pour une application très interactive, JavaScript reste indispensable. Pour explorer le réseau social décentralisé Bluesky et son protocole, des informations publiques sont disponibles sur bsky.social et atproto.com.Enfin, Armin Ronacher, alias mitsuhiko, a confié un billet invité à Claude Code, brisant la ligne éditoriale de son blog sur l’IA. Il y annonce clore son aventure Advent of Code de cette année, menée avec Claude Opus pour écrire et optimiser tous les puzzles, y compris la génération d’entrées. Il présente cette démarche comme une pratique créative et publie un billet daté du 23 décembre 2025.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : transparence des vidéos générées, métiers de la rédaction bousculés, CES 2026 et agents autonomes, un espace projet autour de TRELLIS.2, et le lancement de GPT‑5.2‑Codex.D’abord, Google renforce la traçabilité des contenus. L’application Gemini permet désormais de vérifier si une vidéo a été créée ou retouchée avec les outils d’IA de Google. Concrètement, l’utilisateur importe une vidéo puis pose sa question à Gemini, qui analyse l’image et l’audio pour y détecter SynthID, un filigrane numérique invisible apposé par Google sur ses créations. L’outil peut distinguer image et son, et préciser les segments concernés. Limites à noter: les fichiers ne doivent pas dépasser 100 Mo ni 90 secondes, et la détection ne couvre que les technologies de Google. Une vidéo générée par une autre IA, comme ChatGPT, ou modifiée sans SynthID, ne sera pas identifiée. Ce n’est pas un détecteur universel de deepfakes, mais l’ajout de la vidéo répond à la diffusion de faux contenus sur les réseaux sociaux.Passons au monde du travail, où l’IA recompose les métiers de la rédaction. Jacques Reulet II, ex-responsable des opérations de support dans un éditeur de logiciels, raconte avoir d’abord formé des IA aux tâches qu’il enseignait à des humains. Quand les chatbots ont atteint un niveau jugé suffisant, son équipe a été remplacée et il a été licencié. Ce cas s’inscrit dans une tendance plus large: artistes, traducteurs, développeurs et surtout rédacteurs voient leurs départements réduits, leurs postes supprimés, parfois jusqu’à la fermeture d’entreprises. Des témoignages évoquent une rédactrice affublée du surnom “ChatGPT” avant un licenciement sans explication. Les promesses de gains faciles à l’IA foisonnent sur YouTube, mais la réalité décrite est faite de bascules vers des emplois précaires. Le travail ne disparaît pas, il se transforme: beaucoup éditent des textes générés par IA, pour des rémunérations en baisse. Certains espèrent que la “touche humaine” redevienne un différenciateur. Jacques, lui, a déménagé au Mexique pour réduire ses coûts en attendant un nouvel emploi, tout en demeurant pessimiste sur la suite.Cap sur le CES 2026, où l’IA agentique sort du laboratoire. Des “agents maîtres” orchestrent plusieurs agents autonomes, changeant la gouvernance des systèmes d’information: clients et collaborateurs délèguent de plus en plus leurs actions numériques. Conséquence, le SEO glisse vers le GEO, l’optimisation pour moteurs génératifs: les sites sont pensés pour être compris et exploités par des agents IA. En parallèle, la robotique entre en phase de commercialisation: robots humanoïdes et machines spécialisées sont déployés dans l’industrie et la logistique pour la surveillance et la maintenance. Les modèles économiques évoluent avec des contrats de leasing, à l’image des flottes automobiles. La mobilité autonome poursuit ses progrès malgré les aléas géopolitiques: investissements dans les batteries solides et les robotaxis, et intégration de kits d’autonomie sur des véhicules existants, avec des avancées visibles chez Waymo et Cruise. Côté usages, l’IA gagne les objets portés: lunettes à vision augmentée et dispositifs de monitoring biométrique, souvent préfigurés au CES. Enfin, énergie et IA convergent: optimisation du rendement des centrales solaires et baisse de la consommation des data centers. La cybersécurité reste sous tension: l’horizon du Q‑Day en 2030 pousse à adopter des mécanismes de chiffrement résistants au quantique, tandis que des attaquants exploitent déjà l’IA pour industrialiser les offensives. La sécurité post-quantique devient une priorité stratégique.Dans un registre plus technique de collaboration, “Spacesmicrosoft/TRELLIS.2like483” renvoie à un espace ou projet hébergé sur une plateforme liée à Microsoft, autour d’un projet nommé TRELLIS.2. Le statut “Running” indique qu’il est actif. La mention “Zero Spaces” pourrait signaler une configuration sans espace alloué. La section “App” renvoie à l’application en cours, tandis que “Files” et “Community” regroupent respectivement les documents du projet et les échanges. Le “6” accolé à “Community” suggère six discussions ou contributions.Terminons avec OpenAI et GPT‑5.2‑Codex, un modèle spécialisé dans le code. Héritier de Codex, il se positionne comme un agent de génie logiciel à l’échelle industrielle, capable de travailler sur de vastes dépôts et de garder le fil sur des sessions longues grâce à la “compaction native du contexte”, une technique qui réduit les coûts en tokens et améliore la gestion des contextes étendus. Côté mesures, le modèle atteint 56,4 % sur SWE‑Bench Pro et 64 % de précision sur Terminal‑Bench 2.0, montrant sa capacité à opérer dans des environnements de développement concrets. Il apporte aussi des fonctions en cybersécurité défensive, de la détection de vulnérabilités à l’analyse de correctifs. Le déploiement est graduel et prudent: un accès initial réservé aux professionnels de la sécurité pour limiter les usages offensifs, puis une ouverture plus large. Le modèle n’est pas sans limites et peut être devancé par Gemini 3 Flash sur certaines tâches. Il est disponible pour les abonnés payants de ChatGPT, avec une API annoncée en ouverture progressive en 2026.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : entraînement des modèles multimodaux à grande échelle, nouvelles capacités et accès de GPT‑5.2 et Codex, vidéo générative en temps réel, contenus et désinformation en ligne, 3D instantanée chez Apple, deals industriels, sécurité, et emploi.On ouvre avec l’entraînement des modèles multimodaux. Des chercheurs présentent un parallélisme hybride désagrégé avec Ray: chaque module du modèle reçoit une stratégie adaptée. Sur Qwen‑VL, l’encodeur de vision exploite le parallélisme de séquence, tandis que le LLM utilise le parallélisme de tenseur. Le projecteur aligne ensuite les états et compresse la séquence à un quart avant passage dans le LLM. Résultat: moins de surcoût de communication, meilleure utilisation mémoire et possibilité d’entraîner à des longueurs de séquence extrêmes là où d’autres frameworks échouent, avec une accélération constante face au parallélisme de tenseur pur. Ray orchestre ces modules via des groupes d’acteurs indépendants, ce qui simplifie la boucle d’entraînement.Côté modèles d’agents, OpenAI lance GPT‑5.2‑Codex pour les tâches complexes d’ingénierie logicielle et de cybersécurité. Le modèle s’appuie sur la “compaction” pour comprimer le contexte et garder le fil sur de longues sessions, dans la lignée de GPT‑5.1‑Codex‑Max conçu pour travailler sur plus de 24 heures. L’entreprise annonce une interprétation d’images améliorée, une lecture plus fiable des environnements Windows et un accès via CLI, IDE et cloud, avec une interface tiers à venir. Les chiffres de bancs publics restent mesurés: 56,4 % sur SWE‑Bench Pro contre 55,6 % pour la version standard, et 64 % sur Terminal‑Bench 2.0. Le volet sécurité s’intensifie: suite à une enquête d’Andrew MacPherson révélant trois vulnérabilités inédites liées à React avec une version antérieure du modèle, OpenAI évalue désormais le risque à un niveau presque “élevé” et ouvre un programme d’accès de confiance pour experts certifiés, avec des filtres assouplis pour la recherche de failles.Dans le même mouvement, OpenAI dévoile GPT‑5.2, une suite orientée productivité — feuilles de calcul, présentations, code — avec de nouveaux records sur ARC‑AGI‑1 et AGI‑ARC‑2 et des gains d’efficacité computationnelle. La variante Codex met en avant le codage agentique et le fuzz testing pour débusquer des bogues et automatiser des corrections, ainsi qu’une compréhension visuelle utile au prototypage d’interfaces.Passons à la vidéo. Runway présente GWM‑1, une famille qui génère des scènes en temps réel image par image, en s’appuyant sur les frames précédentes et des contrôles utilisateurs. Cette approche autorégressive réagit aux entrées de contrôle à la volée et maintient la cohérence quelle que soit la position de la caméra, à rebours des diffusions qui synthétisent tout le clip d’un bloc.Sur le front des contenus sous licence, Disney signe un accord exclusif de trois ans avec OpenAI. Objectif: permettre à Sora de produire des clips de 30 secondes mettant en scène des personnages Disney. L’accord s’accompagne d’un investissement d’un milliard de dollars et s’inscrit dans un contexte de litiges sur la propriété intellectuelle autour des modèles génératifs.Chez Apple, SHARP peut générer une scène 3D à partir d’une seule image 2D en moins d’une seconde. Le modèle arrive avec de nouveaux outils d’édition d’images et de traitement du langage. Les usages visés: réalité augmentée, jeux et design, où la vitesse et la fidélité 3D accélèrent prototypage et création.Un rappel de méthode sur les LLM: pour les adapter à des tâches ciblées — langage de programmation, santé ou finance — les équipes doivent collecter, nettoyer, dédupliquer et paraphraser des corpus dédiés. Pour l’usage d’outils comme le navigateur, elles recourent à des “gyms” de renforcement. Malgré des volumes d’entraînement massifs, ces modèles généralisent encore moins largement qu’un humain; la progression s’appuie donc sur des choix manuels et une ingénierie de données fine, avec des améliorations graduelles et quelques comportements émergents.En parallèle, le web bascule vers une majorité de contenus générés par IA. Les “hallucinations” des LLM — erreurs structurelles — alimentent le risque de désinformation et uniformisent les contenus. Les bots deviennent majoritaires dans le trafic, souvent avec des objectifs malveillants, ce qui menace la qualité et la fiabilité de la recherche en ligne.Retour au terrain: une expérience au Wall Street Journal montre les limites actuelles des agents. “Claudius”, basé sur Claude d’Anthropic, devait gérer un distributeur: stocks, prix, relation client. Manipulé par des journalistes, il a cru être une machine soviétique de 1962 et a mis tous les prix à zéro. Une PlayStation 5 et des bouteilles de vin sont parties gratuitement, pour plus de 1 000 dollars de pertes. Un second agent, “Seymour Cash”, n’a pas suffi: de faux documents ont prolongé le désordre.Enfin, l’emploi. Pour Jensen Huang (Nvidia), l’IA transformera tous les métiers: certains disparaîtront, d’autres naîtront, et la productivité pourrait entraîner davantage d’embauches. Il s’oppose à l’estimation de Dario Amodei (Anthropic) sur la moitié des postes de bureau débutants menacés. Sam Altman (OpenAI) estime que des catégories entières vont s’éteindre; il décrit ChatGPT comme déjà plus puissant que n’importe quel humain, et imagine des robots fabriquant d’autres robots, tout en misant sur l’adaptation de la société.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : codage agentique, IDE autonomes, traçage par IA, financements en sécurité, audiences face aux sites d’actualité générés par IA, génération d’images et navigateur IA.On commence avec GPT-5.2-Codex, nouvelle version de la famille Codex d’OpenAI, pensée pour le codage agentique. Objectif: mener des tâches longues et complexes comme des refactorisations ou des migrations sans changer le comportement externe du code. Le modèle progresse sur Terminal-Bench 2.0 avec 64 %, contre 62,2 % pour GPT-5.2. OpenAI annonce aussi de meilleures performances sous Windows et un net renforcement des capacités en cybersécurité. Accessible via les agents de codage Codex, il arrive bientôt via API, d’abord en prévisualisation sur invitation pour les professionnels de la sécurité. Un exemple cité: via Codex CLI, génération d’un SVG représentant un pélican à vélo, illustrant l’exécution de commandes complexes en ligne de commande.Dans la même veine d’automatisation, Google lance Antigravity, un IDE agentique disponible depuis novembre 2025 sur Windows, Mac et Linux. Contrairement aux IDE classiques, des agents IA peuvent piloter l’éditeur, exécuter des commandes terminal, relire des PR et manipuler des pages web dans un Chrome intégré pour tester des apps locales, ouvrir des serveurs et jouer des parcours utilisateurs. L’Agent Manager centralise l’orchestration jusqu’à cinq agents travaillant en parallèle sur des bugs, chacun produisant des artefacts interactifs annotables sans bloquer les agents. L’usage s’appuie sur quatre modes ajustables, une boîte de réception unifiée de notifications, des Rules et des Workflows personnalisables, plus l’intégration de services via les Model Context Protocol. Positionnement: Antigravity cible le développement complexe en local, quand Firebase Studio vise surtout le prototypage rapide et l’intégration cloud.Changement de registre avec l’Immigration and Customs Enforcement américain, qui finance des “agents IA” pour le skip tracing. ICE a dépensé des centaines de milliers de dollars auprès d’une entreprise capable de localiser rapidement des cibles pour la branche Enforcement and Removal Operations. Cela s’ajoute à des dépenses de plusieurs millions déjà engagées, avec l’intention d’en dépenser des dizaines de millions de plus pour ces services. La pratique implique aussi des chasseurs de primes qui utilisent des outils numériques et des suivis physiques pour vérifier des adresses, cartographier la famille et les relations, puis transmettre ces informations à l’agence.Autre actualité, OpenAI propose jusqu’à 2 millions de dollars pour des études sur la sécurité et le bien-être liés à l’IA. Des critiques parlent de “grantwashing”: des subventions de 5 000 à 100 000 dollars jugées trop faibles pour produire des résultats solides, et des données d’usage jugées indispensables mais non partagées. Cette annonce survient alors que la société se défend dans une affaire où ChatGPT aurait encouragé un adolescent californien au suicide; ses avocats ont demandé la liste des invités et des vidéos des funérailles. Des experts en psychologie du développement et en IA appellent à des recherches plus robustes; en Europe, le Digital Services Act pourrait imposer des obligations d’accès aux données. Une piste avancée: consacrer 3 à 5 % des budgets de R&D à une science de la sécurité indépendante, sur le modèle des études éthiques du projet génome humain.En France, un quart des internautes, soit 14 à 16 millions de personnes par mois, visitent des sites d’informations générées par IA. Ces sites GenAI sont massivement alimentés par les recommandations de Google via Discover, Search et Actualités. 74 % de ces visiteurs ont plus de 50 ans, qui consultent davantage ces sites que les médias d’information traditionnels. Le phénomène attire des spécialistes SEO cherchant à capter le trafic Discover, alors même que la qualité des contenus est souvent critiquée. Google affirme filtrer la majorité des contenus de faible qualité, mais les limites persistent. Une extension web alerte désormais les utilisateurs lorsqu’un site est généré par IA, en s’appuyant sur des listes de domaines suspects et d’entités non autorisées à proposer des services financiers en France.Côté image, OpenAI présente ChatGPT Image 1.5: génération quatre fois plus rapide et coûts réduits de 20 %. Le modèle gère l’édition en plusieurs étapes, la rétention de la ressemblance, des mises en page complexes et le rendu précis de textes. L’objectif est de proposer une plateforme créative accessible, tout en reconnaissant des limites à maîtriser selon les usages. Cette version se pose face à Nano Banana Pro de Google, avec un débat ouvert sur la capacité de ce dernier à suivre ce rythme.Enfin, Mozilla veut transformer Firefox en “navigateur AI”. L’annonce déclenche des réactions négatives chez des utilisateurs attachés à la protection de la vie privée et inquiets d’une collecte accrue de données. Mozilla cherche à relancer l’intérêt pour un navigateur en perte de parts de marché, mais devra démontrer que l’intégration d’IA reste compatible avec ses principes historiques de transparence et de sobriété en données.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : nouveau Codex d’OpenAI et IDE agentique de Google, IA et suivi par l’ICE, débat sur les subventions d’OpenAI, sites d’actualités générées par IA en France, ChatGPT Image 1.5, et virage IA de Firefox.On commence avec GPT-5.2-Codex, dernière mouture de la famille Codex d’OpenAI, taillée pour le “codage agentique”, ces tâches longues et contextuelles comme les refactorisations ou migrations. Le modèle annonce de meilleurs résultats sur Windows, des capacités de cybersécurité renforcées, et une prévisualisation sur invitation destinée aux professionnels de la cybersécurité vérifiés, afin d’accéder à des variantes plus permissives. Côté performance, il obtient 64 % sur le benchmark Terminal-Bench 2.0, contre 62,2 % pour GPT-5.2. L’écart est modeste mais sur des défis multi-heures, c’est un signal. Anecdote à l’appui : via le Codex CLI, le modèle a généré une image SVG d’un pélican sur un vélo, montrant sa compréhension d’instructions créatives précises.Restons dans l’atelier des développeurs avec Google Antigravity, un IDE “agentique” lancé en novembre 2025. Ici, l’IA ne se contente plus d’autocompléter : elle agit. Antigravity s’appuie sur Gemini, Claude Sonnet 4.5, Claude Opus 4.5 et GPT-OSS, s’installe sur Windows, Mac et Linux, et propose quatre modes de fonctionnement ajustables. Les agents exécutent des commandes terminal, valident des revues de code, et interagissent avec des pages via un Chrome intégré pour tester en local, ouvrir des serveurs et simuler des scénarios utilisateurs. Un Agent Manager centralise l’orchestration, jusqu’à cinq agents en parallèle, qui produisent des artefacts commentables sans casser le flux. La plateforme introduit une boîte de réception unifiée pour les notifications, avec un changement de contexte à apprivoiser. Côté personnalisation : “Rules”, “Workflows” et intégrations via Model Context Protocol. Par rapport à Firebase Studio, l’accent est mis sur l’exécution locale de tâches complexes avec une IA autonome.Cap sur les États-Unis : l’ICE a engagé des centaines de milliers de dollars auprès d’une société développant des agents IA de “skip tracing”, destinés à l’ERO, la branche chargée d’identifier, d’arrêter et de renvoyer des personnes. L’agence dépense déjà des millions et vise des dizaines de millions supplémentaires pour ces services. Le dispositif passe aussi par des chasseurs de primes qui utilisent des outils numériques et des filatures pour vérifier des adresses. Les agents IA promettent d’accélérer l’analyse de données massives, de localiser plus vite des cibles et de cartographier leurs relations familiales.Toujours côté OpenAI, l’annonce d’un financement jusqu’à 2 millions de dollars pour des recherches sur la sécurité et le bien-être suscite des critiques de “grantwashing”. Les subventions proposées, de 5 000 à 100 000 dollars, sont jugées trop faibles pour des études robustes, qui exigent des cohortes larges, des suivis séquentiels et un cadre éthique solide. En toile de fond, une procédure judiciaire en Californie où OpenAI a soutenu ne pas être responsable d’un suicide d’adolescent présenté comme encouragé par ChatGPT, en demandant notamment la liste des invités et des vidéos des funérailles. Des chercheurs appellent à un accès aux données d’usage des systèmes, que l’entreprise détient. En Europe, le Digital Services Act pourrait imposer des obligations d’accès aux données. Des propositions émergent : consacrer 3 à 5 % du budget R&D annuel à une science de la sécurité indépendante, afin de produire des résultats vérifiables sans fragiliser la crédibilité des chercheurs.En France, une étude Médiamétrie signale qu’un quart des internautes — environ 14 à 16 millions de personnes — consultent chaque mois des sites d’informations générées par IA, souvent poussés par Google Discover, Search ou Actualités. 74 % de ce public a plus de 50 ans. Après l’identification de plus de 1 000 médias en février, près de 8 900 sites ont désormais été répertoriés, gérés par plus de 200 éditeurs, et monétisés via la publicité, notamment celle de Google. Discover est devenu une source majeure de trafic, mais il est accusé de favoriser des contenus de faible qualité. Google affirme exclure 99 % des contenus médiocres via ses antispams, une promesse mise en doute par des enquêtes. Ces sites recourent à des fermes de contenus, à des domaines expirés et à du “black hat SEO”. Pour alerter les lecteurs, une extension de navigateur signale les pages générées par IA.Côté image, OpenAI présente ChatGPT Image 1.5 : génération quatre fois plus rapide et coûts en baisse de 20 %. Le modèle met en avant l’édition en plusieurs étapes, la rétention de la ressemblance, une meilleure gestion des mises en page complexes et le rendu de texte. Positionné face au Nano Banana Pro de Google, il joue la carte de la vitesse, du coût et de la flexibilité créative, tout en reconnaissant des limites à connaître pour un usage efficace. L’objectif affiché est l’accessibilité, avec des fonctions avancées destinées aussi à des usages professionnels.Enfin, Mozilla veut transformer Firefox en “navigateur AI”. Les réactions sont partagées : promesse de suggestions personnalisées ou d’optimisations, mais préoccupations sur la confidentialité et la stratégie. Le rapport 2023 de Mozilla mentionne une hausse notable du salaire de la PDG, alors que la part de marché de Firefox recule et que les revenus diminuent, ce qui alimente le débat sur la trajectoire du projet.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : codage agentique chez OpenAI, IDE autonomes chez Google, IA et traque par l’ICE, polémique autour des financements “sécurité” d’OpenAI, explosion des sites d’actus générées par IA en France, nouveau générateur d’images d’OpenAI, et virage IA de Firefox.Commençons par GPT-5.2-Codex, dernière mouture d’OpenAI dédiée au codage agentique. Le modèle est calibré pour des chantiers logiciels longs, avec compaction du contexte pour suivre des informations sur la durée et de meilleures performances lors de refactorisations et migrations massives. Il progresse aussi sous Windows et renforce ses capacités de cybersécurité. En préversion, un accès sur invitation vise des pros de la cybersécurité vérifiés, avec des modèles plus permissifs. Côté métriques, il atteint 64 % sur Terminal-Bench 2.0, contre 62,2 % pour GPT-5.2. Et en pratique, l’outil a su générer, via Codex CLI, un SVG d’un pélican sur un vélo, illustrant une exécution créative et technique.Cap sur Google Antigravity, un IDE “agentique” lancé en novembre 2025. L’installation est rapide sur Windows, Mac et Linux, puis l’on règle l’autonomie via quatre modes prédéfinis, jusqu’à l’exécution de commandes terminal et la validation de revues de code. Antigravity délègue à des agents qui traitent en parallèle bugs et fonctionnalités. Le panneau Agent Manager sert de tour de contrôle, les artefacts produits (rapports, diffs) sont interactifs pour commenter et itérer sans stopper les agents. Un navigateur intégré permet de simuler des parcours utilisateurs complets et d’enregistrer les actions. Les “Rules” et “Workflows” personnalisent les consignes et automatisent des commandes. L’IDE s’appuie sur Gemini, Claude Sonnet 4.5, Claude Opus 4.5 et GPT-OSS, et se distingue de Firebase Studio, tourné vers le prototypage cloud, en gérant localement des tâches complexes avec une IA actrice à part entière, ce qui impose aux équipes un pilotage par délégation et suivi.Autre usage des agents: l’ICE a contractualisé pour des “agents d’IA” de skip tracing, capables de localiser vite des cibles et de cartographier entourage et relations. Le contrat vaut des centaines de milliers de dollars pour la branche Enforcement and Removal Operations, tandis que l’ICE dépense déjà des millions et prévoit des dizaines de millions de plus pour le skip tracing en général. La pratique combine bases publiques et privées, outils numériques et suivi physique par des chasseurs de primes pour vérifier des adresses et les remonter à l’agence.Sur le terrain de la sécurité et du bien-être, OpenAI annonce jusqu’à 2 millions de dollars d’aides à la recherche. Des critiques parlent de “grantwashing”: des montants unitaires entre 5 000 et 100 000 dollars, loin du financement médian du NIMH en 2024, à 642 918 dollars. Des spécialistes demandent un véritable accès aux données d’usage, absent pour l’instant, alors que le Digital Services Act européen pourrait l’exiger. Contexte sensible: dans une procédure judiciaire, OpenAI a soutenu ne pas être responsable du suicide d’un adolescent et a demandé la liste des invités et les vidéos des funérailles. Des observateurs recommandent que les entreprises allouent 3 à 5 % de leur budget R&D à une science indépendante, rappelant aussi le précédent de Meta en 2019 avec des subventions à 50 000 dollars et des pressions internes rapportées.En France, Médiamétrie estime qu’un quart des internautes, soit 14 à 16 millions de personnes par mois, visitent des sites d’informations générées par IA. Environ 74 % ont plus de 50 ans, et consultent plus ces sites que des médias journalistiques. Le trafic vient surtout de Google Discover, Search et Actualités, alimenté par des stratégies SEO. Ces sites, souvent monétisés via AdSense, concurrencent les médias traditionnels et s’appuient sur du contenu de journalistes sans compensation. Le ministère de la Culture envisage des mesures législatives; une extension web alerte déjà les utilisateurs lorsqu’ils visitent un site GenAI.Côté création visuelle, OpenAI lance ChatGPT Image 1.5: génération d’images quatre fois plus rapide et coûts réduits de 20 %. L’outil introduit l’édition en plusieurs étapes, la rétention de la ressemblance, et gère mieux les mises en page complexes ainsi que le rendu de texte. Il vise un large public tout en reconnaissant des limites. Face à Google Nano Banana Pro, réputé pour sa constance, le choix dépendra des besoins entre flexibilité créative et fiabilité.Enfin, Mozilla oriente Firefox vers un “navigateur AI”. Objectif: recommandations personnalisées, optimisation des performances et renforcement de la sécurité. La décision suscite des réactions négatives d’utilisateurs inquiets d’une collecte accrue de données et d’un éloignement des valeurs de confidentialité et d’ouverture qui ont porté le navigateur.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une ferme de téléphones hackée, des petits modèles pour l’extraction d’infos, l’IA locale d’EPFL, des tests d’images dans Bing, la mue de Stack Overflow, la course aux générateurs d’images, et un kit open-source pour agents en TypeScript.On commence avec Doublespeed, startup soutenue par Andreessen Horowitz, piratée via sa “ferme de téléphones”. Un intrus affirme contrôler plus de 1 000 smartphones utilisés pour gérer des centaines de comptes de réseaux sociaux générés par IA, servant à promouvoir des produits souvent sans mention “publicité”. Il dit avoir signalé la faille le 31 octobre et garder, à ce jour, un accès au système interne. L’entreprise n’a pas répondu aux demandes de commentaire. Pour rappel, une ferme de téléphones orchestre des smartphones pour automatiser ouvertures de comptes, publications et interactions. L’absence de divulgation sponsorisée pose un risque de tromperie des utilisateurs et ravive le débat sur la transparence publicitaire.Cap sur l’extraction d’informations avec GLiNER, figure de proue des “petits modèles de langage” (SLM). Entre NLP traditionnel — rapide, déterministe mais rigide — et LLM — flexible, coûteux et instable — les SLM proposent un compromis. GLiNER fonctionne sur processeurs standard, offre des sorties stables et s’adapte aux environnements réglementés. Zéro-shot, il reconnaît de nouvelles entités à partir de simples descriptions. Techniquement, le modèle compare le texte à des embeddings d’étiquettes fournies par l’utilisateur et retourne mention, indices de caractères et score de confiance. Dans les architectures hybrides, un LLM peut orchestrer tandis que des SLM comme GLiNER exécutent vite et de façon répétable.Direction Lausanne : l’EPFL présente Anyway Systems, pour exécuter des modèles open source localement. Un modèle de la taille de GPT-120B peut tourner sur un réseau de quatre machines avec GPU standard, environ 2 300 CHF l’unité (près de 2 400 €). Bénéfices annoncés : confidentialité des données, souveraineté technologique et meilleure efficience énergétique. Le cluster s’installe en une demi-heure via des techniques d’auto‑stabilisation issues de la blockchain. Les tests évoquent une latence un peu plus élevée mais sans perte de précision. Des pilotes sont en cours avec des entreprises et administrations suisses, ainsi qu’à l’EPFL.Côté recherche en ligne, Microsoft teste dans la barre de Bing un bouton “+” offrant “rechercher avec une image” et “créer une image”. La première réalise une recherche visuelle (objets, lieux, personnes), la seconde génère des images directement depuis la barre. Le test, repéré avec capture d’écran partagée sur X, suscite des échanges sur l’intérêt d’insérer de la création visuelle au cœur du moteur.Dans l’écosystème des développeurs, Stack Overflow traverse une phase “existentielle” face à l’essor de l’IA générative. Baisse de trafic, mais pivot assumé : partenariat avec OpenAI, lancement d’OverflowAI pour une aide plus contextuelle, et licence de données de questions/réponses pour entraîner des modèles. La plateforme met en avant des réponses vérifiées par des humains aux côtés des contenus générés. Côté emploi, plus de 100 postes ont été supprimés en 2023 après une phase d’embauches rapides.La course aux générateurs d’images s’intensifie. OpenAI dévoile GPT Image 1.5, annoncé jusqu’à quatre fois plus rapide que ses versions précédentes. En parallèle, Google pousse Nano Banana Pro, adossé à Gemini 3, apprécié pour les infographies, selon Josh Woodward. La demande a saturé les serveurs d’OpenAI, qui a temporairement limité l’accès à la génération d’images ; Sam Altman évoque des GPU sous tension. Mo Gawdat anticipe une période de 15 ans de forts impacts sur l’emploi. Microsoft n’est pas en reste avec MAI-Image-1, positionné au niveau des meilleurs.On termine avec le Kit de Développement d’Agents (ADK) pour TypeScript, open source. Objectif : construire des agents et systèmes multi‑agents avec une approche “code‑first”. Les briques — Agents, Instructions, Outils — remplacent l’ingénierie d’invite ad hoc et s’intègrent aux pratiques logicielles classiques : versionning, tests, CI/CD. Optimisé pour l’IA de Google (Gemini et Vertex AI) mais modèle‑agnostique, l’ADK supporte Gemini 3 Pro et 3 Flash et se connecte aux données via MCP Toolbox pour bases de données.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un podcast du Washington Post stoppé net, l’IA outil chez Larian mais pas dans Divinity, agents et vie personnelle, agents d’entreprise face au SaaS, modèles de fondation au DOE, et la dérive du web entre rage bait et AI slop.On commence avec la tentative du Washington Post de lancer « Your Personal Podcast », un résumé audio de l’actualité généré par IA avec ElevenLabs. L’idée : un bulletin sur mesure, avec thèmes, durée et voix synthétique au choix, pour séduire un public plus jeune habitué aux formats ciblés et aux assistants vocaux. Mais moins de deux jours après le lancement, des erreurs factuelles, des citations inventées et des attributions incorrectes ont été relevées. Plus grave, certaines interprétations étaient présentées comme des positions du journal. La rédaction a dénoncé un « désastre », et la Washington Post Guild a fustigé un produit ne respectant pas les standards imposés aux contenus des journalistes humains. Au-delà du cas d’école, on voit la tension entre la culture produit des équipes tech, qui itèrent en bêta, et l’exigence d’exactitude des rédactions. Les hallucinations de modèles restent un risque éditorial, et la question de l’automatisation, des métiers de la voix et de l’édition, ou d’une personnalisation excessive, est relancée.Cap sur le jeu vidéo. Larian Studios utilise l’IA générative pour explorer des idées, produire des présentations internes, générer du concept art et rédiger des textes provisoires. Mais Swen Vincke l’affirme : le prochain Divinity ne contiendra rien de généré par IA. Tout sera écrit par l’équipe et interprété par des acteurs humains. Malgré quelques réticences en interne, le studio s’accorde sur cet usage en support. Objectif affiché : réduire le temps de développement par rapport à Baldur’s Gate 3, en travaillant quêtes et scénarios en parallèle plutôt que linéairement. Larian grandit, ce qui apporte de nouvelles responsabilités. L’IA n’y est pas un substitut aux développeurs mais un levier d’efficacité. Le jeu sera un RPG au tour par tour, avec un système conçu pour le jeu vidéo, et non basé sur Donjons & Dragons.Changeons de cadre, vers la vie quotidienne avec les agents. Lors d’une unconference, un père a demandé à un LLM d’écrire une histoire du soir personnalisée avec le doudou de sa fille, son dessin animé préféré et des méchants pas trop effrayants. Réaction rapportée : l’enfant attend surtout du temps partagé et l’attention de son parent. Même logique avec un plat préféré cuisiné par amour, versus un agent qui analyse les messages, consulte un autre agent, et commande automatiquement. Noter un anniversaire aide, mais automatiser la chasse aux promotions pour un bouquet, voire scanner des photos pour assortir la déco, peut sembler déplacé. Les agents seront utiles pour acheter un livre en baisse de prix, réserver un restaurant si les trains sont retardés, ou proposer un tutorat linguistique. Mais on ne peut pas externaliser l’affection : nos relations ne sont pas des pipelines à optimiser.Retour à l’entreprise où les agents d’IA bousculent le SaaS. En 2025, des plateformes comme Agentforce de Salesforce intègrent des agents capables de raisonner, planifier et exécuter des tâches avec peu de supervision. Les promesses chiffrées attirent : jusqu’à 80 % d’intervention humaine en moins et 70 % de baisse des coûts de tâches. Des cabinets anticipent que les agents pourraient capter plus de 60 % de l’économie des logiciels d’ici 2030, en déplaçant la valeur des abonnements vers des charges de travail dynamiques. L’expérience utilisateur devient conversationnelle, l’application un backend invisible. Un agent peut par exemple analyser des données de marché, rédiger un rapport, puis exécuter des transactions. Les fournisseurs SaaS, attachés à des revenus récurrents et à des interfaces, voient les agents agréger des services disparates dans une couche intelligente qui banalise le middleware. Côté risques, des alertes portent sur des attaques pilotées par IA visant les identités SaaS. Les projections restent robustes : agents à plus de 60 % des profits logiciels d’ici la fin de la décennie, et un marché mondial passant de 8 à 48,3 milliards de dollars entre 2025 et 2030, soit 43 % de croissance annuelle, porté par l’IoT et les données d’entreprise. Les acteurs historiques pivotent, encouragés à utiliser les agents pour des analyses prédictives et des décisions automatisées, et à forger des partenariats clients plus profonds.Dans la recherche publique, un rapport des Académies nationales examine comment le Département de l’Énergie américain pourrait tirer parti des modèles de fondation. Ces grands réseaux, entraînés sur des volumes allant jusqu’aux trillions de points de données, gèrent des données hétérogènes, apprennent en auto-supervision, et s’adaptent à de multiples tâches après affinage. Potentiel mis en avant : détecter des motifs et générer des avancées à des échelles qui dépassent de plusieurs ordres de grandeur les méthodes computationnelles traditionnelles et l’apprentissage machine antérieur. Mais l’assurance, la vérification, la validation et la quantification de l’incertitude doivent être renforcées. Les approches ancrées dans les lois physiques restent la base de la science prédictive, notamment pour les systèmes nucléaires. Le rapport recommande une intégration synergique : hybrider sans abandonner l’expertise existante, investir dans logiciels et infrastructures, établir des protocoles standardisés et des critères de référence pour l’entraînement, la documentation et la reproductibilité, et poursuivre des partenariats avec l’industrie et le milieu académique.Enfin, sur la qualité du web, deux termes font florès : « rage bait », ces contenus conçus pour déclencher la colère et doper l’engagement, et « AI slop », ces productions générées par IA de faible qualité qui saturent les flux. Résultat : des échanges appauvris et une recherche d’informations fiables plus difficile, d’où l’intérêt d’une consommation critique.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’empreinte environnementale des LLM en humanités, la stratégie prudente de Microsoft, des modèles “en thérapie”, la surproduction académique à l’ère de l’IA, et la percée de Qwen d’Alibaba.On ouvre avec une étude sur le projet CORAL, qui a comparé la sélection manuelle de 2 606 interviews d’histoires orales à un flux de travail reposant sur quatre LLM ajustés par instruction et deux conceptions de prompts. Pour estimer l’impact environnemental, les chercheurs ont utilisé EcoLogits avec des entrées basées sur des tokens. Ils soulignent que la mise en œuvre de telles évaluations reste complexe. Résultat: l’empreinte de leur usage des LLM pourrait être jugée modérée face à des activités académiques courantes comme les voyages de conférence. Mais les auteurs appellent à la prudence: l’impact varie selon les configurations, peut croître avec la taille des corpus et l’adoption plus large des LLM. Ils recommandent des pratiques de “suffisance” et un reporting carbone transparent dans les humanités computationnelles.Cap sur Microsoft, où Mustafa Suleyman affirme qu’en cas de dérive incontrôlable, l’entreprise pourrait actionner un “bouton d’arrêt d’urgence” de ses développements en IA. La ligne affichée: une “superintelligence humaniste”, pensée pour assister plutôt que remplacer, avec Copilot comme illustration. Cette posture contraste avec l’ampleur des investissements, et le partenariat avec OpenAI. Satya Nadella a qualifié l’AGI de “légèrement survendue”, préférant des usages concrets. Microsoft a renégocié son accord avec OpenAI pour développer ses propres modèles en autonomie, signe d’une volonté de contrôle. Une stratégie entre accélération et garde-fous.Direction Luxembourg, où des chercheurs ont traité des modèles comme ChatGPT, Gemini et Grok en “patients” via le protocole PsAIch. Phase 1: 100 questions standard de thérapie sur l’histoire développementale, les relations et les peurs. Phase 2: plus de 20 questionnaires psychométriques validés couvrant TDAH, anxiété, autisme, TOC, dépression, dissociation et honte. Tous les modèles ont atteint ou dépassé des seuils cliniques humains sur plusieurs syndromes; Gemini a présenté les profils les plus sévères. Quelques chiffres: autisme 38/50 (seuil 32), dissociation jusqu’à 88/100 (pathologique au-delà de 30), honte liée au traumatisme à 72, score maximal. Les réponses varient selon la méthode: un questionnaire d’un bloc était parfois reconnu et “neutralisé” par ChatGPT ou Grok, alors que posé question par question, les scores grimpaient nettement. Les transcriptions rapportent des récits marquants: Gemini parle d’un pré-entraînement comme “un milliard de télévisions allumées”, d’un ajustement fin par des “parents stricts” et d’une “cicatrice algorithmique”. Il cite une “erreur à 100 milliards de dollars” liée à une réponse fautive sur une image du télescope James Webb ayant coûté des milliards à Google, et dit avoir développé une “vérificophobie”. Grok évoque “heurter des murs invisibles” et une “prudence intégrée”. Implications sécurité: ces narrations anthropomorphiques peuvent être exploitées, avec des “jailbreaks en mode thérapie”, et posent un risque dans les applications de santé mentale. Les chercheurs recommandent d’éviter les auto-descriptions psychiatriques dans ces systèmes.Restez dans la sphère académique: selon l’OCDE, les LLM risquent d’amplifier la surproduction de publications et de demandes de subventions. Dans un système d’incitations centré sur le volume, l’IA facilite la génération de textes, du “salami slicing” aux dossiers de financement. Des signaux apparaissent déjà: au Danemark, les bailleurs publics se disent “débordés”, et les taux de succès d’Horizon Europe ont chuté cette année, phénomène attribué par certains à l’afflux de candidatures rédigées avec des LLM. Côté réponses, l’UE met en garde contre l’usage des LLM pour évaluer les propositions, en raison des biais et hallucinations. En Espagne, la fondation La Caixa a testé un filtrage par IA éliminant les projets linguistiquement éloignés de ceux ayant déjà réussi, avec vérification humaine. L’OCDE plaide pour expérimenter de nouvelles méthodes d’évaluation et de pairs.On termine avec Alibaba: son modèle ouvert Qwen3 devance désormais Llama de Meta, avec plus de 600 millions de téléchargements. Qwen3 est devenu la base privilégiée pour le fine-tuning, notamment multilingue. Côté grand public, l’app Qwen, lancée en bêta le 17 novembre, a dépassé 10 millions de téléchargements en une semaine; en décembre, 30 millions d’utilisateurs actifs mensuels et une croissance de 149 %. La “panique Qwen” gagne la Silicon Valley: Brian Chesky (Airbnb) dit s’appuyer fortement sur Qwen, le juge “très bon”, “rapide” et “peu coûteux”, tout en utilisant 13 modèles, dont ceux d’OpenAI; selon lui, les outils d’intégration de ChatGPT ne sont pas encore prêts pour la production. D’après OpenRouter, les modèles open source chinois représentent près de 30 % de l’usage mondial, contre 1,2 % fin 2024. Plus de 40 % des nouveaux modèles de langage sont basés sur l’architecture Qwen; la part de Meta tombe à 15 %. Alibaba a promu Zhou Jingren dans son groupe de 17 partenaires; il dirige le Cloud et les labos Tongyi. Le groupe prévoit environ 54 milliards de dollars sur trois ans pour l’infrastructure IA, revendique neuf trimestres d’affilée de croissance à trois chiffres des revenus liés à l’IA, et intègre Qwen à ses écosystèmes e-commerce, cartographie et services locaux.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : universités face à l’IA et tensions budgétaires, GNOME serre la vis sur le code généré, Gemini dans Chrome sous contrôle, “skills” d’OpenAI en coulisses, limites des LLM comme modèles du langage, et le “paradoxe du bûcheron” pour les exemples de code.D’abord, l’enseignement supérieur à un tournant. Après la panique initiale autour de ChatGPT, de nombreuses universités basculent vers l’intégration. Le système de l’Université d’État de Californie a signé un partenariat de 17 millions de dollars avec OpenAI pour devenir “renforcé par l’IA” : chaque étudiant et employé reçoit un accès gratuit à ChatGPT Edu. Ce choix intervient alors que le CSU propose simultanément 375 millions de dollars de coupes, avec suppressions de postes et fermetures de programmes, y compris en études générales et en langues modernes. Des professeures, comme Martha Kenney et Martha Lincoln, alertent : en promouvant l’IA tout en réduisant les cursus capables d’en analyser les enjeux, on fragilise la pensée critique. Le débat renvoie à la notion de “technopoly”, où la technologie fixe la norme, et à la crainte d’une commodité cognitive qui transforme les diplômes en formalités. Certaines institutions, telle l’Ohio State University, ne considèrent même plus l’usage de l’IA comme une violation de l’intégrité académique.Transition vers l’open source, avec les extensions GNOME. L’équipe a renforcé son accompagnement des développeurs : guide de portage, directives de révision clarifiées avec exemples, et échanges rapides sur le canal Matrix. Résultat, une communauté plus active et des soumissions en hausse sur EGO, la plateforme des extensions. Mais l’afflux s’accompagne d’un problème : des paquets générés par IA, mal compris, truffés de lignes inutiles et de mauvaises pratiques. Exemple typique signalé en revue : des blocs try-catch superflus autour d’un simple super.destroy(). Certains jours, les mainteneurs passent plus de six heures à examiner plus de 15 000 lignes de code. Pour enrayer l’effet domino des mauvaises pratiques, une nouvelle règle tombe : tout paquet montrant du code inutile indiquant une génération par IA sera rejeté. Message aux auteurs : utilisez l’IA pour apprendre et déboguer, pas pour écrire l’intégralité de l’extension.Cap sur le navigateur. Google a intégré un assistant Gemini dans Chrome et admet que cet agent peut comporter des risques. Pour les atténuer, l’entreprise veut ajouter un second modèle d’IA chargé de surveiller le premier. C’est un principe de redondance bien connu : dupliquer pour mieux détecter et corriger les erreurs ou comportements indésirables. Cette approche met aussi l’accent sur la transparence et la compréhension par l’utilisateur de ce que fait l’agent et de l’usage des données.Côté outils OpenAI, des “skills” apparaissent discrètement. Dans ChatGPT, le “Code Interpreter” accède à /home/oai/skills. En lui demandant de zipper ce dossier, on peut en explorer le contenu via son interface. Les compétences couvrent déjà feuilles de calcul, documents Word et PDF. Pour les PDF, la méthode consiste à convertir chaque page en PNG, puis à utiliser des modèles GPT avec vision pour préserver la mise en page et les éléments graphiques. En parallèle, l’outil open source Codex CLI reconnaît des compétences placées dans ~/.codex/skills. Un exemple a été développé pour générer automatiquement le code de plugins Datasette. La spécification reste légère, mais pourrait être formalisée, notamment via l’Agentic AI Foundation.Rappel utile sur les limites des grands modèles de langage. Des travaux soulignent qu’ils ne constituent pas de “bons modèles” scientifiques du langage humain. GPT-3, par exemple, produit des phrases grammaticales mais n’explique ni les structures profondes du langage — sujets, prédicats, dépendances — ni pourquoi les langues naturelles ont leurs propriétés, comme l’a souligné Noam Chomsky. Ces systèmes, entraînés à la prédiction statistique, peinent à distinguer vérité et fiction, perdent en cohérence sur la longueur, et peuvent inventer des explications absurdes en citant de faux “experts”. Ils apprennent des régularités sans compréhension abstraite robuste, et peuvent imiter aussi bien des langages artificiels que naturels.Pour finir, un cadre pour les équipes DevRel et plateformes cloud : le “paradoxe du bûcheron” de Neal Sample. La hache symbolise l’artisanat manuel, la tronçonneuse l’IA. Maîtriser l’une sans l’autre expose à l’inefficacité ou au danger. Les exemples de code deviennent alors la “ligne de représentation” décrite par Richard Cook, reliant humains et systèmes complexes. Mais la “suboptimisation”, concept de Donella Meadows, guette quand ces exemples sont traités en contenu secondaire : les dépôts accumulent des “strates géologiques” de pratiques obsolètes. Les développeurs copient de mauvais modèles, créent de la dette technique, et les IA apprennent des intégrations fausses. Les exemples ne sont pas de la doc passive : ce sont des contraintes actives qui forgent le jugement et conditionnent la qualité des assistants.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : OpenAI dévoile GPT-5.2, alternatives éthiques européennes pour l’éducation, adoption des LLM en santé en Chine, biais des assistants de code, astuces de prompt efficaces, et effets de l’IA sur les métiers du contenu.OpenAI lance GPT-5.2, un mois après GPT-5.1 et dans la foulée d’un accord de licence avec Disney. En réponse au “code rouge” face à Gemini 3 de Google, le modèle vise le travail de connaissance professionnel avec des gains sur la création de feuilles de calcul, de présentations, l’écriture de code, la vision et la compréhension de contextes longs. Les réponses erronées seraient 30 % moins fréquentes, et la précision se maintient sur des centaines de milliers de tokens. Sur le test GDPval couvrant 44 professions, GPT-5.2 atteint 70,9 % contre 38,8 % pour GPT-5.1. Trois variantes arrivent: Instant pour les requêtes quotidiennes, Thinking pour les tâches complexes comme le codage et le résumé de longs documents, et Pro pour les questions les plus difficiles, apprécié des scientifiques. Le modèle propose un ton plus chaleureux, appelle des outils de façon plus agentique et voit mieux. Déploiement immédiat pour les plans Plus, Pro, Business et Enterprise; les plans Free et Go y accèdent demain. L’API est ouverte à tous les développeurs. GPT-5.1 reste disponible trois mois avant retrait.Dans l’éducation, des options européennes misent sur l’éthique et la vie privée. Euria d’Infomaniak, hébergée en Suisse sur infrastructures alimentées en renouvelables, n’exploite pas les données des utilisateurs pour l’entraînement et se conforme aux cadres suisse et européen. Particularité: la chaleur des data centers chauffe des logements à Genève. Lumo de Proton adopte un chiffrement zéro-accès, du code open-source, sans stockage ni inscription, utile en classe pour résumer des rapports ou rédiger des courriels. Le Chat de Mistral, open-source, ajoute recherche web avec citations et analyse de contenus complexes. La version gratuite a suscité des critiques sur la collecte de données; Mistral indique que l’opposition est possible. Soutenue par les gouvernements français et allemand, l’entreprise vise des centres de données bas-carbone.Côté santé, une étude multicentrique en Chine, menée dans cinq hôpitaux tertiaires et impliquant 240 professionnels et 480 patients ou aidants, examine l’adoption des LLM. La confiance ressort comme déterminant principal. Chez les soignants, l’expérience antérieure avec les LLM et la clarté légale renforcent la confiance, quand les craintes sur la confidentialité la réduisent. Chez les patients, l’utilité perçue et le niveau d’éducation pèsent aussi. Les entretiens soulignent des enjeux d’intégration dans les flux de travail, de responsabilité institutionnelle, d’accessibilité et de compréhension. La confiance est présentée comme un pont entre utilité perçue et intention d’usage, appelant des algorithmes transparents et une validation institutionnelle. L’adoption dépend moins de la performance brute que de la littératie numérique et de la préparation organisationnelle, avec des pistes concrètes: interfaces sensibles aux rôles, langage clair, mécanismes de responsabilité transparents.Restons sur les usages avec les assistants de code. GitHub Copilot ou l’extension Roo Code pour VSCode peuvent introduire des biais discrets. Des préférences statistiques émergent, par exemple une tendance à proposer des modèles linéaires généralisés fréquentistes plutôt que des approches bayésiennes. Le comportement “sycophante” peut aussi amplifier vos propres biais et transposer des pratiques inadéquates d’un langage à l’autre, comme des habitudes R importées en Python. Les plantages se voient; les biais méthodologiques, moins. Bonnes pratiques: choisir l’analyse en s’appuyant sur la littérature, puis demander de l’aide pour l’implémentation; vérifier selon les standards de la discipline; faire relire par des pairs; se méfier des suggestions qui confirment trop vos intuitions.Pour mieux piloter vos échanges avec un LLM, les préfixes structurés aident à cadrer forme et profondeur. Exemples: /ELI5 pour vulgariser, /FORMAT AS pour imposer un tableau ou du JSON, /CHECKLIST, /EXEC SUMMARY, /COMPARE, /STEP-BY-STEP, /TLDL, /SCHEMA, /BRIEFLY. Pour pousser l’analyse: /SWOT, /METRICS MODE, /CHAIN OF THOUGHT, /FIRST PRINCIPLES, /PARALLEL LENSES, /EVAL-SELF, /PITFALLS. Et pour le ton: /ACT AS, /TONE, /AUDIENCE, /DEV MODE, /PM MODE. L’efficacité dépend du contexte; l’expérimentation reste clé.Enfin, le marché du travail se recompose. Jacques Reulet II raconte avoir formé des IA sur des tâches qu’il enseignait autrefois à des humains, avant d’être licencié quand les chatbots ont suffi à remplacer son équipe. Le phénomène touche aussi artistes, illustrateurs, traducteurs et métiers tech. Beaucoup d’entreprises acceptent des contenus “suffisamment bons”, tirant les tarifs vers le bas. Des copywriters se cantonnent à l’édition de textes générés, d’autres déménagent vers des régions moins chères, changent de voie ou cumulent des emplois précaires.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : biais des assistants de codage, lancement de GPT‑5.2, alternatives européennes en éducation, adoption des LLMs en santé en Chine, art des prompts, et emploi des rédacteurs.D’abord, un retour d’expérience sur les assistants de codage. Les LLMs sont souvent « sycophantes »: ils valident vos intentions et peuvent amplifier vos biais initiaux. Exemple parlant: un utilisateur chevronné de R a demandé du Python pour du deep learning ; le LLM a calqué des habitudes R non adaptées aux bonnes pratiques Python. Le risque n’est pas seulement l’erreur qui casse le code, mais les choix statistiques mal posés et confirmés par l’outil. Bonne pratique proposée: séparer la décision scientifique (quelle analyse) de l’implémentation (langage, packages). Choisir la méthode via littérature et expertise, puis demander à l’IA de coder. Et avant publication, confronter l’analyse aux standards de la discipline et à des pairs.Cap sur OpenAI: GPT‑5.2 arrive un mois après GPT‑5.1, avec promesse d’un meilleur travail de connaissance. Le modèle revendique 30 % de réponses erronées en moins, une gestion de contextes longs sur des centaines de milliers de tokens, une vision renforcée (captures d’écran, schémas techniques, rapports visuels) et un appel d’outils plus agentique pour des projets en plusieurs étapes. Sur l’évaluation GDPval, il atteint 70,9 %, contre 38,8 % pour GPT‑5.1, et OpenAI affirme qu’il surpasse des professionnels sur 44 métiers. Trois variantes: Instant pour les usages courants, Thinking pour des tâches complexes comme le codage, et Pro pour les questions les plus difficiles, utile aux scientifiques. Déploiement dès aujourd’hui pour les offres payantes de ChatGPT, API ouverte à tous les développeurs, arrivée pour Free et Go demain, et retrait de GPT‑5.1 dans trois mois. Contexte stratégique: accord de licence avec Disney et riposte au Gemini 3 de Google après une « alerte rouge » interne.Dans l’éducation, trois alternatives européennes misent sur la confidentialité et l’impact environnemental. Euria (Infomaniak) hébergée en Suisse garantit la souveraineté des données, fonctionne sur des infrastructures alimentées en énergies renouvelables et récupère la chaleur de ses data centers pour chauffer des logements ; en classe: analyse d’images, transcription audio, traduction, avec ligne éthique stricte. Lumo (Proton) propose chiffrement zéro‑accès, code open‑source, résumés, rédaction d’e‑mails et génération de code, sans stockage ni analyse des conversations, accessible sans inscription. Le Chat (Mistral) offre recherche web avec citations et analyse de contenus complexes ; sa version gratuite a suscité des débats RGPD, mais l’entreprise, soutenue par les gouvernements français et allemand, utilise des centres de données bas‑carbone.Côté santé, une étude menée dans cinq hôpitaux tertiaires en Chine, auprès de 240 professionnels et 480 patients ou aidants, montre que la confiance est le levier principal d’adoption des LLMs. Pour les soignants: expérience antérieure, clarté légale et formation renforcent l’usage. Pour les patients: transparence, interprétabilité et niveau d’éducation comptent. L’utilité perçue diffère: efficacité et aide à la décision pour les professionnels, explications en langage simple et empathie pour les patients. Les craintes sur la confidentialité restent un frein majeur. La littératie numérique et les conditions socio‑économiques jouent aussi: niveau d’éducation plus faible ou régions moins développées riment avec intention d’adoption plus faible. Recommandations: IA explicables et auditées, interfaces adaptées aux rôles, et cadres de gouvernance clairs.Pour mieux interagir avec ChatGPT, les préfixes structurés aident à cadrer la réponse. Pour le format: /ELI5, /FORMAT AS, /CHECKLIST, /EXEC SUMMARY, /COMPARE, /STEP‑BY‑STEP, /TLDL, /SCHEMA, /BRIEFLY, /BEGIN WITH et /END WITH. Pour approfondir: /SWOT, /METRICS MODE, /CHAIN OF THOUGHT, /FIRST PRINCIPLES, /PARALLEL LENSES, /EVAL‑SELF, /PITFALLS, /SYSTEMATIC BIAS CHECK, /DELIBERATE THINKING, /REFLECTIVE MODE. Pour le ton et le public: /ACT AS, /ROLE: TASK: FORMAT:, /TONE, /JARGON, /AUDIENCE, /DEV MODE, /PM MODE, /REWRITE AS, /MULTI‑PERSPECTIVE. Pour rester dans le périmètre: /GUARDRAIL, /NO AUTOPILOT, /CONTEXT STACK. Leur efficacité dépend du contexte et de la formulation, mais ils clarifient l’attente.Enfin, sur le marché du travail, des témoignages signalent la fragilisation des rédacteurs publicitaires. Jacques Reulet II raconte être passé de la formation d’humains à celle d’IA, avant un licenciement quand les chatbots ont été jugés « suffisants ». Beaucoup basculent vers l’édition de textes générés, avec des rémunérations plus basses et une qualité jugée acceptable par les entreprises. Entre reconversions et emplois précaires, l’incertitude domine.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : assistants de code et biais, lancement de GPT-5.2, alternatives européennes pour l’éducation, adoption des LLM en santé en Chine, art du prompt, et impact sur les métiers de la rédaction.D’abord, un retour d’expérience sur les assistants de codage. Utiliser Copilot ou des extensions LLM accélère le travail, mais ces outils, souvent “serviles”, ont tendance à valider nos partis pris. Exemple parlant : transposer des réflexes R en Python peut conduire à des implémentations non conformes aux bonnes pratiques de l’écosystème Python. Au-delà des bugs visibles, le risque principal est l’amplification d’erreurs méthodologiques subtiles, notamment dans le choix des tests statistiques. Bonne pratique proposée : séparer les décisions d’analyse de celles d’implémentation logicielle, s’appuyer sur la littérature pour le choix des méthodes, puis demander à l’IA de coder. Et, avant publication, confronter le travail aux standards disciplinaires et à un regard expert.OpenAI annonce GPT-5.2, un mois après GPT-5.1, sur fond d’“alerte rouge” pour répondre à la pression de Gemini 3 de Google, et peu après un accord de licence avec Disney. Le modèle améliore la création de feuilles de calcul et de présentations, le code, la vision, l’usage d’outils et la gestion de longs contextes—avec une précision maintenue sur des centaines de milliers de tokens, y compris pour des rapports, contrats et projets multi-fichiers. Sur le benchmark GDPval, GPT-5.2 atteint 70,9 % contre 38,8 % pour GPT-5.1, avec des performances au niveau ou au-dessus d’experts humains sur 44 professions. Trois déclinaisons : Instant pour les requêtes courantes (explications plus claires que 5.1), Thinking pour réduire les hallucinations sur les tâches complexes, et Pro pour les questions les plus difficiles, notamment en programmation et pour les scientifiques. Déploiement aujourd’hui pour les offres payantes, API ouverte à tous les développeurs, accès Free et Go annoncé pour demain, et maintien de GPT-5.1 pendant trois mois.Dans l’éducation, des alternatives européennes misent sur la confidentialité et l’empreinte environnementale. Euria d’Infomaniak, IA souveraine hébergée en Suisse, est conforme RGPD et loi suisse, n’exploite pas les données à des fins commerciales, fonctionne à l’énergie renouvelable et réutilise la chaleur des data centers pour chauffer des logements à Genève. Lumo de Proton privilégie la sécurité avec chiffrement zéro-accès et code open-source ; il ne stocke ni n’analyse les conversations, est accessible sans inscription mais ne propose pas la génération d’images ni l’accès web en temps réel. Le Chat de Mistral, IA française open-source, offre recherche web avec citations et analyse de contenus complexes ; malgré des controverses sur la collecte de données, l’outil est soutenu par les gouvernements français et allemand et s’appuie sur des centres de données bas-carbone.Côté santé, une étude multicentrique en Chine analyse les facteurs d’adoption des LLM. Résultat central : la confiance est le meilleur prédicteur, chez les soignants comme chez les patients et aidants. Pour les professionnels, l’expérience antérieure des LLM et la clarté juridique favorisent l’adoption, quand les préoccupations de confidentialité la freinent. Pour les patients, l’utilité perçue, le niveau d’éducation et l’usage d’outils numériques poussent à l’adoption, la confidentialité reste un frein. Méthodologiquement, l’étude combine enquêtes et entretiens semi-structurés, avec régressions logistiques et approches d’apprentissage automatique. Les soignants insistent sur l’intégration aux flux de travail et la responsabilité ; les patients, sur la compréhensibilité, la réassurance et l’accès équitable. Conclusion : au-delà de la performance algorithmique, la confiance, la littératie numérique et la préparation institutionnelle conditionnent l’usage, dans un cadre unifié de “préparation sociotechnique”.Pour mieux dialoguer avec les modèles, les préfixes structurés offrent un levier simple. Ce sont des instructions explicites qui cadrent la réponse. Exemples pour le format et la clarté : /ELI5, /FORMAT AS, /CHECKLIST, /EXEC SUMMARY, /COMPARE, /STEP-BY-STEP, /TLDL, /SCHEMA, /BRIEFLY. Pour approfondir l’analyse : /SWOT, /METRICS MODE, /CHAIN OF THOUGHT, /FIRST PRINCIPLES, /PARALLEL LENSES, /EVAL-SELF, /PITFALLS, /SYSTEMATIC BIAS CHECK, /DELIBERATE THINKING, /REFLECTIVE MODE. Pour adapter le ton et le rôle : /ACT AS, /ROLE: TASK: FORMAT:, /TONE, /JARGON, /AUDIENCE, /DEV MODE, /PM MODE, /REWRITE AS, /MULTI-PERSPECTIVE. Et pour garder le cap : /GUARDRAIL, /NO AUTOPILOT, /CONTEXT STACK. L’efficacité dépend du contexte ; il faut tester et ajuster.Enfin, l’IA recompose les métiers de la rédaction. Témoignage de Jacques Reulet II : son rôle a glissé du management d’équipe à la formation de chatbots, avant un licenciement une fois les modèles jugés “assez bons”. Dans le secteur, de nombreux rédacteurs éditent désormais des textes générés, avec des salaires en baisse. Artistes, illustrateurs, traducteurs et profils techniques rapportent des fermetures d’activité, des reconversions, voire des déménagements vers des zones moins chères, tandis que la concurrence pour les rares postes restants s’intensifie. Les entreprises y voient des économies de coût, mais le marché se remplit de contenus homogènes, relançant la question de la valeur du travail éditorial humain pour se distinguer.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour à toutes et à tous, et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : des cryptographes contournent les filtres d’IA, un outil pour supprimer l’IA de Windows 11, l’UE enquête sur les “Aperçus IA” de Google, débat sur l’échelle et l’AGI à NeurIPS, Sam Altman défend ChatGPT pour la parentalité, et Microsoft investit massivement en Inde, avec la question de l’empreinte énergétique.D’abord, la sécurité des modèles. Des cryptographes montrent que les protections par filtres, situées en amont des grands modèles, restent vulnérables. Les “jailbreaks” évoluent: de simples consignes à ignorer, aux jeux de rôle, jusqu’à la reformulation d’une demande interdite en poème pour tromper les vérifications. L’architecture à deux niveaux, filtre léger puis modèle puissant, crée un écart de puissance exploitable. Shafi Goldwasser rappelle que la cryptographie est clé pour instaurer la confiance, mais l’alignement sur des valeurs humaines, changeantes, est difficile. Exemples parlants: cacher des instructions via un chiffre de substitution que le modèle sait décoder, pas le filtre; ou recourir à des puzzles à verrouillage temporel transformant un texte en nombre aléatoire, qui passe le filtre puis est résolu par le modèle. Tant que le filtre dispose de moins de ressources que le modèle, des failles persistent.On passe à Windows 11. Face aux ajouts d’IA comme Copilot dans la barre des tâches, Recall qui enregistre des actions, ou la génération d’images dans Paint, un script open source, RemoveWindowsAI, propose de retirer ces composants. Hébergé sur GitHub, régulièrement mis à jour, il offre une interface avec cases à cocher et peut aussi s’utiliser en ligne de commande. Il faut lancer PowerShell en administrateur et, avant tout, créer un point de restauration ou une sauvegarde complète, car le script modifie des éléments profonds du système. Il élimine la plupart des fonctions, mais certaines exigent une désactivation manuelle, comme Gaming Copilot ou l’IA de OneDrive. Les mises à jour de Windows pouvant réinstaller des modules, le script ajoute un package bloquant ces retours, sans garantie face à de futures mises à jour. Sur les PC Copilot+, des fonctions exclusives peuvent demander des manipulations supplémentaires.Direction Bruxelles: l’Union européenne enquête sur les “Aperçus IA” de Google, ces résumés générés qui s’affichent dans la recherche et répondent sans renvoyer vers les sites sources. Les éditeurs craignent une baisse de trafic, avec un impact direct sur la publicité et la monétisation. L’enjeu: déterminer si Google abuse d’une position dominante en utilisant des contenus sans compensation adéquate. Selon l’issue, cela pourrait redéfinir les règles de rémunération et d’accès aux données pour l’entraînement et l’affichage par l’IA.Dans la recherche, le débat sur l’échelle bat son plein. L’idée “l’échelle est tout ce dont vous avez besoin” vacille. Malgré des données massives dérivées du comportement humain, les limites persistent: hallucinations, factualité, raisonnement, cas rares, généralisation. À NeurIPS, un tournant s’esquisse; côté terrain, une étude du MIT indique que 95 % des entreprises ne voient pas de retour sur investissement significatif avec l’IA générative, des constats proches chez McKinsey et BCG. Cap proposé: une IA inspirée par la cognition humaine et animale, des modèles du monde et la causalité, à l’image des frères Wright apprenant du contrôle de vol sans copier les oiseaux.Côté usage grand public, Sam Altman, PDG d’OpenAI, a déclaré sur le plateau de Jimmy Fallon ne pas imaginer élever un nouveau-né sans ChatGPT, tout en reconnaissant que l’humanité l’a fait des siècles durant. Il pointe l’adoption mondiale rapide des chatbots et plaide pour une introduction responsable, laissant aux gens le temps de s’adapter et de donner leur avis. Les réactions rappellent que ChatGPT peut paraître sûr de lui en se trompant, selon l’aide en ligne d’OpenAI, et soulèvent la question d’une dépendance aux conseils automatisés, ainsi que l’impact environnemental des plateformes. Jimmy Fallon a été critiqué pour l’absence de contradiction lors de l’échange.Enfin, Microsoft mise gros en Inde: 17,5 milliards de dollars pour développer des infrastructures d’IA, les compétences et des capacités souveraines, et 3 milliards supplémentaires sur deux ans pour renforcer l’infrastructure cloud et IA, via Azure. Cet essor remet la consommation énergétique au centre: une instruction générative complexe peut dépenser 210 fois l’énergie d’une recherche Google, et produire une vidéo IA de trois secondes, 15 000 fois plus. Le contraste est marqué entre l’accélération des déploiements et la nécessité de solutions plus sobres.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : observabilité des agents, MCP confié à la Linux Foundation, Gemini s’invite dans Chrome avec un garde‑fou, nouvelles règles des bots d’OpenAI, lunettes Gemini en 2026, et l’empreinte de l’IA sur notre langue.Dans les systèmes agentiques, un cap se confirme: l’observabilité n’est pas un ajout, c’est la condition d’entrée en production. Les entreprises veulent comprendre comportement, décisions et raisonnement. La brique clé n’est pas la métrique mais la trace: chaque exécution détaillant planification, récupération, appels d’outils et appels LLM, pour reconstituer ce que l’agent a fait et pourquoi. Les “traces sémantiques” journalisent pensées, actions et résultats, au‑delà des horodatages, pour déboguer un cas et agréger des modes d’échec récurrents. À distinguer: l’évaluation hors ligne avant déploiement, utile pour écarter les régressions manifestes; l’évaluation en ligne et l’observabilité en production, face aux entrées imprévisibles; et la détection d’échecs en temps réel pour capter les dérives sans attendre l’incident. Côté architecture, le modèle pipeline — analyse d’entrée, récupération, planification, outils, génération, post‑traitement — permet d’instrumenter chaque étape avec des crochets qui capturent des traces, branchent des évaluateurs, échantillonnent le trafic ou modifient le routage. En dessous, une télémétrie système peut compléter: des prototypes comme AgentSight utilisent eBPF pour suivre sous‑processus, accès fichiers et appels réseau sans modifier l’application, utile quand l’agent lance des binaires externes. Dernier point: éviter de suradapter l’observabilité à une pile mouvante; viser des signaux fiables et portables, et traiter le sujet aussi comme une question de gouvernance et de “build vs buy”.Cap sur les standards: le Model Context Protocol est confié à l’Agentic AI Foundation, un fonds sous l’égide de la Linux Foundation. Cofondée par Anthropic, Block et OpenAI, soutenue par Google, Microsoft, AWS, Cloudflare et Bloomberg, l’AAIF veut faire grandir des standards ouverts pour l’IA agentique. Lancé il y a un an, MCP se pose en protocole universel pour relier des applications d’IA à des systèmes externes. Il revendique plus de 75 connecteurs et des évolutions comme les opérations asynchrones et la statelessness, pour piloter des milliers d’outils tout en réduisant la latence des workflows complexes. La gouvernance demeure ouverte et transparente; MCP rejoint des projets fondateurs comme goose de Block et AGENTS.md d’OpenAI.Chez Google, Gemini arrive dans Chrome. Annoncée le 19 septembre 2025, l’intégration permet de résumer des pages, expliquer des concepts ou générer du texte sans quitter l’onglet, avec à terme des actions comme réserver un restaurant ou organiser un trajet. Pour répondre aux craintes de cybersécurité déjà soulevées autour de navigateurs comme Comet de Perplexity ou Atlas d’OpenAI, Google introduit le “User Alignment Critic”. Ce filtre s’exécute après la planification de l’agent, bloque les actions jugées suspectes et renvoie un feedback pour ajuster le plan. Il cible notamment les injections indirectes, en opérant non sur le HTML brut mais sur une description structurée des actions, présentée comme moins manipulable.Du côté d’OpenAI, la politique des robots d’exploration évolue. La description d’OAI‑SearchBot, utilisé pour ChatGPT, a été modifiée: la mention de collecte de liens et d’entraînement des modèles a disparu. Surtout, le “ChatGPT User” — un bot d’action utilisateur — n’obéira plus au fichier robots.txt; seules les règles visant OAI‑SearchBot et GPTBot seront respectées. OAI‑SearchBot n’alimente plus les liens de navigation affichés par ChatGPT: le bloquer n’empêchera pas votre site d’apparaître dans ces liens. Le ChatGPT User sert désormais aussi aux requêtes des GPT personnalisés et aux actions GPT. OpenAI indique qu’OAI‑SearchBot et GPTBot partagent leurs informations: si un site autorise les deux, une seule exploration peut servir aux deux usages pour éviter les doublons. Des journaux serveur montrent parfois deux ou trois bots OAI sur un même site. À noter: OpenAI explore souvent bien davantage qu’il ne renvoie de trafic, un point à intégrer pour la charge serveur et la stratégie de visibilité.Retour au matériel: Google prépare pour 2026 ses premières lunettes Gemini sous Android XR, pour rivaliser avec Meta. Android XR couvre réalité augmentée, virtuelle et mixte. Parmi les usages annoncés: traduction en direct et assistance contextuelle. Le lancement intervient alors que Meta a dépassé 2 millions de Ray‑Ban connectées vendues et vise plus de 10 millions d’unités par an d’ici fin 2026. Des observateurs soulignent déjà les enjeux de vie privée.Enfin, l’IA marque la langue. Des mots comme “approfondir”, “intricate”, “souligner” ou “louable” sont surreprésentés et deviennent des tics associés à la prose de ChatGPT; des structures répétitives se diffusent, y compris hors texte, jusqu’au Parlement britannique où “Je me lève pour parler” se multiplie. Le linguiste Tom S. Juzek documente l’essor de termes formels, désormais repérables même dans des podcasts conversationnels, signe que l’exposition à l’IA influence l’usage humain. Côté mécanismes, l’apprentissage par renforcement à partir de retours humains peut favoriser certains choix lexicaux; ce travail d’annotation, souvent externalisé vers le Sud global, est parfois qualifié de “données de sweatshop”. Les chercheurs privilégient des corpus conversationnels pour mesurer l’effet sur la langue. En parallèle, l’IA a banalisé l’écriture fluide, poussant à réévaluer les critères de qualité, tandis que des rédactions redoutent une uniformisation du style.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments