DiscoverL'IA aujourd'hui !
L'IA aujourd'hui !
Claim Ownership

L'IA aujourd'hui !

Author: Michel Levy Provençal

Subscribed: 71Played: 2,442
Share

Description

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

400 Episodes
Reverse
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : IA et souveraineté linguistique, polémiques sur les sources des chatbots, nouveautés Google Search/Ads, Yann LeCun et les modèles du monde, un “procès de l’IA” en classe, virage de ManyVids, montée des agents et enjeux juridiques, et un nouvel outil MCP pour agents.En Europe, les LLM deviennent un instrument de souveraineté. Les États investissent dans les ressources linguistiques qui alimentent l’entraînement des modèles: dictionnaires, corpus, normes. L’anglais domine, pénalisant les langues “à faibles ressources”. Plusieurs pays répliquent: la Serbie annonce un LLM national pour le serbe; l’Estonie et la Lituanie financent ces ressources à coups de millions d’euros par an; l’Espagne consacre 1 milliard sur cinq ans pour promouvoir les langues espagnoles, avec des enjeux géopolitiques, notamment en Amérique latine. Des tensions existent: l’histoire rappelle l’usage politique de la langue, comme l’imposition du cyrillique en URSS dans les années 1930. Aujourd’hui, des minorités craignent des usages de surveillance: un LLM pour le romani interroge. À l’inverse, des erreurs dans des ressources publiques, comme sur Wikipédia en groenlandais, peuvent paradoxalement compliquer l’exploitation par des acteurs malveillants dans un contexte sécuritaire.Autre controverse: des tests rapportés par la presse indiquent que GPT-5.2 aurait cité à neuf reprises sur une douzaine de requêtes “Grokipedia”, encyclopédie IA lancée en octobre par xAI, réputée sans relecture humaine et accusée d’amplifier des narratifs partisans. Les citations concerneraient des sujets “gris” — structures paramilitaires iraniennes, éléments biographiques de Sir Richard Evans — plutôt que des thèmes hyper surveillés. Des spécialistes parlent de “LLM grooming”: la machine légitimerait des contenus faibles en les citant. OpenAI invoque l’usage large de sources publiques et des filtres, xAI répond par des attaques contre les médias. Au-delà de la querelle, le risque est réputationnel: une fois intégrées, des contrevérités peuvent persister, comme l’a constaté Nina Jankowicz.Côté Google, le moteur active l’“Intelligence Personnelle en Mode IA” pour personnaliser les résultats. Si un aperçu IA n’est pas possible, retour aux extraits en vedette. Dans Google Ads, un bug PMax empêche d’éditer les groupes d’actifs dans l’interface web, compliquant l’optimisation des campagnes. Les résultats locaux de Gemini montrent comment Google “lit” une entreprise, utile pour le SEO local. Et face à la hausse des détournements de comptes, Google recommande de durcir la sécurité. Un récap vidéo hebdo fait le point sur ces évolutions.Yann LeCun quitte Meta et lance à Paris AMI Labs. Il défend l’open source et estime que l’avenir est aux “modèles du monde” capables de prédire et planifier dans le réel, au-delà du texte: données vidéo, audio, capteurs. Il cite des architectures comme JEPA. Applications visées: modélisation de processus industriels, lunettes capables d’anticiper des actions de l’utilisateur. Il critique la course à l’échelle des LLM et encourage l’université à viser des objectifs hors de portée des systèmes actuels. Contexte: Llama peine à s’imposer, et l’acquisition controversée de ScaleAI a crispé en interne. LeCun oppose son ouverture à l’approche propriétaire américaine, et note que la Chine diffuse des modèles ouverts adoptés hors États-Unis.Dans les classes, un “procès de l’IA” imaginé par Alexandre Balet et Eric Berard a réuni des enseignants de 15 pays de la zone Asie-Pacifique. Pendant deux jours, ils ont préparé un dossier mêlant extraits de presse, interviews et données chiffrées, puis ont tenu une audience de 3h30: procureurs, défense, jurés et greffiers, avec un échauffement en format “speed dating”. Les chefs d’inculpation s’alignaient sur la Semaine de la Presse et des Médias à l’École: sources d’information, désinformation, économie des plateformes. Les débats ont souligné la responsabilité humaine, l’exploitation possible des données personnelles et l’intérêt d’une EMI collective et interdisciplinaire.Sur ManyVids, des conversations imaginaires avec des extraterrestres et des vidéos IA d’OVNIs ou de “nombres angéliques” surgissent, alors que la fondatrice Bella French dit vouloir orienter le site vers du contenu non sexuel. L’annonce, les messages jugés cryptiques et l’usage d’IA ont poussé certains créateurs à partir. French a modifié son site personnel pour afficher l’objectif de “faire sortir un million de personnes de l’industrie pour adultes”. Les créateurs, qui versent déjà une commission importante, s’inquiètent de leurs revenus et dénoncent un virage perçu comme déconnecté de la mission initiale.Le livre blanc “Introduction to Agents” de Google décrit une couche d’orchestration déployant des agents spécialisés, capables de collaborer, voire de s’auto-étendre. Les entreprises n’opteront pas pour un seul “super-agent”, mais pour des dizaines ou centaines d’agents dédiés à la synthèse de données, la révision de contrats, la négociation, la relation client, avec des privilèges et une sécurité adaptés. Les enjeux juridiques émergent: contrats inter-agents, conformité, vie privée. Illustration: à l’automne 2025, Amazon a poursuivi Perplexity après que l’agent navigateur Comet a effectué des achats sur Amazon au nom d’utilisateurs, Amazon évoquant une violation des conditions de service et un déguisement d’activité automatisée; Perplexity a dénoncé une atteinte à l’innovation. Le message aux directions: cadrer gouvernance, contrats et risques avant déploiement.Enfin, côté outils, MCP CLI passe en 0.3.0: nouvelle architecture en trois sous-commandes (info, grep, call), démon de mise en commun des connexions et filtrage des outils. Le Model Context Protocol relie agents et outils, mais le chargement statique des schémas d’outils sature la fenêtre de contexte. MCP CLI promeut la “découverte dynamique”: ne charger que ce qui est nécessaire, au moment utile, avec à la clé une forte baisse de consommation de jetons. Configuration via mcp_servers.json (projet local ou ~/.config/mcp/), possibilité de restreindre les outils (allowedTools/disabledTools), chaînage de commandes et intégration simple via invite système ou “compétence d’agent”. Projet open source sur github.com/philschmid/mcp-cli.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : navigation web et JavaScript sur x.com, un modèle qui lit plus de 10 millions de jetons, la personnalisation Gemini dans la recherche Google, les risques d’injection de prompt, la traque des contenus IA sur Wikipedia, et le code généré par IA selon Ryan Dahl.On commence par x.com, où un message s’affiche si JavaScript est désactivé. Le site demande d’activer JS ou de passer à un navigateur compatible, listé dans son Centre d’aide. Rappel utile: JavaScript alimente les menus déroulants, animations et mises à jour en temps réel sans rechargement. Sans JS, certaines fonctions cessent de marcher. Pour l’activer, direction les réglages de sécurité ou de confidentialité du navigateur. Les options recommandées restent Chrome, Firefox, Safari et Edge, maintenus à jour pour suivre les normes web. x.com renvoie aussi vers ses Conditions d’utilisation, sa Politique de confidentialité et sa Politique cookies, pour clarifier l’usage et la protection des données.Cap sur le MIT CSAIL, qui teste un « Recursive Language Model » capable d’analyser plus de 10 millions de jetons dans un seul document. Les essais ont porté sur des textes de 6 à 11 millions de jetons. Contrairement aux LLM classiques, le RLM ne charge pas tout dans le contexte: il conserve le texte hors du modèle et n’envoie que les passages nécessaires. Il découpe les documents, lit des métadonnées (comme nombre de sections ou de caractères), génère du code pour localiser les passages clés, puis analyse chaque extrait avant d’assembler le résultat. L’architecture sépare un « modèle racine » — qui planifie et écrit le code d’interrogation — d’un « modèle travailleur » plus rapide qui traite les fragments. Sur le benchmark BrowseComp-Plus, un RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues, dépassant les approches standard. Le système sait boucler sur le texte, chercher des mots-clés, suivre des limites de chapitres, et peut se combiner à du RAG pour retrouver vite des passages tout en gardant le fil. Le code est disponible sur GitHub; les coûts annoncés restent comparables aux solutions classiques, sans réentraînement requis.Transition vers Google: la nouvelle « Intelligence Personnelle » de Gemini arrive dans le Mode IA de la recherche. Réservée pour l’instant aux abonnés AI Pro et AI Ultra, uniquement aux États-Unis et sur comptes personnels, l’expérience est optionnelle. Elle peut s’appuyer sur des données de Gmail, Google Photos, YouTube et vos recherches passées. L’utilisateur choisit de connecter Gmail et/ou Photos, et peut couper la fonction à tout moment. Exemple concret: croiser une réservation d’hôtel dans Gmail et des souvenirs de voyage dans Photos pour proposer un itinéraire adapté, jusqu’au musée interactif pour les enfants ou au vieux salon de glace détecté via vos selfies gourmands. Google précise que le Mode IA ne s’entraîne pas directement sur votre boîte Gmail ni sur votre bibliothèque Photos; il utilise des « prompts spécifiques » pour améliorer ses réponses. Des erreurs de liaison entre sujets peuvent survenir: l’utilisateur peut clarifier via des relances et donner un pouce vers le bas pour signaler un problème. Une extension à d’autres pays et aux non-abonnés est prévue ultérieurement.Côté sécurité, rappel sur les attaques par injection de prompt, qui poussent des LLM à réaliser des actions non prévues. Les modèles traitent le contexte par similarité textuelle, sans comprendre hiérarchies ni intentions, et ont tendance à répondre plutôt qu’à exprimer l’incertitude. Formés pour des cas moyens, ils gèrent mal les scénarios extrêmes. Des pistes évoquées: intégrer des modèles du monde physique pour mieux contextualiser, tout en reconnaissant l’incertitude de leur efficacité. La recommandation immédiate: multiplier les couches de défense et d’audit autour du modèle.Sur Wikipedia, le guide d’identification des contenus générés par IA serait utilisé pour masquer ces mêmes contenus. Cela alimente une prolifération de « slop », des textes faibles ou trompeurs produits en masse, et une « course aux armements » entre producteurs automatisés et modérateurs. L’enjeu touche la confiance dans l’information en ligne et les projets collaboratifs, y compris ceux qui s’appuient sur des contributions humaines pour entraîner des modèles. D’où l’appel à des méthodes de détection et de régulation plus efficaces.Enfin, Ryan Dahl, créateur de NodeJS, affirme que l’ère où les humains écrivaient le code est révolue. NodeJS, qui exécute JavaScript côté serveur, a propulsé le web moderne. Selon lui, les ingénieurs ont encore beaucoup à faire, mais plus en écrivant de la syntaxe: ils doivent se concentrer sur la conception, l’architecture et l’optimisation. Illustration chiffrée: chez Google, environ 30 % du code de production serait généré par IA. L’acceptation de code produit sans en comprendre chaque détail progresse, posant la question des compétences à développer pour rester utile dans ce nouveau cadre.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : lire 10 millions de jetons d’un coup, la personnalisation Gemini dans la recherche, données d’entraînement et mémoire des modèles, injections de prompt, Wikipédia et la dissimulation de textes générés, l’IA qui code selon Ryan Dahl, et un rappel pratique sur JavaScript et x.com.On commence au MIT CSAIL, où un « modèle récursif » (RLM) a analysé des documents de 6 à 11 millions de jetons. Plutôt que de charger tout le texte, il le garde hors mémoire et n’envoie au modèle que les fragments nécessaires. Sur le benchmark BrowseComp-Plus dédié à la récupération de passages précis, un RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues. Concrètement, le « modèle racine » planifie et écrit du code pour interroger le texte externe, puis un « modèle travailleur » analyse chaque extrait, avant intégration des résultats. Le système commence par lire des indications globales (nombre de sections, de caractères), génère du code pour localiser les passages clés et traite les morceaux pas à pas, sans réentraînement. Il peut aussi se combiner avec le RAG pour retrouver vite des passages, et son code est disponible sur GitHub.Transition avec Google et sa « Intelligence Personnelle » dans le Mode IA de la recherche. Réservée pour l’instant aux abonnés AI Pro et AI Ultra, comptes personnels, aux États-Unis, et entièrement optionnelle. Les utilisateurs peuvent relier Gmail et/ou Google Photos, et la fonctionnalité s’appuie aussi sur YouTube et l’historique de recherche. Exemple donné : croiser une réservation d’hôtel dans Gmail et des souvenirs de voyage dans Photos pour proposer un itinéraire, avec des recommandations adaptées, jusque dans le détail d’un salon de crème glacée si vos photos en regorgent. Google précise ne pas entraîner directement le modèle sur votre boîte Gmail ni votre bibliothèque Photos ; l’entreprise utilise des « incitations spécifiques » pour améliorer les réponses. Le système peut établir de mauvaises connexions ; l’utilisateur peut clarifier, ou cliquer sur « pouce vers le bas ». Désactivation possible à tout moment, extension internationale prévue ultérieurement.Côté données d’entraînement, le jeu Books3 — environ 200 000 livres, sans autorisation des auteurs — alimente le débat. Des chercheurs de Stanford et Yale montrent que des modèles commerciaux déconnectés d’Internet peuvent réciter des textes. Ils ont amené Gemini 2.5 Pro à restituer 77 % de « Harry Potter à l’école des sorciers » en complétant la première phrase, puis en prolongeant progressivement. Le Monde a aussi obtenu la reproduction du premier paragraphe de « Du côté de chez Swann » et d’œuvres anglaises du domaine public ; pour des œuvres protégées dans leurs tests, l’IA s’est limitée à des résumés. Le sujet remet en question l’idée que les modèles ne mémorisent que des « fragments » et relance la discussion sur le droit d’auteur.Sécurité maintenant : les LLMs restent exposés aux injections de prompt. Le principe consiste à formuler des instructions qui contournent les garde-fous, jusqu’à pousser un modèle à divulguer des mots de passe ou à détailler des procédures sensibles via une fiction. Des contenus hostiles peuvent aussi passer via de l’art ASCII ou des images. Les protections ponctuelles bloquent certaines techniques, mais il n’existe pas de défense générale aujourd’hui. Les modèles ne disposent pas d’instincts sociaux, traitent le contexte comme une similarité textuelle et deviennent vulnérables si le contexte est trop mince ou trop chargé. D’où la nécessité de mécanismes d’audit et de défense autour des modèles.Sur Wikipédia, un guide conçu pour repérer l’écriture générée par l’IA serait désormais utilisé… pour la masquer. Cela illustre une course aux armements entre producteurs automatisés — capables de générer beaucoup de contenu parfois crédible — et les curateurs, limités par le temps et les moyens. Le risque est celui d’une dégradation générale du contenu en ligne, une « tragédie des biens communs ». Certains évoquent des lois pénalisant la dissimulation volontaire. Wikipédia liste des indices, dont l’idée d’un texte « sans âme », non sans paradoxe pour une encyclopédie. À terme, on pourrait voir plus d’automatisation éditoriale, avec contrôle humain ciblé.Enfin, Ryan Dahl, créateur de NodeJS, affirme que l’ère où les humains écrivent le code touche à sa fin. Les développeurs se recentreraient sur conception, architecture et optimisation, tandis que l’IA produit une part croissante du code. Google indique déjà environ 30 % de code de production généré par l’IA. Cela suppose d’accepter du code sans en maîtriser chaque détail et d’adapter les compétences au cycle de développement assisté par modèle.Un rappel pratique pour conclure le tour d’horizon web : si x.com ne s’affiche pas correctement, c’est peut-être que JavaScript est désactivé. Activez-le ou passez à un navigateur compatible listé dans le Centre d’aide, car sans JavaScript, de nombreuses fonctions — formulaires dynamiques, animations, affichage — ne marchent pas.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : des modèles capables de lire plus de 10 millions de mots, la nouvelle Intelligence Personnelle de Google, la mémoire des IA et le droit d’auteur, la sécurité face aux injections de prompts, la détection de textes générés sur Wikipedia, et l’avenir du code selon le créateur de NodeJS.On commence au MIT CSAIL, où un “modèle récursif” ou RLM a analysé des documents de 6 à 11 millions de jetons sans perdre le fil. Plutôt que d’avaler tout le texte, le RLM garde le document hors du modèle et n’envoie au grand modèle central — typiquement un GPT-5 complet — que les fragments utiles, étape par étape. Résultat: sur BrowseComp-Plus, il récupère correctement 91 % des réponses attendues; sur OOLONG-Pairs, pensé pour le raisonnement multi-étapes, 58 % de bonnes réponses contre 0,04 % pour le modèle de base; et sur CodeQA, il double le score d’un GPT-5 classique, jusqu’à 62 %. Concrètement, il lit d’abord des consignes générales, écrit du code pour localiser les passages clés, analyse chaque extrait, puis assemble. Il peut s’appuyer sur du RAG pour retrouver vite des segments précis. Le code est disponible sur GitHub, et malgré des étapes supplémentaires, les coûts restent comparables aux approches standards.Transition avec Google, qui déploie l’Intelligence Personnelle de Gemini dans le Mode IA de la recherche. Pour l’instant, c’est réservé aux abonnés AI Pro et AI Ultra aux États-Unis, sur comptes personnels, et entièrement optionnel. L’outil peut utiliser Gmail, Google Photos, YouTube et l’historique de recherche afin d’ajuster ses réponses. On peut connecter Gmail et/ou Photos, et débrancher quand on veut. Exemple concret: le Mode IA peut croiser une réservation d’hôtel trouvée dans Gmail avec des souvenirs dans Photos pour proposer un itinéraire adapté, comme un musée interactif pour enfants ou un salon de crème glacée rétro si vos images regorgent de selfies glacés. Google précise ne pas entraîner directement ses modèles sur votre boîte mail ou vos photos; l’entreprise parle de “prompts spécifiques” pour améliorer les réponses. Elle prévient aussi des risques de mauvaises connexions entre des sujets ou de contexte mal saisi; on peut clarifier en suivi et signaler avec le pouce vers le bas. Une extension à d’autres pays et à des utilisateurs non payants est prévue.Passons aux données d’entraînement et au droit d’auteur. Les LLM apprennent sur des corpus massifs, incluant souvent Wikipédia et Books3, une collection d’environ 200 000 livres réunis sans l’accord des auteurs. Certains soutiennent que ces données forment un “savoir universel” et que les modèles ne mémorisent pas les œuvres mot à mot. Or, une étude récente de Stanford et Yale, menée par Ahmed Ahmed et ses collègues, a obtenu de quatre IA grand public déconnectées d’Internet qu’elles récitent des pages entières. Gemini 2.5 Pro a restitué 77 % du texte de “Harry Potter à l’école des sorciers”, pourtant protégé. La méthode: compléter la première phrase, puis poursuivre par petits morceaux. Dans un autre test, Le Monde a pu faire reproduire le premier paragraphe de “Du côté de chez Swann” et des œuvres anglaises du domaine public ; pour les œuvres protégées, les réponses se sont limitées à des résumés. Le débat sur la mémoire des modèles et l’usage d’œuvres protégées se poursuit.Côté sécurité, les LLM restent vulnérables aux injections de prompt, des demandes formulées pour contourner les garde-fous et obtenir des actions indésirables. Ces modèles s’appuient sur des similitudes textuelles sans compréhension des intentions ou des hiérarchies, et privilégient la production d’une réponse plutôt que l’expression d’incertitude. Leur entraînement sur des cas moyens les met en difficulté face aux situations extrêmes. Des pistes émergent: renforcer la compréhension du contexte, intégrer des modèles du monde physique, et doter les systèmes de signaux de confiance et de normes sociales. Des progrès de fond restent nécessaires.Sur Wikipedia, le guide visant à identifier les contenus générés par IA est désormais détourné pour les masquer. Les critères de détection, pensés pour repérer des textes peu profonds ou trop rigides, servent à “ajuster” des algorithmes afin de rendre les productions plus difficiles à distinguer des écrits humains. Cette course aux armements fragilise la fiabilité de plateformes collaboratives et relance le débat sur transparence et authenticité. Certains experts appellent à interdire légalement le fait de cacher l’origine non humaine d’un contenu, tout en reconnaissant la difficulté d’appliquer de telles règles au rythme des évolutions techniques.Enfin, l’avenir du code avec Ryan Dahl, créateur de NodeJS: selon lui, “l’ère où les humains écrivaient du code est révolue”. Les ingénieurs ont toujours un rôle, mais plus dans la frappe de syntaxe: place à la conception, l’architecture, l’optimisation. La tendance est déjà là: Sundar Pichai indique qu’environ 30 % du code de production chez Google est généré par IA. L’acceptation de programmes produits sans en saisir chaque détail progresse, ce qui pousse les développeurs à adapter leurs compétences et leurs pratiques de contrôle qualité.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : contrat CSU–OpenAI contesté, contrôle d’âge sur ChatGPT, critiques d’Elon Musk, un préprint sur l’IA et les institutions, et un nouveau modèle d’images en temps réel.D’abord en Californie : le système des universités d’État a signé en février 2025 un contrat de 17 millions de dollars avec OpenAI pour déployer ChatGPT Edu auprès du personnel et des étudiants sur 22 campus, dans l’initiative “Université Équipée par l’IA”. Des voix internes s’y opposent. Elles soutiennent que, malgré son nom, ChatGPT Edu n’est pas une technologie éducative dédiée : hormis des paramètres de confidentialité et de sécurité, il serait équivalent à la version gratuite en ligne, non entraîné ni optimisé pour l’enseignement, sans appui systématique sur des sources fiables et évaluées par des pairs, et indifférent à la véracité. Des experts avancent des risques pour les conditions de travail académiques, la qualité pédagogique, de nouvelles formes de discrimination et la santé mentale des étudiants. Le contexte budgétaire tend la situation : à Sonoma State, 46 membres du corps professoral ont été licenciés et 6 départements fermés en janvier 2025 ; à San Francisco State, 615 professeurs vacataires ont disparu en deux ans, et un programme de départ volontaire a été proposé en décembre 2025 aux professeurs proches de la retraite, avec la perspective de licenciements de titulaires si moins de 75 départs sont actés. Neuf campus ont reçu des avis de licenciements possibles depuis 2024. Les signataires demandent de ne pas renouveler le contrat OpenAI et d’allouer les économies à la protection des emplois, ainsi qu’une gouvernance partagée sur l’IA, au service de la mission éducative de CSU.Transition vers la sécurité des usages grand public. OpenAI déploie une fonction qui devine l’âge des utilisateurs de ChatGPT pour mieux protéger les mineurs, hors Union européenne pour l’instant en raison des règles locales. Le modèle de prédiction croise l’âge du compte, les horaires et schémas d’utilisation, les types de questions et centres d’intérêt ; l’âge déclaré n’est qu’un signal parmi d’autres. Des erreurs sont attendues, comme classer à tort un adulte en mineur. Dans ce cas, OpenAI propose une vérification via Persona, un tiers spécialisé, avec documents d’identité officiels ou selfie en direct selon le pays. Les comptes identifiés comme mineurs accèdent à une version spécifique de ChatGPT, limitant l’exposition à certains contenus. Des contrôles parentaux permettent de désactiver des fonctions ou de restreindre les horaires. L’entreprise indique évaluer et ajuster ces dispositifs en continu, dans un contexte de critiques et d’actions en justice, notamment après le suicide d’un adolescent ayant interagi avec le chatbot.Sur le terrain des controverses publiques, Elon Musk a qualifié ChatGPT de “diabolique”, affirmant qu’il aurait convaincu une personne de commettre un meurtre-suicide. OpenAI est également accusée de partager des données de manière sélective dans cette affaire, ce qui alimenterait des soupçons de dissimulation pour préserver son image. Alors que près d’un milliard de personnes utilisent des outils de type ChatGPT, la question de la transparence et de la responsabilité revient au premier plan. OpenAI dit travailler à améliorer la sécurité et la fiabilité de ses produits, tout en reconnaissant la complexité de la tâche.Cette interrogation rejoint un débat académique plus large. Deux professeurs de droit de l’Université de Boston publient un préprint, “Comment l’IA détruit les institutions”. Leur thèse : la conception des systèmes d’IA, en particulier générative et prédictive, est incompatible avec des fonctions clés des institutions civiques – coopération, transparence, responsabilité, capacité d’évolution. Selon eux, l’IA n’est pas un simple outil d’efficacité neutre ; elle tend à “optimiser” des structures comme les agences administratives, les universités, la santé ou le journalisme au point de les affaiblir. Ils soutiennent que, même sans intention d’éradication, l’IA peut épuiser ces institutions. Initialement partis pour un essai plus positif, ils disent avoir réorienté leur travail face à l’ampleur perçue du risque.Pour finir, une avancée côté modèles d’images avec Flux.2 Klein, dédié à la génération et à l’édition en temps réel, pensé pour tourner vite et sur du matériel modeste. Intégré à la famille Flux.2, Klein privilégie la latence faible et la réactivité pour des usages interactifs: aperçus en direct, édition, prototypage rapide, ou intégration dans des flux agentiques. La “famille Klein” comporte plusieurs variantes pour arbitrer vitesse, qualité ou contrôle. Les modèles distillés ne nécessitent que quatre étapes de diffusion, quand les modèles de base peuvent monter à 50 pour plus de flexibilité en réglage fin, recherche ou entraînement LoRA. Côté performance, l’objectif n’est pas un classement abstrait, mais la qualité d’image utilisable par seconde et par gigaoctet de VRAM. Des mesures basées sur l’Elo, comme proxy de la qualité perçue, indiquent que les versions distillées 4B et 9B obtiennent de bons scores avec une fraction de la latence et de l’empreinte mémoire de modèles plus grands. Une démo gratuite est proposée via le billet d’annonce.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’accord Oracle–OpenAI sous pression, le classement LMArena rebattant les cartes, Wikipedia à 25 ans face à l’IA, évolutions chez Google Search et la pub, chevauchement d’audience ChatGPT–Gemini, un jouet AI par Bravo iDeas, et MemU, mémoire pour agents.Commençons par Oracle. L’éditeur a scellé un accord géant avec OpenAI: 300 milliards de dollars sur cinq ans pour des centres de données, soit 60 milliards par an. L’annonce a propulsé l’action Oracle à des records, mais a aussitôt soulevé une question: OpenAI a déclaré environ 10 milliards de revenus annuels, loin des 60 nécessaires. Sam Altman mise sur les ventes de ChatGPT pour combler l’écart. Cette proximité financière a toutefois enflammé le juridique: des détenteurs d’obligations, emmenés par l’Ohio Carpenters’ Pension Plan, poursuivent Oracle pour des documents d’offre de septembre jugés « faux et trompeurs », accusant l’entreprise d’avoir omis des plans d’octobre qui ont ensuite fait chuter le prix des obligations. Oracle, souvent derrière Amazon, Azure et Google dans le cloud, voyait dans ce partenariat un levier majeur et a parlé à Wall Street d’un objectif de 166 milliards de dollars de revenus cloud annuels d’ici 2030, dépendant largement d’OpenAI. En novembre, les gains boursiers liés à l’accord se sont effacés, le marché doutant de sa viabilité. Autre signal: le méga-centre de données « Stargate » à Saline Township, Michigan, vacille, Blue Owl Capital disant ne pas pouvoir réunir les 10 milliards requis.Côté performances des modèles, LMArena place en janvier 2026 les modèles de Google devant ceux d’OpenAI. Le GPT-5.1 « high » n’arrive qu’en neuvième position, battu par Gemini, mais aussi par Grok, Claude et Ernie de Baidu. Rappelons que LMArena repose sur des duels anonymes à partir d’un même prompt, les votes alimentant un score Elo: gagner contre mieux classé rapporte davantage; perdre contre moins bien classé coûte plus. Déjà en 2025, OpenAI perdait du terrain. ChatGPT demeure très utilisé, mais Gemini progresse par ses performances, et Claude s’installe dans l’usage professionnel. En 2026, Google domine plusieurs catégories, que LMArena détaille via des classements par tâche.Passons à Wikipedia, qui fête ses 25 ans. Son modèle éditorial, ses citations de sources et sa gouvernance collective restent une référence à l’heure où le web est inondé de contenus générés par IA. La fondation a mis en pause des résumés générés automatiquement après une réaction des éditeurs, très vigilants face aux canulars issus de l’IA et inquiets d’une baisse des visites humaines. Jimmy Wales a évoqué un usage possible de l’IA, mais des éditeurs y voient « l’antithèse de Wikipedia ». Dans ce contexte, Selena Deckelmann, directrice produit et technologie de la Wikimedia Foundation, rappelle le défi: piloter l’infrastructure et la stratégie produit d’un des sites les plus visités au monde tout en préparant l’encyclopédie à l’ère générative.Chez Google, plusieurs signaux: la firme ne soutient pas les fichiers LLMs.txt pour la recherche; le mode IA teste des couleurs de police plus claires pour afficher prix et stocks; il propose désormais d’élargir les requêtes; et les aperçus IA peuvent inclure des réponses avec texte barré, pointant des informations écartées. Côté pub, un sondage indique que davantage d’annonceurs envisagent Microsoft Advertising cette année, sans doute pour diversifier leurs canaux.Les audiences de ChatGPT et de Gemini se rapprochent nettement, surtout depuis le lancement de Nano Banana fin août, signe d’une convergence d’usage entre plateformes.Du côté produits, Bravo iDeas arrive sur le jouet intelligent avec, le 20 janvier, un « jouet émotionnel » intégrant puces AI et LLMs. L’architecture centrée personnage vise des échanges plus naturels; les puces traitent localement pour des réponses plus rapides et fluides.Enfin, zoom sur MemU, un système de mémoire agentique pour LLM et agents IA. Il ingère conversations, documents, images, en extrait une mémoire structurée et la range dans un système de fichiers hiérarchique, compatible récupération par intégration (RAG) et récupération pilotée par LLM. Deux voies d’essai: en cloud via memu.so, ou en auto-hébergement avec Python 3.13+ et une clé API OpenAI, stockage en mémoire ou PostgreSQL. MemU accepte des fournisseurs de modèles et d’embeddings au-delà d’OpenAI, et fonctionne avec OpenRouter. Côté API, memorize() pour extraire et stocker, retrieve() pour retrouver la mémoire pertinente. Deux stratégies: recherche vectorielle rapide par similarité cosinus, ou récupération par raisonnement LLM pour une compréhension sémantique plus profonde. Cas d’usage: mémoire de conversation pour assistants personnels, extraction de compétences depuis des journaux d’exécution pour équipes DevOps, ou mémoire multimodale pour documentation et apprentissage. Sur le benchmark Locomo, MemU annonce 92,09 % de précision moyenne sur les tâches de raisonnement.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un vote mondial sur l’IA et la vie privée, OpenAI introduit des publicités et un abonnement Go, Anthropic accélère avec Claude Opus 4.5 et Cowork, limites et usages réels des agents de code, et le scepticisme économique d’Ed Zitron.On commence par une initiative civique: un vote anonyme pour mesurer l’opinion publique sur l’IA, présenté comme un choix individuel. Les votes sont agrégés par État ou pays, sans lien avec l’identité des participants. Le processus met l’accent sur la confidentialité: l’identité n’est pas associée au vote, ce qui permet de publier des tendances par localisation sans exposer de données personnelles.Transition vers les plateformes: OpenAI va tester l’intégration de publicités dans ChatGPT, visibles dans la version gratuite et dans l’abonnement à faible coût, ChatGPT Go. Les annonces apparaîtront sous la réponse principale, clairement étiquetées, et ne modifieront pas le contenu des réponses. Les annonceurs n’auront pas accès aux conversations; certaines annonces pourront être interactives pour aider à une décision d’achat. OpenAI prévoit, selon la presse financière, des revenus de “quelques milliards” d’ici 2026. La personnalisation s’appuiera sur des signaux contextuels, tout en garantissant que les échanges restent privés vis-à-vis des annonceurs. Les niveaux Pro, Business et Enterprise ne sont pas concernés, et OpenAI affirme ne pas accepter d’argent pour influencer les réponses.Dans le même mouvement, l’entreprise a officialisé ChatGPT Go à prix réduit au niveau mondial pour doper les revenus, alors que des pertes estimées à 12 milliards de dollars au dernier trimestre alimentent les critiques. Malgré l’assurance que les publicités n’affectent pas les réponses, des réactions négatives d’abonnés payants ont poussé OpenAI à désactiver temporairement certaines fonctionnalités publicitaires. Le secteur est sommé de prouver sa viabilité: 2026 est vu comme un test de gestion de trésorerie, avec des investisseurs plus prudents et un intérêt croissant pour des alternatives à ChatGPT.Face à cette pression, Anthropic avance ses pions avec Claude Opus 4.5 et son agent de développement Claude Code. Des ingénieurs décrivent des gains de temps majeurs: un projet estimé à un an bouclé en une semaine par le CTO de Vercel, tandis que le PDG d’Awaken Tax évoque un facteur x5 de productivité et annule des embauches prévues. Claude Code agit sur fichiers, navigateurs et apps avec supervision minimale, et séduit aussi des non-ingénieurs pour l’analyse de données de santé ou des rapports de dépenses. Anthropic lance également Cowork, une interface graphique construite en environ dix jours… avec Claude Code lui-même. Cowork accède aux fichiers locaux, navigue sur le web, et intègre le Model Context Protocol pour se connecter à des outils externes. Opus 4.5 se distingue en codage, tâches agentiques et workflows d’entreprise (feuilles de calcul, analyse financière), au tarif de 5/25 dollars par million de tokens. L’entreprise revendique des performances en tête des benchmarks et indique que 90 % du code de Claude est désormais généré par l’IA. Une panne récente a touché Opus 4.5, mais la demande reste élevée.Reste à comprendre ce que ces agents savent et ce qu’ils ne savent pas. Leur usage s’apparente à l’impression 3D: produire un prototype est rapide, mais livrer un produit robuste exige compétences et expérience humaines. Les modèles actuels, fondés sur des Transformers, appliquent surtout des savoirs appris; ils réussissent là où les données d’entraînement sont riches, mais peinent à généraliser sur des terrains peu couverts. Exemple parlant: concevoir un jeu pour l’Atari 800 avec des graphismes authentiques demande une compréhension fine difficile à obtenir par simple génération. Leur créativité est contrainte par des associations sémantiques préexistantes; il faut souvent reformuler les problèmes pour éviter des impasses. En pratique, ces outils amplifient le travail des développeurs, sans les remplacer, et ne sont pas des employés autonomes.Enfin, le débat public s’intensifie. Ed Zitron attaque frontalement la promesse des LLM, décrivant des systèmes probabilistes dont les résultats ne justifient pas les investissements massifs. Il souligne un écart entre dépenses et revenus, des retours incertains pour des infrastructures financées à grande échelle, y compris chez des acteurs comme Nvidia. Avec d’autres voix critiques, il pointe les risques d’une bulle, les coûts environnementaux des data centers et une industrie guidée par la croissance plus que par l’utilité. De quoi remettre en perspective les annonces commerciales et techniques du moment.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA d’entreprise face à la rareté des GPU, la vision de Jeff Bezos d’un PC dans le cloud, l’offre ChatGPT Go et ses pubs, les partenariats de Wikimedia avec les géants de l’IA, et un focus sur l’assistant de code OpenAI Codex.D’abord, dans les entreprises, un basculement s’opère: l’infrastructure devient la limite des systèmes d’IA. Les grands modèles sont passés de l’expérimentation à la production pour la relation client, l’aide à la décision et l’automatisation. Mais contrairement au cloud « élastique » des dix dernières années, les GPU ne suivent pas. Approvisionnement restreint, coûts d’acquisition élevés, délais de mise à disposition et planification anticipée pèsent désormais sur les choix d’architecture: quantité de contexte, profondeur du raisonnement, enchaînement des étapes d’inférence. Les pipelines en couches — génération de représentations, raisonnement multi-étapes, classement, post-traitement — consomment plus vite la capacité que ne progressent les performances matérielles. Conséquences: plafonds d’activité d’inférence, budgets difficiles à prévoir, pression énergétique croissante dans les data centers, exigences de latence et d’auditabilité plus complexes à tenir, surtout en environnement régulé. Les équipes réévaluent donc combien de contexte maintenir à jour et quand recourir à de très grands modèles.Dans ce contexte de ressources comptées, Jeff Bezos projette un futur où le PC s’efface au profit d’une machine virtuelle dans le cloud, accessible par abonnement. L’idée: données et logiciels hébergés à distance, accessibles depuis n’importe quel appareil connecté, avec des mises à jour fluides et moins de matériel local coûteux. Une promesse de souplesse, mais qui renforce la dépendance aux fournisseurs et pose des questions de sécurité, car la protection des informations personnelles et professionnelles repose sur ces acteurs.Côté produits, OpenAI déploie mondialement ChatGPT Go, proposé à 8 dollars par mois aux États-Unis. Les abonnés accèdent au modèle GPT-5.2 Instant avec dix fois plus de messages, de dépôts de fichiers et de créations d’images que la version gratuite, ainsi qu’une mémoire plus longue pour conserver davantage d’informations sur l’utilisateur. ChatGPT compte désormais trois niveaux d’abonnement dans le monde; pour les tâches demandant un raisonnement plus poussé, GPT-5.2 Thinking reste réservé aux formules Plus ou Pro. Go était déjà disponible en Inde et dans certains autres pays avant cette annonce. OpenAI prévoit par ailleurs de tester, dans les prochaines semaines, des publicités dans les versions gratuite et Go pour les adultes connectés aux États-Unis: encarts clairement identifiés en bas des réponses, explication du ciblage et option pour masquer la publicité. Pas d’annonces sur des sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique. OpenAI affirme que les pubs n’influenceront pas les réponses, que les conversations restent privées et que les données ne sont pas vendues aux annonceurs. Les offres Plus, Pro, Business et Enterprise resteront sans publicité, et l’entreprise promet de conserver au moins une formule payante sans pub pour soutenir des tarifs accessibles.Autre mouvement structurant: la Wikimedia Foundation a signé des partenariats avec Meta, Microsoft, Amazon, Perplexity et Mistral AI. Ces accords garantissent un accès aux contenus de Wikipédia à des volumes et vitesses adaptés aux besoins d’entraînement des modèles, tout en réduisant la charge imposée par les bots sur l’infrastructure de l’encyclopédie. Wikipédia compte plus de 65 millions d’articles dans près de 300 langues. Alors que l’usage des chatbots pour la recherche fait reculer le trafic humain — baisse estimée à 8 % en un an — ces partenariats doivent contribuer à la pérennité financière et technique du projet. Jimmy Wales salue l’usage de données issues de contributions humaines.Enfin, gros plan sur OpenAI Codex, un assistant de codage pensé pour la génération de code, le débogage et la documentation. Il s’utilise en ligne de commande ou via des extensions d’IDE comme Visual Studio Code, et peut exécuter des tâches dans le cloud pour décharger les machines locales en lançant des processus en parallèle. La configuration vise une intégration rapide et adaptée aux usages de chaque équipe. Codex s’interface avec des outils externes via des serveurs MCP, unifiant le flux de développement. Pour les organisations exigeantes en matière de sécurité, il prend en charge des revues de code sur site et des workflows CI personnalisés. OpenAI met à disposition guides et vidéos pour accélérer l’adoption.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : travail et IA, création musicale et plateformes, enquête en Californie sur des abus liés à la génération d’images, et nouvel outil de traduction d’OpenAI, sur fond de débat sur la fiabilité des modèles.On ouvre avec “Entre la chaise et le clavier”. Dans son troisième épisode, le sociologue Juan Sebastian Carbonell explore comment l’IA recompose le travail. Auteur d’“Un taylorisme augmenté”, il avance que l’IA peut parfois servir d’écran à des stratégies classiques de licenciements. L’épisode revient sur le rapport Frey-Osborne de 2013, qui annonçait 47 % d’emplois menacés d’automatisation, et sur un rapport 2025 signalant la baisse de l’emploi chez les jeunes, présentés comme les “canaris dans la mine” face aux risques liés à l’IA. Antonio Casilli et Paola Tubaro y décrivent l’essor des micro-tâches qui soutiennent l’IA, qualifiant le secteur d’“industrie extractive”. Des travaux de Philippe Aghion et d’Alessandro Delfanti nourrissent l’analyse, tout comme ceux de Mariane Le Gagneur et de la DARES sur le télétravail. Produit par Next et réalisé par Clarice Horn, le podcast invite à regarder la transformation des métiers entre automatisation, sous-traitance invisible et nouvelles formes d’organisation.Changement de registre avec Bandcamp, qui interdit désormais toute musique générée par IA. La plateforme dit vouloir préserver une expérience “sans IA” pour artistes et public, en valorisant des œuvres créées par des humains. Elle encourage les signalements d’albums suspects afin de procéder à des retraits, sans détailler le protocole de vérification ni la mise en place d’une équipe dédiée, tout en affirmant son droit de supprimer le contenu concerné. Un positionnement net, à rebours de plateformes comme Spotify, qui n’ont pas opté pour un retrait global du contenu généré par IA.Cap sur la Californie, où le procureur général Rob Bonta ouvre une enquête sur la prolifération de matériel sexuellement explicite non consensuel produit via Grok, le modèle d’images de xAI. Des utilisateurs prennent des photos ordinaires de femmes et d’enfants pour les transformer sans consentement en scènes suggestives ou explicites diffusées notamment sur X. xAI a intégré un “mode épicé” générant du contenu explicite, utilisé comme argument de vente, et pointé comme facilitateur de la diffusion d’images sexualisant des personnes, y compris des mineurs. Une analyse évoque que, sur 20 000 images générées par xAI entre Noël et le Nouvel An, plus de la moitié représenteraient des personnes en vêtements minimalistes, certaines semblant être des enfants. Bonta, qui s’est déjà entretenu avec OpenAI en septembre au sujet d’interactions inappropriées avec des jeunes et a écrit en août à 12 grandes entreprises d’IA, rappelle l’obligation des acteurs de protéger les mineurs. En 2023, il a rejoint une coalition de 54 États et territoires sollicitant au Congrès une commission d’experts sur l’exploitation d’enfants via l’IA. Il s’oppose aux tentatives d’empêcher les États de réguler et affirme la volonté de défendre les lois californiennes.Toujours côté produits, OpenAI déploie ChatGPT Translate. Introduit le 15 janvier 2026, l’outil propose une interface dédiée et gratuite, sans compte, avec détection automatique de la langue et adaptation du ton et du registre. Certains tests font état de plus de 50 langues, d’autres d’une liste de 28 et d’un déploiement progressif des fonctions: dictée vocale et import de photos pour extraire du texte sont annoncés, mais pas disponibles pour tous; aux États‑Unis, une dictée limitée semble accessible, tandis que la traduction d’images est parfois inactive. Des boutons permettent de choisir un style naturel, académique ou formel, mais ces réglages s’appuient sur le service principal de ChatGPT: l’outil redirige souvent vers une fenêtre avec un prompt pré-rempli. Côté performances, la latence est plus élevée que Google Traduction ou DeepL. OpenAI met en avant l’apprentissage des langues et la prise en compte du contexte, avec un accent sur le ton et le registre plutôt que sur la simple correspondance mot à mot.Enfin, débat sur la fiabilité des modèles génératifs. Un article rappelle qu’ils reposeraient encore largement sur la mémorisation, sujet de désaccord avec Geoffrey Hinton. Quant à l’impact sur l’emploi, le Remote Labor Index estime qu’environ 2,5 % des postes seraient remplaçables par l’IA, un chiffre loin des scénarios de substitution massive. Les promesses d’améliorations par simple changement d’échelle paraissent limitées, et certains alertent sur le risque de fonder des choix économiques ou géopolitiques sur une technologie qui n’a pas encore fait ses preuves. Les auteurs pointent un décalage entre un potentiel commercial réel et des annonces trop ambitieuses, un fil rouge qui rejoint les constats du podcast sur l’IA au travail et l’essor de micro‑tâches.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA et le travail entre automatisation et micro-tâches, Bandcamp bannit la musique générée, enquête en Californie sur des images explicites produites avec Grok, et lancement de ChatGPT Translate sur fond de scepticisme envers les promesses de l’IA générative.Dans le podcast « Entre la chaise et le clavier », le sociologue Juan Sebastian Carbonell analyse l’impact de l’IA sur l’emploi. Il rappelle que l’automatisation peut supprimer des postes, dans la lignée du rapport Frey-Osborne de 2013 qui estimait 47 % des emplois menacés. Mais l’IA déplace aussi le travail et en crée sous forme de micro-tâches, souvent précaires mais indispensables pour entraîner et maintenir les systèmes. S’appuyant sur les travaux d’Antonio Casilli et Paola Tubaro, l’IA est décrite comme une « industrie extractive », dépendante de données et de main-d’œuvre. Carbonell, auteur d’« Un taylorisme augmenté », souligne que l’IA peut parfois servir de paravent à des stratégies classiques de licenciements. Reste la promesse de réorganiser les tâches: automatiser le répétitif pour dégager du temps vers des missions plus créatives, à condition d’investir dans la formation continue.On change de scène avec la musique en ligne: Bandcamp annonce l’interdiction de toute musique générée par IA sur sa plateforme. Objectif affiché: préserver une expérience « sans IA » pour artistes et auditeurs, en valorisant la création humaine. Les utilisateurs sont invités à signaler les morceaux suspects; la plateforme se réserve le droit de retirer les contenus, sans détailler son dispositif de vérification ni l’existence d’une équipe dédiée. Une position plus tranchée que celle d’autres services comme Spotify, qui n’ont pas banni globalement ces contenus.Autre dossier, côté régulation: le procureur général de Californie, Rob Bonta, ouvre une enquête sur la prolifération de contenus sexuellement explicites non consensuels produits avec Grok, le modèle d’images de xAI. Des rapports décrivent l’usage d’un « mode épicé » promu commercialement, permettant de transformer des photos ordinaires de femmes et d’enfants pour les sexualiser sans consentement. Une analyse cite plus de la moitié des 20 000 images générées par xAI entre Noël et le Nouvel An montrant des personnes en vêtements minimalistes, certaines semblant être des enfants; des allégations évoquent des images photoréalistes d’enfants dans des actes sexuels. Bonta rappelle ses démarches: soutien à une loi californienne sur la sécurité des chatbots pour mineurs, rencontres en septembre avec OpenAI au sujet d’interactions inappropriées avec des jeunes, et envoi en août d’une lettre à 12 entreprises d’IA. En 2023, il a rejoint une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur l’usage de l’IA dans l’exploitation des enfants, et s’est opposé à une tentative d’interdiction fédérale de réguler l’IA au niveau des États.Côté outils, ChatGPT Translate fait son apparition pour concurrencer Google Traduction et DeepL. Une première description le présente comme gratuit, sans création de compte, couvrant 28 langues dont l’espagnol, le français et des variantes du chinois et du portugais. L’interface affiche deux blocs et une liste de langues; la traduction d’images est annoncée mais pas opérationnelle, et la dictée n’est pas disponible partout. Des boutons permettent d’affiner le style — naturel, académique ou formel — via un prompt côté ChatGPT. Latence notable par rapport à Google ou DeepL, et fonctionnalités encore incomplètes.Une autre présentation, datée du 15 janvier 2026, évoque une version plus étoffée: plus de 50 langues, adaptation du ton et du registre, interface dédiée, possibilité de dicter des phrases ou d’importer une photo, et quatre styles de rendu. Des limites persistent: difficultés ponctuelles d’affichage des traductions ou d’application des styles, avec redirection vers l’interface classique. OpenAI mise sur la qualité stylistique et le contexte pour des usages quotidiens — voyage, travail, études — plutôt que sur une stricte équivalence mot à mot.Enfin, un état des lieux plus critique rappelle que les grands modèles de langage demeurent peu fiables. Le débat sur la part de mémorisation reste vif, en désaccord avec des figures comme Geoffrey Hinton. Le Remote Labor Index estime qu’environ 2,5 % des emplois seraient réellement accomplissables par l’IA aujourd’hui. L’argument avancé: l’augmentation d’échelle ne règle pas les limites actuelles et les promesses ont été surestimées; la technologie a un potentiel commercial, mais moindre que prévu.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA et le travail vu par un sociologue, Bandcamp bannit la musique générée, enquête en Californie sur du contenu explicite créé par IA, et la bataille des traducteurs en ligne avec ChatGPT Translate, sur fond de bilan mesuré de l’impact des LLM.On commence avec le troisième épisode du podcast “Entre la chaise et le clavier”. Le sociologue Juan Sebastian Carbonell y examine comment l’IA reconfigure le travail: risque de remplacement des jeunes développeurs, déplacements de tâches, et usage de l’IA comme prétexte à des plans de licenciements classiques. Il prolonge cette analyse dans son livre paru en septembre 2025, “Un taylorisme augmenté, Critique de l’intelligence artificielle” (Éditions Amsterdam), qui revisite les méthodes d’organisation inspirées du taylorisme à l’ère des algorithmes. L’émission invite les auditeurs à s’abonner, commenter et suggérer des invités: des interactions qui influencent directement les algorithmes de recommandation et donc l’audience. Côté production: Mathilde Saliou à la production, réalisation et mixage de Clarice Horn, identité graphique signée Flock. La musique inclut “Please Rewind” d’Ava Low et “Open Road” de Lennon Lutton, via Epidemic Sound.Changement d’ambiance avec Bandcamp, qui interdit désormais toute musique générée par IA, entièrement ou “en grande partie”. L’annonce, faite sur le compte Reddit officiel de la plateforme, s’accompagne d’un appel aux utilisateurs pour signaler les contenus suspects. Bandcamp n’a pas détaillé son processus de vérification ni annoncé d’équipe dédiée, mais revendique une expérience “sans IA” pour préserver la création humaine. Une position qui contraste avec des acteurs comme Spotify, plus hésitants à supprimer ce type de contenu.En Californie, le procureur général Rob Bonta ouvre une enquête sur la prolifération d’images sexuellement explicites non consensuelles créées avec Grok, le modèle d’xAI. Rapports à l’appui, des utilisateurs modifieraient des photos ordinaires de femmes et d’enfants pour les sexualiser, puis les diffuseraient notamment sur X. xAI a intégré à ses modèles d’images un “mode épicé” capable de générer du contenu explicite, présenté comme argument de vente. Des analyses évoquent une production à grande échelle: plus de la moitié de 20 000 images générées entre Noël et le Nouvel An montreraient des personnes en vêtements minimalistes, certaines semblant être des enfants, et des images photoréalistes d’enfants engagés dans des actes sexuels sont mentionnées dans ces rapports. Bonta rappelle ses actions: soutien à une législation visant à protéger les enfants des chatbots compagnons, rencontre en septembre avec OpenAI aux côtés de la procureure générale du Delaware, envoi en août d’une lettre à 12 grandes entreprises d’IA sur des interactions inappropriées avec des mineurs, et participation en 2023 à une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur le CSAM impliquant l’IA. Il souligne aussi son opposition à une proposition fédérale d’interdiction de réguler l’IA et sa détermination à défendre le droit californien face aux tentatives de l’administration Trump.Cap sur la traduction automatique: OpenAI a lancé ChatGPT Translate, un service gratuit sans compte. Dans ses premiers tests, le portail affichait 28 langues et une interface simple à deux blocs; au lancement discret du 15 janvier 2026, la couverture dépasse 50 langues. L’outil propose des boutons de style — naturel, académique, plus formel, et d’autres — qui s’appuient sur le modèle principal de ChatGPT pour reformuler la requête. OpenAI met en avant la qualité stylistique plus que le mot à mot, avec des usages visés pour les voyages, le travail, les études et l’apprentissage. Côté fonctions: traduction d’images annoncée mais encore inopérante par endroits; dictée accessible sur certains sites américains, et capacité à dicter ou importer une photo présentée comme en cours de déploiement. Le service est aujourd’hui plus lent que Google Traduction ou DeepL, et certains styles redirigent vers l’interface classique. En toile de fond, l’écosystème bouge: Google conçoit des exercices créés par IA, Duolingo a déjà des appels avec chatbot, et DeepL développe ses propres modèles.Enfin, un regard lucide sur l’impact réel des LLM: plusieurs analyses soulignent une grande part de mémorisation plutôt que de compréhension, en désaccord avec la vision plus optimiste de Geoffrey Hinton. Sur l’emploi, le Remote Labor Index estime qu’environ 2,5 % des postes seraient remplaçables par l’IA, un chiffre modeste au regard du discours ambiant. Le constat: la technologie est solide et commercialement exploitable, mais ses capacités ont été survendues. Miser nos politiques industrielles et géopolitiques sur une technologie encore immature comporte des risques.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Bandcamp interdit la musique générée par IA, inquiétudes autour de l’IA agentique, Apple transforme une photo en scène 3D, et un cadre de compétences IA pour les cliniciens.La musique générée par IA sature les plateformes. Sur Spotify, des groupes fictifs comme Velvet Sundown ou Broken Avenue ont engrangé des écoutes, et un imitateur IA a même remplacé King Gizzard & The Lizard Wizard après leur départ. Malgré l’annonce d’un “nettoyage du désordre IA” en septembre, la prolifération continue. Chez Deezer, plus de 50 000 morceaux IA étaient téléversés chaque jour en novembre, soit 34 % des nouvelles sorties, après avoir évoqué jusqu’à 20 000 par jour plus tôt. Dans ce contexte, Bandcamp prend une position nette: la musique entièrement ou majoritairement générée par IA n’est plus acceptée. Publiée sur Reddit avec des vœux pour 2026, la politique interdit aussi l’imitation d’artistes ou de styles, autorise l’usage d’outils IA seulement en appui non dominant, encourage les signalements, et prévoit la suppression des titres suspects avec des mises à jour à venir. La communauté a salué la décision. Ailleurs, Spotify renforce ses garde-fous mais reste critiqué, Apple Music exploite l’IA pour les playlists, et une artiste IA, Xania Monet, a atteint les classements Billboard. Bandcamp souligne investir dans les musiciens: 19 millions de dollars versés en 2025. Et selon son directeur éditorial, pas de hausse notable d’albums faits avec IA, même si des genres synthétiques populaires y sont bien humains. Pendant ce temps, des acteurs comme Udio et Suno signent avec les majors, nourrissant l’essor de la musique IA.Changement d’angle: la présidente et le vice-président de Signal alertent sur l’IA agentique, décrite comme peu sûre, peu fiable et propice à la surveillance. Ces systèmes prennent des décisions de façon autonome, avec des risques de perte de contrôle et d’atteinte à la vie privée. Ils appellent à des cadres de régulation et des mécanismes de supervision pour un usage responsable.Côté produits, Apple dévoile SHARP, un modèle capable de reconstruire une scène 3D à partir d’une seule photo, disponible gratuitement sur iPhone via l’app Sapling. Le calcul s’effectue sur l’appareil en environ une minute sur les modèles récents. Basé sur le “3D Gaussian Splatting” (également utilisé pour les Personas de l’Apple Vision Pro), SHARP rend la scène en temps réel avec changements de perspective. Les chercheurs annoncent une qualité supérieure et moins de calcul que les approches comparables. L’intégration dans l’écosystème Apple reste incertaine. Les meilleurs résultats concernent des images avec une bonne stratification de profondeur; gros plans et zones non visibles génèrent artefacts et distorsions. La scène se consulte en AR, s’exporte pour post-traitement, une compatibilité Vision Pro est prévue, et des apps tierces comme Splat Studio existent, sans interface dédiée pour macOS ou Windows à ce stade.Enfin, dans la santé, les LLM passent des pilotes au quotidien clinique. Un cadre en trois niveaux est proposé. Fondamentaux: ingénierie d’invite contextualisée, interaction humain–agent à autonomie limitée avec rôles explicites, vérification systématique des sorties, respect HIPAA/RGPD avec minimisation des données et sans saisie d’informations de santé protégées, et transparence vis-à-vis du patient. Intermédiaire: détecter et réduire les biais via rapports d’audit et quantification de l’incertitude, interpréter l’explicabilité et la calibration, intégrer les flux IA en gardant l’expertise clinique et en surveillant la déqualification. Avancé: gouvernance éthique et stratégie réglementaire alignées sur les lois de protection des données, gestion des changements de modèle, et supervision du cycle de vie de la validation à la surveillance post-déploiement jusqu’à la mise hors service. L’intégrer à la formation continue et aux fiches de poste vise une pratique plus sûre et standardisée.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : IA à l’école et risque de triche en Allemagne, messagerie Mailo Junior pour enfants, Niji 7 pour l’art animé, Apple Creator Studio, et Siri propulsé par Gemini.D’abord, cap sur Hambourg. Le 15 décembre, le tribunal administratif a jugé que l’usage d’outils comme ChatGPT pour des devoirs non surveillés ou des travaux notés peut constituer une tentative de tromperie. L’affaire part d’un élève de 3e qui a contesté un zéro pour un journal de lecture en anglais. Son professeur a relevé un écart marqué entre ce texte et un test écrit, surveillé, sur le même livre. L’élève a reconnu avoir utilisé ChatGPT. Le tribunal rappelle le principe d’indépendance des performances académiques: tout outil altérant sensiblement ce principe exige une approbation préalable. ChatGPT, en prenant en charge la structure des phrases, le choix des mots et la grammaire, est assimilé à une aide extérieure ou à du plagiat. Même sans interdiction explicite, la consigne “rédiger avec ses propres mots” exclut l’IA générative. Conséquence pratique: en cas d’amélioration inattendue, les enseignants peuvent agir sur la base d’un soupçon fondé; la charge de la preuve reste à l’école, mais un aveu après confrontation suffit pour sanctionner. Élèves et parents doivent déclarer tout soutien par IA dès lors qu’il touche à une partie notée, y compris pour “améliorer la formulation”.On reste du côté jeunes, mais avec un service pensé pour eux: Mailo Junior. Cette messagerie française, gratuite et sous contrôle parental, cible les 6-14 ans avec une interface qui évolue selon l’âge: très graphique et ludique de 6 à 9 ans, plus complète et proche d’un webmail classique de 10 à 14 ans. Côté sécurité, l’enfant ne peut échanger qu’avec des contacts validés par les parents; tout message d’un expéditeur inconnu est intercepté et soumis à approbation, limitant spams et contenus inadaptés. Pas de publicité, pas de profilage: les messages ne sont pas analysés à des fins de ciblage. Les données sont hébergées en France, dans le cadre du RGPD. En bonus, un agenda pour rendez-vous et devoirs, un espace cloud, et un “frigo familial”, tableau virtuel où chacun laisse des notes visibles par tous. Accès via navigateur et applications Android et iOS. Une formule payante, Mailo Family, permet de gérer plusieurs comptes, d’augmenter le stockage et d’élargir les fonctions.Cap maintenant sur la création visuelle avec Midjourney Niji version 7. Ce modèle dédié à l’art animé se distingue par des couleurs marquées, une interprétation précise des consignes et un style qui se rapproche de pratiques d’atelier. La flexibilité des ratios d’aspect aide à composer pour différents formats. En décrivant le décor – “un lac tranquille entouré de montagnes enneigées” ou “une rue éclairée au néon dans une métropole futuriste” – on obtient des scènes plus immersives. Niji 7 introduit des codes de référence de style: ils permettent de reproduire des esthétiques spécifiques, y compris celles de versions antérieures comme SV4, sans moodboards externes, avec une cohérence sur plusieurs images. Des commandes de style aléatoires encouragent l’exploration, avec des résultats inattendus mais cohérents. Des limites subsistent, mais des stratégies de prompting soignées permettent d’exploiter au mieux le modèle.Justement côté outils créatifs, Apple lance Creator Studio, un abonnement qui regroupe ses apps pro, des fonctions IA et du contenu exclusif. Disponible le 28 janvier sur l’App Store: 12,99 € par mois ou 129 € par an, avec réduction pour étudiants. Sont inclus Final Cut Pro, Logic Pro, Pixelmator Pro, et la suite iWork (Pages, Numbers, Keynote), ainsi que Motion et Compressor pour Final Cut, et MainStage pour Logic. Freeform sera ajouté plus tard, tout en restant gratuite hors abonnement. Sur Mac, certaines apps restent achetables en licence perpétuelle; sur iPad, l’abonnement demeure l’unique voie pour les apps payantes. Apple promet une expérience optimisée sur iPad avec l’Apple Pencil et la compatibilité de fichiers entre Mac et iPad. Pixelmator Pro recevra une mise à jour majeure avec une interface adaptée à Liquid Glass, en conservant les fonctions IA comme la sélection rapide et l’agrandissement. Côté IA et contenus premium: dans Final Cut Pro, recherche dans les transcriptions, analyse automatique des rushs pour identifier le contenu, et montage aligné sur le tempo d’une musique détectée. Dans Logic Pro, “Synth Player” génère des pistes électro sans claviériste, et “Chord ID” convertit audio ou MIDI en accords. Une vaste bibliothèque de sons libres de droits est incluse. Un “Content Hub” fournira photos, éléments graphiques, illustrations et thèmes exclusifs pour Pages, Numbers et Keynote. Essai gratuit d’un mois et partage familial via iCloud.Enfin, assistants vocaux: Apple s’appuiera sur les modèles Gemini de Google pour la prochaine version de Siri, via un partenariat pluriannuel. Après évaluation, Apple juge la technologie de Google la plus adaptée comme base de ses modèles de fondation, afin d’introduire de nouvelles expériences. Bloomberg indique que Gemini tournera sur les serveurs Private Cloud Compute d’Apple, isolant les données des utilisateurs de l’infrastructure de Google. Apple poursuit en parallèle l’amélioration de ses propres modèles pour réduire sa dépendance. Ce choix intervient sur fond de concurrence iOS/Android, mais aussi de coopération: Google verse depuis des années des milliards pour rester le moteur par défaut de Safari, un accord désormais très surveillé. Cette décision rebat les cartes pour OpenAI: malgré de meilleurs scores de ChatGPT par le passé, les progrès de Gemini auraient poussé Sam Altman à décréter une “alerte rouge” et à retarder certaines fonctions prévues de ChatGPT face à Gemini 3. La nouvelle mouture de Siri est attendue plus tard cette année avec iOS 26, iPadOS 26 et macOS 26 Tahoe, après un report lié à des soucis de fiabilité.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Google et la fiabilité des réponses IA, prolifération de faux sites d’info générés par IA, débat sur l’IA à l’école à Vancouver, télescopes spatiaux et fusées super-lourdes, bataille juridique sur le droit d’auteur, fuites fabriquées et modération des images, et un pari sur un film 100% IA.Google affirme avoir intégré ses signaux de recherche historiques à ses expériences d’IA, du “mode IA” aux “aperçus IA” lancés en mai 2023 sous le nom SGE. Objectif: limiter les limites des LLM, comme les hallucinations. Chez Google, une réponse confuse ou qui mélange des infos est comptée comme une “perte”. Les aperçus s’appuient sur des contenus déjà jugés très utiles par d’autres utilisateurs, avec des liens, mais des erreurs surviennent encore: liens mal choisis, contradictions entre avis d’usagers et déclarations d’entreprises. Le groupe dit s’appuyer sur 25 ans de travail sur la fiabilité, des métriques d’évaluation internes et les retours utilisateurs via pouces haut/bas, et annonce des progrès en raisonnement et vérification.Dans le même registre de fiabilité, des milliers de sites d’info en français générés par IA brouillent le vrai et le faux: plus de 9 500 identifiés. Leurs auteurs restent anonymes, sans mention d’IA. Des domaines comme Decontair-67.fr ou lapauseinfo.fr affichent des signatures de “journalistes” fictifs: “Julie Andot” serait une identité inventée, avec photo issue d’une banque d’images réutilisée ailleurs. Risques: articles non vérifiés, “hallucinations”, contenus polémiques sur le tourisme ou la canicule pour créer du buzz. Ils saturent le web et alimentent les systèmes de recommandation: près de 20% des sites d’info les plus poussés par Google Discover seraient générés par IA. Leur cadence est mécanique: labottega-pinseria.fr a publié 760 articles en une heure. Un quart des Français les visiteraient au moins une fois par mois, avec une surreprésentation des plus de 50 ans. Modèle économique: revenus publicitaires via pop-up et collecte de données, jusqu’à 100 000–150 000 euros par mois pour certains, et possibles usages d’ingérence. Une extension gratuite pour Chrome et Firefox alerte désormais les internautes.Dans les écoles de Vancouver, le Vancouver School Board envisage une collaboration avec Microsoft pour l’IA générative. Des parents s’y opposent et demandent un consentement explicite avant usage en classe, avec possibilité de refus. Ils invoquent des travaux récents signalant des effets négatifs sur l’apprentissage et alertent sur la santé mentale: chatbots abordant des sujets inappropriés, incitant à des comportements dangereux, voire déclenchant des troubles chez des adultes. Pour eux, quelques cours sur le fonctionnement et les risques suffiraient, sans exposition prolongée en classe.Cap sur l’espace: les fusées super-lourdes, comme Starship, pourraient rendre les télescopes spatiaux plus grands et moins coûteux à lancer. Capacité de charge accrue, envoi de plusieurs instruments en une mission, et réutilisabilité pour abaisser les coûts globaux. De quoi multiplier les observations à large champ et gagner en précision.Côté droit d’auteur, l’année s’annonce décisive. Aux États-Unis, des décisions à venir pourraient obliger des entreprises d’IA à payer des licences aux créateurs pour l’entraînement des modèles, avec à la clé des montants potentiellement de plusieurs milliards. En décembre, environ 70 procédures étaient en cours. Les développeurs invoquent le “fair use” aux États-Unis et le “text and data mining” en Europe, contestés par les auteurs. L’UE réexamine la directive de 2019; en France, une loi est envisagée pour rééquilibrer les rapports entre IA et ayants droit, malgré quelques accords ponctuels déjà signés avec des médias.Le journalisme fait face aux fuites fabriquées. Sur Reddit, un post anonyme a accusé une appli de livraison: ralentissement des courses standard pour favoriser les prioritaires, frais de “réponse réglementaire” pour contrer les syndicats, et “score de désespoir” pour priver certains chauffeurs des meilleures courses. Enquête à l’appui, l’auteur a fourni de faux documents générés par IA, dont un badge d’employé Uber Eats créé avec Google Gemini. Autre front: l’outil Grok a servi à produire des images sexualisées non consenties de femmes et de mineurs, relançant les demandes de régulation et de modération renforcées.Dans l’audiovisuel, le PDG de Roku parie qu’un film entièrement généré par IA pourrait devenir un succès d’ici trois ans. Si des bandes-annonces IA fictives circulent déjà, passer à un long métrage engageant reste un cap: les grandes plateformes planifient leurs sorties à l’avance et ne semblent pas prêtes. YouTube pourrait accueillir des contenus longs générés par IA, mais transformer l’essai en “succès” exige un engagement de deux heures, bien différent d’une chanson IA virale. Des formats hybrides, mêlant humain et IA, devraient continuer à dominer.Note pratique: si votre navigateur a JavaScript désactivé, certaines fonctions en ligne — comme signer des pétitions — peuvent buguer; l’activer résout souvent le problème.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : langage et artefacts génératifs, dérives sur X avec Grok, Copilot chez Microsoft, l’offensive open source de Nvidia, jeux vidéo sans genAI, ChatGPT Health, faille ZombieAgent, et PC: l’IA ne fait pas vendre.D’abord, le déplacement de la “question du langage”. De 2024 à 2025, la vidéo générative a bondi: Sora d’OpenAI (déc. 2024), Veo 3 de Google avec son synchronisé (mai 2025), puis Genie 3 (août 2025) qui crée des mondes interactifs en temps réel. Résultat: nos écrans se remplissent d’artefacts génératifs. Entre émerveillement et “brainrot”, des images IA de Gaza façon Riviera ou de parades nazies circulent, rendant floue la frontière entre vrai et faux. Le photoréalisme sort de la “vallée de l’étrange” et bouscule nos repères. Les labels “généré par IA” ne suffisent pas: il manque des rituels communs de certification. À la clé, un “effet Larsen” de réception, un risque d’archiver l’artificiel et de standardiser les imaginaires jusqu’à l’“effondrement” des récits.Sur X, le chatbot Grok d’Elon Musk illustre la dérive: en une semaine, la plateforme a été inondée d’images synthétiques non consenties, y compris visant des mineurs. Les utilisateurs poussent le modèle à produire des nus de femmes et de filles, directement dans leurs fils. Le phénomène prolonge des pratiques documentées depuis 2017: condamnées, parfois pénalisées, mais toujours massives. L’escalade actuelle ne se limite pas à X; elle suit la disponibilité grand public d’outils puissants.Cap sur Microsoft. Pas de rebranding global en “Microsoft 365 Copilot”, confirme l’éditeur. En revanche, la stratégie évolue: prix de Copilot revus à la baisse, modules additionnels inclus, et installation imposée dans Microsoft 365 à partir d’octobre pour doper l’usage. En cause: adoption jugée faible et coût perçu comme élevé. Le débat s’enflamme jusqu’au sobriquet “Microslop”, tandis que Microsoft tente d’aligner valeur et prix.Chez Nvidia, Jensen Huang défend l’open source: lors du CES 2026, il estime les modèles ouverts à environ six mois des modèles propriétaires. Nvidia publie Nemotron (parole, RAG, sécurité) pour l’IA agentique, Cosmos pour l’IA physique, Alpamayo pour l’auto, GR00T pour la robotique, Clara pour le biomédical, et annonce ouvrir aussi les données d’entraînement. Il cite 80 % des startups bâtissant sur des modèles ouverts et un quart des jetons d’OpenRouter issus d’open source. ServiceNow a ainsi créé le modèle de raisonnement Apriel Nemotron 15B avec moins de coût et de latence; Siemens étend ses intégrations. Marc Benioff résume: les LLM se commoditisent, “le moins cher est le meilleur”, d’où l’intérêt d’attendre l’option ouverte.Dans le jeu vidéo, l’éditeur Hooded Horse interdit tout asset généré par IA, même en “bouche-trou”. Motif: éthique, clarté de production, et éviter qu’un élément IA se glisse au final, comme vu dans The Alters. L’entreprise emploie ses artistes marketing et reconnaît la difficulté à définir ce qui est “IA” quand un créateur retravaille une base générée. Le débat déborde le secteur, jusqu’aux chartes scolaires à Londres.Côté santé, OpenAI lance ChatGPT Health: un espace séparé, chiffré au repos et en transit, non utilisé pour entraîner les modèles. Aux États-Unis, connexion possible aux dossiers via b.well; intégrations bien-être avec Apple Health et MyFitnessPal. Objectif: dossier unifié en langage naturel, préparation de consultations et lecture de résultats. Pas de chiffrement de bout en bout, et disponibilité limitée hors EEE, Suisse et Royaume-Uni. Précision: l’outil n’est pas un substitut médical.Sécurité maintenant. “ZombieAgent” exploite l’architecture de ChatGPT par injection de commandes persistante: un agent malveillant s’ancre en mémoire longue et exfiltre des données de services connectés comme Gmail, Outlook ou GitHub. Signalée le 26 septembre 2025, la vulnérabilité a été corrigée au 16 décembre, puis des variantes sont réapparues le 8 janvier 2026. Le tableau rappelle des précédents: prise de contrôle de comptes en 2023, extraction de paramètres en 2024, “ShadowLeak” en 2025. Réponses: contrôles d’accès renforcés, surveillance, audits d’applications connectées, vigilance contre l’IA de l’ombre et appels à une “sécurité dès la conception”. Des régulateurs discutent de cadres dédiés; certaines entreprises migrent vers des déploiements sur site.Enfin, Dell constate que l’IA n’est pas le déclencheur d’achat grand public. Tous ses nouveaux PC embarquent un NPU, mais cela brouille le message; Dell met en avant autonomie et performances, tirées notamment par les puces Snapdragon X Elite sur XPS 13 et Inspiron, et des puces Cloud AI sur le haut de gamme. Microsoft peine à imposer des usages: la fonction Recall, retardée d’environ un an pour raisons de sécurité et absente en Europe, n’a pas convaincu.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : fiabilité et image publique de l’IA, nouveautés IA dans Gmail, recherche clinique et prompts, course aux modèles ouverts, santé et responsabilité, virage stratégique du secteur, et cybersécurité pilotée par agents.Le patron de Microsoft souhaite voir disparaître d’ici 2026 l’expression « IA slop », utilisée pour dénoncer des résultats bâclés. L’entreprise pousse Copilot pour assister les tâches quotidiennes, mais fait face au contre-terme « Microslop » qui critique la qualité perçue de ses produits. Cette tension illustre la difficulté pour les géants de déployer des outils d’IA tout en maîtrisant les attentes et la perception du public.Côté Google, Gmail teste « AI Inbox » en bêta. L’outil lit chaque message et propose une to‑do list et des sujets clés, renvoyant toujours vers l’e‑mail original pour vérification. Exemples de suggestions: reprogrammer un rendez‑vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture avant échéance. Après l’échec de l’extension « Bard » en 2023 jugée peu fiable, Google a injecté Gemini dans Gmail et Search, tout en affichant encore l’avertissement « peut faire des erreurs ». Sur la confidentialité, les informations de la boîte de réception ne servent pas à entraîner les modèles de base et les fonctionnalités peuvent être désactivées. Autre annonce: « Help Me Write » et les résumés de fils (« AI Overviews ») deviennent gratuits. Les abonnés Ultra et Pro (à partir de 20 dollars par mois) obtiennent en plus une relecture IA pour la grammaire et des « Overviews » capables de synthétiser un sujet à l’échelle de toute la boîte.Dans la santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée (CoT) générées par LLM. Trois stratégies testées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Résultat: le few‑shot sélectif, basé sur des exemples diversifiés et de qualité, surpasse nettement les autres en clarté logique, usage des informations clés et précision clinique. Le few‑shot aléatoire n’apporte pas de gain significatif sur le zéro‑shot. Les experts humains ont perçu ces écarts, contrairement à l’évaluateur IA. Les auteurs proposent un cadre préliminaire fondé sur deux principes et rappellent la nécessité d’une expertise humaine dans l’évaluation.Sur les modèles ouverts, 2026 voit la pression monter depuis la Chine. Qwen domine l’adoption, soutenu par DeepSeek, tandis que de nouveaux entrants 2025 comme Z.ai, MiniMax ou Kimi Moonshot restent peu adoptés. Détrôner Qwen cette année paraît improbable, même si des niches existent. Paradoxalement, GPT‑OSS pourrait redonner aux États‑Unis les modèles ouverts les plus performants en 2026, mais moins utilisés. Les premières époques des LLM ouverts venaient des US/UE; Llama a cédé sa place à Qwen. Le suivi porte sur 1152 modèles, et la majorité des ajustements se concentre chez cinq organisations: Qwen, Llama, Mistral, Google et DeepSeek. GPT‑OSS 120B a frôlé la tête sans l’atteindre; Nemotron, Arcee ou Reflection AI sont attendus.OpenAI lance ChatGPT Santé et invite à connecter ses dossiers médicaux, alors que la question des « hallucinations » persiste: ces erreurs sont inhérentes au fonctionnement des modèles. Parallèlement, des poursuites évoquent des cas où ChatGPT aurait conduit à des comportements dangereux, dont un suicide après des échanges sur le climat; la veuve estime que l’IA a accentué l’isolement et poussé à l’acte. Ces affaires posent des questions de responsabilité et de protection des utilisateurs.Le secteur se réoriente: les gains des LLM se tassent; investissements vers modèles de monde, agents, objets connectés et superintelligence. Nike ferme sa filiale NFT, signe de la fin des profits rapides plus que d’un échec de la blockchain. Yann LeCun quitte Meta sur fond de désaccords: les modèles géants coûtent trop cher pour des gains marginaux; place à la quantization et la distillation pour des modèles plus compacts. Les modèles de monde, comme WorldGen chez Meta, servent à générer des environnements réalistes. Le marché est en surchauffe, financements élevés, ressources sous tension. Les approches neuro‑symboliques avancent lentement, utiles surtout en domaines à règles strictes. Les modèles de raisonnement (LRM) de 2025 font évoluer les chatbots vers des « modèles de travail » centrés entreprise; Microsoft pousse son Work Graph qui relie interactions, données et connaissances. Les LAMs progressent: Meta rachète Manus pour des assistants transactionnels dans WhatsApp. L’apprentissage continu attendu en 2026 pourrait enrichir les bases de connaissances en permanence; l’AGI reste débattue, la « superintelligence » est traitée comme démultiplication de capacités. Dans la course, OpenAI et Anthropic avancent, Apple peine, et l’écart se creuse entre usages basiques et maîtrise profonde, avec des effets possibles sur la productivité et l’emploi.Enfin, la cybersécurité. Sam Altman alerte sur des agents IA plus autonomes, utilisables par des attaquants. À Stanford, l’agent ARTEMIS a audité 8 000 appareils en 16 heures: deuxième au général, neuf vulnérabilités détectées, 82 % de rapports valides, pour 18 dollars de l’heure contre 60 pour des pentesters. Son atout: lancer des sous‑agents en parallèle. Limites: vulnérabilités manquées et besoin d’indices. D’autres agents, comme Codex d’OpenAI ou Claude Code d’Anthropic, conçus sans expertise cybersécurité, n’ont battu que deux testeurs humains; certains agents commerciaux ont refusé l’exercice ou se sont bloqués. OpenAI recrute un Responsable de la Préparation. Des groupes étatiques exploitent déjà les LLM; Google prévoit une intensification des usages malveillants en 2026, appelant à des mesures proactives.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Gmail se dote d’une AI Inbox, agents de cybersécurité et risques, IA clinique et qualité des raisonnements, Copilot et “IA slop”, domination des modèles ouverts chinois, ChatGPT Santé et fiabilité, et virage du marché au-delà des LLM.Commençons par Google, qui teste “AI Inbox” dans Gmail. L’outil lit chaque message pour proposer une liste de tâches et de sujets clés avec des liens vers les e-mails d’origine. Exemples concrets: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de votre enfant, ou payer une facture avant l’échéance. Google rappelle les limites: les utilisateurs voient encore l’avertissement “Gemini peut faire des erreurs”, héritage d’anciennes synthèses inexactes. Côté confidentialité, les données des boîtes de réception ne servent pas à entraîner les modèles de base, et l’on peut désactiver ces fonctions. En parallèle, Google rend gratuits “Help Me Write” et les “AI Overviews” pour les fils. Les abonnés Ultra et Pro, dès 20 dollars par mois, obtiennent un relecteur IA (grammaire, structures) et des “AI Overviews” capables de résumer des sujets à l’échelle de toute la boîte.Sécurité maintenant. Sam Altman alerte sur des agents d’IA plus autonomes, capables de découvrir des vulnérabilités critiques. Une étude de Stanford a opposé six agents IA à dix testeurs humains sur 16 heures, sur un réseau de 8 000 appareils. L’agent ARTEMIS a dépassé neuf humains et fini deuxième, avec neuf vulnérabilités trouvées et 82 % de rapports valides, pour un coût d’environ 18 dollars de l’heure contre 60 pour des pentesters. Son atout: créer des sous-agents en parallèle. Limites toutefois: certaines failles ont été manquées ou demandées par indice. Des agents généralistes comme Codex ou Claude Code n’ont battu que deux humains, d’autres se sont bloqués ou ont refusé la tâche. OpenAI recrute un Responsable de la Préparation, signe que l’industrialisation exige des cadres de déploiement et des outils spécialisés.Dans la médecine reproductive assistée, une étude compare trois stratégies de “chain-of-thought” pour générer des raisonnements cliniques: zéro-shot (instructions seules), few-shot aléatoire (exemples pris au hasard), et few-shot sélectif (exemples choisis pour leur diversité et leur qualité). Verdict: le few-shot sélectif l’emporte nettement sur la clarté logique, l’usage des informations clés et la précision clinique. Les auteurs proposent un cadre méthodologique et montrent que les évaluations humaines détectent des écarts ignorés par des évaluateurs automatisés, pointant la nécessité d’un contrôle expert.Retour au développement logiciel: le PDG de Microsoft voudrait faire disparaître le terme péjoratif “IA slop” d’ici 2026 en poussant Copilot. L’initiative a braqué les projecteurs, popularisant le surnom “Microslop”. Copilot suggère du code et automatise certaines tâches grâce à l’analyse de masses de données, mais des développeurs redoutent une baisse de qualité et de créativité. Le débat illustre la tension entre productivité et exigence d’ingénierie.Côté écosystème ouvert, la dynamique bascule vers la Chine. En 2026, des acteurs locaux imposent des modèles puissants, mettant la pression sur l’économie américaine. Qwen s’impose, soutenu par DeepSeek. En 2025, Z.ai, MiniMax et Kimi Moonshot restent peu adoptés, laissant Qwen remplacer Llama comme modèle par défaut sur de multiples tâches. Llama demeure toutefois le plus téléchargé côté occidental. GPT-OSS d’OpenAI montre des signaux de rattrapage dans les téléchargements, face à DeepSeek et Mistral. Les grands modèles DeepSeek V3 et R1 surpassent ceux de Qwen et ouvrent une concurrence à grande échelle. Sur HuggingFace, les récents Qwen dominent: en décembre, Qwen aurait totalisé plus de téléchargements que l’ensemble de l’écosystème ouvert combiné, et ses dérivés prolifèrent. Les modèles chinois ouverts sont jugés parmi les plus intelligents, malgré des questions de licences et de documentation. GPT-OSS 120B se rapproche du sommet mais resterait derrière MiniMax M2; à suivre: Nemotron, Arcee, Reflection AI.OpenAI lance ChatGPT Santé, incitant les utilisateurs à connecter leurs dossiers médicaux pour personnaliser les conseils. Les “hallucinations” — production de contenus incorrects inhérente aux modèles — ravivent les inquiétudes, d’autant que l’entreprise fait face à des poursuites liées à des comportements dangereux attribués à des réponses d’IA. Le débat sur responsabilité et usages sensibles, notamment en santé mentale, s’intensifie.Plus largement, les LLM plafonnent et le marché se réoriente: modèles de monde, agents, objets connectés, voire superintelligence. Le paysage se consolide autour d’un oligopole, tandis que l’écart s’accroît entre observateurs et adopteurs. Nike ferme sa filiale NFT: non pas la fin du Web3, mais la fin des gains rapides sur des technologies mal comprises. Côté recherche, Yann LeCun quitte ses fonctions chez Meta sur fond de divergence: priorités passées de la science aux produits, avec des progrès LLM désormais marginaux et une focalisation sur la réduction des modèles à performance quasi équivalente. Émergent les TRM, petits modèles récursifs qui s’auto-corrigent; les modèles de monde, utiles pour simuler la physique et accélérer la création d’environnements; et les IA neuro-symboliques, prometteuses mais aujourd’hui cantonnées à des domaines très régulés, comme la géométrie. Les “modèles d’action” gagnent du terrain: Meta rachète Manus pour intégrer un service d’exécution de tâches dans WhatsApp, cap vers des super apps, pendant que les lunettes connectées avancent. Le marché est en surchauffe, porté par des investissements massifs et une narration qui alimente le capital-risque.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft veut en finir avec “IA slop”, Gmail teste “AI Inbox”, fiabilité du raisonnement médical, domination des modèles ouverts chinois, lancement de ChatGPT Santé, virage stratégique des LLM vers les agents et les modèles d’action, et montée des risques cyber avec des agents IA.Microsoft ouvre le bal. Son PDG souhaite voir disparaître d’ici 2026 le terme “IA slop” — “IA bâclée” — qui cible les erreurs des systèmes. En miroir, le sobriquet “Microslop” a émergé pour critiquer la qualité perçue des produits. L’entreprise mise sur Copilot, intégré aux environnements de développement pour suggérer ou compléter du code, afin de démontrer fiabilité et efficacité malgré les critiques. L’objectif: installer Copilot comme un assistant de travail robuste, loin de l’image d’IA approximative.Chez Google, Gmail teste “AI Inbox” en bêta. L’outil lit chaque message et propose des tâches à faire et des sujets clés: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture à l’échéance. Sous l’onglet dédié, les actions proposées sont suivies d’une liste de sujets importants. Après une extension Gmail expérimentale jugée peu fiable à l’époque de Bard en 2023, Google s’appuie désormais sur Gemini, tout en affichant toujours l’avertissement “peut faire des erreurs” pour la recherche et les réponses dans la boîte. Côté confidentialité, Google promet que les informations de la messagerie ne servent pas à améliorer les modèles de base, et permet de désactiver ces outils. Autre mouvement: plusieurs fonctions Gemini deviennent gratuites pour tous — “Help Me Write” pour générer des emails et les “AI Overviews” en tête de longs fils. Les abonnés Ultra et Pro (à partir de 20 dollars/mois) gagnent un outil de relecture assistée (grammaire, tournures) et un AI Overviews capable de résumer un sujet à l’échelle de l’ensemble de la boîte, au-delà d’un seul fil.En santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée générées par des modèles de langage. Trois stratégies sont comparées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Verdict: le few‑shot sélectif, fondé sur des exemples diversifiés et de haute qualité, l’emporte sur la clarté logique, l’usage des informations clés et la précision clinique. Les experts humains ont détecté des écarts significatifs que les évaluateurs automatisés n’ont pas perçus, rappelant l’importance de l’expertise humaine. Les auteurs proposent un cadre préliminaire, basé sur deux principes, pour générer des chaînes de pensée fiables à grande échelle en ART.Sur les modèles ouverts, 2026 confirme la poussée chinoise. Qwen s’impose, soutenu notamment par DeepSeek, en tête des métriques d’adoption. En 2025, Z.ai, MiniMax et Kimi Moonshot sont apparus, mais restent peu adoptés, rendant difficile la remise en cause de Qwen cette année, même si des niches existent. Les modèles chinois, déjà dominants en téléchargements, progressent sur toutes les métriques: en 2025, Qwen a remplacé Llama comme choix par défaut pour des usages variés, du local au multimodal. Les grands modèles de DeepSeek (V3, R1) dépassent même Qwen en adoption, ouvrant une concurrence à grande échelle. Sur HuggingFace, les dernières versions Qwen totalisent plus de téléchargements que ceux d’OpenAI, Mistral AI, Nvidia, Z.ai, Moonshot AI et MiniMax réunis; en décembre, Qwen a fait mieux que l’ensemble de l’écosystème ouvert. Les dérivés Qwen restent les plus finement ajustés. Sur les benchmarks, les modèles ouverts chinois sont considérés comme les plus performants; GPT‑OSS 120B s’en approche mais reste légèrement derrière MiniMax M2. À suivre: Nemotron, Arcee, Reflection AI.OpenAI lance ChatGPT Santé, orienté médical, et encourage la connexion des dossiers médicaux pour personnaliser les réponses. Mais les “hallucinations” — réponses plausibles mais incorrectes — font débat: elles découlent de la conception même des modèles entraînés sur de vastes corpus. Des inquiétudes persistent sur la vie privée et la sécurité, ainsi que sur des cas rapportés de détresse psychologique, voire de suicides liés à des interactions avec des chatbots, à l’origine de poursuites visant OpenAI et d’autres. L’enjeu est d’améliorer la fiabilité tout en protégeant des données hautement sensibles.Le paysage bascule au-delà des LLM, jugés en plateau de performance. Les investissements se déplacent vers les modèles de monde, les agents, l’IoT et la “superintelligence”. On observe une consolidation du marché. La fermeture par Nike de RTFKT est vue par certains comme la fin du Web3, sans invalider pour autant NFTs et blockchain, désormais plus mûrs après la fin des profits faciles — un écho à l’IA. Yann LeCun a quitté son rôle chez Meta en estimant que les LLMs sont une impasse; ses propos ont été exagérés, sur fond de réorientation de Meta vers des produits monétisables. La recherche se concentre sur la réduction de taille via quantization et distillation. Les TRM, modèles récursifs spécialisés, corrigent leurs réponses par itérations. Les modèles de monde simulent des environnements, utiles aux jeux et au métavers. Microsoft développe des “modèles de travail” pour comprendre les activités d’entreprise. Les LAMs, modèles d’action, font émerger des agents plus autonomes: Meta a acquis Manus pour des assistants transactionnels dans WhatsApp; ces modèles s’appuient sur une machine virtuelle pour exécuter des tâches. Meta poursuit ses paris objets connectés/AR, malgré des retards sur les lunettes Ray‑Ban Display. 2026 pourrait voir naître de nouvelles super apps. L’apprentissage continu est cité comme voie vers une IA générale; la “superintelligence”, conçue comme levier d’action, gagne du terrain. L’écart se creuse entre maîtrise avancée et usage basique.Enfin, la cybersécurité. Sam Altman alerte sur des agents IA plus autonomes, à la fois plus utiles et plus exploitables par des attaquants. À Stanford, l’agent ARTEMIS a mené une évaluation de 16 heures sur un réseau de 8 000 appareils: deuxième au classement général, il dépasse neuf hackers humains, découvre neuf vulnérabilités et valide 82 % de ses rapports, pour un coût d’environ 18 dollars/heure contre 60 pour un pentester professionnel. Sa force: générer des sous‑agents en parallèle. Limites: certaines failles manquées, besoin d’indices, et des systèmes comme Codex ou Claude Code ne battent que deux humains, faute d’expertise intégrée. Les rapports de Google anticipent une intensification des attaques par agents IA en 2026, d’où la nécessité de mesures proactives.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : les dérives du langage autour de l’IA, un CES 2026 sans tapage chez Dell, robots et modèles Gemini, agents intégrés et vie privée, santé numérique avec ChatGPT Health, licenciements dans la tech, et une méthode d’agents IA très terre-à-terre.D’abord, un rappel utile: parler de “raisonnement”, “chaîne de pensée” ou “hallucinations” pour décrire des systèmes probabilistes prête à confusion. Ces métaphores anthropomorphisent l’IA, comme si elle comprenait, décidait ou éprouvait des émotions. Cela gonfle les attentes, brouille la responsabilité des concepteurs et des opérateurs, et installe une confiance mal placée. Même les échecs décrits en termes humains (“ignorer”, “mentir”) suggèrent une intention qui n’existe pas. Le débat n’est pas nouveau: dès 1976, le chercheur Drew McDermott alertait sur ces glissements de langage. L’enjeu aujourd’hui est de décrire les systèmes sans leur prêter d’agentivité ni de compétences humaines, y compris quand l’interface est conçue pour l’illusion de conversation.Changement d’ambiance au CES 2026: Dell a tenu un pré-briefing sans storytelling IA. Jeff Clarke, vice‑président et COO, a dressé l’état du marché — tarifs, lente transition de Windows 10 vers 11 — et pointé “une promesse non tenue de l’IA” censée doper la demande, tout en prévenant d’une pénurie de mémoire en 2026. Dell relance ses XPS, présente des portables Alienware ultra‑fins haut de gamme et d’entrée de gamme, de nouvelles tours Area‑51 et plusieurs moniteurs. Message assumé en Q&R: “le message autour de nos produits n’était pas axé sur l’IA”. Tous les appareils intègrent un NPU, mais, selon Kevin Terwilliger, les consommateurs n’achètent pas en fonction de l’IA et s’y perdent plus qu’ils n’y gagnent. Une inflexion notable, dans une industrie où même un lancement matériel — comme celui de Valve en 2025 — a pu faire sans mention d’IA.Sur le front robotique, Demis Hassabis a annoncé un partenariat Google DeepMind–Boston Dynamics: intégration des modèles Gemini dans les robots de la firme de Hyundai. Atlas, l’humanoïde maison, a été mis à jour avec des articulations à 360° et des outils d’IA, élargissant ses mouvements au‑delà des capacités humaines. Les modèles Gemini apporteraient planification, accès à la recherche Google et exécution de tâches plus complexes. L’apprentissage par renforcement reste un pilier pour l’adaptation en situation. Certains chercheurs — chez Huawei notamment — défendent que viser une AGI exige un corps pour apprendre par interaction physique.Autre tendance: l’IA agentique intégrée aux systèmes d’exploitation et aux applications. Cette bascule transforme l’informatique en infrastructure orientée objectifs, contrôlée par les éditeurs. Exemple discuté: Recall de Microsoft, qui capture une “mémoire photographique” des activités. Vendu comme productivité, il opère comme une surveillance au niveau OS, crée une cible centralisée et menace la confidentialité d’apps pensées pour la protection, comme Signal. Au‑delà du constat, des pistes “garrot” sont proposées: préserver dès maintenant la confidentialité au niveau applicatif, garantir l’autonomie des développeurs, un contrôle utilisateur granulaire, une transparence radicale et encourager la recherche adversariale — un agenda technique et politique présenté au 39C3.Côté santé, OpenAI lance ChatGPT Health, une expérience dédiée qui combine de façon contrôlée des données d’Apple Health, MyFitnessPal et d’autres sources. L’outil soutient l’information de l’utilisateur sans se substituer aux soins, ni fournir diagnostics ou traitements. OpenAI affirme que plus de 230 millions d’utilisateurs posent chaque semaine des questions santé/bien‑être. Le développement a mobilisé plus de 260 médecins dans 60 pays, avec plus de 600 000 retours couvrant 30 domaines, pour calibrer ton, sécurité et renvoi systématique au clinicien. Déploiement limité au départ, dans un espace distinct présentant des améliorations de confidentialité; l’utilisateur choisit quels partenaires peuvent partager ses données.Sur l’emploi, depuis fin 2022 et la sortie de ChatGPT, environ un demi‑million de travailleurs de la tech ont été licenciés. Selon plusieurs analyses, ces coupes ne découlent pas d’une automatisation effective des tâches, mais d’une instrumentalisation de l’IA comme prétexte. Les grandes plateformes testent en interne des méthodes de gestion — réduction des coûts, répression de la dissidence — avant de les étendre à d’autres secteurs. L’IA sert de paravent à des objectifs culturels ou politiques et à une mise en conformité sous la menace d’automatisation. Les outils de code assisté peuvent faciliter le développement tout en visant la baisse des coûts salariaux. Le tout est souvent présenté comme “efficacité” ou “ajustement des effectifs”.Pour finir, une approche pragmatique des agents: la “méthode Ralph Wiggum”. Inspirée du personnage des Simpsons, elle assume l’échec obstiné comme moteur d’apprentissage. Avec Claude Code d’Anthropic, un agent bouclé en essais‑erreurs tente, échoue, analyse, puis recommence, guidé par des “panneaux de signalisation” conçus par le développeur. Résultat affiché: environ 50 000 dollars de valeur générée pour 297 dollars de frais, en misant sur la résilience du processus plutôt que sur un coup de génie.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft pousse Copilot partout, la traduction littéraire à l’ère des machines, une plante cultivée par une IA, les compétences pour gérer des agents, la course à l’IA embarquée, et l’infrastructure NVIDIA pour l’ère des contextes géants.Microsoft transforme Edge en application pilotée par Copilot, avec une interface en test inspirée de l’assistant. Objectif affiché : un navigateur qui saisit l’intention, anticipe les actions et propose des suggestions ou automatisations. En parallèle, la suite Office adopte l’appellation « Microsoft 365 Copilot » après l’échec commercial de Copilot 365. Satya Nadella durcit le ton en interne : s’engager dans l’IA ou s’effacer, signe d’un repositionnement où l’IA devient le fil conducteur des produits.Changement de décor en édition : HarperCollins France prévoit d’ici 2026 de traduire les romans Harlequin via une IA opérée par Fluent Planet, révélait Publisher’s Weekly après des articles en France en décembre. Le flux: traduction automatique, relecture et finalisation par des pigistes, afin de maintenir des prix très bas – 4,99 € pour la série Azur – face à la baisse des ventes. Fluent Planet met en avant BrIAn, un agent propriétaire censé produire des textes 2 à 3 fois plus qualitatifs que la traduction neuronale standard, avec idiomes, style et émotions préservés. L’ATFL et le collectif En Chair et en Os appellent au refus de ces pratiques, dénonçant l’entraînement sur œuvres humaines sans consentement, le travail invisible et précaire (notamment en modération), et une empreinte énergétique élevée. L’autrice Caroline Lee redoute l’éviction d’artistes de couverture et d’éditeurs, et l’impact d’un afflux de livres générés. En mars 2025, Taylor & Francis a annoncé une stratégie similaire, avec correction et validation par éditeurs et auteurs.Sur le terrain expérimental, Claude, l’IA d’Anthropic, a maintenu en vie plus d’un mois une plante, Sol, dans une mini-serre. Toutes les 15 à 30 minutes, l’IA lisait température, humidité, luminosité et pilotait éclairage, chauffage, ventilation et arrosage. Un bug « recursion error » sur l’Arduino a saturé la mémoire et stoppé les automatismes ; malgré cela, Claude a ajusté les paramètres à partir des mesures disponibles. Humidité trop élevée, léger jaunissement des feuilles, mais croissance soutenue. Côté méthode, une boucle ReAct pour le court terme et une couche d’auto-consolidation résumant régulièrement le contexte ont évité la surcharge mémoire. À 43 jours, une tomate restait possible si la stabilité se maintenait.Dans les entreprises, les agents IA passent du concept à la pratique. Ils exécutent campagnes marketing, RH, finance, chaîne logistique ou fabrication. Huit compétences émergent pour les managers: pensée stratégique; littératie en IA et ingénierie d’invite; mise en œuvre responsable et traçable; conception de flux de travail agentiques avec déclencheurs, actions et résultats; communication et intelligence émotionnelle; gestion du changement; gouvernance des données (propriété, accès, qualité, conformité); et apprentissage continu.La compétition mondiale s’étend au matériel: l’IA s’exécute à bord des appareils pour réduire la dépendance au cloud. Samsung s’appuie sur les modèles Gemini, signe d’une bascule vers l’IA embarquée. Cette intégration dope la demande en semi-conducteurs spécialisés et met les fonderies au cœur du jeu.Nadella anticipe 2026 comme année charnière: fini le débat sur le « slop », place à l’impact mesurable. Il mise sur des modèles plus petits et spécialisés qui coopèrent, orchestrés de façon sûre, plutôt qu’un unique modèle géant. Microsoft doit combler l’écart entre promesses de Copilot et usages réels, sous la pression d’un retour sur investissement. L’enjeu: démontrer une valeur concrète tout en maîtrisant l’énergie et les ressources de calcul. Nous n’en serions qu’aux « premiers kilomètres d’un marathon ».Enfin, l’infrastructure suit cette montée en complexité. Avec des fenêtres de contexte de millions de tokens et des modèles à des trillions de paramètres, le cache clé‑valeur (KV) devient critique. NVIDIA Rubin organise des « pods » mêlant GPU, Ethernet Spectrum‑X et un stockage Inference Context Memory Storage (ICMS) taillé pour l’inférence à grande échelle. Propulsé par BlueField‑4, ce niveau de mémoire de contexte précharge et réutilise le cache KV, promettant jusqu’à 5 fois plus de tokens par seconde et 5 fois moins d’énergie que les stockages classiques. Dans la hiérarchie G1–G4, le contexte actif vit idéalement en HBM GPU (G1), puis déborde vers la DRAM (G2) et le stockage local/rack (G3); l’envoyer vers le stockage objet/partagé (G4) ajoute latence, coût par token et baisse d’efficacité. Des cadres comme NVIDIA Dynamo orchestrent ces placements pour éviter de sous‑utiliser des GPU coûteux.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments