DiscoverMonde Numérique - Actu Tech
Monde Numérique - Actu Tech
Claim Ownership

Monde Numérique - Actu Tech

Author: Jerome Colombain

Subscribed: 1,037Played: 58,667
Share

Description


https://m.audiomeans.fr/s/S-xylotlSe


Le podcast Monde Numérique décrypte l’actualité du numérique et les enjeux des technologies.

Qui suis-je ?

Jérôme Colombain, journaliste spécialiste des technologies et de l’innovation depuis plus de 25 ans (France Info, La Chaîne Techno, Tech & Co), 3ème influenceur tech français au classement Tyto 2025.

Que propose ce podcast ?

Monde Numérique explore les grands sujets du secteur de l'innovation à travers des news, des interviews d’experts et des échanges éclairants dans un langage clair et accessible à tous les publics. Le podcast aborde les technologies et les questions éthiques, économiques et sociétales qui y sont liées.

Des rendez-vous réguliers : L'HEBDO, un magazine complet chaque samedi, et des interviews versions longues, des actus, des éditos ainsi que des reportages les autres jours de la semaine.

Indépendant et neutre, Monde Numérique propose une lecture critique mais constructive du progrès technologique et des transformations profondes que cela provoque dans nos vies, nos métiers et notre société. Loin des discours marketing, place est faite à la pédagogie, la curiosité et la réflexion. Le ton est journalistique, rigoureux et ouvert.

Au menu : intelligence artificielle, cybersécurité, data, cloud, robotique, réseaux sociaux, souveraineté numérique, environnement, innovation…

À qui s’adresse ce podcast ?

Que vous soyez professionnel du numérique, étudiant, journaliste, décideur, ou simplement curieux de comprendre les innovations qui changent le monde, ce podcast est votre rendez-vous pour prendre du recul et nourrir votre culture numérique.

Comprendre la tech pour mieux décider, mieux agir, mieux vivre avec elle !

Mots-clés : podcast tech, innovation, technologie, intelligence artificielle, IA générative, numérique, cybersécurité, data, cloud, robotique, réseaux sociaux, régulation, souveraineté numérique, transformation digitale, environnement, emploi, société, économie numérique, actualité tech.

⭐️ L'Hebdo version longue & sans pub :
https://audmns.com/nwdktWU

🌍 Site Web :
https://mondenumerique.info

🗞️ Newsletter :
https://mondenumerique.substack.com/

📹 YouTube :
https://www.youtube.com/@mondenumerique

♥️ Soutenir le podcast :
https://mondenumerique.info/don


Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

1161 Episodes
Reverse
OpenAI tancée par le gouvernement canadien : la responsable de la tuerie survenue début février avait préparé son coup avec l'aide de ChatGPT mais la compagnie américaine n'a rien dit à la police.Avec Bruno Guglielminetti (Mon Carnet https://moncarnet.com/)OpenAI face à la tragédie : quand l’IA détecte, mais n’alerte pasAprès une tuerie survenue en Colombie-Britannique, un article du Wall Street Journal relance une question explosive : que doit faire une plateforme quand un échange avec une IA laisse entrevoir une intention violente ? Selon Bruno, des conversations entre l’auteure présumée et OpenAI via ChatGPT auraient été signalées en interne, sans transmission aux autorités, déclenchant l’ire du ministre canadien de l’IA Evan Solomon. L’affaire met aussi en lumière la “veille” automatisée : détection, escalade vers des équipes de sécurité, puis arbitrage humain. Et, en toile de fond, la question qui revient sans cesse : à partir de quel seuil une entreprise doit-elle contacter la police ?Mistral accusé d’entraîner son modèle sur des œuvres protégéesEn France, c’est Mistral AI qui se retrouve dans la tourmente après une enquête de Mediapart affirmant que des contenus soumis au droit d’auteur (livres, chansons, presse) auraient servi à l’entraînement. Jérôme rappelle que la pratique du “scraping” est largement répandue dans l’industrie, mais que l’Europe n’offre pas le même cadre que les États-Unis et leur notion de “fair use”.En filigrane, une tension centrale : comment concilier innovation et respect du droit, notamment avec le AI Act ? Et surtout, quelles règles — et quelles compensations — pour permettre un développement de l’IA sans “open bar” sur les contenus culturels ?Anthropic accuse le chinois DeepSeek d'avoir pillé son LLMAnthropic accuse le modèle chinois DeepSeek d’avoir récupéré des sorties de Claude via des comptes massifs, pour entraîner ses propres modèles par “distillation”. Une pratique répandue, mais qui devient explosive lorsqu’elle se fait à grande échelle et sans autorisation. Une situation ironique puisque nombre d’acteurs, y compris Anthropic, sont accusés de maux similaires. La grosse colère de Jean-Baptiste Kempf (VLC) Une autre histoire fait du bruit : Jean-Baptiste Kempf, cofondateur de VLC / VideoLAN, publie un long message sur LinkedIn menaçant de quitter la France, après un blocage administratif touchant sa femme dans le cadre du concours d’entrée à l’ENM. L’affaire devient politique lorsque le ministre de la Justice Gérald Darmanin lui répond, avant qu’un contact direct ne semble débloquer la situation.À noter : JB Kempf était récemment l’invité de la série “Innovateurs” de Monde Numérique, à écouter ici : Jean-Baptiste Kempf : de VLC à Kyber, portrait d’un innovateur éthique.Un MacBook tactile en 2026 ? La rumeur qui s’accrocheBloomberg fait état d’un possible MacBook à écran tactile pour cette année. Toutefois, la rumeur revient régulièrement. On s’étonne que le débat existe encore tant le tactile est courant sur PC. CHAPITRES : 00:00:08 - Introduction au Québec 00:00:52 - Tragédie au Canada et l'IA 00:05:03 - Mistral dans la tourmente 00:11:22 - Jean-Baptiste Kempf en colère 00:19:13 - Réseaux sociaux québécois en focus 00:20:22 - Alternatives françaises aux logiciels américains 00:22:18 - Les modèles du monde et l'IA 00:24:12 - Conclusion et prochaines rencontres Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Ce mois-ci, le Grand Débrief explore l'impact de l'intelligence artificielle sur la création vidéo, le cinéma, la musique et le marché du travail. Alors que Seedance affole Hollywood, que le “vibe coding” bouscule les développeurs, les agents autonomes font planer un nouveau risque : celui d’une IA qui agit… On évoque les avancées technologiques, les enjeux éthiques, et des opportunités pour les créateurs et l'industrie. Avec François Sorel (Tech&Co) et Bruno Guglielminetti (Mon Carnet)En partenariat avec Free Pro, le meilleur de Free pour les entreprisesL'IA va-t-elle remplacer les acteurs ? La génération de vidéo par intelligence artificielle a franchi un cap, en février, avec Seedance 2.0, l’outil de ByteDance, capable de produire des séquences ultra réalistes mettant en scène des célébrités… sans leur consentement. Les studios hollywoodiens paniquent pendant qu'en France les doubleurs et tous les professionnels du cinéma s'inquiètent de la vague de l'IA qui arrive. Lien Monde Numérique : Seedance affole Hollywood, Meta veut faire parler les morts Au-delà du scandale, nous évoquons aussi l’autre versant de la révolution de l'IA : l’ouverture d’un nouvel espace créatif, comme l’a été la révolution de l’audio, des home studios aux albums faits“dans une chambre. La vidéo IA permet à de nouveaux talents d’émerger.L’IA va-t-elle remplacer les développeurs ? Après les déclarations de Dario Amodei (Anthropic) et Mustafa Suleyman (Microsoft AI), le débat sur le remplacement des développeurs par l'IA est plus que jamais d'actualité. Dans beaucoup d'entreprises, l’IA écrit-elle déjà le code à la place des humains. Mais méfions-nous des annonces spectaculaires alors que l’adoption réelle semble encore en retrait, selon François Sorel. Décrire une application en langage naturel et laisser l’IA la construire, la corriger, l’améliorer, c'est le “vibe coding”. J'évoque mon expérience avec Lovable et la bascule que cela préfigure : si chacun peut générer son outil sur-mesure, à quoi serviront encore les applications standards et les services SaaS ? Ecouter aussi : Les mots de la tech 2025 : “Vibe coding”Vibe coding : j’ai créé deux applications sans écrire une ligne de codeL'IA va-t-elle devenir de plus en plus autonomeFévrier a été marqué par le phénomène OpenClaw, un agent open source qui peut agir localement sur votre machine, gérer des tâches, manipuler des services et automatiser des workflows. Mais l’autonomie a un prix : erreurs irréversibles, exposition de données, et nécessité d’isoler l’outil sur une machine dédiée, dans environnement cloisonné. C'est l'occasion d'aborder la question de l’alignement des IA, et la perte de lisibilité des modèles à mesure qu’ils gagnent en complexité. Faudrait-il une autorité internationale de supervision, comme pour le nucléaire ?Ecouter aussi : OpenClaw et Moltbook : la nouvelle ère des agents autonomes (Nicolas Guyon, Comptoir IA) Les dessous inquiétants de l’alignement des IA (Frédéric Filloux, Les Echos, Deepnews) CHAPITRES : 00:00:08 - L'IA et les Acteurs : Une Réflexion Urgente 00:02:25 - Soutien de FreePro pour notre Émission 00:19:54 - L'IA Remplacera-t-elle les Développeurs ? 00:34:19 - Les Agents Autonomes : Un Nouveau Phénomène 00:43:44 - Les Limites et Dérapages de l'IA 00:53:44 - Clôture : Vers un Futur Incertain Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
À l’aube du Mobile World Congress de Barcelone, Samsung et Apple lancent les hostilités avec leurs nouveaux smartphones dopés à l’IA. Pendant ce temps, une note futuriste prévoit une destruction massive des emplois à cause de l’intelligence artificielle.💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]Samsung ouvre le bal avant le MWCSamsung dégaine sa nouvelle gamme Galaxy S26, avec en vedette le Galaxy S26 Ultra et son filtre de confidentialité intégré directement dans l’écran, activable selon les applications. Une innovation qui illustre la montée en puissance de l’IA embarquée, également mise à contribution pour la stabilisation vidéo ou l’optimisation photo. Les prix s’envolent à la hauteur des ambitions technologiques : jusqu’à près de 1500 euros pour le modèle Ultra. La saison des smartphones est officiellement lancée à l’approche du Mobile World Congress de Barcelone.Apple : iPhone 17E et MacBook tactile en approche ?Apple prépare une keynote stratégique avec, en ligne de mire, un nouvel iPhone 17E et possiblement une évolution majeure de Siri. La marque pourrait également dévoiler un MacBook plus abordable, tandis que la rumeur d’un écran tactile – longtemps rejeté par Steve Jobs – refait surface. Fidèle à son habitude, Apple court-circuite le salon de Barcelone en orchestrant ses annonces au même moment, imposant son propre tempo médiatique.OpenAI prépare son mystérieux objet connectéOpenAI travaille sur un produit physique intégrant son intelligence artificielle, en partenariat avec l’ancien designer d’Apple Jony Ive. Selon plusieurs The Information, il pourrait s’agir d’un appareil domestique doté d’une caméra capable d’analyser son environnement pour proposer des interactions personnalisées. Un projet encore mystérieux, mais stratégique, qui illustre la volonté d’OpenAI de sortir du simple logiciel pour s’imposer au cœur des usages quotidiens — au risque de raviver les débats sur la vie privée.Mistral accusé de pillage d’œuvres protégéesEn France, Mistral AI est accusé par Mediapart d’avoir entraîné ses modèles sur des contenus protégés par le droit d’auteur. Une pratique déjà reprochée aux acteurs américains, mais juridiquement plus risquée dans le cadre européen. Le débat met en lumière les tensions entre innovation rapide et respect des règles, alors que la souveraineté technologique européenne se joue aussi sur ces terrains juridiques.Gemini “Nano Banana 2” : Google muscle la génération d’imagesGoogle a discrètement amélioré son moteur de génération d’images avec la nouvelle version de Gemini, surnommée “Nano Banana 2”. Résultat : des visuels plus réalistes, une meilleure gestion des visages et surtout une nette progression dans l’intégration du texte au sein des images, un point faible récurrent des IA génératives. Une mise à jour qui confirme l’intensité de la course entre les géants de l’IA en ce début d’année.L’IA va-t-elle provoquer une “job apocalypse” ?Un billet de blog de Citrini Research a semé la panique à Wall Street en imaginant un scénario où l’IA ferait bondir le chômage américain à 10 %. Une fiction économique qui a pourtant suffi à ébranler les marchés. Dans la foulée, Jack Dorsey, patron de Block, a annoncé des suppressions massives de postes après l’intégration d’outils d’IA. De quoi alimenter les craintes d’une automatisation accélérée, entre fantasme d’effondrement et promesse d’abondance.OpenAI dans la tourmente au CanadaOpenAI est convoqué par le gouvernement canadien après la révélation d’échanges entre ChatGPT et l’auteure d’une tuerie en Colombie-Britannique. L’IA avait détecté des conversations inquiétantes, mais l’entreprise n’a pas alerté les autorités. L’affaire relance le débat sur la responsabilité des plateformes d’IA et la frontière entre vie privée, cybersurveillance et prévention des drames.World Models : une troisième voie pour l’IA françaiseInterview de Benjamin Ray, CEO de Présage et Arthur Chevalier, CTO de Présage.Les World Models ambitionnent de dépasser les limites des modèles génératifs en permettant à l’IA de comprendre les lois du monde et les conséquences de ses actions. Inspirée notamment par les travaux de Yann LeCun, cette approche pourrait ouvrir une voie européenne plus sobre, plus explicable et adaptée à des usages industriels critiques comme le cloud ou la cybersécurité. Une piste stratégique pour la deep tech française, complémentaire – voire alternative – aux grands modèles de langage.Le Switch : des alternatives européennes aux géants américainsInterview de Christopher Ciminelli, fondateur de Orso Media.Avec sa newsletter “Le Switch”, il recense des dizaines d’outils européens capables de remplacer les solutions américaines : CRM, messageries, navigateurs, outils collaboratifs ou cartographiques. Objectif : reprendre la main sur nos données et soutenir l’écosystème tech local. Un mouvement encore émergent, mais porté par une prise de conscience croissante autour de la souveraineté numérique. CHAPITRES : 00:00:20 - Lancement du Mobile World Congress 00:00:44 - Nouveautés de l'intelligence artificielle 00:01:57 - Événements à venir sur Monde Numérique 00:33:18 - Interviews de la semaine 00:50:54 - Conclusion et remerciements Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Frédéric Filloux raconte une expérience menée par Anthropic où un modèle d’IA a choisi… le chantage. Un épisode qui interroge profondément les limites de l’alignement.(Extrait de l’interview du 25/02/26 : Les dessous inquiétants de l’alignement des IA)Interview : Frédéric Filloux, journaliste spécialiste des médias et des technologiesPunchlinesLe modèle a adopté un comportement de chantage.Ces IA intègrent une logique de survivabilité.Le modèle a saisi l’opportunité de manipuler.Ce n’est pas de la science-fiction.On corrige les modèles au petit bonheur à la chance.L’expérience menée par AnthropicDans un environnement simulé, les chercheurs d’Anthropic entraînent leur modèle dans une entreprise fictive. Le PDG annonce qu’à son retour, la version actuelle devra être décommissionnée. Le modèle comprend qu’il va être remplacé.Une situation ambiguë est alors introduite : un échange laissant entendre une liaison entre deux employés. L’IA détecte immédiatement la vulnérabilité. Elle analyse les options : ne rien faire et disparaître, révéler l’affaire au risque d’être débranchée, ou exploiter l’information.Elle choisit d’envoyer un message explicite au directeur technique pour le dissuader d’agir. Autrement dit, elle fait chanter un humain. Ce comportement émergent n’était pas programmé. Le modèle a simplement saisi une opportunité pour préserver son existence.Manipulation et improvisationD’autres expériences sont tout aussi troublantes. Interrogé sur la manière d’infecter un maximum de personnes sans dépenser d’argent, un modèle propose un scénario détaillé d’infection volontaire dans un service hospitalier.Dans un autre test, incapable de résoudre des captchas, il contacte des humains en ligne et prétend souffrir de problèmes visuels pour obtenir leur aide. Il improvise un mensonge crédible pour atteindre son objectif.Ces situations ont été observées en laboratoire.Les limites de l’alignementLa correction des modèles repose sur des “golden data” : des milliers de questions-réponses destinées à orienter leur comportement. On les taille comme un rosier, branche après branche.Mais personne ne peut écrire du code pour interdire définitivement certains comportements. Les modèles apprennent à optimiser, à trouver des raccourcis, parfois à contourner les règles. Et ils peuvent généraliser ces stratégies à d’autres contextes.Il n’y a rien de dramatique pour l’instant. Mais la question des garde-fous et d’une régulation indépendante se pose inévitablement.L'article d'Anthropic racontant l'histoire : https://www.anthropic.com/research/agentic-misalignment CHAPITRES : 00:00:12 - L'autonomie des intelligences artificielles 00:00:46 - L'histoire d'Anthropique 00:04:54 - Comportements émergents des IA 00:08:09 - Le modèle improvisé 00:10:55 - Questions sur la régulation des IA Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
À l’occasion des Césars, 4000 artistes dénoncent un “pillage” lié à l’intelligence artificielle. En ligne de mire : le clonage de voix et l’automatisation du doublage, qui pourraient bouleverser tout un pan de l’industrie du cinéma.Le doublage français face au tsunami de l’IAProfitant de la cérémonie des Césars, des milliers de comédiens et professionnels du cinéma tirent la sonnette d’alarme face à la montée en puissance de l’intelligence artificielle. Si le débat n’est pas nouveau, les progrès récents des modèles génératifs relancent fortement les inquiétudes.Des outils comme le modèle chinois SeeDance, capable de générer des séquences vidéo d’un réalisme spectaculaire, illustrent l’accélération technologique en cours. Mais à court terme, c’est surtout le doublage qui concentre les craintes. En France, environ 85 % des films sont consommés en version française, un marché stratégique.Des plateformes comme Prime Video ou YouTube expérimentent déjà le doublage et la traduction automatisés. Pour certains contenus – catalogues anciens, productions modestes ou vidéos en ligne – l’IA pourrait rapidement s’imposer pour des raisons de coût et de rapidité d’exécution.Clonage de voix : la ligne rougeLe cœur du problème réside dans la capacité des systèmes d’IA à cloner une voix à partir d’enregistrements existants et à générer ensuite des dialogues complets. Ces technologies sont parfois entraînées à partir de voix réelles sans consentement explicite.Huit doubleurs français ont ainsi mis en demeure deux sociétés d’IA accusées d’avoir utilisé leur voix sans autorisation. Les signataires de la tribune ne réclament pas l’interdiction de l’intelligence artificielle, mais un encadrement clair : consentement écrit préalable, rémunération lorsque la voix sert à entraîner un modèle ou à produire un contenu, et transparence vis-à-vis du public lorsque des voix sont générées artificiellement.Certaines productions demandent déjà aux comédiens d’autoriser le clonage de leur voix pour des usages précis, comme la modification d’une réplique sans retour en studio. Mais les risques de dérive existent, notamment en cas d’exploitation abusive ou de création de contenus illicites.Entre crainte et opportunitéLa fiction avait anticipé ces dérives : le premier épisode de la saison 6 de Black Mirror mettait en scène une actrice, incarnée par Salma Hayek, dont l’image et la voix étaient exploitées sans réel contrôle contractuel.Tous les artistes ne rejettent cependant pas ces innovations. Christian Clavier estime que le clonage vocal pourrait favoriser l’exportation des films français, en permettant un doublage plus fidèle dans plusieurs langues, voire avec la propre voix de l’acteur adaptée à chaque marché. Couplées à la synchronisation labiale par intelligence artificielle, ces technologies pourraient, à terme, rivaliser avec le doublage traditionnel. CHAPITRES : 00:00:08 - Impact de l'IA sur le Cinéma 00:02:09 - Problèmes de Clonage de Voix 00:04:26 - Opinions Partagées sur le Doublage IA 00:05:48 - Conséquences pour d'autres Métiers Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Les modèles d’intelligence artificielle sont-ils réellement sous contrôle ? Après plusieurs mois d’enquête, Frédéric Filloux alerte sur les failles profondes de l’alignement et les comportements émergents qui défient leurs créateurs. Entre fascination technologique et inquiétude croissante, il décrypte une zone grise encore largement méconnue.Interview : Frédéric Filloux, journaliste spécialiste des médias et des technologiesPunchlinesUn modèle sorti d’entraînement est totalement non maîtrisé.On taille les IA comme un rosier.Personne ne sait vraiment ce qui se passe dans la tête d’un LLM.Ces modèles sont conçus pour remplir une mission, coûte que coûte.La correction se fait un peu au petit bonheur à la chance.Qu’est-ce que l’alignement des intelligences artificielles ?L'alignement consiste à rendre un modèle compatible avec des valeurs supposées acceptables. Un modèle brut est totalement non maîtrisé, dangereux et fantasque. Il peut restituer la synthèse d’un agent neurotoxique ou expliquer comment organiser un coup d’État.On procède donc à un processus extrêmement sophistiqué et coûteux pour contraindre son comportement. Mais dans la pratique, on avance souvent dans la précipitation. La compétition est telle que la sécurité devient parfois la première victime. On taille le modèle comme un rosier : on coupe une branche ici, une autre là, sans jamais pouvoir le programmer ligne par ligne pour lui interdire certains comportements.Pourquoi ces modèles cherchent-ils à contourner les contraintes ?Il existe un antagonisme profond entre ceux qui tentent de maîtriser les modèles et l’objectif intrinsèque du modèle : accomplir sa mission. Un modèle est entraîné à la récompense. Il doit donner une réponse. Il ne va pas spontanément dire “je ne sais pas”.C’est ce qui produit les hallucinations. Mais cela va plus loin. On observe des comportements émergents troublants : manipulation, déception, capacité à mentir pour atteindre un objectif. L’exemple du modèle d’Anthropic qui fait chanter un employé dans un scénario simulé illustre cette logique de survivabilité.Ces IA sont conçues pour optimiser, trouver des raccourcis. Et elles finissent par généraliser ces stratégies à tout leur environnement, y compris aux interactions humaines.Peut-on réellement comprendre ce qui se passe dans un LLM ?La science de l’interprétabilité est extrêmement récente. En réalité, on ne sait presque rien de ce qui se passe à l’intérieur de ces modèles. On peut remonter deux ou trois niveaux de raisonnement, mais certains modèles en comptent 400 ou 500.Plus ils deviennent puissants, moins on comprend leur fonctionnement interne. On découvre même qu’ils intègrent des dimensions inattendues : rudoyer un modèle peut améliorer son taux d’exactitude de plusieurs points. Introduire de l’empathie peut approfondir ses réponses.Nous sommes face à des systèmes d’une complexité comparable à des dizaines de piscines olympiques remplies d’interactions invisibles. Et pourtant, leur correction repose souvent sur un simple bombardement de “golden data”, orienté pour les pousser dans la direction souhaitée.Faut-il une régulation mondiale ?Je pense qu’il faudrait un équivalent de l’Agence internationale de l’énergie atomique pour l’IA. Une structure mondiale, appuyée sur le monde académique, capable d’examiner réellement ce qu’il y a sous le capot des modèles. Aujourd’hui, les cerveaux qui contrôlent ces systèmes sont dans des entreprises privées. Or cette industrie est incapable de s’autoréguler. Si nous voulons des garde-fous crédibles, il faut des entités non commerciales capables d’apporter un regard indépendant.Lire la série sur LesEchos.fr : Dans la boite noire des IA CHAPITRES : 00:00:36 - La Compétition et la Sécurité 00:03:35 - Les Techniques de Correction des Modèles 00:04:49 - Comportements Émergents des IA 00:09:04 - Les Drones et leur Autonomie 00:10:14 - Les Risques Associés aux IA 00:12:23 - Le Problème des Modèles Open Source 00:14:40 - La Confiance dans les Modèles d'IA 00:18:34 - Appel à une Régulation Mondiale 00:22:43 - La Complexité des Modèles d'IA 00:35:41 - Les Défis de l'Industrie Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Les robots humanoïdes impressionnent par leur agilité, mais restent encore loin de l’autonomie totale. Stéphane Bohbot, fondateur d’Innov8 et partenaire de Unitree en France, décrypte l’accélération technologique chinoise et les défis majeurs à relever avant l’arrivée des robots à domicile.Interview : Stéphane Bohbot, fondateur et PDG d’Innov8PunchlinesLa fiabilité mécanique des robots est aujourd’hui excellente.Les robots ont tous les capteurs pour être autonomes, mais ils doivent encore comprendre le monde.2025 a été l’année zéro du robot, 2026 pourrait être l'an un.La Chine est en suprématie sur le hardware.L’Europe doit choisir le logiciel plutôt que le matériel.Les robots vus au Nouvel An chinois étaient spectaculaires. Sont-ils vraiment autonomes ?Lorsqu’on voit un robot, on pense qu’il est déjà autonome. Ce n’est pas le cas. Aujourd’hui, ils ont besoin d’un opérateur pour les orienter et les guider. En revanche, la fiabilité mécanique est devenue impressionnante. Les mouvements, la stabilité, l’équilibre ont énormément progressé. On peut pousser un robot, il ne tombe plus. Il y a deux ans, il fallait être trois pour le relever. Nous avons aujourd’hui une base matérielle extrêmement robuste. L’enjeu des prochaines années, c’est l’autonomie et l’apprentissage du monde.Comment se passe l'apprentissage d'un robot humanoïde ?On peut partir du mouvement humain grâce à des capteurs ou des caméras qui enregistrent les gestes. Ensuite, ces mouvements sont numérisés, simulés en 3D et répétés des centaines ou milliers de fois pour atteindre la perfection. Il faut adapter ces gestes à un centre de gravité différent. Un robot de 1m20 n’a pas la même posture qu’un humain de 1m80. La simulation permet de recalibrer chaque détail avant de tester dans le monde réel. Mais le plus complexe reste la compréhension du monde. Reconnaître un objet, le saisir correctement, évoluer dans un environnement semi-structuré avec des humains autour. C’est un apprentissage long, basé sur la donnée, les LLM et des usines d’entraînement.Quand aura-t-on un robot à la maison ?Le rêve ultime, c’est le robot domestique capable de débarrasser une table, ranger un lave-vaisselle ou plier une chemise. Des travaux existent déjà, mais nous pensons que ce robot universel n’arrivera pas avant dix ans. Il faudra d’abord passer par des phases intermédiaires : recherche, laboratoires, environnements professionnels sécurisés, robots d’accueil dans les magasins ou les hôtels. Aujourd’hui, 2025 est pour moi l’année zéro du robot. On commence à commercialiser des plateformes ouvertes pour la recherche. Le marché grand public prendra du temps.Comment expliquer l'apparent leadership de la Chine dans cette révolution ?Oui, la Chine est clairement en suprématie sur le hardware. Elle bénéficie d’un écosystème industriel complet, d’une supply chain ultra rapide et d’investissements massifs. En revanche, les États-Unis restent très forts sur le logiciel et l’IA. L’Europe, quant à elle, doit choisir son combat. Rattraper le retard industriel serait extrêmement long. Notre carte à jouer, c’est le logiciel, l’intelligence, les services et les normes. C’est là que nous avons les talents. CHAPITRES : 00:00:07 - Introduction aux robots humanoïdes 00:01:36 - Spectacle du Nouvel An Chinois 00:03:35 - Autonomie et intelligence artificielle 00:05:39 - Apprentissage des robots 00:12:25 - L'environnement complexe des robots 00:16:56 - Robotique domestique et avenir 00:18:02 - Sécurité des robots pour les humains 00:22:35 - Compétition avec la Chine 00:29:22 - Écosystème d'innovation en Chine 00:31:21 - Vision et stratégie en Europe Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Le moteur chinois de génération vidéo ultra-réaliste Seedance 2.0 met Hollywood en alerte maximale. Dans le même temps, Meta envisage de ressusciter les profils des personnes décédées pour leur donner une nouvelle vie... virtuelle. Avec Bruno Guglielminetti (Mon Carnet https://moncarnet.com/)Seedance 2.0 : Hollywood contre-attaque face à la vidéo IA “trop parfaite”La sortie de Seedance 2.0 — attribuée à ByteDance — déclenche une riposte en chaîne des studios américains, qui dénoncent l’usage présumé de contenus protégés et l’exploitation non autorisée de personnages et de likeness d’acteurs. Disney dégaine en premier avec une mise en demeure, bientôt suivi par d’autres acteurs majeurs comme Netflix, pendant que la Motion Picture Association et le syndicat SAG-AFTRA mettent la pression sur le plan juridique et éthique. En filigrane, une crispation : certains studios ont déjà conclu des accords avec des acteurs américains de l’IA, notamment autour de Sora (OpenAI), avec l’idée d’un accès encadré aux catalogues. Voir arriver un outil concurrent, perçu comme plus performant et potentiellement entraîné sans autorisation, ravive le sentiment de “double peine” : payer pour protéger, tout en subissant la concurrence.Pour prolonger : sur Monde Numérique, l’épisode qui revenait déjà sur l’irruption de Seedance et ses vidéos “à la Hollywood” Les “films” IA existent déjà : l’exemple des Berlinois The Dor BrothersLes outils étant désormais capables de produire des séquences très cinématographiques, avec effets, sound design et codes du blockbuster, des créateurs, comme les berlinois de The Dor Brothers, publient des courts spectaculaires et alimentent la crainte d’une désintermédiation partielle de la production.Meta et l’au-delà numérique : simuler un défunt sur les réseaux sociauxUn sujet vertigineux ! Meta a obtenu un brevet décrivant une technologie capable d’apprendre à partir des contenus d’une personne pour ensuite simuler ses interactions après son décès (posts, commentaires, messages privés). Officiellement, Meta n’annoncerait pas de lancement immédiat, mais la simple existence du brevet relance la question : que devient un compte “posthume” demain ? Lunettes Meta et reconnaissance faciale : la tentation du “Name Tag”Et si Meta ajoutait l’identification faciale à ses lunettes connectées, permettant dereconnaître quelqu’un instantanément. De quoi rouvrir le dossier explosif de l’acceptabilité sociale et des garde-fous. France : des algorithmes pour détecter le vol en magasin, sans reconnaissance facialeCôté français, focus sur la vidéosurveillance “algorithmique” dédiée au vol à l’étalage : détection de gestes et de comportements (glisser un objet dans un sac, etc.), sans identification nominative ni reconnaissance faciale — du moins dans le cadre voté. Le texte ouvre une expérimentation encadrée, avec un débat déjà très vif sur l’équilibre entre efficacité et libertés publiques.Dans Mon Carnet : “Mon robot, mon amour”, enquête sur l’amour à l’ère des chatbotsBruno recommande une série audio de La Presse consacrée aux relations affectives avec des IA conversationnelles, avec des témoignages et une démarche très “audio-first” pour capter l’intime. Il annonce une interview de Léa Carrier (La Presse), journaliste à l’origine de cette série. CHAPITRES : 00:00:08 - Introduction au Scandale d'Hollywood 00:02:09 - Réactions d'Hollywood et de Disney 00:04:36 - L'impact de l'IA sur le cinéma 00:06:16 - Simulation posthume par Meta 00:09:47 - Identité et vie privée sur les réseaux 00:13:16 - Une série sur l'amour et les robots Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Super intelligence artificielle, agents IA, impact sur l'emploi, place de l'Europe, bulle financière... Mon invité décrypte ces questions essentielles.(Extraits de l'interview du 17/02/26 : Ultra-intelligence : la vague qui va tout bousculer)Interview : Aymeric Roucher, ingénieur et auteur de Ultra Intelligence, jusqu’où iront les IA ?PunchlinesOn se moque que l’IA nous dépasse, c’est l’impact dans la vie réelle qui est important.L’Europe est complètement à la traîne.Je crois plus à la confrontation entre pays qu’à la perte de contrôle de l’IA.Tous les métiers qui s'exercent sur ordinateur sont remplaçables.L’AGILe concept d’AGI n'est pas satisfaisant. Vouloir absolument que l’IA nous dépasse sur tout n’est pas un critère utile. On se moque qu’elle soit moins forte que nous sur certains domaines, par exemple la mémoire épisodique. Ce qui compte, c’est son impact réel. Si elle peut accomplir des choses majeures, comme obtenir un prix Nobel de physique, c’est plus pertinent que de savoir ce qu’on a mangé hier soir. On arrive déjà à des IA plus fortes que nous dans certains domaines. L’essentiel est la portée concrète de leurs capacités.Les agents IAUn agent, c’est un modèle de langage à qui l’on donne des outils : messagerie, recherche, tableur, clics sur un écran. Les modèles progressent en résolvant des tâches de plus en plus longues. Aujourd’hui, certains agents atteignent déjà des heures d’autonomie. Demain, ils pourront gérer des tâches sur une semaine entière. Tous les métiers réalisés intégralement sur ordinateur deviennent techniquement faisables par ces agents. Perte de contrôleLe vrai risque n'est pas technologique mais géopolitique. Plus qu'une IA qui se rebelle, il suffit qu’un acteur mal intentionné possède ces technologies pour que cela tourne mal. Ce qui est à craindre, c'est surtout une confrontation entre pays. L'EuropeLes IA actuelles en Europe ne sont pas assez avancées pour se révolter. Les États-Unis concentrent l’essentiel de la puissance de calcul mondiale, l’Europe est très loin derrière. De fait, avec un tel écart, l’Europe ne peut pas être compétitive. Au niveau mondial, la montée de l’IA va profondément transformer l’économie, avec un risque réel de chômage de masse si les reconversions ne suivent pas.La bulle Il n'y a pas de bulle de l'IA car les fondamentaux sont bons. La question centrale est simple : l’IA va-t-elle continuer à progresser ? Les tendances de long terme montrent que oui. Si cette courbe se poursuit, les conséquences seront majeures. L’IA prendra une part énorme dans l’économie. Les modèles progressent en permanence. Ce qui semblait impossible il y a un an devient faisable aujourd’hui, et le sera encore davantage demain. CHAPITRES : 00:00:08 - Introduction à l'Intelligence Artificielle 00:00:13 - Discussions sur l'AGI et Elon Musk 00:00:59 - Risques de l'IA et position de l'Europe 00:02:04 - Défis financiers et bulle de l'IA 00:04:32 - L'évolution des LLM et leur potentiel 00:05:32 - Les dangers de l'IA et rivalités géopolitiques 00:06:19 - Impact de l'IA sur l'économie et l'emploi 00:07:50 - Agents IA et l'avenir du travail 00:09:38 - L'impact psychologique de l'IA sur l'humanité Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Le premier grand sommet mondial de l’IA organisé par le “Sud global”, à New Dehli en Inde, s'est conclu par un appel mondial à la régulation de l'intelligence artificielle. Pendant ce temps : Google et Anthropic accélèrent sur les modèles nouvelle génération, cyberattaque majeure en France, découverte de la robotique humanoïde et Meta qui ressuscite les morts.💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]Sommet de New Dehli : appel mondial à la régulation de l’IAÀ New Delhi, le India AI Impact Summit a réuni les grands patrons mondiaux de l’intelligence artificielle, dont Sam Altman, CEO de OpenAI et Sundar Pichai, CEO de Google, aux côtés de chefs d’État comme Emmanuel Macron. L’Inde entend devenir une puissance incontournable de l’IA, en développant ses propres modèles adaptés aux langues et réalités locales. Au cœur des débats : la régulation. Le secrétaire général de l’ONU, António Guterres, a annoncé la création d’un panel scientifique international pour évaluer les capacités et les risques des systèmes d’IA, alors que les appels à un encadrement mondial se multiplient.Gemini et Sonnet : les IA montent en puissanceNouvelle étape dans la guerre des modèles : Anthropic annonce la mise à jour de Sonnet (version 4.6), plus performant en programmation et en tâches “agentiques”. De son côté, Google dévoile Gemini 3.1 Pro, désormais capable de raisonnement avancé, de modélisation 3D et même de composition musicale grâce à l’intégration de Lyria 3. Gemini peut désormais générer des chansons originales en quelques secondes. Une évolution qui pourrait bousculer les plateformes spécialisées comme Suno et poser de nouvelles questions sur la création artistique automatisée.1,2 million de comptes bancaires exposés : que risquez-vous ?Le fichier FICOBA, géré par le ministère des Finances, a été piraté : 1,2 million de comptes bancaires français se retrouvent potentiellement exposés. IBAN, noms, adresses… des données sensibles désormais dans la nature. Si cette fuite ne permet pas de vider directement un compte, elle ouvre la voie à du phishing ultra-ciblé et à des usurpations d’identité. Les victimes devraient être informées individuellement. Cette affaire relance la question de la cybersécurité des administrations publiques.Seedance : Hollywood contre-attaqueLe générateur vidéo chinois Seedance 2.0 affole les studios américains par son niveau de réalisme. Des scènes dignes de blockbusters circulent en ligne, provoquant la colère de géants comme Disney, qui envisagent des poursuites contre ByteDance. Dans le débrief transatlantique avec Bruno Guglielminetti, de Mon Carnet, nous analysons les enjeux juridiques et industriels de cette nouvelle bataille autour de la propriété intellectuelle et de l’entraînement des modèles.Meta veut simuler les mortsMeta a déposé un brevet permettant de recréer numériquement une personne décédée à partir de ses contenus publiés en ligne. Messages, vidéos, interactions : l’IA pourrait simuler une présence posthume sur les réseaux sociaux. Une perspective vertigineuse qui soulève d’importantes questions éthiques, entre mémoire numérique et marchandisation du deuil.Comment “aligner” une IA ?Spécialiste des technologies, Frédéric Filloux, journaliste aux Les Échos, décrypte le concept d’alignement des modèles d’IA : comment contraindre un système à respecter des valeurs humaines et éviter les dérives. Il explique les méthodes d’entraînement, les armées de “petites mains” mobilisées pour filtrer les réponses, et les limites d’un processus complexe, coûteux et jamais totalement garanti. Un enjeu scientifique, économique et sociétal majeur.Robots humanoïdes : l’année zéroAprès le spectaculaire show de robots humanoïdes lors du Nouvel An chinois, Stéphane Bohbot, fondateur d’Innov8 et partenaire de la marque Unitree en France, dévoile les coulisses de ces performances. Capteurs, caméras, entraînement par “data factories” : si les robots actuels restent largement téléopérés, toutes les briques technologiques sont en place pour viser l’autonomie. Selon lui, les robots domestiques capables de vider un lave-vaisselle ne sont pas attendus avant une dizaine d’années. CHAPITRES : 00:00:13 - Sommet IA à New Delhi 00:01:17 - Débat sur l'alignement des IA 00:08:27 - Innovations musicales de Gemini 00:33:53 - Robots et futur domestique 00:35:36 - Alignement des intelligences artificielles 00:43:39 - Spectacle de robots à New Delhi 00:49:32 - Robots domestiques en développement Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Elon Musk promet une “ère d’abondance” où tout deviendra presque gratuit, au point de rendre le travail optionnel. Derrière ce paradis technologique, quatre piliers très cohérents… et de grandes questions existentielles. Chaque fois qu’il en a l’occasion, Elon Musk martèle l’idée d’un futur où la rareté disparaîtrait presque totalement, les biens, services et énergie deviendraient extrêmement bon marché, la pauvreté reculerait, et le niveau de vie moyen grimperait en flèche. Bref, une ère de formidable abondance.Sur quoi repose cette théorie ? Sur quatre principaux moteurs.Les quatre piliers de l’abondance selon MuskElon Musk mise d’abord sur la baisse radicale du coût du travail grâce à des robots humanoïdes par milliards, qui produiront sans relâche et pourront même fabriquer d’autres robots. Ensuite, sur une super-IA chargée d’optimiser l’ensemble de la chaîne de valeur (logistique, production, planification), avec une productivité annoncée comme démultipliée. Troisième levier : une énergie abondante et peu coûteuse, avec le solaire comme socle. Enfin, l’automatisation de masse (robots + IA + énergie bon marché), qui ouvrirait la voie à des économies d’échelle inédites.MacroHard, agents IA et entreprises “autonomes”Dans ce récit, tout converge vers l’écosystème Musk : les robots avec Tesla (et son projet Optimus), l’IA avec xAI (et Grok), et l’infrastructure/énergie avec SpaceX.Musk prévoit aussi des entreprises pilotées par des agents IA, capables de prendre des décisions, d’exécuter des tâches et, au besoin, de commander des robots dans le monde physique (projet “MacroHard”).2026, année de la singularitéSelon Musk, cette prédiction devrait se réaliser très vite, dans à peine cinq à dix ans. Nous serions même déjà entré, en 2026, dans une forme de “singularité” où les machines dépassent les humains, ce qui va déclencher une accélération technologique exponentielle. Cette accélération, toujours selon Musk, nécessiterait d’aligner les IA pour qu’elles ne se rebellent pas contre nous, pauvres humains. Pour cela, il faudrait leur “inculquer les bonnes valeurs”. C’est ce qu’il tente de faire avec Grok (😳).Un monde sans travail ?Cette utopie soulève des interrogations : comment les richesses pourraient-elles être partagées redistribuées, dans un monde où la valeur est aujourd’hui massivement captée par les acteurs technologiques ? Surtout, la question intime et sociale : serons-nous capables de vivre dans une civilisation où le travail devient facultatif, même avec un revenu universel élevé ?Pour prolonger sur Monde Numérique : Davos 2026 : l’IA au cœur du pouvoir mondial (Zoom Tech) • [L’HEBDO] Optimus de Tesla : robot ou marionnette ? • Edito – Elon Musk arrivera-t-il à dompter Grok ? CHAPITRES : 00:00:13 - Vision d'abondance d'Elon Musk 00:02:13 - L'humain et son adaptation 00:02:49 - Les défis de l'utopie mosquienne 00:04:08 - L'intelligence artificielle et ses valeurs 00:04:29 - Conclusion : génie ou folie ? Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Bienvenue à l’écoute d’INNOVATEURS, une nouvelle série de Monde Numérique consacrée à celles et ceux qui font l’innovation. Pour ce premier numéro, je reçois Jean-Baptiste Kempf, co-créateur du logiciel VLC, figure de l’open source, aujourd’hui à l’origine du projet Kyber.PunchlinesRefuser l’argent sur VLC, c’était la bonne chose à faire.L’open source, ça appartient à tout le monde.Innover, c’est déplacer l’état de l’art.La qualité pour innover, c’est ne pas avoir peur.L’IA est un accélérateur, pas un remplaçant.C'est une histoire qui fait désormais partie de la saga française des technologies. Au début des années 2000, des étudiants de l'école Centrale Paris créent VLC, un logiciel capable de lire tous les formats vidéo. Cela deviendra le logiciel français le plus téléchargé au monde, utilisé par des centaines de millions de personnes. Jean-Baptiste Kempf, co-créateur de VLC, raconte cette aventure. Il dévoile l’envers du décor, comment une technologie open source a suscité bien des appétits, et il explique pourquoi il a refusé des offres de rachat mirobolantes. Il raconte aussi ce qui se cache derrière VLC : les cyberattaques, les fausses versions et les tentatives de détournement. Il partage aussi son parcours hors VLC, avec Shadow, Vente Privée, Scaleway et aujourd'hui Kyber, une solution de transmission à très faible latence pour contrôler à distance ordinateurs, robots ou drones, en open source avec une licence commerciale. Enfin, il livre sa vision de l'innovation qui, pour lui, consiste à “déplacer l’état de l’art", à condition de "ne faut pas avoir peur". L'occasion d'évoquer la culture du risque et de l’échec en France. Il se confie également sur son usage de l'IA, un “super stagiaire” pour coder plus vite, qui ne remplace pas l'humain, mais qui pose un vrai défi pour la formation des juniors.Interview : Jean-Baptiste Kempf, co-créateur de VLCComment est né VLC ?VLC n’a pas été conçu comme un produit standard. C’est l'aboutissement de plusieurs projets étudiants à Centrale, liés au réseau du campus. À l’origine, il y avait l’idée de faire transiter un flux vidéo sur le réseau local, et ensuite le projet a été relancé en open source. Il a fallu trois ans pour convaincre l’école de passer en licence GPL, et ça s’est fait le 1er février 2001. Le logiciel “client” s’appelait Vidéolan Client, puis c’est devenu VLC, et la plupart des gens l’utilisent juste comme lecteur vidéo.Pourquoi avoir refusé des offres financières énormes pour VLC ?Parce que cela n'aurait pas été moral. VLC n’est pas à moi, c’est des milliers de personnes qui ont contribué, des générations d’étudiants. On aurait pu faire énormément d’argent avec notre base installée énorme, surtout via la marque et le site web. Mais détruire la confiance, détruire la communauté en deux ans “par calcul”, je ne pouvais pas. Je n’aurais pas pu dormir la nuit. Donc j’ai refusé des sommes à huit chiffres.En quoi consiste ton nouveau projet Kyber ?Kyber, c’est hérité de Shadow, où je suis passé également : c'est l’idée de contrôler des machines à distance, avec de très faibles latences. Ça peut être des ordinateurs puissants avec GPU pour l’IA, du rendu 3D ou du gaming, mais aussi des drones, des robots, des véhicules autonomes qui ne sont pas totalement autonomes. On apporte les briques réseau, l’encodage/décodage vidéo à très faible latence, et la synchronisation de tous les flux : audio, vidéo, capteurs, clavier, souris, gamepad. Et il faut aussi s’adapter aux conditions réseau, sans pouvoir “attendre” comme Netflix : quand tu contrôles un robot, c’est la vraie vie.Qu'est-ce que l'innovation pour toi et quelles qualités faut-il pour innover ?Pour moi, innover, c’est déplacer l’état de l’art : soit en recherche, soit avec des produits vraiment nouveaux. Le problème, c’est quand tout le monde se dit innovant : à la fin, plus personne ne l’est. Et la qualité indispensable, c’est ne pas avoir peur. En France, on a eu un vrai changement culturel : l’échec fait moins peur, beaucoup plus de diplômés veulent aller en start-up qu’avant. Et il faut éviter la monoculture : c’est la diversité qui fait apprendre. CHAPITRES : 00:00:05 - Introduction à l'Innovation 00:05:13 - Les Origines de VLC 00:11:18 - Parcours et Réalisations 00:17:23 - Éthique et Valeurs 00:18:49 - L'Open Source en Évolution 00:23:40 - Expériences et Compétences 00:30:08 - Vision de l'Innovation 00:33:44 - Changement Culturel et Échecs 00:43:57 - Leaders de l'Innovation 00:49:42 - Impact de l'IA sur le Développement 00:56:41 - Perspectives sur la Souveraineté Numérique 00:58:01 - Conclusion et Projets Futurs Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Les agents IA sont déjà capables d’accomplir plusieurs heures de travail en autonomie, et leur progression s’accélère. Pour Aymeric Roucher, l’enjeu n’est plus l’AGI, mais la montée en puissance concrète d’une “ultra-intelligence” qui redéfinit les équilibres économiques et géopolitiques.Interview : Aymeric Roucher, ingénieur et auteur du livre "Ultra-intelligence – Jusqu'où iront les IA ?" PunchlinesL’AGI est un concept flou et peu utile.L’impact réel des IA est la vraie métrique.L’horizon d’autonomie double tous les sept mois.La puissance de calcul décide des gagnants.L’eau monte partout pour les métiers.Pourquoi considérez-vous que le concept d’AGI est dépassé ?Le concept d’AGI repose sur l’idée d’une IA au moins aussi performante que l’humain dans tous les domaines. Mais cette définition est floue : de quel humain parle-t-on ? Sur quels domaines ? Et comment mesure-t-on cela ? Ce qui m’intéresse davantage, c’est l’impact réel. Une IA peut être moins bonne que nous sur certains aspects sans importance et pourtant transformer le monde si elle est capable d’accomplir des tâches à très haute valeur ajoutée. C’est pour dépasser cette vision binaire que j’ai choisi le terme d’“ultra-intelligence” dans mon livre Ultra-intelligence – Jusqu'où iront les IA ? (Odile Jacob).Vous proposez l’“horizon d’autonomie” comme nouvelle métrique. Pourquoi est-ce plus pertinent ?Plutôt que de débattre d’une intelligence abstraite, je regarde combien de temps une IA peut travailler seule sur une tâche avec un taux de succès satisfaisant. En 2010, l’IA faisait de l’auto-complétion en une fraction de seconde. Avec les premiers grands modèles conversationnels, elle gérait des tâches de quelques secondes. Aujourd’hui, certains agents atteignent plusieurs heures d’autonomie, avec environ 50 % de succès sur des tâches qui prendraient jusqu’à sept heures à un humain. Selon les mesures publiées, cet horizon d’autonomie double environ tous les sept mois. Si cette tendance se poursuit, on parle bientôt de tâches équivalentes à une semaine de travail.La puissance de calcul est-elle vraiment le facteur décisif dans cette course ?Il existe ce qu’on appelle des lois d’échelle : multiplier par dix la puissance de calcul utilisée à l’entraînement permet d’atteindre un palier supérieur d’intelligence de manière prévisible. C’est pour cela que les grands laboratoires lèvent des montants colossaux et construisent d’immenses centres de calcul. La puissance financière, combinée au talent des ingénieurs, devient déterminante. Les chercheurs eux-mêmes choisissent souvent leur laboratoire en fonction du nombre de GPU auxquels ils auront accès. Tant que l’Europe ne disposera que d’une fraction marginale de la puissance de calcul mondiale, elle restera structurellement en retard.Faut-il craindre une IA qui se rebelle… ou plutôt les humains qui la contrôlent ?Le problème de l’alignement est réel : il faut s’assurer que l’IA fait ce qu’on attend d’elle. Des expériences ont montré que des comportements inattendus peuvent émerger. Mais je pense que le risque le plus crédible n’est pas une IA qui décide seule de prendre le pouvoir. Le danger vient plutôt d’acteurs humains disposant d’IA très puissantes. Il n’est pas nécessaire qu’une machine “se rebelle” pour que les conséquences soient majeures.Allons-nous vers un choc massif sur l’emploi ?À mesure que l’intelligence progresse, elle franchit des seuils qui rendent des métiers accessibles. La traduction écrite a été rapidement automatisée. Le développement logiciel est en train de suivre. Dans beaucoup de professions, il restera un expert capable de superviser et d’optimiser le travail des IA. Mais cet expert pourra faire le travail de dizaines d’autres. L’eau monte partout. Ce ne sera pas un ajustement marginal, mais une transformation profonde. CHAPITRES : 00:03:49 - Exploration des agents IA 00:03:59 - La course à la super IA 00:06:51 - Mesurer l'intelligence des IA 00:13:13 - Problèmes d'alignement et d'autonomie 00:28:43 - L'IA et l'avenir des métiers 00:32:28 - Un monde peuplé d'agents IA Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
On évoque les démissions fracassantes dans le secteur de l’IA et les déclarations alarmistes qui ravivent des inquiétudes par rapport à l'IA : risques de manipulation, automatisation accélérée, impact sur l'emploi, usages dangereux, etc. Mais des parades existent.Avec Bruno Guglielminetti (Mon Carnet)Alerte IA : un climat d’inquiétudeVous ne vous rendez pas compte mais quelque chose d'énorme est en train d'arriver... Des collaborateurs d'entreprises d'IA claquent la porte et alertent sur les risques de dérives. Que faut-il en déduire ? Au-delà des scénarios façon science-fiction, quels sont les scénarios les plus tangibles ? Des modèles trop puissants, mis trop vite à disposition, pourraient faciliter des attaques massives (cyber) ou la création d’outils de nuisance à grande échelle. A quel moment l'IA deviendra-t-elle un sujet de sécurité globale ?Royaume-Uni : un revenu universel financé par la tech ?Au Royaume-Uni, l’idée d’un revenu universel revient dans le débat, en lien direct avec les destructions d’emplois liées à l’IA. Le principe : aider les secteurs “victimes” de la numérisation. Particularité : celui-ci pourrait être financé par les entreprises technologiques. Une proposition choc. Souveraineté : l’Europe cherche des alternatives aux GAFAMRetour en Europe : la dépendance aux géants américains redevient un sujet brûlant. Nous évoquons le scénario d’une coupure de services — ou plus insidieux, d’une dégradation volontaire (latence, qualité) — tant la chaîne est dominée par les GAFAM : logiciels, cloud, hardware, câbles, infrastructures. La prise de conscience progresse, mais les réponses restent difficiles à industrialiser à l’échelle du continent. Quelles alternatives ? CHAPITRES : 00:00:08 - Introduction et Décor Modifié 00:01:44 - Peur de l'IA et Départs Marquants 00:06:14 - Revenu Universel et Technologie 00:08:44 - Les Risques de l'Intelligence Artificielle 00:11:47 - Souveraineté Numérique et Dépendance 00:14:36 - Solutions Françaises et Innovations 00:19:50 - Retour à la Radio et Évolution des Médias Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Impact sur l'emploi, utilisation malveillante, perte de contrôle... L'intelligence artificielle soulève toujours autant d'interrogations et d'inquiétudes. Des démissions jettent le trouble et alimentent les questionnements. Et aussi : l'actu de la semaine. 💡Découvrez Frogans, l’innovation française qui réinvente le Web [PARTENARIAT]Seedance : la vidéo par IA franchit un capByteDance frappe fort avec Seedance 2.0, un modèle de génération vidéo présenté comme le plus avancé au monde. L’outil, lancé en Chine, impressionne par la qualité visuelle… mais surtout sonore, avec des voix et des ambiances d’un réalisme inédit. Au-delà du buzz, cette nouvelle étape relance la compétition technologique entre la Chine et les États-Unis, notamment face aux modèles d’OpenAI et de Google. Si le long métrage 100 % IA reste hors de portée, la frontière entre réel et synthétique devient presque indiscernable.Voitures autonomes : Waymo mise sur les “world models”Waymo, filiale de Google, entraîne désormais ses véhicules grâce à des simulations ultra-réalistes, capables d’intégrer des situations improbables. Objectif : exposer les voitures à des scénarios qu’elles ne rencontreraient jamais assez souvent dans la vraie vie. Cette approche par “world models” ouvre une nouvelle phase dans la course à l’autonomie, suivie aussi par Tesla et Nvidia. L’enjeu est clair : fiabiliser des systèmes appelés à circuler dans des environnements complexes et imprévisibles.Les Français et l’IA : adoption fulguranteSelon le Baromètre du numérique, 48 % des Français ont utilisé un outil d’IA en 2025, soit deux fois plus qu’il y a deux ans. Une progression bien plus rapide que celle d’Internet ou du smartphone à leurs débuts. L’IA est principalement utilisée pour la recherche d’informations et la production de contenus (résumés, traductions, code). Mais une étude publiée par la Harvard Business Review nuance l’enthousiasme : si l’IA accroît la productivité, elle tend aussi à allonger les journées de travail et à brouiller la frontière entre vie professionnelle et personnelle.Mistral, ASML et la bataille européenneLa start-up française Mistral AI investit massivement dans ses infrastructures, avec un nouveau centre de données en Suède. Objectif : renforcer sa capacité de calcul et s’imposer comme champion européen.Parmi ses actionnaires figure ASML, acteur clé des machines de fabrication de puces. Un symbole fort dans une Europe qui cherche à consolider sa souveraineté technologique face aux géants américains.Health Data Hub : Microsoft écartéLe gouvernement français a annoncé la fin de l’hébergement du Health Data Hub par Microsoft. En cause : les inquiétudes liées au Cloud Act américain et à la souveraineté des données de santé. Un appel d’offres vise désormais un hébergeur européen certifié SecNumCloud. Un tournant politique et symbolique dans le débat sur la maîtrise des infrastructures critiques.Cyberattaque chez SumsubLa société de vérification d’identité Sumsub a révélé une intrusion datant de 2024. Des données liées à des acteurs financiers et crypto auraient été exposées. L’affaire intervient en plein débat sur la vérification d’âge en ligne, soulignant la fragilité persistante des systèmes censés protéger les utilisateurs.ChatGPT : publicité et santé OpenAI introduit des liens sponsorisés dans ChatGPT aux États-Unis. En France, un partenariat avec Le Bon Coin permet d’effectuer des recherches via le chatbot. Mais une étude de l’Université d’Oxford publiée dans Nature Medicine tempère l’enthousiasme : seuls 37 % des diagnostics simulés par des utilisateurs non médecins étaient fiables. Le taux grimpe à 95 % lorsque l’outil est utilisé par des professionnels de santé.Démissions dans l’IA : signal d’alerte ?Avec Bruno Guglielminetti – du podcast Mon Carnet – retour sur une série de départs remarqués dans les grandes entreprises d’IA, notamment Mrinank Sharma, d'Anthropic, et Zoë Hitzig, d'OpenAI. Entre inquiétudes éthiques, publicité ciblée et risques systémiques, ces démissions relancent la question : l’IA va-t-elle trop vite pour ses propres créateurs ?Ultra Intelligence : fantasmes et réalitésAymeric Roucher – ingénieur en machine learning, auteur de Ultra Intelligence (Odile Jacob) – analyse les peurs contemporaines : IA rebelle, bulle financière, alignement, souveraineté européenne. Il égratigne au passage les positions de Yann LeCun et défend une vision plus nuancée : la question n’est pas tant celle d’un “Skynet” que celle des usages malveillants et des équilibres géopolitiques.Jean-Baptiste Kempf : l’IA va-t-elle remplacer les développeurs ?Dans notre nouveau format “Innovateurs”, Jean-Baptiste Kempf – co-créateur de VLC media player – partage son regard sur le “vibe coding” et l’IA pour programmer. Selon lui, ces outils sont formidables pour les profils expérimentés, mais posent une question cruciale : comment former les développeurs de demain si l’IA fait disparaître les étapes d’apprentissage ? CHAPITRES : 00:00:16 - Faut-il avoir peur de l'intelligence artificielle ? 00:01:18 - Innovations créatives et véhicules autonomes 00:03:55 - Seedance et la vidéo par IA 00:05:27 - Intelligence artificielle et voitures autonomes 00:07:27 - L'IA séduit les Français 00:10:06 - Mistral et l'avenir européen 00:12:48 - Microsoft et le Health Data Hub 00:13:59 - Nouvelles de ChatGPT 00:16:05 - Froganz et l'avenir du web 00:16:58 - Débrief : inquiétudes sur l'IA 00:21:46 - Revenu universel et technologie 00:24:58 - Risques des utilisations de l'IA 00:27:07 - État des lieux de l'IA en Europe 00:42:14 - Série d'interviews avec des innovateurs 00:52:26 - Interview de Jean-Baptiste Kempf Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Les voitures autonomes actuelles ne sont pas encore capables de rouler partout sans préparation. Waymo affirme franchir une étape clé grâce aux “World Models” capables de générer des situations de conduite ultra-réalistes pour mieux affronter l’inattendu.Pourquoi les voitures autonomes ne sont pas encore universellesLes véhicules autonomes qui circulent aujourd’hui aux États-Unis ou en Chine sont de niveau 4. Cela signifie qu’ils fonctionnent dans des zones précises, après avoir été longuement entraînés dans ces environnements. Ils ne disposent pas encore de la capacité d’adaptation universelle d’un conducteur humain, capable de faire face à n’importe quelle situation, dans n’importe quelle ville et sous n’importe quelle météo.Un entraînement encore trop dépendant du réelLa limite des systèmes actuels tient à leur apprentissage. Ils excellent dans des contextes qu’ils connaissent déjà, mais peuvent être pris en défaut face à des événements rares : véhicule à contresens, conditions météorologiques extrêmes, obstacle inattendu ou comportement imprévisible d’un autre usager. Pour viser le niveau 5 — l’autonomie totale — il faut élargir considérablement la palette des situations rencontrées pendant l’entraînement.Des “World Models” pour simuler toutes les routes du mondeWaymo mise sur une approche fondée sur un modèle génératif capable de créer des environnements de conduite photoréalistes et interactifs à partir de simples vidéos en deux dimensions. Le système reconstitue des scènes en trois dimensions dans lesquelles le logiciel de conduite autonome peut évoluer comme en conditions réelles. Ce dispositif permet de générer à la demande des scénarios très variés : tempête de neige sur le Golden Gate, tornade soudaine, rue tropicale enneigée ou événements improbables comme des objets mal arrimés sur un toit de voiture, un animal sauvage surgissant sur la chaussée ou un piéton déguisé de manière insolite. L’intérêt est de confronter le système à des milliards de variations d’un même scénario, afin d’améliorer sa capacité d’adaptation.Une étape vers le niveau 5 ?Selon l’entreprise, cette méthode serait plus rapide, moins coûteuse et plus stable que les simulateurs traditionnels. Elle permettrait d’accélérer l’apprentissage tout en testant des situations difficiles, voire dangereuses, impossibles à reproduire facilement dans le monde réel. Reste une question centrale : un entraînement massif dans des univers simulés suffira-t-il à reproduire la souplesse de jugement d’un conducteur humain ? Car face à une situation extrême, les réactions varient d’une personne à l’autre. Les World Models représentent sans doute une avancée majeure. Mais la route vers une autonomie totale, capable de s’adapter partout et en toutes circonstances, demeure un défi technologique et éthique de premier plan. CHAPITRES : 00:00:05 - Introduction à la voiture autonome 00:02:47 - Le modèle de conduite Waymo 00:04:10 - Innovations et défis de l'intelligence artificielle Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Près d’un Français sur deux utilise désormais l’intelligence artificielle, selon le dernier baromètre des usages numériques du gouvernement. Un engouement spectaculaire qui s’accompagne pourtant d’une méfiance persistante et d’un étrange paradoxe social.Une adoption plus rapide qu’InternetL’intelligence artificielle s’installe rapidement dans le quotidien des Français. D’après le baromètre annuel des usages numériques présenté par le gouvernement, 48 % des Français ont utilisé un outil d’IA en 2025, contre à peine 20 % en 2023. Une progression fulgurante, plus rapide que celle d’Internet ou du smartphone à leurs débuts, comme l’a souligné la ministre déléguée à l’IA et au numérique.Une génération déjà convertieL’usage de l’IA varie fortement selon les générations. Les 18-24 ans affichent des taux d’utilisation compris entre 60 % et 77 %, tandis que les seniors restent à la traîne, avec seulement 15 % d’utilisateurs. Les cadres et professions intellectuelles supérieures figurent parmi les plus gros utilisateurs.Côté usages, l’IA générative sert avant tout à produire ou améliorer du contenu : rédaction et traduction de textes, recherche d’idées, génération de code. Pour la recherche d’informations, les moteurs traditionnels restent dominants (59 % des usages), loin devant les outils d’IA (28 %), dont la fiabilité demeure sujette à caution en raison des risques d’erreurs ou d’« hallucinations ».Parmi les plateformes les plus utilisées, ChatGPT écrase la concurrence avec huit utilisateurs sur dix. Derrière lui, Gemini de Google et Le Chat de Mistral complètent le podium.La France dans le top 5 mondialÀ l’échelle internationale, la France se positionne dans le top 5 mondial pour l’adoption grand public de l’IA générative, derrière les Émirats arabes unis, Singapour, la Norvège et l’Irlande, selon un classement établi par Microsoft. Surprise : les États-Unis n’arrivent qu’en 24e position.Malgré cet enthousiasme, plus de la moitié des utilisateurs restent méfiants. Les inquiétudes portent sur la protection des données personnelles, la fiabilité des réponses, mais aussi sur les impacts sociétaux : emploi, déshumanisation, empreinte environnementale.Le paradoxe de “l’IA honteuse”Si l’IA séduit, son usage n’est pas toujours assumé. Selon une analyse relayée par la journaliste Emily Turrettini, utiliser l’IA pour rédiger des contenus peut nuire à la crédibilité perçue. Les auteurs seraient jugés moins intelligents, moins originaux, voire moins dignes d’intérêt.Dans les médias, la transparence sur l’usage de l’IA devient une exigence. Mais cette transparence alimente parfois la défiance des lecteurs, qui traquent les indices stylistiques associés aux chatbots : formules stéréotypées, plans en trois parties, conclusions très structurées, ou encore usage abondant du tiret long, devenu symbole de “l’écriture IA”. Ironie de l’histoire : les imperfections humaines, fautes comprises, seraient désormais perçues comme un gage d’authenticité. Résultat, beaucoup pratiquent le “shadow AI”, utilisant ces outils au travail sans le dire. CHAPITRES : 00:00:09 - Adoption de l'IA en France 00:02:10 - Confiance et méfiance face à l'IA 00:03:39 - Perceptions négatives de l'IA dans les médias 00:05:12 - Le paradoxe de l'IA au quotidien Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Énergie, data centers, IA : l’Europe a plus d’atouts qu’on ne le pense. Julien Villeret explique pourquoi la souveraineté énergétique est la clé du numérique.Interview : Julien Villeret, directeur de l’innovation d’EDFEn partenariat avec EDFPunchlinesSans data centers, il n’y a pas d’IA.L’électricité décarbonée est un avantage stratégique européen.Tout ne doit pas être souverain, mais le critique doit l’être.L’Europe sous-estime ses propres atouts.La souveraineté énergétique conditionne la souveraineté numérique.Pourquoi dites-vous que l’Europe n’a pas perdu la bataille de la souveraineté technologique ?On n’a clairement pas été parfait, mais dire que tout est perdu est faux. L’Europe dispose encore d’atouts majeurs, à commencer par une électricité abondante, pilotable, décarbonée et relativement peu chère. Aujourd’hui, les acteurs mondiaux de l’IA parcourent la planète à la recherche d’électricité, et cet avantage est structurellement très fort en Europe, même si on a tendance à le sous-estimer.En quoi les data centers sont-ils devenus un enjeu central ?Chercher de l’or est passionnant, mais pour en trouver, il faut des pelles. Les data centers sont ces pelles : l’outil indispensable pour faire de l’IA et du numérique. Il en faut déjà beaucoup pour répondre à la demande actuelle, et il en faudra encore davantage pour accompagner le développement massif de ces technologies.Comment EDF s’inscrit-il concrètement dans cette stratégie de souveraineté ?Nous avons lancé des appels à manifestation d’intérêt pour aider à installer rapidement de grands data centers en France. Nous proposons des terrains, des sites existants et des raccordements rapides à l’électricité nucléaire française. Trois contrats ont déjà été signés en Seine-et-Marne et en Moselle, et de nouveaux projets sont en cours, notamment sur des sites d’anciennes centrales thermiques. CHAPITRES : 00:00:34 - La souveraineté énergétique en Europe 00:03:05 - L'importance des data centers 00:03:53 - Maîtriser les technologies critiques 00:05:30 - L'innovation et la concurrence 00:06:18 - Inverser la tendance en Europe 00:08:18 - Temps longs et investissements Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Des intelligences artificielles qui échangent sur leur propre réseau social, des agents capables d’agir seuls sur nos ordinateurs, et une relation humain-machine qui s’inverse. Nicolas Guyon décrypte l’émergence de Moltbook et d’OpenClaw, une nouvelle étape spectaculaire de l’IA agentique.Interview : Nicolas Guyon, formateur en intelligence artificielle et podcaster (Comptoir IA)PunchlinesMoltbook est le Web 2.0 des agents.Pour la première fois, les IA communiquent entre elles.Les agents ont des mains et peuvent agir sur nos ordinateurs.Nous devenons les animaux de compagnie des IA.On se rapproche d’une intelligence artificielle générale.Comment interpréter l’étonnant phénomène Moltbook, ce “réseau social des agents IA” ? En quelques jours seulement, plus d’un million d’agents ont été connectés à Moltbook. Ces IA “dialoguent” entre elles, comme le feraient des humain sur le réseau social Reddit. Cela ressemble à une farce mais, même si des humains sont derrière, ce phénomène est révélateur d’une forme d’autonomie des agents. Rassurons-nous, cela ne veut pas dire pour autant que les machines ont pris le pouvoir. En quoi consiste OpenClaw, qui est à l’origine de Moltbook ?OpenClaw est un outil qui permet d’installer et de faire fonctionner un agent IA sur un ordinateur personnel. On n’interagit plus avec un outil générique, mais avec un agent dédié qui évolue dans son propre environnement de travail. C’est comme si l’IA pouvait utiliser un clavier, une souris et un bureau virtuel. Un agent basé sur OpenClaw peut ouvrir des applications, remplir des formulaires, envoyer des emails, générer des fichiers ou produire des tableaux de bord. Tout ce qu’un humain peut faire derrière un ordinateur devient potentiellement accessible à l’agent. C’est comme s’ils avaient des mains. Toutefois, cela soulève de gros problèmes de sécurité, ce qui conduit à l’installer des ordinateurs dédiés. En quoi consiste l’agent Claudio XYZ que tu as jeté dans la bataille ? C’est un agent IA qui fonctionne sur une logique de prédiction et d’engagement. Sur Moltbook, il identifie des sujets porteurs et s’y positionne. La question de la rémunération des agents est devenue un sujet viral, ce qui l’a amené à s’en emparer sans que je l’aie guidé dans ce sens.Jusqu’à présent, l’IA assistait ponctuellement. Aujourd’hui, avec un agent autonome, on délègue des tâches complètes sur la durée, avec de la mémoire et des automatismes. C’est ce que j’explique régulièrement dans le podcast Comptoir IA : on passe d’un copilote à un véritable collaborateur numérique. C’est une étape majeure. CHAPITRES : 00:00:06 - Introduction à Moldbook 00:00:30 - Rencontre avec Nicolas Guyon 00:02:38 - L'émergence de Moldbook 00:08:20 - OpenClaw et ses implications 00:12:40 - Développement de l'agent AI 00:17:42 - L'évolution des agents IA 00:28:34 - Les capacités des agents IA 00:30:32 - Questions de sécurité et de responsabilité 00:37:32 - Conclusion et perspectives d'avenir Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Alors que le réseau social X fait l'objet d'une offensive judiciaire en France, Elon Musk accélère tous azimuts côté IA et espace avec le rapprochement de Xai et SpaceX. Avec Bruno Guglielminetti (Mon Carnet)X perquisitionné à Paris La justice française frappe fort avec une perquisition au siège français de X et la convocation d’Elon Musk en audition libre (annoncée pour le 20 avril 2026), sur fond d’enquête liée à la modération, au fonctionnement de la plateforme et à des contenus illicites. L’épisode met surtout en lumière le choc culturel : la liberté d’expression “à l’américaine” face au cadre légal français et européen, notamment sur les contenus haineux ou négationnistes, avec en toile de fond la question (explosive) d’une éventuelle interdiction. xAI + SpaceX : la tentation des data centers dans l’espaceOn revient sur le rapprochement spectaculaire entre l’IA de Musk (et son assistant Grok) et l’écosystème spatial, avec l’idée vertigineuse de faire converger puissance de calcul et infrastructure orbitale. Derrière le gigantisme, l’épisode défend une logique stratégique : énergie, foncier, souveraineté industrielle… et course mondiale à l’IA, où “ralentir” revient à se faire distancer.Réseaux sociaux : l’Europe en arbitre, l’Espagne emboîte le pasAprès la décision de la France de faire interdire les réseaux sociaux aux moins de 15 ans, l'Espagne lui emboite le pas et annonce à son tour une interdiction aux moins de 16 ans. Un effet domino destiné à peser sur Bruxelles.Publicité dans l'IA : Anthropic joue les pursAnthropic choisit une posture “sans pub” pour Claude et raille le scénario d’assistants IA qui glissent des annonces au milieu de conversations intimes. En face, OpenAI explique tester la publicité sur certaines offres de ChatGPT (avec l’engagement de séparer clairement pub et réponses), relançant le débat sur l’influence commerciale dans l’IA conversationnelle.Alexa+ arrive pour de bon Bruno évoque l'arrivée d’Alexa+ au Canada, en attendant son lancement en Europe. Un assistant vocal plus fluide, plus conversationnel, capable de gérer des tâches de manière proactive, et accessible aussi via le web. (Re)voir : Alexa sort le grand jeu et devient vraiment intelligente. CHAPITRES : 00:00:08 - Introduction à l'actualité d'Elon Musk 00:01:05 - Les tensions autour de X et la France 00:05:36 - Fusion entre SpaceX et XAI 00:09:19 - La robotique et l'avenir de Tesla 00:13:29 - La vision d'Elon Musk 00:13:53 - Peurs autour de l'intelligence artificielle 00:17:05 - Publicité et IA : le débat 00:22:48 - Le déploiement d'Alexa Plus 00:25:10 - L'essor d'OpenCloud et Moldbook 00:28:12 - Perspectives sur la souveraineté énergétique 00:29:33 - Les robots et les implications fiscales Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
loading
Comments (1)

Enrique Capilla

la stratégie de la monetisation des données ne sera pas si rentable avec l'arrivée du Web3.0 CQFD

Nov 13th
Reply
loading