DiscoverDataGen
DataGen
Claim Ownership

DataGen

Author: Robin Conquet

Subscribed: 141Played: 4,281
Share

Description

DataGen est un podcast qui permet de comprendre les stratégies data des plus belles boîtes en France. Je m'appelle Robin Conquet et chaque semaine j'invite un expert de la data pour décrypter ses problématiques. BlaBlaCar, Doctolib, Pernod Ricard, Deezer et bien d'autres, dans ce podcast, tu découvriras comment les entreprises qui réussissent utilisent la data.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

264 Episodes
Reverse
Mathias is Head of Data for Marketing at N26, the Berlin-based neobank valued at over $9 billion. He joined as a Senior Data Analyst in May 2020 and has since scaled the team to 12 people.We cover :🔥 His journey to becoming Head of Data for Marketing at N26🔥 His main projects: Marketing Mix Modeling, User Value Modeling, Data Governance & Data Quality🔥 The data stack at N26: AWS, Snowplow, dbt, Redshift, Metabase…🔥 His main challenges: scale-up volatility and the classic imposter syndrome📚 RESOURCES- Mathias’s LinkedIn profile- The book of Zhamak Dehghani Data Mesh : Delivering Data-Driven Value at Scale- The book of Joe Reis & Matt Housley Fundamentals of Data Engineering: Plan and Build Robust Data- The book of Gene Kim, Kevin Behr and George Spafford The Phoenix Project- The book of Gene Kim The DevOps Handbook- The book of Gene Kim The Unicorn Project- The book of Gene Kim, Jez Humble and Nicole Forsgren PhD Accelerate🎬 CHAPTERS00:00 Introduction to N2603:25 How he became Head of Data for Marketing at N2610:49 1st project: implementing a Marketing Mix Model17:36 2nd project: building a User Value Model20:57 3rd project: Data Governance & Quality23:37 The data stack at N2625:16 The biggest challenges29:29 What’s next: decision automation31:11 Mathias’s favorite resources32:14 Why he loves working in data🤩 OTHER EPISODES YOU SHOULD LOVE🇺🇸 #114 - BlaBlaCar : Managing 50 Data People with Manu, VP Data🇺🇸 #106 - Aircall: Adapting the Data Strategy to the slowing economic environment🇺🇸 #96 - Deezer : How I restructured the Business Analytics team and made it more Business-Focused 👋 MORE DATA CONTENT?1/ Follow me on LinkedIn here 🤳2/ Sign up for the newsletter (summaries, events) here 💌3/ Check out the podcast in video format on YouTube here 📹🎙 SUPPORT THE PODCAST FOR FREE1/ Subscribe 🔔2/ Leave a 5 stars review on Apple Podcasts here 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Nicolas Mauti est Staff MLOps Engineer chez Malt, où il a été le premier MLOps de l’équipe. Malt c’est la plateforme leader du freelancing en Europe, qui met en relation des freelances avec des entreprises.Dans cet épisode, Nicolas revient sur son principal défi de ces dernières années : mettre en place et structurer une approche MLOps chez Malt, dans un contexte déjà mature côté data, puis l’adapter à l’arrivée massive des IA génératives.On aborde :🔥 Le profil de Nicolas et le contexte chez Malt qui nécessite un rôle MLOps🔥 Les fondations MLOps chez Malt : feature store, rationnalisation des pipelines ML, CI/CD & monitoring🔥 L’évolution du besoin MLOps avec l’arrivée des IA génératives🔥 La stack technique de Malt et les prochaines étapes de l’équipe📚 RESSOURCES- Le LinkedIn de Nicolas- Le blog Malt Engineering sur Medium- La communauté MLops- Pour recevoir le dossier sur les plus gros challenges des leaders data invités sur DataGen, s'inscrire à la newsletter ici🎬 CHAPITRES00:00 Le parcours de Nicolas03:41 Le contexte à son arrivée05:14 Chantier #1 : Centralisation des features (aka Feature Store)08:05 Chantier #2 : Optimisation des pipelines ML et CI/CD10:34 Chantier #3 : Monitoring & alerting16:01 Comment l'arrivée des GenAI impacte les besoins MLOps18:39 Le premier projet LLMOps24:22 L’acculturation des équipes Engineering29:58 Leur stack MLOps34:20 Leurs prochaines étapes35:56 Sa recommandation de contenu36:54 Son meilleur conseil🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#170 - Leboncoin : De la Data Science au ML Engineering#211 - Brevo : Mettre en place une approche DataOps#234 - Malt : Déployer des assistants IA à l’échelle👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Christophe Blefari est le créateur de la newsletter data blef.fr la plus connue en France. Il a été Head of Data, Head of Data Engineering et Staff Data Engineer dans des startups comme des grands groupes et est selon moi l'un des plus grands experts data en France. Récemment, il a cofondé nao Labs, un éditeur de code à destination des équipes data qui utilise l'IA.On aborde :🔥 La stratégie derrière la fusion Fivetran x dbt : créer un centre de gravité plus gros pour concurrencer les mastodontes🔥 L'impact sur les équipes Data : frustration de la communauté open source, positionnement enterprise…🔥 L’approche "one-stop shop” avec des rachats probables à venir (data catalog, orchestrateur…)🔥 Les news de dbt Coalesce : Open Semantic Interchange, Metric Flow en Open Source…💪 DEVENIR ANALYTICS ENGINEER AVEC DATABIRD ET DATAGENOn a lancé un bootcamp spécialisé sur l’Analytics Engineering en collaboration avec DataBird.📚 Découvrir le programme du bootcamp ici🎙 Regarder l’épisode 151 Devenir Analytics Engineer en 6 semaines avec DataBirdDataGen opère ce bootcamp Analytics Engineering en collaboration avec DataBird et touche une commission sur les inscriptions. 🙂📚 RESSOURCES- Le LinkedIn de Christophe- Sa newsletter blef.fr- Sa boîte nao- L'article “Build Your Own Database”🎬 CHAPITRES00:00 Fusion dbt x Fivetran06:18 La stratégie du côté de dbt09:44 La stratégie du côté de Fivetran12:54 L’impact sur les équipe Data19:44 Quelles seront les synergies ?22:41 Les news clés de dbt Coalesce24:55 Sa ressource préférée🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#231 - On décrypte avec Blef : Sommets Snowflake et Databricks, ClickHouse, DuckDB, BigQuery #224 - Blef a passé 3 mois chez Y Combinator aux US#186 – On compare dbt & SQLMesh avec Christophe Blefari (aka Blef)👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bastien Caunègre est Head of Data Platform chez Ornikar. La scale-up qui a dépoussiéré l'auto-école en la rendant 100% en ligne et qui s’est récemment lancée dans l’assurance auto. Arrivé comme premier Analytics Engineer, il a déployé l’approche Analytics Engineering chez Ornikar et pilote aujourd’hui l’équipe Data Platform.On aborde :🔥 Les 1ères initiatives : CI/CD dbt, FinOps, naming conventions🔥 La construction d’un Semantic Layer dans dbt pour centraliser les métriques🔥 La structuration d’une gouvernance pour accompagner l’équipe Analytics (standards sur Notion, building committee…)🔥 Leur usage des GenAI et de l’automatisation : Dust pour le self-service analytics, n8n pour les workflows sur Git💪 DEVENIR ANALYTICS ENGINEER AVEC DATABIRD ET DATAGENOn a lancé un bootcamp spécialisé sur l’Analytics Engineering en collaboration avec DataBird.📚 Découvrir le programme du bootcamp ici🎙 Regarder l’épisode 151 Devenir Analytics Engineer en 6 semaines avec DataBirdDataGen opère ce bootcamp Analytics Engineering en collaboration avec DataBird et touche une commission sur les inscriptions. 🙂📚 RESSOURCES - Le LinkedIn de Bastien- La newsletter Blef.fr- Pour recevoir les 100+ ressources préférées des Head of Data invités sur DataGen, s'inscrire à la newsletter ici🎬 CHAPITRES0:00 Son parcours02:23 L’orga de l’équipe Data02:56 L’approche Analytics Engineering05:00 Les 1ères actions12:01 La gouvernance13:41 Semantic Layer dans dbt19:29 Intégration de Dust24:32 Automatisations avec n8n26:25 Next steps26:56 Sa reco de contenu27:37 Son meilleur conseil🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER #225 - Qover : Structurer son Data Warehouse & Modéliser ses Données (dbt, Médaillon…)#216 - Datadog : Adopter une approche Analytics Engineering et Self-Service#154 - Doctolib : Adopter une approche Analytics Engineering et Self-Service👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Colin is the co-founder & CEO of Omni, the Business Intelligence tool that has seen rapid adoption over the past years. By 2025, Omni had raised $69 million and reached a valuation of $650 million. Many data leaders are now choosing to abandon their traditional BI tools in favor of Omni.We address :🔥 Why Colin left his role as VP of Product at Looker to build a new BI tool🔥 The Omni vision: reconciling enterprise BI governance with the flexibity of Excel and SQL🔥 AI for Analysis (”chat with your data”): what Omni did differently in its Semantic Layer to make it work🔥 The future of Data teams when anyone can do complex analyses in minutes❤️ SPONSORThis episode is made possible by Omni, the next-generation BI platform already used by many companies (Brevo, Photoroom, etc.).👉 Discover the demos📚 RESOURCES- Colin's LinkedIn- Jason Lemkin’s SaaStr blog- Dave Kellog’s Kellblog blog- Demos on the Omni website (Build in Public)🎬 CHAPTERS00:00 Colin’s career path01:37 Omni’s initial vision05:07 From Looker to Omni09:42 Why data leaders choose Omni15:53 AI for Analysis (”Chat with your data”): what Omni did differently in its Semantic Layer to make it work20:12 “Building in public” at Omni24:36 The evolution of data teams30:58 The specifics of the French market32:30 Colin’s resource recommendations33:13 What he likes most about data🤩 OTHER EPISODES YOU SHOULD LOVE#236 - Photoroom : Déployer une stratégie GenAI pour l’analytics et x15 sa vitesse de delivery#192 - Gorgias : Mettre en place une approche Self-Service Analytics grâce aux IA Génératives #184 - Brevo : Mettre en place de l’embedded analytics dans le Produit👋 MORE DATA CONTENT?1/ Follow me on LinkedIn here 🤳2/ Sign up for the newsletter (summaries, events) here 💌3/ Check out the podcast in video format on YouTube here 📹🎙 SUPPORT THE PODCAST FOR FREE1/ Subscribe 🔔2/ Leave a 5 stars review on Apple Podcasts here 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Voici le bilan 2025 et les nouveaux projets de 2026 pour DataGen ! 🔥🎬 CHAPITRES00:00 Intro01:25 Les performances03:20 Le top 3 épisodes05:06 Le chiffre d'affaires07:49 Grosse news10:39 Update perso🤩 LE TOP 3 DE 2025#179 - dbt : L’outil le plus adopté ? ⚙️#196 - Monter l’équipe GenAI d’une licorne#183 - BlaBlaCar : Adopter une approche “Staff” dans l’équipe Data👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Angélique Bidault-Verliac est Chief Data & Performance Officer chez SNCF Connect & Tech, la filiale digitale de SNCF Voyageurs. Avant ça, elle était Chief Data Officer chez OUI.SNCF depuis 2018, ce qui lui donne un solide recul sur les enjeux data du groupe. Elle revient sur la stratégie data menée ces 4 dernières années.On aborde :🔥 Chantier #1 : re-structurer l’architecture Cloud pour absorber 1,5 milliard de visites par an🔥 Chantier #2 : déployer un plan de gouvernance à l’échelle du groupe🔥 Chantier #3 : mettre la donnée à disposition en temps réel🔥 Leurs plus gros challenges : trouver une vision technologique commune et embarquer les métiers💪 VOUS AVEZ UN PROJET DATA ?DataGen a lancé un collectif de freelances data issus des plus belles boîtes (BlaBlaCar, Aircall, Critéo, Artefact, 55, Sunday...).Vous avez un projet data ? On a l'équipe qu'il vous faut : Head of Data, Data Analyst, Data Engineer, Data Scientist, etc.👉 Nous rencontrer ici📚 RESSOURCES- Le LinkedIn d'Angélique- Le film "The Creator" de Gareth Edwards- Pour recevoir Les plus gros challenges des leaders data invités sur DataGen, s'inscrire à la newsletter ici🎬 CHAPITRES00:00 Leur orga03:00 Le contexte data 03:50 Chantier #1 : Achitecture Cloud 07:34 Chantier #2 : Gouvernance 10:55 Chantier #3 : Temps réel13:38 Cas d’usage : la “rétrainspective”15:45 Leurs 3 plus grosses difficultés22:25 Leurs prochaines étapes23:18 Sa ressource préférée24:23 Son meilleur conseil🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#237 - ENGIE : Déployer la stratégie Data & IA dans l’Industrie#194 - Sanofi : Les 3 piliers de leur Stratégie Data & IA (cas d’usage, Data Mesh, Stack)#123 - Starburst : Accélérer l’accès au Data Lake et attaquer plusieurs sources en une requête👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Matthieu Rousseau est un expert en Data Engineering, sur le sujet de la Modern Data Stack et notamment sur dbt. Il a monté Modeo, l’agence spécialisée sur l’IA et le Data Engineering (dbt, Snowflake, Airflow, DLT, Databricks...).On aborde :🔥 Les étapes clés pour mettre en place dbt : choix open source vs cloud, structuration des projets, orchestration et observabilité🔥 Les 5 avantages de l'outil : cadre de travail, time to market, qualité des données, self-service BI et intégration dans la stack🔥 Ses inconvénients : structuration complexe sur les gros projets, limitations du SQL et learning curve pour les Data Analysts🔥 Les conseils de Matthieu : documentation & tests dès le début, séparation logiques techniques/métiers, usage de librairies open source❤️ PARTENAIRECet épisode est rendu possible par Modeo, l’agence spécialisée sur l’IA et le Data Engineering (dbt, Snowflake, Airflow, DLT, Databricks...).👉 Découvrir leur guide pour mettre en place dbt : ici👉 Contacter Matthieu sur LinkedIn👉 Contacter Matthieu par mail : matthieu@modeo.ai📚 RESSOURCES- Le LinkedIn de Matthieu- Le blog Start Data Engineering- Le guide de Modeo pour mettre en place dbt : ici- Le blog de Modeo🎬 CHAPITRES00:00 Qu’est-ce que dbt ?01:41 Pourquoi l’outil est autant utilisé ?03:44 Les étapes clés08:29 Les avantages14:50 Les inconvénients17:30 Les conseils de Matthieu20:24 Ses ressources préférées🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#203 - Masterclass | Mettre en place une Modern Data Stack avec Matthieu Rousseau#143 - Masterclass | Tout comprendre sur le DataOps avec Matthieu Rousseau#85 - Masterclass | Comprendre la Modern Data Stack avec Matthieu Rousseau👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Victor Cumer est Data Engineering Team Lead chez Qonto, la solution bancaire en ligne pour les PME et les indépendants qui est aussi l'une des plus belles licornes françaises. Avant de rejoindre Qonto, Victor était Head of Data Platform chez Veepee, une autre licorne française.On aborde :🔥 L’objectif de Victor en arrivant : stabiliser et scaler la Data Platform🔥 Ses 4 chantiers clés : Observabilité, Data Contracts, Automatisation & Self-Service🔥 Les difficultés : faire adhérer la nouvelle vision à l’équipe, faciliter l’adoption des utilisateurs🔥 Les prochaines étapes : intégrer des solutions autour de la gouvernance des données💪 VOUS AVEZ UN PROJET DATA ?DataGen a lancé un collectif de freelances data issus des plus belles boîtes (BlaBlaCar, Aircall, Critéo, Artefact, 55, Sunday...).Vous avez un projet data ? On a l'équipe qu'il vous faut : Head of Data, Data Analyst, Data Engineer, Data Scientist, etc.👉 Nous rencontrer ici📚 RESSOURCES- Le LinkedIn de Victor- Le livre Deciphering Data Architectures de James Serra- Pour recevoir le dossier sur les plus gros challenges des leaders data invités sur DataGen, s'inscrire à la newsletter ici🎬 CHAPITRES00:00 Le contexte à son arrivée02:34 Objectif : Stabiliser la plateforme04:01 Chantier #1 : Observabilité07:12 Chantier #2: Data Contracts17:21 Chantier #3 : Automatisation21:06 Chantier #4 : Self-Service28:19 La stack chez Qonto31:33 Les plus grosses difficultés36:30 Les prochaines étapes38:43 Ses reco de contenu41:05 Pourquoi il aime la data🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#225 - Qover : Structurer son Data Warehouse & Modéliser ses Données (dbt, Médaillon…)#211 - Brevo : Mettre en place une approche DataOps#84 - Veepee : Utiliser les Data Contracts pour scaler sa Data Platform👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Thomas Pocreau est Staff Machine Learning Engineer chez BlaBlaCar, la licorne de covoiturage et de transport que tout le monde connaît.On aborde :🔥 Pourquoi ils ont adopté une approche Staff dans l’équipe Data🔥 La différence entre un Staff et un Senior🔥 2 exemples de projets Staff🔥 Les plus gros challenges de la création du poste❤️ PARTENAIRECe podcast est rendu possible par dbt Labs qui développe dbt, l’outil le plus mentionné sur le podcast.👉 Contacter Jeremy sur LinkedIn ou par mail : jeremy@dbtlabs.com👉 Demander une démo : https://bit.ly/40kXh8K📚 RESSOURCES- Le LinkedIn de Thomas- Le Machine Learning Rules Book de Google- The Staff Engineer's Path de Tanya Reilly🎬 CHAPITRES00:00 Générique00:43 Intro05:40 Le contexte08:13 Senior vs Staff11:06 1er projet : MLOps13:19 2ème projet : Analytics21:09 Le plus gros challenge de Thomas25:46 Les plus gros challenges de BlaBlaCar lors de la création du poste de Staff Data27:41 Les prochaines étapes pour l’approche staff chez BlaBlaCar29:07 Les questions de la fin (ressources, conseil)🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#170 - Leboncoin : De la Data Science au ML Engineering#154 - Doctolib : Adopter une approche Analytics Engineering et Self-Service#150 - Back Market : Re-centraliser l’équipe et la stratégie Data (organigramme, stack…)🇬🇧 #114 - BlaBlaCar : Managing 50 Data People with Manu, VP Data💪 DEVENIR ANALYTICS ENGINEER AVEC DATABIRD ET DATAGEN On lance un bootcamp spécialisé sur l’Analytics Engineering en collaboration avec DataBird.📚 Découvrir le programme du bootcamp ici🎙 Ecouter l’épisode #151 Devenir Analytics Engineer en 6 semainesDataGen lance ce bootcamp Analytics Engineering en collaboration avec DataBird et donc touchera une commission sur les inscriptions. 🙂👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Samya est Generative AI Research Lead chez Pigment, la nouvelle licorne française qui a levé +230 millions de dollars.On aborde :🔥 La genèse de l’équipe GenAI et sa stratégie🔥 Deux exemples de projets GenAI appliqués au Produit🔥 L’organisation de l’équipe et leur architecture technique (OpenAI, LangChain, Langfuse…)🔥 La plus grosse difficulté : trouver le bon équilibre performance x latence💪 VOUS AVEZ UN PROJET DATA ?DataGen a lancé un collectif de freelances data issus des plus belles boîtes (BlaBlaCar, Aircall, Critéo, Artefact, 55, Sunday...).Vous avez un projet data ? On a l'équipe qu'il vous faut : Head of Data, Data Analyst, Data Engineer, Data Scientist, etc.👉 Nous rencontrer📚 RESSOURCES- Le LinkedIn de Samya- L'épisode DeepSeek, China, OpenAI, NVIDIA, xAI, TSMC, Stargate, and AI Megaclusters du podcast de Lex Fridman- La newsletter AlphaSignal🎬 CHAPITRES00:00 Pigment en deux mots01:53 Le parcours de Samya03:47 La genèse de l’équipe GenAI et leur stratégie06:33 Les 2 exemples de projets08:14 L’organisation de l’équipe11:17 L'architecture technique (OpenAI, LangChain, Landfuse…)16:53 Leur plus grosse difficulté : l’équilibre performance x latence22:25 Leurs prochaines étapes25:21 Les dernières questions (recommandations, conseil)🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#159 - Malt : Mettre en place un assistant IA (Dust, Gemini…)#148 - Ledger : Leurs 6 projets GenAI en production#146 - L’Oréal : Mettre en place une Stratégie IA Génératives#127 - Doctolib : Déployer une stratégie IA Générative 👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Jeremy Cohen est Principal Product Manager chez dbt, la solution de transformation souvent mentionnée sur le podcast. On en a parlé avec des 10aines de boîtes : BlaBlaCar, Doctolib mais aussi des plus grosses boîtes comme Decathlon.🎬 CHAPITRES00:00 Générique00:32 Intro03:27 La genèse de dbt08:51 dbt aujourd’hui14:54 Ses facteurs de succès17:13 L’impact de la GenAI sur dbt21:19 Les autres tendances : Iceberg, accessibilité, Semantic Layer28:02 Les questions de la fin (ressources, conseil)❤️ PARTENAIRECe podcast est rendu possible par dbt Labs qui développe dbt, l’outil le plus mentionné sur le podcast.👉 Contacter Jeremy sur LinkedIn ou par mail : jeremy@dbtlabs.com👉 Demander une démo : https://bit.ly/40kXh8K📚 RESSOURCES- Le LinkedIn de Jeremy Cohen- Le Roundup de dbt🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#176 - Agorapulse : Structurer le département Data d’une startup#141 - On décrypte avec Blef : GenAI & Self-Service, Metric Tree, ClickHouse, progresser en tant que DE#129 - BlaBlaCar : Scaler l’impact de l'équipe Data Engineering💪 DEVENIR ANALYTICS ENGINEER AVEC DATABIRD ET DATAGEN On lance un bootcamp spécialisé sur l’Analytics Engineering en collaboration avec DataBird.📚 Découvrir le programme du bootcamp ici🎙 Ecouter l’épisode #151 Devenir Analytics Engineer en 6 semainesDataGen lance ce bootcamp Analytics Engineering en collaboration avec DataBird et donc touchera une commission sur les inscriptions. 🙂👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Arthur Feger est Director of AI & Analytics chez Carrefour. Après six ans chez Ekimetrics, il a rejoint Carrefour pour diriger les chantiers data et IA pour l'e-commerce et le marketing. Il s'est intéressé très tôt aux IA génératives et a notamment construit le chatGPT interne de Carrefour. Maintenant, c'est lui qui porte la vision de l'IA agentique chez Carrefour.On aborde :🔥 Les agents à destination de l’externe : agent pour faire ses courses, service client…🔥 Leur stratégie pour déployer des agents pour l’interne : approche Self-Service et agents complexes🔥 Les outils utilisés et l’organisation pour déployer leurs agents : Data Scientists, Software Engineers…🔥 Leurs plus grosses difficultés : UX et déploiement d’agents par des profils non techniques❤️ PARTENAIRECet épisode est rendu possible par Arcane, le cabinet de conseil spécialisé sur la stratégie data appliquée au marketing qui travaille notamment avec Leroy Merlin, Decathlon ou encore Europcar Mobility Group.👉 Ecouter l'épisode Quelle stratégie data adopter pour scaler sa performance marketing ? avec Denis👉 Recevoir l'article rédigé par Arcane pour connaître la méthode, les outils et l’équipe à mettre en place ici👉 Contacter Denis sur LinkedIn ou par mail : denis@wearcane.com📚 RESSOURCES- Le LinkedIn de Arthur- La chaîne YouTube de Andrej Karpathy- Le cours Structuring Machine Learning Projects de Andrew Ng🎬 CHAPITRES00:00 Le contexte IA de Carrefour04:04 Les initiatives agentiques08:15 L’agentique appliquée au service client13:49 La stratégie agentique pour l’interne18:28 Un agent IA pour l'expansion des magasins22:46 Leur stack IA agentique24:39 Leur organisation27:10 Leurs plus grosses difficultés31:57 Ses recommandations de contenu32:43 Ses conseils pour progresser🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#234 - Malt : Déployer des assistants IA à l’échelle#233 - Carrefour : Déployer la stratégie IA Générative du Groupe#197 - Salesforce : Déployer des agents IA dans le Retail avec Agentforce👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Christophe Blefari est le créateur de la newsletter data Blef.fr la plus connue en France. Il a été Head of Data, Head of Data Engineering et Staff Data Engineer dans des startups et des grands groupes et est selon moi l'un des plus grands experts data en France. Récemment, il a cofondé Nao, un éditeur de code à destination des équipes Data qui utilisent l'IA.On décrypte 4 tendances Data & IA de 2026.On aborde :🔥 La GenAI pour la Data Analyse : “chat with your data”, état des lieux, semantic layer🔥 La GenAI pour le Data Engineering : “chat with your Modern Data Stack”, MCP, impacts sur l’équipe Data🔥 La GenAI “en production” : 95% des projets ne sont pas en production, limites technologiques, besoins en AI Engineers🔥 Le scale des Assistants IA en interne : enjeux différents (adoption, formation, communauté, automatisation & no code)📚 RESSOURCES- Le LinkedIn de Christophe Blefari- Sa newsletter Blef.fr- Sa boîte Nao- Le LinkedIn de Naïm Kosayyer (Selfr) - L'étude MIT sur les projets GenAI - Pour recevoir la liste des 10 outils Data & IA à suivre, s'inscrire à la newsletter ici🎬 CHAPITRES00:00 “Chat with your data”13:59 “Chat with your Modern Data Stack”22:50 L’impact sur l’équipe Data27:51 La GenAI “en production”36:20 Le scale des assistants IA🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMERLes épisodes avec Malt, Gorgias, Pigment, Mirakl, Decathlon, Doctolib et Photoroom.💪 VOUS AVEZ UN PROJET DATA ?DataGen a lancé un collectif de freelances data issus des plus belles boîtes (BlaBlaCar, Aircall, Critéo, Artefact, 55, Sunday...).Vous avez un projet data ? On a l'équipe qu'il vous faut : Head of Data, Data Analyst, Data Engineer, Data Scientist, etc.👉 Nous rencontrer ici👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Kévin Bourlier est Solutions Consultant chez Adobe, l'éditeur qui propose de nombreuses solutions et notamment des solutions data. Avant ça, il est passé par plusieurs autres belles boîtes comme SeLoger et 55 où il était Lead Tech sur les sujets Analytics.On aborde :🔥 Les 4 étapes clés pour personnaliser l’XP client à l’échelle : création de contenu, hébergement des assets, activation data et mesure du ROI🔥 Le concept de Content Supply Chain et comment gérer le cycle de vie de milliers d'assets🔥 L'unification des données pour orchestrer les campagnes sur tous les canaux (web, mobile, hors ligne...)🔥 Comment la GenAI accélère ces processus et zoom sur la nouvelle tendance du GEO (Generative Engine Optimization)❤️ PARTENAIRE Cet épisode est rendu possible par Adobe, l'éditeur de logiciels spécialisé sur la personnalisation de l'expérience client à l'échelle.👉 Contacter Kévin sur LinkedIn👉 Contacter Kévin par mail📚 RESSOURCES - Le LinkedIn de Kévin- Le livre Mindset de Carol S. Dweck- Le blog Data Analyst- Pour recevoir les 100+ ressources préférées des Head of Data invités sur DataGen, s'inscrire à la newsletter ici🎬 CHAPITRES00:00 La genèse d'Adobe02:03 Leur vision03:49 #1 : Création de contenu09:54 #2 : Hébergement11:46 #3 : Activation18:46 #4 : Mesure du ROI22:48 Les plus grosses difficultés : unification, gestion de projet24:20 La tendance majeure du moment : GEO26:07 Ses ressources préférées🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER #235 - Masterclass | Déployer une stratégie data pour scaler sa performance marketing avec Denis Ravera#234 - Malt : Déployer des assistants IA à l’échelle#233 - Carrefour : Déployer la stratégie IA Générative du Groupe👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Louise est Data Team Lead au Ministère de la Transition Écologique. Après un parcours en startups, elle a rejoint le Ministère pour piloter un projet qui permet d’accélérer la transition écologique : avec son équipe, elle a construit des indicateurs pour aider les territoires à mesurer leurs progrès climatiques.On aborde :🔥 Comment ce projet s’insère dans la stratégie de Transition Écologique de la France🔥 L’identification des indicateurs et la mise en place d’une Data Gouvernance🔥 La mise en place d’une Modern Data Stack et les choix spécifiques de Scaleway et CubeJS🔥 Les plus grosses difficultés : infrastructure adaptée à l’Open Data et adoption des indicateurs💪 DEVENIR ANALYTICS ENGINEER AVEC DATABIRD ET DATAGENOn a lancé un bootcamp spécialisé sur l’Analytics Engineering en collaboration avec DataBird.📚 Découvrir le programme du bootcamp ici🎙 Regarder l’épisode 151 Devenir Analytics Engineer en 6 semaines avec DataBirdDataGen opère ce bootcamp Analytics Engineering en collaboration avec DataBird et donc touche une commission sur les inscriptions. 🙂📚 RESSOURCES- Le LinkedIn de Louise- Le catalogue des données pour la transition écologique (aka les indicateurs territoriaux)- La newsletter blef.fr- Le Slack Modern Data Stack- La chaine YouTube de Riley Brown- Pour recevoir les 10 outils Data & IA à suivre en 2025, s'inscrire à la newsletter ici🎬 CHAPITRES00:00 Son parcours02:36 Le contexte09:57 Chantier #1 : Modern Data Stack10:30 Le choix de CubeJS12:42 Chantier #2 : Data gouvernance15:19 Leurs plus gros challenges18:50 Leurs prochaines étapes21:10 Ses ressources préférées🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#193 - Comprendre l’impact de l’IA sur le Climat avec Lou Welgryn de Data For Good, ex-Carbon4#140 - Chief Data & AI Officer au Service du Premier Ministre👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Matthieu Ramognino a été Lead Data Analyst chez Criteo puis freelance pour plein de belles boîtes pendant plus de 5 ans. En 2024, il a lancé avec moi le Collectif DataGen qui réunit les meilleurs freelances data & IA du marché et début 2025, il a lancé DataNomad, un podcast dans lequel il invite également les meilleurs freelances data & IA pour décortiquer leurs parcours.On aborde :🔥 Les types de boîte qui recrutent en freelance : grosses boîtes (85% du marché), scaleups…🔥 Les formats de mission selon le type de boîte : temps plein, mi-temps, missions ponctuelles🔥 Les vrais TJM : fourchettes par type de profil et quelques exemples concrets🔥 Quelles boîtes acceptent le full-remote : grosses boîtes ? startups ?🎧 DÉCOUVREZ LE PODCAST DATANOMADDataNomad est un podcast animé par Matthieu Ramognino, qui aide à réussir en tant que freelance data.Dans chaque épisode, il échange avec des profils issus d’entreprises comme Criteo, Doctolib, Ecole 42 ou Le Wagon, qui ont choisi de se lancer dans l’aventure freelance. On y découvre leurs parcours, leurs motivations et leurs meilleurs conseils pour se lancer et performer en freelance.👉 Écouter le podcast ici👉 Contacter Matthieu sur LinkedIn👉 Candidater pour rejoindre leCollectif ici🎬 CHAPITRES00:00 Overview du marché09:11 Les TJM15:54 Le Full-remote19:27 Ses ressources préférés✍️ L'ÉDITION SPÉCIALE "LES PLUS GROS CHALLENGES DES LEADERS DATA INVITÉS SUR DATAGEN" Lire l'édition spéciale de notre newsletter Ici💪 VOUS AVEZ UN PROJET DATA ?DataGen a lancé un collectif de freelances data issus des plus belles boîtes (BlaBlaCar, Aircall, Critéo, Artefact, 55, Sunday...).Vous avez un projet data ? On a l'équipe qu'il vous faut : Head of Data, Data Analyst, Data Engineer, Data Scientist, etc.👉 Nous rencontrer ici👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Julien Richard est Senior Data Science Manager chez Doctolib, la licorne que tout le monde connait. En 2024, Doctolib avait lancé ses premiers projets GenAI. Un an plus tard, ils ont déjà commercialisé des solutions GenAI auprès de 1000 médecins.On aborde :🔥 La stratégie et les projets GenAI déployés chez Doctolib🔥 Le chantier principal qui représente 95% du travail : l’évaluation🔥 L’organisation des équipes et la stack utilisée🔥 La plus grosse difficulté : le change management❤️ PARTENAIRECet épisode est rendu possible par Arcane, le cabinet de conseil spécialisé sur la stratégie data appliquée au marketing qui travaille notamment avec Leroy Merlin, Decathlon ou encore Europcar Mobility Group.👉 Ecouter l'épisode Quelle stratégie data adopter pour scaler sa performance marketing ? avec Denis👉 Recevoir l'article rédigé par Arcane pour connaître la méthode, les outils et l’équipe à mettre en place ici👉 Contacter Denis sur LinkedIn ou par mail : denis@wearcane.com📚 RESSOURCE- Le LinkedIn de Julien🎬 CHAPITRES00:00 La genèse de la stratégie GenAI02:52 Les projets GenAI de Doctolib07:16 Le plus gros chantier : l’évaluation12:33 Les outils utilisés16:03 L’organisation24:16 Le change management27:23 Les prochaines étapes de la stratégie GenAI28:56 Ses ressources préférées 29:36 Ses conseils pour progresser 🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#226 - Brevo : Monter l'équipe GenAI appliquée au Produit (Centaure, +100 millions ARR)#212 - BlaBlaCar : Déployer un projet GenAI qui rapporte 1 million par an#127 - Doctolib : Déployer une stratégie IA Générative👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Morgane Dawant est Chief Data & AI Officer d’ENGIE Solutions France, acteur majeur de la transition énergétique. Arrivée il y a douze ans en tant que Data Scientist, elle pilote aujourd’hui la stratégie Data & IA de l'un des 4 grands départements du Groupe.On aborde :🔥 La mise en place d’une gouvernance data pragmatique et orientée ROI🔥 Le déploiement des cas d’usage IA (ex : chatbot pour les techniciens)🔥 L’organisation des équipes Data & IA chez Engie🔥 Son plus gros challenge : aligner 15 000 personnes❤️ PARTENAIRECet épisode est rendu possible par Arcane, le cabinet de conseil spécialisé sur la stratégie data appliquée au marketing qui travaille notamment avec Leroy Merlin, Decathlon ou encore Europcar Mobility Group.👉 Ecouter l'épisode Quelle stratégie data adopter pour scaler sa performance marketing ?👉 Recevoir l'article rédigé par Arcane pour connaître la méthode, les outils et l’équipe à mettre en place ici👉 Contacter Denis sur LinkedIn ou par mail : denis@wearcane.com📚 RESSOURCES- Le LinkedIn de Morgane- Le livre Chief Data Officer de Gilbert Ton et Alain Yen-Pon- Le livre I.A 2042 - Dix scénarios pour notre futur- L'édition spéciale Les plus gros challenges des leaders data invités sur DataGen de notre newsletter🎬 CHAPITRES00:00 L’orga des équipes Data 02:58 Contexte à son arrivée 04:28 Chantier 1 : Data Gouvernance08:14 Chantier 2 : IA12:46 L’orga des équipes Data & IA14:24 Leurs plus grosses difficultés16:43 Leurs prochaines étapes 19:29 Sa vision du rôle de CDO20:46 L’évolution du métier en 12 ans🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#221 - Comment l’ex-Head of Data d’Airbnb structure le département Data & IA chez Malt#194 - Sanofi : Les 3 piliers de leur Stratégie Data & IA (cas d’usage, Data Mesh, Stack)#156 - AXA France : Les 3 piliers de leur Stratégie Data & IA (Culture, Organisation et Tech)👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Juliette Duizabo a été Head of Data chez Ovrsea, puis Agorapulse et maintenant Photoroom. Elle a beaucoup testé l’usage des IA Génératives pour le Self-Service dans l’analytics et a mis les best practices en place chez Photoroom.On aborde :🔥 Sa vision : réponses en moins d’une seconde, vitesse de delivery de l’équipe Data x15🔥 La mise en place sur toute la chaîne : Ingestion, Transformation, Semantic Layer, Analyse🔥 L’organisation pour déployer cette stratégie et les outils utilisés (Omni, Nao…)🔥 L’impact sur l'équipe Data : évolution des rôles de Data Analysts et d’Analytics Engineers❤️ PARTENAIRECet épisode est rendu possible par Denodo, la solution de virtualisation de données utilisée par presque un tiers du CAC 40, notamment la BNP, TotalEnergies ou le Crédit Agricole.👉 Ecouter l'épisode avec Olivier de Denodo👉 Recevoir leur manifesto pour accélérer ses projets GenAI ici👉 Contacter Olivier sur LinkedIn ou par mail otijou@denodo.com📚 RESSOURCES- Le LinkedIn de Juliette- Le livre Living documentation de Cyrille Martraire- L’outil Nao Labs développé par Christophe Blefari- L'édition spéciale Les 10 outils Data & IA à suivre de notre newsletter🎬 CHAPITRES00:00 Photoroom en 2 mots01:29 Sa vision GenAI pour l'analytics02:36 Ingestion et transformation09:50 Le choix d’Omni11:09 Semantic Layer12:18 Analyses17:48 L’organisation20:09 Ses plus grosses difficultés23:04 L’impact sur l'équipes Data26:25 L’évolution du rôle de Data Analyst29:32 Leurs prochaines étapes30:16 Ses ressources préférées🤩 AUTRES ÉPISODES QUE VOUS DEVRIEZ AIMER#226 - Brevo : Monter l'équipe GenAI appliquée au Produit (Centaure, +100 millions ARR)#196 - Pigment : Monter l’équipe GenAI appliquée au Produit (Licorne, +230 millions levés)#176 - Agorapulse : Structurer le département Data d’une startup👋 PLUS DE CONTENU DATA ?1/ Suivez-moi sur LinkedIn ici 🤳2/ Inscrivez-vous à la newsletter (synthèses, événements) ici 💌3/ Découvrez le podcast en format vidéo sur YouTube ici 📹🎙 SOUTENEZ LE PODCAST GRATUITEMENT1/ Abonnez-vous 🔔2/ Laissez 5 étoiles et un avis sur Apple Podcasts ici 🥰 Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
loading
Comments