Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : données LinkedIn et RGPD, LLM face aux néphrologues, nouvelles lunettes IA de Meta, percée multimodale de MiniMax AI, et adoption des chatbots en entreprise.Commençons par LinkedIn. La plateforme a prévenu ses utilisateurs européens qu’à partir du 3 novembre 2025, certaines de leurs données pourront servir à entraîner des IA génératives, sauf refus explicite. L’option est activée par défaut et l’entreprise invoque l’“intérêt légitime” prévu par le RGPD, à condition que ce traitement ne porte pas atteinte aux droits des personnes, un point rappelé par la CNIL. Précision notable: refuser l’entraînement n’empêchera pas d’utiliser les fonctionnalités d’IA générative de LinkedIn, comme l’aide à la rédaction de profils ou de messages. En revanche, la désactivation ne s’applique pas aux autres usages de l’IA sur la plateforme, comme la personnalisation de l’expérience ou la sécurité. Pour se retirer, il faut ouvrir ses préférences et ajuster le paramètre dédié à l’amélioration de l’IA. Les utilisateurs ont donc jusqu’au 3 novembre 2025 pour exercer ce choix.Dans le secteur de la santé, une étude a comparé les décisions de plus de mille néphrologues avec les réponses de grands modèles de langage sur l’indication d’une biopsie rénale. Le questionnaire, co-conçu avec des patients, affiné par itérations et testé localement avant diffusion internationale, a été posé en une seule session aux médecins et à huit LLM, dont ChatGPT-3.5, GPT-4 et Llama 2, dans le même ordre. Les réponses humaines ont servi de référence. Résultat: forte variabilité selon les modèles. ChatGPT-3.5 et GPT-4 affichent l’alignement le plus élevé avec les cliniciens, avec un accord sur 6 des 11 questions. Un score de propension à la biopsie, indicateur de tolérance au risque, a permis la comparaison: les modèles d’OpenAI se rapprochent des réponses humaines, tandis que d’autres, comme MedLM et Claude 3, présentent des tolérances au risque très différentes. L’étude souligne que l’alignement s’améliore sur les questions où les humains convergent, et se dégrade quand le consensus est faible, limitant l’usage direct des LLM en pratique clinique.Cap sur Meta, qui a présenté une nouvelle génération de lunettes connectées et des outils de création immersive. Trois modèles arrivent: les Ray-Ban Meta Gen 2, les Oakley Meta Vanguard orientées sport et extérieur, et un modèle haut de gamme, Ray-Ban Display, avec écran projeté et bandeau EMG pour piloter l’interface par micro-gestes. Au programme: jusqu’à neuf heures d’autonomie, capture visuelle en ultra-HD, champ de vision élargi à 122°, et une fonction Conversation Focus pour améliorer l’audio en environnement bruyant. Les tarifs s’étendent de 419 € à plus de 800 dollars selon les usages grand public ou professionnels. L’objectif est d’en faire un point d’accès régulier à Meta AI, l’assistant conversationnel multimodal, pour interagir avec l’environnement sans sortir son téléphone. Les lunettes misent sur une activation automatique et du traitement embarqué pour une assistance discrète et disponible en continu. Meta revoit aussi son Horizon Engine pour des graphismes plus réalistes et une physique des objets améliorée, et lance Horizon Studio, un studio de création d’environnements à partir de simples invites textuelles. Reste la question de la confidentialité et de l’acceptabilité, notamment en Europe. Si Meta parvient à intégrer ces lunettes dans des environnements normés et sécurisés, les gains visés sont concrets: accès à l’information, moins de manipulations, documentation continue et meilleure accessibilité pour les métiers mobiles.Direction l’Asie avec MiniMax AI, une startup chinoise qui se déploie à l’international avec des modèles multimodaux capables de traiter texte, image et audio dans un même flux. Basée sur une architecture Transformer unifiée, proche de GPT d’OpenAI ou LLaMA de Meta, la technologie vise le multilingue, le raisonnement avancé et l’analyse d’images. Les cas d’usage testés couvrent la finance, pour l’analyse de données et des prévisions, l’éducation, pour un apprentissage personnalisé, et la santé, pour l’analyse d’images médicales. La société revendique une approche agile pour gérer des modèles à l’échelle de milliards de paramètres et apporter ces capacités à des marchés encore peu servis par les offres occidentales.Enfin, les chatbots d’entreprise poursuivent leur déploiement en 2025. Ces assistants s’appuient sur le NLP et l’IA pour répondre de façon autonome. Plusieurs familles existent: les chatbots conversationnels sur web et mobile peuvent absorber jusqu’à 80% des demandes d’assistance; les voicebots et callbots prennent en charge les appels 24/7; en interne, des bots RH et IT automatisent onboarding, congés ou tickets. Les gains annoncés: qualification instantanée des prospects, tri par complexité, réduction du temps de réponse moyen de 75%, et en moyenne 30% d’économies sur les coûts de support tout en maintenant la satisfaction. Côté solutions: Dydu, plateforme française no-code lancée en 2009, intègre IA générative et compréhension avancée; Botnation AI permet de créer des bots rapidement; à l’international, Zendesk AI automatise jusqu’à 80% des demandes grâce à des agents entraînés sur des milliards de données clients, et HubSpot s’intègre nativement au CRM. Pour choisir, vérifiez l’intégration avec vos outils (CRM, helpdesk, bases de connaissances), la possibilité de simuler sur vos tickets historiques, et des coûts prévisibles entre 50 et 400 euros par mois. Prévoyez une phase de paramétrage, l’import de contenus, des tests sur scénarios critiques, et 2 à 4 semaines d’apprentissage avant un passage en production. La tendance va vers des assistants multimodaux combinant texte, voix et image.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.