L'IA aujourd'hui épisode du 2025-01-10
Update: 2025-01-10
Description
Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un concours pour les développeurs d'IA chez Google, le projet Dial-IA qui ouvre le dialogue social autour de l’intelligence artificielle, Microsoft accusé de déguiser Bing en Google, et Vectara qui lutte contre les hallucinations des modèles de langage. C’est parti !Commençons avec le Google AI Developers Community Spotlight Contest. Google lance un appel aux développeurs travaillant sur des projets innovants utilisant ses outils d'intelligence artificielle, tels que l'API Gemini, Gemma, Google AI Edge et divers frameworks. Ce concours est une occasion unique pour les créateurs de présenter leurs projets à un public mondial. Les participants peuvent soumettre des travaux de différentes formes, qu'ils soient axés sur la créativité, la complexité technique ou l'impact social. En rejoignant ce concours, les développeurs intègrent une communauté d'innovateurs qui façonnent l'avenir de l'IA. Pour participer, il est recommandé de consulter les règles et conditions afin de vérifier son éligibilité.Passons maintenant au projet Dial-IA, initié pour faciliter le dialogue social technologique au sein des entreprises et des administrations. Coordonné par Odile Chagny, économiste à l'Institut de Recherches Économiques et Sociales, ce projet s'est déroulé sur 18 mois. Il a réuni des représentants de travailleurs du secteur privé et public ainsi que des organisations patronales. Face à l'impact significatif de l'IA sur le monde du travail, Dial-IA vise à créer une "grammaire partagée". Cet outil permet aux organisations syndicales de développer un discours critique sur les objets sociotechniques complexes que sont les intelligences artificielles. Eric Peres de FO-Cadres souligne que le numérique et l'IA sont souvent perçus comme des sujets complexes, influencés par des choix stratégiques et économiques peu discutés par les entreprises. De plus, un manque de formation des acteurs concernés et l'éloignement des fournisseurs de solutions par rapport au monde des travailleurs compliquent le dialogue. Le manifeste publié par Dial-IA appelle à des actions concrètes pour éviter les pratiques cachées, désignées par le terme "shadow IA", où l'utilisation de l'IA échappe au contrôle et à la traçabilité des employeurs. Le projet encourage une intégration du dialogue tout au long du cycle de vie des technologies.Abordons maintenant les accusations portées contre Microsoft, soupçonnée de déguiser son moteur de recherche Bing pour le faire ressembler à Google. Cette stratégie viserait à tromper les internautes inattentifs, les incitant à utiliser Bing par erreur. La concurrence entre les géants de la technologie est intense, notamment sur le marché des moteurs de recherche où Google domine largement. L'apparence et l'expérience utilisateur sont cruciales pour attirer et retenir les utilisateurs. Certains estiment que Microsoft aurait délibérément modifié l'apparence ou le fonctionnement de Bing pour qu'il soit confondu avec Google, soulevant des questions éthiques sur les pratiques commerciales et la transparence envers les utilisateurs. Cette situation est exacerbée par une baisse de la qualité des résultats de recherche, ce qui peut affecter la satisfaction des utilisateurs et leur fidélité. Par ailleurs, Microsoft et Google investissent massivement dans l'intelligence artificielle pour améliorer leurs moteurs de recherche, notamment en intégrant des technologies comme l'IA générative pour fournir des réponses plus précises et personnalisées. Ces investissements soulignent l'importance de l'innovation tout en posant des défis éthiques que les entreprises doivent gérer avec soin pour maintenir la confiance des consommateurs.Enfin, penchons-nous sur Vectara qui a récemment lancé le modèle open source Hughes Hallucination Evaluation Model, ou HHEM. Ce modèle vise à évaluer les taux d'hallucination dans les grands modèles de langage tels que ceux d'OpenAI, Cohere, PaLM et Claude d'Anthropic. Les hallucinations, où un modèle génère des informations incorrectes ou inventées en réponse à une question, constituent un obstacle majeur à l'adoption quotidienne des technologies d'IA. Par exemple, dans les modèles de génération d'images, cela peut se traduire par un nombre incorrect de doigts sur une main. Dans les modèles de langage, les conséquences peuvent être plus graves, comme lorsqu'un avocat a cité des précédents juridiques inexistants générés par ChatGPT. Pour réduire ces hallucinations, une approche efficace est le "Retrieval Augmented Generation" ou RAG, qui consiste à baser les réponses sur une source de connaissances existante. Dans cette configuration, le modèle sert de lecteur d'informations récupérées, offrant des réponses en "livre ouvert". Vectara propose une plateforme permettant aux entreprises d'utiliser RAG sur leurs propres données, similaire aux approches de Bing Chat et Google. Pour évaluer la précision des modèles en matière de résumés, Vectara a utilisé des ensembles de données comme SummaC et TRUE, entraînant un modèle capable de détecter les incohérences factuelles. Les résultats montrent que certains modèles, notamment ceux de PaLM, ajoutent souvent des informations absentes du texte source, augmentant leur taux d'hallucination. Vectara continue d'affiner son modèle et prévoit d'intégrer ces capacités dans sa plateforme pour fournir des scores de cohérence factuelle.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Comments
Top Podcasts
The Best New Comedy Podcast Right Now – June 2024The Best News Podcast Right Now – June 2024The Best New Business Podcast Right Now – June 2024The Best New Sports Podcast Right Now – June 2024The Best New True Crime Podcast Right Now – June 2024The Best New Joe Rogan Experience Podcast Right Now – June 20The Best New Dan Bongino Show Podcast Right Now – June 20The Best New Mark Levin Podcast – June 2024
In Channel