Discover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
Author: ZD Tech : tout comprendre en moins de 3 minutes
Subscribed: 27Played: 640Subscribe
Share
© Guillaume Serries
Description
Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
424 Episodes
Reverse
Aujourd’hui, on va parler d’une étude du média Future qui met en lumière les différences d’adoption de l’intelligence artificielle entre générations de professionnels.Et attention, il y a une petite surprise.Sur un point précis, les millennials battent la génération Z.Ce sont les plus jeunes qui utilisent le plus l’IA générativeLe premier point c'est que sans surprise, ce sont les plus jeunes qui utilisent le plus l’IA générative.Les 18-40 ans, donc les membres de la génération Z et les millennials, explorent davantage d’usages, que ce soit pour créer des images, générer du texte ou encore produire de la musique.Dans l’ensemble, plus on est jeune, plus on expérimente.Les millennials tirent leur épingle du jeu dans le commerce en ligneLe second point, c'est que là où les millennials tirent leur épingle du jeu, c’est dans le commerce en ligne.Ils sont légèrement plus nombreux que ceux de la génération Z à utiliser l’IA pour chercher des recommandations de produits. Et surtout, ils affichent une plus forte propension à acheter des technologies estampillées "IA".Et un tiers des millennials se disent prêts à investir, contre seulement un quart des Gen Z.Une partie de la génération Z dit tout simplement être "heureuse sans IA"Enfin le troisième point c'est que l’étude met aussi en avant les freins à l’adoption.Les baby-boomers restent préoccupés par la confidentialité, quand une partie de la génération Z dit tout simplement être "heureuse sans IA".Mais le chiffre marquant, c’est la hausse de ceux qui déclarent être opposés philosophiquement à l’IA. Et cela est tout simplement le signe d’un débat de société qui s’intensifie.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle médecine et intelligence artificielle, avec une étude qui soulève un sujet plutôt inattendu.L’IA pourrait, paradoxalement, réduire les compétences des médecins lors de certaines procédures.D'abord commençons par le contexte.La détection du cancer par l'IALe cancer colorectal est l’un des plus fréquents dans le monde, et la coloscopie reste l’examen de référence pour détecter les polypes précancéreux.Et ces dernières années, des systèmes d’IA ont été introduits pour aider les gastro-entérologues à repérer plus facilement ces lésions. Et en effet, avec l’IA, le taux de détection augmente.Mais comme souvent, existe le revers de la médaille.Un effet inattendu appelé « deskilling »Une équipe polonaise a publié dans The Lancet Gastroenterology & Hepatology une étude qui met en lumière un effet inattendu appelé « deskilling », autrement dit une perte de compétence des professionnels de santé qui utilisent des outils d'intelligence artificielle.En comparant les performances de 19 médecins avant et après l’introduction de l’IA, les chercheurs ont constaté que le taux de détection lors des coloscopies réalisées sans assistance avait baissé de 6 points en moyenne.Autrement dit, l’IA améliore les résultats quand elle est utilisée, mais semble réduire l’attention et la vigilance des médecins lorsqu’elle n’est pas là.La sur-confiance dans les outils automatisésAlors quelles sont les implications de cette découverte dérangeante. Ce phénomène pourrait refléter un biais humain bien connu, qui est la sur-confiance dans les outils automatisés.Si les médecins s’habituent trop à l’aide de l’IA, ils risquent d’être moins concentrés et moins performants seuls. Les chercheurs appellent donc à la prudence.Ces résultats doivent être confirmés, mais ils posent déjà un défi majeur pour l’intégration de l’IA en médecine, à savoir comment profiter de ses bénéfices sans fragiliser les compétences humaines ?Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, parlons service client et intelligence artificielle.Selon le dernier rapport State of Service publié par Salesforce, dans seulement deux ans, la moitié des cas de service client pourraient être résolus par des agents d’IA.Il s'agit donc d'une véritable révolution pour un secteur en pleine mutation.Quelle adoption de l'IA dans le secteur du service client ?D'abord, faisons un point sur l'adoption de l'IA dans le secteur du service client. Les entreprises de services font face à une double pression. D'une part, les clients sont de plus exigeants. Et les équipes des services client sont sous tension à cause du manque de talents et de la charge administrative.L’étude révèle que 82 % des professionnels constatent des attentes clients plus élevées, alors même que les conseillers passent moins de la moitié de leur temps avec eux.Résultat, l’IA apparaît comme une solution incontournable pour libérer du temps, automatiser les tâches répétitives et redonner aux équipes le rôle relationnel à forte valeur ajoutée. Et c'est là qu'il faut souligner l’importance des agents d’IA.Pourquoi l’IA agentique attire particulièrement l’attentionSalesforce distingue trois formes d’IA dans le service support. Il distingue :L'IA prédictiveL'IA générativeEt enfin l'IA agentiqueEt c’est cette dernière, l’IA agentique, qui attire particulièrement l’attention.Déjà près de 40 % des organisations l’utilisent. Et d’ici 5 ans, seules 6 % disent ne pas vouloir y recourir. Pourquoi ? Parce que ces agents autonomes réduisent les coûts de service client, accélèrent la résolution des demandes et améliorent la satisfaction client. On estime même qu’ils pourraient réduire de 20 % les délais moyens de traitement.Un futur hybride entre l'homme et l'IAEnfin, le secteur du service client s'achemine peu à peu vers un futur hybride entre l'homme et l'IA.Loin de remplacer les conseillers, l’IA va compléter leur travail. Plus de 80 % des professionnels interrogés affirment que l’IA améliore leurs perspectives de carrière, en rendant leur travail plus productif et moins stressant.Les cas simples sont pris en charge automatiquement, tandis que les agents humains se concentrent sur les situations complexes. Cette collaboration redéfinit le service client, le rendant à la fois plus efficace et plus humain.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle d’une avancée scientifique venue de l'université de Harvard aux Etats-Unis.Un outil d’intelligence artificielle gratuit créé là bas pourrait révolutionner la découverte de médicaments contre des maladies très complexes, comme le cancer, la maladie de Parkinson ou encore Alzheimer.Les limites des méthodes actuellesD'abord, il convient de noter les limites des méthodes actuelles.Traditionnellement, la recherche pharmaceutique s’attaque à une protéine à la fois. Et cette technique marche pour certaines thérapies ciblées, comme les inhibiteurs de kinases contre certains cancers.Mais quand une maladie implique des dizaines de gènes et de voies biologiques, cette approche devient vite trop limitée.Et on en vient à ce que fait l'outil de l'université de Harvard, qui se nomme PDGrapher.25 fois plus vite que d’autres modèlesLe modèle conçu par Harvard Medical School analyse les interactions entre gènes, protéines et signaux dans les cellules.Et plutôt que de tester des milliers de combinaisons au hasard, il propose directement les associations de traitements les plus prometteuses pour rétablir l’état sain d’une cellule.Dans les essais, cet outil a non seulement retrouvé des cibles déjà connues, mais il en a aussi identifié de nouvelles, appuyées par des données cliniques. Et surtout, il le fait 25 fois plus vite que d’autres modèles.PDGrapher est testé sur 11 types de cancersEnfin parlons des applications concrètes.Aujourd’hui, PDGrapher (dispo ici) est testé sur 11 types de cancers. Mais les chercheurs l’appliquent déjà à des maladies neurodégénératives comme Parkinson et Alzheimer.L’idée, c’est de réduire le temps et le coût de la recherche pharmaceutique, et surtout de mieux cibler les maladies multifactorielles, c'est à dire celles qui résistent aux traitements classiques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle de la fin annoncée du SMS en France et de la montée en puissance de son grand remplaçant, le RCS.La bascule entre le SMS et le RCS déjà bien engagée en FranceD'abord il faut noter que la bascule entre le SMS et le RCS est déjà bien engagée en France.Selon l’AF2M, l’association qui regroupe opérateurs et acteurs du numérique dans l'hexagone, 80 % du parc de smartphones en France est désormais compatible avec le protocole RCS.Concrètement, cela représente plus de 48 millions d’appareils. Et bien sûr l’arrivée d’Apple dans la danse début 2025 a été un véritable accélérateur. Désormais, les iPhone comme les Android récents intègrent cette technologie par défaut.Le RCS est plus performantEnsuite, il faut comprendre que si le RCS remplace le SMS, c'est parce que ce dernier est bien moins performant.Oui, le RCS, c’est un SMS en beaucoup mieux. Là où le SMS se limite à du texte et quelques caractères, le RCS permet d’envoyer des photos et vidéos en haute qualité, des messages illimités, des conversations de groupe, des accusés de réception, voire du chiffrement de bout en bout.Bref, le RCS permet une expérience proche de ce que proposent les applications de messageries instantanées telles que WhatsApp ou Messenger, mais directement intégrée à l’application de messagerie native du smartphone.Pour les entreprises, le RCS est une petite révolutionEnfin le troisième point c'est que pour les entreprises, le RCS est une petite révolution.Le RCS ouvre en effet la voie à un business messaging enrichi et mesurable, notamment sur les taux de clics, les conversions, ou encore les interactions.En clair, les marques peuvent créer de vraies campagnes interactives sans passer par des applications mobiles tierces.L’AF2M estime même qu’en 2026, le RCS sera devenu le standard incontournable des communications professionnelles.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est une grande avancée qui s'annonce dans le secteur du commerce électronique.Le prestataire de paiement Visa vient de dévoiler une mise à jour importante de sa plateforme Visa Intelligent Commerce, avec l’introduction de serveurs Model Context Protocol ou MCP.En clair, c'est une petite révolution pour les développeurs et les entreprises qui souhaitent intégrer l'IA dans leurs solutions de paiement.Facilitation du développement informatiqueD'abord, c'est le développement informatique qui est simplifié grâce à protocole MCP.Dans le détail, MCP facilite l’intégration des agents d’intelligence artificielle dans le réseau de paiement de Visa.En gros, il permet aux développeurs de se connecter plus rapidement aux API de Visa Intelligent Commerce.Visa promet que cette nouvelle couche d’intégration permet de passer de l’idée à un prototype en quelques heures, ce qui va largement accélérer le processus de création d’applications de commerce électronique. Il s'agit d'une vraie opportunité pour les entreprises souhaitant intégrer de l’IA sans se perdre dans des complexités techniques de mise en œuvre.Un SDK pour intégrer les agents d'IABien sûr l'entreprise fournit un kit pour les développeurs, un SDK, nommé Visa Acceptance Agent Toolkit.Le Visa Acceptance Agent Toolkit est l’outil clé pour les développeurs qui veulent travailler avec des agents IA, sans être des experts en codage. Ce kit permet de créer des flux de travail en langage naturel, comme par exemple la génération automatique de factures ou la consultation de rapports financiers via un assistant d'IA.Il donc simplifie les tâches administratives courantes et permet d’intégrer facilement des fonctions de paiement tout en utilisant l’intelligence artificielle pour améliorer l’expérience utilisateur.Stimuler l’adoption de l’IA dans le commerce électroniqueMais sur le long terme, que nous dit l'intégration de MCP à la plateforme Visa ?Visa voit cette initiative comme un moyen de stimuler l’adoption de l’IA dans le commerce électronique, aussi bien pour les entreprises que pour les client.En facilitant l’intégration de l'IA dans les processus de paiement, Visa cherche à rendre le commerce en ligne plus fluide et intuitif, à l’instar de ce que l’on peut déjà voir sur des plateformes comme eBay ou Amazon. La possibilité d’utiliser l’IA pour rechercher des produits ou effectuer des achats devient de plus en plus courante, et les nouvelles solutions proposées par Visa pourraient bien devenir incontournables pour les développeurs.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est une nouveauté qui pourrait bien changer l'avenir du recrutement en entreprise. L’IA, ou plus précisément, l’intelligence artificielle utilisée pour mener des entretiens d’embauche, s'apprête à changer les processus de recrutement.Une étude américaine met en lumière les avantages surprenants de ces agents IA dans le processus de recrutement.L'IA recrute mieuxD'abord, l'étude mentionne que les résultats de recrutement menés avec l'aide de l'IA sont meilleurs que ceux menés de manière classique.L’étude a démontré que les entretiens menés par l’IA ont permis d'augmenter de 12 % le nombre d'offres d'emploi faites aux candidats, et de 18 % le taux de prise de poste.L'IA a la préférence des candidats !Ensuite, et c'est très surprenant, l'IA a la préférence des candidats !C'est un autre aspect étonnant de cette étude. 78 % des candidats ont préféré être interviewés par une IA plutôt que par un recruteur humain.Des entretiens profonds et de qualitéEnfin, la qualité et la profondeur des entretiens réalisé par l'IA sont également mis en avant !Oui, l’intelligence artificielle est aussi capable de mener des entretiens plus complets.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un phénomène en pleine croissance dans le monde de l'IA pour les professionnels. Il semble que les projets pilotes d'IA en entreprise échouent massivement. Une étude récente du MIT affirme même que seul 95 % des projets échouent.Pourtant, les entreprises investissent désormais des milliards pour intégrer l'IA. Alors, pourquoi tant de projets échouent-ils, et comment éviter ces pièges ?Des stratégies IA bien trop souvent court-termistesD'abord, les stratégies sont trop souvent axées sur le court terme.Pourquoi à court terme ? Et bien parce que beaucoup d’entreprises voient l’IA comme un simple levier pour couper les coûts à court terme.Par exemple, ces projets pilotes visent à remplacer des employés. Mais cela finit souvent par échouer. Pourquoi ? Parce qu’il manque une stratégie de long terme, orientée sur l’amélioration des processus, pas sur la suppression d’emplois. Bref, il faut un changement de mentalité, l'IA doit être un amplificateur de productivité, pas un outil de compression des coûts.Oui, l'intégration de l'IA est difficile dans les processus d'entrepriseOui, c'est souvent là que ça coince. La plupart des outils d'IA ne savent pas s'intégrer efficacement dans les flux de travail des entreprises.Par conséquent, les projets restent très très souvent bloqués en mode "démonstration".Au contraire, l’IA a besoin d’être adaptée aux processus existants, et cela demande une vraie préparation sur la données de qualité, des cas d’utilisation bien définis, ou encore et une gestion rigoureuse de l’évolution des systèmes.L'IA fantôme pourrait bien tous nous sauverMais un allié inattendu, et certes un peu risqué, peut être mis en œuvre. Il s'agit de l'IA fantôme, on dit shadow IT en anglais. Et bien sachez que cette solution informelle fonctionne.Car malgré les échecs officiels, l’IA est déjà utilisée au quotidien par les employés.On parle ici d'outils comme ChatGPT, Claude ou Gemini, qui sont utilisés de manière informelle pour des tâches simples mais efficaces en entreprise. Je parle ici de faire rédiger des emails, d'analyser des documents ou de générer du code.Cette adoption "fantôme" montre que l'IA peut être un vrai moteur de productivité lorsqu’elle est ciblée sur des tâches spécifiques, et ce sans nécessiter une révolution des systèmes.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on parle de l'impact de ChatGPT sur notre langage quotidien.En effet, une étude américaine révèle que l'usage du chatbot influence directement le vocabulaire humain.Comment ça se passe ?Les mots de ChatGPT se glissent dans notre vocabulaireD'abord, les mots de ChatGPT se glissent dans notre vocabulaire.L'étude montre que des termes comme "approfondir", "stratégique", ou "multifacettes" sont de plus en plus utilisés dans le langage courant. Ce qui est étrange c'est que ces mots sont souvent employés dans des contextes académiques. Et ils sont désormais plus fréquents dans les échanges quotidiens de tout un chacun.Les résultats montrent donc une augmentation de l'utilisation de ces mots, ce qui suggère une fusion entre les choix de mots humains influencés par le lexique des grands modèles de langage.Donc la question à dix mille euros c'est "est-ce que ce sont les utilisateurs qui influencent ChatGPT, ou bien est-ce ChatGPT qui influence notre façon de parler ?"L'influence générationnelle des chatbots d'IAEt bien en réalité tout ceci a à voir avec l’adoption du chatbot et son influence générationnelle.Car l'une des découvertes marquantes de l'étude, c'est l'ampleur de l’adoption de ChatGPT, notamment chez les jeunes adultes. De quoi en faire de véritables chevaux de Troie du vocabulaire de l'IA.Selon le Pew Research Center, plus de la moitié des adultes de moins de 30 ans utilisent l'outil. Et avec une telle utilisation, l’influence de ChatGPT sur leur langage est indéniable. Les mots à la mode véhiculés par l'IA se propagent ainsi très vite.Quels sont les risques de ces évolutions du langageCar si l'IA transforme notre manière de nous exprimer, cela soulève des questions sur l'impact que cela peut avoir sur nos idées et nos valeurs.Les chercheurs s'inquiètent de la façon dont l'usage excessif de certains mots pourrait affecter notre manière de penser, et de l'éventuelle influence de l'IA sur notre communication de manière plus générale.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Et aujourd’hui, voici une nouvelle forme d’arnaque qui prend de l’ampleur. Il s'agit des faux numéros de service client générés par l’intelligence artificielle.Oui, vous avez bien entendu. Des personnes se sont déjà fait piéger en appelant ce qu’elles pensaient être le service client officiel d’une grande entreprise, mais qui en réalité était un numéro frauduleux proposé par Google AI ou même ChatGPT.Alors, comment ça marche ?De plus en plus de personnes font de plus en plus confiance dans l’IAQuand on cherche un numéro sur Google en mode classique, on voit plusieurs résultats, on compare, on recoupe.Mais avec les nouveaux résumés générés par l’IA, on reçoit une seule réponse présentée comme “la bonne”.Résultat, plus de chances de tomber directement dans le piège sans vérifier.La sophistication des arnaquesCar oui les victimes ne sont pas naïves, mais souvent font face à des escrocs particulièrement malins.Les escrocs ne se contentent pas de décrocher et de demander votre carte bancaire. Ils imitent à la perfection les procédures des vraies entreprises.Et voici un exemple cité par The Washington Post. Un dirigeant pensait appeler Royal Caribbean, et l’arnaqueur connaissait les bons tarifs, la bonne terminologie, et a réussi à obtenir ses coordonnées bancaires avant qu’il ne réalise la supercherie.Tout ceci repose aussi sur une faille techniqueDes experts en cybersécurité expliquent que ces escroqueries reposent parfois sur une technique dite de “prompt injection”. En clair, les pirates manipulent les modèles d’IA pour qu’ils intègrent un faux numéro dans leur réponse. Google et OpenAI assurent travailler sur des correctifs, mais le problème persiste, surtout sur des requêtes rares.La leçon à retenir, c’est qu’il ne faut jamais faire confiance aveuglément à un numéro de téléphone affiché par une IA. Si vous cherchez le service client d’une entreprise, allez directement sur son site officiel ou utilisez une recherche classique pour croiser plusieurs résultats.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle de l’avenir des carrières dans l’informatique à l’heure de l’intelligence artificielle. Alors, faut-il encore miser sur les études en informatique, ou chercher ailleurs ?L’effet inquiétant de l’IA sur l’emploi commence à se faire sentirD'abord, il faut bien noter que l’effet inquiétant de l’IA sur l’emploi commence à se faire sentir.Comme le souligne un article récent du New York Times, les outils de programmation dopés à l’IA peuvent désormais générer des milliers de lignes de code en un clin d’œil.Ajoutez à cela les vagues de licenciements chez Amazon, Meta ou Microsoft, et on obtient une équation qui refroidit beaucoup d’étudiants en informatique. Bref, le fameux "golden ticket" vers une carrière tech semble un peu terni.La relation entre l’IA et le monde de l'emploi est plus complexeOui, parce que si l’IA peut tuer certains emplois, elle en crée d’autres.Les compétences liées au développement de modèles d'IA, à la gouvernance des données ou encore à l’éthique de l’IA sont très recherchées.Devenir spécialiste en supervision de l’IA, c’est aujourd’hui un pari gagnant.L’IA peut aussi être vu comme un tremplin entrepreneurialEt c’est peut-être là le plus grand bouleversement. Pour les créateurs de startups, l’IA est une arme redoutable.Elle permet de prototyper une idée en quelques semaines, d'automatiser des tâches coûteuses, et peut-être de rivaliser avec de grands groupes. Comme le dit le capital-risqueur Spiros Margaris, “devenir AI-first n’est plus une option, c’est une condition de survie”.Mais attention, IA ne rime pas avec facilité. Elle apporte aussi son lot de défis, notamment dans les domaines de la cybersécurité et de la réglementation.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle d’un gros chantier chez Google Traduction qui devrait nous être livré sous peu.L’application de traduction s’apprête à intégrer plus largement l’IA Gemini et à vous laisser choisir votre “style” de traduction.Deux modes avec deux promesses différentesUne nouvelle option “model picker” va apparaître en haut de l’écran pour basculer entre deux modes.Le mode rapide est pensé pour la vitesse et l’efficacité.Le mode avancé s’appuie sur Gemini pour privilégier le contexte et la précision.À ce stade, le mode avancé ne fonctionnerait que pour quelques paires de langues, dont l'anglais et le français.En clair, c’est un pas vers des traductions plus naturelles.Google traduction lorgne du côté de Duolingo et BabbelEnsuite, Google Traduction va embarquer un nouveau mode qui lorgne du côté de ses désormais concurrents Duolingo et Babbel.Google teste en effet un espace d’entraînement, avec des leçons courtes, des objectifs à atteindre, et des scénarios de conversation du quotidien.Mieux, vous pouvez créer vos propres exercices. Pour l’instant, les entraînements disponibles concernent surtout l’espagnol et le français, mais la mécanique se veut extensible.A quoi s’attendre côté usage pro ?D’abord, un arbitrage assumé entre latence et qualité. Le mode rapide conviendra pour déchiffrer un mail ou un message instantané en urgence.Le mode avancé sera lui taillé pour un brief client, un support technique ou une réponse commerciale où le ton et le contexte comptent.Ensuite, l’ergonomie à lécran bouge. Le micro est plus discret et déplacé à droite, la ligne de boutons est placée en bas de l'interface pour un usage à une main.Tout cela confirme un cap, amener l’IA de compréhension du langage au cœur de l’interprétation.Mais et c'est important, Google n’a pas encore officialisé le calendrier. Et certaines fonctions pourraient évoluer avant la sortie grand public. Mais la direction est claire. Google Traduction va faire moins de traductions “mot à mot”, proposer un coach linguistique.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle d’augmentation des données dans le monde de l'intelligence artificielle. Derrière ce terme, une idée simple. Il s'agit de créer, à partir de vos données existantes, de nouvelles variantes synthétiques pour entraîner des modèles de machine learning plus robustes.Pourquoi c’est utile ? Parce que dans la vraie vie, les jeux de données sont souvent limités, sensibles, ou pas assez variés. Alors on enrichit artificiellement le jeu d’entraînement… mais intelligemment.Je vous propose trois points pour tout comprendre avec l'aide d'une documentation AWS sur le sujet.L'augmentation de données, à quoi ça sert, concrètement ?L’augmentation des données améliore la performance et la généralisation des modèles. En multipliant les versions d’une même donnée, une image un peu plus sombre, un texte reformulé, un son avec un léger bruit, le modèle voit plus de cas et se trompe moins sur des données qu’il n’a jamais vues.Et cette augmentation des données réduit la dépendance à de très gros jeux de données, donc coûte moins cher.Elle limite également le sur-apprentissage, le fameux overfitting, où le modèle « apprend par cœur » ses exemples sans savoir généraliser.L'augmentation de données, comment ça marche, en pratique ?D'abord, les spécialistes de l'IA auditent le jeu de données et appliquent des transformations et des déclinaisons adaptées. Il peut s'agir de retournement et de changement de contraste pour une image.Mais aussi d'ajout de bruit et de variation de vitesse pour un son. Ou encore de permutation de mots et de paraphrases pour un texte.Mais attention, si vos données de départ sont biaisées, vos données augmentées hériteront de ces biais. Il faut donc les corriger à la source avant l'entraînement.Enfin troisième point, quels sont les premiers cas d'usage ?Dans le domaine de la santé, on multiplie les versions des images médicales pour mieux détecter des pathologies rares.En finance, on génère des scénarios de fraude ou des séries de risque pour entraîner la détection et le scoring.Dans la grande distribution, on varie angles, fonds et éclairages de photos de produits pour les faire reconnaître par l'IA en conditions réelles.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle d’« apprentissage zero-shot », ou ZSL pour zero shot learning.En clair, c’est la capacité d’un modèle d'IA à reconnaître ou classer des choses qu’il n’a jamais vues lors de son entraînement.Et voici l’essentiel en trois points sur la base d'un document d'explication d'IBM.Le ZSL, à quoi ça sert ?Alors dans un premier temps, à quoi ça sert et en quoi c’est différent des méthodes d'apprentissage classiques utilisées par les concepteurs d'intelligence artificielle.La plupart des modèles d'IA apprennent en mode supervisé. C'est à dire qu'on leur montre des milliers d’exemples étiquetés, d'un chat par exemple. Et le système apprend à reconnaître un chat avec cette méthode.Le problème, c'est que étiqueter des données coûte cher, prend du temps, et surtout que certaines classes sont rares, voire inédites, comme les nouvelles maladies, des espèces animales peu documentées, ou encore un nouveau type d’attaque informatique. Le zero-shot répond donc à cette contrainte.Le ZSL, comment ça marche ?Au lieu d’apprendre à reconnaître un oiseau en regardant des photos étiquetées, l'entraînement consiste à lire à l'IA une définition qui contient par exemple plumes, bec, et ailes. L'IA apprend ainsi à reconnaître un oiseau sans l’avoir vu auparavant.Le modèle s’appuie donc sur des connaissances auxiliaires. Le modèle ne dessine donc pas directement une frontière entre les classes qu’il a vues, mais calcule des scores de probabilité à partir des connaissances auxiliaires.À noter que les grands modèles de langage, les LLM, excellent souvent dans l'exercice de zero-shot. Pourquoi ? Parce qu’ils comprennent les étiquettes en langage naturel et peuvent classer, extraire, résumer ou suivre des instructions sans exemples, simplement via la consigne, c'est à dire le prompt.Le zero-shot a aussi ses limitesEnfin, le troisième point, c'est que le zero-shot a aussi ses limites. Et je vous donne direct un exemple pour que vous compreniez bien.En se basant sur les étiquettes et non les images étiquetées, difficile de savoir si le mot jaguar fait référence à une marque de voiture ou à un animal.Cette sensibilité sémantique fait chuter les performances si le domaine réel s’éloigne trop de ce que le modèle d'IA a appris.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on démêle un grand classique : l’apprentissage automatique, ou machine learning.Qu’est-ce que c’est, comment ça s’entraîne, et quels sont ses enjeux concrets en entreprise ?Voici trois points pour aller à l’essentiel, puisés dans une page d'assistance de Red Hat.Qu'est ce que c’est et comment ça marche ?L’apprentissage automatique, c’est une branche de l’IA où l’on apprend à des algorithmes à repérer des traces identiques dans des données. Il peut d'agir de chiffres, de texte, ou encore d'images. Et pour y parvenir, on prend un modèle d'IA et on le nourrit de données.Côté méthode, tout commence par un pipeline bien huilé :Collecte et préparation des donnéesSéparation de l'entraînement, des tests et de la validationEt souvent réduction des données pour ne garder que l’utileEt il faut faire face à quelques écueils, comme le surentraînement et le sous-entraînement, qui faussent les résultats attendus. Et il faut aussi surveiller la “fuite de données” quand, par erreur, des infos du test contaminent l’entraînement.Le machine learning est renforcé par les réseaux de neuronesLe second point c'est que de nos jours, le machine learning est renforcé par les réseaux de neurones. C'est ce que l'on appelle l’apprentissage profond, ou deep learning, ou s'empilent dans le réseau neuronal plusieurs couches pour apprendre des représentations de plus en plus abstraites.C'est cette évolution qui donne aujourd'hui des performances remarquables en vision, en reconnaissance vocale et en traitement du langage.L'apprentissage profond est même le socle de l’IA générative et des grands modèles de langage, qui sont désormais capables de produire du texte, de résumer, ou d'assister la recherche.Pourquoi un usage responsable est-il nécessaire ?Le troisième point c'est que la surpuissance actuelle de l'IA générative et de l'apprentissage automatique exige un usage responsable.Comme les modèles apprennent sur l’historique, ils peuvent hériter de biais présents dans les données et amplifier ces biais dans des décisions sensibles, dans les domaines du recrutement, de l'attribution de crédit bancaire, ou encore en matière de décision de justice.D’où l’importance de méthodes et d’outils d’explicabilité pour sortir l'IA de son image de “boîte noire”.En résumé, l’apprentissage automatique, c’est la capacité d’extraire des patterns des données pour décrire, prédire et recommander. Et l’apprentissage profond décuple ces possibilités.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on s’attaque à un sujet délicat : faut-il vraiment se méfier de l’anthropomorphisme avec les IA, ou bien apprendre à l’apprivoiser sans se faire piéger ?Mais avant tout, un peu de définition. Qu'est ce que l’anthropomorphisme dans le domaine de l'IA ? Et bien c'est tout simplement notre tendance naturelle à considérer les IA comme des humains.Et cela s'observe de plus en plus avec les chatbot comme ChatGPT, auxquels de plus en plus de personnes confient dans le cadre de dialogues leurs états d'âmes.L’anthropomorphisme n’est pas une faute, c’est un réflexeLe premier point, mentionne le psychiatre et psychanalyste Serge Tisseron, c'est que l’anthropomorphisme n’est pas une faute, c’est un réflexe.Depuis longtemps, nous traitons spontanément les ordinateurs comme s'il s'agissait de personnes réelles. Et ce n’est pas de la naïveté, c’est une stratégie mentale bien pratique. Car dire « merci » à une machine ou lui parler naturellement fluidifie l’interaction et réduit notre charge cognitive.La clé est donc d’admettre ce réflexe mais de garder en tête que la machine, elle, n’éprouve rien.Une petite gymnastique à mettre en placeC'est une petite gymnastique à mettre en place, mais elle s'avère efficace. D'abord, il faut dialoguer avec une IA comme avec un collègue, parce que c’est rapide et confortable.Mais ensuite, l'analytique, doit ensuite reprendre la main pour vérifier, demander les sources, reformuler, comparer plusieurs pistes.On adopte donc une règle simple. Il faut être convivial dans la forme, et exigent dans le fond. Et si l’IA nous flatte, on lui demande aussitôt les limites de sa réponse.Ni maître, ni gourou, ni élèveEt cela pose naturellement la question de la place de l'IA dans notre vie professionnelle. Ni maître, ni gourou, ni élève, mais collègue affirme Serge Tisseron.Et surtout, on impose des garde-fous, comme lui demander de citer des sources quand c’est possible, de signaler l’incertitude, et de versionner les étapes.Utilisez la convivialité pour aller vite, et l’esprit critique pour aller juste dit le psychiatre.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent.L’alignement des intelligences artificielles, en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs.Pourquoi l'alignement est crucialEt tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé.Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif, parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme.Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt.Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement.Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes.Robustesse, Interopérabilité, Contrôlabilité et ÉthiqueAlors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE, et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique.La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques.L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA.Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter.Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement.Comment faire de l'alignement ?Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince.Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF pour Reinforcement learning from human feedback.Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent.Bref, le fameux “problème de l’alignement” reste ouvert.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on parle d'une tendance qui, contre toute attente, montre que le système d'exploitation Linux fait son petit bout de chemin sur les bureaux des consommateurs.Une analyse récente de Lansweeper, une société spécialisée dans la découverte d'actifs informatiques, nous révèle des chiffres étonnants sur la part de marché des desktops Linux.La part de marché de Linux grimpe !D'après Lansweeper, Linux représente désormais plus de 6 % du marché des PC de bureau, un chiffre confirmé par d'autres études récentes.Par exemple, l'analyse de la société StatCounter montre que Linux a atteint un pic de 5,24 % en juillet.On pourrait se dire que c'est marginal. Mais pour un système longtemps perçu comme réservé aux développeurs ou aux utilisateurs avancés, c’est un véritable signe de croissance.De grandes différences entre le marché entreprise et le marché grand publicMais, et c'est le second point, il existe de grandes différences entre le marché entreprise et le marché grand public.Ce qui est intéressant dans l'étude, c'est la distinction en effet entre les ordinateurs personnels et ceux gérés par des entreprises.Sur les PC grand public, Linux gagne réellement du terrain, notamment en Europe.En revanche, dans le monde des entreprises, son adoption reste plus faible, à environ 1,9 %.Mais cela est peut-être en train de changer. Les entreprises commencent en effet à adopter Linux grâce à des fonctionnalités comme l’intégration avec Active Directory, un point essentiel pour les infrastructures d'entreprise.Une croissance mondialeEnfin le troisième point c'est que ce phénomène de croissance de Linux est mondial.Mais l'adoption de Linux varie également selon les régions. En Europe, on remarque que les services aux entreprises, la grande distribution et même certains gouvernements se tournent de plus en plus vers Linux, notamment en raison des récentes décisions politiques.En revanche, en Amérique du Nord, ce sont surtout les secteurs de la technologie et des télécommunications qui montrent une plus grande adoption de Linux, notamment pour les avantages de l'open source et sa flexibilité.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, parlons d’une petite révolution qui arrive tout bientôt pour vos smartphones.Il s'agit de l’arrivée de la recharge sans fil Qi2 à 25 watts.Et cette avancée pourrait bien faire oublier évidemment les bons vieux câbles USB-C.Qu’est-ce que Qi2 25 watts ?C’est une nouvelle norme développée par le Wireless Power Consortium, qui regroupe plus de 300 acteurs du secteur.Elle permet une recharge magnétique sans fil allant jusqu’à 25 watts. Et pour vous donner une idée, cela signifie que la recharge est près de 70 % plus rapide que la version précédente, limitée à 15 watts.Et surtout, cette puissance est désormais standardisée et certifiée, ce qui garantit une compatibilité fiable entre marques.Qui va pouvoir en bénéficier ?Les iPhones seront bien sûr compatibles, mais la grande nouveauté, c’est l’ouverture vers Android.Jusqu’ici, chaque constructeur Android proposait son propre protocole de recharge, souvent peu compatible avec les autres appareils.Avec Qi2, on entre dans un monde où un chargeur pourra fonctionner indifféremment avec un Google Pixel, un Samsung Galaxy ou un iPhone d'Apple, à condition que le smartphone intègre les aimants nécessaires à l’alignement magnétique.Quels smartphones Android sont d'ors et déjà prêts ?Eh bien, selon les dernières fuites, le Pixel 10, attendu pour la fin août, serait le premier Android à intégrer nativement ces aimants.Cela signifie qu'l y aura une recharge magnétique sans besoin de coque spéciale. D’autres modèles, comme les Galaxy S25, pourraient être compatibles, mais nécessiteraient encore une coque magnétique supplémentaire.Bref, c’est un vrai tournant pour Android, qui pourrait enfin rivaliser avec l’écosystème MagSafe d’Apple.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on s’intéresse à une nouvelle qui au cœur de l'été, secoue le monde du travail et de la technologie.Microsoft a annoncé en interne avoir économisé 500 millions de dollars grâce à l’intelligence artificielle. Et ce tout en licenciant 9 000 employés.Une annonce qui soulève de nombreuses questions sur l’avenir de l’emploi à l’ère de l’IA.500 millions de dollars d’économiesLe premier point, c'est que Microsoft donc a partagé en interne que ses outils d’IA avaient permis de réduire massivement les coûts de ses centres d’appel, et ce tout en augmentant la satisfaction client et employé.Résultat, un montant total de 500 millions de dollars d’économies, et ce dont grâce à une automatisation poussée dans des domaines comme les ventes, le support client et même le développement logiciel.Car oui, chez Microsoft désormais, c'est l’IA qui génère une grande partie du code.Trois vagues de licenciementsMais, et c'est le second point, malgré ces gains spectaculaires, l’entreprise a récemment procédé à trois vagues de licenciements, supprimant 15 000 postes au total en quelques mois.Beaucoup y voient un paradoxe. Pourquoi se séparer de milliers d’employés alors que les résultats financiers sont au demeurant excellents ?Certains analystes pointent une stratégie fiscale avantageuse. D’autres une volonté d’accélérer la transformation numérique, mais et c'est bien triste au prix de l’emploi humain.L’impact réel de l’IA sur le travailAu final, et c'est le troisième point, le débat est donc bel et bien lancé sur l’impact réel de l’IA sur le travail.Pour certains experts, c’est une continuité historique. Ce type de mouvement a déjà été observé avec des phénomènes comme l’arrivée du PC ou de la publication assistée par ordinateur. Bref, l’IA remplace certaines tâches mais en crée d’autres.Pour d’autres, c’est une rupture plus profonde. Car sans encadrement légal clair, rien n’empêche une entreprise de remplacer massivement ses salariés par des systèmes automatisés. Et ce sans obligation de formation ou de reclassement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Épisode incroyable qui est !! Découvrez maintenant plus sur le calculateur de TVA https://kdvhesaplamalar.com.tr/