Discover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
Author: ZD Tech : tout comprendre en moins de 3 minutes
Subscribed: 27Played: 621Subscribe
Share
© Guillaume Serries
Description
Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
414 Episodes
Reverse
Aujourd’hui, on parle de l’avenir des carrières dans l’informatique à l’heure de l’intelligence artificielle. Alors, faut-il encore miser sur les études en informatique, ou chercher ailleurs ?L’effet inquiétant de l’IA sur l’emploi commence à se faire sentirD'abord, il faut bien noter que l’effet inquiétant de l’IA sur l’emploi commence à se faire sentir.Comme le souligne un article récent du New York Times, les outils de programmation dopés à l’IA peuvent désormais générer des milliers de lignes de code en un clin d’œil.Ajoutez à cela les vagues de licenciements chez Amazon, Meta ou Microsoft, et on obtient une équation qui refroidit beaucoup d’étudiants en informatique. Bref, le fameux "golden ticket" vers une carrière tech semble un peu terni.La relation entre l’IA et le monde de l'emploi est plus complexeOui, parce que si l’IA peut tuer certains emplois, elle en crée d’autres.Les compétences liées au développement de modèles d'IA, à la gouvernance des données ou encore à l’éthique de l’IA sont très recherchées.Devenir spécialiste en supervision de l’IA, c’est aujourd’hui un pari gagnant.L’IA peut aussi être vu comme un tremplin entrepreneurialEt c’est peut-être là le plus grand bouleversement. Pour les créateurs de startups, l’IA est une arme redoutable.Elle permet de prototyper une idée en quelques semaines, d'automatiser des tâches coûteuses, et peut-être de rivaliser avec de grands groupes. Comme le dit le capital-risqueur Spiros Margaris, “devenir AI-first n’est plus une option, c’est une condition de survie”.Mais attention, IA ne rime pas avec facilité. Elle apporte aussi son lot de défis, notamment dans les domaines de la cybersécurité et de la réglementation.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle d’un gros chantier chez Google Traduction qui devrait nous être livré sous peu.L’application de traduction s’apprête à intégrer plus largement l’IA Gemini et à vous laisser choisir votre “style” de traduction.Deux modes avec deux promesses différentesUne nouvelle option “model picker” va apparaître en haut de l’écran pour basculer entre deux modes.Le mode rapide est pensé pour la vitesse et l’efficacité.Le mode avancé s’appuie sur Gemini pour privilégier le contexte et la précision.À ce stade, le mode avancé ne fonctionnerait que pour quelques paires de langues, dont l'anglais et le français.En clair, c’est un pas vers des traductions plus naturelles.Google traduction lorgne du côté de Duolingo et BabbelEnsuite, Google Traduction va embarquer un nouveau mode qui lorgne du côté de ses désormais concurrents Duolingo et Babbel.Google teste en effet un espace d’entraînement, avec des leçons courtes, des objectifs à atteindre, et des scénarios de conversation du quotidien.Mieux, vous pouvez créer vos propres exercices. Pour l’instant, les entraînements disponibles concernent surtout l’espagnol et le français, mais la mécanique se veut extensible.A quoi s’attendre côté usage pro ?D’abord, un arbitrage assumé entre latence et qualité. Le mode rapide conviendra pour déchiffrer un mail ou un message instantané en urgence.Le mode avancé sera lui taillé pour un brief client, un support technique ou une réponse commerciale où le ton et le contexte comptent.Ensuite, l’ergonomie à lécran bouge. Le micro est plus discret et déplacé à droite, la ligne de boutons est placée en bas de l'interface pour un usage à une main.Tout cela confirme un cap, amener l’IA de compréhension du langage au cœur de l’interprétation.Mais et c'est important, Google n’a pas encore officialisé le calendrier. Et certaines fonctions pourraient évoluer avant la sortie grand public. Mais la direction est claire. Google Traduction va faire moins de traductions “mot à mot”, proposer un coach linguistique.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle d’augmentation des données dans le monde de l'intelligence artificielle. Derrière ce terme, une idée simple. Il s'agit de créer, à partir de vos données existantes, de nouvelles variantes synthétiques pour entraîner des modèles de machine learning plus robustes.Pourquoi c’est utile ? Parce que dans la vraie vie, les jeux de données sont souvent limités, sensibles, ou pas assez variés. Alors on enrichit artificiellement le jeu d’entraînement… mais intelligemment.Je vous propose trois points pour tout comprendre avec l'aide d'une documentation AWS sur le sujet.L'augmentation de données, à quoi ça sert, concrètement ?L’augmentation des données améliore la performance et la généralisation des modèles. En multipliant les versions d’une même donnée, une image un peu plus sombre, un texte reformulé, un son avec un léger bruit, le modèle voit plus de cas et se trompe moins sur des données qu’il n’a jamais vues.Et cette augmentation des données réduit la dépendance à de très gros jeux de données, donc coûte moins cher.Elle limite également le sur-apprentissage, le fameux overfitting, où le modèle « apprend par cœur » ses exemples sans savoir généraliser.L'augmentation de données, comment ça marche, en pratique ?D'abord, les spécialistes de l'IA auditent le jeu de données et appliquent des transformations et des déclinaisons adaptées. Il peut s'agir de retournement et de changement de contraste pour une image.Mais aussi d'ajout de bruit et de variation de vitesse pour un son. Ou encore de permutation de mots et de paraphrases pour un texte.Mais attention, si vos données de départ sont biaisées, vos données augmentées hériteront de ces biais. Il faut donc les corriger à la source avant l'entraînement.Enfin troisième point, quels sont les premiers cas d'usage ?Dans le domaine de la santé, on multiplie les versions des images médicales pour mieux détecter des pathologies rares.En finance, on génère des scénarios de fraude ou des séries de risque pour entraîner la détection et le scoring.Dans la grande distribution, on varie angles, fonds et éclairages de photos de produits pour les faire reconnaître par l'IA en conditions réelles.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle d’« apprentissage zero-shot », ou ZSL pour zero shot learning.En clair, c’est la capacité d’un modèle d'IA à reconnaître ou classer des choses qu’il n’a jamais vues lors de son entraînement.Et voici l’essentiel en trois points sur la base d'un document d'explication d'IBM.Le ZSL, à quoi ça sert ?Alors dans un premier temps, à quoi ça sert et en quoi c’est différent des méthodes d'apprentissage classiques utilisées par les concepteurs d'intelligence artificielle.La plupart des modèles d'IA apprennent en mode supervisé. C'est à dire qu'on leur montre des milliers d’exemples étiquetés, d'un chat par exemple. Et le système apprend à reconnaître un chat avec cette méthode.Le problème, c'est que étiqueter des données coûte cher, prend du temps, et surtout que certaines classes sont rares, voire inédites, comme les nouvelles maladies, des espèces animales peu documentées, ou encore un nouveau type d’attaque informatique. Le zero-shot répond donc à cette contrainte.Le ZSL, comment ça marche ?Au lieu d’apprendre à reconnaître un oiseau en regardant des photos étiquetées, l'entraînement consiste à lire à l'IA une définition qui contient par exemple plumes, bec, et ailes. L'IA apprend ainsi à reconnaître un oiseau sans l’avoir vu auparavant.Le modèle s’appuie donc sur des connaissances auxiliaires. Le modèle ne dessine donc pas directement une frontière entre les classes qu’il a vues, mais calcule des scores de probabilité à partir des connaissances auxiliaires.À noter que les grands modèles de langage, les LLM, excellent souvent dans l'exercice de zero-shot. Pourquoi ? Parce qu’ils comprennent les étiquettes en langage naturel et peuvent classer, extraire, résumer ou suivre des instructions sans exemples, simplement via la consigne, c'est à dire le prompt.Le zero-shot a aussi ses limitesEnfin, le troisième point, c'est que le zero-shot a aussi ses limites. Et je vous donne direct un exemple pour que vous compreniez bien.En se basant sur les étiquettes et non les images étiquetées, difficile de savoir si le mot jaguar fait référence à une marque de voiture ou à un animal.Cette sensibilité sémantique fait chuter les performances si le domaine réel s’éloigne trop de ce que le modèle d'IA a appris.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on démêle un grand classique : l’apprentissage automatique, ou machine learning.Qu’est-ce que c’est, comment ça s’entraîne, et quels sont ses enjeux concrets en entreprise ?Voici trois points pour aller à l’essentiel, puisés dans une page d'assistance de Red Hat.Qu'est ce que c’est et comment ça marche ?L’apprentissage automatique, c’est une branche de l’IA où l’on apprend à des algorithmes à repérer des traces identiques dans des données. Il peut d'agir de chiffres, de texte, ou encore d'images. Et pour y parvenir, on prend un modèle d'IA et on le nourrit de données.Côté méthode, tout commence par un pipeline bien huilé :Collecte et préparation des donnéesSéparation de l'entraînement, des tests et de la validationEt souvent réduction des données pour ne garder que l’utileEt il faut faire face à quelques écueils, comme le surentraînement et le sous-entraînement, qui faussent les résultats attendus. Et il faut aussi surveiller la “fuite de données” quand, par erreur, des infos du test contaminent l’entraînement.Le machine learning est renforcé par les réseaux de neuronesLe second point c'est que de nos jours, le machine learning est renforcé par les réseaux de neurones. C'est ce que l'on appelle l’apprentissage profond, ou deep learning, ou s'empilent dans le réseau neuronal plusieurs couches pour apprendre des représentations de plus en plus abstraites.C'est cette évolution qui donne aujourd'hui des performances remarquables en vision, en reconnaissance vocale et en traitement du langage.L'apprentissage profond est même le socle de l’IA générative et des grands modèles de langage, qui sont désormais capables de produire du texte, de résumer, ou d'assister la recherche.Pourquoi un usage responsable est-il nécessaire ?Le troisième point c'est que la surpuissance actuelle de l'IA générative et de l'apprentissage automatique exige un usage responsable.Comme les modèles apprennent sur l’historique, ils peuvent hériter de biais présents dans les données et amplifier ces biais dans des décisions sensibles, dans les domaines du recrutement, de l'attribution de crédit bancaire, ou encore en matière de décision de justice.D’où l’importance de méthodes et d’outils d’explicabilité pour sortir l'IA de son image de “boîte noire”.En résumé, l’apprentissage automatique, c’est la capacité d’extraire des patterns des données pour décrire, prédire et recommander. Et l’apprentissage profond décuple ces possibilités.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on s’attaque à un sujet délicat : faut-il vraiment se méfier de l’anthropomorphisme avec les IA, ou bien apprendre à l’apprivoiser sans se faire piéger ?Mais avant tout, un peu de définition. Qu'est ce que l’anthropomorphisme dans le domaine de l'IA ? Et bien c'est tout simplement notre tendance naturelle à considérer les IA comme des humains.Et cela s'observe de plus en plus avec les chatbot comme ChatGPT, auxquels de plus en plus de personnes confient dans le cadre de dialogues leurs états d'âmes.L’anthropomorphisme n’est pas une faute, c’est un réflexeLe premier point, mentionne le psychiatre et psychanalyste Serge Tisseron, c'est que l’anthropomorphisme n’est pas une faute, c’est un réflexe.Depuis longtemps, nous traitons spontanément les ordinateurs comme s'il s'agissait de personnes réelles. Et ce n’est pas de la naïveté, c’est une stratégie mentale bien pratique. Car dire « merci » à une machine ou lui parler naturellement fluidifie l’interaction et réduit notre charge cognitive.La clé est donc d’admettre ce réflexe mais de garder en tête que la machine, elle, n’éprouve rien.Une petite gymnastique à mettre en placeC'est une petite gymnastique à mettre en place, mais elle s'avère efficace. D'abord, il faut dialoguer avec une IA comme avec un collègue, parce que c’est rapide et confortable.Mais ensuite, l'analytique, doit ensuite reprendre la main pour vérifier, demander les sources, reformuler, comparer plusieurs pistes.On adopte donc une règle simple. Il faut être convivial dans la forme, et exigent dans le fond. Et si l’IA nous flatte, on lui demande aussitôt les limites de sa réponse.Ni maître, ni gourou, ni élèveEt cela pose naturellement la question de la place de l'IA dans notre vie professionnelle. Ni maître, ni gourou, ni élève, mais collègue affirme Serge Tisseron.Et surtout, on impose des garde-fous, comme lui demander de citer des sources quand c’est possible, de signaler l’incertitude, et de versionner les étapes.Utilisez la convivialité pour aller vite, et l’esprit critique pour aller juste dit le psychiatre.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent.L’alignement des intelligences artificielles, en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs.Pourquoi l'alignement est crucialEt tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé.Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif, parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme.Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt.Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement.Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes.Robustesse, Interopérabilité, Contrôlabilité et ÉthiqueAlors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE, et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique.La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques.L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA.Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter.Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement.Comment faire de l'alignement ?Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince.Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF pour Reinforcement learning from human feedback.Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent.Bref, le fameux “problème de l’alignement” reste ouvert.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on parle d'une tendance qui, contre toute attente, montre que le système d'exploitation Linux fait son petit bout de chemin sur les bureaux des consommateurs.Une analyse récente de Lansweeper, une société spécialisée dans la découverte d'actifs informatiques, nous révèle des chiffres étonnants sur la part de marché des desktops Linux.La part de marché de Linux grimpe !D'après Lansweeper, Linux représente désormais plus de 6 % du marché des PC de bureau, un chiffre confirmé par d'autres études récentes.Par exemple, l'analyse de la société StatCounter montre que Linux a atteint un pic de 5,24 % en juillet.On pourrait se dire que c'est marginal. Mais pour un système longtemps perçu comme réservé aux développeurs ou aux utilisateurs avancés, c’est un véritable signe de croissance.De grandes différences entre le marché entreprise et le marché grand publicMais, et c'est le second point, il existe de grandes différences entre le marché entreprise et le marché grand public.Ce qui est intéressant dans l'étude, c'est la distinction en effet entre les ordinateurs personnels et ceux gérés par des entreprises.Sur les PC grand public, Linux gagne réellement du terrain, notamment en Europe.En revanche, dans le monde des entreprises, son adoption reste plus faible, à environ 1,9 %.Mais cela est peut-être en train de changer. Les entreprises commencent en effet à adopter Linux grâce à des fonctionnalités comme l’intégration avec Active Directory, un point essentiel pour les infrastructures d'entreprise.Une croissance mondialeEnfin le troisième point c'est que ce phénomène de croissance de Linux est mondial.Mais l'adoption de Linux varie également selon les régions. En Europe, on remarque que les services aux entreprises, la grande distribution et même certains gouvernements se tournent de plus en plus vers Linux, notamment en raison des récentes décisions politiques.En revanche, en Amérique du Nord, ce sont surtout les secteurs de la technologie et des télécommunications qui montrent une plus grande adoption de Linux, notamment pour les avantages de l'open source et sa flexibilité.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, parlons d’une petite révolution qui arrive tout bientôt pour vos smartphones.Il s'agit de l’arrivée de la recharge sans fil Qi2 à 25 watts.Et cette avancée pourrait bien faire oublier évidemment les bons vieux câbles USB-C.Qu’est-ce que Qi2 25 watts ?C’est une nouvelle norme développée par le Wireless Power Consortium, qui regroupe plus de 300 acteurs du secteur.Elle permet une recharge magnétique sans fil allant jusqu’à 25 watts. Et pour vous donner une idée, cela signifie que la recharge est près de 70 % plus rapide que la version précédente, limitée à 15 watts.Et surtout, cette puissance est désormais standardisée et certifiée, ce qui garantit une compatibilité fiable entre marques.Qui va pouvoir en bénéficier ?Les iPhones seront bien sûr compatibles, mais la grande nouveauté, c’est l’ouverture vers Android.Jusqu’ici, chaque constructeur Android proposait son propre protocole de recharge, souvent peu compatible avec les autres appareils.Avec Qi2, on entre dans un monde où un chargeur pourra fonctionner indifféremment avec un Google Pixel, un Samsung Galaxy ou un iPhone d'Apple, à condition que le smartphone intègre les aimants nécessaires à l’alignement magnétique.Quels smartphones Android sont d'ors et déjà prêts ?Eh bien, selon les dernières fuites, le Pixel 10, attendu pour la fin août, serait le premier Android à intégrer nativement ces aimants.Cela signifie qu'l y aura une recharge magnétique sans besoin de coque spéciale. D’autres modèles, comme les Galaxy S25, pourraient être compatibles, mais nécessiteraient encore une coque magnétique supplémentaire.Bref, c’est un vrai tournant pour Android, qui pourrait enfin rivaliser avec l’écosystème MagSafe d’Apple.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on s’intéresse à une nouvelle qui au cœur de l'été, secoue le monde du travail et de la technologie.Microsoft a annoncé en interne avoir économisé 500 millions de dollars grâce à l’intelligence artificielle. Et ce tout en licenciant 9 000 employés.Une annonce qui soulève de nombreuses questions sur l’avenir de l’emploi à l’ère de l’IA.500 millions de dollars d’économiesLe premier point, c'est que Microsoft donc a partagé en interne que ses outils d’IA avaient permis de réduire massivement les coûts de ses centres d’appel, et ce tout en augmentant la satisfaction client et employé.Résultat, un montant total de 500 millions de dollars d’économies, et ce dont grâce à une automatisation poussée dans des domaines comme les ventes, le support client et même le développement logiciel.Car oui, chez Microsoft désormais, c'est l’IA qui génère une grande partie du code.Trois vagues de licenciementsMais, et c'est le second point, malgré ces gains spectaculaires, l’entreprise a récemment procédé à trois vagues de licenciements, supprimant 15 000 postes au total en quelques mois.Beaucoup y voient un paradoxe. Pourquoi se séparer de milliers d’employés alors que les résultats financiers sont au demeurant excellents ?Certains analystes pointent une stratégie fiscale avantageuse. D’autres une volonté d’accélérer la transformation numérique, mais et c'est bien triste au prix de l’emploi humain.L’impact réel de l’IA sur le travailAu final, et c'est le troisième point, le débat est donc bel et bien lancé sur l’impact réel de l’IA sur le travail.Pour certains experts, c’est une continuité historique. Ce type de mouvement a déjà été observé avec des phénomènes comme l’arrivée du PC ou de la publication assistée par ordinateur. Bref, l’IA remplace certaines tâches mais en crée d’autres.Pour d’autres, c’est une rupture plus profonde. Car sans encadrement légal clair, rien n’empêche une entreprise de remplacer massivement ses salariés par des systèmes automatisés. Et ce sans obligation de formation ou de reclassement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle de Google Discover, le fil d’actualité mobile qui cartonne sur les smartphones Android, et que vous consultez peut-être tous les jours pour lire des articles sur ZDNET par exemple.Et bien sachez que l'IA générative va là aussi changer, pour ne pas dire bouleverser, la consultation de ce service.Voici ce qui change concrètementPour commencer, voici ce qui change concrètement. Jusqu’ici, Google Discover vous proposait des liens vers des articles qu’il pense susceptibles de vous intéresser.Désormais, une nouvelle fonctionnalité est en cours de déploiement aux États-Unis, sur Android comme iOS. Elle propose des résumés générés par intelligence artificielle, directement dans l’application Google. Fini le clic vers l’article.L’info clé est déjà résumée, avec quelques lignes extraites de plusieurs sources. Et ça c'est un véritable problème, puisque une seule source est cliquable, et les autres sont à peine visibles.De multiples inquiétudes chez les producteurs d'informationBien sûr, cela crée de multiples inquiétudes chez les producteurs d'information. Car ce type de résumé peut sembler pratique pour le lecteur, mais pour les éditeurs, c’est une autre affaire.Depuis le lancement des AI Overviews dans la recherche Google aux Etats-Unis, 37 des 50 plus grands sites d’actu américains ont vu leur trafic chuter, parfois de près de 40%.Et selon certaines études, moins de 1% des utilisateurs cliquent sur les liens après avoir lu un résumé fait avec de l'IA. Bref, il s'agit d'une véritable menace pour l’économie de la presse en ligne.Google tente de faire passer la pilule avec un système d’“Offerwall”En Europe, les craintes aussi sont très très fortes. Au Royaume-Uni, ou ce système vient d'être lancé, plusieurs groupes d’éditeurs indépendants ont déposé une plainte contre Google, accusé de siphonner leur contenu sans rémunération.De son côté, Google tente de faire passer la pilule avec un système d’“Offerwall”, pour permettre aux éditeurs de monétiser autrement ces extraits.Mais la confiance est fragile, sans compter que les inquiétudes grandissent sur la fiabilité de ces résumés automatiques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un sujet aussi fascinant que controversé dont je vous parle aujourd'hui. Il s'agit de l’utilisation croissante de l’intelligence artificielle pour prendre des décisions managériales.Vous pensez que c'est peut-être le futur ? Détrompez-vous. Je vous parle de ce qui se passe dans les entreprises dès à présent.Une récente étude menée par Resume Builder révèle en effet que 60 % des managers américains utilisent désormais l’IA pour évaluer, promouvoir… et parfois licencier leurs employés.Comment l’IA s’invite dans les décisions humaines ?Selon l’étude, près de 80 % des managers utilisent l’IA pour recommander des augmentations, ou des promotions.Mais attention, près de 70 % l’emploient aussi pour évaluer les licenciements, et les mises à pied.Et le pire, c'est que plus de 20 % d’entre eux laissent même l’IA prendre des décisions finales, sans intervention humaine. On parle donc ici d’un vrai changement de paradigme dans la gestion des ressources humaines.Le remplacement de postes par des IAEt pour aller plus loin dans les méandres de la RH dopée à l'IA, voici que les managers étudient désormais le remplacement de postes par des intelligences artificielles.Quand on leur demande d'évaluer si un poste peut être remplacé par une IA, près de la moitié des managers interrogés n'hésitent pas à remplacer un humain par une machine.Pourtant, la majorité de ces décideurs n’ont reçu aucune formation formelle à l’IA. De quoi inquiéter quand on considère les enjeux éthiques et juridiques.Un flou inquiétant autour des règles d’utilisation de l’IA dans l’entrepriseBref, et c'est le troisième point de l'étude, tout ceci met en lumière un flou inquiétant autour des règles d’utilisation de l’IA dans l’entreprise.Les outils utilisés, comme ChatGPT ou Microsoft Copilot, traitent parfois des données sensibles sans que les employés ne soient informés. Et sans cadre légal fort, les employés n’ont souvent aucun recours face à une décision automatisée.À New York, une loi impose déjà un audit annuel des algorithmes RH, mais ailleurs, la régulation reste embryonnaire.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle de Microsoft 365 et de la fin de Windows 10.Car une question que beaucoup se posent à l’approche de la fin de support de Windows 10, prévue pour octobre 2025, est : "Est-ce que je pourrai encore utiliser Microsoft 365 sur cet ancien système d’exploitation ?"La réponse est oui, mais avec plusieurs restrictions.Microsoft continue à fournir des mises à jour de sécurité jusqu’en 2028Le premier point donc, c'est que Microsoft prévoit de continuer à fournir des mises à jour de sécurité pour les applications Microsoft 365 sur Windows 10 jusqu’au 10 octobre 2028.Cela signifie que, même si le système ne sera plus officiellement supporté, vous pourrez toujours utiliser Word, Excel ou Outlook sans risquer les failles de sécurité, du moins pendant trois années supplémentaires.Ces mises à jour seront disponibles via les méthodes habituelles, que vous soyez un particulier ou une entreprise.Les nouvelles fonctionnalités ne seront pas disponibles indéfinimentLe second point cependant c'est que les nouvelles fonctionnalités proposées sur Microsoft 365 elles, ne seront pas disponibles indéfiniment.Si vous êtes un utilisateur personnel ou familial de Microsoft 365, vous recevrez des mises à jour fonctionnelles jusqu’en août 2026. Pour les entreprises abonnées au canal mensuel, ce sera jusqu’en octobre de la même année. Et pour celles qui utilisent le canal semi-annuel, c’est jusqu’en janvier 2027 que vous pourrez découvrir et utiliser les nouveautés.Mais passé ces dates, plus rien de neuf, et ce même si vous continuez à payer votre abonnement.Le support technique deviendra beaucoup plus limité dès le 14 octobre 2025Enfin troisième et dernier point, ils est important de savoir que le support technique deviendra beaucoup plus limité dès le 14 octobre 2025.Vous pourrez encore contacter Microsoft, mais si le problème rencontré est lié à Windows 10 et qu’il ne se produit pas sous Windows 11, les techniciens vous inviteront tout simplement à migrer. Pas de correction, pas de rapport de bug, et encore moins de promesse d’évolution.En résumé, Microsoft vous laisse un peu de temps si vous voulez rester sur Windows 10 avec Microsoft 365. Mais tôt ou tard, pour profiter pleinement du service, il faudra faire le saut vers Windows 11.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle batterie, autonomie… et intelligence. Car Microsoft vient de lancer en phase de test une nouvelle fonctionnalité dans Windows 11 qui pourrait bien changer la donne pour nos PC portables.Et cette fonctionnalité à un nom, elle s'appelle l’Adaptive Energy Saver.Alors c’est quoi exactement ? Pourquoi est-ce important ? Et comment en profiter si vous êtes curieux ?Qu’est-ce que l’Adaptive Energy Saver ?Il s’agit d’un mode expérimental qui permet d’activer automatiquement le mode économie d’énergie en fonction de l’utilisation de votre PC.Oui alors vous vous dites que ça existe déjà. Non mais la vraie nouveauté, c’est qu’il le fait sans jamais baisser la luminosité de votre écran.Ce qui est convenez en bien plus confortable si vous travaillez dans un environnement déjà peu lumineux.Alors comment ça marche ?Pour l’instant, cette fonctionnalité est réservée aux testeurs du canal Canary du programme Windows Insider.Elle est intégrée à la build 27898.Alors si vous êtes concerné et que vous voulez essayer, direction les paramètres de Windows 11, puis "Système", "Alimentation et batterie", et enfin "Energy Saver". Là, vous devriez voir une nouvelle option baptisée "Adaptive". Activez-la, et Windows se charge du reste.Pourquoi c’est malin ?C'est malin parce que ce système s’appuie non pas uniquement sur le pourcentage de batterie, mais aussi sur la charge système et l’état d’alimentation de votre appareil indique Microsoft.Résultat, Energy Saver se déclenche quand il le faut, même si la batterie est encore bien chargée. Et surtout, vous ne perdez rien en lisibilité.Mais attention tout de même. Ce mode est en phase de test, donc il n’est pas garanti que vous y ayez accès tout de suite, même avec la bonne version. Et évidemment, on ne l’installe pas sur une machine de production.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est un virage majeur que Google semble enfin vouloir assumer pour enfin concurrencer Apple sur un point très particulier.Je parle de la fusion entre ChromeOS, le système d'exploitation pour ordinateur de Google, et d'Android, celui utilisé pour mobile.Ce projet est évoqué depuis longtemps. Mais il vient d'être confirmé, presque par accident, par un cadre de Google.Une déclaration bien anodine qui change toutD'abord, et c'est le premier point, c'est donc une déclaration bien anodine qui change tout. Lors d’une interview, Sameer Samat, président de l’écosystème Android chez Google, a lâché cette petite phrase, et je cite, « Nous allons combiner ChromeOS et Android en une seule plateforme. »Une annonce lancée presque en passant… avant d’être légèrement tempérée sur les réseaux sociaux.Sameer Samat a ensuite précisé qu’il ne s’agit pas d’un nouveau produit, mais d’une continuité. En clair, ChromeOS repose désormais de plus en plus sur les fondations d’Android, notamment au niveau du noyau et de sa pile logicielle.Pourquoi cette convergence ?Pour Google, il s’agit très concrètement de rattraper Apple. La marque à la pomme a réussi à créer un écosystème fluide entre iOS et macOS, grâce auquel chaque appareil se comprend naturellement.Et cette dynamique est déjà à l’œuvre. Android 16, la nouvelle version de l'OS pour smartphone de Google, introduit un mode bureau, le support des écrans externes et une meilleure gestion du multitâche, autant de fonctions que l’on retrouvait déjà sur ChromeOS.En réunissant les deux univers, Google veut créer une expérience cohérente, moderne et surtout donc compétitive face aux iPads et aux MacBooks.Qu’est-ce que cette fusion change pour vous ?Pour les utilisateurs professionnels, cette fusion promet plus de confort. Par exemple les applications Android seront optimisées pour les grands écrans, avec une meilleure intégration matérielle et logicielle, et don moins de fragmentation.Pour les développeurs, c’est la promesse d’un socle unifié, simplifiant le développement d’applications multiplateformes.Mais attention : Google n’a encore rien dit sur le calendrier, ni sur la compatibilité avec les Chromebooks actuels. Une chose est sûre cependant. La machine est en marche, et les premiers vrais produits issus de cette fusion pourraient arriver dès 2026.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd’hui, on parle de Claude, l’intelligence artificielle d’Anthropic.Pourquoi ? Parce qu'elle vient de franchir un cap. Cette IA peut désormais automatiser le fonctionnement d'outils logiciels comme Canva, Asana, Figma, Stripe ou encore Notion.Claude devient un véritable assistant numérique capable de se connecter à vos applications du quotidien.Un véritable agent autonome d'IAD'abord, pour faire cela, Claude passe d'un simple chatbot à un véritable agent autonome d'IA.Grâce à une nouvelle fonctionnalité baptisée « Connectors », Claude peut désormais accéder à vos données professionnelles, les utiliser pour générer des contenus ou mettre à jour vos outils, tout ça en un clic.Par exemple, vous pouvez demander à Claude de créer un rapport financier à partir des données de Stripe, ou encore de générer un design Canva basé sur un brief rédigé dans Apple Notes.Alors comment cela fonctionne ?Tout repose sur ce que Anthropic appelle le protocole “Model Context Protocol”, dit aussi MCP.Ce protocole permet à Claude de se connecter à vos outils tout en respectant la sécurité de vos données. Une fois que vous avez cliqué sur “Connect” pour autoriser l’accès, Claude peut interagir avec vos documents, tâches ou fichiers en contexte, sans jamais avoir à copier-coller d’un outil à l’autre.Alors voyons maintenant quels sont les usage concrets.Quels sont les usage concrets ?Prenons un exemple simple. Un chef de projet peut demander à Claude de lire un compte-rendu de réunion, de mettre à jour les tâches Asana correspondantes, et même de générer un tableau de suivi dans Notion.Et voici un autre exemple. Un designer peut créer des maquettes dans Figma ou Canva à partir d’un prompt. Résultat, plus besoin de basculer entre les outils, tout se passe dans l’interface de Claude.Cette évolution marque donc une étape importante vers ce qu’on appelle les agents IA. C'est à dire des systèmes capables non seulement de répondre à vos questions, mais aussi et surtout d’agir à votre place dans vos environnements numériques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est à première vue un sacré paradoxe. Mais à première vue seulement.La géant de l'informatique Microsoft, malgré des bénéfices record, annonce la suppression de 9 000 postes.Le secteur de la tech est en pleine mutationD'abord, le secteur de la tech est en pleine mutation avec la mise en place d'outils d'intelligence artificielle dans les entreprises. Et cette tendance lourde affecte les emplois quelque soit la santé financière des entreprises.Prenez Microsoft, un géant parmi les géants de la tech. La société affiche des résultats financiers impressionnants, avec près de 26 milliards de dollars de bénéfices nets par trimestre.Pourtant, Microsoft annonce une vague de licenciements affectant 4 % de ses effectifs, soit environ 9 000 employés. Cette réduction des effectifs, qui touche aussi bien des divisions clés comme Xbox que des fonctions administratives, est présentée comme une réorganisation stratégique.Mi-mai, le groupe de Redmond avait déjà dévoilé un plan social portant sur environ 6.000 personnes.Microsoft entérine l'impact de l'IA sur le travail humainEt par réorganisation stratégique, Microsoft entérine l'impact de l'IA sur le travail humain.Car la cause principale de ces licenciements est l’intégration de plus en plus forte de l’intelligence artificielle. Actuellement, 20 à 30 % du code interne est déjà généré par des outils IA comme GitHub Copilot.Et d’ici 2030, Microsoft estime que jusqu’à 95 % du code sera produit par des algorithmes. En somme, l’IA ne remplace pas seulement des tâches manuelles, mais aussi des fonctions plus qualifiées, comme la programmation, la documentation, et même la gestion de projet.Microsoft n'est pas le seul à faire ainsiEt dans le monde de la technologie, Microsoft n'est pas le seul à agir ainsi.D’autres géants de la tech, comme Meta, Google ou Salesforce, ont déjà entrepris des vagues de licenciements similaires en raison de la montée en puissance de l'IA.Les entreprises se réorganisent et rationalisent leurs équipes, tout en investissant massivement dans les technologies d’intelligence artificielle.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est une question qui fait à présent débat. Les développeurs informatique sont-ils, comme les bonobos, les pandas géants ou encore le thon rouge, une espèce en voie de disparition ?Sachez en tout cas que depuis quelques mois aux Etat-Unis les diplômés en ingénierie logicielle connaissent des taux de chômage plus élevés que des secteurs comme l’histoire de l’art.Et derrière cette statistique, plusieurs éléments méritent réflexion.Un marché en profonde mutationD'abord, on parle d'un marché en profonde mutation. L'industrie du logiciel, longtemps en croissance, semble à présent traverser une phase de recalibration.Pendant des années, la demande en développeurs a explosé, avec une montée en flèche des formations accélérées et des bootcamps pour répondre à ce besoin. Mais cette expansion a parfois conduit à des recrutements excessifs. Aujourd’hui, le marché semble moins demandeur, notamment à cause de l'évolution vers des systèmes autonomes et l’automatisation des tâches, avec des outils comme l’IA générative.Surtout, l'IA a déjà transformé une partie des tâches qui étaient autrefois l’apanage des développeurs juniors, comme la traduction de code ou l’écriture d’algorithmes simples.L’impact de l’IA sur le code est très puissantCar désormais l’impact de l’IA sur le code est très puissant. L’IA par exemple transforme le rôle des ingénieurs logiciels vers une collaboration entre l'homme et l'IA.Mais si des outils comme ChatGPT ou GitHub Copilot peuvent générer du code de manière autonome, il reste essentiel de conserver des talents capables de gérer, d’intégrer et d’améliorer ce code généré.En d’autres termes, l’avenir des ingénieurs logiciels réside dans leur capacité à travailler avec l'IA et non pas uniquement à réaliser des tâches de programmation basiques.Comment renforcer sa sécurité professionnelle en tant que développeurAlors comment renforcer sa sécurité professionnelle en tant que développeur, et ne pas finir comme le dodo de l'Ile Maurice ? La clé semble résider dans l’adaptation continue. Il ne suffit plus de maîtriser un seul langage de programmation. Il faut privilégier des certifications pratiques, et démontrer à votre employeur votre capacité à résoudre des problèmes concrets.Mais aussi, l’accent doit être mis sur la compréhension globale de l’entreprise, et non plus uniquement sur les compétences techniques.Bref, il s'agit de devenir un "ingénieur" au sens large, et pas juste un développeur. Cela pourrait bien être la voie pour assurer sa place sur le marché, et non pas dans les livres d'histoire.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Voici une question d'actualité qui agite désormais très fort le monde de l’éducation.Avec la montée en puissance de l’intelligence artificielle, cette technologie peut-elle sauver les enseignants d’une charge de travail écrasante ?D’après une étude états-unienne publiée la semaine dernière par Gallup et la Fondation Walton, il y a des raisons d’y croire. Voici trois points à retenir.L'IA bien utilisée assure un gain de temps tout à fait spectaculaireLe premier point c'est que pour les professeurs, l'IA bien utilisée assure un gain de temps tout à fait spectaculaire. Selon le sondage mené auprès de plus de 2200 enseignants des écoles publiques américaines, 30 % utilisent déjà l’IA chaque semaine.Résultat, ces 30 % de professeurs et d'instituteurs jugent économiser, tenez vous bien, près de six heures de travail par semaine. Oui, c'est l’équivalent de six semaines de travail par an !Ce gain, les auteurs de l'étude l'appellent le « dividende de l'IA ». Et idéalement, il permet aux enseignants d’investir ce temps dans un suivi plus personnalisé des élèves, mais aussi une meilleure communication avec les parents, ou encore un accompagnement pédagogique renforcé.L'adoption de l'IA dans le secteur de l'éducation est encore inégaleReste que l'adoption de l'IA par les professionnels de l'enseignement outre-Atlantique est encore inégale.Si 60 % de ces enseignants disent utiliser une forme d’IA, principalement pour préparer des supports, adapter les cours ou corriger des copies, 40 % ne l’utilisent pas toujours.Autre bémol, moins de 20 % d'entre eux déclarent que leur établissement dispose d’une politique claire sur l’usage de l’IA.Les chercheurs notent que sans formation et sans encadrement, ces outils risquent d’être sous-exploités, voire d’accentuer certaines inégalités entre enseignants.Mais que faire de la pensée critique ?Mais c'est peut être le troisième point qui soulève le plus d'inquiétude. Les chercheurs notent que l'usage de plus en plus répandu de l'IA dans les écoles pose la question de l'utilisation de la pensée critique par les enseignants.Si la plupart d'entre eux estiment que l’IA rend leur travail plus efficace, certains s’inquiètent en effet de son incidence sur les capacités d’analyse. Et voici concrètement pourquoi.Un récent rapport du Massachusetts Institute of Technology montre que l’IA réduit les « frictions » dans la recherche de réponses. Mais le prix de cette fluidité fort agréable, c'est la baisse de l’esprit critique des utilisateurs.En clair, les enseignants et les élèves qui utilisent l'IA ont tendance à accepter les réponses des chatbots sans les questionner.Certaines solutions comme l’outil Claude for Education d’Anthropic visent à contrer cette dérive. Mais le débat reste ouvert.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Vous ne l'avez peut être pas encore remarqué, mais les acteurs de la sécurité informatique sont en pleine transition des mots de passe aux clés d'accès, aussi nommées passkey.Et voici un nouvel exemple. Microsoft supprime les mots de passe de son application Authenticator.Ce changement, prévu pour août 2025, mérite toute votre attention dès maintenant. Le calendrier est serréD'abord, le calendrier est serré. Car depuis juin, il n’est plus possible d’ajouter de nouveaux mots de passe dans Authenticator.En juillet, la fonction d’auto‑remplissage sera désactivée, et en août donc, tous les mots de passe sauvegardés disparaîtront.Au final, si vous comptez encore sur l’app pour accéder à vos comptes, il est temps d’agir dès à présent.Les passkeys prennent le relaisLe second point, c'est que ce sont les passkeys qui prennent le relais.Conçues selon le standard FIDO, ces clés d’accès utilisent votre empreinte digitale, votre visage ou un code PIN pour sécuriser vos connexions.L'avantage, c'est que il n'y a plus besoin de retenir des mots de passe, ni de craindre les attaques par hameçonnage. Les passkeys sont stockées uniquement sur vos appareils, et jamais sur les serveurs, ce qui renforce la sécurité.Microsoft assure aussi que les connexions par passkeys sont 8 fois plus rapides et avec un taux de réussite de 98 %, contre seulement 32 % pour les mots de passe.Alors comment faire sereinement la transition ?Si vous avez des mots de passe dans l'application Microsoft Authenticator, exportez-les sans tarder.Microsoft recommande de les importer dans le navigateur Edge, ou dans un autre gestionnaire de mots de passe.Ensuite, ouvrez l’application Authenticator, sélectionnez votre compte, et activez l’option « Set up a passkey ». L’application vous guidera pas à pas pour adopter ce nouveau mode d’authentification.Veillez bien par exemple pour conserver l’auto‑remplissage, à configurez Edge comme fournisseur d’auto‑remplissage dans les paramètres de votre mobile.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Épisode incroyable qui est !! Découvrez maintenant plus sur le calculateur de TVA https://kdvhesaplamalar.com.tr/