DiscoverUn monde de tech
Un monde de tech
Claim Ownership

Un monde de tech

Author: RFI

Subscribed: 19Played: 121
Share

Description

Comment et pourquoi le progrès et l'innovation technologique modifient-ils notre quotidien ? Dominique Desaunay met l’accent sur les initiatives locales, donne la parole à ceux qui imaginent notre avenir, et propose une immersion au cœur même de la civilisation «numérique» mondiale.

252 Episodes
Reverse
Le ministre allemand de la Défense et le ministre suédois de la Défense civile, ont estimé ce mardi qu'un « sabotage » était certainement à l'origine des dégâts constatés sur deux câbles de télécommunication passant en mer Baltique. Dans une déclaration commune, ils ont évoqué la « guerre hybride » et la menace russe. Et se disent « profondément préoccupés » de la destruction de ces autoroutes de l’information reliant la Finlande et l'Allemagne d'une part, la Suède et la Lituanie d'autre part. Nous pensons à tort que nos mobiles, ordinateurs et autres machines informatiques connectées sont reliés les uns aux autres en passant par des connexions satellitaires, par des ondes hertziennes, ou encore par du Wifi. Mais qu’elles soient du domaine grand public ou pour assurer les activités de n’importe quelle entreprise dans le monde, la quasi-totalité de nos communications électroniques, y compris nos échanges vocaux par mobiles, dépendent à 99 % des câbles sous-marins.Depuis l’invasion de l’Ukraine par la Russie, les destructions imputables à Moscou contre les câbles sous-marins se sont multipliées. La thèse d’un nouveau « sabotage » perpétré par la Russie serait plus que probable, selon le ministre allemand de la Défense.Ces destructions coïncident avec l'exercice Freezing Winds-2024 de l'Otan, qui a commencé dans le golfe de Finlande et sur le terrain d'entraînement de Dragsvík, dans le sud de la Finlande. Mais la thèse d'une action de représailles après l'autorisation de l’emploi de missiles de longue portée par l’Ukraine est aussi envisageable. Dans les deux cas, Moscou est soupçonnée d'avoir saboté ces câbles sous-marins, estime Serge Besanger Professeur à l’École supérieure de commerce extérieur de Paris et de Lyon :« Le problème qui s'est passé ces derniers jours avec les attaques des câbles sous-marins dans la Baltique, est que la Marine suédoise n'était pas dans sa zone économique exclusive et c'est bien dans la Zone économique européenne (ZEE) que les Russes sont partis chercher ces câbles. Malheureusement, il n'y avait pas, non plus, de patrouilleurs finlandais au moment des faits. En conséquence, deux câbles de communications ont été sectionnés. À la suite de ces sabotages, les experts en cybersécurité ont pu constater une baisse du trafic internet d'environ 40 % en Lituanie, par exemple. Heureusement, d'autres câbles optiques dans la région, ont servi à re-router le trafic des données. Mais notons au passage que 40 % de trafic en moins est quand même assez révélateur du pouvoir de nuisance de ces destructions ! Par ailleurs, les systèmes de surveillance maritimes sont parvenus à géolocaliser les bateaux russes ou chinois qui étaient dans la région au moment des faits, permettant ainsi de pointer, à priori, le coupable. Ces actions de sabotage sont sans doute une réponse « calibrée » entre guillemets, à l’autorisation qui a été donnée aux Ukrainiens d’utiliser des missiles à longue portée pour étendre leurs capacités de contre-offensives. La réparation des câbles ne sera pas un problème, c'est l'affaire de 6 à 10 jours maximum. »Plusieurs incidents du même type ces derniers moisEt à chaque fois, les autorités des pays nordiques constatent que des « bateaux de pêche » entre guillemets ou des bâtiments chinois affrétés par les russes, sillonnaient dans la zone maritime dans laquelle se situaient les câbles. Normalement, afin de dissuader ces bateaux d’agir, des patrouilleurs et des frégates sont envoyés sur place. Mais les flottes, qui sont principalement françaises et celles moins importantes des autres pays européens, sont actuellement en sous nombre.Par ailleurs, les réductions de budgets décidés par l’Europe, il y a plus de 15 ans, n’ont pas permis de maintenir leur pleine possibilité d’intervention. Des financements européens pour en construire de nouveaux ont bien été votés récemment, mais ces bâtiments ne seront opérationnels qu’en 2026 ou 2027.
Les publicités à caractère politique ne s’afficheront plus sur Google et YouTube en Europe à partir de 2025. Alphabet, la maison mère du moteur de recherche, réagit ainsi à un nouveau règlement de l’Union européenne qui introduit des « incertitudes juridiques » pour les plateformes et les annonceurs, selon l’entreprise américaine. La mesure annoncée par Google de bouter hors d’Union européenne (UE) toutes les publicités à caractère politique de ses pages web ne doit rien au hasard. Le Parlement européen et les États membres de l'UE s’étaient mis d'accord en mars dernier sur un texte législatif commun destiné à encadrer les publicités à caractère politique à l'horizon 2025. L’objectif de cette nouvelle réglementation est de protéger davantage les campagnes électorales dans l'Union européenne des ingérences étrangères. Google veut prendre ainsi les devants sur la nouvelle régulation prescrite par Bruxelles aux plateformes en ligne, dont les systèmes économiques reposent principalement sur les recettes publicitaires.Le ciblage publicitaire à caractère politique dans le collimateur de l’UENormalement, dans tous les pays de l’Union, le ciblage publicitaire à caractère politique n’est possible qu’avec le consentement explicite des individus. Mais cette autorisation préalable qui est le fondement même du Règlement général sur la protection des données, est largement contournée par l'emploi des algorithmes de recommandation mis en place par les grandes plateformes sociales. Ces robots numériques, terriblement efficaces, orchestrent la façon dont les publications apparaissent sur le fil d’actualité des utilisateurs et amplifient de facto les messages publicitaires classiques et ceux évidemment à caractère politique.L’an prochain et dès l’automne, les publicités contenant des informations sensibles, telles que l'origine ethnique, les convictions religieuses ou l'orientation sexuelle d’un candidat ou d’un électeur, seront rigoureusement interdites. Le profilage à partir de données personnelles des internautes pour le compte de candidats ou de partis politiques sera également proscrit, indique le texte adopté par l’UE.Google stoppe par anticipation les pubs politique en EuropeAlors que la nouvelle réglementation européenne n'entrera en vigueur que le 10 octobre 2025. Le géant américain justifie sa position par la complexité du nouveau cadre réglementaire dénommé le « TTPA », pour Transparence et ciblage des publicités politiques. Ce texte de Bruxelles définit la publicité politique de manière si large qu'il devient, selon la firme américaine, difficile d'identifier de façon fiable tous les contenus qui seraient concernés par la loi, précise Google sur son blog officiel. C’est la raison pour laquelle, les publicités politiques disparaîtront non seulement des résultats de son moteur de recherche, mais aussi dans les vidéos apparaissant sur YouTube.Par ailleurs, la règlementation de l’UE impose aux géants du web comme Google, Facebook, TikTok ou encore X de signaler ces publicités politiques auprès de leurs utilisateurs pour une meilleure transparence. Pour l’instant, seule la firme de Mountain View a pris les devants. Meta n’a pas encore réagi, TikTok fait cavalier seul et le réseau social d’Elon Musk nous a déjà prouvé qu’il ne respectait aucune législation régulant les pubs à caractère politique.À lire aussiL'Indonésie bloque la vente de smartphones Google Pixel pour forcer l'investissement local
Que diriez-vous si votre médecin demandait à une intelligence artificielle de vous diagnostiquer ? Et plus largement, a-t-on encore besoin de médecins quand on a une IA disponible ? Question provocante, mais la science aujourd’hui pourrait bien rejoindre la fiction. De notre correspondant à Aberdeen,Au Royaume-Uni, l’utilisation d’intelligences artificielles se développe dans le monde médical — en France, le Sénat a diligenté un rapport sur la question. Ainsi, 20 % des médecins britanniques, hommes comme femmes, utilisent une intelligence artificielle dans leur travail. C’est ce qui ressort d’une étude réalisée auprès de 1 000 médecins dans tout le royaume, publiée dans le magazine médical spécialisé BMJ. La plupart de ces praticiens utilisent ChatGPT, Gemini de Google ou Bing de Microsoft.Les IA leur servent principalement à générer de la documentation, comme des résumés du dossier de santé du patient ou en prenant en note ce qui se dit lors du rendez-vous médical, ce qui doit permettre au médecin de se concentrer sur la personne qu’il a en face de lui et de ne pas avoir le nez collé sur son ordinateur pour taper ses notes. L’IA permet aussi de compiler des documents à destination de l’administration médicale et du patient après la visite, rendant le charabia médical plus compréhensible, ce qui, à nouveau, dégagerait du temps au médecin pour se concentrer sur sa pratique : soigner. À lire aussiUne IA générative écoutera vos conversations chez le médecinL’intelligence artificielle utilisée pour générer du contenuCes IA génératives, comme on les dénomme, ne font pas qu’analyser les contenus, elles en génèrent. Avant elles, il en existait déjà de nombreuses spécialisées dans une pratique médicale, comme les IA qui servent à détecter les anomalies dans le corps humain lors de radio, de scanner ou lors des mammographies de dépistage de cancer du sein par exemple. Et qui, dans ce cas, permettent d’avoir une détection de cancer un peu plus efficace, 12 % de plus qu’avec un œil humain, suivant une étude réalisée en Écosse, à Aberdeen. L’IA est une solution quand on a des cartons de documents administratifs à étudier et à produire. Et c’est le cas des médecins. Mais cette étude montre aussi que, plus étonnamment, un quart des médecins généralistes qui utilisent une IA le font pour savoir si elle a un diagnostic différent du leur et pour suggérer des traitements.Le problème, c’est que parfois, la reformulation par l’IA, on le voit avec ChatGPT ou Gemini, est enrichie d’éléments sortis de nulle part, plausibles, mais un peu exagérés. Pire, ces IA peuvent même parfois faire des contresens.Dans un système de santé, en Grande-Bretagne mais aussi en France, où les patients peuvent consulter plusieurs médecins, leur historique médical synthétisé, recréé et reformulé par IA peut avoir des conséquences importantes et dangereuses. Lors de procédures en urgence, ces exagérations pourraient générer de vrais risques.Pour l’instant, comme on le fait avec un texte écrit ou réécrit par ChatGPT, il faut encore un œil humain pour vérifier et corriger les reformulations malheureuses et les enrichissements inattendus par l’IA. Donc les meilleurs résultats restent quand la machine travaille et l’humain finalise.À écouter dans Priorité santéSanté et intelligence artificielle
Au siège de l’Unesco à Paris s’est tenue la toute première exposition virtuelle de l’IPM, l’« Isis prisons museum », autrement dit le musée des prisons de l’État islamique en Irak et en Syrie, sur la vieille ville de Mossoul en Irak.  Construire cette exposition a nécessité plusieurs années de travail de documentation et de collecte de preuves sur les exactions et les destructions menées par les jihadistes de Daech quand ils ont pris le contrôle de la ville de Mossoul en 2014. Cette occupation de l’État islamique et le conflit qui en a résulté ont entraîné la destruction de nombreux sites emblématiques. L’exposition reconstitue donc avec l’aide d’images 3D l’architecture de Mossoul en mettant l’accent sur trois bâtiments clés de la vieille ville. On peut voir en immersion la mosquée al-Nouri, la maison Meydan et l’église syriaque, trois monuments qui témoignent de la diversité ethnique et religieuse de Mossoul et qui ont été transformés en prisons par l’organisation État islamique.Ce travail de longue haleine a commencé en 2017 quand les jihadistes ont été expulsés progressivement du pays. Younes Qays est responsable de l’IPM pour l’Irak, il coordonne sur place le travail de documentation en images et de collecte d’informations sur ce qui s’est passé dans ces prisons. « Ça a été un travail très difficile et c’était très compliqué aussi pour les habitants d’évoquer cette période marquée par les horreurs de l’État islamique, relate-t-il. C’est une période en fait qu’ils veulent oublier, mais il était important aussi pour eux de témoigner. Le but, c’est raconter vraiment l’histoire de ce pays pour qu’elle ne se répète pas. »Documenter les destructionsL’objectif de cette exposition, c’est aussi de ne pas oublier les événements à Mossoul. Une visite en 3D permet de voir les bâtiments avant et après le passage des jihadistes. Et ce travail de mémoire a été possible grâce à la technologie et l’engagement de bénévoles comme Zaïn Hajahjah, l’architecte irakienne qui a développé les animations 3D pour reconstituer les bâtiments. Elle explique le processus de reconstitution d’une maison familiale traditionnelle transformée en prison : « On a procédé en trois phases. D’abord, en prenant des photographies 3D des bâtiments et des prises de vues aériennes. Ensuite, en exploitant des documents trouvés sur place. Et tout ceci combiné aux nombreux témoignages de prisonniers, de survivants, nous a permis de reconstituer virtuellement le bâtiment tel qu’il était avant l’arrivée des jihadistes et tel qu’il est aujourd’hui. »Outre les bâtiments, le sort des milliers d’habitants de Mossoul qui ont disparu est aussi au cœur du travail des équipes de l’IPM, qui ont effectué un travail d’enquête minutieux avec l’aide de témoignages qu’ils ont pu recueillir des anciens prisonniers de l’État islamique. En se rendant sur les sites transformés en prison par les jihadistes, les membres de l’IPM ont aussi relevé plusieurs inscriptions sur les murs qui les ont aidés à en savoir plus sur les milliers de personnes disparues. Le but est de rassembler le maximum de preuves et de témoignages sur les violations des droits humains pour qu’elles puissent être utilisées, un jour, devant les tribunaux.L’exposition Trois Murs est accessible en ligne sur le site de l’Isis Prisons Museum.À lire aussi«Notre-Dame à l’heure de Mossoul»: après le groupe État islamique, reconstruction et renaissance? À lire aussiNEWSLETTER RFI CULTURE : Ne manquez pas les meilleurs reportages et idées d’une actualité culturelle internationale qui n’oublie pas l’Afrique.
De plus en plus de jeunes américains se filment sur TikTok, indiquant qu’ils votent à l’inverse de leurs parents ou de leur conjoint afin de contrer leur opinion. Cette nouvelle tendance, intitulée « cancel out » (« annuler », en français), se généralise sur tous les réseaux sociaux. Elle révèle l’étendue d’un clivage électoral générationnel qui règne désormais dans la plupart des familles américaines. De nombreux jeunes électeurs sur la plateforme sociale TikTok publient des vidéos sur leur intention de vote.Tous expliquent vouloir « annuler » le bulletin de leurs proches, de leurs amis, voire celui de leurs grands-parents, annonce, par exemple, cette jeune internaute : « Je suis désolée pour tous ceux qui doivent annuler les votes de leurs grands-parents toujours en vie. Moi, je n’ai pas la même préoccupation, car ils sont tous décédés et je m’en fiche si mon vote ne leur plaît pas et qu’ils viennent me hanter. Et comme 75 % de mes ancêtres sont des immigrés, je me demande pourquoi vous voteriez pour celui qui nous a toujours détestés. »Des vidéos reprenant le concept populaire des édits Des clips d’à peine vingt secondes qui sont, pour la plupart, réalisés sur un mode humoristique.L’autre particularité de ces vidéos est qu’elles sont noyées dans des musiques de fond, principalement issues de la K-pop ou des reprises électro de la bannière étoilée, l’hymne national américain.Généralement, un simple texte explicatif accompagne ces vidéos. C’est le cas de ce clip qui a cumulé plus de 9 millions de vues depuis sa création dans lequel on aperçoit un homme suivi et filmé par sa fille en train de marcher vers le bureau de vote. « Juste un père et sa fille allant annuler le vote de l’un et de l’autre » indique, en filigrane, le texte du message.Une Amérique divisée, mais capable de cohabiterLes opinions politiques opposées peuvent coexister, démontre un de ces clips dans lequel un jeune couple s’amuse de leur opposition politique. Dans une interview accordée à la chaîne NBC News, la jeune femme de 19 ans du couple explique avoir mis en scène cette vidéo pour passer un message de tolérance. Deux personnes peuvent vivre sous le même toit, malgré leurs opinions politiques opposées : « la plupart des jeunes femmes de la génération Y ou Z expriment ainsi leur volonté de “voter différemment”, d’un partenaire ou d’un père. Et je pense que cette tendance peut avoir un impact significatif sur les discussions entre les jeunes femmes et leurs conjoints. Avec leurs parents aussi, car les jeunes semblent être le groupe démographique clé dans cette élection selon eux. Mais encore une fois, il s’agit d’un clip anecdotique. Et il est difficile de savoir ce qui se passe réellement au moment du vote, vous savez. »Les jeunes électeurs soutiennent la démocrate Kamala HarrisUn récent sondage indique que six électeurs sur dix de la génération Z, c’est-à-dire, les personnes nées à la fin des années 1990, voteraient pour la candidate démocrate.Toutefois, cette guerre de Sécession électorale qui fait rage aux États-Unis dans les familles ne va pas cesser, ça, c’est sûr.Les discussions en ligne s’enveniment en ce jour d’élection de la présidentielle américaine. Les internautes, démocrates ou trumpistes s’estimant plus nombreux que l’autre camp, imaginent qu’ils vont donner la pâtée à leur adversaire.Une envolée des messages vindicatifs sur les réseaux sociaux, qui corrobore une récente étude de l’université de l’Illinois. Elle révèle que près de 30 % des Américains, quel que soit leur âge, entretiennent une relation compliquée, pour ne pas dire conflictuelle, avec un proche ayant des opinions politiques opposées.À lire aussi[En direct] États-Unis: Kamala Harris ou Donald Trump, qui sera le 47e président?
Suite à la catastrophe naturelle qui s’est abattue en Espagne le mardi 29 octobre 2024, et qui a provoqué plus de 200 morts et des dizaines de disparus, il n’y a pas eu uniquement un déluge d’eau, mais aussi un torrent d’informations équivoques, fausses, exagérées et de fausses alertes sur les réseaux sociaux, ajoutant du chaos au chaos. De notre correspondant à Madrid,Dès le mercredi 30 octobre au matin, lorsque chacun pouvait constater le désastre, les dizaines de morts et de disparus, les édifices détruits, les voitures emportées dans les flots comme des rondins de bois, les polémiques sur les réseaux sociaux enflaient.Le premier à signaler le terrible danger des informations sur ces réseaux sociaux, c’est José Miguel Basset, le chef provincial des pompiers. « La grande quantité de fake news, dit-il, provoque des problèmes d’ordre public et interrompt le travail des dispositifs de secours. » Pléthore de fausses informations ont circulé, par exemple, qu’une commune entière allait être évacuée, ou que dans des villes comme Sedavi ou Alfafar, il y avait des avenues d’eau provoquant de nouvelles victimes, ou encore que le numéro d’urgence, le 112, avait cessé de fonctionner.À lire aussiNon, un mystérieux bateau n’a pas provoqué les inondations en EspagneDes barrages en amont de Valence auraient cédé, une fake news dangereuseL’extrême droite, notamment, et d’innombrables internautes qui se laissent séduire avec facilité par les théories du complot, ont colporté une fausse information extrêmement dangereuse : des barrages en amont de Valence auraient cédé.Tout a commencé par une fausse alerte par WhatsApp, relayée ensuite par plusieurs réseaux sociaux, selon laquelle plusieurs barrages, comme ceux de Manises et de Benagéber, auraient cédé et qu’un autre tsunami d’eau allait se déverser sur Valence et ses environs.Mais cela ne s’est arrêté là, car plusieurs membres de Vox, le parti d’extrême droite espagnol, ont alimenté l’idée totalement folle que les inondations et les crues étaient dues au fait que le gouvernement espagnol avait sciemment ouvert les portes d’un grand barrage. Le chef de file de Vox, Santiago Abascal, a accusé les socialistes au pouvoir d’en avoir fini avec les retenues d’eau dans le pays, origine de la tragédie.Toutefois, dans un incroyable élan de solidarité, des milliers de volontaires ont aidé la population locale à déblayer les rues et les garages. Mais dans certains cas, des volontaires ont été stoppés, car ils saturaient les accès pour les équipes de secours.À lire aussi Inondations en Espagne : la solidarité s’organise pour approvisionner et nettoyerLa colère parmi les sinistrésLes victimes de la catastrophe ont manifesté leur colère à Paiporta, l’épicentre de la catastrophe, contre le roi Felipe VI et la reine Letizia. La foule les a insultés aux cris d’« assassins » et a lancé sur eux de la boue. Le couple royal s'en est sorti indemne, mais il a préféré interrompre son programme de visites dans d’autres zones sinistrées, par prudence.À écouter François Gemmene : « La population doit identifier qui est responsable de la catastrophe »
Elon Musk, le patron du réseau social X (ex-Twitter), a confirmé qu'il détournait à son avantage l'algorithme de sa plateforme pour mettre en avant ses propres tweets et ceux du candidat Donald Trump. Mais une enquête menée par le Wall Street Journal vient de démontrer que le système de recommandation de X favorisait aussi les messages de tous les internautes pro-Trump, au détriment des publications pro-Harris. Les journalistes du Wall Street Journal ont cherché à décrypter les comportements des algorithmes du réseau social X, pour déterminer notamment si le dispositif de recommandation de l'onglet intitulé « Pour vous » affichait plutôt des messages favorables à Kamala Harris ou à Donald Trump. Concrètement, les équipes du quotidien new-yorkais ont créé 14 nouveaux comptes qui ciblaient particulièrement les États considérés comme déterminant lors du scrutin de l'élection présidentielle américaine.Ces comptes étaient programmés pour se montrer actifs sur la plateforme X plusieurs fois par jour et pendant une semaine. Les messages publiés couvraient divers sujets s'intéressant à la culture, la science, à la course à pied, ou encore à des recettes de cuisine. Mais aucun des thèmes abordés sur ses comptes n'indiquait un quelconque intérêt pour les élections américaines.Les résultats troublants de l'étude du Wall Street JournalPremier constat : la majorité des publications recommandées par les algorithmes de X étaient à caractère politique et souvent en rapport avec les élections. Le média américain remarque toutefois que des messages favorables à Kamala Harris sont arrivés en tête des consultations, mais uniquement sur un seul de ces comptes.En revanche, 10 sur les 14 affichaient des contenus dans l'onglet « Pour vous » en faveur du candidat républicain. Par ailleurs, les messages pro-Trump apparaissaient deux fois plus fréquemment que les publications pro-Harris, indique le Wall Street Journal. Elon Musk est le seul responsable de cette manipulation algorithmique à grande échelle, estime David Chavalarias chercheur au CNRS et directeur de l'Institut des systèmes complexes de Paris :« Ce qui s'affiche dans l'onglet ''Pour vous'' est entièrement piloté par le dispositif de recommandation du réseau X, l'ex-Twitter. Et ce n'est qu'une toute petite partie évidemment de ce qui est géré par les algorithmes de la plateforme sociale. Les messages des personnes que vous suivez sont mélangés à d'autres types de contenus sur le réseau social selon des critères définis par les algorithmes. Leur premier objectif est de vous faire rester le plus longtemps possible sur le réseau. Mais ils sont aussi capables d'influencer vos décisions, vos jugements, vos opinons politiques.Ce biais informationnel, qui est particulièrement fort sur la plateforme X, est au service des opinions politiques d'Elon Musk, qui sont très clairement d'extrême droite et pro-Trump. A priori, cette manipulation algorithmique a un impact très important, à la fois sur les messages que les internautes consultent, mais aussi sur l'opinion qu'ils se forment. La plateforme X oriente certains types de contenus, quitte à censurer des messages nuisant à l'idéologie d'Elon Musk, qui préfère amplifier les informations et les infox qui seraient favorables à son candidat préféré. »Les réseaux sociaux, passage obligé pour les candidats en campagneC'est le cas de Kamala Harris qui a investi massivement TikTok, pour délivrer ses consignes de vote auprès de ses millions d'abonnés qui la soutiennent.Toutefois, les républicains, fervents défenseurs de l'interdiction de l'application aux États-Unis, ont préféré bouder la plateforme chinoise au profit de X.Les deux candidats se retrouvent sur les plateformes sociales de Meta. La firme a décidé récemment de mettre fin aux restrictions imposées à Donald Trump sur Facebook et Instagram, afin que le peuple américain puisse, selon l'entreprise, « entendre les candidats à la présidence sur la même base ». Mais depuis l'attaque du Capitole en janvier 2021, coordonnée par les émeutiers en grande partie sur Facebook, Meta prévient avoir renforcé tous ses systèmes de modération.
Autoriser les casinos en ligne en France pourrait rapporter près d'un milliard d'euros à l'État. Mais cet amendement introduit au projet de loi de finances 2025 a été finalement retiré par le ministre du Budget, Laurent Saint-Martin. Il a depuis lancé une concertation avec des acteurs du secteur et les associations qui considèrent que les jeux d’argent de type casinos en ligne nuisent au portefeuille et à la santé mentale des internautes. Le gouvernement français a fait machine arrière, lundi 28 octobre, sur légalisation des casinos en ligne dans l'Hexagone. Son amendement introduit au projet de loi de finances 2025 prévoyait de les autoriser par ordonnance.La mesure avait immédiatement suscité de nombreuses réactions contradictoires, aussi bien de la part des gérants de casinos dits « physiques » que de la part des collectivités territoriales qui hébergent ces établissements. Les associations comme la Fédération Addiction dénonçaient le caractère addictif de ces jeux en ligne.Les membres de l'Association française des jeux en ligne exigeaient de mettre en place au préalable un dispositif de régulation pour les quatre millions de joueurs exposés aux risques d'un marché illégal. « J'ai entendu les craintes du secteur », annonçait le ministre du Budget, Laurent Saint-Martin, qui a décidé de lancer une concertation sur le sujet réunissant toutes les parties prenantes. La première réunion devrait normalement se tenir « dès la semaine prochaine », indique le ministre.La France, seul pays de l'UE avec Chypre à interdire les casinos en ligneMais force est de constater que les pays de l'Union européenne affichent plutôt 27 nuances de législation nationale autorisant la mise en œuvre et la gestion des casinos en ligne. Si leur exploitation et leur création sont pour l'instant prohibées en France, ce n'est pas le cas des jeux en ligne liés au poker, aux paris sportifs et aux paris hippiques.En revanche, ces casinos en ligne sont parfaitement légaux en Belgique, mais soumis à certaines conditions. Les opérateurs doivent obtenir une licence délivrée par la Commission des jeux de hasard belge et respecter son cahier des charges. Autre exemple : le Royaume-Uni les autorise en suivant un cadre juridique qui date un peu, celui de la Loi sur les jeux de hasard de 2005. La UK Gambling Commission est chargée d'octroyer des licences et d'assurer le respect des régulations exigées par la législation britannique.Un secteur dérogatoire au droit commun de l'Union européenneL'affaire des jeux d'argent en ligne se complique sérieusement quand un casino internet doté d'une licence d'exploitation obtenue dans un pays de l'UE est accessible depuis un autre État européen. Dans ce cas, la règle est simple : les joueurs doivent scrupuleusement respecter les lois en vigueur dans leur pays de résidence. Les jeux d'argent en ligne constituent, à ce titre, l'un des rares secteurs dérogatoires au droit commun de l'Union européenne.Cette absence d'harmonisation des textes législatifs entre les États membres est devenue problématique, notamment quand elle pousse les joueurs vers les plateformes illégales. La France est devenue ainsi le premier marché européen des casinos internet frauduleux. Un marché noir des jeux d'argent en ligne florissant, qui est estimé actuellement à près de 2 milliards d'euros.
Strava est une application pour mobile qui permet d’enregistrer et de géolocaliser ses activités sportives pour les partager en ligne. Elle est utilisée par de nombreux amateurs de course à pied, mais aussi par les agents du groupe de sécurité de la présidence de la République. Les parcours du footing des gardes du corps d’Emmanuel Macron ont permis de suivre ses déplacements, en révélant les lieux de séjour présidentiels plusieurs jours avant ses visites officielles. Les géants des réseaux sociaux ont depuis longtemps décidé de recueillir en temps réel un relevé de nos activités physiques quotidiennes ou de repérer – honte à nous – leur absence totale. Partager ses exploits sportifs en ligne est devenu ainsi une pratique courante pour de nombreux internautes. Mais pas seulement ! Plusieurs présidents américains, ou encore le président russe Vladimir Poutine, ont déjà utilisé ces dispositifs pour afficher aux yeux du monde leur excellente forme… olympique.Toutefois, cette infinité d'applications développées pour mobiles, montres et autres bracelets connectés ne se contente pas d'enregistrer l'évolution des performances quotidiennes de leurs abonnés. Elles localisent instantanément, en se servant du système GPS des appareils, les lieux préférés, mais aussi les parcours santé occasionnels choisis par les sportifs amateurs.C'est le cas de l'application Strava. Créée aux États-Unis en 2009, elle est couramment employée par les agents du groupe de sécurité de la présidence de la République. Les journalistes du quotidien Le Monde ont pu ainsi retracer plus de 100 déplacements présidentiels entre 2016 et 2024, incluant certains voyages de François Hollande. Plus inquiétant encore, l'enquête a permis d'identifier à dix reprises les hôtels dans lesquels séjournait Emmanuel Macron, simplement en analysant les points de départ et d'arrivée des footings de ses agents.La « visualisation en direct » des abonnésLa carte numérique en ligne Global Heat Map de Strava, offre une « visualisation en direct » de ses abonnés dans toutes les régions du monde. Cette fonctionnalité posant un problème évident de sécurité a été révélé dès 2018. L'application affichait sur son site web l'emplacement de sites militaires, notamment en Afghanistan, en Irak et en Syrie, ainsi que l'affichage des parcours de jogging préférés des soldats américains et français autour de leur base. Dépités, les concepteurs de Strava avaient alors conseillé aux militaires en mission de désactiver la fonction « partage de lieux » sur leurs appareils, mais cette consigne de prudence est rarement respectée.Des selfies dévoilant l'intimité des utilisateursPar ailleurs, cette application peut dévoiler l'adresse de ses utilisateurs qui exposent leur vie privée avec une avalanche de selfies. La plupart des abonnés à Strava publie des tonnes de photos avec des membres de leur famille ou leurs amis pendant ou après une séance de sport. Pire, certains d'entre eux indiquent dans leurs messages leur vrai nom au lieu d'employer un pseudonyme, permettant ainsi d'identifier leur position.C'était déjà le cas des agents du groupe de sécurité de la présidence de la République posant avec Emmanuel Macron au fort de Bréançon durant ses dernières vacances. Cette affaire de cybersécurité démontre, une fois de plus, la banalisation de nos mauvais usages du numérique au quotidien. Une uniformisation des pratiques en ligne de nos parcours santé, qui se propage aujourd'hui jusqu'au plus haut niveau de l'État.À lire aussiEn Allemagne, tout un quartier chauffé par une pompe à chaleur fonctionnant à l'eau de mer
La petite ville de Neustadt in Holstein, à l’extrémité de l’ancienne Allemagne de l’Ouest, est bordée par la mer Baltique. Et l'hiver, il y fait froid. Très froid. Bientôt, tout un quartier va être chauffé de manière innovante : avec la première pompe à chaleur fonctionnant à l’eau de mer en Allemagne.  De notre correspondante à Berlin, C’est en utilisant l’une des ressources naturelles les plus abondantes sur Terre que tout un quartier va être chauffé à Neustadt in Holstein, et ce, grâce à une technologie ultramoderne.En hiver, la mer Baltique est très froide, l’eau peut tomber à 4 degrés. Pourtant, c'est bien son eau qui sera utilisée pour faire fonctionner la pompe à chaleur. L'eau utilisée sera chauffée à 72 degrés, essentiellement à l’aide « d’énergie propre », comme celle dégagée par une usine de traitement de déchets qui se trouve à proximité, mais aussi au gaz. Une fois chauffée, l’eau circulera dans un circuit de conduits dans le sol, qui chaufferont les bâtiments, tout en permettant d’économiser 300 tonnes de CO2 par an.À écouter dans C’est pas du ventLe potentiel oublié de la micro-hydroélectricitéUn quartier au bord de l’eauLe quartier de Neustadt in Holstein où cette technologie va être développée se trouve directement au bord de l’eau. Il s’agit d’anciens entrepôts portuaires en briques, une architecture typique du nord de l’Allemagne, que la ville va transformer en restaurants, commerces, logements, lieux de culture. Il y aura même un poste de police.Ces travaux, ils ont d'ores et déjà bien avancé. Les éléments de la pompe à chaleur ont été livrés par bateau du Danemark en décembre dernier. Les premiers tests seront réalisés d’ici à la fin de l’année et la mise en service est prévue pour 2026.Une technologie déjà utilisée en Suède et au DanemarkPour l’Allemagne, c’est une première. Mais il existe déjà des sites équipés au Danemark et en Suède. La pompe à chaleur de Neustadt in Holstein intéresse en tout cas au-delà de la région. Le projet a bénéficié d’importantes subventions en raison de son potentiel. Les pompes à chaleur utilisent un tiers de l’énergie d’un système de chauffage conventionnel et peuvent générer trois à huit fois plus d’énergie qu’elles n’en consomment.
Le nombre d'images et de vidéos d'agressions sexuelles d'enfants générées par intelligence artificielle est en progression « glaçante », s’inquiète une organisation britannique chargée de détecter et retirer ces contenus. Ces photos ou vidéos montrant des mineurs agressés et maltraités sont si réalistes qu'il devient presque impossible de les distinguer des véritables scènes d’enfants abusés, alerte dans son communiqué l'Internet Watch Foundation. Au Royaume-Uni comme en Europe et dans la plupart des pays occidentaux, les textes législatifs interdisant la génération d’images à caractère sexuel réalisées à l’aide d’un programme d'intelligence artificielle (IA) génératif et leur partage en ligne s’accumulent. Mais rien n’y fait. Jusqu’à présent, en vertu de la loi sur la sécurité en ligne de janvier 2024, la création, la détention à titre privé, le partage de ces clichés et clips vidéo ultraréalistes était déjà illégal au Royaume-Uni.Par exemple, si un internaute les partage après l'avoir créé, il est condamné à une peine de prison systématique. Des lois qui n’ont strictement rien réglé, accuse aujourd’hui l’Internet watch foundation, l’une des principales associations de lutte contre la production et la diffusion d’images pédopornographiques en Europe. Les hyper-trucages difficiles à déceler La Fondation alerte sur la progression « glaçante » des clips vidéo pornographiques mettant en scène des enfants, tant par leur nombre que par le réalisme des images générées par IA. L’association britannique qui avait reçu 70 rapports concernant la diffusion de ces hyper-trucages sur l’année écoulée entre avril 2023 et mars 2024, en a déjà reçu 74 en l’espace de six mois, entre avril et fin septembre de cette année.La quasi-totalité de ces images se trouvait sur des sites ouverts, facilement accessibles au grand public, principalement hébergés en Russie, aux États-Unis et au Japon. Plus des trois quarts d’entre elles ont été directement signalées à l’association par des internautes, après avoir été vues sur des « forums ou des galeries d’images IA », selon un analyste de l’organisation, resté anonyme par sécurité.Toujours selon cet analyste, l’augmentation de ces signalements « donne l’impression que nous sommes arrivés à un point critique » en insistant sur le risque que les ONG et la police soient submergées par des centaines de nouvelles images. Et sans pouvoir déterminer si un véritable enfant a besoin d’aide quelque part.Les grandes firmes de l'IA pointées du doigtPire, pour atteindre le niveau de sophistication de ces clips nauséabonds, les logiciels IA ont dû apprendre à partir d’images et de vidéos réelles d’agressions sexuelles sur des mineurs. Et c’est peut-être la partie la plus sombre du problème. Comment les grandes firmes de l’IA ont-elles pu donner un accès sans contrôle à leurs programmes d’entrainement à des groupes de cybercriminels qui se sont lancés dans une production quasi industrielle des logiciels d’hyper-trucages pédopornographiques ?Pour toutes ces raisons, l’Internet watch foundation demande instamment aux députés britanniques de réviser la loi sur la protection des mineurs. Le sujet est aussi à l’ordre du jour de la Commission européenne qui a lancé, ce 15 octobre 2024, un appel d’offres doté de 4 millions d’euros et ouvert jusqu’au 18 novembre prochain pour élaborer dans un premier temps une « solution à court terme » de vérification de l’âge « préservant la vie privée » des internautes de l’UE.À lire aussiLes diplomates de l'ONU piégés par des deepfakes... pour la bonne cause
La Suisse, le Comité de la Croix-Rouge internationale (CICR) et l'École polytechnique de Lausanne ont imaginé l'exposition Deepfake and You, petit labyrinthe installé en ce moment à l’entrée des Nations unies à New York et dans laquelle les diplomates se font piéger. Le but est de mieux leur faire comprendre l'importance d'encadrer l'intelligence artificielle (IA) qui permet de construire ces deepfakes, sinon, ce sujet reste trop abstrait pour beaucoup. Alors, comment leur fait-on comprendre ? Le long du labyrinthe, on comprend que la réalité altérée ne date pas d'aujourd'hui. Des peintres de la Renaissance le faisaient déjà, ainsi que des des photographes du début du siècle. Mais on se rend bien compte que tout cela prenait du temps, beaucoup de temps à trafiquer. Alors qu'en quelques minutes seulement, une webcam et l'intelligence artificielle auront capturé votre visage, et à la fin du labyrinthe, vous vous retrouvez face à vous-même… mais c'est une autre voix qui sort de votre bouche !Une voix qui explique que cette vidéo manipulée peut être alors utilisée pour demander une rançon à votre famille, ou vous faire tenir des propos qui ne sont pas les vôtres sur les réseaux par exemple. Une expérience immersive nécessaire pour bien comprendre le deepfake, comme l'explique Gaël Hürlimann, de l'école polytechnique de Lausanne :« Ça sert à ce que vous compreniez vraiment ce que sont les deepfakes, Parce que même si vous en avez entendu parler à la radio ou à la télé, là, c'est vous qui êtes victime. L'idée, c'est qu'ils soient conscients de ce qu'on peut faire avec des moyens techniques relativement légers. Ici, nous n'avons que des ordinateurs qui ne sont pas connectés à internet. Imaginez ce que vous faites avec 100 fois cette puissance de calcul, un peu plus de temps, des vidéos prises dans de meilleures conditions... Vous pouvez faire un deepfake quasiment indétectable à l'œil nu. »À lire aussiDeepfake et faux média, Kamala Harris ciblée par une opération de désinformationCibler et sensibiliser les diplomatesPhilippe Stoll, est techplomate au CICR, c'est-à-dire un diplomate spécialisé dans les nouvelles technologies. Il s'agit d'un nouveau métier : on compte une quarantaine d'ambassadeurs « techplomates ». Cela dit bien l'importance que la technologie a sur la géopolitique. Sensibiliser les diplomates classiques est primordial, parce qu'ils ont un pouvoir de décision dans les négociations. Or, il faut qu'ils comprennent bien les enjeux. Pour cela, tous les moyens sont bons, y compris cette exposition immersive, comme l'explique Philippe Stoll :« Un bombardement, la torture, même si on ne l'a pas vécu, on le ressent. Quand on parle de cybersécurité, de data-protection, même de deepfake, ça reste abstrait. L'idée de cette exposition est de la rendre la plus tangible possible pour qu'il y ait potentiellement une action. »Pourtant, la technologie évolue plus vite que la loi. Ne serait-il pas trop tard pour sensibiliser ces négociateurs ? Les standards de l'intelligence artificielle ou autres traités sur l'IA sont seulement en discussion. Mais pour Philippe Stoll, il n'est pas trop tard pour faire pression : « Si on ne le fait pas, personne ne le fera. Donc c'est de notre responsabilité d'essayer d'amener les sujets dont on voit les conséquences sur le terrain au niveau multilatéral, c'est important. »Le chemin sera compliqué, car très politique. Pour rappel, l'ONU a proposé d'établir sous son égide une grande agence pour réguler l'IA, un peu à l'image de ce qu'est l'AIEA pour l'énergie atomique. Pour l'instant, les grandes puissances, Russie, États-Unis et Chine en tête, ne veulent pas en entendre parler.À lire aussiLe deep fake, outil de désinformation sur les réseaux sociaux
Quinze organisations non gouvernementales ont annoncé ce mercredi 16 octobre avoir saisi le Conseil d’État français concernant un algorithme de notation utilisé par la Caisse nationale des allocations familiales. Selon la CAF, ce programme IA permet de lutter contre les fraudes sociales en attribuant un score de suspicion aux allocataires. Les associations dénoncent un dispositif qui cible principalement les plus précaires, rappelant que le recours à ces systèmes de notation est illégal dans l’UE. L’affaire de l’algorithme de notation utilisé par la Caisse nationale des allocations familiales en France a eu au moins le mérite de mettre en lumière la présence de ces programmes IA dans de nombreux services sociaux européens.Plusieurs gouvernements des pays de l’UE invoquent diverses raisons pour les avoir mis en place. Certains justifient leur usage « pour détecter les fraudes », d’autres « pour assurer une meilleure distribution des ressources », ou encore « pour améliorer l’efficacité des systèmes administratifs ». Ces algorithmes de notation ont déjà été et sont toujours utilisés aux Pays-Bas, au Danemark ou encore en Serbie. L’Allemagne cherche aussi à les déployer dans ses administrations, afin de lutter contre la fraude aux prestations sociales.Des outils IA vivement critiqués aux Pays-BasEn janvier 2021, le gouvernement néerlandais avait même été contraint de démissionner après que ces algorithmes de notation ont accusé, à tort, des milliers de parents de fraudes. Au Danemark, le programme IA de l’administration des prestations publiques, qui s’est spécialisé dans le profilage ethnique des allocataires, leur attribue une mauvaise note selon leur nationalité.« Le fonctionnement de ces dispositifs algorithmiques qui stigmatisent systématiquement des groupes de personnes déjà marginalisés est totalement opaque », dénonce Katia Roux, chargée de plaidoyer Libertés chez Amnesty International France : « De nombreuses ONG comme Amnesty International constatent que les États recourent de plus en plus aux technologies numériques dans le cadre de leur système de protection sociale, et notamment en Europe. Bien souvent, l’objectif affiché par les concepteurs de ces systèmes et les responsables des services publics qui les utilisent est généralement d’aider les gouvernements à mieux cibler les personnes ayant besoin d’aide sociale. Toutefois, il est très difficile d’avoir des informations détaillées sur le fonctionnement de ces algorithmes et le terme de “boîte noire” est tout à fait adapté pour les qualifier. La plupart du temps, ces technologies sont présentées comme étant des outils neutres, impartiaux, objectifs, efficaces, alors même qu’ils sont porteurs de discrimination qui reflètent inévitablement les préjugés et la vision du monde des personnes qui les ont conçus ».Des algorithmes de « scoring » illégaux dans les pays de l’UEDans son arrêt de décembre 2023, la Cour de justice de l’Union européenne avait statué que tout type de notation automatisée était interdit en Europe, particulièrement quand un algorithme porte un préjudice de façon spécifique. Par ailleurs, le déploiement des systèmes IA, qui établissent un score de suspicion, contreviendrait à l’article 22 du RGPD. Le règlement de l’UE sur la protection des données proscrit également l’automatisation d’une prise de décision concernant un individu, qui serait basée sur le traitement de ses données personnelles, sans avoir obtenu son consentement explicite.À lire aussiIntelligence artificielle: de quoi parle-t-on vraiment?
L’Union européenne franchit une nouvelle étape dans sa stratégie de cybersécurité avec l’entrée en vigueur, ce jeudi 17 octobre, d’une directive intitulée NIS 2. Ce texte, qui doit être transposé en droit interne dans chaque État membre, impose aux entreprises privées et aux organismes gouvernementaux de renforcer leur cybersécurité, sous peine de sanctions financières. Cyberattaque par-ci, rançongiciel par là, l’espace numérique européen est assailli de toutes parts. Les groupes mafieux s’en prennent aux entreprises, aux particuliers, aux collectivités locales et établissements de santé. Et les attaques dites étatiques orchestrées depuis l’étranger, notamment par Moscou en raison de la guerre en Ukraine, se multiplient. L’Union européenne a donc demandé aux 27 pays membres de renforcer le niveau de cybersécurité des systèmes économique et administratif en ligne.Dans le détail, les pays européens sont invités à adopter une démarche proactive en corrigeant, par exemple, en amont, les failles de sécurité qui permettraient aux pirates informatiques de s’introduire dans leur système d’information. Les particuliers seront indirectement les bénéficiaires de cette directive, nous précise Jérôme Vosgien, expert cybersécurité chez Logpoint. Cet éditeur européen de solutions de sécurité propose aux organismes publics comme privés des dispositifs d’analyses pour détecter les menaces informatiques avant qu’elles ne détruisent l’ensemble des systèmes d’information :« En étant un acteur de la cyberdéfense, de la cybersécurité, des entreprises et des organisations, même du monde militaire, on constate qu’il y a une augmentation du périmètre du spectre des organisations qui sont concernées par NIS 2. C’est plutôt une bonne nouvelle ! J’ai visité récemment une mairie qui estimait ne pas être concernée par la nouvelle directive. Cette mairie de taille assez importante qui a la charge du traitement des eaux usées entre évidemment dans le cadre des règlementations de NIS 2. Les mesures de cyberdéfense de la directive européenne concernent les secteurs de l’énergie, le traitement des eaux usées et en définitive l’ensemble des structures vitales et stratégiques d’un pays dans l’UE. Toutes les entités publiques ou privées qui sont principalement gérées par informatique entrent dans ce cadre. Car en cas d’attaques réussies par des pirates informatiques, elles peuvent menacer la sûreté physique des citoyens. »100 000 organisations en Europe sont concernées par le NIS 2La directive s’applique à 18 secteurs clefs considérés comme stratégiques pour l’UE. Elle s’adresse, par exemple, aux fournisseurs de réseaux numériques, aux administrations publiques, aux collectivités territoriales, aux gestionnaires des systèmes de transports, du traitement des déchets ou de l’eau potable. Mais aussi aux secteurs de l’énergie, aux organismes bancaires ou encore aux établissements de santé qui sont régulièrement et constamment piratés.Pour s’assurer de l’application effective de ces mesures, NIS 2 prévoit un cortège de sanctions pour les retardataires qui ne mettraient pas en place ces mesures. Notamment, des amendes qui peuvent atteindre jusqu’à 10 millions d’euros ou 2 % du chiffre d’affaires mondial d’une entreprise. Toutefois, pas de panique, pour se conformer à la loi qui entre en vigueur ce jeudi 17 octobre, la date butoir annoncée par Bruxelles ne concerne pour l’instant que le texte règlementaire qui doit être transposé dans le droit national des pays de l’UE. Et non sa mise en œuvre effective qui, elle, est fixée au plus tard à décembre 2027. Par ailleurs, force est de constater que les décideurs politiques dans les pays européens sont à la traîne pour mettre en place la nouvelle directive. Seuls deux États membres sur les 27, nommément, la Belgique et la Croatie, l’ont déjà intégré dans leur législation.
Les plateformes sociales au Royaume-Uni devront bientôt ne plus cibler les jeunes adolescents avec leurs algorithmes de recommandation afin de ne pas nuire à leur santé mentale. Ce nouveau projet de loi impose aussi aux constructeurs de mobiles d’intégrer des dispositifs de protection pour les mineurs, avant la mise en vente de leur appareil. Préserver la santé mentale des mineurs en ligne est devenue, depuis quelque temps déjà, une grande cause nationale au Royaume-Uni. Et un nouveau projet de loi répondant à cette préoccupation majeure est en discussion au Parlement britannique. Le texte bénéficie du soutien massif du Parti travailliste, des conservateurs et des experts en protection de l'enfance. La mesure phare de cette nouvelle loi est de contraindre les plateformes sociales à ne plus cibler les moins de 16 ans avec leurs algorithmes de recommandation, qui les encouragent sournoisement à rester des heures devant leurs écrans.Une loi plus stricte que les réglementations de l’UELa loi sur la sécurité en ligne adoptée par le gouvernement précédent imposait déjà des obligations en matière de protection des mineurs aux plateformes en ligne. Mais elles sont largement insuffisantes, estimait, ce mardi, le ministre de la Santé sur la plateforme X.Selon des chiffres publiés par le NHS, l’organisme de santé publique britannique : entre mars 2023 et mars 2024, plus d’un enfant sur cinq scolarisés présentaient des symptômes d’anxiétés, de stress, de dépression se concrétisant par des difficultés d’apprentissages à l’école. Certains d’entre eux, soit 10 %, sont atteints de troubles du spectre autistique. Des chiffres corroborés par les chercheurs de l’Université d’Oxford qui sont en train de mener la plus grande étude mondiale intitulée Brainwaves sur la santé mentale des jeunes. Leurs premiers résultats mettent en évidence « une relation directe, entre des taux plus élevés d’anxiété et de dépression et le temps passé en ligne sur les réseaux sociaux ».Oxford, dans un clip vidéo diffusé en ligne, a lancé un appel aux volontaires petits et grands pour prolonger ses investigations : « Les cerveaux sont les organes les plus complexes de l’univers connu, mais ils ont du mal à s’adapter à ce monde en constante évolution. Physiquement, nous sommes devenus, au cours de l’évolution, plus performant, mais notre mental, lui, n’a pas suivi. C’est la raison pour laquelle la recherche sur le développement du cerveau des jeunes est d’une importance capitale. Les troubles de santé mentale se déclarent souvent vers l’âge de 14 ans. L’Université d’Oxford a lancé Brainwaves, la plus grande étude sur la santé mentale des adolescents de l’histoire. Nous recruterons et impliquerons 50 000 adolescents et en éduquerons des milliers d’autres sur une plate-forme de recherche en ligne unique. Et prendre soin de nos ondes cérébrales, comme l’indique le nom de cette étude, est gage d'une bonne santé mentale pour les adolescents du monde entier. »Un système de protection par défaut sur les mobiles vendus aux mineursLe nouveau projet de loi britannique a l’intention d’imposer aux constructeurs de téléphone portable d’intégrer des dispositifs de protection pour les mineurs avant leur mise en vente. Depuis des mois, tant en Europe, qu’aux États-Unis, les procès s'enchaînent à l'encontre des grandes plateformes numériques pour les contraindre, de mettre en place des mécanismes de protection. L'objectif est de lutter contre la dépendance des adolescents aux réseaux sociaux. Toutefois, même les États-Unis, où plus d'une quarantaine d'États ont déjà porté plainte contre Instagram et Facebook, ou la plateforme chinoise TikTok, peinent à endiguer le phénomène grandissant de l’addiction aux écrans. Un cyber-fléau qui détruit peu à peu, mais sûrement, la santé mentale des très jeunes internautes.
Depuis le début de la guerre en Ukraine, l’usage d’internet en Russie a été largement restreint par les autorités du Kremlin. Plusieurs géants du numérique américain comme la plateforme sociale X ou Facebook ont été contraints de fermer boutique ou de limiter fortement leurs services en ligne dans le pays. Cette fois, c’est au tour de la plateforme Discord d’être interdite de séjour en Russie. La censure d’internet exercée par le Kremlin ne s’arrête pas au blocage des médias sociaux occidentaux. Les outils numériques VPN qui permettaient jusqu’à présent aux internautes du pays de contourner la surveillance étatique des autorités, ont été aussi frappés d’interdiction. C’est maintenant au tour de la plateforme Web Discord d’être balayée du paysage numérique de la Russie.Discord est à la fois une messagerie cryptée et une plateforme de communication en ligne qui permet à ses abonnés de discuter librement soit en vocal, en texte et de pouvoir partager du contenu multimédia. Pour autant, ses utilisateurs ne peuvent pas y publier tout et n’importe quoi. Les responsables de la plateforme ont mis en place récemment un système de modération relativement efficace afin d’éradiquer les propos les plus extrêmes et les contenus pédopornographiques qui seraient diffusés par les abonnés.Discord très populaire chez les jeunes et les amateurs de jeux vidéoLa plateforme reste cependant moins utilisée en Russie au quotidien que la messagerie Telegram. Mais le fait qu’elle soit employée par diverses communautés, groupes d’internautes, associations et même des entreprises pour interagir et collaborer en temps réel, sans jamais accorder un droit de regard aux autorités russes, agaçait depuis longtemps le Kremlin. Moscou qui évoque des violations répétées de Discord à la législation russe, ordonne donc son blocage. Le ministère des télécoms et l’internet du pays, Roskomnadzor, justifie cette mesure pour « empêcher l’utilisation de la messagerie à des fins terroristes et extrémistes » ainsi que pour empêcher la vente de drogues et la diffusion d'informations illégales, selon son communiqué.Un blocage de Discord ordonné quasi simultanément par la TurquieAnkara a censuré la plateforme sur son territoire sous prétexte que la société américaine a refusé de partager avec le gouvernement les données privées de ses abonnés turcs. La Turquie tient à peu près le même discours que la Russie pour justifier ce blocage. « Nous sommes déterminés à protéger nos jeunes et nos enfants des publications nuisibles », commente sur X, le ministre turc de la Justice.Toutefois, interdire l'accès à Discord en Russie pourrait poser quelques problèmes aux soldats russes qui utilisent régulièrement la plateforme pour coordonner leurs opérations en Ukraine. Paradoxalement, le Kremlin ne s’est jamais doté d'une plateforme Web autonome pour échanger de manière sécurisée avec ses militaires.  Discord serait employé par les opérateurs de drones russes en Ukraine, selon certains internautes publiant des vidéos, qui, pour l'instant, n'ont pas été formellement authentifiés.   Selon les déclarations de l'état-major russe, Discord s’était imposé comme un outil plus pratique pour des communications cryptées en intégrant une application de messagerie qui serait plus sécurisée que celle de Telégram. Les responsables de la plateforme ont pris notent de ces blocages, mais sans faire plus de commentaires. « Notre équipe enquête sur les rapports signalant que Discord était inaccessible en Russie et en Turquie », a simplement indiqué l'entreprise sur sa page de statut.
Les besoins énergétiques pour faire tourner les programmes de l'IA ne cessent de s’amplifier, en surchauffant les ordinateurs dans les fermes de serveurs. Une jeune entreprise espagnole a mis au point une technique pour les refroidir en les plongeant dans un fluide réfrigérant. Cette solution permet de diminuer à la fois l'empreinte carbone et la consommation électrique des centres de données. Comme c’est le cas pour la planète, le numérique, lui aussi, est en surchauffe. Toutes les données informatiques du monde qui transitent par les réseaux de l’Internet sont gérés et hébergés dans des fermes d’ordinateurs dénommés « serveurs ». Mais les centaines de milliers de centres de données du monde entier gaspillent autant d’énergie pour fonctionner que pour refroidir leurs composants.Une gabegie énergétique qui augmente considérablement depuis la démocratisation de l’intelligence artificielle dite générative auprès du grand public. La requête d’un internaute utilisant un programme IA de type ChatGPT, pour créer une image, nécessite 10 fois plus d’électricité pour être traitée, qu’une recherche classique sur Google. Et des dizaines de milliards de ces requêtes en ligne sur les serveurs dédiés à l’IA sont réalisés quotidiennement dans le monde.En 2025, les centres de données engloutiront 10% de l'électricité mondialeLes fermes de serveurs sont aussi responsables entre 4 et 6% des émissions de CO2, selon différentes études, dépassant ainsi celles qui sont générées par le transport aérien. Consciente du problème dès 2015, la jeune entreprise Submer à Barcelone s’est lancée dans la conception de centres de données plus respectueux de l’environnement. Elle a développé une technologie de refroidissement liquide des serveurs informatiques.Concrètement, les machines des centres de données sont disposées à la verticale dans un bac rempli d’un fluide diélectrique caloporteur de son invention qui est évidemment non-conducteur de courant, précise l’entreprise. Le fluide surchauffé est dirigé vers une tour de refroidissement qui évacue la chaleur et renvoie un liquide frais vers les ordinateurs. Le système peut être couplé à un circuit externe qui alimentera alors en chauffage les habitations aux alentours.Cette innovation permet de réaliser des économies de l'ordre de 50 % en électricité. Submer a déjà séduit certaines firmes de l'high-tech comme Dell, Supermicro et Intel qui utilisent son système. En Europe, Airbus, la Commission européenne, l'accélérateur de particules du Cern à Genève, notamment pour refroidir ses supercalculateurs, l’emploient déjà.Des alternatives au refroidissement énergivore des centres de donnéesEn 2018, le géant Microsoft testait déjà le refroidissement par immersion dans le cadre de son projet Natick avec un centre de données subaquatique en milieu marin. Un container étanche qui renfermait 864 ordinateurs a été immergé par 35 mètres de fond au large de l'Écosse.Le projet, bien que techniquement concluant, n’a pas été prolongé, Microsoft estimant que la connexion des utilisateurs éloignés des serveurs sous-marins serait trop lente. C’est donc en Europe que le refroidissement liquide par immersion des serveurs informatiques à de l’avenir. Le néerlandais Iceotope, par exemple, se lance sur ce créneau en collaboration avec Schneider Electric. L’espagnol Submer consolide son développement, en levant 55 millions de dollars auprès d’investisseurs internationaux pour étendre ses activités dans le monde entier.
Comptes en ligne supprimés, contenu signalé pour incitation à la haine ou des actes de cyberharcèlement : un tout nouvel organe extrajudiciaire va être chargé, avant la fin de l’année 2024, de trancher en dernière instance les litiges opposant les internautes européens à Facebook, TikTok ou encore à YouTube. La création de cette nouvelle structure ne doit rien au hasard. Elle répond en urgence aux exigences du règlement européen sur les services numériques, dont le sigle est le DSA, qui régule dans l’UE les activités des plateformes numériques depuis février 2024. Rappelons que la règlementation est applicable, sans exception aucune, dans les vingt-sept pays membres de l’UE. Elle prévoit que les internautes européens aient un accès facilité à une instance extrajudiciaire pour trancher les contentieux qui les opposeraient aux grandes plateformes sociales.  Par ailleurs, les membres du nouvel organe devront prendre leurs décisions de façon indépendante afin d’éviter les conflits d’intérêts avec les médias sociaux. La structure comptera, d’ici à la fin de l’année, sept membres permanents qui siègeront à Dublin. L’organisme a été certifié conforme au DSA par le régulateur irlandais des médias et du numérique.Une indépendance financièreToutefois, on peut s’étonner que le « Centre d’appels Europe » soit financé, dans un premier temps, par le conseil de surveillance du groupe américain Meta, propriétaire de Facebook, Instagram et de WhatsApp. Ce conseil de surveillance est composé de 20 membres internationaux, journalistes, avocats, défenseurs des droits humains et anciens dirigeants politiques. Il a été mis en place en 2020, après plusieurs scandales entachant la probité, et le mot est faible, de la firme de Zuckerberg. Notamment, lors de l’affaire Cambridge Analytica, une société de conseil en ligne qui puisaient dans les données personnelles de 87 millions abonnés de la plateforme sociale Facebook. L’objectif de cette collecte illicite des données des internautes était d’influencer leurs votes en faveur de certaines personnalités politiques, principalement aux États-Unis.Meta a aussi créé ce conseil de surveillance pour avoir un regard indépendant sur la modération des contenus de ses abonnés. Mais pour se conformer aux obligations réglementaires de l’Europe, la firme annonce la création de ce « Centre d’appels » entièrement dédié à l’UE. Si Meta assure le budget nécessaire à son lancement, la nouvelle instance devra à terme être complètement autofinancée.Cinq euros pour saisir une plainte  Une somme modique qui est remboursable si la décision du centre d’appel est en sa faveur. Les plateformes, elles, devront s’acquitter de 100 euros à chaque nouveau dossier, précise Thomas Hughes, ex-directeur du conseil de surveillance de Meta qui dirigera la nouvelle organisation. L’ambition du projet est d’étendre ses actions « à d’autres réseaux sociaux que Facebook, TikTok ou YouTube ».  Tous les médias sociaux proposant leur service en Europe sont concernés. Ils sont fréquemment accusés de favoriser la désinformation, mais aussi de ne pas lutter contre le cyberharcèlement ou d’afficher en ligne les activités de groupes violents, dénonce la Commission européenne. Le « Centre d’appels européen » est aussi une demande des régulateurs du numérique des pays de l’UE. Ces autorités nationales du numérique reprochent régulièrement aux géants de la tech d'avoir failli à leur obligation de protection des internautes en général, et à celle, en particulier, des mineurs.
Dans un arrêt rendu public ce vendredi, la Cour de justice de l'Union européenne a mis en garde Meta contre sa pratique de diffusion des pubs ultra-ciblées. La collecte indiscriminée, sans limite dans le temps, ni en termes de volume, des données à caractère personnel des utilisateurs des médias sociaux du groupe américain est une entorse aux règlements européens, annonce la justice européenne. Depuis toujours, les grandes entreprises du numérique nous imposent un seul modèle économique. Il se résume avec cette formule quasi magique qui justifierait, à leurs yeux, tous les abus : « quand c’est gratuit, c’est vous le produit ! » Navigation en ligne, applications sur mobiles, courriels, réseaux sociaux… En échange de ces services gracieusement offerts, nous autorisons depuis (trop) longtemps la collecte de nos informations privées… Et acceptons de recevoir un flot continu de publicités dites ciblées.Les médias sociaux nous suivent à la traceEn agrégeant des données issues de multiples sources, la traque des internautes s’effectue souvent à leur insu. Non seulement sur les plateformes sociales qu'ils fréquentent, mais aussi à travers les différents sites web et applications qu'ils utilisent. Le groupe américain Meta, propriétaire de Facebook et Instagram, vient de se faire épingler à ce sujet par la Cour de justice de l’Union européenne. Elle avait été saisie par la Cour suprême autrichienne sur le recours formulé par le militant Max Schrems, fondateur de l’association « None of your business », signifiant « Ce ne sont pas vos affaires ». La plainte portait notamment sur l’envoi de publicités ultra-ciblées en rapport avec son orientation sexuelle. Des données privées qui ont été captées à l'occasion d'une table ronde publique à laquelle participait le militant. La décision de la Cour de justice de l’UE en faveur du plaignant marque une inflexion importante dans l’application du RGPD.Les GAFAM doivent respecter la directive européenne sur la protection des données personnelles, nous précise Alexandre Lazarègue, avocat au Barreau de Paris et spécialiste en droit du numérique : « Le requérant qui avait déclaré dans l'espace public lors d’un débat son orientation sexuelle a retrouvé des publicités orientées sur son réseau social Facebook. Cette manière de faire du marketing ciblé apparaît pour la Cour de justice de l'Union européenne trop excessive. Et elle nous dit que non !  Désormais, il n'est plus possible pour les GAFA de collecter de cette manière les données personnelles des internautes dans l'ensemble des pays de l’UE pour adresser à environ 330 millions de consommateurs des pubs ultra-ciblées. Une décision de la Cour de justice de l'Union qui va changer la donne de l'économie numérique en Europe pour toutes les entreprises hightechs ».La collecte massive des données en questionLa CJUE préconise une « limitation dans le temps » des données personnelles et une « distinction en fonction de la nature » des informations que récoltent les géants du numérique. Les réseaux sociaux devront sans doute reconsidérer les modalités de vente de la publicité ultra-ciblée auprès leurs annonceurs. Ce marché qui est estimé à plusieurs milliards d’euros dans l’UE, devra respecter à la lettre les règles du droit des données personnelles du RGPD, sous peine de très lourdes sanctions financières. Par ailleurs, l’arrêté de la Cour de justice de l'UE fait jurisprudence auprès de chaque tribunal national des États membres, précise l'autorité dans son communiqué.
Des centaines de jeunes hackers se réunissent à Turin, dans le nord de l’Italie, pour un concours de piratage éthique du 8 au 11 octobre. L’objectif ? Résoudre problèmes et énigmes informatiques. À l’issue de la compétition, le champion européen des pirates sera nommé. De notre correspondante à Rome,C’est dans les anciens ateliers de réparation de trains de la cité industrielle de la ville de Turin que se sont installées les équipes de pirates informatiques pour la neuvième édition du Défi européen de cybersécurité. Ce concours annuel, qui est coordonné par l'Agence de l’Union européenne pour la cybersécurité, réunit un millier de participants — des étudiants accompagnés de leurs formateurs et entraîneurs. Ce concours peut s’apparenter à une Eurovision des hackers éthiques. Les participants sont jeunes, ils ont entre 14 et 24 ans, et ils sont répartis par équipes de dix pour chaque pays. Une quarantaine de nations européennes, mais aussi d’Amérique ou d’Asie, sont représentées pour cette édition italienne.L’objectif du concours, c’est d’abord de réunir les talents les plus prometteurs d’Europe et de les mettre à l’épreuve pour désigner le champion des pirates éthiques. L’an dernier, ce sont les Allemands qui ont été couronnés en Norvège. Au-delà du classement et du côté compétition sportive, le but, c’est surtout de créer un réseau de ces jeunes hackers qui partagent leurs connaissances et compétences à travers les épreuves qu’ils doivent affronter en équipe.« Capture the flag », « attraper le drapeau », c’est le jeu le plus courant pour une compétition informatique. Le principe : trouver et exploiter les vulnérabilités d’un logiciel pour s’y introduire et réussir à récupérer une information définie, malgré les obstacles anti-intrusion. Les pirates étudiants vont aussi devoir à la fois attaquer et défendre des systèmes informatiques, des exercices simulant des situations très réalistes, promettent les organisateurs italiens. Pour accumuler des points et gagner la compétition, il faut résoudre ces tâches dans les domaines de la cryptographie, de la sécurité du web ou des téléphones portables.À lire aussiLe concours d’Hacking éthique de l’European Cyber CupRecruter les hackers de demain grâce à des concoursÀ Turin, les plus grandes sociétés internationales de cybersécurité et les agences gouvernementales sont présentes pour repérer les meilleurs hackers. Parmi les participants, il n’y a que des champions. Les étudiants en informatique et jeunes ingénieurs qui composent les équipes nationales ont été entraînés et testés toute l’année pour être sélectionnés par leur pays pour ce défi européen. Depuis deux ans, pour élargir le recrutement et la conscience des menaces sur les systèmes informatiques, une compétition est ouverte pour tous âges, toutes nationalités et tous profils, amateurs, passionnés ou professionnels. Le gagnant de cette compétition, un Autrichien qui se cache derrière le pseudo Popax21, participe à la neuvième édition du Défi européen de cybersécurité à Turin.Les agences italiennes qui organisent cette édition se félicitent de la multiplication d’événements mondiaux qui sensibilisent sur la cybersécurité, car cette thématique est de plus en plus centrale, pour le fonctionnement d’un pays comme pour le quotidien des citoyens.À écouter dans Le débat du jour Faut-il hacker les hackers ?
loading