DiscoverGood morning privacy!
Good morning privacy!
Claim Ownership

Good morning privacy!

Author: Guido Scorza

Subscribed: 0Played: 5
Share

Description

Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva.
Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci.
Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni.
Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.
140 Episodes
Reverse
Oggi, nel giorno di Cupido, c’è una freccia che non posso far a meno di scoccare è quella con la quale mi piacerebbe che qualcuno si innamorasse di uno dei diritti più preziosi che c’è, il diritto alla privacy.Ma è difficilissimo che vada a segno specie in un’epoca nella quale tutto suggerisce di considerarla morta, inutile, superata, dai tempi e dalle tecnologie.Eppure, è proprio oggi che la privacy è più importante di sempre, è proprio oggi che dovremmo letteralmente innamorarcene, è proprio oggi che dovremmo conoscerla, promuoverla e difenderla.Tra migliaia scelgo una ragione, una soltanto, che potrebbe accendere in qualcuno la scintilla dell’amore per un diritto speciale.Si dice spesso che chi ci conosce meglio sa come prenderci e quello che si intende è che sa come farci cambiare idea, come farci scegliere qualcosa o qualcuno al posto di qualcos’altro o qualcun altro, come farci svoltare in una direzione diversa da quella nella quale in assenza del suo intervento avremmo svoltato.E, naturalmente, è vero.Chi ci conosce meglio sa quali idee e quali parole possono più facilmente far breccia nel nostro cuore e nella nostra mente e sa su quali tratti del nostro carattere e su quali intime debolezze e fragilità far leva per portarci a pensarla in un certo modo, a decidere qualcosa, a dir di si o di no a questa o quella domanda.Tradizionalmente, per nostra fortuna, a conoscerci meglio erano le persone a noi più vicine, la nostra famiglia, i nostri affetti, i nostri amici, persone, insomma, che, con poche eccezioni, non abusavano di poteri tanto straordinari su di noi.Oggi, però, non è più così.A conoscerci meglio di tutti – e scriverlo non è più un’iperbole – oggi sono i fornitori di una serie di servizi digitali, social network, motori di ricerca e chatbot di intelligenza artificiale in testa.E sono questi soggetti che rispondono alle regole del mercato e che talvolta – come accade sempre più di frequente – strizzano l’occhiolino anche alla politica e, quindi, potrebbero rispondere anche ai desiderata di questo o quel Governo, che oggi sanno come prenderci o, per dirla in maniera più diretta, sono in condizione di etero guidare ogni nostra decisione in ogni ambito della nostra vita.Ecco, in un contesto di questo genere, la privacy, ovvero il diritto di ciascuno di noi di controllare chi può far cosa con i nostri dati personali, a me sembra evidente che dovrebbe essere considerato uno tra i più preziosi dei diritti, un amore irrinunciabile.Più lo proteggiamo, più siamo liberi.Meno ce ne preoccupiamo, meno siamo liberi.Tanto basta per farcene innamorare nel giorno di San Valentino?Non lo so e ho troppo rispetto per la privacy del cuore per chiedervelo.Buon San Valentino a tutte e a tutti, buona giornata e un goodmorning privacy più caldo e appassionato del solito.
Il “fair use” è un’altra cosa. Parola di un giudice pentito.“Un uomo intelligente sa quando ha ragione; un uomo saggio sa quando ha torto. La saggezza non mi trova sempre, quindi cerco di accoglierla quando lo fa, anche se arriva tardi, come in questo caso. Rivedo quindi il mio giudizio sommario del 2023 e l'ordinanza in questo caso”.Personalmente questo incipit della decisione con la quale un giudice americano l’altro ieri ha, almeno per il momento, stabilito che usare materiale protetto da diritto d’autore per addestrare algoritmi destinati a dar vita a servizi concorrenti rispetto a quello nel cui ambito è pubblicato il materiale protetto rappresenta una violazione del diritto d’autore, vale da solo il caffè di questa mattina.Raro, rarissimo. Un Giudice che ammetta un proprio errore di valutazione e ritorna sui suoi passi per correggere il tiro.Ma bellissimo, nobile e prezioso, capace di far ben sperare sul futuro dell’umanità e, quindi, secondo me, particolarmente, adatto a accompagnare il caffè del mattino.Venendo al caso specifico per non perdermi nel romanticismo la sintesi è semplice: Thomas Reuiters è, tra l’altro, editore di uno dei più grandi database legali al mondo, un database nell’ambito del quale i documenti sono preceduti da brevi note che ne riassumono i tratti essenziali.Ross Intelligence, una società intenzionata a creare un sistema di intelligenza artificiale destinato a supportare i professionisti del diritto nell’accesso e riuso di provvedimenti – leggi e sentenze – americani ha, anche se indirettamente ovvero attraverso un fornitore terzo, dragato a mani basse l’archivio della Reuiters per addestrare i propri modelli.Davanti alle contestazioni della Reuiters ha, tra l’altro, eccepito il fair use, l’eccezione prevista dalla disciplina americana sul copyright che consente il riuso di altrui contenuti senza alcuna autorizzazione del titolare originario dei diritti sui contenuti in questione.Secondo il Giudice-pentito, tuttavia, quest’eccezione sarebbe infondata e non avrebbe futuro nella prosecuzione del giudizio.Non potrebbe considerarsi fair, corretto un utilizzo di contenuti protetti da diritto d’autore che abbia lo scopo o anche solo l’effetto ultimo di far concorrenza a chi su quei contenuti detiene i diritti d’autore.La decisione è sommaria, riguarda un caso specifico diverso da quello relativo all’addestramento dei grandi modelli di AI generativa ma segna, comunque, un indirizzo e principi decisamente utili.Forse, quello che sta accadendo, con pochi giganti che sfamano i loro algoritmi con contenuti creativi prodotti dall’intera umanità, spesso per andare a far concorrenza proprio ai titolari dei diritti su questi contenuti non è così tanto lecito.Ma staremo a vedere.Frattanto godiamoci la bellezza di un giudice che dice di aver sbagliato e si corregge.Buona giornata per davvero e, naturalmente, good morning privacy!
Ieri ho provato a scriverlo senza troppi giri di parole sulle pagine di Milano Finanza e oggi ve lo racconto con il caffè del mattino.A me questa storia dei tanti, troppi che si ribellano e incitano alla ribellione contro la regolamementazione nel settore tecnologico comincia davvero a preoccupare.Il grido dei rivoltosi, rimbalzato anche dall’AI Summit di Parigi, è, più o meno, sempre lo stesso: le regole frenano l’innovazione tecnologica che rappresenta la più straordinaria delle leve disponibili per sollevare l’economia globale.È una rivolta che parte dai colletti bianchi, dalle elite, dai Governi delle economie più sviluppate e che ospitano i giganti della tecnologia.E, però, è una rivolta che, a prescindere dalle sue origini altolocate, ha una presa straordinaria anche sulla gente comune, sulle masse, su chi fa fatica a arrivare alla fine del mese, perché, naturalmente, se si racconta che le cose potrebbero andar meglio se si regolamentasse di meno, se si lasciasse correre di più il progresso tecnologico, se ci si sottraesse al rischio di vedersi sistematicamente sorpassare nella corsa globale verso il futuro da economie e industrie di Paesi che – almeno nella narrativa che serpeggia tra i rivoltosi – regolamentano di meno e innovano di più, è facile trovare consensi, sostenitori e manifestanti in ogni settore della società.Proprio per questo è una rivolta pericolosa che andrebbe sedata sul nascere.Perché la causa è sbagliata, la narrativa fuorviante e ipocrita, le conseguenze drammatiche.“Il progresso tecnologico è come un’ascia nelle mani di un criminale patologico!”.Non sono le parole di un luddista ma quelle di Albert Einstein, uno scienziato con pochi eguali nella storia dell’umanità.Solo le regole possono sfilare quell’ascia dalle mani di quel criminale e trasformare uno strumento di offesa in uno strumento di vero progresso.E il vero progresso, il solo che dovremmo abituarci a considerare innovazione, è quello del quale parlava Henry Ford quando diceva che “c'è vero progresso solo quando i vantaggi di una nuova tecnologia diventano per tutti”.Niente di più lontano rispetto a quello che sta accadendo, con i vantaggi delle nuove tecnologie asserviti all’interesse economico e politico di pochissimi, grazie a inedite concentrazioni di potere tecno-finanziario.Ecco le regole servono anche a questo: a garantire la distribuzione dei vantaggi tecnologici, a scongiurare il rischio che si rafforzino oligopoli tecno-commerciali capaci di rendere interi mercati ormai incontendibili, annientando la libertà di concorrenza, con effetti insostenibili per miliardi di utenti e consumatori in tutto il mondo.Ma le regole servono anche per evitare che si creino alleanze invincibili tra l’industria tecnologica e il potere politico.Perché quando questo avviene – e sta avvenendo tanto rapidamente che nelle fila dei rivoltosi dell’anti-regolamentazione digitale militano i più grandi oligopolisti tecnologici e i leader di alcune superpotenze – è la stessa idea di una società democratica a essere minacciata.Ecco altro che ribellarci alle regole, dovremmo, credo, iniziare a ribellarci a chi quelle regole non le vuole.Poi che sia urgente e necessario, oggi più di sempre, un ripensamento profondo sul modo di scrivere le regole, sui tempi dei processi regolamentari ormai incompatibili con quelli dell’innovazione tecnologica, sull’esigenza di debellare l’ipertrofia normativa degli ultimi decenni è indiscutibilmente vero ma è una questione diversa che non andrebbe strumentalizzata, come fanno i rivoltosi, per raggiungere obiettivi politici e commerciali egemoni.Buona giornata e, naturalmente, goodmorning privacy!
NordPass, come ogni anno da sei anni, ha pubblicato il suo rapporto sulle password più utilizzate dell’anno, il 2024, in questo caso.Leggerlo, ormai, è diventato noioso.La password più usata al mondo è 123456.E l’Italia non si sottrae alla regola.In sei anni, è salita sul gradino più alto del podio cinque volte.E l’unica volta che non ci è salita è perché lo ha lasciato a “password”.Nella classifica mondiale il secondo e il terzo posto toccano a 123456789 e 12345678.Qualcuno deve essersi convinto che le password più sono lunghe e più sono sicure e, quindi, ha pensato di aggiungere due o tre numeri.Che siano in sequenza è un dettaglio.Ma in Italia siamo originali, si sa.Al secondo posto, quindi, invece che 123456789 che si classifica solo terza, c’è “cambiami”, un’indicazione preziosa, ma una pessima scelta come password.NordPass ci tiene a ricordare che il tempo medio impiegato da un aggressore per indovinare le password sul podio nella classifica italiana come in quella mondiale è un secondo.Tra le prime dieci password più utilizzate nel nostro Paese, subito sotto quelle sul podio, francesco, password e juventus, scritte tutto in minuscolo.Se si scorre la classifica, sotto le prime dieci, non si trovano, comunque, capolavori di creatività e originalità: alessandro, giuseppe, ciaociao, andrea e un romantico amore mio.Il romanticismo, peraltro, è premiato perché secondo i ricercatori della NordPass, per indovinarla, un aggressore ci metterebbe in media tre ore.Per finire, vale la pena ricordare che sono le stesse password che campeggiano nella parte alta della classifica da dieci anni.La sintesi è semplice e breve: per quanto ci si sforzi di continuare a ricordare in ogni dove che le password, ormai, sono letteralmente la chiave di accesso alla nostra esistenza, che devono essere più lunghe e complicate, tendenzialmente di una ventina di carattere con lettere maiuscole, minuscole e caratteri speciali, che vano cambiate spesso e non usate eguali per più servizi, tutto sembra incredibilmente inutile.Siamo pigri o, forse, non ci siamo ancora convinti che se qualcuno si impossessa delle nostre password si impossessa della nostra vita.
Quante volte ci capita di abbonarci a un servizio o di scaricare un’app mossi da una qualche urgenza, usarla per qualche ora o per qualche giorno e poi dimenticarcene completamente?Non so a voi ma a me, forse per colpa della curiosità, capita spesso.E, naturalmente, finisce che pago per mesi, se non per anni, per un servizio che non uso.Contrattualmente ineccepibile ma eticamente ingiusto.Certo, prima di tutto sciocco da parte mia.Ma questa è un’altra storia.Forse proprio per questo mi ha colpito la notizia della nuova politica commerciale applicata da Kagi, un motore di ricerca alternativo ai più famosi e a pagamento.Si chiama “fair pricing”.E la società l’ha spiegata così sul proprio sito internet: "Abbiamo implementato questa funzionalità per il semplice motivo di essere gentili con i nostri utenti. Sappiamo che alcuni dimenticano di usare Kagi anche per mesi o non averne bisogno, quindi quando vi capita, da oggi, potete stare tranquilli: non vi addebiteremo alcun costo".Decisamente un modo onesto di far business online.Ci sarebbe da augurarsi – anche se, forse, è solo una romantica illusione – che la scelta di Kagi sia di ispirazione per tanti altri fornitori di servizi digitali e app.E, forse, numeri del fenomeno alla mano – quelli che io non ho e, per la verità, non ho neppure cercato preparando il caffè di oggi – sarebbe interessante che qualche associazione di utenti e consumatori promuovesse una bella e sana campagna per richiedere almeno alle aziende che guadagnano di più dal non uso dei loro servizi da parte di utenti pure paganti di seguire l’esempio di Kagi e scegliere la strada del fair pricing.A volte i sogni si avverano e il momento migliore per sognare e all’inizio di un nuovo giorno anche se, questa volta, sarà l’amaro del caffè, ma ho il sospetto che non andrà così.Ma sognare non costa niente, fair pricing o no!Buona giornata e, naturalmente, good morning privacy!
“Per favore... non utilizzare assistenti AI, mentre incoraggiamo le persone a usare sistemi di intelligenza artificiale una volta assunte per aiutarle a lavorare più velocemente e in modo più efficace, vi preghiamo di non usare assistenti di intelligenza artificiale durante il processo di candidatura perché vogliamo capire il vostro interesse personale a lavorare per la nostra società senza mediazione tramite un sistema di intelligenza artificiale e vogliamo anche valutare le vostre capacità di comunicazione non assistite da intelligenza artificiale".Chi indovina chi pubblica un’avvertenza di questo genere in cima alla pagina web dedicata alla selezione del personale oggi vince il caffè.Posso darvi un aiutino: non è un soggetto pubblico, non è un’università, non è un’associazione di attivisti dell’anti-tecnologia!Poi se non ci arrivate da soli, ve lo dico: è Anthropic uno dei giganti globali dell’intelligenza artificiale, una società che vende servizi basati sull’intelligenza artificiale per supportare qualsiasi genere di funzione aziendale, inclusa quella delle risorse umane proprio nell’attività di selezione artificialmente intelligente del personale.Una circostanza che, in effetti, fa un po' sorridere.Anche se, guai a negarlo, la richiesta – peraltro formulata in termini straordinariamente cortesi – è assolutamente condivisibile.E però la questione esiste perché con il moltiplicarsi dei sistemi di intelligenza artificiale applicati alle selezione del personale, inesorabilmente si moltiplicano anche le soluzioni di intelligenza artificiale capaci di supportare il candidato nel prendere in giro gli algoritmi di selezione.Intelligenza artificiale contro intelligenza artificiale, realtà dissimulata contro valutatori non umani, macchine contro macchine.Difficile capire chi ci guadagna in tutto questo, a parte, probabilmente, proprio le fabbriche di intelligenza artificiale che, però, poi, quando si tratta di scegliere i migliori da assumere sembrano spaventate dall’idea di sbagliare per colpa della maschera artificiale che molti candidati potrebbero indossare facendosi scrivere i curricula e le risposte alle domande anche motivazionali proprio da algoritmi di intelligenza artificiale.Usate l’intelligenza artificiale ma solo dopo esservi fatti assumere senza, insomma è la raccomandazione di Anthropic che, confesso, non sono certo di condividere.Mi sembra ci sia una punta di ipocrisia.Ma forse non è così.Il caffè del mattino, però, serve anche a accendere riflessioni di questo genere e, magari, a convincersi prima di sera dell’opposto di ciò che si è pensato al risveglio.Buona giornata e naturalmente good morning privacy!
Che il porno sia pioniere del web è circostanza nota da tempo.E la storia appena rimbalzata dalle colonne di Mashable e The Verge, due testate online specializzate in tecnologia e dintorni lo conferma.Da ieri, attraverso uno store alternativo all’Apple Store del quale non faccio il nome per non fargli pubblicità, comunque uno di quelli nati grazie al Digital Market Act che ha imposto a Apple e agli altri padroni dei grandi ecosistemi digitali di aprirsi alla concorrenza, c’è un’app per l’accesso a contenuti pornografici installabile sugli Iphone di tutti gli utenti europei.Una rivoluzione che in casa Apple non piace affatto."Siamo profondamente preoccupati per i rischi per la sicurezza che le app porno hardcore di questo tipo creano per gli utenti dell'UE, in particolare i bambini.Questa app e altre simili mineranno la fiducia dei consumatori e la confidenza nel nostro ecosistema, per il quale abbiamo lavorato per più di un decennio per renderlo il migliore al mondo.Contrariamente alle false dichiarazioni rilasciate dallo sviluppatore del marketplace, certamente non approviamo questa app e non la offriremmo mai nel nostro App Store.La verità è che siamo tenuti dalla Commissione Europea a consentirne la distribuzione da parte di operatori di marketplace come x ed y – evito per il momento di fare i nomi - che potrebbero non condividere le nostre preoccupazioni per la sicurezza degli utenti", ha detto Apple in una dichiarazione a The Verge.Questione complicata, anzi, complicatissima.Apple, naturalmente, ha facile gioco nel rivendersela pro domo sua come un preoccupante effetto collaterale delle nuove regole europee sui mercati digitali.E non c’è dubbio che, nel caso di specie, l’Apple store è stato, sin qui, uno dei pochi luoghi dell’ecosistema digitale nel quale i minori erano al riparo almeno dal porno.Poi che non fossero al riparo – così come altrove - da una serie di fenomeni forse persino più preoccupanti del porno è un’altra storia.Ora lo sbarco di un’app pornografica sugli Iphone, attraverso uno store alternativo che esiste grazie alle nuove regole, fa decisamente gioco alla casa di Cupertino.Guai, però, a negare che, appunto, si tratta di un effetto collaterale delle nuove regole che, allo stesso tempo, aprono la strada o, meglio, i mercati a tante altre e diverse imprese digitali.Il porno, come è sempre accaduto nella storia di Internet e dintorni, arriva per primo e rischia di farci pentire di una scelta che, invece, ha una sua logica e una sua ragion d’essere importanti.E, allora, che fare?La risposta, in realtà, comincia a diventare monotona: bisogna riuscire a implementare in fretta soluzioni solide e equilibrate di age verification capaci di tenere i bambini fuori da app, piattaforme e servizi non adatti alla loro età benché disponibili online come negli store di applicazioni.Farlo è possibile e volere e potere.Lo vogliamo? Lo vogliono i decisori pubblici, ma lo vogliono per davvero e non solo per proteggere i bambini dal porno ma da una serie infinite di ben più serie insidie digitali?In attesa di una risposta, buona giornata e, naturalmente, good morning privacy.
Si dice spesso che gli algoritmi sono le leggi di questo secolo.Nessuna sorpresa, dunque, se l’antico brocardo secondo il quale “fatta la legge, trovato l’inganno”, possa efficacemente essere parafrasato in un più moderno “fatto l’algoritmo, trovato l’inganno”.A confermarlo una storia che rimbalza da YouTube dove una Youtuber, stanca di perdere visualizzazioni per colpa di una quantità enorme di video generati artificialmente e pubblicati online all’unico scopo di raccogliere views e denari ha deciso di dichiarare guerra a chi li genera.La soluzione che ha elaborato per scendere in campo è ingegnosa e sembra funzionare.Tenuto conto che i suoi concorrenti per generare i video usano largamente gli script dei sottotitoli che lei – così come milioni di youtuber in carne ed ossa – inserisce nei propri contenuti ha, semplicemente, deciso di avvelenare questi script.Per farlo vi inserisce dei contenuti privi di senso, invisibili agli occhi umani – e che quindi non disturbano il suo pubblico – ma visibili dagli algoritmi e capaci di mandarli in panne.Certo la soluzione, lo racconta lei stessa, non è efficace al 100% perché esistono rimedi attraverso i quali gli algoritmi possono evitare di cadere nel tranello ma pare sufficiente a suggerire ai più di desistere facendo risultare la partita difficile da vincere.L’iniziativa di F4mi come si fa chiamare la YouTuber protagonista di questa originale battaglia da Davide contro Golia, peraltro, si inserisce nell’ambito di un autentico movimento di resistenza che va diffondendosi sul web contro i crawler delle grandi fabbriche di intelligenza artificiale che continuano a fare razzia di ogni genere di contenuto talvolta persino ignorando i comandi con i quali i gestori dei siti rappresentano la volontà di passare oltre e tenere giù le mani da dati, informazioni e contenuti pubblicati online.Una partita quella in corso da seguire con il fiato sospeso.Al contempo l’idea di F4mi fa sorgere un sospetto.E se la stessa tecnica di avvelenamento dei pozzi di approvvigionamento dei modelli algoritmici fosse adottata anche da chi rende disponibili dati, informazioni e contenuti utilizzati dagli algoritmi per risolvere problemi – con tutto il rispetto per la generazione di contenuti destinati a raccogliere visualizzazioni su YouTube – più seri?Non c’è il rischio che questi avvelenamenti a monte producano disastrose decisioni algoritmiche a valle?E, in ogni caso, non varrebbe la pena affrontare e risolvere una volta per tutte la questione?Possibile che debbano essere mercato e industria a decidere se sia normale e sostenibile, nella dimensione della concorrenza e in quella della democrazia, che pochi trasformino in asset tecno-commerciali dati, informazioni e contenuti di miliardi di persone?A questa idea proprio non convince.Ma, naturalmente, parliamone.Frattanto buona giornata e, naturalmente, good morning privacy.
È la solita storia con le cose di una certa innovazione tecnologica: la comodità ha un prezzo che, talvolta, è salato.CSV, una delle più celebri catene di farmacie al mondo ha da poco annunciato che intende rendere disponibile ai clienti, attraverso la propria app, un servizio che consentirà loro di aprire le vetrine presenti nei punti vendita senza più bisogno di chiamare l’addetto e attenderne l’arrivo.L’idea è di disarmante semplicità: aprire la vetrina di un negozio con la stessa facilità con la quale si sblocca un monopattino elettrico.E, però, c’è il solito ma.Il conto da pagare in termini di privacy sembra salato.Per poter fruire di questa nuova funzionalità, infatti, i clienti delle farmacie CSV dovranno iscriversi al programma fedeltà della società il che, inesorabilmente, significa condividere con quest’ultima una montagna di dati personali e, anzi, considerato che stiamo parlando di una catena di farmacie, dati personalissimi, quelli che nel GDPR si chiamano dati particolari perché capaci di raccontare di più di una persona.In questo caso quei dati sono capaci di mettere a nudo le patologie di cui una persona soffre o della quale soffrono i suoi cari per i quali acquista questo o quel farmaco.Insomma, come, ormai, accade sempre più di frequente davanti a quelle vetrine si consumeranno degli autentici baratti: chi vuole sfruttare la comodità di aprire una vetrina con lo smartphone, deve accettare di mettere a nudo tanto di sé.Poi, naturalmente, ci sarà anche chi obietterà che dovrebbe comunque farlo davanti all’addetto alla farmacia e che, quindi, preferisce farlo davanti all’applicazione di CSV.E, però, anche se, magari, nella dimensione emotiva la riflessione è comprensibile, l’impatto della consegna, tendenzialmente per sempre, di una quantità tanto preziosa di dati personali, in digitale, ai sistemi ormai artificialmente intelligenti, di una catena di farmacie è di diversi ordini di grandezza superiore rispetto all’imbarazzo di doversi confrontare con l’addetto alla farmacia.I dati acquisiti dall’app, infatti, sono destinati a essere conservati, stratificati, analizzati, processati e incrociati con migliaia di altri dati e, per questa via, trasformati in informazione e conoscenza capaci di raccontare tanto, tantissimo di più di ciascuno di noi.Insomma, il trucco c’è e si vede pure e il prezzo della comodità rischia di essere davvero salato.CSV, per ora, sta sperimentando la soluzione in tre soli punti vendita e c’è, forse, da sperare che, lungo la strada, torni sui suoi passi e rinunci all’idea di far pagare così tanto la comodità.La comodità tecnologica va bene ma a condizione poi di lasciar gli utenti liberi di scegliere, per davvero, se aderire o meno al programma fedeltà.Come sempre buona giornata e, naturalmente, good morning privacy.
Stop DeepSeek

Stop DeepSeek

2025-01-3102:26

Perché abbiamo ordinato il blocco di DeepSeekLa notizia ormai è nota e ha già fatto il giro del mondo.Abbiamo ordinato, in via d’urgenza, a DeepSeek, l’emula cinese di ChatGPT, di interrompere ogni trattamento di dati personali relativo agli interessati italiani e abbiamo contestualmente aperto un’istruttoria.Alla base della decisione la risposta con la quale le società che gestiscono il servizio hanno riscontrato la nostra richiesta di chiarimenti di qualche giorno fa riferendo di non operare in Italia, non avere intenzione di operarvi e non ritenere applicabile la disciplina europea sulla protezione dei dati personali.Troppo per non intervenire.Sia perché il servizio è certamente stato disponibile in Italia e lo è ancora almeno nella versione web, pur non essendo più disponibile l’app negli store di Apple e Google, sia perché le regole europee sulla privacy non possono non applicarsi a chi ha raccolto sistematicamente dati personali anche nel nostro Paese e li ha trattati per consentire al proprio servizio di generare contenuti, tra l’altro, partendo proprio da questi dati.In un mondo che corre così tanto veloce e nel quale il tempo per assumere decisioni anche importanti è sempre di meno, non ci si può mai dire sicuri della bontà di una decisione e, talvolta, inesorabilmente, si sbaglia.E, però, proprio come a suo tempo accaduto – sebbene tra critiche anche feroci di taluno – nel caso ChatGPT, ancora una volta abbiamo ritenuto che non si potesse lasciar correre, non si potesse lasciar passare il principio che esistano isole dalle quali o nelle quali proporre nuovi servizi digitali e tecnologici travolgendo o, più semplicemente, ignorando, diritti e libertà.Il punto esattamente come in occasione dell’intervento d’urgenza su ChatGPT non è frenare l’innovazione ma orientare l’innovazione nella sola direzione nella quale dovrebbe correre ovvero quella di massimizzare il benessere collettivo e non si può massimizzare il benessere collettivo ignorando diritti e libertà a cominciare dalla privacy oggi più importante di sempre.Riusciremo nell’impresa?Onestamente non lo so.Da soli certamente no.Ma se ciascuno fa la sua parte, io credo che l’obiettivo sia raggiungibile.Dopodiché il nostro dovere è provarci, a prescindere dal risultato.Come sempre buona giornata e good morning, oggi più di sempre, privacy!--------Why We Ordered the Block of DeepSeekThe news is now widely known and has already made headlines around the world.We have urgently ordered DeepSeek, the Chinese counterpart of ChatGPT, to cease all processing of personal data related to individuals in Italy and have simultaneously launched an investigation.This decision is based on the response we received from the companies managing the service, following our recent request for clarification. They stated that they do not operate in Italy, have no intention of doing so, and do not consider European data protection regulations applicable to them.That was more than enough reason to intervene.First, because the service has certainly been available in Italy and remains accessible—at least via its web version—even though its app is no longer available on Apple and Google stores. Second, because European privacy regulations must apply to any entity that has systematically collected personal data, including from our country, and processed it to enable its service to generate content, drawing directly from this data.In a world moving at such a fast pace, where there is increasingly less time to make critical decisions, one can never be entirely certain of their correctness. And sometimes, inevitably, mistakes are made.However, just as we did—despite harsh criticism from some—when we took action against ChatGPT, once again, we believe that inaction was not an option. We could not allow the idea to take root that there are "islands" from which or within which new digital and technological services can be offered while disregarding—or outright ignoring—rights and freedoms.As with our urgent intervention on ChatGPT, the issue is not about halting innovation but steering it in the only direction it should go: maximizing collective well-being. And collective well-being cannot be maximized by ignoring rights and freedoms—starting with privacy, which is more important today than ever before.Will we succeed?Honestly, I don’t know.Certainly not alone.But if everyone plays their part, I believe the goal is within reach.That said, our duty is to try—regardless of the outcome.As always, have a great day and, today more than ever, good morning, privacy!
Ieri abbiamo celebrato, con un giorno di ritardo, la Giornata Europea della Privacy. Tra i temi affrontati, una sfida più urgente delle altre: come governiamo quella che abbiamo definito e che in effetti credo sia l’era del cambiamento? Mi sembra una riflessione utile anche per il nostro caffè del mattino.Il mio punto di partenza è stato ieri e resta oggi il fattore tempo.L’innovazione corre sempre di più e la regolamentazione la insegue, talvolta, arranca.Ci sono voluti sessantadue anni perché cinquanta milioni di persone utilizzassero un’automobile per spostarsi, sessanta perché avessero un telefono a casa, quarantotto perché disponessero dell’elettricità e ventidue perché possedessero un televisore.Il computer, per conquistare lo stesso pubblico di cinquanta milioni di persone ci ha messo quattordici anni, il telefonino dodici e Internet sette.ChatGPT, il servizio online basato sugli algoritmi di intelligenza artificiale generativa di OpenAI che, ormai – ma forse bisognerebbe dire già – conosciamo tutti, in meno di due mesi ha raggiunto cento milioni di utenti attivi mensili, il doppio di quelli raggiunti da YouTube in quattro anni.Ora vedremo quanto ci impiegherà DeepSeek, l’emulo cinese di ChatGPT, nei cui confronti abbiamo appena aperto un’istruttoria.Sono numeri che mi sembrano sufficienti a raccontare la costante e inarrestabile accelerazione del ritmo di diffusione di prodotti e servizi che hanno indiscutibilmente cambiato significativamente le nostre vite e avuto un impatto rivoluzionario sulla società.Un impatto sempre più rapido, un impatto che all’inizio si misurava in decenni, poi in anni, quindi in mesi e oggi in settimane.Senza dire che le innovazioni di oggi sono straordinariamente più complesse di quelle di ieri e hanno un impatto enormemente più trasversale sulla società.Non c’è paragone, tanto per fare un esempio, tra l’unica funzione di un telefono fisso di ieri che serviva solo per parlare con un interlocutore a distanza e le migliaia di possibili funzioni di uno smartphone, anche di non più nuovissima generazione, nel quale la funzione di comunicazione vocale è, ormai, diventata quasi residuale rispetto a tutte le altre possibili forme di impiego.E questo, naturalmente, vale anche – e anzi a maggior ragione – per i nuovi servizi basati sull’intelligenza artificiale, utilizzabili in migliaia di modi diversi per risolvere o, almeno, provare a risolvere centinaia di migliaia di problemi nel quotidiano personale e professionale di ciascuno di noi così come questioni epocali con le quali la società globale si confronta da secoli.Questa accelerazione del ritmo dell’innovazione tecnologica, dunque, rappresenta, a mio avviso, uno dei fattori più rilevanti da tenere presente nell’interrogarci sulle forme e i modi con i quali provare a governare l’era del cambiamento perché sappiamo tutti che la migliore delle regole se non è tempestiva è irrilevante nel migliore dei casi, e controproducente nel peggiore.Quando nella seconda metà dell’800 le prime auto hanno iniziato a circolare sulle strade inglesi, il Parlamento varò il c.d. Red Flag Act, datato 1865, una legge che imponeva un limite di velocità di 3,2 chilometri orari e, soprattutto, stabiliva che un uomo, con una bandiera rossa in mano, dovesse precedere ogni automobile di circa 55 metri per segnalare il pericolo.Il Red Flag Act rimase in vigore per oltre trent’anni, fino al 1896.Mi sembra abbastanza evidente che la migliore delle regole con la quale oggi volessimo provare a governare una tra le infinite applicazioni dell’intelligenza artificiale non potrebbe mai avere una vita tanto lunga perché diventerebbe immediatamente obsoleta e rischierebbe di ritrovarsi abrogata per desuetudine come sarebbe accaduto al Red Flag Act se a qualche mese dalla sua entrata in vigore le macchine avessero cominciato a volare, non potendo, più, evidentemente, lo sbandieratore precederle in volo. Questo è il contesto che abbiamo oggi davanti.E, probabilmente, non abbiamo ancora visto nulla perché a me pare evidente che la nuova corsa agli armamenti – perché non so definirla diversamente – dell’intelligenza artificiale in atto tra America e Cina imprimerà al ritmo dell’innovazione un’ulteriore accelerazione.Non ho risposte definitive al problema ma, personalmente, credo che dovremmo avere il coraggio di modificare radicalmente approccio rispetto al passato, smettere di pretendere di disciplinare a livello di dettaglio taluni fenomeni e delegarne la governance, sulla base di una manciata di criteri di delega stringenti nel metodo più che nel merito, alle Agenzie e Autorità indipendenti.Solo così, forse, possiamo sperare di scongiurare il rischio di continuare a prevedere per legge che uno sbandieratore cammini davanti alle automobili per avvisare del pericolo quando le automobili ormai volano.Cambiamo il modo di scrivere le regole ma non rinunciamo, come qualcuno inizia a suggerire, a scriverle, non rinunciamo a regolare l’innovazione cadendo nel tranello di chi vorrebbe farci credere che le regole frenano l’innovazione.Non è vero.Al contrario le regole – ovviamente a condizione che siano quelle giuste e soprattutto che arrivino in tempo – orientano e promuovono l’innovazione spingendola nell’unica direzione nella quale è giusto che vada la massimizzazione del benessere collettivo e la maggiore possibile distribuzione delle opportunità che offre.Rinunciare a regolamentare l’innovazione, significa lasciare che la tecnologia diventi regolamentazione e che la società sia governata da software, algoritmi e interfacce progettati e disegnati in nome di interessi privati di pochi, normalmente orientati prevalentemente al profitto.Significa insomma lasciare che la tecnocrazia abbia la meglio sulla democrazia.È, probabilmente, tra gli scenari più pericolosi con i quali siamo chiamati a confrontarci in questa Era del cambiamento.Come sempre buona giornata e, naturalmente, good morning privacy!
Se addirittura una leggenda vivente del calibro di Sir James Paul McCartney decide che non può rimanere in silenzio e che deve far sentire la sua voce non solo per cantare, allora, forse, potremmo e dovremmo trovarci tutti d’accordo che il problema esiste e che va affrontato con l’urgenza e la determinazione che merita.Il problema in questione è quello del patrimonio artistico globale, musica inclusa, letteralmente espropriato a artisti, creatori e umanità, raccolto, vivisezionato e riutilizzato come materia prima o asset tecno-commerciale dalle fabbriche degli algoritmi per consentire ai loro servizi, basati sull’intelligenza artificiale, di generare – ma non di creare – ogni emulazione di opera dell’ingegno umano ma senza l’ingegno umano.Caro algoritmo scrivimi una canzone su questo argomento come la scriverebbero i Beatles e fallo in modo che abbia successo in questo determinato mercato.Un prompt – un comando ma tanto ormai sappiamo tutti che significa – di questo genere è, ormai, realtà e se non lo è sino in fondo lo sarà, continuando di questo passo, nello spazio di qualche mese, perché si fa fatica, considerato il ritmo dell’innovazione nel settore dell’intelligenza artificiale, a parlare di anni.Tutto regolare?Una situazione sostenibile, specie considerato che pochi e, anzi, pochissimi guadagnano e guadagneranno dallo sfruttamento dello straordinario patrimonio artistico dell’intera umanità che, pure, non esisterebbe senza l’estro, la creatività e l’ingegno di qualcun altro?La convinzione di McCartney è che la risposta sia negativa.E, quindi, ha appena invitato il Governo inglese a pensarci bene prima di scrivere le regole destinate a governare la materia.“Voi siete il Governo e noi i cittadini” ha detto McCartney.“Dovete proteggerci”.Il caffè del mattino è troppo corto per affrontare la questione con l’attenzione e la profondità che meriterebbe e con le quali se ne sta discutendo, per fortuna – anche se tardivamente – ovunque nel mondo.E, però, è una questione drammaticamente seria e da affrontare con urgenza, riconoscendo, credo, che le regole che abbiamo, anche in Europa, non bastano.Io, poi, personalmente, resto convinto che dentro un’opera d’arte di un artista ci siano frammenti dell’identità personale di quell’artista e che nessuno, fabbriche di algoritmi incluse, dovrebbe poter far sua quell’opera e riutilizzarla in una dimensione commerciale e, anzi, industriale senza il consenso dell’artista.E questo, credo, sia ancora più vero quando il riuso serve a inoculare dentro un contenuto non generato dall’artista in questione, il suo stile, il suo spirito, il suo modo di scrivere, disegnare o cantare e tanti altri tratti unici e distintivi della sua personalità.C’è da augurarsi che, la prossima volta, McCartney, oltre al copyright invochi il rispetto della sua privacy a difesa dei frammenti della sua identità racchiusi nel suo patrimonio artistico.Ma questo discorso ci porterebbe lontani.Per ora, quindi, semplicemente, buona giornata e, come sempre, goodmorning privacy!
In America il fenomeno sta esplodendo ma è ragionevole supporre che stia accadendo lo stesso anche da questa parte dell’oceano o che accadrà presto.Centinaia di studenti universitari – e, per la verità, anche delle scuole superiori – che si ritrovano senza borse di studio o con voti ridotti di percentuali significative perché i sistemi di intelligenza artificiale che i professori utilizzano per verificare se sono stati utilizzati servizi basati sull’intelligenza artificiale per fare compiti, temi o risolvere problemi suggeriscono, contrariamente al vero, una risposta affermativa.Falsi positivi, insomma.Tanti almeno stando a quanto rimbalza dai media di oltreoceano.E le conseguenze sono enormi tanto sulla carriera scolastica e universitaria degli studenti quanto sulla loro serenità e stabilità psicologica perché quando capita non sanno come reagire e come convincere i loro professori che il sistema di controllo ha sbagliato, che loro non hanno barato, che il compito è effettivamente farina del loro sacco e che, magari, hanno semplicemente usato uno strumento di intelligenza artificiale per il controllo ortografico o, ancora più semplicemente, che strumenti del genere sono, ormai, incorporati nei software che utilizzano per elaborare i documenti.Ma come si fa a fornire al tuo professore che un algoritmo ha persuaso tu abbia fatto il furbetto la prova del contrario?Tutti d’accordo nel sostenere che la prova è diabolica, semplicemente impossibile.Così come c’è un diffuso consenso sulla circostanza che gli strumenti artificialmente intelligenti per scovare i furbetti dell’AI tra i banchi di scuola e in università non funzionano come dovrebbero e sono pieni di bias.Tendono, tanto per fare un esempio, a considerare più frequentemente figlio di un aiutino dell’AI un compito scritto da un non madrelingua.Il rischio è enorme e duplice.Da una parte rischiamo di perdere la capacità di premiare gli studenti che andrebbero premiati considerandoli addirittura meno meritevoli di altri e dall’altra, stiamo abituando intere generazioni a considerare normale il fatto che una persona, la sua testa, le sue competenze, la sua creatività, capacità di sintesi o di risolvere un problema possano essere valutati da un algoritmo e che sia normale che un algoritmo possa incidere tanto prepotentemente sul destino di una persona.Credo serva un’inversione a “U” e credo serva in fretta.Buona giornata e goodmorning privacy!
Due ricercatori americani, nei giorni scorsi, hanno pubblicato un post sul loro blog nel quale raccontano la facilità sconvolgente con la quale sono riusciti a hackerare l’elettronica di bordo di una Subaru accedendo, da remoto, a funzioni e dati che hanno loro consegnato, di fatto, il controllo assoluto sulla macchina, per fortuna di proprietà della madre di uno dei due.La sintesi del post e della scoperta dei due è questa: chiunque conoscendo semplicemente il cognome e il codice postale, l'indirizzo e-mail, il numero di telefono o la targa del proprietario di una Subaru avrebbe potuto accenderne o spegnerne il motore, recuperarne la posizione attuale e passata nell’ultimo anno con una precisione di 5 metri, accedere ai contatti di emergenza inseriti nell’auto dal proprietario nonché i dati della fatturazione dei servizi a eventualmente attivati sul veicolo, la cronologia delle chiamate di assistenza e l’elenco dei proprietari precedenti del veicolo oltre a tanto di più.Non male per suggerire a chiunque a bordo di una macchina del genere di non illudersi neppure per un istante di esser da solo alla guida.L’unico aspetto positivo di una vicenda che fa rabbrividire è che i due ricercatori, in maniera etica, prima di pubblicare la storia, hanno avvertito la casa costruttrice della vulnerabilità identificata, consentendole di intervenire per risolvere il problema.Ma le note positive si fermano qui.Le altre sono tutte diversamente stonate.A cominciare dalla domanda che correttamente i ricercatori si pongono e pongono: che bisogno c’è, per una casa costruttrice di automobili – anche perché il sospetto è che il fenomeno non sia circoscritto alla sola Subaru – di conservare così a lungo dati tanto puntuali sulla posizione di tutti i veicoli prodotti.Le risposte che i giornalisti americani che si sono sin qui occupati della vicenda si sono sentiti dare dalla Subaru non appaiono convincenti: l’esigenza di garantire ai proprietari un’assistenza adeguata anche grazie a un’immediata localizzazione del veicolo, infatti, se giustifica la raccolta dei dati, giustifica di meno o, forse, niente affatto, la loro conservazione indiscriminata, a prescindere cioè dalla circostanza che si siano o meno verificati incidenti che abbiano richiesto l’attivazione del servizio di assistenza.Nella puntata di qualche giorno fa raccontavo della causa che lo Stato del Texas ha promosso contro una compagnia assicurativa che sembrerebbe aver acquistato, tra l’altro proprio da alcune società costruttrici di autovetture i dati di geolocalizzazione insieme a una montagna di altre informazioni.Uno più uno, non fa sempre due ma il dubbio inevitabilmente sorge.Ma a prescindere da scenari di questo genere, il punto è che i dati in questione sono capaci di raccontare la vita di una persona con una profondità straordinaria, sino a arrivare alle circostanze più intime come eventuali patologie che le impongano di frequentare periodicamente centri di cura specializzati, relazioni personali e professionali che, magari, si vorrebbe, legittimamente, restassero private e tanto tanto di più.Le regole sulla privacy, almeno da questa parte dell’oceano e, in realtà, il semplice buon senso, ancora prima, suggerirebbero, forse, tempi conservazione molto ma molto più brevi almeno di informazioni così tanto puntuali.Quella dei due ricercatori non è una gran bella scoperta ma, naturalmente, meglio saperlo che vivere nell’antica illusione di considerare la nostra macchina come un’alcova privata e impenetrabile.Per chi volesse approfondire, nel testo che accompagna il podcast, il link al blogpost integrale: https://samcurry.net/hacking-s...Buona giornata e goodmorning privacy
Decine di gruppi su Reddit, una delle più popolari piattaforme di discussione al mondo stanno iniziando a vietare ai loro membri di pubblicare link a X. All’origine della decisione quello che taluno ha interpretato come un saluto romano di ispirazione fascista fatto da Elon Musk, proprietario proprio di X, durante la cerimonia per l’insediamento di Trump per il suo secondo mandato alla Casa Bianca.Dico subito che non credo quello di Musk fosse un saluto romano e che, comunque, non voglio entrare nella discussione.È il dito – anche se in realtà sotto accusa ci è finito l’intero braccio dell’uomo più ricco del mondo – rispetto alla luna alla quale vorrei dedicare il caffè di questa mattina. A me pare, infatti, che il punto sia un altro. In un momento nel quale è innegabile che le big tech abbiano deciso di scendere nell’agone della politica, schierandosi apertamente con Donald Trump come ha detto al mondo intero, in un video, Mark Zuckerberg, patron di Meta qualche giorno fa, il fatto che gli utenti anziché rimanere indifferenti, inizino a reagire, a me pare un fatto davvero importante.E, ripeto, perché il terreno di gioco è scivoloso: la questione non è che le big tech stiano a destra o sinistra, con Trump o con un leader politico suo antagonista. Il punto è che quello che sta accadendo è che i Signori delle tecnologie stanno ponendo la loro straordinaria potenza di fuoco a servizio di un Governo con la comprensibile aspettativa – che, peraltro, appare fondata – che quel Governo ne supporti il business nazionale e globale. È una convergenza di egoismi evidentemente.Un win win come dicono gli americani: conviene al Governo di Washington poter contare sull’enorme potere di persuasione di massa delle big tech, potere che vale la pena ricordarlo deriva pressoché integralmente dalla conoscenza profonda di miliardi di persone estratta dal giacimento di dati personali raccolto nell’ultimo ventennio e conviene alle big tech. Il dubbio, però, è che convenga anche ai miliardi di utenti delle piattaforme dei giganti della Silicon Valley e dintorni.A noi conviene questo intreccio diabolico tra tecnologia e politica?Perché una cosa è rischiare che la conoscenza accumulata su di noi venga usata per convincerci a comprare un paio di scarpe anziché un altro e una cosa completamente diversa è che quella stessa conoscenza venga usata per orientare e manipolare scelte e decisioni più serie, come quelle relative alla politica, alla cultura e, in generale, alla società nella quale viviamo secondo quanto desiderato dall’uomo al potere di turno.Ripeto, indistintamente che sia di destra o di sinistra, democratico o repubblicano.Ecco, in questo contesto, la circostanza che gli utenti di Reddit, in qualche modo non si dimostrino insensibili a quanto sta accadendo ma stiano reagendo politicamente nel senso più alto del termine fa, secondo me, ben sperare. Potrebbe, infatti, suggerire alle big tech di tornare sul binario lungo il quale hanno corso sin qui: più mercato e meno politica per non correre il rischio di perdere gli utenti e con gli utenti i loro dati personali e, quindi, la loro ricchezza.Una speranza un po’ illusoria ma se non si sogna di prima mattina, quando?Buona giornata e, naturalmente, goodmorning privacy!
Se la notizia fosse confermata, come, per la verità, stanno facendo in queste ore diverse autorevoli testate americane, sarebbe un fatto oggettivamente grave.Sto parlando della cancellazione delle pagine relative a informazioni, iniziative e programmi governativi dedicati alla comunità LGBTQ che, nel giorno dell’insediamento di Donald Trump, sembrerebbero essere scomparse dal sito della Casa Bianca.Via, tutte insieme, tutte d’un colpo, a pochi secondi dall’inizio del secondo mandato Trump.Le associazioni per la difesa dei diritti della comunità LGBTQ si dicono convinte che sia andata proprio così e si dichiarano niente affatto sorprese per il gesto.E i giornalisti di diverse testate, interrogando il motore di ricerca del sito del governo americano, in effetti, confermano che alcuni contenuti che c’erano non ci sono più e che, con talune chiavi di ricerca, si finisce inesorabilmente con l’imbattersi in pagine di errore che confermano che il link è rotto, come si dice in gergo, e non porta da nessuna parte.Guai a non dire che, come accade sempre in concomitanza con l’avvicendamento alla Casa Bianca, il sito è oggetto, in queste ore, di un restyling importante e che, in questi casi, il rischio di perdersi per strada qualche contenuto c’è sempre.E però la circostanza che a essersi persi per strada sembrerebbero, in quantità importante, proprio un certo genere di contenuti qualche dubbio inesorabilmente lo solleva.Per carità, chi non è almeno un po’ incoerente alzi la mano o lo scriva qui sotto nei commenti, ma è almeno curioso che il protagonista di un’operazione del genere – se vera – sia proprio un’amministrazione che si dichiara tanto convinta della necessità di promuovere e difendere, in ogni contesto e a ogni costo, la libertà di parola, tanto da suggerire e ottenere che giganti come Meta interrompano ogni programma di fact-checking suscettibile di interferire con la libertà degli utenti di condividere qualsiasi genere di contenuto.Come si fa, allo stesso tempo, a dichiararsi paladini della libertà di parola e, poi, a mostrarsi così tanto spaventati dalle parole da correre addirittura a cancellarne alcune non da un sito qualsiasi, ma dalle pagine web più importanti dell’intero governo americano?Una cosa è, o dovrebbe essere, decidere di cambiare rotta in termini politici e amministrativi, interrompendo alcuni programmi di supporto e altre iniziative analoghe o introducendo nuove leggi, e una cosa diversa è rimuovere fisicamente contenuti informativi, inclusi taluni di carattere educativo, dalle pagine di un sito.E, però, se questo è, effettivamente, il vento che soffia, forse meglio che le pagine in questione siano state rimosse, piuttosto che siano state utilizzate – come sarebbe potuto accadere – per identificarne gli utenti e adottare chissà quale genere di iniziativa nei loro confronti.In fondo, il web è generoso e tende a non dimenticare, con la conseguenza che ciò che è stato cancellato – forse – dal sito della Casa Bianca, alla fine, da qualche altra parte lo si ritroverà.Difendere la privacy degli utenti delle pagine in questione, forse, sarebbe stato più difficile.Non è una buona notizia per iniziare la giornata ma, comunque, buona giornata e naturalmente good morning privacy!
App di incontri che diventano app per amici di pennaIn America dove il fenomeno sta prendendo forma più rapidamente hanno anche coniato un termine per definirlo: “Carouseling”.Decine di milioni di utenti di app di incontri che anziché usarle per trovare l’anima gemella o, comunque, una persona da incontrare e conoscere per davvero si lasciano travolgere dal gusto di parlare con decine di persone contemporaneamente e si accontentano di proseguire le conversazioni fino a quando non arrivano su un binario morto per poi passare alla successiva.Quando non si accontentano addirittura di ricevere un like o un sorriso, rigorosamente digitali.Ma di incontri, secondo studi e ricerche che rimbalzano dall’altra parte dell’oceano se ne fanno sempre di meno. In tanti non li cercano più.Preferiscono amici e amiche di penna a persone in carne ed ossa da conoscere online ma poi incontrare per davvero.E, sin qui, il fenomeno sarebbe curioso ma niente di più specie in una stagione della vita del mondo nella quale stiamo vivendo una progressiva digitalizzazione e dematerializzazione di ogni esperienza.L’ipotesi, però, è che quanto sta accadendo non sia solo frutto del caso ma dietro possa esserci lo zampino della dopamina e dei gestori delle piattaforme di dating.La seconda, infatti, determina - e la circostanza è ormai pacifica - una condizione di dipendenza dalla soddisfazione e dal compiacimento che la raccolta di like e la collezione di chat con più utenti consegnano agli utenti.I primi, dal canto loro, sono, naturalmente, ben contenti che gli utenti restino online sulle loro pagine il più a lungo possibile non solo niente affatto frustrati dalla mancato incontro con l’anima gemella ma, al contrario, felici di continuare a investire tempo e risorse nella sua ricerca anche se con l’obiettivo non dichiarato di non trovarla mai perchè, appunto, limitarsi a cercarla sembra diventato più divertente che trovarla.E, naturalmente, restando online si arricchiscono le piattaforme in moneta sonante e in dati personali, consegnando loro informazioni sempre più preziose su noi stessi, informazioni che, peraltro, nell’era dell’intelligenza artificiale hanno un valore ogni giorno crescente perché, servono proprio ad addestrare algoritmi e modelli.Tutti felici, insomma, tranne Cupido che continua a lanciare frecce digitali che si dematerializzano prima di arrivare al bersaglio.Se c’è qualche amante del carouseling nelle app di incontri anche da questa parte dell’Oceano come è probabile che ci sia, forse, vale la pena invitarlo a offrire un caffé a uno dei suoi interlocutori o interlocutrici.Se poi non va, si è sempre in tempo per tornare online!Ma frattanto il caffé lo prendiamo noi, con il buongiorno di ogni mattina e, naturalmente, un sano goodmorning privacy!
Il Pew Research Center ha appena pubblicato uno studio che analizza l’uso di ChatGPT, il chatbot di OpenAI, per fare i compiti negli Stati Uniti.I risultati sono interessanti.Il dato più sorprendente, sebbene prevedibile, è l’enorme crescita della percentuale di studenti tra i 13 e i 17 anni che utilizzano l’intelligenza artificiale per i compiti a casa: quasi un raddoppio rispetto al passato, arrivando al 26%. Considerando che negli Stati Uniti ci sono oltre 20 milioni di adolescenti in quella fascia d’età, si tratta di più di 5 milioni di studenti.Anche la conoscenza di ChatGPT, indipendentemente dall’utilizzo, è aumentata rapidamente, raggiungendo percentuali quasi plebiscitarie: quasi l’80%. Tuttavia, emergono differenze significative legate al reddito familiare. La percentuale sale all’84% tra gli studenti provenienti da famiglie con redditi superiori a 75 mila dollari, ma scende al 67% per quelli con redditi sotto i 30 mila dollari. Si sta quindi delineando un importante digital divide che richiede attenzione urgente, per evitare la creazione di disuguaglianze educative tra studenti di serie A e serie B.I compiti per i quali ChatGPT è più utilizzato sono ricerche, problemi di matematica e riassunti. Ma i giovani si dividono tra chi ritiene legittimo farlo e chi, invece, lo considera inappropriato.Nel complesso, la ricerca conferma una tendenza ovvia: l’attrattiva di usare ChatGPT per i compiti è sempre più diffusa e difficile da resistere.In linea di principio, non c’è nulla di male. I tempi cambiano, la tecnologia evolve, ed è naturale che cambi anche il modo di studiare. Tuttavia, questo processo deve essere governato. Se i compiti sono progettati pensando che saranno svolti con l’AI, il discorso è uno; se invece vengono assegnati seguendo i metodi tradizionali ma poi gli studenti usano chatbot, il rischio è che perdano la loro efficacia educativa.Inoltre, diversi studi mettono in dubbio l’utilità di ChatGPT per la risoluzione di problemi di matematica e per le ricerche storiche, sollevando la possibilità che confonda anziché aiutare.C’è poi il rischio di pressione sociale: se molti studenti usano l’AI per fare i compiti, anche chi preferirebbe non farlo, per convinzione o per mancanza di risorse, potrebbe sentirsi obbligato a seguire la stessa strada per rimanere competitivo, limitando così la propria libertà di scelta.Nulla di nuovo o rivoluzionario. Già in passato abbiamo visto simili trasformazioni con l’introduzione di calcolatrici, computer e Internet. Ma l’impatto di quelle tecnologie sulla società era decisamente più lento rispetto a quello dell’AI di oggi.Spetta a noi adulti guidare e orientare il rapporto tra giovani e AI in modo sostenibile, garantendo che le opportunità superino i rischi inevitabili.Buona giornata e, naturalmente, goodmorning privacy!
Chi troppi (dati) vuole, nulla stringeÈ, o almeno potrebbe e dovrebbe essere, istruttiva l’esperienza di Walgreens, la più grande catena di farmacie americane, che nel 2020 aveva stretto una partnership con Cooler Screens, una start-up che ha progressivamente sostituito tutte le porte a vetro dei frigoriferi in cui Walgreens espone i suoi prodotti con porte ad alta tecnologia. Queste porte, da un lato, osservavano, profilavano e tracciavano le abitudini di consumo dei clienti, anche per gestire un complicato sistema di prezzi dinamici, e, dall’altro, proponevano video-messaggi pubblicitari personalizzati a seconda di chi si fermasse davanti al frigorifero.Un’idea futuristica che, tuttavia, sembra non aver funzionato.Probabilmente, i clienti di Walgreens avrebbero preferito continuare a guardare direttamente dentro i frigoriferi per scegliere cosa comprare. Inoltre, il sistema ha spesso funzionato – almeno secondo la catena di farmacie – meno bene del previsto, mostrando talvolta posizioni errate dei prodotti e prezzi diversi da quelli reali. Senza contare che alcuni sportelli sono addirittura andati a fuoco.Il risultato? Walgreens ha portato Cooler Screens in tribunale per ottenere la risoluzione anticipata del contratto. Di tutta risposta, la start-up, oltre a difendersi strenuamente davanti ai giudici, ha scollegato gli sportelli-schermo, lasciandoli completamente al buio.Insomma, è guerra.I vertici di Walgreens ora si stanno facendo un esame di coscienza e sembrano concordi sul fatto di aver fatto un passo troppo lungo. Offrire ai loro clienti uno scenario così avveniristico, evidentemente, non è stata la scelta giusta, perché il pubblico non era ancora pronto.Una storia istruttiva, speriamo.Non bisogna illudersi che la reazione negativa dei clienti di Walgreens sia davvero dipesa solo dalla percezione di un’eccessiva invasione della privacy. Tuttavia, sembra essere stata sufficiente a convincere la società a rallentare verso un futuro distopico.Buona giornata e good morning privacy!
Dati sulla geolocalizzazione finiti online. Utente avvisato è mezzo salvato!Guardare la mappa che ha fatto il giro dei social nei giorni scorsi su X fa letteralmente rabbrividire: centinaia di milioni di puntini rossi su un’enorme mappa mondiale, ognuno rappresentante la posizione di persone rilevata dai loro smartphone, tablet e PC. Questi dati, raccolti da Gravy Analytics, una società specializzata in geolocalizzazione, sarebbero stati coinvolti in una delle violazioni dei dati personali più gravi di sempre.L’hacker che ha pubblicato una parte di questi dati online lo ha fatto come prova dell’avvenuta violazione. Secondo quanto riportato, i dati divulgati rappresentano solo una piccola porzione di quelli esfiltrati. Gravy Analytics ha confermato la violazione e notificato l’accaduto all’ICO, l’autorità britannica per la protezione dei dati, senza fornire ulteriori dettagli.Tra le informazioni finite online ci sarebbero dati di localizzazione di milioni di utenti di Tinder e, fatto ancor più grave, dati riguardanti membri della comunità LGBT+ globale, esponendoli a rischi elevatissimi, specialmente in Paesi dove queste persone sono ancora perseguitate.La raccolta di questi dati, avvenuta in condizioni di dubbia legittimità, è già oggetto di indagine da parte della Federal Trade Commission (FTC). Recentemente, la FTC ha accusato Gravy Analytics di violazioni della privacy e ha ordinato la sospensione del trattamento di ogni dato di geolocalizzazione raccolto illegalmente negli Stati Uniti.In attesa di ulteriori dettagli sull’accaduto e sulle implicazioni dei dati divulgati, questo incidente è un promemoria importante: quando installiamo un’app o utilizziamo un servizio digitale, prestiamo attenzione ai permessi concessi, in particolare all’accesso ai dati di geolocalizzazione. Se questi dati non sono strettamente necessari per il funzionamento dell’app, sarebbe opportuno negarli.Anche dopo l’installazione, vale la pena controllare nelle impostazioni dello smartphone quali applicazioni hanno accesso alla nostra posizione. Esistono numerosi tutorial online che spiegano come farlo. È comprensibile che un’app di navigazione satellitare abbia bisogno di questi dati, ma è meno giustificabile per un’app dedicata alla gestione della dieta o al monitoraggio del battito cardiaco.La geolocalizzazione è una risorsa preziosa per il mercato della pubblicità online e altri settori digitali, ma comporta rischi enormi. Permette un tracciamento pervasivo delle abitudini di vita e, combinata con altre informazioni reperibili online, può rivelare molto più di quanto pensiamo.Utente avvisato è mezzo salvato.Non è una buona giornata, ma questo non ci impedisce di augurarvi, e soprattutto augurare alla privacy, una buona giornata.Goodmorning privacy e appuntamento a domani.
loading
Comments