Discover
Non Avrai Altro Dio - Nicoletta Prandi
Non Avrai Altro Dio - Nicoletta Prandi
Author: Nicoletta Prandi
Subscribed: 5Played: 71Subscribe
Share
© Edizioni FiordiRisorse
Description
Non avrai altro Dio è il podcast curato per SenzaFiltro da Nicoletta Prandi, giornalista e autrice specializzata in politica e di impatto sociale dell'ìinnovazione. Una materia troppo delicata per maneggiarla con imprudenza, perchè in gioco c'è il nostro futuro.
Questo podcast va in profondità nella rivoluzione che l'intelligenza artificiale impone al mondo del lavoro e dell'umano per capire come sopravvivere al cambiamento e sfruttarne i venti a favore.
Questo podcast va in profondità nella rivoluzione che l'intelligenza artificiale impone al mondo del lavoro e dell'umano per capire come sopravvivere al cambiamento e sfruttarne i venti a favore.
39 Episodes
Reverse
Sono Nicoletta Prandi, giornalista e autrice.Mi occupo di politica e di impatto sociale dell’innovazione.Questo è Non avrai altro Dio, il podcast che firmo per Senza Filtro.Lo scrivo con cura e passione: la materia è troppo delicata per maneggiarla con imprudenza, perché in gioco c’è il nostro futuro.Insieme passeremo al setaccio le rivoluzioni che l’intelligenza artificiale impone al mondo del lavoro e dell’umano, per capire come sopravvivere al cambiamento e sfruttarne i venti a favore.
I giochi si fanno pericolosi se tutti scoprono l’intelligenza artificiale e chi ha il dovere di raccontarla lo fa in modo superficiale. In questa prima puntata di Non avrai altro Dio guardo oltre i facili entusiasmi che hanno accompagnato il rilascio di ChatGPT e spiego perché comprendere la rivoluzione dell’intelligenza artificiale è possibile solo analizzando il quadro d’insieme, lati oscuri compresi: dal terremoto americano provocato nel settore dell’istruzione alle domande sul futuro dei lavoratori, dall’impatto cognitivo sul pensiero ai primi passi falsi compiuti dalle aziende.FONTIL’intervento di Sarah Myers West è tratto dall’intervista rilasciata a The Signal The Mimic (thesgnl.com) .La notizia del ban di New York a ChatGPT è stata ripresa da diverse testate, come The Guardian New York City schools ban AI chatbot that writes essays and answers prompts | New York | The Guardian , che ha pubblicato anche la notizia di Science Science journals ban listing of ChatGPT as co-author on papers | Peer review and scientific publishing | The Guardian .L’allarme dei docenti americani sul comportamento della stampa internazionale, preda di troppo facili entusiasmi nel parlare di intelligenza artificiale, è stato pubblicato e raccolto da Critical AI GUEST FORUM: Adapting College Writing for the Age of Large Language Models such as ChatGPT: Some Next Steps for Educators – Critical AI .Lo studio scientifico sugli effetti cognitivi dei video deepfake è pubblicato qui https://pubmed.ncbi.nlm.nih.gov/33910482/ La crisi reputazionale di CNET è raccontata da numerosi articoli, come questo https://www.wired.com/story/cnet-published-ai-generated-stories-then-its-staff-pushed-back/ . La voce di Sarah Myers West è di Cristina Fiore.
Si parla con troppa facilità di innovazione e con altrettanta leggerezza si accusa di luddismo chi offre un pensiero critico sui sistemi più spinti di intelligenza artificiale.Guardando ai fatti, le violazione dei diritti compiute a livello sociale e professionale dalle grandi aziende tech sono documentate e già approdate nei tribunali di mezzo mondo, come racconta questa puntata: i lavoratori fantasma nel Sud e nell’Est del mondo, le vessazioni cui sono sottoposti attori e sceneggiatori in sciopero, i furti di contenuti protetti da copyright e perpetrati per costruire app come ChatGPT sono zone d’ombra che è doveroso documentare, per contribuire a un racconto onesto sull’adozione di tecnologie avanzate. FONTI La piattaforma per scoprire se le nostre fotografie sono state utilizzate abusivamente per addestrare sistemi di intelligenza artificiale e citata nel testo è consultabile al seguente link: Have I Been Trained? Una delle prime inchieste sulle denunce degli attori americani è stata condotta da Vice ‘Disrespectful to the Craft:’ Actors Say They’re Being Asked to Sign Away Their Voice to AI (vice.com) Le condizioni d’uso di ChatGPT sono pubblicate qui Terms of use (openai.com)
Da quando la stampa generalista ha scoperto l’intelligenza artificiale (purtroppo solo in concomitanza del rilascio di ChatGPT) le notizie sugli algoritmi godono di ampia visibilità.Si è subito affermata, come predominante, una narrazione tesa ad assegnare facoltà umane agli algoritmi, a discapito di una corretta informazione e di una giusta percezione su cosa possa e non possa fare realmente un sistema di intelligenza artificiale.In questa puntata riassumo la guida ‘antibufale’ redatta da due ricercatori di Princeton: hanno passato al setaccio la stampa internazionale, scovando errori marchiani anche tra le righe di prestigiose testate. FONTI Le regole per una corretta informazione sull’IA sono tratte dal vademecum di Sayash Kapoor e Arvind Narayan, consultabile a questo link ai-reporting-pitfalls.pdf (princeton.edu) L’articolo di The New York Times è pubblicato qui The Machines Are Learning, and So Are the Students - The New York Times (nytimes.com) Il post pubblicato da OpenAI (cui si fa riferimento nella puntata) è questo Planning for AGI and beyond (openai.com)
Il mix tra malaffare e sistemi avanzati di intelligenza artificiale (come bot conversazionali e deepfake) può essere esplosivo e arrivare persino ad attuare una manipolazione di massa automatizzata.Lo ha dimostrato un’inchiesta esclusiva della testata di Haaretz, anche se diversi addetti ai lavori avevano lanciato specifici allarmi nei mesi precedenti.Nuove sfide si prospettano per i sistemi democratici contemporanei: è la macchina, artificiale, del caos. FONTI Lo scienziato citato nell’introduzione di questa puntata è Wael AbdAlmageed About (isi.edu) L’inchiesta di Hareetz è consultabile a questo link Investigate the Israeli ‘Agents of Chaos’ - Haaretz Editorial - Haaretz.com Il documento nel quale sono contenuti gli allarmi di Eric Horvitz, Chief Science Officer di Microsoft, è questo https://arxiv.org/pdf/2209.01714.pdf L’allerta FBI sull’uso improprio di deepfake è pubblicata qui Internet Crime Complaint Center (IC3) | Deepfakes and Stolen PII Utilized to Apply for Remote Work Positions La denuncia sull’attività delle lobby tech presso i vertici delle istituzioni europee è contenuta in questo documento del Corporate Europe Observatory The Lobbying Ghost in the Machine_1.pdf (corporateeurope.org) L’indagine di TIME, che ha rivelato come OenAI sia riuscita a modificare alcuni articoli del testo provvisorio dell’AI Act, è pubblicata qui https://time.com/6288245/openai-eu-lobbying-ai-act/
Le tecnologie per il riconoscimento delle emozioni, basate su sistemi di intelligenza artificiale, stanno vivendo un periodo floridissimo, con un mercato stimato in crescita di quasi il 13%, passando dai 23,6 miliardi di dollari di quest'anno ai 43,3 miliardi di dollari entro il 2027.Eppure sono già suonati rumorosi campanelli d’allarme: usate in diversi ambiti professionali, queste tecnologie hanno iniziato a modificare sensibilmente il lavoro di moltissime persone.Dalla sanità alle scuole, passando per gli uffici e i servizi di polizia, nessun professionista sembra poter essere escluso.Secondo gli scienziati non fanno ciò che promettono. E allora, perché sono vendute e utilizzate? FONTIL’episodio della docu-serie di Bloomberg sul futuro è pubblicato qui Watch Emotional Recognition | The Future With Hannah Fry Episode 2 - Bloomberg Il mio libro è Immuni alla verità, edito da Guerini (2022). La stima sul mercato dei tool di lettura emotiva è tratta dal Report 2023 di Research and Markets Emotion Detection and Recognition (EDR) Market by Component (Software (Facial Expression Recognition, Speech & Voice Recognition) and Services), Application Area, End User, Vertical, and Region (North America, Europe, APAC, RoW) - Global Forecast to 2027 (researchandmarkets.com) Qui il dibattito pubblico istruito dalla FDC Federal Register :: Trade Regulation Rule on Commercial Surveillance and Data Security Il paper di Knowing Machine contente l’analisi dei tool di lettura emotiva già presenti sul mercato e la valutazione delle criticità Comments of the Knowing Machines Research Project to the Federal Trade Commission Regarding the Trade Regulation Rule on Commercial Surveillance and Data Security by Melodi Dincer, Kate Crawford :: SSRN
Fare previsioni sul futuro del lavoro ai tempi dell’intelligenza artificiale potrebbe essere fuorviante, nonostante stia crescendo la letteratura scientifica a supporto del dibattito.Di sicuro alcune verità sono scolpite nella roccia, come il fatto, per molti controintuitivo, che con la diffusione massiva di sistemi di IA, lavoreremo di più. È l’effetto lavatrice. FONTI Lo studio contente le prospettive sul lavoro, firmato in parte da ricercatori di OpenAI e citato all’inizio della puntata [2303.10130] GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models (arxiv.org)
Un sistema di Intelligenza Artificiale può essere titolare di brevetto?E se è usato dall’uomo per inventare un prodotto, in che modo deve essere ripartita la titolarità dei diritti tra i due?Mentre centinaia di milioni di utenti nel mondo hanno già sperimentato quanto possa essere facile, oltre che divertente, produrre contenuti testuali o grafici con l’IA (testi, slide, piani commerciali, immagini e grafiche) nel mondo del lavoro si stanno aprendo faglie profonde tra chi chiede piena legittimazione di questi software - quali normali strumenti da integrare nel processo produttivo - e chi rivendica a gran voce l’esclusività dell’intervento umano. FONTI La vicenda di DABUS The Artificial Inventor Project La regolamentazione di Hong Kong Cap. 528 Copyright Ordinance (elegislation.gov.hk),dell’India copyrightrules1957.pdf,dell’Irlanda copyrightrules1957.pdf,del Sud Africa WIPO Lex.Il dibattito pubblico istruito negli Stati Uniti per definire una nuova regolamentazione sui diritti d’autore Federal Register :: Request for Comments Regarding Artificial Intelligence and Inventorship
Siamo abituati a pensare che siano le grandi piattaforme della gig economy ad aver risucchiato in un buco nero il peggio dell’automatizzazione artificiale. Eppure la questione non riguarda più solo i rider, come insegna quello che sta accadendo ai medici negli Stati Uniti, con il piano Medicare Advantage. I nuovi diritti del lavoro passano dalla trasparenza algoritmica: senza, si moltiplicano i rischi sociali, economici e professionali. FONTI Lo studio della Professoressa Veena Dubal On Algorithmic Wage Discrimination by Veena Dubal :: SSRN Le proteste dei cittadini americani contro il Piano Medicare Advantage 250K NYC retirees must switch to new Medicare coverage after union leaders favor Aetna plan - Gothamist Il rapporto federale con cui si sono dimostrate le criticità del Piano Medicare Advantage Federal report finds Medicare Advantage plans often deny necessary care (cmadocs.org)
Il Quick-Commerce sta prendendo piede da tempo in Europa.È un modello di logistica solo in apparenza più sostenibile di quello basato sulla pura gig economy, eppure determina dinamiche devastanti per l’equilibrio urbanistico e sociale delle città.La città in 15 minuti è, infatti, il sogno di molti politici, ma un conto è se, a realizzarla, è il corpo sociale (distretti del commercio, Pubblica Amministrazione, cittadini).Un conto è se a orientarla è esclusivamente la logica del consumo. FONTI L’analisi di FEPS e UNI Global Union Dark-stores-Back-to-the-Dark-Ages.pdf (uni-europa.org) Il divieto di apertura di dark stores approvato a Barcellona Barcelona bans grocery delivery companies' 'dark stores' | Euronews L’evento organizzato dal Comune di Milano in collaborazione con Glovo e le dichiarazioni dell’Assessora al Commercio Alessia Cappello “Il delivery del futuro: verso la Città in 15 minuti”. Presentati nella nuova sede di Glovo, i risultati dell’indagine con Confcommercio Milano, Lodi, Monza e Brianza Il dibattito internazionale sulle criticità dei Dark Stores è iniziato da diversi anni What Instant Delivery Services Could Do to Cities - Bloomberg
Mentre ci lambicchiamo parlando di reddito di cittadinanza ci scordiamo che il mix tra tecnologia e business model emergenti ci ha battuti sul campo, dando vita a innovative forme di reddito, già sperimentate con successo in vari angoli del mondo.Possiamo di fatto considerarli redditi di cittadinanza digitalizzati. Sono infatti goduti dalla medesima platea: persone inoccupate e/o in cerca di una fonte più o meno stabile di sussistenza.Se il lavoro sarà sempre più digitalizzato, lo sarà anche il salario. Non senza rischi, soprattutto per le persone più fragili. FONTI Il documentario in cui è raccontata la storia di Nuova Ecija People in Philippines earn cryptocurrency playing NFT video game Axie Infinity (cnbc.com) Il progetto Microworks (legato alle criptovalute) di Save The Children riseandgrind11.pdf (autonomy.work) Gli allarmi degli attivisti sul criptocolonialismo in Africa Crypto Imperialism and Financial Inclusion in Africa » Bot Populi
Quanto più si diffonderanno sistemi di intelligenza artificiale generativa come quelli per la scrittura, tanto più saremo chiamati a dover dimostrare la genuinità di un lavoro.Nessuno ha chiesto di salire sul banco degli imputati ma questa è la prevista conseguenza dell’irresponsabilità di aziende che rilasciano sul mercato prodotti innovativi senza prima aver messo a punto un paracadute digitale, utile a difendersi dagli effetti negativi che l’uso di quei prodotti comporta.È quanto accaduto a Lucy, studentessa americana, che si è trovata a doversi difendere da se stessa. FONTI Il test condotto dalla redazione di The Washington Post e la storia di Lucy We tested Turnitin's ChatGPT-detector for teachers. It got some wrong. - The Washington Post I dati sull’adozione del detector di Turnitin nelle scuole Plagiarism checker: Turnitin launches new features to detect AI writing (studyinternational.com) La policy d’uso di Turnitin Understanding false positives within our AI writing detection capabilities | Turnitin
Migliore, più veloce e più economica. L’intelligenza artificiale applicata al campo della ricerca medica può fare miracoli. Rischia di provocare interferenze, invece, se usata senza controllo per la gestione della relazione medico-paziente. Mentre le aziende sanitarie e i Governi concedono sempre più spazio alla gestione automatizzata della salute, una riflessione arriva dal MIT, affidata a Technology Review: che fine farà la qualità delle cure? FONTI L’articolo di MIT Technology Review Artificial intelligence is infiltrating health care. We shouldn’t let it make all the decisions. | MIT Technology Review Il rischio di generare discriminazioni nell’erogazione delle cure se si utilizzano dataset costruiti con dati parziali Does “AI” stand for augmenting inequality in the era of covid-19 healthcare? | The BMJ L’importanza di un uso equilibrato dei sistemi automatizzati di diagnosi in campo medico Human–computer collaboration for skin cancer recognition | Nature Medicine Le critiche ai sistemi di Epic Systems Health record company pays hospitals that use its algorithms - The Verge
La concentrazione industriale del mercato dell’intelligenza artificiale, basato in massima parte su pochissime aziende, rischia di avere effetti dirompenti sulla società.Lo ha evidenziato anche uno studio del MIT, pubblicato su Science. Nel mondo la proprietà dei sistemi più avanzati di intelligenza artificiale è per il 96% nelle mani di società private (nel 2011 questa percentuale era dell’11%).In più, oltre il 70% di chi ha conseguito un titolo di studi afferente a questo settore tecnologico, preferisce andare a lavorare società private, più promettenti per la crescita professionale. La ricerca pubblica rischia, così, di essere dirottata sulla base di interessi prettamente commerciali. Mentre i Governi e le Pubbliche Amministrazioni perdono per strada competenze preziose, difficilmente recuperabili. FONTI Lo studio del MIT citato in questa puntata https://www.science.org/doi/10.1126/science.ade2420?url_ver=Z39.88-2003&rfr_id=ori:rid:crossref.org&rfr_dat=cr_pub%20%200pubmed L’articolo del Financial Times, che ha rilanciato lo studio Risk of ‘industrial capture’ looms over AI revolution | Financial Times (ft.com) Il comunicato della Casa Bianca con cui si annuncia lo stanziamento di 140 milioni di dollari per la realizzazione di sette centri di ricerca pubblici sull’intelligenza artificiale https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/
Più si inquina, più si paga. Vale per tutti, tranne che per le grandi aziende tech: producono sistemi di intelligenza artificiale energivori ma non sono tenute alla trasparenza sui dati consumo.Quali sono le criticità? La prima è che non si aiuta la formazione di una consapevolezza civica più matura sul reale impatto ambientale di app come ChatGPT.La seconda è l’ingiustizia sociale ed economica tra aziende e cittadini in termini di imposizione fiscale. FONTI Il comunicato stampa della Casa Bianca sui provvedimenti di tassazione dei miners The DAME Tax: Making Cryptominers Pay for Costs They Impose on Others | CEA | The White House La stima del consumo di energia relativo all’uso di sistemi conversazionali di intelligenza artificiale ChatGPT Uses a Lot of Water to Train Itself, Study Shows (businessinsider.com) I costi ambientali di addestramento di ChatGPT [1906.02243] Energy and Policy Considerations for Deep Learning in NLP (arxiv.org) La lotta di alcune comunità locali americane contro la proliferazione di datacenter A new front in the water wars: Thirsty, giant data centers - The Washington Poste il caso dell’OregonGoogle’s water use is soaring in The Dalles, records show, with two more data centers to come - oregonlive.com I numeri sul risparmio energetico dell’approccio semantico per la costruzione di sistemi di intelligenza artificiale The Green Glass Approach to Responsible AI - expert.ai | expert.ai
Il mercato dei lavoratori virtuali è in piena crescita, supportata anche dallo sviluppo di sistemi sempre più performanti di robo-calling: grazie agli algoritmi, sono in grado di simulare una conversazione tra esseri umani, rispondere alle nostre domande, gestire un colloquio in modo interamente automatizzato, eseguire il data entry (aggiornare i dati dopo la telefonata) e analizzare i risultati.La promessa commerciale di smaterializzare il lavoro, con la scusa di renderlo più efficiente, è troppo allettante per non essere considerata.Ma con quali conseguenze? FONTI I dati sull’indebitamento degli americani (ultimo quadrimestre 2022) Household debt, credit card balances and delinquencies all rose last quarter | CNN Business Le promesse commerciali di SmartAction Collections | SmartAction ,di Genesys Latitude - Debt Collection Software (genesys.com)e di TrueAccord Collect faster from happier people (trueaccord.com) La dichiarazione del CFPB CFPB and Federal Partners Confirm Automated Systems and Advanced Technology Not an Excuse for Lawbreaking Behavior | Consumer Financial Protection Bureau (consumerfinance.gov)
Con la diffusione di ChatGPT e la crescente attenzione della stampa verso il tema dell’intelligenza artificiale, si sono moltiplicate sui giornali le storie di lavoratori che affermano di aver hanno perso il lavoro per colpa di ChatGPT. Ma nessun lavoratore viene licenziato da un’intelligenza artificiale: viene, invece, licenziato da un manager che, consapevolmente, decide di automatizzare attività svolte in precedenza da esseri umani. Le aziende baratteranno una riduzione dei costi operativi con il possibile peggioramento della qualità dei servizi offerti? Se è un peggioramento nei limiti dell’accettabile, la risposta è sì. FONTI La piattaforma di DoNotPay DoNotPay - Your AI Consumer Champion
Abusi sessuali, cospirazioni contro gli Stati Uniti, conflitti d’interesse. Ci sono storie, legate alla vicenda OpenAI, non raccontate nel dibattito italiano sulla rocambolesca vicenda di Sam Altman, che continua a essere protagonista nelle cronache internazionali. È l’altra versione dei fatti, narrata in questa puntata. FONTILe vicende giudiziarie che hanno coinvolto Andrei Shleifer, Harvard e Larry Summers sono raccontate anche in questi articoli: https://www.thecrimson.com/article/2006/2/10/tawdry-shleifer-affair-stokes-faculty-anger/ https://mathbabe.org/2012/03/11/why-larry-summers-lost-the-presidency-of-harvard/ https://www.nbcnews.com/id/wbna9665505 I post contestati a Emmett Shearhttps://www.dailymail.co.uk/news/article-12773569/Emmett-Shear-social-media-sex-rape-fantasies-nazis.html La recente dichiarazione di Annie Altmanhttps://www.hackingbutlegal.com/p/statement-by-annie-altman-sam-altmans?s=03 L’articolo di The New York Timeshttps://www.nytimes.com/2023/11/22/technology/openai-board-capitalists.html
Il modo in cui cerchiamo e otteniamo risposte sui motori di ricerca potrebbe cambiare per sempre grazie al tocco magico dell’intelligenza artificiale. Insieme alla navigazione, però, a essere stravolto potrebbe essere molto altro: il lavoro dei giornalisti, i business model editoriali, la presenza online delle aziende e il loro canale di comunicazione con i clienti. In questa puntata racconto la rivoluzione di SGE (Search Generative Experience), l’esperienza di navigazione artificiale che ha in serbo Google. FONTI Il progetto SGE How Google is improving Search with Generative AI (blog.google) I risultati artificiali di ricerca sull’opera di Vermeer Google's Top Result for "Johannes Vermeer" Is an AI Knockoff (futurism.com)
Dipendenti più felici grazie all’intelligenza artificiale? Le aziende tech ci scommettono e puntano su innovazioni tecnologiche dalle promesse mirabolanti, come il monitoraggio automatizzato del benessere, della tranquillità mentale e della coesione sociale in ufficio. In questa puntata esploro le principali app destinate a questi usi e già sperimentate in alcuni Paesi del mondo. Negli Stati Uniti, sta diventando un trend. Vale la penda domandarsi se sia necessario doverci ‘disconnettere’ da noi stessi e passare dai dati come una via per scrutare nel cuore del nostro lavoro, trattato solo come una cassaforte da scardinare. FONTI L’offerta commerciale di Pulse Home - Pulse By Fierce ,Glue Glue – Build teams that stick togethere Gong Voice of Customer Software: Unlock Customer Reality - Gong Le testimonianze dei lavoratori raccontate dai lavoratori alla stampaAI tools aim to help with work but workers worry about surveillance - The Washington Post L’appello dell’americana FTC (Federal Trade Commission)FTC Warns About Misuses of Biometric Information and Harm to Consumers | Federal Trade Commission




