Le troviamo non solo nei romanzi di fantascienza, ma anche nella realtà. Parliamo delle macchine molecolari, minuscoli dispositivi fatti da un insieme di molecole che fungono da ingranaggi, in grado di attivarsi in risposta a stimoli ottici, chimici o elettrici. Le macchine molecolari prodotte in laboratorio possono emulare quelle esistenti in natura (come le cellule del corpo umano) e possono essere impiegate, per esempio, nel trasporto e nel rilascio mirato di farmaci all’interno dell’organismo. Queste nanomacchine ingegnerizzate sono di fatto sistemi supramolecolari, il cui comportamento dipende non tanto da ciò che accade all’interno delle singole molecole, quanto soprattutto dalle loro interazioni. I princìpi su cui si basano queste minuscole macchine sono quelli della cosiddetta chimica supramolecolare che, sebbene abbia radici abbastanza lontane, oggi rappresenta un campo della ricerca in grande espansione. Ma come sono fatte le macchine molecolari e quali sono i princìpi della chimica supramolecolare su cui si basa il loro funzionamento? A che punto è la ricerca e qual è il confine tra scienza e fantascienza? Ne parliamo con Francesco Peri, professore di Chimica Organica e Farmaceutica al Dipartimento di Biotecnologie e Bioscienze dell'Università di Milano-Bicocca.
Per quale ragione ci serve una intelligenza artificiale generativa, addestrata interamente in italiano? Chi ci sta lavorando? E a che punto siamo? Sono ormai una decina, i progetti in corso dedicati allo sviluppo di Large Language Model (LLM). Tra i più noti, nati in lingua inglese, ci sono Chat GPT, Copilot, Llama Gemini. Gli LLM nativi italiani sono, invece, addestrati su ambiti più specifici, senza dover fare concorrenza ai suddetti giganti: si va da Dante, il primo in ordine cronologico, a magica Velvet, a Minerva, probabilmente uno dei progetti più ambiziosi, fino all'ultimo arrivato, chiamato Italia, che è stato annunciato il 6 giugno da iGenius, la prima e unica startup del paese ad aver superato il miliardo di euro di valutazione. E qui si apre un ragionamento sulla solita asfittica performance del paese su quasi tutte le sfide tecnologiche del nostro tempo. Di tutto questo, parliamo con Elisabetta Fersini, professoressa di Informatica all'Università degli Studi di Milano-Bicocca, che recentemente ha ospitato un convegno in cui si è fatto proprio il punto sullo sviluppo dei large Language Model madrelingua italiani.
Poco meno di sei anni è quanto ci separa dall'avvento del Computer Quantistico. Eppure, secondo un gruppo di esperti di crittografia, è necessario tenere alta l'attenzione sul rischio dell'avvento di questa tecnologia, in grado di scardinare l'attuale sistema di crittografia a chiave pubblica, che oggi è largamente utilizzato. Su questo sistema poggia la riservatezza delle conversazioni telefoniche, ma anche la sicurezza di alcune transazioni bancarie e molto altro. Ma quando un Computer Quantistico sufficientemente potente sarà disponibile, privacy e riservatezza dei dati potrebbero essere a rischio. Nessuno sa quando questo problema diventerà di immediata rilevanza, ma questa sorta di allerta da parte di esperti di crittografia ci aiuta a fissare un obiettivo e a trasmettere un senso di urgenza che in realtà non è affatto fuori luogo. Il perché di tutto questo ce lo spiega Andrea Visconti, professore di Crittografia presso l'Università degli Studi di Milano.
Nel 2019, SpaceX annunciò che per costruire Starship - il più ambizioso veicolo spaziale, in grado di mettere in orbita più di 150 tonnellate di carico alla volta - avrebbe utilizzato l'acciaio. L'annuncio sorprese gli addetti ai lavori, che davano per scontato l’utilizzo di leghe leggere di materiali compositi nella realizzazione di Starship. Le ragioni sono dovute al fatto che l'acciaio offre una serie di prestazioni meccaniche di resistenza, una minore conducibilità termica, una enorme facilità di sviluppo e un vantaggio in termini di costi. Ma quali sono le nuove frontiere di questo materiale “tradizionale”? Ne parliamo con l'aiuto di Carlo Mapelli, professore di Siderurgia al Politecnico di Milano e noto esperto di acciaio.
Basta una veloce ricerca sulla rete, per verificare che l'Intelligenza Artificiale ha già ideato (o quasi) diversi prodotti alimentari, come una miscela di caffè, un nuovo gusto di gelato, un nuovo piatto stellato. L’IA può gestire le comande, per ridurre gli scarti, per proporre nuovi accostamenti, per analizzare i ricettari, per seguire una dieta senza rinunciare al gusto. Nonostante non avverta il sapore o la consistenza dei cibi, l'Intelligenza Artificiale ha saputo sorprenderci, ricordandoci che la conoscenza e la comprensione umana, talvolta, potrebbero essere sopravvalutate. Ma per saperne di più, esploriamo il mondo dell’IA in cucina con l’aiuto di Davide Cassi, professore di fisica della materia all'Università di Parma, dove ha fondato tutto un ramo di ricerca di fisica gastronomica.
Immaginiamo di dover fare attraversare un fiume a un migliaio di persone. È una grande responsabilità, e per farlo chiediamo aiuto. La risposta che otteniamo dipende dal nostro interlocutore: un ingegnere, per esempio, cercherebbe di capire se sia meglio costruire un ponte oppure una zattera. Un avvocato suggerirebbe forse di far firmare a tutti una liberatoria. Capita, infatti, che la burocrazia finisca per elaborare delle procedure il cui principale effetto è mettere al riparo la stessa burocrazia da possibili magagne legali, anziché risolvere il problema di dover fare attraversare il fiume a queste persone. E il sospetto è che a volte anche la regolamentazione sulla privacy non sia priva di questo lato oscuro. Il caso più emblematico di difficoltà nell’utilizzo dei dati per il bene comune è forse quello della ricerca scientifica in ambito medico, su cui ci concentriamo in questo episodio. Ne parliamo con l’aiuto di Paolo Traverso, direttore della Pianificazione Strategica di Fondazione Bruno Kessler, di cui è anche direttore del Centro per le Tecnologie dell’Informazione e della Comunicazione, e con Paolo Guarda, professore di Diritto Privato Comparato alla Facoltà di Giurisprudenza dell'Università di Trento.
Synthia è un organismo di 381 geni, ottenuto sfoltendo il genoma del Mycoplasma Genitalium. Questo genoma sfoltito è stato sintetizzato da zero e inserito nel corpo cellulare di un altro microrganismo privato del nucleo. Synthia è, secondo il suo principale autore Craig Venter, il primo organismo sintetico mai creato. Venter fu infatti il primo scienziato che riuscì a completare il sequenziamento di un intero genoma umano. Ma, mentre un decennio fa sembrava un’impresa titanica, oggi è all’ordine del giorno. Tuttavia, l'annuncio di Synthia non ha ottenuto lo stesso livello di approvazione da parte della comunità scientifica. La biologia sintetica è però una realtà di ricerca molto diversificata e, in questo episodio, ne parliamo con Antonino Cattaneo, professore di fisiologia alla Scuola Normale Superiore di Pisa, dove dal 2010 insegna proprio biologia sintetica.
L’edizione di quest'anno del Festival Galileo di Padova ha dedicato diversi appuntamenti all'impatto dell'Intelligenza Artificiale su vari settori. In questo episodio, cogliamo quindi l’occasione per fare il punto su come stia entrando l’Intelligenza Artificiale nel mondo della medicina e della sanità. Nel corso degli anni, è stato raccontato più volte di come i sistemi di visione artificiale possano essere utilizzati per analizzare immagini biomediche, radiografie, risonanze magnetiche. Ma questo è solo un esempio dei tanti, perché c'è molto altro. Ne parliamo con Paolo Traverso, Direttore del Centro per le Tecnologie dell'Informazione e della Comunicazione della Fondazione Bruno Kessler.
Le super-grids, o mega-grids, ovvero super-reti elettriche capaci di trasportare grandi flussi di energia su lunghissime distanze, da un estremo all’altro di un continente o da un continente all’altro, nascono concettualmente negli anni ’50 e vedono realizzate alcune opere di frontiera già a partire dagli anni ’60. Oggi le super reti sono considerate una tecnologia chiave per la transizione energetica perché potrebbero essere utilizzate per compensare le fluttuazioni di energia prodotta localmente dalle fonti rinnovabili, competendo così con tecnologie come l’idrogeno e il nucleare per dare soluzione al principale problema tecnologico che affligge la transizione verso le rinnovabili: la loro discontinuità. Ne parliamo con Lucio Rossi, professore al Dipartimento di Fisica dell'Università degli Studi di Milano e associato all'INFN, e con Maurizio Delfanti, professore di Sistemi Energetici al Politecnico di Milano.
In una delle scorse puntate della trasmissione radiofonica abbiamo raccontato di un nuovo tipo di barriera a protezione della costa, inventato al Massachusetts Institute of Technology (MIT), che permette di creare dei frangiflutti sommersi in grado di smorzare le onde: una barriera la cui fabbricazione richiede un decimo dei materiali impiegati nei sistemi tradizionali. In questa puntata di Smart City XL cercheremo di raccontare le principali opzioni per proteggere le coste dall'erosione e dall'innalzamento del livello dei mari, chiedendoci fino a che punto opere di questo tipo possano rappresentare una soluzione generalizzata. Di tutto questo parliamo con Gianmaria Sannino, responsabile del laboratorio di modellistica climatica e impatti dell'ENEA, e con Filippo D'Ascola, coordinatore del gruppo di lavoro sul monitoraggio dell'assetto costiero dell'Ispra.
Degli 11 kg di tessuti pro capite che buttiamo ogni anno in Italia, l’80-90% finisce in discarica e nel resto del mondo non va meglio. Perché è così difficile riciclare i tessuti? Quali sono le strategie possibili e cosa si sta facendo per dar loro corpo? Ne parliamo con Mauro Carraro, docente di Chimica Organica del Dipartimento di Chimica dell'Università di Padova, e con Claudio Brugnoni, responsabile dell’area Ricerca e innovazione del Centrocot - il Centro Tessile Cotoniero e Abbigliamento.
Ogni anno nel mondo si producono circa 4,4 miliardi di tonnellate di cemento, che si traducono in circa 14 miliardi di metri cubi di calcestruzzo. Questi numeri ci dicono che il cemento è il materiale più usato dall'uomo dopo l'acqua, ma sfortunatamente la sua produzione emette importanti quantitativi di CO2. In media, la produzione di una tonnellata di cemento comporta più o meno la generazione di altrettanta CO2: metà di questa è riconducibile ai combustibili usati per il processo di combustione nel forno; l'altra metà deriva dalle reazioni chimiche. Insomma, anche sostituendo i combustibili fossili con combustibili carbon neutral, metà del problema resta nel piatto e non può essere trascurato, se lo scopo è quello di decarbonizzare l'economia. Con l’aiuto di Maddalena Carsana, Professoressa Associata di Materiali da Costruzione del Politecnico di Milano, e di Nicola Zampella, Direttore Generale di Federbeton, parliamo quindi dell’ambizioso obiettivo di portare l’industria del cemento verso la neutralità carbonica.
Si chiamano "Reversible Fuel Cell", celle a combustibile reversibili, dette anche rigenerative. Sono dispositivi in grado sia di produrre idrogeno dall’acqua, alimentate da energia elettrica, e sia, invertendo il processo, di produrre energia elettrica consumando idrogeno. Non sono una novità assoluta ma appare sempre più chiaro che su questi dispositivi si punta per dare un senso economico alla cosiddetta economia dell’idrogeno. Ne parliamo con Massimo Viviani, Dirigente ricerca CNR ICMATE, Istituto di chimica della materia condensata e di tecnologie per l’energia.
La fusione nucleare rappresenta da decenni il Santo Graal dell’energia. E un po’ come il santo Graal tutti lo cercano ma nessuno, finora, ha portato la ricerca a termine.Negli ultimi anni però sembra tirare un vento diverso.Si avvicina l’accensione di ITER, il mega progetto di ricerca internazionale su cui la comunità internazionale riversa da anni la speranza di riuscire a dimostrare che è possibile sostenere la fusione nucleare in modo continuo producendo sufficiente energia in eccesso. E poi c’è un fenomeno nuovo: l’ingresso nel settore della fusione di molte imprese private con propri progetti e tempi di sviluppo più aggressivi. Facciamo il punto della situazione con Ambrogio Fasoli da molti anni a capo del Swiss Plasma Center, all’EPLF e da gennaio nuovo Programme Manager (CEO) di Eurofusion.
La scorsa settimana, a Milano, si è svolto l'ottava edizione di World Remanufacturing Summit, in cui il mondo della ricerca dell'industria attiva nel settore della rifabbricazione si è incontrata per fare il punto su una delle prospettive di trasformazione del settore della manifattura, che offre enormi vantaggi sia per l'ambiente sia per la competitività delle imprese.Il remanufacturing, o rifabbricazione, è un approccio all'economia circolare che va oltre il riciclo dei materiali, per abbracciare quello delle funzioni. Con questo approccio, i risparmi di energia e materie prime, rispetto al semplice riciclo, possono facilmente superare il 90%. Benché ancora oggi non siano molte le industrie che lavorano su questo paradigma, il movimento sta crescendo grazie allo sviluppo di robotica, Internet of Things e Intelligenza Artificiale, che stanno ampliando le capacità di recuperare componenti appartenenti ai settori più disparati. Di tutto questo, parliamo con alcuni dei protagonisti del remanufacturing: Nabil Nasr, Fondatore e CEO del REMADE Institute negli Stati Uniti, Gìsela Lanza, Professoressa di Production Technology e Direttrice del WBK Institute of Production Science, presso il Karlsruhe Institute of Technology in Germania, e Tullio Tolio, Professore di Manufacturing and Production Systems al Politecnico di Milano.
L'Italia sta per assistere alla nascita di 52 Valli dell'idrogeno. Parliamo di luoghi in cui si tenterà di dare il via a delle filiere dell'idrogeno verde su scala locale. Si tratta di progetti che uniscono non solo la produzione di energia rinnovabile e la generazione di idrogeno, ma anche lo stoccaggio, il trasporto e l'utilizzo, dal settore energetico a quello della chimica ai trasporti. Queste Hydrogen Valley rappresentano quindi un tentativo di esplorare un po’ tutto lo spettro delle possibili applicazioni dell'idrogeno verde, quello prodotto dall'acqua per mezzo del processo di elettrolisi, che in linea di principio dovrebbe essere sostenuta solo da energia rinnovabile. Facciamo un quadro della situazione con l’aiuto di Dina Lanzi, Vicepresidente di H2IT, l'Associazione Italiana per l’Idrogeno e Celle a Combustibile che nasce per promuovere la ricerca, la produzione e anche l'utilizzazione dell’idrogeno.
Secondo l’IAE, International Energy Agency, complice anche il cambiamento climatico e in particolare l’aumento delle ondate di calore, il condizionamento è oggi la voce del bilancio energetico degli edifici che sta crescendo più rapidamente, e sarebbe destinata a triplicare da qui al 2050 con un incremento di 4000TWh, cioè più o meno l’intero fabbisogno energetico di oggi degli Stati Uniti. Esattamente come in altri ambiti tecnologici c’è quindi bisogno di un salto tecnologico per uscire da un circolo vizioso e disaccoppiare crescita ed emissioni di CO2. Delle nuove tecnologie per il condizionamento parliamo con Mario Motta - professore di Fisica Tecnica Ambientale presso il Dipartimento di Energia del Politecnico di Milano e responsabile del Renewable heating and Cooling LAB (RELAB) - e con Silvia Lasala, professoressa all’Università della Lorena e ricercatrice del Laboratoire Réactions et Génie des Procédés.
Dal sistema per alimentare a idrogeno le barche a vela al drone che ispeziona i grandi impianti fotovoltaici alla ricerca di difetti e anomalie. Dalla piattaforma no-profit per confrontare le auto elettriche alle prime batterie al sodio fino a un nuovo sistema fotovoltaico integrato architettonicamente e adatto ai centri storici. Di una ventina, sono cinque le start-up che abbiamo incontrato per voi, all’interno dell’Innovation District della fiera KEY sulla transizione ecologica.
La specialità dei sistemi di Intelligenza Artificiale è quella di fare previsioni statistiche: mostrate a un sistema di visione artificiale una foto di un gatto e lui vi dirà che ci vede un gatto al 99%. Grazie all'analisi di montagne di dati indigeribili per un essere umano, molti di questi sistemi hanno la possibilità di fare predizioni sul futuro: una delle dimensioni più rivoluzionarie dell'avvento dell'Intelligenza Artificiale, che si cerca di sfruttare anche nel campo della sicurezza e della polizia. Si parla, infatti, di polizia predittiva, che utilizza metodologie piuttosto efficaci ma che celano anche dei lati oscuri. Di tutto questo ne parliamo con due ospiti che ci hanno accompagnato anche nella precedente puntata sul tema del rapporto tra lotta al crimine e Intelligenza Artificiale: Marco Dugato, docente di Metodi e Tecniche della Ricerca Criminologica all'Università Cattolica del Sacro Cuore e ricercatore di Transcrime, e Andrea Di Nicola, professore di Criminologia e direttore del Centro di Scienze della Sicurezza e della Criminalità dell'Università di Trento.
Forze di polizia di tutto il mondo usano in modo sempre più esteso l’Intelligenza Artificiale e l’analisi di grandi masse di dati, per svolgere le proprie attività anticrimine: parliamo delle attività connesse sia a fatti che si sono già verificati, sia in relazione alla prevenzione di possibili reati futuri. In questa e nella prossima puntata di Smart City XL, parliamo del ruolo che le tecnologie di IA e di data-mining stanno assumendo nella lotta al crimine. In particolare, parleremo di “crimine classico”, e non di cybercrime, sebbene oggi non si possa escludere una dimensione digitale anche in questo ambito. Di IA e lotta al crimine parliamo con Marco Dugato, docente di Metodi e tecniche della ricerca criminologica all'Università Cattolica del Sacro Cuore e ricercatore di TransCrime, e con Andrea Di Nicola, professore di criminologia a Trento e Direttore del Centro di Scienze della Sicurezza e della Criminalità dell’Università di Trento e di Verona. Il tema è vastissimo, perciò abbiamo deciso di dividerlo in due, anche se la demarcazione non è così netta: polizia artificiale (di cui parliamo oggi) e polizia predittiva (di cui parleremo nel prossimo episodio).