Il futuro visto da Annalisa Barla, la prof che insegna machine learning - CorriereQuotidiano.it - Il giornale delle Buone Notizie

2021-12-28 07:27:43 By : Ms. Lois Liu

Inizia oggi un ciclo di 5 interviste ad altrettante personalità legate alla tecnologia, alla scienza e al progresso: ci aiuteranno a capire come sarà il prossimo anno, che cosa succederà nel prossimo decennio e qual è il futuro che ci aspetta

“Facevo machine learning prima che fare machine learning fosse cool”: se si dovesse riassumere Annalisa Barla in una frase, la frase potrebbe essere questa. Perché questo è insieme quello che è e quello che fa: professore associato di Informatica del Dibris e affiliata al Machine Learning Genoa Center dell’Università di Genova e , non solo insegna da una dozzina d’anni i segreti dell’intelligenza artificiale ma anche li mette in pratica. Un paio d’anni fa, insieme con il collega Andrea Vian e un gruppo di giovani collaboratori, ha ridisegnato tutti i siti che fanno capo all’ateneo genovese usando IA e big data per la gestione dei contenuti, che è una cosa che in Italia non era mai stata fatta prima e di cui nel mondo ci sono pochissimi esempi.

Questa rivoluzione è stata messa un po’ in stand-by, ma Barla non ha intenzione di mollare sulle applicazioni pratiche dell’intelligenza artificiale e del machine learning per l’analisi del testo e la selezione delle informazioni, perché “sono strumenti di cui in futuro non potremo fare a meno”, come ci ha detto durante una lunga chiacchierata. Perché non ne potremo fare a meno? “Perché viviamo in un mondo complesso e che sta diventando sempre più complesso, anche a causa nostra, e le IA sono e saranno fondamentali per capirlo. Per capire come sta cambiando, dove sta andando, per comprendere meglio la scienza, la ricerca, la medicina”.

Le trasformazioni che stiamo vivendo, il futuro prossimo Secondo Barla, le macchine intelligenti potranno “aiutare chi governa a prendere decisioni migliori e più efficaci su una grande varietà di aspetti (sanità, lavoro, economia, clima e così via, ndr), cosa che ormai non si può più fare senza basarsi sui dati. E con i dati le IA sono bravissime: possono leggerli, immagazzinarli, elaborarli, fare previsioni e stime”. Possono permetterci di smetterla di prendere decisioni di pancia: “I computer non si fanno condizionare dalle opinioni che hanno sulla realtà, e potenzialmente ragionano e basta”, ci ha detto.

Però c’è un però (ce ne sono due, ma il secondo lo vediamo più sotto): “È fondamentale, e lo sarà sempre di più nei prossimi anni, un miglioramento o una ridefinizione delle competenze dei lavoratori – ci ha spiegato Barla usando i termini upskill e reskill – Le persone dovranno imparare a usare questi strumenti, a fare altro e reinventarsi, e scuole e università dovranno puntare molto di più sull’alfabetizzazione digitale e sulla creazione di competenze che prima non c’erano”. Perché se i robot e le macchine intelligenti non ci ruberanno il lavoro (forse), sicuramente ci spingeranno a cambiarlo: “Non si può più pensare, come facevano i nostri genitori, di fare la stessa cosa per 20-30 anni – ci ha detto ancora Barla – E chi non si evolverà sarà travolto, come Blockbuster è stata travolta dall’arrivo di Netflix, come le librerie tradizionali si sono dovute adeguare all’esistenza di Amazon”. Che sembra una cosa brutta, ma è una cosa buona: “Questo permetterà in qualche modo di ridurre il divario generazionale, perché facendosi aiutare dalle IA, dalla loro capacità di leggere una mammografia o lo scan di una retina, dalla loro abilità di analizzare i dati e fare una diagnosi, un medico giovane e con poca esperienza saprà prendere decisioni buone, sfruttando sistemi intelligenti costruiti con le competenze dei colleghi più esperti”.

Non è tutto: restando nel campo della medicina e della scienza, le intelligenze artificiali potranno aiutare lo studio della struttura e del comportamento delle proteine e anche permetterci di affrontare malattie che sembravano inaffrontabili, come quelle neurodegenerative o il cancro. Potranno velocizzare tutto, come già abbiamo visto nello sviluppo dei vaccini anti-Covid: “Semplificando, nel metodo scientifico si procede per ipotesi, esperimenti che possano confermarle o smentirle, risultati e poi si riparte – ci ha ricordato la professoressa Barla – Grazie alla loro capacità di fare previsioni, stime e calcoli, le IA potranno dare ai ricercatori un’idea di come un test potrebbe concludersi senza bisogno di effettuarlo, magari facendo scartare una strada che non porterebbe da nessuna parte”. Facendo risparmiare tempo, insomma.

di Andrea Nepori ,  Bruno Ruffilli 24 Novembre 2021

Che cosa ci aspetta dopo il 2030, il futuro futuro Guardando oltre, si può immaginare che cosa potranno fare le intelligenze artificiali in un futuro più lontano, oltre il prossimo decennio, anche se non è facile, perché “le loro capacità aumentano a un ritmo esponenziale e non sempre prevedibile”. Non sappiamo se e quando verrà sviluppata la cosiddetta IA forte (Strong AI, Ibm la spiega qui), che sappia ragionare e risolvere problemi in autonomia, ma sappiamo che per farlo è necessario che le IA capiscano il linguaggio degli umani meglio di come fanno ora (che è già tantissimo) e soprattutto che comprendano le nostre sfumature: “Se riusciranno a capire ironia e sarcasmo, pregiudizio e razzismo, potranno gestire da sole la moderazione dei commenti e dei post sui social network”, andando oltre il ruolo di assistenti che hanno ora. Restando a Internet e alla nostra attività di navigazione, “potranno essere usate per monitorare quello che facciamo, imparando quali sono gli articoli su cui clicchiamo di più, le notizie che leggiamo, le foto che ci piacciono, gli argomenti che ci interessano, così da ritagliare sulle nostre esigenze le homepage dei siti cui accediamo più spesso”. Pagine personalizzate e diverse per ognuno, come si era provato a fare alla fine degli anni Novanta, però realizzate in automatico, invece che a mano e per blocchi come si faceva allora.

Più importante, secondo Barla: “Se ci sarà un’altra pandemia (e ci sarà, a giudicare dalla storia del mondo nell’ultimo ventennio, ndr), la affronteremo meglio, saremo più preparati nella gestione e nell’analisi dei dati e soprattutto nel comunicare le informazioni affidabili e attendibili, perché le IA aiuteranno giornalisti e governanti nell’analisi dei testi”. Perché? Di nuovo, “perché queste macchine possono leggere pagine e pagine di documenti scientifici, fare ricerche per parole chiave, estrarre i concetti fondamentali e togliere il superfluo, dando a noi umani la possibilità di concentrarci su quello che conta veramente”. Dandoci la possibilità di capire, cioè.

Una cosa buona: l’aiuto contro il cambiamento climatico Restando al futuro più lontano, è molto probabile che lo sviluppo delle intelligenze artificiali, la nostra migliore gestione dei dati e le crescenti capacità di calcolo ed elaborazione dei computer faranno sì che le IA possano aiutarci meglio anche a contrastare il climate change. Difficilmente prima del 2030, purtroppo: “Per le sfide che abbiamo davanti – ci ha detto ancora Barla – le IA sono e saranno fondamentali e non potremo farne a meno per l’elaborazione dei dati, per la creazione di modelli meteorologici che siano affidabili, anche per fare previsioni (pure delle inondazioni, cosa che Google in qualche modo fa già, ndr)”. Di più: “Le IA permettono anche di avere comunque risultati pur avendo a disposizione meno dati di quelli che sarebbero necessari, perché sono in grado di colmare eventuali mancanze grazie alla loro capacità di fare stime”. Un esempio è quello delle serie storiche sulle precipitazioni o sulla siccità, con le macchine in grado di calcolare i dati di un anno di cui non ci sono dati, basandosi sulle informazioni relative agli anni successivi o precedenti.

youtube: il dispenser di sapone che non riconosce gli afroamericani

Questione etica e umani inutili: i lati oscuri delle IA Sin qui la parte bella, ma il mondo delle intelligenze artificiali non è solo rose e fiori. E quando alla professoressa Barla abbiamo chiesto di raccontarci qualcosa che la spaventa e qual è il secondo dei “però” di cui si diceva più sopra, non si è tirata indietro: “Il rischio più grande è di avere IA che siano condizionate, di parte, consapevolmente o inconsapevolmente schierate (il termine inglese è biased, ndr), algoritmi che non riflettano la pluralità del mondo e delle comunità su cui poi verranno applicati”. In che senso? “Nel senso che a oggi la maggior parte delle persone che programmano queste macchine sono maschi, bianchi, etero e questo porta a squilibri anche gravi nelle capacità delle IA di capire il mondo che le circonda. Rischiando di renderle inutili, se non addirittura pericolose”.

Sono i temi su cui le ricercatrici Timnit Gebru e Margaret Mitchell si sono scontrate con i vertici di Google e hanno perso il loro lavoro come responsabili del team Ethic AI di Mountain View: “Per quanto riguarda il linguaggio, il problema è che stiamo allenando le IA con quello che trovano in Rete, solo che quello che trovano in Rete è quello che abbiamo messo noi umani”. E se abbiamo messo razzismo, maschilismo, misoginia, complottismo o negazionismo, ci ritroveremo con IA che parlano in modo razzista, maschilista, misogino, complottista o negazionista. O che magari ragionano in modo razzista, e se usate per applicazioni legate al riconoscimento facciale e al contrasto della criminalità finiranno per ritenere alcuni gruppi di persone, con alcuni tratti somatici o appartenenti ad alcune etnie, più pericolosi o propensi al crimine.

Non è solo questo: “Ci sono i software di image recognition che identificano come sposi le coppie uomo-donna con abito scuro e vestito bianco e però non sanno come catalogare una coppia africana vestita con abiti tradizionali per il loro matrimonio – ci ha detto Barla usando un esempio che sottopone spesso agli studenti – c’è il dispenser automatico di sapone che non riconosce la pelle degli afroamericani (video qui sopra, ndr); c’è Facebook che nell’Year in Review del 2014 ricordò a una persona che il suo post di maggior successo era stato quello relativo alla morte della figlia, causandogli ulteriore dolore”. Sono tutti esempi di software o macchine pensate e progettate male, senza tenere conto delle diversità di cultura, di pelle, di sentimenti. E senza capire che non bastano solo i numeri (di reaction, commenti e condivisioni) per valutare la bontà di un post sui social network.

Un altro rischio è quello legato alla Strong AI: “Dobbiamo capire perché vogliamo svilupparla, qual è lo scopo, a che cosa ci serve e come ci può aiutare (che è una cosa che ci aveva detto pure Giorgio Metta, attuale direttore scientifico dell’Iit), e non perseguirla solo per scopi economici, che potrebbero ritorcersi contro di noi”. In che modo? “Il rischio è quello di rendere parte degli umani irrilevanti e inutili, di ampliare ancora la forbice fra chi serve e chi non serve nel mondo del lavoro – ci ha spiegato Barla – La forza fisica già conta poco, e conterà sempre di meno, perché ci sono i robot. Ma che succederebbe se in futuro anche la capacità cognitiva diventasse meno rilevante, perché le IA sapranno pensare come noi o anche meglio di noi? Dal punto di vista professionale, la nostra specie non è che abbia molto altro da vendere”. E quindi? E quindi sarà necessario puntare su “sistemi ibridi, in cui il supporto delle intelligenze artificiali ai processi umani si fondi sull’incremento e il completamento delle capacità del lavoratore, gli garantisca controllo sul processo e sull’esito finale e anche gli fornisca un chiaro quadro dei vantaggi ottenuti”. È per questo che il ruolo degli Stati e dei governi resterà importante, per fare leggi che tengano in equilibrio tutte le esigenze: quelle del progresso, quelle delle aziende e quelle dei lavoratori e consumatori. L’Europa sta facendo molto, dal punto di vista della tutela della privacy e con ipotesi come quelle di tassare i robot e gli algoritmi, ma “è comunque una cosa che può suscitare qualche legittimo timore”.

Una cosa che invece non spaventa la professoressa Barla è essere donna in un mondo prevalentemente maschile: “Non mi piace che le donne debbano diventare come gli uomini per farsi rispettare ed essere prese in considerazione – ci ha confessato dopo qualche secondo di riflessione – Che debbano comportarsi come i colleghi maschi, perché se si infuriano e alzano la voce, allora sono isteriche, mentre se sono sempre garbate e non se la prendono mai, allora sono carine e gentili ma poco apprezzate. E questo non va bene”. La speranza è nelle nuove generazioni, quella di adesso e soprattutto quella che verrà: “L’alfabetizzazione digitale di cui si diceva prima deve iniziare da subito, dall’infanzia, dalle elementari – ci ha detto Barla con un sorriso – Le bambine devono capire che non devono avere paura della matematica e che il loro ruolo sarà fondamentale per sviluppare IA che davvero siano rappresentative della società in cui saranno poi utilizzate”. Insomma, dobbiamo “evitare la polarizzazione delle possibilità e portare nel campo del machine learning quante più voci diverse possibile”, perché “queste competenze sono troppo importanti perché restino appannaggio esclusivo del solito, piccolo gruppo di persone”.

Corriere Quotidiano –  Giornale nazionale di informazione online | Testata giornalistica n° 53 del 4/3/2015 registrata presso il Tribunale di Milano – N. Iscrizione al ROC: 25434 | Direzione e Redazione – info@corrierequotidiano.it | Tutti i diritti sono riservati | Concessionaria per la Pubblicità Pubbli1 – Direzione Pubblicità: Pubbli1  – Informativa Privacy – Informativa Cookies | Testata giornalistica iscritta al Registro Trasparenza del MISE e al Registro Europeo della Trasparenza al n. 512674425996-30 - Developed by Net pc solution - Adriano Giallongo

Corriere Quotidiano –  Giornale nazionale di informazione online | Testata giornalistica n° 53 del 4/3/2015 registrata presso il Tribunale di Milano – N. Iscrizione al ROC: 25434 | Direzione e Redazione – info@corrierequotidiano.it | Tutti i diritti sono riservati | Concessionaria per la Pubblicità Pubbli1 – Direzione Pubblicità: Pubbli1  – Informativa Privacy – Informativa Cookies | Testata giornalistica iscritta al Registro Trasparenza del MISE e al Registro Europeo della Trasparenza al n. 512674425996-30 - Developed by Net pc solution - Adriano Giallongo