Taglio del nastro per GOOD AI, il laboratorio multidisciplinare dell’Università di Pisa per lo studio e lo sviluppo di sistemi di “buona” Intelligenza Artificiale, che soddisfino cioè non solo criteri di accuratezza ed efficienza, ma anche di trasparenza, sicurezza ed eticità.
Il laboratorio ha sede presso il Dipartimento di Ingegneria dell’Informazione dell’Ateneo pisano, e vede la partecipazione di docenti e ricercatori con diverse competenze, dalla filosofia alla linguistica computazionale fino alla giurisprudenza, all’informatica e all’ingegneria, non solo dell’Università di Pisa, ma anche di Scuola Normale Superiore e CNR.
“La diffusione rapidissima di sistemi di Intelligenza Artificiale sempre più potenti ha inevitabilmente un grande impatto economico, sociale e culturale - afferma Francesco Marcelloni, docente al Dipartimento di Ingegneria dell’Informazione dell’Università di Pisa e coordinatore del laboratorio - Basti pensare a sistemi come ChatGPT o DALL-E, che sono in grado di generare contenuti sotto forma di testi e immagini che hanno qualità spesso indistinguibili da quelli prodotti dagli umani. La recente evoluzione dei sistemi di Intelligenza Artificiale apre scenari applicativi fino a pochi anni fa impensabili, ma rende al tempo stesso urgente il tema della loro potenziale pericolosità, e diventa indispensabile poter distinguere una “buona IA”, a cui delegare con fiducia molti compiti anche in contesti critici, da una “cattiva IA”, che è invece imperativo controllare e limitare. Il laboratorio GOOD AI, che riunisce al suo interno competenze altamente interdisciplinari, si occuperà di valutare la conformità di sistemi di Intelligenza Artificiale, soprattutto quelli usati in contesti critici, come per esempio i sistemi di riconoscimento facciale, rispetto a criteri non solo di efficienza, ma anche di trasparenza, sicurezza ed eticità”.
La valutazione anche etica dei sistemi di Intelligenza Artificiale è oggetto della prima normativa europea sull’argomento, l’”AI Act”, che impone che i sistemi di AI immessi sul mercato abbiano superato la procedura di valutazione di impatto prevista dalla norma secondo un sistema a “scala di rischio”, che prevede la soddisfazione di requisiti di conformità sempre più elevati a seconda della criticità del contesto di applicazione.
“Questa normativa - prosegue Marcelloni - avrà naturalmente un effetto importante sul mercato stesso delle Tecnologie dell’Informazione, in quanto il successo di un’applicazione potrà dipendere proprio dal suo grado di conformità ai valori della “buona IA”. Per questo, oltre a occuparsi dello sviluppo di sistemi conformi, il laboratorio GOOD AI si occuperà anche di fornire consulenza a imprese e Pubbliche Amministrazioni relativamente al grado di adeguatezza delle loro applicazioni rispetto ai principi stabiliti dalla normativa europea.
“Il supporto da parte del mondo della ricerca a società e imprese per l’adeguamento delle proprie tecnologie alle nuove normative - conclude Marcelloni - è sempre più strategico su sistemi, come quelli di Intelligenza Artificiale, il cui sviluppo procede al momento a ritmo vertiginoso. Lo sviluppo anche industriale del nostro paese dipende in modo critico dalla capacità del mondo imprenditoriale di adeguarsi ai nuovi paradigmi di tipo etico, sociale e normativo dell’industria 5.0, che vogliono i processi produttivi plasmati sulle esigenze di persone e ambiente”.
Il laboratorio nasce dalle attività del progetto FAIR (https://fondazione-fair.it/), finanziato dal PNRR con l’obiettivo di sviluppare i sistemi di intelligenza artificiale del futuro.
Fanno parte del Consiglio Scientifico del GOOD AI Lab:
- Francesco Marcelloni (coordinatore) e Pietro Ducange, Dipartimento Ingegneria dell’Informazione
- Adriano Fabris e Veronica Neri, Dipartimento di Civiltà e Forme del Sapere
- Alessandro Lenci e Giovanna Marotta, Dipartimento di Filologia, Letteratura e Linguistica
- Dino Pedreschi e Anna Monreale, Dipartimento di Informatica
- Marco Conti, CNR
- Fosca Giannotti, Scuola Normale Superiore