In questo Speakers’ corner intervistiamo Chiara Gallese, ricercatrice e avvocata esperta in diritto dell’intelligenza artificiale ed etica dei dati. Attualmente Marie Sklodowska‑Curie Fellow, Gallese si concentra sulle sfide legali e regolatorie poste dall’AI, con un particolare focus sul settore sanitario. Con una formazione che unisce diritto internazionale e studi sull’Asia, ha sviluppato una prospettiva unica sull’AI, lavorando a progetti innovativi come RAISE, che applica l’AI Act europeo a dispositivi ad alto rischio, e DataCom, un’iniziativa per l’uso etico dei dati sanitari.
Chiara Gallese incarna la figura del ricercatore interdisciplinare capace di unire diritto, etica e scienze tecniche dell’intelligenza artificiale.
Oggi esploreremo quanto siano essenziali una solida alfabetizzazione tecnica, la costruzione di un linguaggio comune e il mantenimento di una mente aperta per la collaborazione tra discipline.
Lei nasce come giurista, ma ha trascorso gran parte della sua carriera in dipartimenti di ingegneria, matematica, informatica. In concreto, cosa significa fare ricerca “interdisciplinare” tra diritto, etica e IA? E che consigli darebbe a chi oggi prova a muoversi fra filosofia, scienze sociali e discipline tecniche?
Premetto che la mia esperienza professionale si è quasi sempre svolta in contesti altamente tecnici, come ingegneria, matematica e informatica. Questo ha fatto una grande differenza nella mia carriera. Essere circondata da persone che “creano” tecnologia mi ha costretto, in senso positivo, a sviluppare competenze tecniche di base e, soprattutto, a condividere un linguaggio comune.
In ambiti più umanistici o nelle scienze sociali, le figure tecniche spesso sono assenti o operano separatamente, e le collaborazioni tendono a restare più “distanziate”: ognuno nel proprio dipartimento, nel proprio edificio, con contatti meno frequenti. La pandemia di Covid-19 ha ulteriormente ridotto gli incontri in presenza. Al contrario, lavorare fianco a fianco, su progetti concreti, facilita in modo significativo l’integrazione tra discipline.
Dal punto di vista scientifico, il primo aspetto da considerare è la definizione condivisa di concetti e termini fondamentali: che cosa intendiamo, per esempio, per ciclo di vita del modello, per dato sensibile, per rischio, per equità… Se il vocabolario non viene allineato fin dall’inizio, è molto facile incorrere in fraintendimenti. Il secondo aspetto cruciale riguarda l’apertura mentale, che rappresenta, a mio avviso, la parte più difficile del processo. Giuristi, ingegneri, informatici e professionisti di altre discipline sono spesso abituati a metodologie ben definite e settoriali. Non tutte le mie collaborazioni hanno avuto successo, proprio perché mancava un’apertura reciproca riguardo alle metodologie adottate.
Con i giovani, mi sentirei di condividere tre semplici ma fondamentali indicazioni::
- Cercate contesti interdisciplinari (laboratori, progetti, dottorati) in cui ingegneri, informatici, medici e giuristi possano davvero collaborare insieme nella stessa stanza.
- Lavorate sul linguaggio: impegnatevi per comprendere come gli altri definiscono e affrontano i problemi.
- Siate pronti a mettere in discussione il vostro metodo: l’interdisciplinarità non consiste nell’aggiungere un paragrafo “etico” o “giuridico” a un progetto tecnico, ma nel negoziare congiuntamente obiettivi, tempi e priorità.
Può raccontarci alcuni esempi concreti in cui questa integrazione tra competenze – dall’AI Act alla medicina – ha funzionato davvero, migliorando la qualità della ricerca?
Uno dei progetti più significativi del mio percorso professionale è stato quello avviato con NXP Semiconductors presso l’Università di Eindhoven, a partire dal 2021, subito dopo la pubblicazione della prima bozza dell’AI Act. In questo ambito, abbiamo condotto un progetto pilota sull’applicazione pratica dell’articolo 10 relativo alla governance dei dati.
Abbiamo costituito un team multidisciplinare composto da esperti dell’azienda, professori di informatica e ingegneria, dottorandi, studenti, nonché specialisti di etica, diritto e privacy. Insieme, abbiamo esaminato l’intero ciclo di sviluppo delle reti neurali, passo dopo passo, interrogandoci su come applicare concretamente i requisiti normativi in ogni fase del processo. Ci siamo chiesti: quali dati raccogliamo, come li documentiamo e chi è responsabile delle decisioni in ogni fase?
Ci incontravamo regolarmente, organizzando riunioni plenarie per fare progressi nella ricerca e momenti formativi incrociati (per esempio, io formavo i tecnici sulla protezione dei dati, mentre ricevevamo formazione sulle questioni etiche e di data management). Da queste discussioni è emersa una vera e propria roadmap condivisa per l’applicazione dell’AI Act, che all’epoca era ancora poco compreso come strumento operativo.
Un altro ambito di grande rilevanza nel mio percorso riguarda il settore medico. Nell’ambito del mio progetto Marie Curie, ho collaborato con l’Istituto Catalano di Oncologia, lavorando a stretto contatto con medici e informatici, in sinergia con un team di esperti in cybersecurity dell’Università Politecnica di Catalogna. La sfida principale è stata progettare il riutilizzo dei dati medici in modo etico e funzionale, confrontandomi con professionisti che vivono quotidianamente le implicazioni dell’intelligenza artificiale nella cura dei pazienti, affrontando al contempo delicate questioni legate all’etica e alla privacy.
Questo tipo di contesto, in cui medici, data scientist e giuristi collaborano su dati reali, rappresenta una delle forme più tangibili di interdisciplinarità.
Quando le collaborazioni si allargano – dagli ospedali ai tribunali, passando per management e scienze sociali – cosa rende davvero difficile lavorare insieme? E che ruolo hanno le cosiddette soft skill?
Ho preso parte a progetti molto diversi tra loro, ma caratterizzati da un elemento comune: la complessità dei team coinvolti. Un esempio significativo è il progetto Saturday, svolto presso l’Università LIUC. In tale ambito, abbiamo analizzato le segnalazioni dei pazienti durante le ondate pandemiche di Covid-19: non si trattava di cause legali formali, ma di lamentele che, se non adeguatamente gestite, avrebbero potuto evolversi in contenziosi. Abbiamo incrociato i dati relativi ai reclami con l’andamento delle ondate e la disponibilità di posti letto, utilizzando serie temporali per valutare se la pressione sui posti letto potesse tradursi in potenziale responsabilità civile per le strutture ospedaliere. Il progetto ha visto la collaborazione tra informatici, giuristi ed esperti di organizzazione sanitaria, ognuno con la propria interpretazione dei dati e delle priorità.
In un altro importante progetto, Unifor Justice, che riguardava la digitalizzazione delle corti (Trieste, Udine, Pordenone), abbiamo condotto interviste con giudici e cancellieri, analizzando i sistemi informativi e le relative procedure. Il Dipartimento di Matematica e Informatica dell’Università di Trieste ha lavorato a stretto contatto con professionisti privi di una specifica formazione tecnica. In questo contesto, il nostro ruolo di giuristi è stato spesso quello di “interpreti”: tradurre le domande tecniche in un linguaggio comprensibile per i magistrati e, al contempo, trasformare le esigenze espresse in termini pratici e organizzativi in requisiti utili per gli informatici.
In tutto questo, le soft skill sono decisive:
- Project management, per il coordinamento efficace di obiettivi, tempi, persone.
- Capacità di ascolto e umiltà: non è sufficiente eccellere sul piano scientifico se non si è in grado di mettere a proprio agio gli altri, né se si trattano discipline diverse come se fossero di secondaria importanza..
Purtroppo, ho avuto modo di osservare numerosi esempi negativi: una certa “arroganza STEM” – non attribuibile a tutti, naturalmente, ma presente come tendenza – che considera il diritto o la filosofia come ambiti “facili” è un atteggiamento che ostacola la collaborazione interdisciplinare. A ciò si aggiungono le dinamiche di carriera: l’interdisciplinarità è spesso penalizzata. Colleghi con curricula di grande rilievo si sentono dire “non sei abbastanza informatico” o “non sei abbastanza giurista” semplicemente perché si occupano di tematiche applicate, in ambito medico o nelle scienze sociali. Questo frena molti dal dedicarsi con piena convinzione a progetti trasversali. Inoltre, l’Open Science, quando coinvolge le aziende, si scontra con ostacoli quali segreti industriali, brevetti, limiti alla pubblicazione e i costi dell’open access.
Nel suo progetto per l’ERC Starting Grant lei si è concentrata sulla fairness dei dati medici usati per addestrare l’IA. In che modo questo lavoro prova a connettere diritto, etica, informatica e medicina e quali strumenti concreti avete sviluppato?
Il progetto per l’ERC Starting Grant che ho proposto – purtroppo non finanziato, ma arrivato alla fase di intervista – nasceva da una domanda semplice, ma estremamente complessa: come vengono effettivamente costruiti i dataset medici che alimentano i sistemi di intelligenza artificiale? E quanto sono “giusti” nei confronti dei pazienti che rappresentano?
L’idea era quella di seguire l’intero processo: i medici visitano i pazienti e inseriscono i dati nei sistemi informativi, che poi vengono estratti e trasformati dai data scientist, per essere utilizzati nell’addestramento di modelli che, a loro volta, influenzano nuovamente i pazienti. Volevo studiare questo processo in profondità, utilizzando anche metodi antropologici, come interviste qualitative e osservazione sul campo, integrando le prospettive di medici, informatici, giuristi, filosofi e antropologi.
Da questa ricerca è nato anche un prodotto concreto: il software Funfare, oggi disponibile in open source e open access. Si tratta di uno strumento di valutazione semiautomatica dei dataset, progettato per aiutare medici e informatici a verificare se i loro dati siano adeguati, dal punto di vista tecnico, etico e giuridico, per essere riutilizzati nell’addestramento di sistemi di intelligenza artificiale.
Abbiamo testato Funfare su casi d’uso medico, utilizzando dati reali forniti da clinici. I risultati sono stati significativi non solo in termini di equità, ma anche sotto il profilo delle prestazioni: migliorare la qualità e la documentazione dei dataset ha portato anche a un miglioramento delle performance dei modelli. Questo rappresenta un esempio concreto di come l’attenzione a principi “astratti” come equità, trasparenza e responsabilità possa tradursi in benefici tangibili per chi sviluppa algoritmi.
Lei ha lavorato anche come data steward, ruolo sempre più centrale nell’ecosistema dell’Open Science. Come vede lo sviluppo di questa figura in Italia rispetto ad altri paesi europei e quali competenze ritiene oggi indispensabili?
In Europa, la comunità del data management è attiva da molti anni. Presso l’Università di Eindhoven, nel gruppo in cui operavo, quasi tutti i data steward avevano un dottorato e una solida esperienza di ricerca alle spalle. Questo aspetto è fondamentale: per aiutare i ricercatori a gestire correttamente i dati, è necessario comprendere profondamente come funziona la ricerca dall’interno.
Nel nostro caso, svolgevamo anche il ruolo di prima linea di difesa per la privacy: formavamo i colleghi in tema di protezione dei dati, sicurezza e gestione del ciclo di vita del dato. Prima che un progetto venisse sottoposto al comitato etico, passava attraverso la nostra valutazione: esaminavamo il protocollo, il data management plan, i rischi legati alla privacy, i requisiti di documentazione e le modalità di condivisione. Era una struttura complessa, ma estremamente solida.
In Italia, storicamente, la cultura del data management è meno radicata: il ricercatore spesso si trova a operare in autonomia, senza una “igiene del dato” istituzionalizzata. Accolgo con favore iniziative come i nuovi corsi di laurea in data stewardship e data management, poiché rappresentano un passo fondamentale in avanti.
Le competenze chiave richieste oggi, rispetto a dieci anni fa, sono le suguenti:
- Una solida comprensione del processo di ricerca, preferibilmente supportata da esperienza diretta, come quella derivante da un dottorato.
- Una conoscenza approfondita della normativa relativa a privacy, etica, e dei requisiti imposti dai finanziatori e dai regolatori.
- Competenze tecniche di base: la capacità di strutturare correttamente i metadati, selezionare e utilizzare i repository appropriati, e comprendere in pratica il concetto di FAIR.
- Abilità nella formazione e consulenza: saper spiegare, accompagnare e guidare, non limitandosi solo a “controllare”.
Inoltre, vorrei sottolineare che questa figura professionale non deve necessariamente essere relegata all’ambito accademico. Essa può e deve trovare spazio anche in contesti aziendali, collaborando con data scientist e nei reparti di ricerca e sviluppo, dove le decisioni relative ai dati hanno impatti scientifici, economici ed etici rilevanti.
Parlando di Open Science e dati, oggi si discute molto di dual use: risultati e dataset che possono essere utilizzati sia per fini benefici sia per scopi malevoli. Come vive questo tema chi, come lei, lavora su IA, dati sensibili e infrastrutture europee dei dati? E che ruolo dovrebbero avere le università?
Il dual use è diventato un tema sempre più pressante e ha un impatto diretto sulle collaborazioni interdisciplinari e sulle politiche di Open Science. Ci sono casi in cui la ricerca non può essere pubblicata integralmente perché potrebbe essere riutilizzata per fini malevoli: questo riguarda sia gli algoritmi sia i dataset.
Oggi si parla molto degli European Data Spaces, che l’Unione Europea sta spingendo come base per lo sviluppo di sistemi intelligenti. Ma dare accesso molto ampio a grandi quantità di dati significa anche aumentare il rischio che qualcuno li usi in modo improprio. È una tensione reale: da un lato, vogliamo favorire riuso, interoperabilità, trasparenza; dall’altro, dobbiamo considerare sicurezza, abuso potenziale, contesto di utilizzo.
Nella mia esperienza recente, almeno nei contesti in cui lavoro, la sensibilità sul tema è cresciuta: se ne parla nei consigli di dipartimento, nei progetti, nei convegni. Ma non basta la buona volontà dei singoli.
Ritengo che serva una presa di posizione dall’alto:
- L’adozione di linee guida chiare da parte dell’ateneo sul tema del dual use, promosse dai delegati del rettore.
- Il coinvolgimento strutturato di direttori di dipartimento, comitati etici, DPO, data steward, con ruoli ben definiti.
- Una formazione continua per docenti e ricercatori, che vada oltre la mera sottoscrizione di documenti.
Lo stesso approccio dovrebbe essere adottato per le collaborazioni con le aziende: esse sono cruciali per ottenere finanziamenti e per l’accesso a casi d’uso concreti, ma comportano delle limitazioni rispetto alla possibilità di rendere tutto open. In particolare, si scontrano con problematiche legate a segreti industriali, materiali brevettabili, mancanza di embargo e i costi delle pubblicazioni in open access. Non esistono soluzioni perfette, ma è fondamentale che le scelte non dipendano dalla buona fede di singoli gruppi di ricerca. Esse devono essere condivise, discusse e supportate a livello istituzionale.

Chiara Gallese è una ricercatrice esperta in diritto, etica e nuove tecnologie, con un focus particolare sulla privacy e sull’intelligenza artificiale. Dopo aver conseguito un dottorato interdisciplinare, ha svolto attività professionale come avvocato e consulente in materia di privacy, per poi proseguire la sua carriera accademica presso l’Università di Eindhoven. Ha approfondito tematiche relative alla regolamentazione dell’intelligenza artificiale e alle decisioni automatizzate, collaborando alla redazione di articoli con esperti del settore. Attualmente, sta sviluppando la sua ricerca sull’etica dei dati sanitari e punta a intraprendere una carriera accademica.