Nel pieno dell’“età dell’AI generativa”, parlare di open access e copyright non è più un esercizio teorico: è una questione di infrastruttura scientifica, di equilibri economici e di tutela della creatività. L’evento “Open Access & Copyright in the age of AI”, organizzato durante l’Open Access Week 2025 da Bocconi University e Hertie School, ha messo a confronto tre prospettive complementari: quella del giurista (Nicola Lucchi), quella del bibliotecario accademico (Christopher Landes) e quella della copyright officer (Christine Daoutis), chiedendosi che cosa significhi rendere aperta la conoscenza quando questa apertura alimenta sistemi di AI capaci di riutilizzare su larga scala opere, dati e risultati della ricerca.

Dalla biblioteca al copilota: come l’AI cambia la ricerca

Una prima linea di trasformazione riguarda il modo in cui cerchiamo e usiamo la letteratura scientifica. Nella ricostruzione di Christopher Landes, l’evoluzione va dai cataloghi cartacei agli OPAC, ai motori di discovery, fino ai sistemi di ricerca basati su AI generativa e “copilot” in grado di riassumere, suggerire, riformulare.

Questi strumenti non sono più semplici indici che restituiscono record: offrono risposte in linguaggio naturale, collegano risorse diverse, anticipano bisogni informativi. Per la ricerca significa maggiore rapidità nel mappare un campo di studi, possibilità di incrociare articoli, dataset e preprint, supporto alla preparazione di literature review e sintesi complesse.

Ma la stessa infrastruttura che rende più fluida la ricerca solleva nuovi problemi: se ciò che vediamo è una “risposta sintetica”, come verifichiamo completezza, copertura disciplinare, presenza di bias? E cosa significa citare in un ambiente in cui il sistema ha “digerito” e ricombinato milioni di contributi senza esplicitarli?

Open Access come infrastruttura (e carburante) per l’AI

In questo contesto l’open access svolge un ruolo centrale. Per Landes l’apertura ha almeno tre funzioni chiave: facilitare l’accesso rimuovendo barriere di prezzo e licenza; aumentare visibilità e citazioni; abilitare nuovi modelli editoriali basati su accordi trasformativi e politiche istituzionali a favore del deposito in repository.

L’open access diventa però anche un’infrastruttura privilegiata per l’addestramento dell’AI. Modelli generativi e sistemi di raccomandazione funzionano meglio quando gli input sono facilmente accessibili, riusabili e ben descritti: corpus aperti, licenze chiare e metadati curati sono quindi molto attraenti per chi sviluppa modelli.

Qui emerge una tensione evidente. L’open access nasce per massimizzare il valore sociale della ricerca, ma può tradursi in una disponibilità quasi illimitata di contenuti utilizzabili a fini commerciali, spesso senza beneficio diretto per gli autori o per le istituzioni che hanno sostenuto i costi di produzione della conoscenza. Per la comunità accademica la questione non è se mantenere l’open access, ma come governarne gli effetti collaterali in un ecosistema dominato da attori tecnologici ed editoriali di dimensioni globali.

Copyright di base nell’era dell’AI

Sul versante giuridico, Christine Daoutis ricostruisce i principi essenziali del diritto d’autore in ambito accademico, oggi messi sotto pressione dall’AI generativa.

In Europa un’opera è protetta se è frutto di una creazione intellettuale originale, in cui l’autore compie scelte libere e creative che imprimono un “tocco personale” al risultato. Non c’è tutela quando l’esito è determinato solo da regole tecniche o procedure standardizzate. Questo criterio, pensato per le opere umane, è messo in discussione da contenuti generati o co-generati da sistemi di AI.

La titolarità dei diritti dipende da leggi nazionali e contratti: rapporti di lavoro, accordi editoriali, licenze aperte. In presenza di collaborazioni, piattaforme e strumenti generativi, non è sempre evidente chi detenga quali diritti su testi, immagini, dataset e materiali didattici.

La violazione del copyright riguarda diritti economici (riproduzione, comunicazione al pubblico, distribuzione) e diritti morali (attribuzione, integrità dell’opera). In gioco ci sono anche le eccezioni previste a favore di ricerca, insegnamento, critica e recensione, applicate in Europa secondo logiche di fair dealing, diverse dal fair use statunitense.

L’AI rende questi nodi più urgenti: quando un testo è abbastanza “umano” da essere originale? Chi è autore di un’immagine prodotta con un sistema generativo? E che cosa significa uso lecito in un contesto in cui modelli vengono addestrati su miliardi di opere, spesso senza consenso esplicito dei titolari dei diritti?

Text and Data Mining e addestramento dei modelli

Le eccezioni per text and data mining (TDM) erano nate per consentire ad accademici e istituzioni di analizzare grandi corpora senza dover negoziare licenze caso per caso. Sia in UK sia nell’Unione Europea esistono eccezioni specifiche che permettono il TDM per fini di ricerca, con condizioni su legittimità dell’accesso, uso commerciale e possibilità di opt-out da parte dei titolari.

Già prima dell’AI generativa questi strumenti avevano limiti pratici: divieti di aggirare misure tecnologiche di protezione, vincoli posti dai contratti di accesso alle piattaforme editoriali, restrizioni sulla condivisione delle copie usate per l’analisi. Oggi la questione è se e fino a che punto tali eccezioni coprano anche l’addestramento di modelli generativi su scala industriale, spesso a scopo commerciale, con un quadro giurisprudenziale ancora in evoluzione.

Il “lawful access gap” e l’AI Act

Su questo terreno si innesta l’analisi di Nicola Lucchi, che mette al centro il concetto di “accesso lecito”. L’articolo 4 della Direttiva sul diritto d’autore nel mercato unico digitale consente il TDM su opere accessibili lecitamente, salvo opt-out esercitato dai titolari tramite strumenti tecnici o metadati.

Per Lucchi, lawful access non coincide con open access. L’accesso garantito da abbonamenti o paywall non implica automaticamente il diritto di usare i contenuti per addestrare modelli commerciali. Inoltre, gli strumenti di opt-out sono spesso difficili da implementare o poco rispettati, e l’ampiezza dell’eccezione rischia di entrare in tensione con i principi internazionali che vietano formalità per il godimento dei diritti d’autore.

Si crea così un “lawful access gap”: uno spazio grigio in cui l’accesso è formalmente legale, ma gli usi legati all’AI non sono chiaramente autorizzati né vietati.

L’AI Act europeo introduce obblighi di trasparenza e documentazione per chi sviluppa modelli e richiama il rispetto del diritto d’autore e degli opt-out, ma non ridefinisce che cosa sia lecito in termini di sfruttamento delle opere protette: presuppone il quadro esistente, lasciando aperti i nodi sul perimetro delle eccezioni per TDM e sul rapporto fra apertura degli input e controllo sugli usi.

Il ruolo delle istituzioni accademiche

Che cosa può fare il mondo accademico in questo scenario?

Da un lato, promuovere una reale copyright literacy: linee guida sull’uso degli strumenti di AI nella ricerca e nella didattica, formazione su licenze, eccezioni ed effetti dell’open access, supporto nella scelta di licenze adeguate per articoli, dati, software e materiali didattici.

Dall’altro, rafforzare le infrastrutture di scienza aperta – repository istituzionali, politiche di deposito, metadati ricchi – integrandole con strumenti che rendano esplicite le condizioni d’uso anche rispetto al training dei modelli di AI. Biblioteche e uffici ricerca possono giocare un ruolo chiave nella negoziazione con editori e fornitori di tecnologia e nella sperimentazione di modelli di governance più equi.

La sfida non è scegliere tra apertura e protezione, ma trovare un equilibrio dinamico: rendere i risultati “as open as possible, as closed as necessary”, garantendo che l’apertura non si traduca in esproprio o perdita di controllo, ma in maggiore capacità della comunità scientifica di orientare gli sviluppi tecnologici e regolatori.

L’incontro tra open access, copyright e intelligenza artificiale riguarda chi fa ricerca, insegna, cura collezioni, valuta progetti e articoli. L’AI può essere alleata della scienza aperta, amplificando l’impatto dei risultati e facilitando nuove scoperte; può però accentuare disuguaglianze, concentrare potere informativo e indebolire diritti e riconoscimento degli autori.

La direzione non è scritta in anticipo. Dipenderà dalla capacità delle comunità accademiche di non limitarsi a subire gli sviluppi di mercato e normativi, ma di agire come co-architetti di un ecosistema in cui apertura, tutela dei diritti e innovazione tecnologica si rafforzino reciprocamente, anziché entrare in rotta di collisione.


Riferimenti bibliografici / Credits:

→ Landes, C., Daoutis, C., & Lucchi, N. (2025). Open Access & Copyright in the age of AI: Open Access Week 2025-10-16. Zenodo. https://doi.org/10.5281/zenodo.17397015
→ Le immagini sono state generate da Google Gemini, con prompt di Christine Daoutis.