È Andrea Angiolini l’ospite dello Speakers’ Corner di dicembre, con il quale si chiude il primo anno di pubblicazione di The BOSs.
Andrea Angiolini è direttore editoriale della Società editrice il Mulino e consigliere del gruppo accademico-professionale dell’AIE, Associazione Italiana Editori, per la quale ricopre anche il ruolo di delegato all’innovazione.
Abbiamo esplorato con lui i cambiamenti che, in circa venti anni, hanno interessato il modo di fare editoria di una realtà storicamente importante come il Mulino, che si è evoluta e continua a farlo in un contesto di incessante fermento.
D. Dal 2012 lei è il direttore editoriale del Mulino ed è membro del consiglio accademico-professionale dell’AIE – “un osservatorio aggiornato sul panorama della lettura, del mercato editoriale, dei consumi culturali ed educativi”. Come è cambiata l’azienda in questi anni e, con uno sguardo particolarmente attento alle evoluzioni tecnologiche/digitali, quali scenari e azioni, nel panorama editoriale nazionale e internazionale, hanno maggiormente condizionato le sue scelte nella definizione delle direzioni editoriali intraprese?
Consentitemi di partire un po’ da lontano. Il Mulino, che nel 2024 compirà settant’anni, è un editore che si colloca su un fronte lungo dal punto di vista culturale ed editoriale: si rivolge infatti a un’ampia varietà di pubblici, con un catalogo articolato.
È parte di un gruppo che fa riferimento a un’associazione di intellettuali di provenienza culturale e politica non uniforme, convinta del fatto che anche l’attività editoriale possa contribuire efficacemente alla vita culturale, politica e democratica del Paese.
Un editore plurale, per forme, pubblici di riferimento e approcci culturali: la nostra proposta è composta da una componente di testi di ricerca ben selezionati, ma anche da oltre ottanta riviste; da collane non specialistiche che si rivolgono agli interessi culturali dei lettori, a quanto caratterizza la discussione pubblica; e da un’ampia proposta di manuali per la didattica universitaria, nella convinzione della centralità della formazione superiore. Nel complesso, libri pensati per contribuire alla formazione di un’opinione pubblica consapevole attraverso l’apporto delle scienze umane e sociali, ma anche della scienza, presente nel catalogo da molti anni.
Dati questi obiettivi di politica culturale, che sorreggono e danno senso al nostro essere editori, le forme che utilizziamo cambiano naturalmente nel tempo, perché seguono i comportamenti e gli interessi dei lettori, le esigenze della ricerca, dello studio e dell’apprendimento. In settant’anni, i libri sono cambiati, come è normale, nei temi, nel linguaggio, per struttura interna, per dimensioni e anche nel modo di produrli, presentarli e venderli. E negli ultimi anni anche il Mulino, come il resto dell’editoria italiana e internazionale, ha vissuto un’accelerazione nel cambiamento.
È in questo posizionamento e in questo contesto che si colloca il nostro programma di digital publishing. Infatti, in questo processo di adeguamento, la tecnologia di processo e prodotto ha ricoperto un ruolo cruciale. Vent’anni fa comprendemmo che per l’editore diventava indispensabile avere un back office che potesse supportare i processi di produzione, razionalizzandoli e riorganizzandoli. Oggi, a un repository – granulare, multiformato, versionato – che raccoglie e guida il processo di produzione di libri cartacei ed edizioni digitali – si aggiunge una piattaforma che organizza il lavoro redazionale e una struttura di distribuzione che dialoga con le realtà esterne con le quali ci interfacciamo, scambiando dati e metadati con store online, sistemi di discovery, repertori disciplinari, le nostre stesse piattaforme e quelle altrui nelle quali a vario titolo siamo presenti.
A questa infrastruttura si aggiungono i front-end: Rivisteweb per i periodici (2003), Darwinbooks per le monografie (2009) e Pandoracampus per i manuali e l’e-learning (2013) sono tre ambienti multieditore che rappresentano l’occasione di costruire, partendo da un’opportunità tecnologica, un nuovo modo per accompagnare il lavoro di studiosi, autori, lettori, studenti, bibliotecari.
Le abbiamo ideate cercando di utilizzare un metodo da sempre nostro, quello del confronto con la realtà internazionale. Così come, sin dall’inizio della sua storia, l’editrice ha contribuito a svecchiare la cultura italiana guardando alla grande produzione internazionale soprattutto nelle scienze sociali, e dunque traducendo molto.
In particolare, abbiamo compreso l’urgenza di adeguare le forme e la valorizzazione della comunicazione scientifica guardando alle grandi university press internazionali per la produzione accademica; così come quella di proporre nuove possibilità per lo studio e l’insegnamento universitario, con soluzioni di e-learning ispirate a quelle dei grandi editori anglosassoni dell’higher education. Ma queste realtà sono state solo un punto di partenza, perché la sfida è stata quella di comprendere, adattare, completare, migliorare quelle esperienze, contestualizzandole nella realtà italiana.
Entrando nel merito, oggi a livello mondiale – e l’Italia non fa eccezione – l’e-learning è la componente più sfidante. Se nella produzione di ricerca la digitalizzazione è ormai una realtà matura – le nostre piattaforme per riviste e testi di approfondimento sono ricomprese da anni in un contratto con la Crui – nella manualistica digitale la situazione è più complessa e differenziata, nei livelli di uso e nelle forme. Anche l’utilizzo delle piattaforme di e-learning da parte delle istituzioni – molto in crescita – è comunque relativamente recente. Nel nostro caso, Pandoracampus è stata prima e a lungo proposta al singolo studente, inclusa nel testo a stampa o come accesso digitale a sé – sempre con l’intero testo, anche singolo capitolo, in streaming, esercizi interattivi, oggetti attivi, servizi per la gestione del tempo di studio ecc. È stato solo con la pandemia che si è arrivati a un servizio per le università, che oggi sono 25 e tra le quali UniMiB si distingue per un uso particolarmente intenso.
In definitiva, l’obiettivo editoriale è stato sempre quello di cercare di aggiungere valore, procedendo talvolta anche per tentativi ed errori, essendo a volte in anticipo e talora in ritardo, ma sempre nell’idea di accompagnare e interpretare il cambiamento, di adeguare anche nel digitale le forme di quell’azione editoriale ricordata in apertura.
D. Open Access e i costi della mediazione editoriale, come si conciliano?
Il Mulino vanta una lunga storia di pratica dell’Open Access. Dal 1998 siamo editori di una delle primissime riviste ad accesso aperto, Aedon, pubblicazione di diritto dei beni culturali. Le dichiarazioni di Budapest, Berlino, Messina sarebbero venute successivamente, in quel momento non esisteva neanche una definizione per quel tipo di offerta, che chiamavamo semplicemente “rivista online”, sostenuta a monte da una sponsorship.
Ci riconosciamo dunque da molto tempo nel principio secondo il quale quello che è pubblicamente sostenuto, pubblicamente deve essere restituito. Dunque, l’OA è di volta in volta un’esigenza, una possibilità e un dovere. E per spiegare meglio il nostro atteggiamento, vorrei segnalare non solo che siamo editori ad accesso aperto sia di libri sia di riviste, ma anche che tutti gli autori delle nostre testate hanno la possibilità di ripubblicare in repositories istituzionali ad accesso aperto la versione definitiva non editoriale del loro articolo, trascorso un periodo di embargo. Tutti, non solo quelli di eventuali articoli finanziati, che comunque fino a ora sono stati pochissimi, come vedremo tra poco. Semmai, dell’OA, si possono discutere le forme, si può e si deve ragionare dell’applicazione pratica.
Quello che poniamo come editori è la necessità di non fare parti uguali tra diseguali, di distinguere cioè tra i contesti disciplinari, linguistici e di mercato; per esempio, le prassi e le esigenze nelle scienze umane e sociali non sono le medesime delle discipline Stem, e – molto concretamente – anche solo il costo medio di una rivista del Mulino è ben lontano da quello delle testate di molti attori internazionali. L’oggettiva diversità del contesto va tenuta in considerazione nella discussione.
Inoltre, non si può eludere il problema della sostenibilità, dei costi che la pubblicazione comunque comporta: siano essi sostenuti da un editore privato o da una university press pubblica, in una rivista in abbonamento o ad accesso aperto. Il buon lavoro editoriale – ovviamente quando c’è: ma qui ci giochiamo una parte della nostra attrattività e competitività – così come la gestione e lo sviluppo delle piattaforme e, più in generale, una scholarly communication efficace e di qualità costano, e questi costi vanno riconosciuti: il lavoro dei mediatori che organizzano, producono, diffondono, gestiscono contenuti, ambienti e servizi digitali ha un costo.
Più in generale, punti fondamentali credo siano la chiarezza e la trasparenza; su questo, vorrei fare due esempi per spiegare come ragioniamo. Il primo è che da anni pubblichiamo sulla piattaforma Sherpa Romeo le nostre policy editoriali sugli articoli; il secondo è che fino a oggi abbiamo avuto articoli finanziati in quantità decisamente esigua perché non accettavamo proprio articoli con APC (Article Processing Charge) per evitare il double dipping, il pagamento doppio dell’abbonamento da parte dell’abbonato, e della pubblicazione da parte dell’autore.
Ma, come sappiamo, le regole di finanziamento e le esigenze di pubblicazione della ricerca stanno cambiando, e spingono verso comportamenti inevitabilmente ibridi, cioè anche di compresenza nella stessa testata di articoli con APC, perché l’autore deve o vuole pubblicare Open, e di altri proposti nelle modalità tradizionali. La sfida immediata è come trovare la misura; nel medio periodo – probabilmente – sarà come rendere sostenibile la transizione di una larga parte delle riviste di ricerca a un modello completamente aperto, nel quale la mediazione editoriale – se presente ed efficace – aggiunga valore e sia riconosciuta come tale.
Anche i Transformative Agreement, mi pare, mostrano una contraddizione: da un lato stanno aprendo enormi quantità di contenuti, segnando una diffusione dell’Open Access come mai prima; dall’altro, sono criticati per i costi che ripropongono, e per i non piccoli problemi gestionali.
Ma a questo proposito le nostre riviste hanno – si fa per dire – un problema in più. Le riviste del Mulino, anche quelle specialistiche, sono caratterizzate da una readership che spesso va oltre quella universitaria, cioè hanno anche – e per fortuna – abbonati individuali o comunque di piccole e medie istituzioni fuori dal perimetro universitario. Per tematiche, autori, tradizione, discipline, non esauriscono la loro funzione unicamente nell’accademia, a differenza di quelle – per lo più Stem – protagoniste dell’editoria internazionale e oggetto degli accordi trasformativi. Dunque, sempre in nome di quella sostenibilità ricordata sopra, passando a un modello trasformativo frutto di accordi con le università, chi sosterrebbe il valore degli altri abbonamenti, che perderemmo perché le riviste sarebbero aperte a tutti?
Per fortuna, la consapevolezza di questa specificità c’è anche nei nostri interlocutori istituzionali e dunque si sta cercando insieme una via, necessariamente sperimentale; che comunque non è facile trovare perché anche modelli come Subscribe to Open (anche nelle sue applicazioni di Annual reviews, o di De Gruyter o come Flip it to open di Cambridge University press) non sono esenti da problemi.
D. Risalgono esattamente a due anni fa il suo articolo comparso su JLIS “Open to whom. The Open science in the quest for readers” e la replica, pubblicata sul portale dell’associazione ROARS, dal titolo “Accesso aperto e accesso chiuso: una risposta ad Andrea Angiolini, direttore editoriale de “Il Mulino” (di S. Bianco, R. Caso, E. Conte, P. Galimberti, M.C. Pievatolo). Ripercorrendone i punti principali, quali sono le sue riflessioni sulle argomentazioni che furono sollevate in risposta al suo articolo?
Mi pare che, purtroppo, la replica non abbia colto l’occasione di un dialogo perché semplicemente non ha risposto, bensì ha proposto una serie di considerazioni altre rispetto al punto centrale del mio articolo. Spero ancora che ci sarà occasione.
Quello che mi premeva e mi preme sottolineare è che non conviene schiacciare l’Open Science sul solo Open Access; e che per renderla realmente efficace, occorre passare dal mero accesso – inteso come disponibilità di contenuti – all’accessibilità vera, cioè alla comprensione effettiva di un testo, da parte del massimo numero di lettori possibili. Questa – che potremmo anche chiamare alta divulgazione – mette in campo competenze squisitamente editoriali nell’ideazione, progettazione, scrittura di un contenuto che magari nasce per gli specialisti ma ambisce ad andare oltre, che sappia essere di impatto nella discussione pubblica e nella formazione. È un po’ quanto raccontavo all’inizio di questa intervista parlando del Mulino.
Per parlare a lettori non specialisti, per essere efficaci al di fuori dell’accademia, gli esiti della ricerca scientifica devono assumere altre forme, altri linguaggi e questo si avvantaggia di una mediazione, che tipicamente è il lavoro dell’editore.
Naturalmente l’OS tocca anche il tema della ricerca, promuove e sottolinea tra l’altro l’importanza di metodologie trasparenti, disponibilità dei dati grezzi, interoperabilità per la quale per esempio il rispetto dei principi FAIR è fondamentale. Così come è evidente che include l’OA, nei principi e nelle forme. Come editore, ci sentiamo fortemente coinvolti anche da questa dimensione specialistica, così come dall’OA, secondo quanto ricordavo prima. E tuttavia, l’OS non si esaurisce in esso e credo sarebbe un errore pensare di realizzarla nelle sue più piene possibilità di impatto senza tenere conto, senza prendere sul serio e raggiungere efficacemente il lettore non specialista, i suoi interessi e le sue reali capacità, e adeguandone se necessario le forme.
D. Considerando le nuove tendenze di riforma dei meccanismi di valutazione della ricerca a livello nazionale e internazionale, quale ruolo vede per gli editori? Ritiene utile adottare indicatori bibliometrici oppure la peer-review diventerà l’unica modalità di valutazione?
Il Mulino ha adottato la peer-review da quando ha cominciato a pubblicare ricerca; ed è sulla base di una lettura effettiva, del confronto, del giudizio degli esperti che credo vadano prese le decisioni e formulate le valutazioni.
È evidente però, come ha detto anche il prof. Pacchioni nella sua intervista, che il sistema soffre di sovrapproduzione, che da problema quantitativo sia diventato qualitativo perché non si è più in grado di filtrare e di assorbire quanto si pubblica. Questo comporta naturalmente difficoltà anche per i valutatori, ai diversi livelli nei quali sono chiamati in causa. Realisticamente, ritengo che, nei limiti del possibile, per essere giudicata la ricerca vada letta, e poi che ci si possa avvalere di proxy per contestualizzarla, per completare la valutazione. Trovo anche interessante la distinzione che lo stesso Pacchioni fa tra valutazione degli enti (più quantitativa) e dei singoli (necessariamente qualitativa).
In ogni caso si tratta di una matrice complessa, e di una pratica sempre più difficile e impegnativa per tutti gli attori coinvolti; nelle metriche di valutazione, inoltre, contano e devono contare le specificità degli ambiti disciplinari e, ancora una volta, l’omologazione sarebbe un errore.
Quanto specificamente alla VQR, questa naturalmente spetta solo al sistema universitario e alla sua governance; gli editori non hanno un ruolo diretto in questo ma contribuiscono al funzionamento del sistema fornendo accesso controllato ai contenuti, e partecipando alla riflessione generale.
D. Ci parli della sua esperienza, e quindi di quella del Mulino, con l’AIE.
L’esperienza del Mulino in AIE è da sempre molto buona. Personalmente, nel gruppo accademico professionale ho ricoperto il ruolo di vicepresidente e poi ne sono stato presidente; ora sono un consigliere con delega all’innovazione.
L’associazione di categoria è un luogo dove gli editori si confrontano con logiche pre-competitive e condividono conoscenze ed esperienze. Dialoga con associazioni, istituzioni, con la politica, intrattiene quindi relazioni che non sempre il singolo editore può avere. C’è poi un capitolo importante che riguarda l’internazionalizzazione, il confronto con le associazioni omologhe in tutto il mondo e in particolare con la International Publishers Association e la Federazione europea degli editori. Grande sforzo è fatto anche sulla diffusione di standard tecnologici e buone pratiche, e in anni recenti molto marcato è stato l’impegno verso l’accessibilità.
D. Il Mulino sostiene la Fondazione LIA, Libri Italiani Accessibili. Come si traduce concretamente questo impegno?
Abbiamo sempre ritenuto di doverci fare carico dell’obiettivo di rendere i contenuti che pubblichiamo il più possibile fruibili anche da chi ha bisogno di una particolare attenzione – come non vedenti e dislessici -, pubblicando edizioni digitali accessibili su piattaforme accessibili. Si tratta di un dovere civile che viene prima delle direttive internazionali, come il trattato di Marrakech.
Quindi, a diversi livelli abbiamo reso tutte e tre le nostre piattaforme accessibili: in queste, tra l’altro un non vedente riesce a distinguere la struttura di navigazione dai contenuti, riesce a fare il login, riesce a utilizzare i servizi di piattaforma grazie alla costruzione di uno strato software non visibile progettato secondo standard ben precisi (WCAG, Web Content Accessibility Guidelines, in particolare W3C recommendation; the Daisy Consortium); quanto ai contenuti, abbiamo i testi accessibili in streaming sia in Darwinbooks sia in Padoracampus.
Anche la scelta di reingegnerizzare la produzione ricordata all’inizio, ci ha consentito di affrontare più efficacemente il difficile e non concluso cammino verso una piena accessibilità; in definitiva ci ha reso editori migliori – in quanto capaci di avere piena disponibilità dei propri contenuti, in vari formati digitali – ed editori più aperti all’insieme dei nostri lettori.
È tuttavia un impegno molto oneroso che avviene in totale assenza di contributi pubblici e che diverrà critico in vista del 2025, quando l’European accessibility act diventerà pienamente efficace anche in Italia; prescrizione ambiziosa che stabilisce la piena accessibilità di tutti i nuovi contenuti digitali, e che sarà da far conoscere a tutti gli autori e apprezzare ai lettori, e che potrebbe costituire anche un fattore distintivo e competitivo nell’offerta editoriale.
In ogni caso, su questo credo davvero che tutti, università, autori, editori, debbano competere in un processo di emulazione virtuosa. E ritengo che sarà anche questo un modo di fare Open Science, rendendo accessibili nella sostanza a tutti i contenuti pubblicati.
D. Intelligenza artificiale ed editoria. Quali sono a suo avviso le opportunità più significative, ma anche le criticità che il ricorso all’IA comporta?
Un tempo relegato in ambiti molto circoscritti e specialistici, ora l’utilizzo di tecnologie basate sull’intelligenza artificiale dilaga e promette di rivoluzionare il modo in cui interagiamo con il mondo che ci circonda. La società Il Mulino si è posta la questione della regolamentazione dell’impiego di IA generativa nella produzione di quanto è destinato alle sue pubblicazioni?
Questo è al tempo stesso il momento dei problemi e delle opportunità, della prudenza e della sperimentazione, e Il Mulino, con grande interesse, sta seguendo quello che succede, per definire un perimetro dentro il quale muoversi.
Per esempio, su Rivisteweb abbiamo cominciato a utilizzare sistemi di machine learning per fornire all’utente suggerimenti di lettura più pertinenti. Dove prima il “leggi anche” era governato da dati sulla navigazione, adesso usiamo doc2vec, un algoritmo che compara il testo-target con l’intera banca dati e, su base statistica – posizione e frequenza delle parole – restituisce articoli simili. Si tratta di applicazioni più tradizionali rispetto a quelle possibili con la IA generativa, che tuttavia ci consentono di cominciare a capirne le possibilità, offrendo già nell’immediato applicazioni utili.
Venendo a considerazioni più generali e cercando di elencare le attenzioni principali da avere, il primo punto è senz’altro la trasparenza: il lettore ha il diritto di conoscere l’origine dei contenuti che gli sono offerti, il metodo con il quale sono prodotti. E questo dovere va accettato e compreso anche dagli autori, che – come molte publication ethics cominciano a richiedere – devono esplicitare quando e per cosa ricorrano a sistemi di IA, e rispettare eventuali divieti. In questo senso, completeremo anche la nostra dichiarazione presente su Rivisteweb basata su COPE.
Un altro punto, che rappresenta un aspetto ancora più complesso, è quello della valutazione dell’efficacia di quanto così ottenuto: qui occorre entrare di volta in volta nel merito degli output, ricorrendo necessariamente alla mediazione umana che in questo caso diventa anche applicazione del pensiero critico, verifica di merito. Altro elemento sono gli input, apparentemente in linguaggio naturale ma di fatto fortemente formalizzabili; cmq il prompting, la capacità di fare domande, chiama in gioco tra l’altro capacità logiche e linguistiche importanti.
Per questo, per poterlo fare con efficacia, è fondamentale la formazione: dobbiamo comprendere questi fenomeni per quello che sono e non per quello che noi immaginiamo che siano, quindi dobbiamo capirne i meccanismi, evitando sia il rifiuto a priori, sia i facili entusiasmi. E perché sia efficace, è necessario ricorrere a più discipline in dialogo tra loro, e a più prospettive professionali a confronto: in questo editori, università, biblioteche, autori dovranno esercitare tutta la loro capacità di analisi.
Un ulteriore punto imprescindibile è quello legato al suo uso responsabile: le tre leggi della robotica di Isaac Asimov probabilmente non bastano più. Secondo quanto ricorda anche Nello Cristianini nel suo libro – pubblicato da noi, permettetemi di citarlo – oggi vanno articolate e completate: gli agenti artificiali non devono causare danni, devono rispettare e non manipolare l’utente, devono essere trasparenti avendo finalità esplicite e logiche controllabili, devono non discriminare gli utenti, cioè trattarli tutti allo stesso modo e devono fare un uso legittimo dei dati, nel rispetto della privacy e del copyright. Questa mi pare la direzione da seguire, e questa è anche la direzione del recentissimo Artificial intelligence act dell’Unione europea.
Infine, si pone il problema molto grosso della regolamentazione e del mercato. Va chiarito su che cosa si è addestrata e si addestra l’IA, vanno stabilite le titolarità sia dei contenuti usati per addestrarla sia degli output. E va sviluppato rapidamente un sistema di licenze sul mercato, che consentano in linea di principio a tutte le aziende di poterla usare, ricevendo e dando garanzie. Solo in questo modo, dando reale accesso al mercato, si potrà assicurare ampiezza e varietà di contenuti e contrasto ai monopoli. In questa chiave, regolamentazione non significa tutela dello status quo ma il suo contrario: vuol dire stabilire un insieme di regole che consentano sviluppo creativo di nuovi contenuti e servizi, di produzione, valorizzazione e disseminazione di dati e metadati, ma nella tutela di chi offre o produce contenuti tramite questa tecnologia.
La grande sfida sarà capire se saranno servizi concentrati su sorveglianza e misurazione quantitativa, oppure – per esempio – capaci di fornire risposte originali, di suggerire collegamenti stimolanti e non scontati, interdisciplinari ma corretti e pertinenti; di aiutare efficacemente nei percorsi di studio.
Un’ulteriore opportunità ritengo sia quella di usare l’IA per risolvere problemi difficilmente affrontabili in altro modo. Penso, per esempio, al fatto che tra le regole che porrà l’European Accessibility Act, ci sarà la presenza di descrizioni alternative o estese per le immagini contenute nelle pubblicazioni. È onestamente difficilissimo, in un tempo così breve e in totale assenza di aiuti pubblici, potersi adeguare senza ricorrere per esempio a sistemi di IA che aiutino a creare una prima versione di questi testi, auspicabilmente supervisionate e corrette da un umano.
Solo con il combinato disposto di questi ingredienti si potrà sviluppare una consapevole e non fideistica fiducia nell’IA; per la quale sarà importante, nei limiti del possibile, anche l’ispezionabilità by design del software, cioè la possibilità di comprendere, ricostruire, monitorare il funzionamento degli algoritmi, requisito al quale necessariamente aggiungere l’attendibilità, la correttezza dei dati usati per addestrarla.