Ho già parlato della lista ERIH – un catalogo di riviste d’eccellenza che dovrebbe servire, a regime, a valutare l’attività scientifica degli umanisti.
Come si fa a capire se un umanista è bravo oppure no? Innanzitutto – recita una risposta tanto arcaica quanto ingenua – bisogna provare a leggere quello che scrive. Gli umanisti, però, hanno il vizio di disseminare le loro composizioni un po’ dovunque, ma preferibilmente in luoghi accessibili con difficoltà. E come può un valutatore, da solo o in piccolissima compagnia, leggere quello che sono in tanti a scrivere, con tutto quello che avrebbe da fare?
ERIH ambisce a fornire una soluzione alternativa, producendo una lista di riviste, sul modello di quella dell’ISI, che permetta anche a noi di valutare la nostre ricerche senza perdere tempo a leggerle. Nell’ambito delle scienze “dure” l’esperienza delle riviste ISI ha portato a fenomeni di oligopolio e all’aumento spropositato dei prezzi dei periodici – fenomeni contro i quali gli scienziati stanno reagendo. E qualche umanista si sta anche interrogando di fronte al progetto ERIH, che sembra venire incontro a chi vorrebbe valutare la nostra ricerca sulla base di qualcosa di più quantitativo e di meno vago della reputazione fra i pari.
E’ antropologicamente interessante che l’archeologo autore di questo post si sia intanto adoperato a far includere la sua rivista nella lista ERIH, per quanto senza perdere il suo senso critico:
- le riviste sono raggruppate entro rigide categorie disciplinari, mentre buona parte delle scienze umane è variamente interdisciplinare;
- i criteri di inclusione, qualitativi e quantitativi a un tempo, sono oscuri: per esempio, per essere posti in lista, viene valutata la “qualità” del comitato scientifico – e quindi avranno un ruolo, inevitabilmente, i gusti e le amicizie dei selettori
- le liste sono incomplete
- per quanto le liste si dicano sperimentali, questo esperimento è stato compiuto non con una pubblica discussione, ma con un catalogo compilato nel chiuso di un comitato ristretto
- le amministrazioni, così affamate di dati quantitativi, tenderanno a usare la lista sperimentale per la valutazione e il finanziamento della ricerca, rendendo possibile un nuovo effetto oligopolistico.
Infatti se una lista di riviste creata ad arbitrio riesce a imporsi come lista dell’eccellenza, tutte le altre – specialmente quelle innovative, interdisciplinari, ad accesso aperto – verranno soffocate nella culla. Se una lista siffatta fosse esistita in passato, molte delle testate attualmente prestigiose non sarebbero neppure nate. Non è solo una questione di prezzo: un elenco chiuso di eccellenze è, inevitabilmente. un fattore di isterilimento accademico e culturale.
La reputazione fra i pari, che dipende dalla discussione in atto entro una comunità scientifica che funziona, sarebbe un criterio di valutazione molto più vitale. Certo, sarebbe vago e poco quantitativo se la stima si dovesse fare raccogliendo le chiacchiere dei colleghi al bar. Ma questo criterio potrebbe diventare quantitativo – avendo a disposizione statistiche di download, ranking sui motori di ricerca specializzati e simili – in un ambiente di pubblicazione ad accesso aperto. Col vantaggio che questo tipo di valutazione sarebbe creata in pubblico da persone che leggono effettivamente le nostre opere. E’ uno sporco lavoro, ma qualcuno deve pur farlo.