Legislazione
Valutazione scientifica all’italiana: riflessioni a margine di un libro recente
Il tema della valutazione delle performance accademiche, pur universalmente riconosciuto come un passaggio essenziale per il rinnovamento dell’amministrazione pubblica del settore, è tradizionalmente trattato dalle nostre parti come un campo non problematico, privo di increspature e di asperità teoriche, e sostanzialmente appiattito sulle questioni della rilevazione dei dati, della partecipazione degli studiosi valutati e dell’aggregazione dei risultati.
Forse proprio questa superficialità spiega la differenza d’impatto tra due procedimenti apparentemente piuttosto simili, come l’italiana VQR e il periodico sforzo di Research Assessment messo a punto nel Regno Unito di cui da pochi giorni sono usciti nuovi risultati.
Quest’ultimo caso, infatti, è oggetto ad ogni tornata di ampie discussioni e di critiche profonde, rivolte a un’amministrazione che si mostra in grado di assorbirle per rendere le proprie procedure (nate, è bene ricordarlo, essenzialmente per disciplinare il mondo accademico britannico alle necessità di direzione politica e di budget degli anni Ottanta, piuttosto che per migliorarne la qualità) più nettamente condivise e legittimate agli occhi dell’opinione pubblica, così da rendere accettabili le conseguenze spesso drastiche dei giudizi emersi.
In Italia, per contro, si è finora mostrata grande difficoltà ad andare oltre il mero espletamento burocratico di un’indagine sicuramente meritoria in un sistema in cui per decenni il ministero ha guidato con amplissimi poteri di indirizzo l’istruzione superiore senza curarsi di saperne nulla se non quello che i burocrati coglievano dai contatti informali con docenti amici in servizio negli atenei romani, ma incapace di giustificare il cospicuo investimento economico alla luce dei risultati, e spesso utilizzata in forme improprie e del tutto impreviste dal progetto iniziale (come l’assegnazione di “etichette” di qualità permanenti ai singoli ricercatori) pur di trovare per vie traverse tale giustificazione.
Pubblicato un paio di mesi fa per i tipi di Guerini e Associati, l’agile volumetto Non sparate sull’umanista. La sfida della valutazione rappresenta un interessante contributo quantomeno per iniziare ad articolare secondo standard più simili a quelli internazionali un discorso tanto delicato.
Il libro raccoglie tre interventi tra loro molto diversi e in alcuni punti finanche discordanti, vista anche la provenienza degli autori. Elio Franzini ha infatti fatto parte del Gruppo di esperti valutatori (GEV) per l’area disciplinare delle discipline storiche e filosofiche nella VQR. Egli riporta così le impressioni di un insider di quel sistema che il gruppo di ROARS, di cui fanno parte Antonio Banfi e Paola Galimberti, ha spesso criticato sia sul piano delle normative e della loro applicazione, sia su quello degli strumenti di raccolta e utilizzo delle informazioni di base.
Tutti gli scritti, comunque, si concentrano sull’ambito nel quale è risultato tradizionalmente più difficile impostare schemi condivisi di misurazione del contributo alla conoscenza. E gli autori sono concordi nel mettere in evidenza che questa difficoltà origina dalla più generale crisi di identità delle humanities, costrette a giustificare la loro esistenza in un contesto culturale in cui il progresso della conoscenza e la promozione dell’accesso ad essa non sono più accettate senza opposizioni.
La difficoltà ad inquadrare in una griglia di comparazione condivisa una produzione culturale più varia e frastagliata nelle tipologie rispetto agli standard delle scienze a paradigma più “forte”, le monografie, le mostre, gli scavi archeologici, la partecipazione in outreach activities di sensibilizzazione dell’opinione pubblica su certi temi, o i problemi posti dal persistente multilinguismo nel dibattito intellettuale e dalle profonde divaricazioni degli interessi su base nazionale e regionale, non sono riducibili al mero vezzo degli umanisti di rifiutare di disciplinarsi a schemi più facilmente maneggiabili o all'”arretratezza” dei processi di internazionalizzazione del loro campo professionale. Simili tendenze testimoniano caso mai la pluralità di strategie nell’approccio al materiale conoscitivo che uno studioso della storia e della teoria della cultura umana deve padroneggiare per produrre un sapere solido ed efficace sul piano della ricezione. Il fatto che le ragioni di questa complessità vadano progressivamente perdute, ad esempio con l’insistente richiesta a non “perdere tempo” a scrivere libri solo perché negli standard di comunicazione di altre materie sono solo esche per boccaloni, mentre negli studi storici o letterari rappresentano spesso il tentativo più arduo di ridiscutere e “rimontare” vasti ambiti di studio secondo nuove strategie interpretative maturate dai lavori puntuali di dimensioni, più contenute, dà l’idea della stretta correlazione tra debolezza della considerazione disciplinare e difficoltà ad incidere sulle modalità di raccolta dei dati per la valutazione.
Tutte e tre le voci raccolte in Non sparate sull’umanista condividono poi l’idea che la crisi del sapere storico, letterario, artistico e filosofico sia sintomo di una crisi dei più complessivi presupposti della conoscenza avanzata e del riconoscimento del suo valore intrinseco, come si può percepire, ad esempio, dalla crescente difficoltà dei cultori delle scienze matematiche e fisiche a impostare grandi progetti privi di risvolti applicativi immediatamente percepibili. Soprattutto per questo, il dibattito sulle modalità per individuare percorsi di valutazione affidabili nelle scienze umane non riguarda semplicemente il ristretto ambito degli studiosi di settore. In esso si gioca una partita fondamentale per fornire alle procedure di controllo della qualità una flessibilità e una capacità di adeguamento al contesto indispensabili alla loro funzione di promozione dello sviluppo del sapere, e non di semplice costrizione rigida all’interno di modelli di espressione storicamente determinati e quindi destinati a mutare ulteriormente.
Anche nel caso degli interventi di Non sparate sull’umanista, come è usuale, quando si passa dal definire i termini del problema a individuare possibili percorsi una soluzione il discorso si fa più sfumato e a tratti confuso, proprio a dimostrazione di quanto ancora si sia lontani dall’offrire soluzioni operative e di policy soddisfacenti, non solo in Italia. Si possono tuttavia enucleare dal dibattito alcuni punti acquisiti da cui partire.
In primo luogo, come dice il termine, un percorso “valutazione” chiama in causa il riferimento a valori. Le procedure di rating possono solo essere gli strumenti per individuare le migliori pratiche in vista del conseguimento di obiettivi chiari e di una crescita generale della società secondo una direzione definita. Enucleare obiettivi e valori di fondo in cui inquadrare il tutto è il compito dei produttori della politica universitaria. per la realizzazione della quale un’opera di valutazione opportunamente architettata nel metodo dovrà poi operare come “timone”. Troppo spesso, da noi, si vuole invece che la pura e semplice pratica del valutare, intesa in termini assoluti, sostituisca una politica dell’alta formazione e della ricerca troppo difficile da fare, per l’incompetenza degli esponenti politici e amministrativi ad essa preposti e per la cronica incapacità di stanziare risorse fresche in tale comparto.
Lo scioglimento di questi problemi preliminari è quindi fondamentale per impostare un discorso metodologico adeguato. Restano però intesi due elementi ineludibili per qualunque operazione di assessment complessa, spesso sottovalutate o addirittura ignorate.
La prima è la necessità di una base di dati bibliografici e curricolari completa, affidabile e trasparente nella composizione (e vale la pena di ricordare che le procedure di valutazione della qualità della ricerca per il periodo 2004-2010 e le prime due tornate di assegnazione delle abilitazioni scientifiche nazionali hanno avuto luogo senza la possibilità di accedere a niente di simile).
La seconda è ben espressa da uno dei contributi di maggior successo alla discussione in ambito internazionale, What Are Universities For?, pubblicato nel 2012 da Stefan Collini e spesso opportunamente dagli autori italiani, soprattutto da Banfi. Troppo spesso, per lo studioso di Cambridge, la frenesia di ottenere risultati quantitativi facilmente comprensibili e “convertibili” tra le varie discipline ci fa dimenticare che la valutazione di qualunque contributo scientifico non può ridursi al mero conteggio meccanico di operazioni, ma deve avere alla sua base un giudizio. In quanto atteggiamento di attenzione critica verso l’operato degli studenti e le proposte interpretative dei colleghi, il giudizio rappresenta tutt’altro che un corpo estraneo alla professione accademica, ma ne è anzi il nocciolo, e procedimenti valutativi integrabili nella vita degli studiosi non possono che usare questa predisposizione come punto di partenza.
Così la peer review, guardata dai “puristi” delle valutazioni con assoluta (e impossibile) pretesa di oggettività e asetticità come un male necessario da limitare nell’uso a poche discipline refrattarie alle misurazioni “standard” solo finché non si sarà trovato il modo di “disciplinarle”, potrebbe diventare una pratica d’uso quantomeno affiancata alla bibliometria “pura” anche nelle scienze matematiche e naturali. Questo se non altro perché anche i criteri bibliometrici più raffinati si fondano per lo più sull’assunzione di elementi di giudizio (come la reputazione delle collocazioni editoriali) che non si farebbe male a verificare.
Certamente resta in piedi l’obiezione maggiore a una rinnovata diffusione del giudizio “dei pari”, ovvero la sua fallibilità. Fermo restando che una più attenta revisione da parte degli amministratori della valutazione potrebbe arginare i casi più evidenti di inadeguatezza dei valutatori selezionati, l’appunto perde di consistenza partendo dal presupposto che qualunque processo decisionale è intimamente soggetto a errore, e che l’uso “pesante” di dati quantitativi rende solo gli errori di fondo meno controllabili.
Anche per questo, la raccomandazione finale che emerge da Non sparate sull’umanista è quella di non trasformare mai, in nessun caso, gli esiti di un processo di assessment in una acquisizione definitiva e senza scampo. Se è vero che per l’allocazione di risorse umane e materiali ingenti in un progetto serve una rigorosa verifica della qualità di chi lo propone e del contesto che può offrire, è anche vero che la natura stessa della ricerca di base rende qualunque previsione dei risultati complessivi e del loro impatto incerta, e che una certa misura di approfondimento critico e di riflessione originale fa parte della normale attività di un docente universitario, al punto che a nessun professionista del campo dovrebbe mancare l’accesso ai fondi minimi per portarli avanti in una misura almeno iniziale, magari in vista di un nuovo tentativo di accedere a distribuzioni di più ampio respiro. Carattere fondamentale della valutazione in tutti i settori, del resto, è il suo essere un riferimento e un aiuto in un percorso di miglioramento.
In Italia, invece, obiettivo fondamentale dell’introduzione della valutazione delle performance era quello di tagliare fuori individui e istituzioni “non abbastanza eccellenti” così da trovare una giustificazione al risparmio. In quest’ottica, probabilmente perché nemmeno questa operazione di ridimensionamento degli investimenti si è rivelata sufficiente di fronte alle necessità di contenimento delle spese, ultimamente si è proceduto ad annullare di fatto diverse voci di finanziamento a progetto della ricerca di base, orientando le richieste ai programmi europei, così che quelli “eccellenti” potessero trovare adeguato supporto senza gravare sul bilancio statale. Il risultato, come si comincia a vedere dai risultati della selezione degli Erc Starting Grants alcuni giorni fa, è che a un aumento dei cittadini italiani titolari di finanziamento europeo si affianca la tendenza sempre più diffusa a portare quei soldi in un altro paese, a dimostrazione del fatto che proprio chi con i canali di investimento ordinario mantiene oliato e aggiornato il suo sistema di laboratori, biblioteche, gruppi di lavoro e reti di scambio riesce più facilmente a incamerare entrate ulteriori dall’Unione europea.
In conclusione l’idea italiana del “valutare e punire”, altrove già sperimentata e ormai in larga misura rigettata, si inizia a mostrare ampiamente controproducente. Una riflessione come quella di Banfi, Franzini e Galimberti può essere un punto di partenza per incominciare una sua ridiscussione prima che sia tardi.
Devi fare login per commentare
Accedi