La valutazione del sistema universitario è un argomento non facile da spiegare a un’opinione pubblica in larga misura poco addentro ai meandri del sistema stesso. Spesso i giornalisti indulgono a rappresentazioni di maniera, diffondono classifiche di tipo calcistico o elenchi di “buoni” e di “cattivi”. Questo nuoce al dibattito pubblico e alle stesse decisioni politiche in materia.
•Partiamo da alcuni punti fermi, probabilmente condivisibili E’ giusto, in nome della sempre invocata trasparenza, che i cittadini italiani abbiano sotto gli occhi e possano valutare in modo chiaro le performances del sistema dell’istruzione pubblica (e di quella privata, se è finanziata con fondi pubblici): gli studenti e le famiglie, per scegliere motivatamente il luogo e l’indirizzo degli studi; tutti i contribuenti, per sapere come vengono spesi i denari che versano al fisco. La stessa analisi serve poi ai decisori pubblici per programmare lo sviluppo, se vogliono abbandonare l’insensato sistema dei tagli indiscriminati. Questo principio dovrebbe valere per tutte le pubbliche amministrazioni.
• Le “missioni” dell’università sono principalmente la formazione del capitale umano e la ricerca scientifica; è su ambedue che si misura la sua efficienza. Poiché però le competenze, e le risorse necessarie, e le modalità atte a raggiungere i due obiettivi sono diverse, alcuni propongono di specializzare gli Atenei: alcuni più versati alla didattica, altri alla ricerca scientifica. A questa soluzione osta la necessaria reciprocità e compenetrazione tra alta didattica e ricerca, per cui l’una ha benefici effetti sull’altra: rischieremmo, se le separassimo, di avere dei superlicei, negando una formazione innovativa a una grande quantità di studenti e costringendo molti docenti a rinunciare a svolgere attività scientifica e a contribuire a far progredire il sapere. Se invece continueremo a coltivare ambedue insieme dappertutto, dovremo introdurre criteri di valutazione e modalità di descrizione paralleli e differenziati.
• Il sistema nazionale ha e deve avere vocazioni egualitarie (tendenzialmente offrire lo stesso servizio a tutti), ma gli Atenei non sono tutti uguali: come non lo sono le scuole, le biblioteche, gli ospedali, ecc. L’introduzione del regime di autonomia ha accentuato le differenze, che riguardano sia la quantità e varietà sia la qualità dell’offerta formativa. A questo problema si può ovviare o spingendo gli Atenei ad essere più “virtuosi”, con l’introduzione di meccanismi necessariamente complicati di premi e di sanzioni, o semplicisticamente abolendo il valore legale del titolo di studio, fidando nella capacità successiva del mercato di produrre soluzioni (e selezioni) ottimali. Quanto questa fiducia sia ingenua o malriposta, lasciamolo giudicare al lettore.
• Mentre per l’istruzione superiore siamo in media europea, l’Italia spende meno degli altri Paesi avanzati per l’Università. Tutti gli indicatori forniti negli anni dall’OCSE hanno messo in rilievo il nostro ruolo di fanalino di coda nel finanziamento all’istruzione universitaria e alla ricerca, così come il pessimo rapporto docenti/studenti. I dati disegnano poi una realtà universitaria nazionale a due velocità, che coincide in larga misura con la tradizionale divisione del Paese tra un Nord più progredito e avanzato e un Sud (o meglio: un Centro-Sud) dove si concentrano i principali fattori di ritardo e di arretratezza. E’ necessario porre rimedio urgente a tutte queste manchevolezze, se vogliamo parlare seriamente di competitività del Paese. Lo spread culturale è molto più grave di quello finanziario.
• Premiare i migliori: che significa? Se si decide – come si è fatto in Italia – di attribuire una parte (oggi molto piccola) dei fondi a disposizione in base al merito, si constata che per valutare questo indefinito “merito” occorre introdurre un numero molto alto di indicatori. Alcuni riguardano le responsabilità degli operatori (evitare vizi di localismo, clientelismo, familismo, ecc.), alcuni le fattispecie degli ambiti disciplinari, ma molti riguardano le caratteristiche dei territori. Per quanto riguarda il versante della ricerca appare iniquo, ad esempio, comparare la capacità di attrarre finanziamenti privati o esteri da parte di un polo tecnico-ingegneristico situato in una zona ad alto sviluppo economico del Paese, con quello di un’università a prevalente vocazione umanistica che si trovi in un’area depressa. A prendere sul serio l’equità, sarebbe la seconda a dover essere incentivata, non la prima. Attualmente accade il contrario, col risultato di aumentare il gap tra i territori e tra le discipline, anziché ridurlo.
• Valutazione della didattica: se si introducono indicatori statistici di attrattività (ad esempio numero di iscritti, numero di laureati) si rischia di ottenere il risultato perverso che le facoltà meno fortunate cerchino di rendere gli studi più “facili” per attrarre un maggior numero di utenti, e dunque maggiori finanziamenti. Tanti laureati, ma ignoranti: accade spesso, accade sempre di più. L’università come un supermercato con i saldi e le offerte speciali: è accettabile?
• Valutazione della ricerca: può avere due obiettivi principali: la valutazione delle strutture, con conseguenze sull’assegnazione delle risorse, e la valutazione dei singoli ricercatori, con conseguenze sul reclutamento e sulla carriera. In entrambi i casi, l’unità di osservazione sono i prodotti di ricerca individuali (nella maggior parte dei casi articoli o monografie).
• E’ impossibile introdurre meccanismi di valutazione che accontentino tutti, ed è impensabile che, in un mondo dai saperi così differenziati e frammentati, un paradigma possa imporre agli altri i propri criteri di scientificità. In assenza di criteri massimi, si possono però introdurre criteri minimi: soglie sia quantitative sia qualitative al di sotto delle quali non si debba scendere.
• Non esiste un sistema perfetto: ne esistono alcuni meno imperfetti degli altri. Quasi tutti ritengono sensato partire da una visione procedurale di qualità scientifica: è di qualità accettabile una pubblicazione che abbia superato una valutazione rigorosa da parte dei “pari”. La peer review ha dei difetti, ma è il metodo di selezione migliore a disposizione della comunità scientifica ed è di gran lunga quello più usato in tutto il mondo. Come e da chi debbano essere scelti i valutatori, e quali criteri adottino, è forzatamente soggetto a un tasso di arbitrarietà. Che si può ridurre rendendoli il meno possibile discrezionali, il meno possibile confusi con indirizzi politici, il più possibile trasparenti e pubblici.
• Se si guarda alla passata esperienza della Valutazione Triennale della Ricerca (VTR) 2001-2003, si rileva che: ci sono voluti tre anni per espletare l’intera procedura; il primo Comitato di Indirizzo per la Valutazione della Ricerca – CIVR – ha consegnato la relazione finale nel 2006; il costo è stato di 3,5 milioni di euro; ha coinvolto 150 esperti e 6000 valutatori per valutare circa 18500 prodotti. Il VQR 2004-2010 si prospetta come un esercizio ancor più ambizioso: circa 210000 prodotti che dovranno essere gestiti dai 450 componenti del Gruppo di Esperti della Valutazione (GEV). Ciascun componente, quindi, avrà in media un “carico” di quasi 500 prodotti e, se si rispetterà l’obiettivo di valutarne tramite peer review almeno la metà (più uno), inviando a ciascun revisore un numero di prodotti compreso tra 10 e 20 (valori ragionevoli ma tutt’altro che piccoli), ci sarebbe bisogno di un “esercito” di valutatori oscillante fra le 10000 e le 20000 unità.
• Questo è dunque un sistema che anche quando tutto fili liscio rischia di avere dei tempi molto lunghi: il nostro corpo docente è molto anziano. Si può ragionevolmente prevedere che quando la valutazione avrà conseguenze concrete, i valutati saranno già in gran parte in pensione. Un buon quadro può essere un quadro inutile.
Santo Di Nuovo febbraio 16th, 2012 http://www.argocatania.org