Cominciamo con l’osservare che non esiste qui un ente centrale e unitario, alle dipendenze del governo, che si occupa di tale settore. I ranking e le valutazioni negli Stati Uniti sono effettuate da numerose organizzazioni. Su Wikipedia ne sono catalogate 9 come principali: American Council of Trustees and Alumni Rankings (ACTA), Faculty Scholarly Productivity Index (FSPI), Forbes College rankings (FCR), The Top American Research Universities rankings (TARU), TrendTopper MediaBuzz College Guide (TMCG), U.S. News & World Report College and University rankings (USNWRCU), United States National Research Council Rankings (USNRCR), Washington Monthly College rankings (WMC), Revealed preference rankings (RPR). Ognuno di questi non solo misura aspetti diversi delle università, ma utilizza metodologie del tutto eterogenee e in gran parte adeguate allo scopo che si prefiggono.
Così si va dalla valutazione di parametri oggettivi come il tipo di titoli rilasciati, i curricula seguiti e la loro “forza”; il fatto di impartire certe discipline chiave, i finanziamenti, le percentuali di laureati, la reputazione conseguita presso un pubblico selezionato, ma anche pubblicazioni, citazioni, capacità di attrarre finanziamenti e così via. Ad es., l’ACTA (fondato nel 1995 come organizzazione indipendente e non-profit) classifica circa 700 college che rilasciano il bachelor degree (quattro anni) assegnando una lettera dalla A alla F in base alla inclusione nel curriculum degli studenti di almeno sette discipline (Composition, Literature, Foreign Language, American Government or History, Economics, Mathematics, Natural or Physical Science) in modo da assicurare una preparazione a più largo spettro che impartisca le conoscenze di base di cui gli studenti hanno veramente bisogno. Basta aver presenti 6 delle 7 discipline per avere la A.
Il FCR – pubblicato dalla omonima compagnia di media e publishing – utilizza invece cinque parametri: il successo dopo la laurea in base al salario e all’impiego, la soddisfazione degli studenti, l’indebitamento degli studenti, i premi e riconoscimenti (vedi la metodologia). Così vengono valutate le migliori 650 università americane (si veda l’ultimo report del 2011).
V’è poi la valutazione effettuata solo in base alla qualità della ricerca scientifica, come il FSPI (prodotto dalla associazione no-profit EDUCAUSE per mezzo della metodologia Academic Analytics, basata su algoritmi statistici sviluppati da Lawrence B. Martin and Anthony Olejniczak), che ha lo scopo di misurare l’impatto dei prodotti dei ricercatori utilizzando il numero delle pubblicazioni, ovviamente peer reviewed, le citazioni su riviste, i finanziamenti federali ricevuti e i riconoscimenti e premi ottenuti. L’ultimo ranking così prodotto è del 2007 e comprende 375 università che offrono il Ph.D degree; è fornita una classifica per area di studio (ad es. Agricultural Sciences, Education, Engineering, Humanities: in tutto 12) e quindi per disciplina (in tutto 46 – per la curiosità, la migliore università per Italian language and literature è la Cornell, seguita dalla Un. of California at Los Angeles; le altre sono staccate); oppure per istituzione.
Ancora, il TARU, sviluppato dal Center for Measuring University Performance della Arizona State University produce un report annuale (l’ultimo del 2010) nel quale le università di ricerca sono classificate in base a nove parametri: le spese totali per ricerca, le spese per R&D finanziate dal governo federale, il numero dei membri appartenenti ad accademie nazionali, il numero di riconoscimenti e premi, il numero dei dottorati concesso, il numero degli appointments postdottorali sostenuti e una media dei punteggi ottenuti dagli studenti nei test di ammissione (SAT/ACT). Sono così stilate valutazioni delle università private e pubbliche che ricevono almeno 40 milioni di dollari di finanziamento federale per la ricerca (163 in tutto nell’anno fiscale 2008, 116 pubbliche e 47 private); la classifica è determinata dal numero di volte in cui una università si piazza in ciascuno dei parametri prescelti e non da un indice numerico che sintetizzi il loro peso.
È interessante andare a vedere per queste università le somme ricevute in finanziamento per la ricerca scientifica e fare una comparazione con le quantità italiane. Faccio un esempio terra terra, di due università che ben conosco, quella di Catania e quelle del Nevada (Reno) e la Mississippi State University: la prima perché ci lavoro e le altre perché ne conosco bene la grande qualità della ricerca e delle strutture (queste ultime incomparabili con quelle delle migliori università italiane). Per Catania le entrate previste nel 2012 per ricerca scientifica sono 2,5 milioni di euro (progetti nazionali); l’Università di Reno invece nel 2008 ha ricevuto dal solo governo federale 66 milioni circa di dollari, ovvero circa 55 milioni di euro, cioè 22 volte in più. Eppure nell’HEEACT World ranking Catania occupa il 433° posto e l’università del Nevada il 441°. La Mississippi State University ha finanziamenti federali per la ricerca equivalenti a 79 ml di euro e non è neanche tra le prime 500. E abbiamo considerato solo i finanziamenti per ricerca federali, trascurando quelli che vengono dai singoli stati e da altre fonti. Un miracolo del genio siculo? No, ovviamente, perché questi confronti potrebbero essere moltiplicati ed estesi per decine di altre università. E dopo tale comparazione sorgerebbe spontanea la domanda: ma per quale miracolo sarà mai possibile che le università italiane nei ranking internazionali sulla qualità della ricerca scientifica ottengono spesso posizioni superiori a università americane che ricevono molti più fondi per ricerca di loro? Potrebbe essere questo un elemento di riflessione per il nostro Ministro e per i denigratori dell’università italiana? Lo si spera, perché sperare significa non disperare.
Infine, per non dilungarci ulteriormente su tutti i sistemi americani di valutazione, citiamo il più celebre e noto, che ha maggiore autorevolezza, l’USNWRCU, compilato dal 1983 dal U.S. News & World Report, che usa parametri misti, come la peer review della reputazione, i tassi di abbandono e di permanenza degli studenti, le risorse delle facoltà (dimensioni delle classi, salari, rapporto studenti/facoltà), i risultati dei test di ammissione, le spese per studente, i finanziamenti da parte degli ex studenti. Quindi dopo un calcolo del peso di ciascuno di questi fattori (la cui lista cambia anno per anno – e questo è stato all’origine di diverse contestazioni) si pubblica una classifica, che nel 2012 comprende ben 1.600 schools.
Bisogna infine precisare che esiste anche un sistema di accreditamento volontario (quindi non obbligatorio) per istituzioni o per specifici programmi di studio a cui ciascuna università può decidere di sottoporsi, condotto da valutatori esterni, che ha il solo scopo di indicare se sono rispettati dei requisiti minimi stabiliti dall’ente di accreditamento. Non è quindi una sistema per effettuare dei ranking o stabilire la qualità delle diverse istituzioni. I requisiti sono quelli stabiliti dall’U.S. Department of Education (DOE) che è un organismo federale e ha il compito supervisionare i programmi di educazione federale, e dal Council for Higher Education Accreditation (CHEA), ente privato no-profit che associa 3.000 istituzioni e che ha il compito di fissare gli standard da rispettare. Le organizzazioni che fanno gli accreditamenti hanno base inter-regionale e sono sei, in base a delle macroregioni (v. Higher Education Accreditation in the United States).
Eppure, sebbene questo sistema non abbia la funzione costrittiva e il carattere centralistico e dirigistico che è stato assegnato all’ANVUR (per non citare tutti gli altri suoi limiti messi in luce da altri articoli pubblicati da ROARS) nel 2007 è sorto negli stati uniti un movimento di protesta (il “2007 movement”), nato nel corso di un meeting dell’Annapolis Group (che organizza circa 130 università) e che ha dato origine a una lettera inviata a tutti i presidenti delle università per protestare contro il più noto e influente ranking, l’USNWRCU, e in particolare contro la pratica di cambiare continuamente i criteri e di non adottare chiare e condivise procedure. Attualmente circa 80 università hanno aderito a questo movimento, decidendo di non partecipare a tale valutazione, e un acceso dibattito è nato ed è ancora in corso sui media, sicché tale moto di protesta sembra prendere forza.
Da quanto detto alcuni elementi emergono con chiarezza:
- Non esiste negli USA un sistema nazionale di valutazione della qualità scientifica delle università,
- Esiste un sistema di accreditamento volontario su base regionale che rispetta solo alcuni standard definiti dal DOE e dal CHEA: è in base al rispetto di questi standard che il governo federale ammette le università ai propri finanziamenti (per lo più riguardanti la ricerca).
- Esiste poi una classificazione delle università in 33 tipologie, in base a parametri oggettivi (dimensioni, finalità ecc.), effettuata dalla Carnegie Foundation.
- I finanziamenti delle università e della ricerca (che per circa il 67% sono federali e statali) non dipendono per nulla dalle valutazioni qualitative effettuate dalle varie organizzazioni che abbiamo prima menzionato, le quali servono solo per dare un orientamento agli studenti e di conseguenza anche ai finanziatori privati e in un certo quale modo a dare un peso sul mercato delle professioni e degli impieghi alla laurea conseguita. A tal fine si fa notare che ciò avviene in presenza del valore legale del titolo di studio, il quale è richiesto, con la specifica dei crediti acquisiti nelle singole discipline, da ogni amministrazione pubblica.
- Solo uno dei tanti enti organizzatori, il FSPI, effettua comparazioni sulla qualità della ricerca e non basandosi solo su dati bibliometrici, che comprende solo 375 università sulle 4.635 università e college classificati dalla Carnegie Foundation.
Cosa ha a che fare questo sistema con quanto sta tentando di fare l’ANVUR, con tutti i limiti e le problematiche che ROARS ha già messo in luce? Poco o nulla. E con l’ANVUR si sta mettendo in piedi un meccanismo che dovrebbe giungere entro il 2015 alla valutazione delle strutture per la distribuzione a regime (chissà quanti anni dopo) di un somma premiale che ammonterebbe al 20% dell’intero FFO, cioè circa 832 milioni (per il 2011), tra l’altro non finalizzata alla ricerca ma spendibile per tutte le loro esigenze (compresi gli stipendi del personale). Questo significa che tutte le università italiane che si spartiscono la quota premiale (circa 54) ricevono solo circa 6 volte di più di quanto prendono per la sola ricerca le due università americane prima citate. Se questi sono i numeri e la realtà vera con cui si ha a che fare, allora i cantori dell’eccellenza americana, prima di cercare di importare in Italia posticce e per lo più inventate ricette d’oltreoceano, studino bene cosa accade lì e poi cerchino pure di realizzare in Italia non ciò che loro conviene o che è dettato da mero pregiudizio ideologico, ma quanto effettivamente v’è di positivo, a cominciare dalla qualità e dalla quantità del finanziamento della ricerca scientifica. Bisogna anche aspettare in Italia un “2012 movement”, per svegliarsi e addivenire a più sensate e condivise pratiche di valutazione?
Download as PDF
Francesco Coniglione - www.roars.it (14 febbraio 2012 )