Il dibattito sulle prove INVALSI non conosce vacanza
Data: Giovedì, 18 agosto 2011 ore 22:49:56 CEST
Argomento: Opinioni


      Tutto quello che prof e scuole non hanno capito dell’Invalsi
 “È assolutamente opportuno e auspicabile che all’interno del Paese si sviluppi un ampio dibattito sulle prove che permetta di dare spazio a diversi punti di vista, sia sul piano culturale sia su quello più propriamente tecnico” (Le caratteristiche tecniche delle prove Invalsi 2011). Con queste parole l’Invalsi dichiara la sua volontà di interloquire a tutto campo non solo con la realtà della scuola ma anche con il complesso della società, sapendo bene che recentemente personalità di spicco della cultura e dei media si sono assunte la responsabilità di intervenire, spesso in maniera critica, sull’operazione “rilevazione degli apprendimenti”.
La rilevazione Invalsi infatti non è un fatto tecnico interno ad un istituto “specializzato in test”, ma riguarda tutta la nazione, quello che in essa viene considerato importante e da presidiare: il bene tutelato dalla scuola non è solo un pacchetto di nozioni e abilità, bensì un’idea antropologicamente fondata dell’uomo adulto, con cui anche le misurazioni tecniche devono avere un rapporto di coerenza. Fa bene il rapporto a richiamare innanzitutto i limiti delle prove, che non possono dare informazioni che non sono predisposte a dare: bisogna evitare “un’attribuzione eccessiva di significato alle prove stesse, quando invece all’interno dei quadri di riferimento è già esplicitamente dichiarato che, per loro natura, le prove standardizzate non possono, né devono, essere intese come uno strumento utile per tutti gli scopi di misurazione e di valutazione”. Certamente però quello che viene misurato viene reso oggetto di un’attenzione specifica e quindi merita la vigilanza critica della società intera.
Riconoscendo nel dibattito seguito alle prove un tratto positivo, il Rapporto tecnico intende “dare le ragioni” del proprio operato, prendendo in esame anche alcune critiche specifiche. Una delle critiche frequenti alle prove, per esempio, è stata la difficoltà di alcuni quesiti, ritenute del tutto inaccessibili. Su questo punto viene precisato quanto da tempo chi si occupa di prove standardizzate va dicendo nelle più diverse occasioni, cioè che una delle differenze fra una prova di profitto svolta in classe e le prove standardizzate a carattere nazionale o sovranazionale è il range molto ampio di difficoltà dei quesiti.
“Le prove standardizzate ... sono costruite avendo a riferimento l’intera popolazione scolastica ... e quindi è assolutamente comune che vi siano alcuni particolari quesiti di difficoltà troppo elevata per la quasi totalità degli allievi di una determinata classe, poiché non è detto che particolari livelli molto elevati di competenza siano necessariamente presenti in tutte le classi, mentre lo sono certamente a livello di popolazione”. Lo scopo delle prove è anche quello di individuare le eccellenze a livello della nazione.
Un’altra critica frequente è quella sui distrattori: la risposta giusta o “non c’è nel testo”, oppure non è univoca. Sul primo punto il Rapporto tecnico chiarisce che la comprensione dei testi, per come è presentata nel Quadro di riferimento, “è molto più ampia di quella di una semplice individuazione di informazioni esplicitamente date nel testo e dunque in alcuni casi la risposta giusta deve essere individuata attraverso processi di ragionamento che vanno al di là di quanto il testo dice alla lettera e che possono anche implicare, oltre che l’enciclopedia personale dello studente-lettore, una comparazione delle alternative proposte fino a identificare quella più corretta”.
Sul secondo viene segnalato un elemento anche di natura tecnica, cioè che tutte le quattro alternative di risposta “per ‘funzionare’... debbono esser abbastanza plausibili da attrarre le scelte di una parte degli alunni, quelli, in pratica, che padroneggiano di meno l’abilità (o costrutto latente) che la prova intende misurare. Se la risposta giusta venisse, a qualunque livello di abilità, sempre preferita rispetto ai distrattori, questa sarebbe un’indicazione molto forte - secondo le regole che presiedono alla costruzione di domande a scelta multipla - che i distrattori non funzionano e che vanno riformulati o sostituiti”. Del resto si ricorda che i test vengono tutti pretestati, e il caso di risposte date a caso, per mancanza di univocità della risposta corretta, emergerebbero dall’analisi statistica.
Le argomentazioni, e anche una serie di dati tecnici che le supportano, sono a disposizione per entrare in un dibattito di fatto nuovo per l’Italia. Non abbiamo una grande tradizione di strumenti statistici di misurazione degli apprendimenti, l’analisi classica degli item solo da poco è stata aggiornata con metodologie più adeguate (IRT), che peraltro erano presenti a livello Ocse da moltissimi anni, ma importate pionieristicamente solo nei primi anni del 2000 in Lombardia. Di fatto l’Invalsi percorre anch’esso una strada di progressivo miglioramento: le tecniche di cheating necessarie per fornire dati nazionali depurati dei comportamenti opportunistici sono state affinate nel tempo, il Quadro di riferimento è almeno alla terza edizione e viene aggiornato e reso sempre più coerente, i rapporti diventano più espliciti e leggibili per chi vuole impegnarsi nella loro lettura. Del resto anche la scuola “migliora”: cala il numero delle risposte omesse (soprattutto nelle domande aperte), in molte regioni si ridimensiona il fenomeno dei comportamenti opportunistici (copiature).
Registro nel Rapporto nazionale sugli esiti delle prove alcuni punti nuovi: non bastano solo gli esiti in termini di percentuali di risposte corrette (i dati cosiddetti grezzi), ma sono necessari anche quelli che tengono conto del livello di difficoltà. “Per comprendere a fondo l’informazione didattica che si può trarre dall’esito di una o più domande è necessario, in primo luogo, valutare la difficoltà del quesito. Una percentuale elevata di risposte corrette non è di per sé né un’indicazione positiva né negativa. Innanzitutto, è importante comprendere se la domanda oggetto d’interesse è facile o difficile in senso propriamente psicometrico (p. 144 del Rapporto nazionale). Questo pone il problema dell’agganciamento reciproco dei test, che è cruciale per la possibilità di misurare non solo lo stato degli apprendimenti delle scuole, ma la variabilità da un anno all’altro (Capitolo II) e in prospettiva il valore aggiunto fra l’inizio e la fine del ciclo che ogni scuola è in grado di offrire ai propri studenti.
Se un appunto si può muovere, non all’Invalsi ma al settore-scuola in quanto tale, è la scarsissima opera di diffusione dei contenuti e dei metodi di lavoro dell’Invalsi fra i diretti interessati. I Rapporti sono fondamentali, ma non molti li conoscono; i Quadri di riferimento chiariscono già molti aspetti che fanno obiezione ai docenti, ma molti degli insegnanti non li hanno mai letti. A parte l’opera svolta nelle famose quattro regioni dell’Obiettivo convergenza, dove team di formatori sono stati mandati a tutti gli insegnanti coinvolti nelle rilevazioni Pisa (nel 2008) e a tutti i docenti del primo ciclo coinvolti in quelle dell’Invalsi (2010-11), non si è registrata un’operazione analoga per le altre Regioni, anche per mancanza di fondi.
La conseguenza è che da un lato aleggia una certa approssimazione sul perché si fanno queste prove, ma soprattutto è ancora scarsa l’efficacia delle informazioni ottenute dalle misurazioni ai fini del miglioramento per il sistema in quanto tale e all’interno delle scuole singole, dove c’è ancora molto fai-da-te e molta incertezza. Segnalo che l’Irre Lombardia (a furia di ex non si sa come chiamarla: Nucleo Territoriale ex-Ansas ex-Irre Lombardia) ha in programma per il periodo autunnale un approfondimento di questi temi (quadri di riferimento, rapporto nazionale, dati di scuola, rapporto interno di scuola), nella speranza di dare agli insegnanti elementi utili non tanto alla normalizzazione dell’operazione-prove, quanto alla coscienza critica e vigile sulla loro utilità.
Lo scopo delle misurazioni è di fare cosa culturalmente utile, e non di assuefare il sistema alle prove. “Se - come certamente l’Invalsi auspica - si vuole evitare che si inducano nella scuola fenomeni non desiderabili di addestramento alle prove standardizzate” (cosa peraltro inutile perché esse volutamente sono “molto varie da un anno all’altro, sia rispetto ai contenuti sia alle modalità con le quali i quesiti sono formulati”) è necessario lavorare sugli aspetti e i processi e sui livelli di difficoltà. Non è l’addestramento al test la chiave di volta, ma l’approfondimento di che cosa significa comprendere un testo e interagire con esso: su questo versante oggettivamente all’estero hanno lavorato più di noi, con gli studi sui poor readers, sui processi cognitivi di recupero delle informazioni e sulla memoria a medio e lungo termine, sulle inferenze e gli impliciti, sul grado di difficoltà di diverse formulazione delle domande ecc.: aspetti su cui la totalità degli insegnanti di italiano dovrebbero essere meglio informati.
Daniela Notarbartolo
(Docente di ruolo nei licei, passata alla ricerca educativa. Dal 2005 lavora presso l'ex-IRRE Lombardia, dove si occupa prevalentemente di didattica della grammatica e di valutazione. Ha svolto consulenze per il MIUR e collabora con l'INVALSI)

redazione_at_aetnanet.org





Questo Articolo proviene da AetnaNet
http://www.aetnanet.org

L'URL per questa storia è:
http://www.aetnanet.org/scuola-news-243778.html