Benvenuto su AetnaNet
 Nuovo Utente / Login Utente 582080944 pagine viste dal Gennaio 2002 fino ad oggi 11170 Utenti registrati   
Sezioni
Consorzio
Home
Login
Progetto
Organizzazione
Scuole Aetnanet
Pubblicità
Convenzione Consult Service Management srl
Contattaci
Registrati

News
Aggiornamento
Associazioni
Attenti al lupo
Concorso Docenti
Costume e società
Eventi
Istituzioni
Istituzioni scolastiche
Manifest. non gov.
Opinioni
Progetti PON
Recensioni
Satira
Sondaggi
Sostegno
TFA
U.S.P.
U.S.R.
Vi racconto ...

Didattica
Umanistiche
Scientifiche
Lingue straniere
Giuridico-economiche
Nuove Tecnologie
Programmazioni
Formazione Professionale
Formazione Superiore
Diversamente abili

Utility
Download
Registrati
Statistiche Web
Statistiche Sito
Privacy Policy
Cookie Policy


Top Five Mese
i 5 articoli più letti del mese
aprile 2024

Catania romana e dintorni
di a-oliva
321 letture

Mascalucia - Federico Sorrenti, sindaco dei ragazzi dell’istituto Leonardo Da Vinci
di a-oliva
290 letture

Mobilità Personale Docente per l’a.s. 2024/2025 – conclusione operazioni di convalida
di a-oliva
269 letture


Top Redattori 2016
· Giuseppe Adernò (Dir.)
· Antonia Vetro
· Michelangelo Nicotra
· Redazione
· Andrea Oliva
· Angelo Battiato
· Rosita Ansaldi
· Nuccio Palumbo
· Filippo Laganà
· Salvatore Indelicato
· Carmelo Torrisi
· Camillo Bella
· Renato Bonaccorso
· Christian Citraro
· Patrizia Bellia
· Sergio Garofalo
· Ornella D'Angelo
· Giuseppina Rasà
· Sebastiano D'Achille
· Santa Tricomi
· Alfio Petrone
· Marco Pappalardo
· Francesca Condorelli
· Salvatore Di Masi

tutti i redattori


USP Sicilia


Categorie
· Tutte le Categorie
· Aggiornamento
· Alternanza Scuola Lavoro
· Ambiente
· Assunzioni
· Attenti al lupo
· Bonus premiale
· Bullismo e Cyberbullismo
· Burocrazia
· Calendario scolastico
· Carta del Docente
· Concorsi
· Concorso Docenti
· Consorzio
· Contratto
· Costume e società
· CPIA
· Cultura e spettacolo
· Cultura Ludica
· Decreti
· Didattica
· Didattica a distanza
· Dirigenti Scolastici
· Dispersione scolastica
· Disponibilità
· Diversamente abili
· Docenti inidonei
· Erasmus+
· Esame di Stato
· Formazione Professionale
· Formazione Superiore
· Giuridico-economiche
· Graduatorie
· Incontri
· Indagini statistiche
· Integrazione sociale
· INVALSI
· Iscrizioni
· Lavoro
· Le Quotidiane domande
· Learning World
· Leggi
· Lingue straniere
· Manifestazioni non governative
· Mobilità
· Natura e Co-Scienza
· News
· Nuove Tecnologie
· Open Day
· Organico diritto&fatto
· Pensioni
· Percorsi didattici
· Permessi studio
· Personale ATA
· PNSD
· Precariato
· Previdenza
· Progetti
· Progetti PON
· Programmi Ministeriali
· PTOF
· Quesiti
· Reclutamento Docenti
· Retribuzioni
· Riforma
· RSU
· Salute
· Satira
· Scientifiche
· Scuola pubblica e o privata
· Sicurezza
· SOFIA - Formazione
· Sostegno
· Spazio SSIS
· Spesa pubblica
· Sport
· Strumenti didattici
· Supplenze
· TFA e PAS
· TFR
· Umanistiche
· Università
· Utilizzazione e Assegnazione
· Vi racconto ...
· Viaggi d'istruzione
· Voce alla Scuola


Articoli Random

Opinioni
Opinioni

·Ai confini della realtà. Le assurde proposte di una dirigente scolastica 'appassionata al futuro'
·Richieste illegittime da parte delle segreterie scolastiche
·Concorso dirigenti scolastici 2017: “Giustizia per l’Orale” denuncia i plurimi aspetti di illegittimità
·Quelle strane incongruenze nel curriculum della ministra Lucia Azzolina
·La DaD ha salvato la baracca?


Scuole Polo
· ITI Cannizzaro - Catania
· ITI Ferraris - Acireale
· ITC Arcoleo - Caltagirone
· IC Petrarca - Catania
· LS Boggio Lera - Catania
· CD Don Milani - Randazzo
· SM Macherione - Giarre
· IC Dusmet - Nicolosi
· LS Majorana - Scordia
· IIS Majorana - P.zza Armerina

Tutte le scuole del Consorzio


I blog sulla Rete
Blog di opinione
· Coordinamento docenti A042
· Regolaritè e trasparenza nella scuola
· Coordinamento Lavoratori della Scuola 3 Ottobre
· Coordinamento Precari Scuola
· Insegnanti di Sostegno
· No congelamento - Si trasferimento - No tagli
· Associazione Docenti Invisibili da Abilitare

Blog di didattica
· AltraScuola
· Atuttoscuola
· Bricks
· E-didablog
· La scuola iblea
· MaestroAlberto
· LauraProperzi
· SabrinaPacini
· TecnologiaEducatica
· PensieroFilosofico


INVALSI: I divari territoriali nella preparazione degli studenti italiani:

Rassegna stampa

I DIVARI TERRITORIALI NELLA PREPARAZIONE DEGLI STUDENTI ITALIANI: EVIDENZE DALLE INDAGINI NAZIONALI E INTERNAZIONALI

di Pasqualino Montanaro*
Sommario
Recenti indagini internazionali hanno testato il livello di preparazione degli studenti di vari paesi, evidenziando un significativo ritardo di quelli italiani. Le indagini concordano inoltre nel descrivere una realtà differenziata all’interno dell’Italia, nella quale gli studenti meridionali mostrano una preparazione inferiore in tutte le materie oggetto di indagine (capacità di comprensione di un testo, matematica, scienze, problem solving). Questi differenziali territoriali sono accentuati nelle scuole tecniche e in quelle professionali, meno nei licei, e tendono a crescere durante il percorso scolastico. Nel Mezzogiorno anche la dispersione nei risultati tra gli studenti risulta più elevata. Al quadro emerso dalle rilevazioni esterne non corrisponde quello tracciato dai voti scolastici. La correlazione tra risultati “esterni” e “interni” appare, infatti, molto debole, denunciando una scarsa capacità del sistema di valutazione scolastico nel segnalare adeguatamente la reale preparazione degli studenti. Le caratteristiche della famiglia di provenienza esercitano un forte impatto sulla preparazione scolastica, specialmente negli anni della scuola dell’obbligo. In particolare, una parte significativa dei divari tra Nord e Mezzogiorno è attribuibile agli studenti provenienti da famiglie svantaggiate. Nel passaggio alla scuola secondaria di II grado (scuola superiore), l’influenza della famiglia risulta attenuata, una volta considerati il tipo di scuola frequentata e, soprattutto, le diverse caratteristiche della scuola frequentata, suggerendo che l’influenza familiare si esercita soprattutto nella scelta dell’istituto scolastico. Classificazione JEL: I20, I21. Parole chiave: istruzione, indagini internazionali, divari territoriali. Indice 1. Introduzione e sintesi 3 2. La letteratura teorica ed empirica 4 3. I divari negli apprendimenti scolastici 7 4. Relazioni tra valutazioni esterne e voti scolastici 14 5. Relazioni tra apprendimenti scolastici e background familiare 16 Tavole e figure 20 Bibliografia 47 *Banca d’Italia, Nucleo per la ricerca economica della Sede di Ancona. 1 L’autore ringrazia Paolo Sestito, Piero Casadio, Piero Cipollone, Antonio Filippin, Alessandro Fabbrini, Giacinto Micucci e due anonimi referee per i loro utili suggerimenti e commenti; Maria Letizia Cingoli per la raccolta dei dati e per la predisposizione di tavole e figure; Luigi Biasco per l’attenta revisione del documento. Le opinioni espresse in questo articolo appartengono all’autore e non riflettono quelle della Banca d'Italia. 1. Introduzione e sintesi Il rinnovato interesse che la teoria della crescita ha riservato ai differenziali di reddito si è recentemente tradotto in molteplici contributi focalizzati sul ruolo svolto dal capitale umano. I contributi in materia si sono via via arricchiti di differenti specificazioni del capitale umano, per tener conto dell’eterogeneità del fattore lavoro e della sua diversa qualità. È ampiamente riconosciuto in letteratura, infatti, che ignorare la qualità del lavoro distorce significativamente le stime della relazione tra fattore lavoro e crescita. Tra gli strumenti idonei a misurare la qualità del capitale umano, le indagini sul grado di istruzione di una determinata popolazione di individui (soprattutto studenti di ogni ordine e grado) consentono, in maniera efficace, di rilevare abilità, capacità e competenze non altrimenti identificabili se ci si limita al grado di istruzione “formale” raggiunto. Anche se i test sulla preparazione degli studenti non riescono a cogliere completamente attitudini e motivazioni, che pure rientrano nell’ampia definizione di capitale umano, i loro risultati forniscono una robusta evidenza della qualità del capitale umano stesso. Detto questo, rimane comunque aperto il dibattito su quanta parte della qualità dell’istruzione di una determinata popolazione risenta dell’efficienza del sistema scolastico, piuttosto che dell’operare di fattori familiari, sociali, economici. Questo articolo, di taglio volutamente descrittivo, si propone di confrontare metodologie e risultati delle più importanti indagini che negli ultimi anni hanno testato la preparazione, tra gli altri, degli studenti italiani, cercando di capire: i) se esse rivelano ampi divari territoriali all’interno del paese; ii) se i risultati variano significativamente a seconda dell’età o del grado scolastico; iii) se i risultati delle rilevazioni esterne differiscono dalle valutazioni “interne” (voti scolastici); iv) se il background socio-economico e culturale della famiglia di provenienza influisce sulla performance scolastica degli studenti. Tutte le più importanti indagini (inclusa la rilevazione nazionale condotta dall’INValSI, Istituto Nazionale per la Valutazione del sistema educativo di istruzione e di formazione) rivelano significativi divari tra le regioni italiane, con gli studenti meridionali al di sotto degli standard internazionali e di quelli delle regioni settentrionali, in tutte le materie oggetto di valutazione (comprensione del testo, matematica, scienze). Questo lavoro mostra anche che i divari territoriali sono ancora più ampi negli istituti tecnici e professionali, e crescono con l’avanzare del percorso scolastico. Al quadro emerso dalle rilevazioni esterne non corrisponde quello tracciato dai voti scolastici interni. La correlazione tra valutazioni “esterne” e “interne” appare, infatti, molto debole, denunciando una scarsa capacità degli esami finali nel segnalare adeguatamente la reale preparazione degli studenti. Le ragioni potrebbero esse molteplici; questo lavoro ipotizza che la discrasia sia dovuta prevalentemente a fattori within schools, riconducibili a distorsioni nei criteri di valutazione da parte degli insegnanti. Infine, questo lavoro mostra che le caratteristiche della famiglia di provenienza esercitano un forte impatto sui risultati scolastici, specialmente negli anni che precedono la scelta della scuola secondaria di II grado (scuola superiore). In particolare, una parte significativa dei differenziali di conoscenze e competenze tra gli studenti del Nord e quelli del Sud è attribuibile agli studenti provenienti da famiglie svantaggiate. Nel passaggio alla scuola superiore, l’effetto-famiglia risulta attenuato, una volta considerati il tipo di scuola frequentata e, soprattutto, le diverse caratteristiche della scuola frequentata, suggerendo che l’influenza dei genitori si esercita soprattutto nella scelta dell’istituto scolastico. Quanto emerso suggerisce alcune considerazioni di policy. Certamente concentrare gli sforzi solo sul miglioramento del sistema educativo non può colmare gli attuali divari territoriali in termini di conoscenze e competenze, considerando quanto i fattori sociali, economici e culturali incidano sul livello di istruzione. Tuttavia, il fatto che le disparità tra le tipologie di scuola e tra gli istituti stessi siano così marcate sembra richiedere l’adozione di misure di politica scolastica più specifiche e mirate. L’articolo è organizzato come segue. Il paragrafo 2 fornisce una sintetica rassegna della letteratura sulla misurazione dei risultati scolastici e sul loro utilizzo; il paragrafo 3 presenta i risultati per l’Italia a livello regionale e per grado scolastico, mentre il paragrafo 4 confronta tali evidenze con quelle fornite dai voti scolastici “interni”. Il paragrafo 5 valuta infine gli effetti delle condizioni familiari sulla performance scolastica. 2. La letteratura teorica ed empirica Il dibattito sul ruolo sociale ed economico dell’istruzione divenne vivace sul finire degli anni Sessanta, quando alcuni autori sostennero apertamente che “la scuola non fa la differenza” e posero in discussione la validità di politiche che, investendo massicciamente nell’istruzione, si proponessero di accrescere il livello di preparazione degli studenti e di colmare i divari esistenti tra studenti provenienti da contesti sociali differenti (Coleman, 1966; Jenchs, 1973). Per l’Inghilterra, alla fine degli anni Settanta, Rutter et al. (1980) cercarono di dimostrare, al contrario, che “la scuola fa la differenza”. Da allora, un ampio filone di ricerca ha mostrato che le politiche educative influiscono sulla crescita e sulla capacità di innovazione di un sistema economico, innalzando il livello di preparazione degli studenti (Búeler, 1998; Grisay, 1997). Sulla base di dati più affidabili, alcuni lavori rivelano che gli effetti derivanti dal contesto sociale, di scuola e di classe (“local externalities”) sono significative tanto quanto quelli legati al contesto familiare (Card e Krueger, 1992; Cooper et al., 1994; più recentemente, Bratti et al., 2007). I più recenti contributi della letteratura empirica sulla crescita mostrano che larga parte dei rendimenti degli investimenti in capitale umano sono attribuibili alle capacità intellettuali e alle abilità cognitive. Hanushek e Kimko (2000) enfatizzano tale aspetto, sottolineando come la spiegazione dei divari di crescita cross-country risenta dell’inclusione nei modelli di stima di misure di qualità del capitale umano. Essi riportano robuste evidenze che misure di qualità della forza lavoro, a loro volta influenzate da fattori culturali, razziali, familiari, scolastici, sono correlate alla produttività individuale e, mediante tale canale, influenzano positivamente i redditi degli stessi lavoratori e quindi le relazioni di crescita. Pur trovando ancora un legame positivo tra grado di istruzione (quantità d’istruzione) e crescita, Barro (2001) mostra che l’effetto della qualità dell’istruzione, espressa dalle conoscenze degli studenti, è però sostanzialmente molto più importante. Bosworth e Collins (2003), Ciccone e Papaioannou (2005), Coulombe et al. (2004), Coulombe e Tremblay (2006) confermano che la qualità dell’istruzione predomina su ogni altro effetto. Secondo Hanushek e Woessman (2007), l’istruzione può accrescere i redditi individuali e il livello di sviluppo di un’economia soprattutto attraverso l’accelerazione impressa al progresso tecnologico. In ogni caso, non vi è dubbio che la qualità dell’istruzione (e quindi della forza lavoro) è solo uno dei fattori che rientrano nella determinazione della crescita. Innalzare il livello di qualità della scuola può avere effetti trascurabili nel supportare il funzionamento di una moderna economia, se mancano politiche che rafforzino, tra gli altri, i meccanismi di mercato e le istituzioni pubbliche e legali (Hanushek e Woessmann, 2007). Il tema dell’efficacia della scuola è così divenuta un nodo centrale nel dibattito pubblico. Anche in Italia, il rafforzamento dell’autonomia scolastica ha incoraggiato la partecipazione a iniziative di rilevazione “esterna” degli apprendimenti e dei risultati scolastici in generale, del tipo output-assessments.2 La prima iniziativa di tal genere, condotta dall’OCSE e risalente alla metà degli anni Ottanta, produsse risultati, per la verità, non completamente soddisfacenti sotto l’aspetto strettamente statistico (Kane e Staiger, 2002). Negli anni più recenti, quattro importanti indagini3 hanno misurato, con crescente affidabilità statistica, conoscenze, abilità e capacità di studenti di un ampio numero di paesi: l’International Adult Literacy Survey (IALS), condotta in tre edizioni (1994, 1996 e 1998) dall’OCSE e da Statistics Canada; il Program for International Student Assessment (PISA), organizzato dall’OCSE nel 2000, 2003 e 2006; il Trends in Maths and Science Study (TIMSS) e il Progress in International Reading Literacy Study (PIRLS), entrambi condotti dall’International Study Center del Boston College e dall’International Association for the Evaluation of Educational Achievement (IEA), il primo nel 1995, 1999, 2003 e 2007, il secondo nel 2001 e 2006 (tay. 1). Le differenze nel numero e nella composizione dei paesi partecipanti alle varie iniziative, negli obiettivi e nel target di popolazione delle iniziative rendono impossibile considerare un’indagine come un completamento o una prosecuzione di un’altra, quasi scaturissero tutte da una stessa fonte, anche quando l’oggetto di valutazione è lo stesso. Tuttavia, seppure con opportune cautele, è possibile confrontare i loro risultati. Alcuni autori (Micklewright e Schnepf, 2004; Brown et al., 2005) hanno già confrontato le indagini cross-country, trovandole sufficientemente coerenti in termini di media e dispersione dei risultati. Hanushek e Woessmann (2007) trovano che i risultati dei più importanti assessment 2 In generale, può essere definita “esterna” qualsiasi rilevazione condotta materialmente da persone che non appartengono, a vario titolo, alle scuole coinvolte. Sulla base di teorie sulle motivazioni e sugli apprendimenti, MacBeath (1999) suggerisce che ciascuna tipologia di rilevazione deve essere utile innanzitutto ai singoli istituti scolastici che ne sono coinvolti. Alcune survey hanno valutato, così, non solo la performance degli studenti, ma anche la qualità dei processi educativi all’interno delle scuole, assumendo che vi siano effetti positivi dell’assessment anche sul miglioramento dei sistemi di insegnamento (vedi, ad esempio, l’International School Improvement Project dell’OCSE; Reynolds e Stoll, 1996). 3 Esistono altre meno conosciute survey condotte a livello internazionale, che si focalizzano su un più ristretto numero di paesi o sono state condotte con discontinuità. Tra queste, l’indagine Adult Literacy and Lifeskills (ALL), condotta dall’OCSE e da Statistics Canada nel 2003, ha ottenuto informazioni sulle abilità di literacy e di numeracy delle popolazioni adulte di alcuni paesi (Bermuda, Canada, Italia, Norvegia, Svizzera e Stati Uniti). Questa indagine ha fatto seguito alla survey pionieristica denominata IALS. Il Civic Education Study (CivEd) è stato condotto invece dall’IEA nel 1999; esso ha fornito informazioni su cosa gli studenti quattordicenni di 28 paesi (sette dei quail dell’area dell’euro: Belgio, Finlandia, Germania, Grecia, Italia, Portogallo e Slovenia) conoscono delle pratiche e delle istituzioni democratiche. sono altamente correlati a livello di paese. Per esempio, i coefficienti di correlazione tra i risultati di TIMSS 2003 sugli studenti dell’ottavo grado scolastico e di PISA 2003 sugli studenti quindicenni dei 19 paesi che hanno partecipato a entrambe le rilevazioni sono stimati pari all’87 per cento in matematica e al 97 per cento in scienze. A livello regionale, le correlazioni tendono a essere più basse, per errori (campionari e non) naturalmente maggiori. 3. I divari negli apprendimenti scolastici Questo paragrafo discute i risultati delle rilevazioni, nazionali e internazionali, alle quali gli studenti italiani hanno partecipato, con l’obiettivo di dare conto dell’esistenza o meno di divari territoriali e di verificare se le rilevazioni concordano in tal senso. Verranno analizzati dapprima i risultati dell’indagine INValSI, quindi quelli delle indagini internazionali. INfIalSI. – L’INValSI, istituto riconducibile al Ministero dell’Istruzione, ha condotto le proprie rilevazioni negli anni scolastici 2004-05 e 2005-06, coinvolgendo una larga parte degli studenti che frequentavano la 2a e la 4a elementare, la 1a media inferiore, la 1a e la 3a media superiore .4 L’oggetto di valutazione era “il possesso di conoscenze e abilità” in tre ambiti (lingua italiana, matematica, scienze). In questo lavoro, l’analisi sui dati INValSI si concentra sui risultati della scuola media inferiore e superiore, a causa della scarsa affidabilità dei dati delle elementari, i quali mostrano un livello di conoscenze degli studenti meridionali significativamente sopra la media, fornendo un quadro completamente differente rispetto non solo alle evidenze di altre indagini internazionali, ma anche a quanto emerge, per INValSI stesso, nei gradi successivi. A livello provinciale, la correlazione tra i punteggi riportati alle elementari e alle medie inferiori è, infatti, estremamente negativa .5 I risultati delle medie inferiori e delle superiori appaiono, invece, molto più affidabili. Sebbene manchi di utili informazioni sulle caratteristiche di background degli studenti testati, la rilevazione INValSI fornisce tuttavia un quadro dei divari territoriali molto affidabile, 4 Durante l’anno scolastico 2005-06, l’indagine dell’INValSI ha coinvolto più di 364.000 studenti solo per la media superiore (160.000 alla 1a e 204.000 alla 3a classe). Quasi il 40 per cento degli studenti era iscritto a un liceo. 5 Avendo riscontrato alcuni problemi nelle precedenti rilevazioni, soprattutto alla scuola elementare, il Ministero dell’Istruzione-INValSI ha introdotto nell’anno scolastico 2006-07 una nuova indagine campionaria, finalizzata – sulla falsariga delle indagini internazionali – a raccogliere informazioni non solo sulla preparazione degli studenti, soprattutto per aver coinvolto un numero estremamente elevato di scuole e studenti (figg. 1-3). Per le medie inferiori e per le superiori, INValSI conferma l’esistenza di un significativo ritardo degli studenti meridionali rispetto a quelli del Centro Nord, in tutte le materie oggetto di valutazione e a tutti i gradi scolastici considerati. Confrontando i punteggi medi alla media inferiore e alle superiori, le province del Nord risultano generalmente al di sopra della media nazionale, mentre la quasi totalità di quelle meridionali si posizionano al di sotto, alcune anche in misura significativa. Agli estremi della graduatoria, se Udine, Gorizia e Trieste ottengono i punteggi più alti, tutte le province della Sardegna si posizionano invece agli ultimi posti. A livello di medie regionali, se alcune realtà persistono ai primi posti in tutte le materie e a tutti i gradi (Friuli-Venezia Giulia e Veneto), altre ottengono invece alti punteggi solo in alcune materie (Marche in matematica) o per alcuni gradi (Umbria alla scuola superiore; figg. 1- 3). Come in PISA, gli studenti migliori sono quelli che frequentano i licei, mentre quelli iscritti a istituti tecnici e, soprattutto, professionali, denotano notevoli difficoltà. I punteggi appaiono generalmente bassi soprattutto in matematica. I divari territoriali sono invece più contenuti in italiano, ma solo nei primi anni del percorso scolastico. Alla fine del ciclo della scuola dell’obbligo (3a superiore), tali divari tendono, infatti, a essere analoghi a quelli riscontrati nelle materie scientifiche: l’ipotesi nulla di uguaglianza delle varianze tra materie non può essere rigettata (tav. 4).6 Come prevedibile, i coefficienti di correlazione tra materie risultano elevati, intorno all’80 per cento. OCSE-PISA 2003. – Il progetto internazionale più conosciuto (PISA) si concentra sugli studenti quindicenni e coinvolge tutti i paesi dell’OCSE. Nell’edizione 2003, sono stati testati circa 11.660 studenti italiani iscritti a poco più di 400 scuole. L’oggetto di valutazione è stato quello della scientific literacy (“capacità di utili.Z.Zare le proprie conoscen.Ze e competen.Ze per le sfide della vita ma anche sulle politiche adottate da ciascun istituto per migliorare la qualità dell’apprendimento, sulla loro efficacia, sul contesto sociale nel quale esse operano, sulle caratteristiche socio-demografiche degli studenti. 6 Per testare l’ipotesi nulla di uguaglianza delle medie di gruppi distinti, sono stati utilizzati i metodi Pooled (per varianze uguali) e Satterthwaite (per varianze disuguali); per testare l’ipotesi nulla di uguaglianza delle varianze, è stato invece utilizzato il metodo Folded F. Si tratta di test “parametrici”, che presuppongono un’assunzione di normalità della distribuzione. Se tale assunzione non è soddisfatta, i test statistici comunemente utilizzati rischiano di fornire risultati distorti, lasciando preferire test non parametrici. In questo caso, sulla base di comuni test statistici (Kolmogorov-Smirnov, Cramer-von Mises, Anderson-Darling), gran parte (anche se non tutti) dei risultati degli assessment considerati risultano “normalmente distribuiti”. quotidiana”), in quattro ambiti: comprensione del testo, matematica, scienze e problem solving.7 L’indagine viene usualmente condotta mediante quattro questionari: i) questionario di assessment; ii) questionario sul background dello studente; iii) questionario per l’insegnante; iv) questionario per la scuola. I risultati per l’Italia sono statisticamente significativi a livello di macroarea geografica (tav. 2). Per l’Italia, PISA 2003 segnala un notevole ritardo degli studenti quindicenni rispetto agli altri paesi OCSE, equivalente anche ad alcuni anni formali di scuola, e nonostante le notevoli risorse investite nell’istruzione. Tale situazione risulta peraltro confermata, se non addirittura aggravata, dalle prime evidenze dell’edizione successiva, nel 2006. I divari esistenti tra gli studenti migliori e quelli peggiori appaiono ampi e persistenti in ciascun percentile della distribuzione (OCSE, 2004). In tutte le materie, circa il 7 per cento degli studenti italiani raggiunge le prime posizioni della graduatoria, contro una media OCSE del 16 per cento, mentre ben il 32 per cento si posiziona al di sotto degli ultimi due livelli della scala di valutazione, contro una media OCSE del 21 per cento. Infine, il sistema educativo italiano presenta non solo un notevole ritardo in termini di performance media, ma anche una notevole dispersione tra le regioni e tipologie di scuola (licei, istituti tecnici, istituti professionali) .8 In tutti gli ambiti d’indagine, i quindicenni del Mezzogiorno riportano un punteggio medio9 inferiore del 20 per cento circa a quello dei pari età del Nord, dove invece i risultati si 7 Questo lavoro si concentra su tutti gli ambiti di indagine, fatta esclusione per il _iroblem solving, che non viene testato in altre rilevazioni, come PIRLS e TIMSS. Tuttavia, il gradiente geografico per quest’ambito d’indagine non si discosta da quello che risulta per le altre materie. 8 Secondo le stime di PISA 2003, le caratteristiche del contesto familiare, per quanto rilevanti (vedi oltre), sembrano influenzare la performance scolastica meno della media OCSE. Tuttavia, questo risultato rivela non tanto una più elevata equità sociale del sistema educativo, quanto il fatto che i punteggi degli studenti italiani sono più concentrati nella parte bassa della distribuzione. 9 Le medie provinciali sono state calcolate a partire dai _ilausible values (PV). Le indagini internazionali utilizzano la metodologia di calcolo dei risultati conosciuta come Item Response Theory (IRT), che standardizza gli scores su una scala con media uguale a 500 (international average) e deviazione standard pari a 100. Tale metodo consente di calcolare la performance degli studenti indipendentemente dalle specifiche domande alle quali rispondere (cfr. tav. 1). La Item Response Theory (IRT) prevede una stima dei parametri per ciascuna osservazione (in questo caso studente) e un esame delle caratteristiche di background di ognuna di esse. Da questo, vengono generate alcune stime di rendimento per ciascun studente, in aggregato e per ogni significativo gruppo. Su una scala standardizzata con media di 500 e standard deviation di 100, ogni studente ha 5 “stime di abilità”, chiamate _ilausible values (PV1-PV5). Questi rappresentano un set di valori random per ciascun studente selezionato casualmente a partire da una distribuzione di abilità degli studenti con simili risultati e simili background. Un PV è quindi una stima della _ierformance che uno studente avrebbe fatto su un test che avesse incluso tutte le domande. Dal momento che gli studenti non rispondono a tutte le domande (test “teorico”), si stima uno score basato sulle risposte alle sole domande incluse nel test “effettivo”. I PV offrono buone stime di parametri della popolazione di studenti, per esempio risultati medi per paese, piuttosto che stime della profittabilità di ciascuno studente. Per ogni PV separatamente, pertanto, si calcola la media (ponderata) degli scores per ogni gruppo di studenti considerato (es. avvicinano a quelli dei paesi migliori. Sebbene i risultati debbano essere considerati statisticamente significativi, a rigore, solo a livello di macroarea (Nord Ovest, Nord Est, Centro, Sud e Isole), a causa della dimensione spesso molto ridotta dei campioni regionali (vedi, ad esempio, Umbria, Marche, Abruzzo, Molise e Basilicata; tav. 2), emerge comunque un notevole ritardo di regioni quali Campania, Puglia e Sicilia, che raggiunge anche il 10 per cento circa rispetto alla già bassa media italiana. Nel Nord, gli studenti di Lombardia e Trentino-Alto Adige presentano la performance migliore, mentre nelle regioni centrali il livello di apprendimento si presenta, anche un po’ sorprendentemente, inferiore alla media italiana (fig. 4).10 Inoltre, sulla base di elaborazioni condotte sui microdati, se nel Mezzogiorno il livello di proficiency è più basso della media italiana, la dispersione dei risultati tra gli studenti (espressa in questo caso con il coefficiente di variazione) è significativamente più elevata (tav. 3). La deviazione percentuale dei punteggi al Sud rispetto alla media nazionale è più contenuta nei licei (circa il 5 per cento), più ampia negli istituti tecnici (15 per cento) e, soprattutto, negli istituti professionali, dove il divario raggiunge il 25 per cento (fig. 4). A livello provinciale, i coefficienti di correlazione tra le materie risultano molto elevati, oscillando tra il 94 e il 99 per cento. PIRLS 2001 e TIMSS 2003. – Gli altri due progetti internazionali qui analizzati (PIRLS e TIMSS) testano invece, rispettivamente, studenti di 9 e 10 anni e del quarto e ottavo grado scolastico (4a elementare e 3a media), in circa 50 paesi. PIRLS 2001 ha coinvolto circa 3.500 studenti italiani, il 45 per cento dei quali nel Mezzogiorno; TIMSS 2003 ha coinvolto, invece, circa 4.280 studenti sia in 4a elementare sia in 3a media (ancora, il 45 per cento nel Mezzogiorno). Le due rilevazioni mirano a valutare, rispettivamente, la reading literacy (PIRLS) e la competency in matematica e scienze (TIMSS). Anch’esse sfruttano quattro differenti tipologie di provincia); quindi, si calcola, per ogni gruppo considerato (es. provincia), la media semplice dei 5 PV complessivi così calcolati. 10 L’analisi su scala territoriale dei risultati delle indagini internazionali richiede una doverosa puntualizzazione di carattere statistico. Le indagini internazionali non hanno interessato tutte le regioni italiane, trascurando quelle più piccole; all’interno delle regioni rilevate, inoltre, non tutte le province sono presenti (in OCSE-PISA, ad esempio, sono rappresentate solo 82 delle 103 province italiane). A questo si aggiunga che in molte province/regioni sono stati “testati” davvero pochi studenti. Per fare un esempio, un’analisi statisticamente rigorosa dei dati PISA dovrebbe limitarsi alle sole regioni (Piemonte, Lombardia, Veneto, Toscana) o province autonome (Provincia Autonoma di Trento, Provincia Autonoma di Bolzano) per le quali il campione è statisticamente significativo. Tuttavia, ai fini di una migliore comprensione della “coerenza” tra le indagini, sono state incluse nell’analisi tutte le osservazioni, con l’avvertenza che le medie provinciali e regionali riportate non sono statisticamente significative, a causa di elevati errori standard, e vengono rappresentate nelle tavole e nei grafici come valori non ponderati per il riporto all’universo. Questo vale non solo per l’indagine PISA, ma anche per PIRLS e TIMSS, che presentano per alcune regioni una numerosità campionaria ancora più ridotta (tav. 2). questionari. Anche in questo caso, i risultati per l’Italia sono statisticamente significativi a livello di macroarea geografica (tav. 2). Una più completa rassegna delle caratteristiche delle indagini internazionali è presente in Montanaro (2007). Mentre PISA copre più ambiti di valutazione (comprensione del testo, matematica, scienze, problem solving), PIRLS è dedicata alla comprensione del testo, più nello specifico alla “abilità nel comprendere il testo per l’esperienza letteraria e per acquisire e utilizzare informazioni”. Rispetto a PISA, in un ambito di valutazione pressoché identico (reading ability), i risultati PIRLS per l’Italia appaiono migliori. Ciò è tuttavia in larga parte riconducibile alla differente età dei soggetti coinvolti nella rilevazione (quindicenni per PISA e studenti della 4a elementare per PIRLS). Nell’edizione del 2001, gli scolari italiani riportarono un punteggio superiore di circa l’8 per cento alla media complessiva, piazzandosi alla 10a posizione in graduatoria su un totale di 40 paesi partecipanti. Il punteggio medio si rivelò migliore di quello di Germania e Francia, ma peggiore di quello di Stati Uniti e Inghilterra. Sebbene le differenze tra le regioni appaiano più mitigate che in PISA, i risultati di PIRLS confermano tuttavia che al Sud, rispetto al Nord i) il livello di preparazione è più basso e ii) la dispersione nei punteggi è più elevata, in termini di coefficienti di variazione (tav. 3). Tali divari sono statisticamente significativi. Rispetto a PISA, nelle regioni del Centro sono stati conseguiti risultati solo di poco superiori alla media (fig. 5). TIMSS si propone invece di valutare, per gli studenti della 4a elementare e della 3a media inferiore, il livello di conoscenze e la capacità di apprendimento in mathematical and scientific literacy, in relazione a cosa gli studenti imparano (“contenuti”) e come (“metodi di insegnamento”). In altre parole, mentre PISA è focalizzata sull’utilizzo delle conoscenze per risolvere problemi di natura “quantitativa” che emergono nella vita quotidiana, TIMSS appare più orientata a valutare il rispetto di curricula scolastici condivisi a livello internazionale. Coinvolgendo studenti a età diverse, TIMSS consente non solo di testare i divari territoriali, ma anche di valutare se tali divari si modificano durante il percorso scolastico. Nel confronto internazionale, in un quadro di partecipanti molto più orientato ai paesi in ritardo o in via di sviluppo (solo cinque paesi dell’area dell’euro hanno partecipato all’edizione 2003), l’Italia ha ottenuto risultati solo di poco sopra la media complessiva11 (di circa il 2-3 per cento in 11 Gli scores medi a livello internazionale sono pari a 495 alla 4a elementare e a 467 alla 3a media. Essi sono ottenuti come media tra tutti i paesi partecipanti (25 e 46, rispettivamente), eccetto per i Paesi Baschi (SPA), per lo Stato mathematics e il 4-5 per cento in scienze), confermando sostanzialmente le difficoltà segnalate dall’indagine PISA. Come in PISA e in PIRLS, il Sud presenta una performance media più bassa e una dispersione dei risultati tra gli studenti più elevata, in termini di coefficienti di variazione. Questi differenziali sono statisticamente significativi (tav. 3). È importante notare che alla 4a elementare la varianza nei risultati tra le regioni è molto contenuta, con un coefficiente di variazione pari ad appena il 2 per cento e senza significative differenze tra matematica e scienze. Passando alla 3a media inferiore, il livello di literacy per l’Italia nel suo complesso, rispetto alla media internazionale, si riduce del 10 per cento in matematica e del 5 per cento in scienze (tav. 3 e figg. 6-7). Il peggioramento è più marcato nel Sud; ne consegue che i divari tra le regioni tendono ad aumentare con l’avanzare del percorso scolastico, come suggerisce la circostanza che il grado di dispersione tra le regioni, espresso dal coefficiente di variazione, più che raddoppia (dal 2 al 5 per cento). Come in PISA, i coefficienti di correlazione tra materie alla stessa età, a livello provinciale, sono molto elevati (94 per cento alla 4a elementare e 96 per cento alla 3a media). Ciò che è interessante sottolineare è che, invece, il coefficiente di correlazione tra i punteggi alla 4a elementare e alla 3a media è pressoché nullo per la matematica (fig. 8a e tav. 6) e molto basso per le scienze (10 per cento; fig. 8b e tav. 6). Appare a questo punto interessante valutare quanto i risultati delle indagini convergano; in altre parole, se le indagini tracciano un quadro coerente e univoco dei divari territoriali esistenti in Italia. Seppure con differenze nel metodo, nell’ambito e nell’oggetto di valutazione, nelle caratteristiche e nelle dimensioni del campione analizzato, tutte le indagini internazionali concordano nel segnalare che il livello di preparazione degli studenti italiani, sia esso testato con particolare riferimento alle conoscenze piuttosto che alle competenze o alle abilità, è significativamente più basso di quello medio dei paesi più avanzati. Tali evidenze sono coerenti con quelle che emergono dall’indagine nazionale dell’INValSI. Confrontando i risultati medi provinciali INValSI con quelli delle indagini internazionali, negli ambiti di valutazione o materie in comune (con PISA in comprensione del testo, matematica e scienze; con TIMSS in dell’Indiana (USA) e per la Provincia del Quebec (CAN). È utile ricordare che, anche se espressi sulla stessa scala parametrica, i risultati alle diverse età non sono pienamente comparabili. Il confronto è dunque possibile solo in matematica e scienze), emerge che una larga parte delle province settentrionali si colloca sempre al di sopra della media italiana, mentre le province meridionali tendono a posizionarsi al di sotto (nel quadrante in basso a sinistra, in fig. 9). I divari territoriali sembrano essere più mitigati in comprensione del testo che in matematica o scienze. A livello provinciale, il coefficiente di correlazione tra INValSI e PISA è pari al 32 per cento in comprensione del testo, al 37 per cento in matematica e al 40 per cento in scienze. Risultati analoghi si ottengono confrontando INValSI con TIMSS.12 Questo lavoro dimostra che le conclusioni alle quali giungono le varie indagini, compresa quella dell’INValSI, sono analoghe e possono tutte considerarsi affidabili. Checchi (2006), ottenendo simili coefficienti di correlazione e giudicandoli bassi, attribuisce invece scarsa significatività ai risultati INValSI, dai quali non emergerebbero, a suo giudizio, i significativi divari territoriali testimoniati invece dalle indagini internazionali. Detto che differenti caratteristiche delle rilevazioni potrebbero anche giustificare differenti risultati, va segnalato tuttavia i) che i coefficienti di variazione degli scores INValSI non sembrano differire in modo sostanziale da quelli delle indagini internazionali, ii) che solo poche province si collocano al di sopra (al di sotto) della media nella rilevazione INValSI e al di sotto (al di sopra) nelle altre, suggerendo un’accettabile coerenza tra le indagini (figg. 9-10), e infine iii) che la correlazione tra i punteggi INValSI e PISA non differisce di molto da quelle ottenute confrontando le indagini internazionali tra di loro (meno del 40 per cento tra PISA e TIMSS e circa il 47 per cento tra PISA e PIRLS; figg. 11-12). La rilevazione INValSI consente anche di confrontare i punteggi a seconda del grado scolastico. I risultati mostrano che la dispersione nei punteggi provinciali è più bassa alle medie che alle superiori. Sulla base di una semplice analisi statistica, si può affermare che i divari territoriali effettivamente tendono ad ampliarsi nel tempo in modo statisticamente significativo, in ciascun ambito di valutazione o materia. L’ipotesi nulla H0 di uguaglianza delle varianze tra un grado scolastico e l’altro viene sempre rigettata (tav. 5). Alle stesse conclusioni si perviene considerando i risultati delle indagini internazionali. Le differenze tra le regioni o le province termini di performance relativa tra paesi o regioni. 12 Per il confronto con PISA (che testa gli studenti di 15 anni di età), ho considerato la media semplice dei punteggi INValSI alla 1a e alla 3a superiore, che dovrebbero corrispondere ai 14 e ai 16 anni di età. Per il confronto con TIMSS alla 3° media inferiore, ho considerato la media semplice dei punteggi INValSI alla 1a media inferiore e alla 1a superiore. sono ampie e crescono nel tempo, passando dalle elementari (PIRLS e TIMSS alla classe 4a) alle medie inferiori (TIMSS alla 3a media) e alle superiori (PISA per i quindicenni). Anche in questo caso, l’ipotesi nulla di uguaglianza delle varianze tra i gradi viene rigettata (tav. 7). In sintesi, per quanto i) l’indagine INValSI non fornisca informazioni sulle caratteristiche “di contesto” sociale e familiare dello studente, ii) i suoi risultati per la scuola primaria siano scarsamente affidabili e iii) le sue caratteristiche metodologiche appaiano diverse da quelle proprie delle più importanti indagini internazionali, tuttavia essa delinea un quadro dei divari territoriali nella preparazione degli studenti italiani sufficientemente affidabile se riferito alla scuola media inferiore e a quella superiore, avendo nell’amplissima partecipazione di scuole e studenti il suo punto di forza. Tale quadro non differisce da quello delineato dalle survey internazionali, che pur raccogliendo una grande quantità di informazioni sugli studenti, scontano tuttavia una numerosità campionaria non sufficientemente ampia da garantire un livello accettabile di significatività statistica dei risultati per tutte le regioni coinvolte. L’analisi incrociata delle rilevazioni suggerisce che i) il livello di proficiency nel Mezzogiorno è significativamente più basso rispetto agli standard internazionali e a quelli delle regioni settentrionali, in tutti gli ambiti di valutazione considerati (comprensione del testo, matematica, scienze, problem solving), ii) il grado di dispersione dei punteggi è più elevato al Sud, e infine iii) i divari territoriali tendono a crescere durante il percorso scolastico. 4. Relazioni tra valutazioni esterne e voti scolastici La valutazione “esterna” viene effettuata con obiettivi, metodologie e strumenti certamente diversi da quelli propri della valutazione “interna” (voti scolastici). Per esempio, se oggetto di valutazione delle indagini internazionali è soprattutto la “capacità di utili.Z.Zare le proprie conoscen.Ze e competen.Ze per le sfide della vita quotidiana”, diverso è l’obiettivo che si pone il sistema di valutazione interno, orientato a verificare la preparazione degli studenti in relazione agli obiettivi generali e specifici propri di ciascun indirizzo di studi. Tuttavia, ci si aspetta che entrambe le valutazioni forniscano un quadro territoriale della preparazione scolastica, se non identico, quanto meno molto simile. Purtroppo, non è così. In questo articolo si considerano i voti finali di maturità, forniti dall’Osservatorio nazionale sugli esami di Stato per gli anni 1999-2004, posteriori alla riforma del 1997 (legge n. 425/97). Primo, la dispersione nei risultati finali, a livello provinciale, è estremamente bassa (intorno all’1 per cento della media complessiva). Secondo, i divari territoriali appaiono molto meno evidenti rispetto a quelli emersi dalle valutazioni esterne. Alcune regioni del Mezzogiorno, che in tutte le indagini internazionali riportano punteggi nettamente più bassi della media (es. Puglia, Calabria e Sicilia), hanno voti di maturità più alti; al contrario, vi sono regioni del Nord (es. Lombardia) particolarmente “virtuose” secondo le rilevazioni esterne, che invece presentano voti di maturità e percentuale di diplomati più bassi della media (fig. 13). Infine, la correlazione tra voti finali e punteggi INValSI13 è molto bassa (22 per cento; fig. 14). Tali evidenze denunciano in modo chiaro una scarsa efficacia del sistema scolastico di valutazione (qui circoscritto agli esami di maturità) nel segnalare gli studenti davvero meritevoli da quelli che non lo sono, apparendo spesso poco selettivo, specie al Sud. Questo lavoro non si propone di esplorare tale questione in profondità; tuttavia, esso proverà a suggerire alcune possibili spiegazioni dei diversi risultati riportati dagli studenti nelle valutazioni esterne e in quelle interne. Primo, parte della discrasia potrebbe trovare spiegazione negli specifici criteri di formazione delle commissioni d’esame alla maturità. In applicazione della riforma del 1997 e dei successivi interventi normativi, negli anni scolastici qui considerati (1999-2004) è cresciuto all’interno delle commissioni d’esame il peso dei membri “interni”, che da un lato tendono verosimilmente a essere meno selettivi, dall’altro, conoscendo bene la situazione di profitto di una determinata classe, tendono ad assegnare voti comunque “normalizzati” sulla medesima scala (da 60 a 100 agli esami di maturità), indipendentemente dall’effettiva preparazione degli studenti. Questo comportamento introduce un elemento di distorsione nei risultati finali, che emerge chiaramente nel confronto con le valutazioni esterne. Secondo, le differenze tra punteggi “esterni” e voti “interni” possono essere ricondotte anche alla preparazione degli stessi insegnanti: un insegnante preparato può essere più incline a pretendere di più dai suoi studenti, anche all’esame finale. Infine, un diverso esito può semplicemente essere attribuito a un diverso impegno profuso dagli studenti nei confronti da un lato di assessment che non offrono un risultato o un guadagno “tangibile” (valutazioni esterne), dall’altro di prove che, invece, un “guadagno” tangibile lo prospettano (che può essere il diploma di maturità o l’avanzamento all’anno scolastico successivo). Tale diverso atteggiamento potrebbe essere più marcato nel Mezzogiorno. 13 Risultati analoghi emergono dal confronto con PISA. PISA 2003 consente di valutare meglio alcune di queste ragioni. Sulla base di domande specifiche sul self-concept in matematica14 (se e quanto gli studenti pensassero di avere in questa materia buone abilità o comunque buoni voti), le opinioni degli studenti sulle proprie competenze sembrano discostarsi abbastanza dai punteggi effettivamente riportati. A livello di microdati per studente, la correlazione tra scores e self-concept in matematica è pari al 33 per cento, non molto diverso da quella ottenuta tra i voti finali di maturità e i punteggi INValSI (22 per cento. Il coefficiente di correlazione è del 30 per cento al Centro Sud e del 39 per cento al Nord. Introducendo gli effetti fissi di scuola tra le variabili esplicative di due semplici regressioni OLS, dove sia il punteggio in matematica sia il self-concept sono funzioni anche di sesso, livello di benessere familiare e tipo di scuola frequentata (R2=53 per cento; cfr. prossimo paragrafo), il coefficiente di correlazione calcolato sui residui aumenta solo di poco (al 39 per cento), e le differenze tra Nord e Centro Sud si annullano. Questo suggerisce che la ridotta correlazione tra valutazioni “esterne” e voti interni (espressi anche attraverso la percezione che gli studenti hanno della propria preparazione) potrebbe essere dovuta soprattutto a fattori within schools, a parziale sostegno dell’ipotesi che gli insegnanti tendano a “normalizzare” i voti su una scala relativa, indipendentemente dall’effettiva preparazione degli studenti. 5. Relazioni tra apprendimenti scolastici e background familiare Quest’ultima sezione del lavoro è riservata all’analisi delle differenze territoriali nella relazione tra performance degli studenti e caratteristiche socio-economiche e culturali del nucleo familiare di appartenenza, argomento già trattato a livello internazionale (Willms, 2006). è ampiamente riconosciuto, infatti, che le differenti condizioni sociali e culturali, già a partire dall’età pre-scolare, influiscono in maniera decisiva sulle abilità cognitive, sulla capacità di esprimere se stessi, di percepire i colori, di comprendere spazi e forme, di rappresentare fenomeni di natura quantitativa. PISA 2003 fornisce numerose e utili informazioni sul background familiare dello studente. La fig. 15 mostra una relazione fortemente positiva tra status socio-culturale ed economico 14 L’indicatore PISA di self-concept in mathematics è costruito sulla base del livello di concordanza delle risposte fornite dagli studenti alle seguenti affermazioni: i) “non sono bravo in matematica”; ii) “ottengo buoni voti in matematica”; iii) “apprendo velocemente la matematica”; iv) “ho sempre ritenuto che la matematica fosse una delle mie materie preferite”; v) “rispetto ai miei compagni di classe, in matematica apprendo anche le cose più difficili” (cfr. PISA 2003 Technical Report, OCSE, 2004b). della famiglia di appartenenza (in otto classi per status crescente; cfr. tav. 8)15 e performance media in matematica. Le differenze di punteggio tra una classe e l’altra sono quasi sempre statisticamente significative, a un livello di confidenza del 95 per cento (tav. 9). In media, il punteggio ottenuto in matematica da uno studente con lo status sociale più elevato (status 8) supera del 25 per cento circa quello ottenuto da uno studente con lo status sociale più basso (status 1); tale differenziale varia dal 18 per cento nel Nord Est al 31 per cento nel Sud e Isole. Inoltre, gli studenti meridionali sono al di sotto della media OCSE (500) anche quando possono beneficiare delle più favorevoli condizioni sociali, economiche e culturali. Il divario Nord-Sud è più ampio nelle classi sociali più basse e più ridotto in quelle più elevate (fig. 15). Tuttavia, il background familiare è solo uno dei fattori che determinano l’esito scolastico; tra gli altri fattori, figura sicuramente il tipo di scuola frequentata. In base ai dati PISA 2003, la probabilità di uno studente appartenente alla classe sociale più elevata (status 8) di essere iscritto a un liceo è sette volte più alta di quella di uno studente con le più sfavorevoli condizioni familiari (status 1). Tali evidenze sono ricorrenti in tutte le aree geografiche. Al netto degli effetti di sesso e tipo di scuola frequentata (prendendo i residui di una semplice regressione OLS dove tali fattori sono le variabili esplicative del punteggio in matematica), tutte le curve tendono ad appiattirsi (figg. 16a-16b), mentre i differenziali Nord-Sud rimangono pressoché immutati. In media, più del 30 per cento del punteggio aggiuntivo che si consegue passando da uno status familiare a quello successivo è spiegato dal tipo di scuola frequentata (liceo piuttosto che istituto tecnico o professionale; tav. 10).16 L’intensità di quest’effetto cresce con lo status familiare, raggiungendo circa il 40 per cento nelle classi più elevate. Se nelle stime OLS si controlla anche per effetti fissi di istituto, la varianza nella performance in matematica spiegata dal modello (R2 pari al 53 per cento) diviene, in media, due volte maggiore di quella spiegata da un modello che contenga solo effetti di sesso e tipo di scuola (tav. 10). Questo suggerisce innanzitutto che le caratteristiche specifiche dell’istituto frequentato pesano molto sui differenziali di performance scolastica. Il fatto che le curve dei residui risultino praticamente piatte, mostra poi che – al netto degli effetti di tipo di scuola e 15 L’indicatore di status socio-culturale ed economico è una sintesi di alcune variabili: lavoro svolto dai genitori, grado di istruzione dei genitori, benessere della famiglia. 16 È bene ricordare che queste stime includono solo variabili individuali e non fanno riferimento a variabili di scuola e di contesto socio-economico. Pertanto, esse mirano semplicemente a capire meglio quanto il tipo di scuola influenzi la relazione tra performance scolastica e background familiare. In ogni caso, stimare le determinanti della performance scolastica non rappresenta l’obiettivo di questo lavoro. degli effetti fissi di istituto – i divari di apprendimento tra studenti provenienti da ambienti familiari diversi si annullano, a un livello di confidenza statistica del 95 per cento, permanendo una differenza sostanziale solo tra le classi più alte o più basse (tav. 10 e figg. 16a-16b). Non è facile identificare qui relazioni strettamente causali. In altre parole, non è chiaro se essere iscritti a un liceo o frequentare comunque una buona scuola effettivamente determini, in maniera diretta, una migliore performance scolastica, o se al contrario questa sia una semplice correlazione spuria, dovuta al fatto che gli studenti migliori tendono, per varie ragioni, a frequentare le scuole migliori, soprattutto se si tratta di licei. Una domanda centrale è la seguente: quando e come le condizioni della famiglia di appartenenza esplicano i propri effetti (positivi o negativi) sulla condotta e sulla preparazione scolastica dello studente? PISA 2003 mostra che alla scuola secondaria superiore – una volta controllato per tipo di scuola e per caratteristiche specifiche d’istituto – gli studenti non sembrano beneficiare in modo significativo di effetti diretti legati a una diversa provenienza familiare. A questa età, l’influenza familiare sembra esercitarsi, pertanto, soprattutto nella scelta dell’istituto scolastico. TIMSS 2003 consente invece di testare l’esistenza di tali effetti qualche anno prima, dal momento che tale indagine i) coinvolge, tra gli altri, studenti iscritti alla 3a media inferiore e ii) raccoglie, parimenti a PISA, informazioni sulle caratteristiche familiari. Questa informazione non è, invece, disponibile per gli studenti più piccoli, iscritti alla 4a elementare. L’obiettivo è quindi quello di testare l’effetto del background familiare nella scuola media inferiore, prima che venga scelto il tipo di scuola superiore che indirizzerà in maniera decisiva gli studi. Dai dati TIMSS 2003, è stato ricavato un indicatore del più elevato livello di istruzione dei genitori, ordinato in quattro classi crescenti. In ogni macroarea geografica, quasi l’80 per cento degli studenti si concentra nelle due classi centrali; il quarto livello (il più elevato) copre il 13 per cento degli studenti al Nord e solo il 6 per cento al Sud (tav. 11). Passando da un livello all’altro, i punteggi tendono a crescere in media di circa 50 punti (pari al 10-12 per cento in più). Anche a un livello di confidenza statistica del 99 per cento, tali differenze appaiono tutte significative (tav. 12 e fig. 17). Con riferimento alla matematica, e in base alle definizioni TIMSS, questo significa che mentre solo pochi studenti, favoriti da un livello d’istruzione dei genitori elevato (livello 4), “sanno applicare ciò che apprendono e conoscono in un’ampia varietà di situazioni relativamente complesse” (High International Benchmark), il resto degli studenti italiani “sa applicare conoscenze matematiche di base in situazioni non complesse” (Intermediate International Benchmark) oppure “hanno solo alcune conoscenze matematiche di base” (Low International Benchmark). Sebbene l’esistenza di divari territoriali trovi conferma anche in TIMSS, ciò non è però vero per ogni status familiare considerato: con una confidenza statistica del 95 per cento, i punteggi al Sud (in 3a media inferiore) risultano, infatti, significativamente più bassi di quelli al Nord solo per i due livelli più bassi (livelli 1 e 2), ma non per i due più alti (livelli 3 e 4). Analogamente a quanto già fatto con i dati PISA, è lecito chiedersi quanto gli effetti di background familiare risentano di effetti fissi di istituto (qui non si parla più di effetti di tipo di scuola, essendo i dati riferiti alla scuola media inferiore). Precisando che quest’esercizio ha finalità meramente descrittive, una volta controllato per sesso ed effetti fissi di istituto (che sono rilevanti anche in questo caso; R2 pari al 32 per cento), il livello di benessere familiare (di cui il livello d’istruzione dei genitori può essere considerato una proxy efficace) e la performance scolastica rimangono fortemente correlati, anche se in misura meno marcata. Le differenze tra la più alta e la più bassa classe di benessere familiare si riducono del 25 per cento al Centro Nord e del 50 per cento al Sud (figg. 18a-18b). A parità di caratteristiche degli istituti scolastici, assai correlate alle condizioni socio-economiche nelle quali gli stessi operano, a guadagnarci – in termini di preparazione scolastica – sarebbero soprattutto gli studenti del Sud provenienti da famiglie più svantaggiate (fig. 18b). In sintesi, dall’analisi dei risultati delle più importanti rilevazioni internazionali emerge in maniera chiara che le condizioni della famiglia di provenienza incidono pesantemente sul percorso scolastico. Tale relazione è particolarmente forte e diretta negli anni che precedono la scelta della scuola superiore (cfr. TIMSS), mentre si attenua, quasi a svanire, negli anni successivi (cfr. PISA), quando sembrano più rilevanti il tipo di scuola prescelto (liceo piuttosto che istituto tecnico o professionale) e le caratteristiche specifiche dell’istituto frequentato. A questa età, è soprattutto nella scelta della scuola da frequentare che si esercita l’influenza della famiglia di origine. Nei primi anni di scuola, i divari territoriali Nord-Sud sono invece più mitigati e concentrati tra gli studenti provenienti da contesti familiari meno favorevoli, che risentono di caratteristiche di scuola particolarmente negative.






articoli correlati




Postato il Venerdì, 05 settembre 2008 ore 17:07:19 CEST di Salvatore Indelicato
Annunci Google



Mi piace
Punteggio Medio: 1
Voti: 3


Dai un voto a questo articolo:

Eccellente
Ottimo
Buono
Sufficiente
Insufficiente



Opzioni

 Pagina Stampabile Pagina Stampabile

 Invia questo Articolo ad un Amico Invia questo Articolo ad un Amico



contattaci info@aetnanet.org
scrivi al webmaster webmaster@aetnanet.org


I contenuti di Aetnanet.org possono essere riprodotti, distribuiti, comunicati al pubblico, esposti al pubblico, rappresentati, eseguiti e recitati, alla condizione che si attribuisca sempre la paternità dell'opera e che la si indichi esplicitamente
Creative Commons License

powered by PHPNuke - created by Mikedo.it - designed by Clan Themes


PHP-Nuke Copyright © 2004 by Francisco Burzi. This is free software, and you may redistribute it under the GPL. PHP-Nuke comes with absolutely no warranty, for details, see the license.
Generazione pagina: 0.51 Secondi