Introduzione:

I test di valutazione scolastica sono uno strumento atto a verificare l’apprendimento degli studenti attraverso metodi quantitativi. Il vantaggio dell’utilizzo di metodi quantitativi è essenzialmente quello di rendere la valutazione confrontabile e non basata su giudizi soggettivi quali possono essere le valutazioni del corpo docente.
I test a cui si fa riferimento per la valutazione del sistema scolastico italiano sono principalmente due: il primo è il test INVALSI rilevato e analizzato dall’omonimo istituto a cadenza annuale sul territorio nazionale, l’altro è il test PISA a cura dell’OCSE, a cadenza triennale e rilevato a livello internazionale. Essi, a prescindere dalla bontà delle metodologie utilizzate, argomento che va oltre gli obiettivi dell’articolo, non sono immuni da eventuali strumentalizzazioni e fraintendimenti. Sotto questo punto di vista è analizzato principalmente il test INVALSI.

Valutare l’apprendimento:

Troppo spesso i test di valutazione scolastica vengono interpretati come test di intelligenza o di bravura degli studenti. Si tratta di un’interpretazione errata in quanto lo scopo del test è quello di misurare l’efficacia del sistema scolastico in termini di livello di apprendimento dello studente. In caso contrario, non sarebbe comprensibile lo scopo della rilevazione ai fini dell’intervento pubblico, anzi, sarebbero sufficienti le olimpiadi di grammatica e di matematica.
Questo aspetto va interpretato in un quadro più ampio, ovvero dell’analisi dei dati come strumento di supporto all’intervento pubblico. Infatti, è solo analizzando le cause del divario di apprendimento esistente è possibile effettuare politiche di intervento atte a colmarlo.
È opportuno sottolineare, inoltre, che l’apprendimento deve essere visto come una misura relativa delle conoscenze dello studente, ovvero bisogna, nella sua misurazione, prescindere dal livello di conoscenza di partenza degli studenti. Ciò permette di isolare l’effetto dell’istituto scolastico sulle conoscenze dello studente e di effettuare una valutazione coeteris paribus1.

Alcune polemiche:

Non è raro che i quesiti utilizzati per i test INVALSI siano oggetto di polemiche. In particolare è balzato agli onori della cronaca la prova di italiano dell’anno scolastico 2009 - 2010 in cui si è utilizzato il brano “L’useliera” tratto da “La valle più bella del mondo” di Ezio Franceschini. [1] Nulla in contrario se il brano non parlasse di una realtà, quella del Trentino, piuttosto diversa rispetto a gran parte della penisola italica e difficile da immaginare per un bambino di 10 anni che non l’ha mai vissuta.
La scelta dei quesiti, come in questo caso l’analisi del testo, può rendere l’analisi non attendibile, in quanto avvantaggia alcuni individui, in questo caso i bambini della Val Sugana, o comunque che abitano in zone montane, rispetto agli altri2.
Un’altra critica alla rilevazione che ha avuto una forte risonanza è stata quella relativa alla correzione dei punteggi. Lo pseudostatistico Luca Ricolfi, in un suo editoriale relativo alla prova INVALSI dell’anno scolastico 2008 - 2009, ci fa sapere che:

”[…] la «correzione» dei risultati di sondaggi, test di atteggiamento o prove di abilità, è la norma. Il grande pubblico non lo sa, ma esistono collaudati strumenti matematico-statistici che permettono di scoprire - ad esempio - se un intervistato mente, o risponde a caso, o prende in giro l’intervistatore. Così come esistono tecniche di analisi dei dati capaci di scoprire e correggere i risultati dei test di abilità, in particolare nel caso in cui i rispondenti copino o ricevano un «aiutino» da insegnanti compiacenti o desiderosi di autopromuoversi.
Conoscendo i modelli utilizzati dall’istituto INVALSI per la valutazione della didattica3, so che è possibile introdurre all’interno di essi un parametro che stima la probabilità che le risposte siano date a caso il quale, ovviamente, condiziona la stima del punteggio finale. Ma proprio non riesco ad immaginarmi un modello che riesca a stimare le intenzioni del rispondente. Anche perché, se così fosse, ci sarebbe la possibilità di eliminare completamente l’errore non campionario attribuibile all’intervistato. Un grande passo avanti, dunque, se non fosse realizzabile solo nell’immaginazione di chi ha la presunzione di conoscere le ragioni di una risposta data a caso.

I test come strumento di conoscenza:

Come precedentemente scritto, la scelta della rilevazione diretta presume che l’obiettivo sia quello di studiare le cause del fenomeno e non di vantarsi in quale ripartizione geografica i punteggi siano più alti. Per questo obiettivo è più idonea una competizione diretta tra studenti.
Per capire le ragioni esterne che possono influire sui risultati dei test4 si fa riferimento a due indagini che analizzano i risultati degli anni scolastici 2005 - 2006 [3] e 2007 - 2008 e 2008 - 2009 [4].
I risultati ottenuti sono sintetizzabili nei seguenti punti:

  • Non risultano notevoli differenze nell’apprendimento nella scuola elementare (primaria) per ripartizione geografica;
  • C’è invece un notevole divario nei punteggi tra Mezzogiorno e Nord - Est in favore di quest’ultimo a partire dalle scuole medie inferiori e in particolare in matematica;
  • C’è una maggior variabilità dei punteggi nelle regioni del Mezzogiorno. Ciò implica una maggior presenza sia di studenti con scarse conoscenze sia di studenti eccellenti rispetto al Centro - Nord, in cui i punteggi si attestano ad un livello medio più alto ma con minore variabilità;
  • Le valtuazioni interne non riescono ad catturare in modo visibile le differenze di apprendimento tra le aree geografiche. La valutazione è, infatti, condizionata dal contesto in cui vengono effettuate e, nel caso specifico, dalla diversa variabilità nell’apprendimento nelle varie aree geografiche. La maggore variabilità non è solo interna alle classi, ma anche tra classi e istituti scolastici differenti. Quindi, a parità di conoscenze e competenze, le valutazioni interne possono essere sigificativamente diverse non solo tra diverse ripartizioni, ma anche tra diversi istituti del Mezzogiorno;
  • Le cause del gap di apprendimento sono attribuibili alla maggior presenza di emarginazione sociale, sia legata al contesto familiare che alla qualità dell’offerta formativa. Epurando i punteggi da questi due aspetti, infatti, il divario si riduce drasticamente;
  • Relativamente nelle regioni del Mezzogiorno è ancora presente un livello più basso di istruzione nelle famiglie di origine degli studenti, fenomeno legato anche al flusso migratorio che è tornato ad interessare negli ultimi anni l’area geografica. Ciò influisce in modo significativo sull’andamento scolastico degli studenti;
  • Relativamente alla qualità dell’offerta emerge che nelle regioni meridionali c’è una carenza infrastrutturale che spesso determina un’offerta più modesta rispetto al resto del Paese, con minore disponibilità al tempo pieno o alle attività didattiche integrative.
    La composizione della spesa, inoltre, risulta fortemente diversa: nel Mezzogiorno la spesa media per studente annua nel periodo 1996 - 2007 risulta di 5.118 euro, di cui il 77,3% per il personale, mentre nel Centro Nord risulta essere di 6.554 euro, di cui il 69,7% per il personale. Ciò significa che, a fronte di una già minore spesa, la quota destinata alla gestione dell’attività didattica risulta essere inferiore nel Mezzogiorno [3];
Conclusioni:

I test di valutazione scolastica, se utilizzati con effettivo intento di ridurre il divario territoriale di apprendimento presente in Italia, possono essere un utile strumento di conoscenza per individuare dove intervenire, ma non è sufficiente a capire le cause e quindi come intervenire.
In questo caso è necessario un ulteriore approfondimento sulle possibili cause del divario, preferibilmente senza l’utilizzo di logiche pregiudizievoli. Secondo le indagini qui riportate sarebbe necessario un intervento utile a colmare, prima di quello dell’apprendimento, il divario dell’offerta formativa presente in Italia che inevitabilemente influenza i risultati dei test di valutazione scolastica. Le condizioni familiari, invece, ricadono in un ambito di intervento di più ampio respiro che richiedono interventi differenti rispetto al semplice potenziamento degli investimenti in istruzione. In altri termini, per poter ottenere gli stessi risultati medi nell’apprendimento nelle diverse aree d’Italia sarebbe necessario, ma non sufficiente, avere gli stessi livelli medi di investimento e di qualità dell’offerta formativa.

Riferimenti:

[1] Aureli, M., “Scuola, prove INVALSI con ”L’useliera” e il quintifoglio: ed è polemica”, su “Il Salvagente” del 12 Maggio 2010.
[2] Ricolfi, L., “Copiare come e perché”, su “La Stampa”, del 12 Agosto 2009.
[3] Montanaro, P., “Il capitale umano e la qualità dell’istruzione”, in “Mezzogiorno e le politiche regionali”, Campobasso il 15 marzo 2010.
[4] Montanaro, P., “I divari territoriali nella preparazione degli studenti italiani: evidenze dalle indagini nazionali e internazionali”, in “Questioni di economia e finanza”, Banca d’Italia, Roma Giugno 2008.

1 Si tratta di particolari modelli definiti multilivello che permettono di mettere a confronto la variabilità tra gruppi di individui. Torna.
2 Tenendo presente che si tratta di bambini. Torna.
3 I modelli sono della classe dell’Item Response Theory, sviluppati proprio per la valutazione della didattica. Essi permettono di calcolare il punteggio attraverso le risposte ai quesiti di diversa difficoltà, senza l’utilizzo di variabili esplicative. Torna.
4 Quelle vere. Altrimenti sarebbe sufficiente l’ipotesi del prof. Ricolfi. Torna.