Giovanni Cominelli sul PP3 e sul futuro SNVI
Gruppo di lavoro - 09-04-2004
Abbiamo rivolto al professor Giovanni Cominelli membro del Comitato tecnico-scientifico dell'Invalsi e impegnato, in particolare, della formazione alla valutazione le stesse domande poste al professor Marcianò.
L’idea è quella di creare una tavola rotonda virtuale. Alla quale, speriamo, siederanno altri interlocutori. Per altre risposte e, magari, per altre domande. Il gruppo di lavoro.

Una premessa indispensabile a tutte le risposte.

I Progetti Pilota non si sono mai proposti di misurare alcunché, per la semplice ragione che non sono stati ideati per produrre una misurazione, ma per “simulare ” una misurazione. Il loro scopo era quello di sperimentare delle modalità di confezione dei test, di somministrazione dei medesimi, di raccolta dei risultati, di funzionamento della catena organizzativa. E dovevano anche servire a verificare la disponibilità delle scuole a partecipare alla costruzione del Servizio nazionale di valutazione, visto che le scuole sono uno dei cardini del Servizio, l’altro essendo l’Invalsi, così come prevede il Decreto legislativo appena approvato dal Consiglio dei Ministri. Nel corso delle tre sperimentazioni si sono operate modifiche, si sono realizzati degli avanzamenti. Per esempio, si è incominciato a costruire test e a validarli. Presso l’Invalsi non ce n’erano o quasi. Si è costruito un campione per il secondo e il terzo progetto. Si sono sperimentate vie dirette tra l’Invalsi e le scuole, cercando di eliminare dei passaggi. Si è sperimentata la via della somministrazione e della raccolta dei questionari per via informatica. E così si è visto che la Rete non funzionava, perché non era in grado di reggere che pochi contatti contemporanei. La partecipazione volontaria delle scuole è passata da 2000 a 7000 a 9000 nei tre progetti. Si sono moltiplicati i dibattiti sulle problematiche della valutazione, organizzati dalle scuole o dagli Enti locali. Si sono avviati i primi tentativi di formazione degli addetti alla catena organizzativa ai vari livelli. L’approdo finale doveva essere il Decreto legislativo sulla valutazione e sull’Invalsi. Che, in effetti, è stato approvato dal Consiglio dei Ministri il 25 marzo ed ora incomincia l’iter previsto. Ora la sperimentazione è finita. Dall’autunno si incomincerà a fare valutazione effettiva, a partire dalle classi per le quali entra in vigore la riforma.

Ed ora le risposte

- Il gruppo di lavoro INVALSI che dà inizio alla sperimentazione nel 2001 (a proposito, ora è lo stesso?) dichiara che la prima caratteristica (a proposito, perché caratteristica e non obiettivo?) del progetto stesso doveva essere quella di :
a. misurare, scuola per scuola, il grado di raggiungimento degli obiettivi nazionali stabiliti dall’Alta Direzione (Ministro), integrando gli obiettivi nazionali con quelli dell’autonomia;

Con l'espressione obiettivi nazionali, si intendono gli standard nazionali , peraltro non ancora prodotti, o i due ambiti di indagine previsti dal ministro al momento della nascita del progetto (attuazione del POF e competenze)? L'osservazione ci serve per introdurre la domanda vera: come è possibile partire con un piano di valutazione, se non esistono standard nazionali?

Il Gruppo di lavoro ha registrato quasi subito il ritiro della prof. Ribolzi. Il dott. Murano ha preso servizio all’estero. La caratteristica di cui si parla non è del progetto, ma del Servizio. Perciò non è un obbiettivo, ma una caratteristica strutturale. Per obbiettivi nazionali, in materia di verifica degli apprendimenti, si intende gli standard nazionali. Finchè non sono definiti non è possibile effettuare nessuna misurazione. I Progetti Pilota per elaborare i test hanno utilizzato come standard i programmi vigenti incrociati con test internazionali già usati e revisionati per l’occasione. Ma, come si è chiarito, non per misurare, ma per “simulare” la misurazione. In materia di “sistema” si è “usato” il Pof.

- La seconda caratteristica dichiarata era quella di : c. utilizzare parametri coerenti con quelli usati dai servizi di valutazione comunitari e internazionali.
Perché non con quelli delle scuole ? Sappiamo che potrebbero essere tanti ( e tanti sono, e ricchi ed articolati), ma perché non aggiungere il riferimento alle scuole? (E' questo che volevamo dire: una cultura valutativa esiste. Corsi e corsi di formazione: inutili?)

I parametri sono ormai internazionali e comunitari e sono esterni alle scuole, visto che si propongono di misurarle. I test devono misurare, in relazione alle indicazioni essenziali nazionali, i livelli di apprendimento per alcune classi, per alcune conoscenze/competenze. Da integrare con la valutazione esterna c’è l’autovalutazione delle scuole, con la loro esperienza e la loro elaborazione, soprattutto in materia di test. Ma l’autovalutazione e, per altro verso, la valutazione certificativi/formativa sono altra cosa rispetto alla valutazione esterna. I test di autovalutazione si possono utilizzare, ovviamente, ma solo come materiale da cui partire. Nell’archivio Invalsi ci sono migliaia di item, ma non ci sono test. Il passaggio dagli item delle scuole o di qualsiasi altro ente ai test veri e propri richiede, mediamente, il lavoro di un anno. Lavoro che deve essere continuo e reiterato, perché i test invecchiano culturalmente, ma soprattutto perché possono essere utilizzati una volta sola. Nelle scuole esiste una disponibilità accertata alla valutazione esterna, esistono esperienze di autovalutazione e, naturalmente, esista la vasta e quotidiana esperienza della valutazione formativa/certificativa. Ma la valutazione esterna è altro rispetto a queste ultime. I corsi di formazione sono ovviamente utilissimi, in primo luogo per imparare a distinguere i tre livelli di valutazione e per incominciare a costruire cultura e professionalità specifiche per la valutazione esterna.

- La docimologia è la scienza della misurazione. Piuttosto arida e tecnica (formule, numeri) Che però ha chiari il chi, il cosa misurare ed il perché e a questi "oggetti" adatta gli strumenti ed il metodo. Ma soprattutto, la docimologia calata nell'atto pratico della valutazione misura a "partire da" e "rispetto a". Come si pone l'impostazione del progetto, rispetto a questa procedura "virtuosa" praticata nelle scuole?

Nel caso della valutazione esterna, si va a misurare la distanza tra standard nazionali e apprendimenti reali. Una volta accertata una distanza, attraverso una lettura scientifica dei risultati, si tratta di andare a vedere le cause in profondità e sempre più in dettaglio nelle classi. Questo lavoro non tocca al Servizio di valutazione, ma alle autorità che hanno responsabilità. In primo luogo tocca alle scuole, alle Direzioni scolastiche, al Ministero.
Supponiamo che si scopra che i ragazzi italiani stanno perdendo la lingua italiana. Supponiamo che questo sia il problema centrale che emerge da una valutazione degli apprendimenti. Di qui in avanti partono diverse linee di azione. Il Ministero può decidere di rivedere la formazione iniziale degli insegnanti, di investire nella formazione in servizio, di modificare le indicazioni nazionali. Le singole scuole possono decidere di dedicare più ore, di accertare se qualche insegnante non sia impreparato, se il contesto socio-economico-culturale non sia la causa principale. Insomma, il Servizio di valutazione funziona come un termometro: segnala che hai la febbre, ma non ti dice le cause. Tocca ad altri individuarle. Dieci anni fa i francesi hanno scoperto che i loro ragazzi stavano andando indietro in matematica nelle classifiche internazionali. Hanno preso delle misure. Dopo dieci anni si è registrato un miglioramento. Così dovrebbe funzionare. Altra cosa, che l’Invalsi per ora non è in grado di fare, è misurare il valore aggiunto delle scuole. Il che implica che il Servizio si metta a valutare le scuole (nel senso di dare un voto e, magari, proporre un premio o una sanzione, come accade per l’Ofsted inglese). In tal caso dovrebbe essere in grado di conoscere lo stato di partenza, al tempo x, lo stato successivo, al tempo x+1, di conoscere il contesto socio-culturale, così da poter valutare il valore aggiunto che la scuola ha generato per i propri ragazzi. Tentativi di misurazione del valore aggiunto sono in corso in alcuni Paesi .
.

- Nel linguaggio (che non è solo linguaggio) della programmazione didattica, la prova è una verifica di quello che l'alunno ha appreso dopo una attività. La valutazione scaturisce dal confronto tra risultati della prova stessa e gli obiettivi che con quella attività ci si proponeva di far conseguire. Almeno così mi hanno insegnato. Esiste un rapporto tra questa impostazione ed il progetto che grazie al decreto del 25/03 è ormai diventato "sistema" ?

Non so se ho ben capito la domanda. Mi pare ripetitiva di domande già fatte sopra.
La valutazione esterna funzionerà appunto così. Stabilite le indicazioni nazionali, stabiliti i parametri nazionali, si valuteranno di anno in anno determinati apprendimenti, es. italiano o inglese o matematica o scienze o musica o educazione civica...


- Quali cambiamenti ed aggiustamenti hanno portato i rilievi fatti dalle scuole nel momento in cui hanno sperimentato i progetti? La dichiarazione che apre la relazione al pp2 non ne indica nessuno. Ed anche altri documenti , che pure si pongono il problema insistono più sul piano organizzativo che su quello di una verifica e, mi si passi il gioco di parole, di una valutazione nel merito dell'impostazione scientifica del progetto. E, contrariamente a quanto si era detto all'inizio, non indicano correttivi al "sistema di istruzione", a meno che, per correttivi, non si intenda la riforma Moratti.

Né lo potevano fare, visto che i progetti pilota non pretendevano di produrre una valutazione, a partire dalla quale il Ministero e le scuole avrebbero dovuto proporre dei correttivi. Ma su ciò rinvio alla premessa.

- Nella relazione del prof. Tornaghi al corso di formazione (non abbiamo compreso bene a chi era rivolto) del 16/17 dicembre del 2003 leggiamo:

" Si è già accennato a uno di questi possibili cambiamenti: i docenti di ogni materia coinvolta potranno ridistribuire gli argomenti da trattare o il tempo da dedicare ad essi in base ai risultati positivi o negativi ottenuti, sempre se ne sono venuti a conoscenza e li hanno analizzati. In verità questa operazione coinvolge anche i nuovi docenti delle stesse materie (ad esempio in caso di cambio dell'insegnante di Italiano fra il biennio e il triennio) e le materie affini "
Questa affermazione sembra confermare il timore che il sistema di valutazione nazionale si rivelerà estremamente " invasivo" rispetto alla libertà di insegnamento e comunque vanificherà la proclamata intenzione del ministro di eliminare i programmi centralizzati. Sappiamo - e ci riferiamo soprattutto alle prove di italiano - che l'impostazione è sulle abilità testuali e sulle competenze di astrazione, inferenza, individuazione dei nessi logici ecc, però nemmeno questo è del tutto vero, visto il largo spazio che viene dato all'analisi logica ed a quella del periodo. La cui utilità nessuno mette in dubbio, ma che si vorrebbe essere liberi di insegnare con cadenze ed a livelli tarati sulla classe. Timore legittimo il nostro??

Tornaghi ha tenuto una relazione sulla lettura dei risultati al corso di formazione, cui hanno partecipato rappresentanti delle Direzioni scolastiche e degli Irre, in vista del Progetto Pilota 3. Ha semplicemente ipotizzato che, in presenza di determinati risultati della valutazione degli apprendimenti, ciascuna scuola, in forza della propria autonomia, possa organizzare la didattica, il tempo didattico, le risorse docenti al fine di migliorare la situazione. Quanto alla libertà di insegnamento: la Repubblica ha il dovere di fissare gli standard, gli obbiettivi da raggiungere. Questi, pertanto, non rientrano nella sfera della libertà dell’insegnante. La scuola, nella sua autonomia, costruisce il POF. All’interno di questo vi è piena libertà di scelta dei tempi, dei mezzi, delle filosofie pedagogiche e delle tecniche didattiche per raggiungere gli obbiettivi. La valutazione esterna verifica il raggiungimento. Non si vede perché ciò debba essere invasivo. Del resto è ciò che fanno tutti a livello mondiale.

- Quale è il rapporto tra il sistema a regime e tutte le pratiche autovalutative esistenti nelle scuole? Da qualche parte viene detto che il questionario di sistema è una guida, in questa direzione. L'abbiamo letto e riletto, ma ci è sembrato solamente un elenco delle attività svolte, uno strumento di rilevazione quantitativo, più che qualitativo.

Il questionario di sistema dei Progetti Pilota ha alle spalle un’impostazione ideologica, per la quale la scuola è a gestione collegiale, anzi ad autogestione. Ci sono un sacco di domande inutili. Altro modello è quello dell’Ocse-Pisa. Si dovrebbe essere in grado di incrociare risultati degli apprendimenti e risultati della valutazione di sistema. Come ciò potrà accadere lo si potrà capire solo a regime. Per intanto, se si rilevassero disparità tra la valutazione esterna e l’autovalutazione, sarebbe necessario che tutti i soggetti interessati si sedessero attorno a un tavolo per monitorare la situazione. La disparità potrebbe, in linea di principio, derivare tanto da metodologie scorrette, dalla loro scorretta applicazione o, più semplicemente, da una diversa taratura dei test.

- Quale è il rapporto tra il sistema nazionale e la valutazione della qualità (o meglio certificazione della qualità) che molte scuole stanno facendo, anche con un grande dispendio di risorse economiche?

Lo stesso che c’è tra valutazione esterna e autovalutazione. La certificazione di qualità è uno strumento di autovalutazione, che si è perfezionato negli anni, ma che non può sostituire la valutazione della Repubblica. Spesso poi è diventata un business per imprese private con scarsa affidabilità. In ogni caso, la certificazione di qualità non è sostitutiva della valutazione esterna.

- Come si situa l' integrazione, che è stato il punto di partenza per la nostra ricerca, all'interno del progetto? E' solo un ostacolo alla sua effettuazione? Non è un ambito da valutare e non solo con le semplici domande contenute nei questionari che riguardano la scuola, allegati al progetto? Il modo in cui la prova viene somministrata (a chiunque, anche a chi si sa che non potrà svolgerla) non è una discriminazione mascherata da compassione?

Al momento non esiste una capacità da parte dell’Invalsi per valutare i disabili con strumenti specifici adeguati. La scelta del Progetto Pilota di distribuire i questionari a tutti e poi mettere da parte quelli dei disabili è l’effetto di questa incapacità unita allo scrupolo di non rendere evidente, già in sede di somministrazione, un’esclusione. E’ una contraddizione reale, che non può certo essere attribuita a chissà quali malvage intenzioni.

- Non c'è il rischio che bambini e ragazzi disabili vengano visti, con il progetto a regime, come un rischio di abbassamento delle prestazioni "brute" e non come una risorsa rispetto a tutte le attività che la loro presenza mette in moto nelle scuole ed all'arricchimento culturale ed umano che rappresentano per tutti?

Dipenderà dalla capacità di costruire strumenti di valutazione adeguati e specifici.

- Si evince dalla documentazione del pp che una certa qual attenzione nei confronti di chi ha disabilità sensoriale di tipo visivo sia stata riservata mentre mancano completamente riferimenti a chi ha per esempio disabilità derivanti da minorazione uditiva o disturbi di apprendimento. Da che cosa nasce questo divario e perchè si viene incontro alle difficoltà di somministrazione solo di una tipologia di alunni?

Il divario nasce dal fatto sopra ricordato: che non esiste un progetto specifico di valutazione delle prestazioni dei disabili, per i quali sarebbe decisiva, per esempio, la misurazione del valore aggiunto. Perciò si è proceduto per via pragmatica, a partire dal versante apparentemente più facile a gestirsi: quello della disabilità visiva.




interventi dello stesso autore  discussione chiusa  condividi pdf