Un super calcolatore per la dislessia
Può un modello computazionale prevedere le traiettorie di apprendimento della lettura e l’evoluzione della dislessia?
Il recente studio apparso su Psychological Science, che vede tra gli autori Marco Zorzi del Padova Neuroscience Center dell’Università di Padova, non solo afferma che è possibile, ma fornisce dati molto attendibili. Gli autori hanno utilizzato un supercomputer della Swinburne University of Technology (di solito impiegato nelle ricerche di astrofisica) per simulare l’apprendimento della lettura attraverso una rete neurale artificiale. In pratica, hanno realizzato un modello computazionale composto di “neuroni artificiali”, organizzati in strati interagenti tra loro e programmati per apprendere nello stesso modo dei bambini, cioè mediante una combinazione di insegnamento esplicito, decodificazione fonologica e auto-apprendimento, per studiare come diversi tipi di deficit concorrano nel determinare le abilità di lettura individuali.
Utilizzando i dati reali dello studio di Peterson et al. (2013), raccolti su 622 bambini americani tra gli 8 e i 13 anni, di cui 388 con dislessia, i ricercatori hanno selezionato 3 compiti collegati direttamente all’apprendimento della lettura: la scelta ortografica come misura dell’efficienza di elaborazione del lessico ortografico, la cancellazione di fonema per le abilità fonologiche e l’ampiezza del vocabolario per le abilità di lessico fonologico, ossia il numero di parole conosciute dal bambino.
Queste tre abilità rappresentavano i fattori che definivano le condizioni iniziali da cui partiva l’apprendimento e, usando i punteggi ottenuti dai bambini, gli studiosi hanno creato un modello individuale per ognuno, determinando perciò le abilità di lettura di ogni modello personalizzato.
Dopo aver eseguito una simulazione di apprendimento per ogni modello, hanno valutato le prestazioni di lettura del simulatore presentando le stesse prove usate da Peterson e colleghi e hanno confrontato i risultati dell’apprendimento nella simulazione con le effettive prestazioni di lettura dei bambini: è emerso che le traiettorie previste dal modello erano molto simili a quelle reali, sia per i normo-lettori che per i dislessici. Ciò significa che il programma era in grado di simulare accuratamente le differenze individuali tra le abilità di lettura e di rilevare la variabilità nei profili di dislessia. Inoltre, tali risultati non erano emersi nelle simulazioni eseguite con i modelli che si basavano su un singolo fattore (deficit fonologico, deficit visivo o inefficienza generale di elaborazione), suggerendo che la natura dei deficit che causano la dislessia è di tipo multifattoriale.
Secondo gli autori, questo nuovo approccio computazionale stabilisce relazioni causali tra deficit e prestazioni che possono essere utilizzate per fare previsioni a lungo termine sui risultati dell’apprendimento per i bambini a rischio di dislessia ed evidenzia che il modello potrebbe essere impiegato anche per prevedere in che modo i diversi interventi di potenziamento possano modificare le prestazioni dei bambini dislessici. Infatti, se questi risultati venissero confermati da studi longitudinali, sarebbe possibile realizzare modelli personalizzati per guidare la progettazione di efficaci interventi di potenziamento delle abilità di lettura.
Perry C., Zorzi M., Ziegler J. C. (2019), «Understanding dyslexia through personalized large-scale computational models», Psychological Science, DOI: 10.1177/0956797618823540
Peterson R. L., Pennington B. F., Olson R. K. (2013), «Subtypes of developmental dyslexia: Testing the predictions of the dual-route and connectionist frameworks», Cognition, 126, 20-38.
Questo articolo è di ed è presente nel numero 276 della rivista. Consulta la pagina dedicata alla rivista per trovare gli altri articoli presenti in questo numero. Clicca qui