
Le 10 regole degli esperti per utilizzare l'IA nell'istruzione
Un documento delinea dieci regole per un'applicazione più responsabile, equa e inclusiva dell'intelligenza artificiale nell'insegnamento dell'inglese
Il British Council, l’ente britannico per le relazioni culturali e le opportunità educative ha presentato le sue raccomandazioni per un utilizzo più responsabile, equo e inclusivo dell’Intelligenza Artificiale (IA) nell’educazione, in particolare nell’apprendimento, insegnamento e valutazione della lingua inglese. I principi possono però essere applicati a tutte le forme d’istruzione. Attraverso un documento si approfondisce la necessità di un approccio più umano nella selezione e implementazione delle tecnologie IA.
10 regole per usare l’IA
Secondo il documento del British Council, riportato da Il Sole 24 Ore, i dieci principi per un approccio umano all’IA nell’apprendimento e valutazione della lingua inglese sono:
- Sfruttare le opportunità: l’IA, nell’ambito dell’insegnamento, apprendimento e valutazione linguistica, può ampliare i confini delle possibilità, consentendo nuovi approcci che rendano l’intero percorso di apprendimento più coinvolgente, personalizzato ed efficace.
- Mantenere un obiettivo chiaro: è fondamentale evitare l’uso della tecnologia senza una chiara strategia.
- L’ecosistema è la chiave: il curriculum, la didattica e la valutazione devono operare in un sistema di apprendimento integrato, l’IA deve essere armoniosamente inserita nell’intero ecosistema educativo, con il riconoscimento dello studente come attore centrale.
- Alfabetizzazione sull’IA per tutti: è essenziale che tutti gli attori coinvolti comprendano i concetti fondamentali dell’IA, il suo funzionamento e il suo impiego nei prodotti e servizi per l’apprendimento e la valutazione.
- Gli esseri umani prima della tecnologia: l’IA e qualsiasi altra tecnologia dovrebbero essere applicate solo se in grado di migliorare l’esperienza e i risultati di apprendimento degli studenti o candidati agli esami.
- Il ruolo essenziale degli educatori: le capacità avanzate dell’IA generativa, in particolare i modelli linguistici di grandi dimensioni come ChatGPT, non possono sostituire il patrimonio di conoscenze ed esperienze costruito da educatori ed esperti linguistici. Serve un approccio bilanciato che combini il meglio dell’IA con l’esperienza umana così da garantire soluzioni moderne ed efficaci per tutti gli attori coinvolti nell’educazione.
- Collaborare con esperti: in un’epoca di continua evoluzione tecnologica, per i non esperti è difficile rimanere aggiornati sugli sviluppi più recenti perciò è da incoraggia il dialogo con esperti sia interni che esterni al settore.
- Impegno verso standard etici: l’etica deve essere una priorità per chi sviluppa e utilizza sistemi basati sull’IA, affinché la tecnologia sia impiegata in modo equo, sicuro e inclusivo.
- Garantire un accesso equo: i sistemi educativi devono assicurarsi che le applicazioni basate sull’IA siano disponibili su dispositivi e in formati accessibili a tutti.
- Valorizzare diversità e inclusione nell’istruzione: è essenziale che i modelli di intelligenza artificiale siano sviluppati utilizzando dataset equilibrati e diversificati, affinché tutti i gruppi sociali siano rappresentati in modo equo, senza pregiudizi o discriminazioni. L’IA deve essere utilizzata per ampliare le opportunità di apprendimento e riconoscere appieno le diversità sia per studenti internazionali che per coloro con disabilità cognitive e fisiche.
Il documento sull’approccio più umano all’IA
Il documento del British Council si chiama “Human-centred AI: Lessons for English Learning and Assessment” e sarà presentato a Firenze all’ottava edizione di DIDACTA Italia dove l’ente britannico celebrarà l’80° anniversario della sua presenza nel Bel Paese con un ricco programma di eventi e workshop dal 12 al 14 marzo. Il Dr. Mariano Felice, autore del documento e Senior Researcher e Data Scientist per la valutazione linguistica e l’apprendimento dell’inglese presso il British Council, ha spiegato a Il Sole 24 Ore che non si possono “affidare decisioni cruciali, come quelle educative, esclusivamente a una macchina, vi sono regolamentazioni e questioni legali da considerare. Inoltre, non possiamo separare la morale e l’etica dal campo dell’educazione. La tecnologia deve essere un supporto, ma gli esperti devono sempre supervisionarne l’uso per prevenire e correggere eventuali deviazioni”.