
L'IA che stimola gli studenti a pensare e non dà soluzioni pronte
Anthropic lancia l'IA dedicata agli universitari che li spinge, come fosse un tutor, a procedere in autonomia verso gli obiettivi di studio e ricerca
Sempre più studenti universitari usano l’intelligenza artificiale per supportare i loro studi. Anthropic, startup americana di intelligenza artificiale fondata nel 2021, ha lanciato un’iniziativa pensata proprio per aiutare le università a svolgere un ruolo attivo nella definizione del rapporto tra IA e società. Si chiama Claude for Education e ha l’obiettivo di stimolare chi la usa a ragionare in modo autonomo.
Cos’è l’IA che stimola a ragionare
Al centro del programma di Claude for Education c’è una modalità innovativa battezzata Learning Mode, che modifica il modo in cui il chatbot Claude interagisce con gli studenti. Invece di fornire risposte immediate, ovvero soluzioni pronte, Claude cercherà di guidare gli utenti verso una soluzione, stimolandoli a ragionare autonomamente. In pratica si comporterebbe come un tutor responsabile più che un amico onnisciente.
Inoltre, adotterebbe il cosiddetto metodo socratico, ponendo domande come “Quali prove supportano la tua conclusione?” per favorire una comprensione più profonda dei concetti.
Come riporta La Repubblica, un nuovo modello ibrido di ragionamento sviluppato da Anthropic, 3.7 Sonnet, si integra con Claude’s Projects, uno strumento versatile che consente di organizzare e personalizzare le conversazioni in base a specifici argomenti di studio.
Claude for Education è accessibile a tutti gli utenti con un’email accademica con dominio .edu e Anthropic ha già avviato collaborazioni con istituzioni prestigiose come la Northeastern University, la London School of Economics and Political Science e il Champlain College, garantendo l’accesso gratuito a tutti i loro studenti.
Qual è la filosofia di Anthropic sull’IA
Anthropic, sin dalla nascita, si è sempre focalizzata sulla sicurezza e l’interpretabilità dell’intelligenza artificiale, sviluppando modelli avanzati progettati per essere più affidabili, trasparenti e allineati ai valori umani. Uno degli obiettivi centrali dell’azienda di San Francisco è quello di creare sistemi di intelligenza artificiale meno inclini a generare contenuti fuorvianti o dannosi, attraverso tecniche di apprendimento controllato e l’uso di metodi come la “costituzional AI“, un approccio che incorpora principi etici direttamente nell’addestramento del modello.
I modelli di linguaggio di Anthropic, come la serie Claude 3, si distinguono per capacità di ragionamento avanzato, contestualizzazione migliorata e interazioni più naturali. Proprio queste caratteristiche rendono Claude particolarmente adatto all’ambito accademico perché fornisce agli studenti strumenti per sviluppare il pensiero critico.
Anthropic sta infine lavorando con Instructure, la società dietro la piattaforma di apprendimento Canvas, per facilitare l’integrazione dell’intelligenza artificiale negli strumenti didattici utilizzati dalle università.
Cosa si può fare con Claude for Education
Ma cosa potranno davvero fare gli studenti con Claude for Education? Come si legge nella nota di lancio, il sistema permette di redigere revisioni della letteratura con citazioni appropriate, risolvere problemi di calcolo con una guida passo dopo passo e ricevere feedback sulle tesi prima della consegna finale.
I docenti possono invece creare rubriche allineate a specifici risultati di apprendimento, fornire feedback personalizzati sui saggi degli studenti in modo efficiente e generare equazioni di chimica con diversi livelli di difficoltà. Il personale amministrativo può analizzare le tendenze di iscrizione nei dipartimenti, automatizzare le risposte e-mail ripetitive alle richieste comuni e convertire documenti di policy densi in formati FAQ accessibili, il tutto da un’interfaccia di chat familiare con controlli di sicurezza e privacy di livello aziendale.