Datamagazine informa l’utente che questo sito web non utilizza cookie di profilazione al fine di inviare messaggi pubblicitari in linea con le preferenze manifestate nell’ambito della navigazione in rete

L’intelligenza artificiale entra in classe, ma con regole certe. Ecco le linee guida del MIM per la scuola

È arrivato il giorno in cui l’Intelligenza Artificiale bussa alla porta della scuola, ma non entra senza chiedere permesso. Il Ministero dell’Istruzione e del Merito ha pubblicato le linee guida ufficiali sull’uso dell’IA a scuola e il messaggio è chiaro: niente scorciatoie, niente improvvisazioni, solo un percorso ragionato e sotto stretta sorveglianza. “Non è un manifesto, ma una cassetta degli attrezzi”, si legge nel documento, che delinea principi, requisiti e un modello operativo per adottare le nuove tecnologie senza trasformare la classe in un laboratorio anarchico.

Il testo mette subito in chiaro quali sono i limiti. Le applicazioni di intelligenza artificiale legate a valutazioni, ammissioni, esami e monitoraggi degli studenti rientrano nella categoria ad “alto rischio” e quindi possono essere usate soltanto con “cautele stringenti, valutazioni d’impatto e sorveglianza umana”. Altri divieti sono altrettanto netti, come quello sul riconoscimento delle emozioni: non sarà consentito che un algoritmo legga sguardi, voci o gesti degli studenti per valutarne l’attenzione o l’umore, se non in casi eccezionali legati alla sicurezza o alla salute. La privacy diventa la parola d’ordine.

Nessun sistema di IA potrà essere introdotto senza prima passare attraverso la DPIA, la valutazione di impatto sulla protezione dei dati, affiancata dalla FRIA, che misura l’impatto sui diritti fondamentali. In sostanza, prima di mettere un software in classe bisogna dire chiaramente a cosa serve, quanto dura, chi coinvolge e che rischi comporta. Se restano criticità, scatterà la consultazione obbligatoria con il Garante. È l’applicazione pratica di un approccio che in Europa prende il nome di HUDERIA, una metodologia pensata per valutare ogni tecnologia alla luce di diritti umani, democrazia e stato di diritto. “Prima proteggere, poi sperimentare” è la logica che attraversa tutte le pagine delle linee guida. Non meno importante è il diritto di non partecipazione: gli studenti non saranno obbligati a utilizzare strumenti basati sull’IA e soprattutto non potranno essere profilati. Nessun prompt, nessuna interazione dovrà finire nei database delle piattaforme, e per i minori sarà necessaria la comunicazione preventiva alle famiglie. Privacy by default, insomma: prudenza e trasparenza come condizioni di partenza. Il percorso indicato dal Ministero è scandito in quattro fasi, dalla definizione dei bisogni alla pianificazione del progetto, dall’adozione graduale al monitoraggio finale.

Una vera e propria pedagogia dell’innovazione che vuole accompagnare scuole e docenti, senza scivolare nella tentazione di buttarsi a capofitto nella sperimentazione. Le applicazioni possibili sono tante: supporto personalizzato allo studente, accessibilità per chi ha disabilità, strumenti di progettazione per i docenti, automazione delle pratiche amministrative, fino alla governance istituzionale, con una piattaforma ministeriale che permetterà di monitorare in tempo reale progetti e risultati. Il punto è che la scuola italiana non respinge l’IA, anzi, la accoglie. Ma la accoglie con regole chiare. “L’IA entra in classe, ma bussa e aspetta istruzioni”: la frase riassume lo spirito del documento. Perché l’intelligenza artificiale può essere una leva potente di miglioramento, ma resta anche un rischio se non governata. È la politica che mette i paletti, con il GDPR e l’AI Act come cornice, il Consiglio d’Europa come riferimento e la comunità scolastica chiamata a partecipare. La tecnologia, insomma, non sostituirà mai l’uomo: lo affiancherà, ma sempre sotto il suo sguardo vigile. Uno sguardo che nella scuola è affidato al lavoro fondamentale di docenti ed educatori.

About Post Author

Related Posts