L’UE punta a regolamentare l’Intelligenza Artificiale per una maggiore sicurezza

 L’UE punta a regolamentare l’Intelligenza Artificiale per una maggiore sicurezza
L’Unione Europea punta sull’innovazione attraverso la regolamentazione dell’Intelligenza Artificiale, per permettere ai cittadini di sentirsi al sicuro e iniziare ad utilizzare le nuove tecnologie per i servizi pubblici e privati.

Con buoni propositi l’Europa muove i primi passi concreti verso il futuro, con la consapevolezza che proprio l‘Intelligenza Artificiale sarà centrale da qui a pochi anni in molti dei settori pubblici. L’Europa, però, vuole arrivare preparata a questo importante appuntamento con il futuro, strutturando da subito le basi giuridiche per affrontare questo cambiamento e sensibilizzare i cittadini.

Per gestire opportunità e rischi la Commissione Europea prospetta di aumentare a 20 miliardi di euro l’anno gli investimenti privati e pubblici per le tecnologie rivolte all’Intelligenza Artificiale. Un decisione importante che permetterà anche di essere competitivi in questo settore rispetto agli altri paesi.

Prima della proposta della Commissione, già il Parlamento Europeo era all’opera con la commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) per analizzare l’impatto dell’IA sull’economia dell’Unione Europea.

In ambito di regolamentazione, proprio il Parlamento affermava che “le norme devono essere incentrate sulla persona (…) per evitare la creazione di pregiudizi e di discriminazioni, stimolare la responsabilità sociale e ambientale e come assicurare il rispetto dei diritti fondamentali.”

L'UE punta a regolamentare l'Intelligenza Artificiale per una maggiore sicurezza
Intelligenza Artificiale

Nell’ultimo aggiornamento in materia, invece, è la Commissione a proporre un regolamento volto a garantire “la sicurezza e i diritti fondamentali delle persone e delle imprese, rafforzando nel contempo gli investimenti e l’innovazione nei paesi dell’UE”.

Nello specifico, attraverso le nuove norme propone che i sistemi di Intelligenza Artificiale siano sicuri, trasparenti, etici, imparziali e sotto il controllo umano. Li classifica, inoltre, in base a 4 livelli di rischio:

Rischio inaccettabile

Ovvero tutto ciò che è considerato una minaccia per i cittadini UE: dai sistemi di credito, ai giochi con assistenza vocale.

Rischio elevato

  • Infrastrutture critiche (es. I trasporti);
  • Istruzione o formazione professionale (es. Punteggio degli esami);
  • Componenti di sicurezza dei prodotti (es. Applicazione dell’IA nella chirurgia robotica);
  • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo (es. Software di selezione dei CV);
  • Servizi pubblici e privati essenziali (es. Sistemi di credito sociale);
  • Attività di contrasto che possono interferire con i diritti fondamentali delle persone (es. Valutazione dell’affidabilità delle prove);
  • Gestione della migrazione, dell’asilo e del controllo delle frontiere (es. verifica dell’autenticità dei documenti di viaggio);
  • Amministrazione della giustizia e processi democratici (es. Applicazione della legge a una serie concreta di fatti).

Rischio limitato

Ad esempio sistemi come i chatbot sono soggetti a obblighi di trasparenza, secondo il quale ogni cittadino deve esprimere proprio consenso prima di continuare a utilizzare un’applicazione.

Rischio minimo

Uso gratuito di applicazioni quali videogiochi o filtri spam che sfruttano l’IA, per cui il rischio che si presenta è minimo.

Per sensibilizzare i cittadini a rimanere informati, l’UE ha previsto inoltre diverse attività di promozione del tema.

Leggi su Datamagazine anche l’approfondimento “Dalla realtà virtuale un supporto alle terapie per i disturbi della comunicazione“.

Potrebbe anche interessarti

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *