Ia, arrivano le regole Ue per limitare lo strapotere di ChatGpt - V&A
Menu

QUOTIDIANO INDIPENDENTE - Fondato e diretto da MAURIZIO BELPIETRO

ApprofondimentiEuropa Gio 15 giugno 2023

Intelligenza artificiale, arrivano le regole europee per limitare lo strapotere di ChatGpt

Il Parlamento europeo ha dato il via libera al regolamento che limita lo strapotere dell'Intelligenza artificiale Intelligenza artificiale, arrivano le regole europee per limitare lo strapotere di ChatGpt
Mikol Belluzzi
di 
Mikol Belluzzi

Intelligenza artificiale, arrivano le regole Ue per limitare lo strapotere di ChatGpt

Per una volta l’Europa è un passo avanti rispetto agli Stati Uniti nell’Intelligenza artificiale. Ieri, infatti, il Parlamento europeo ha approvato il Regolamento denominato AI Act che regolamenta l’impiego dell’intelligenza artificiale nell’Unione europea. Entro fine anno potrebbe arrivare l’approvazione finale mentre l’entrata in vigore è prevista nel 2024.

Si tratta della normativa più avanzata in questo campo a livello mondiale e ha come capisaldi: il divieto dell’utilizzo di sistemi di Intelligenza artificiale per la sorveglianza biometrica nei luoghi pubblici, per la polizia predittiva e per il riconoscimento delle emozioni. Inoltre, ChatGpt dovrà rendere noto che il contenuto è stato generato dall’intelligenza artificiale. Infine, vengono classificati come “ad alto rischio” i sistemi di AI utilizzati per influenzare gli elettori nelle elezioni.

Un approccio basato sul rischio

Nel testo approvato, le norme seguono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e per coloro che impiegano sistemi di IA, a seconda del livello di rischio che può generare.

I sistemi di IA con un livello di rischio inaccettabile per la sicurezza delle persone sono vietati, come quelli utilizzati per il social scoring cioè la classificazione delle persone in base al loro comportamento sociale o alle loro caratteristiche personali.

Inoltre, Bruxelles ha ampliato l’elenco per includere divieti anche sugli usi intrusivi e discriminatori dell’AI, come sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico; sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (per esempio, sesso, razza, etnia, cittadinanza, religione, orientamento politico); sistemi di polizia predittiva (basati su profili, ubicazione o comportamenti criminali passati); sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni scolastiche; e lo scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso, per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

Divieto di strumenti per influenzare gli elettori

Gli eurodeputati hanno deciso anche la classificazione delle applicazioni ad alto rischio includerà ora i sistemi di AI che creano danni significativi alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. I sistemi utilizzati per influenzare gli elettori e l’esito delle elezioni e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti) sono stati aggiunti alla lista ad alto rischio.

I paletti per ChatGpt

Anche l’AI generativa, quella di ChatGpt, dovrà rispettare requisiti di trasparenza che prevedono l’obbligo di rivelare quali contenuti sono stati realizzati dall’Intelligenza artificiale, la prevenzione di contenuti illegali, la pubblicazione dei dati coperti da diritto d’autore usati nell’addestramento.

Per quanto riguarda i sistemi a rischio limitato, invece, devono soltanto rispettare i requisiti minimi di trasparenza, compreso il consenso informato in ottica Gdpr. Sono inclusi in quest’ultima casistica i sistemi di Intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video.

Condividi articolo