L’EU AI Act è considerato un insieme di normative all’avanguardia in tema di IA.
Dopo alcuni ritardi, si ritiene che il 7 dicembre i negoziatori abbiano raggiunto un accordo su una serie di controlli per gli strumenti di intelligenza artificiale generativa, come ChatGPT di OpenAI e Bard di Google.
La preoccupazione per l’uso improprio della tecnologia ha spinto anche altri stati tra cui gli Stati Uniti, il Regno Unito, la Cina e altri paesi del G7 a intensificare i loro sforzi per la regolamentazione dell’IA.
A giugno, il governo australiano ha lanciato una consultazione di otto settimane per raccogliere opinioni sull’eventualità di vietare gli strumenti di intelligenza artificiale ad alto rischio.
La consultazione è stata estesa fino al 26 luglio, con l’intento di raccogliere idee su come promuovere un uso sicuro e responsabile dell’IA.
In Cina, dal 15 agosto sono state introdotte norme temporanee per supervisionare il settore dell’IA generativa. Tali norme richiedono ai fornitori di servizi livelli di supervisione e valutazioni di sicurezza più elevati.
Il 22 novembre, anche l’Autorità Italiana per la Protezione dei Dati ha avviato un’indagine per esaminare i processi di raccolta dati che vengono utilizzati per addestrare gli algoritmi AI, con lo scopo di garantire l’adozione di misure di sicurezza adeguate su siti web pubblici e privati per prevenire il “web scraping” di dati personali da parte di terzi.
Gli Stati Uniti, il Regno Unito, l’Australia e altri 15 paesi hanno recentemente pubblicato linee guida globali per proteggere i modelli di intelligenza artificiale da eventuali manomissioni, sollecitando le aziende a progettare i loro modelli tenendo in considerazione la sicurezza fin dalla fase iniziale dello sviluppo.
Tutto è in divenire e anche i governi stanno cercando di stare al passo con i tempi e le nuove tecnologie. Questo settore che sta rivoluzionando sempre più le nostre vite rivoluzionerà anche le leggi e il modo che abbiamo di concepirle.