Secondo un rapporto di Bloomberg, l’Unione Europea sta negoziando un piano per ulteriori regolamenti sui sistemi di intelligenza artificiale (AI).
La Commissione Europea, il Parlamento Europeo e i vari Stati membri dell’UE stanno discutendo sui potenziali effetti dei modelli linguistici di grandi dimensioni (LLM), tra cui Llama 2 di Meta e ChatGPT-4 di OpenAI, e sulle possibili restrizioni da imporre come parte della prossima legge sull’AI .
Bloomberg riferisce che fonti vicine ai vertici decisionali hanno affermato che l’obiettivo non è sovraccaricare le nuove startup con troppe normative, ma quello di mantenere sotto controllo i modelli più grandi.
Secondo le fonti l’accordo raggiunto dai negoziatori sulla questione sarebbe ancora nella fase preliminare.
L’AI Act e le nuove proposte di regolamento per gli LLM rappresenterebbero un approccio simile al Digital Services Act (DSA) dell’UE.
I legislatori dell’UE hanno recentemente implementato i DSA, facendo in modo che piattaforme e siti web dispongano di standard per proteggere i dati degli utenti e scansionare attività illegali.
Le aziende di questa categoria, come Alphabet e Meta, hanno avuto tempo fino al 28 agosto per aggiornare le pratiche di servizio per conformarsi ai nuovi standard UE.
L’AI Act dell’UE si propone come una delle prime norme obbligatorie per l’IA sul fronte occidentale, ad oriente, la Cina ha già adottato una propria serie di regolamenti sull’IA che sono entrate in vigore nell’agosto 2023.
Secondo le normative UE sull’intelligenza artificiale, le aziende che sviluppano e implementano sistemi di intelligenza artificiale dovrebbero eseguire valutazioni del rischio, etichettare i contenuti generati dall’intelligenza artificiale.
In Cina, dall’implementazione delle leggi sull’intelligenza artificiale, è stato riferito che sono già stati rilasciati più di 70 nuovi modelli di intelligenza artificiale .