Le imprese che integrano sistemi generici di intelligenza artificiale generativa dovranno conformarsi alle restrizioni previste dalle leggi europee.
Nel 2023, il 48% delle realtà produttive sarà coinvolto in modo significativo da questa nuova tecnologia.
L’intelligenza artificiale generativa, come ChatGPT o Bard, sta iniziando ad essere adottata dalle aziende, suscitando curiosità, preoccupazioni e discussioni. Queste applicazioni possono essere integrate in altri sistemi digitali, permettendo anche alle piccole e medie imprese di trarre vantaggio da una tecnologia che non sarebbero in grado di sviluppare da sole.
Attualmente non esiste una disciplina normativa, ma verrà introdotta dal regolamento europeo sull’intelligenza artificiale (AI Act).
Dopo aver ottenuto l’approvazione del Parlamento Europeo a metà giugno, il regolamento dovrà essere definito e pubblicato sulla Gazzetta Ufficiale dell’Unione Europea all’inizio del 2024.
Negli ultimi mesi, le richieste di regolamentazione sono aumentate, spesso avanzate anche dalle grandi aziende tecnologiche, al fine di mitigare i rischi dell’intelligenza artificiale.
Una volta approvato definitivamente, l’AI Act potrebbe diventare la prima legge al mondo sull’intelligenza artificiale. Tuttavia, non mancano critiche riguardo alla rigidità eccessiva e alla pressione per renderlo meno stringente. Uno dei punti più delicati riguarda la regolamentazione dei sistemi a fini generali e delle loro integrazioni da parte delle imprese.
Il testo approvato dal Parlamento prevede che gli obblighi e le responsabilità riguardino principalmente le imprese che implementano sistemi a fini generali. Pertanto, le aziende devono iniziare a tenerne conto e ad acquisire nuove competenze, come è successo con il GDPR per la protezione dei dati personali.
Gli obblighi e le sanzioni entreranno in vigore nei mesi successivi per consentire l’adeguamento.
Sul mercato sono già disponibili applicazioni che incorporano ChatGPT per diverse finalità: creazione di siti web, manipolazione di immagini, simulazione di assistenti virtuali, rappresentazione di amici che forniscono consigli, supporto nell’organizzazione di materiali e ricerche legali per studi legali.
Gli esempi di utilizzo sono numerosi, coprendo una vasta gamma di settori e stanno crescendo rapidamente. Tuttavia, le imprese devono essere consapevoli che l’utilizzo di queste tecnologie comporta la condivisione dei dati. Non sorprende che i giganti finanziari e delle assicurazioni stiano sviluppando i propri sistemi di intelligenza artificiale generativa.
L’intelligenza artificiale può offrire numerosi vantaggi alle imprese, dalla maggiore efficienza alla riduzione dei costi. Secondo il Rapporto 2023 sul digitale in Italia, elaborato da Anitec-Assinform (l’associazione delle aziende ICT), la diffusione dell’intelligenza artificiale generativa sta stimolando la crescita del mercato dell’intelligenza artificiale.
Nel 2022, le aziende hanno speso 435 milioni di euro (+32% rispetto al 2021), ma nel 2023 il 48% delle imprese prevede di utilizzare l’intelligenza artificiale in modo significativo in alcuni o molti processi (nel 2022 era il 26%).
Per promuovere la conoscenza delle nuove tecnologie, Piccola Industria Confindustria e Anitec-Assinform stanno organizzando un programma biennale di incontri rivolto alle piccole e medie imprese in tutta Italia.
In molti si sono chiesti chi è responsabile delle inefficienze e della conformità necessaria per evitare violazioni dei diritti degli utenti? È il produttore del sistema o chi lo sviluppa, impiega o distribuisce?
Secondo il testo approvato dal Parlamento, gli oneri e le responsabilità spettano a chi distribuisce o utilizza i sistemi a scopi generali. Ad esempio, nel vasto campo delle attività ad alto rischio, come la gestione delle risorse umane, ciò implica la presenza di una supervisione umana e la creazione di un sistema di valutazione e gestione del rischio.
D’altra parte, chi produce la tecnologia, come OpenAI, dovrà fornire assistenza e accesso alle informazioni.
Per ridurre la disparità di potere contrattuale tra i fornitori dei sistemi e le imprese, il Parlamento ha vietato clausole contrattuali unilaterali che, ad esempio, escludano o limitino le responsabilità per gravi negligenze o concedano al produttore il diritto di determinare la conformità della documentazione tecnica e dei dati forniti.
Data la complessità del settore e della regolamentazione, sarà importante che le autorità nazionali incaricate di vigilare e sanzionare le imprese che creano e integrano sistemi di intelligenza artificiale offrano anche un supporto allo sviluppo di questa cruciale tecnologia.