A Strasburgo il Parlamento Ue ha adottato la propria posizione negoziale sulle norme per l’intelligenza artificiale (le prime al mondo), che vieta l’identificazione biometrica in pubblico in tempo reale. Nello stesso tempo a Bruxelles l’Antitrust Ue guidata da Margrethe Vestager ha acceso un faro su Google inviando una lettera di addebito per presunta posizione dominante nel settore della tecnologia pubblicitaria online. Appare sempre più evidente l’intenzione dell’Ue di porsi come guida legislativa nel mondo della tecnologia. «Le nuove regole saranno uno standard globale a lungo», ha commentato la presidente del Parlamento Ue, Roberta Metsola. Dedicano attenzione al tema tutti i principali organi di stampa, fra cui il Foglio con un articolo pubblicato lo scorso 15 giugno: Con 499 voti a favore, 28 contrari e 93 astenuti, ieri il Parlamento europeo ha approvato l’“AI Act”, un pacchetto di norme ce dovrebbe regolamentare il vasto settore dell’intelligenza artificiale. Al voto di Strasburgo seguirà ora il “trilogo”, cioè la discussione con le altre istituzioni europee (Consiglio e Commissione), da cui usciràil testo definitivo, che sarà varato auspicabilmente entro la fine di quest’anno. Si tratterà in ogni caso di ritocchi lievi e pertanto, sebbene non definitivo, l’impianto del documento di ieri resterà grossomodo invariato. La principale novità contenuta nell’“AI Act” è l’introduzione di quattro diverse classi di rischio, con cui verranno contrassegnate le diverse tecnologie: si va dal “rischio inaccettabile” fino al “rischio limitato”, passando per una fascia di rischio “alto” e una categoria a parte, riservata all’IA generativa (del tipo ChatGPT).
Come sottolineato nell’articolo pubblicato su Il Foglio, per il livello di rischio più elevato (“bollino rosso”) l’Unione stabilisce un divieto assoluto di utilizzo e prevede una pena amministrativa nel caso in cui tale restrizione venga aggirata: si parla di una sanzione che può arrivare fino a 30 milioni di euro o, in alternativa, una cifra pari al 6 per cento del fatturato annuo dell’azienda. Fra le tecnologie considerate maggiormente pericolose, rientrano tutti i sistemi di identificazione biometrica “in tempo reale”: si tratta, cioè, di quelle tecnologie che sfruttano l’intelligenza artificiale per il riconoscimento faciale nei luoghi all’aperto o comunque pubblici. Oltre al riconoscimento facciale, fra le tecnologie vietate dall’Unione ci sono quelle che comportano una manipolazione cognitivo-comportamentale delle persone (anche a fini elettorali). Particolarmente interessanti anche gli aspetti normativi inerenti i sistemi sul modello di ChatGPT: l’Ue chiede infatti il rispetto di alcuni requisiti di trasparenza, obbligando ad esempio gli utenti a dichiarare che un testo è stato prodotto utilizzando l’intelligenza artificiale. Inoltre, l’Unione chiede che tali tecnologie vengano progettate “evitando la generazione di contenuti illegali”. Quanto a Mountain View, l’Antitrust Ue aveva avviato un’indagine preliminare nel giugno 2021: «Abbiamo scoperto che Google potrebbe aver abusato della sua posizione dominante favorendo i propri servizi adtech», ha detto la vicepresidente della Commissione Ue Vestager. Google avrebbe «violato le norme Ue» abusando del suo dominio nella filiera della tecnologia pubblicitaria. Vestager ha spiegato che i suoi tecnici nell’indagine hanno agito sostenuti dalle autorità di Italia, Francia, Danimarca, Portogallo e in contatto con Usa e Gran Bretagna.