Non è ancora tempo di regole per l’AI ?

Tutti vogliono regolare l’AI ma nessuno sa come fare. Il rischio concreto oggi è di creare delle norme come la Locomotives Act del 1861 in Gran Bretagna per regolare il nuovo al tempo fenomeno delle automobili che prevedeva che ogni vettura a motore avesse una persona che corresse avanti di 50 metri con una bandiera rossa per annunciare l’arrivo dell’auto. La follia delle regole spesso non è sempre visibile da subito.

In realtà oggi ad avere le idee più chiare è la Cina che nonostante abbia avviato il processo di definizione delle regole per ultima ha già chiuso la questione. L’AI potrà essere utilizzata per tutto, ma deve seguire i valori del socialismo e non può essere utilizzata per sovvertire l’ordine costituito e il potere in Cina.

L’Europa ha definito uno schema di rischi potenziali oltre a togliere la possibilità di utilizzarlo per il riconoscimento facciale dei cittadini europei con l’esclusione dei migranti. Ma la discussione è ancora lunga e probabilmente vedrà la luce nel 2025. Il principale punto in discussione è la necessità di porre regole sui sistemi fondativi dell’intelligenza artificiale (che Francia, Germania e Italia non vorrebbero lasciando che queste aziende si auto-regolino, con il timore di limitare troppo lo sviluppo in Europa), oppure solo sulle applicazioni che utilizzano queste tecnologie, ad esempio l’industria delle armi.

Un aspetto interessante è l’ordine esecutivo statunitense di Biden che oltre a indicare varie azioni di buona condotta da parte delle aziende che creano l’AI, ha identificato un limite di capacità computazionale del modello oltre il quale è necessario autodenunciarsi al governo statunitense. Questo valore è pari a 1e26 FLOP come potenza computazionale che corrisponde circa a 5 volte quella di GPT-4. Guardando i trend di sviluppo dei vari modelli, questo limite potrebbe essere raggiunto entro la fine del 2024.
In molti si stanno chiedendo la ragione di questo numero, ma guardando le ricerche sulle capacità cognitive umane, il limite sembrerebbe collegato alla stima di superamento di intelligenza umana rispetto ai criteri del progetto Big Bench che analizza 200 capacità cognitive umane e la capacità dell’AI di batterle.

Ogni regola di troppo potrebbe rallentare la macchina dell’AI, forse il tempo delle regole è ancora da venire e oggi il miglior approccio è quello delle regulatory sandboxes che permettono alle aziende di sperimentare senza timore per un tempo congruo a capire realmente questa tecnologia.