Brutte notizie da OpenAI e Google, per una volta unite nella sfortuna. Le società di intelligenza artificiale dovranno a breve comunicare al governo degli Stati Uniti ogni sviluppo in merito a modelli AI di base, secondo quanto stabilito dal Defense Production Act.
Queste nuove regole sono una componente del vasto ordine esecutivo sull’intelligenza artificiale annunciato dal presidente Biden lo scorso ottobre. In base a quest’ordine, le aziende devono informare il governo federale e condividere i risultati dei test di sicurezza. Soprattutto per tutti quei modelli di base che possono rappresentare dei gravi rischi per la sicurezza nazionale, economica e pubblica.
La mossa del Governo USA “contro” i modelli AI
Quando l’anno scorso ChatGPT di OpenAI fece il suo ingresso nel mondo dell’informatica, in molti furono sorpresi sia nella Silicon Valley che a Washington, DC. Riferisce Wired, ora l’amministrazione Biden si prepara a impiegare il Defense Production Act. Così da richiedere alle aziende tecnologiche di notificare preventivamente il governo riguardo alle future scoperte nell’ambito dell’intelligenza artificiale.
Come quando coinvolgono modelli linguistici di grandi dimensioni. Non a caso, i modelli come GPT-4 di OpenAI e Gemini di Google, che alimentano chatbot con intelligenza artificiale generativa, rientrano in questa categoria.
Le aziende saranno obbligate a comunicare al governo informazioni fondamentali. Compresa la quantità significativa di potenza di calcolo utilizzata nel processo di addestramento di nuovi modelli di intelligenza artificiale. Inoltre, dovranno condividere dettagli sui test di sicurezza eseguiti su tali nuove creazioni. Tuttavia, GPT-4, al momento, potrebbe non richiedere la supervisione governativa in termini di potenza di calcolo.
Forse in vigore la prossima settimana, questa normativa permetterà al governo degli Stati Uniti di ottenere informazioni dettagliate su progetti sensibili condotti da OpenAI, Google, Amazon e altre società nel settore dell’intelligenza artificiale.
Il pericolo di un’intelligenza artificiale senza controllo
Riporta Mashable, Gina Raimondo, Segretario al Commercio degli Stati Uniti, ha condiviso diversi dettagli su questo prossimo obbligo durante un evento presso l’Hoover Institute dell’Università di Stanford lo scorso venerdì.
Sempre la Raimondo ha affrontato anche un altro obbligo dell’ordine esecutivo. Ovvero comunicare in qualità di fornitori di servizi cloud statunitensi, come Amazon, Google e Microsoft, l’utilizzo dei loro servizi da parte di enti stranieri (aziende, costumers, enti istituzionali…).
La preoccupazione principale si concentra sul fatto che futuri modelli di base con potenza di calcolo senza precedenti rappresenterebbero dei rischi significativi per la sicurezza nazionale.
Queste nuove regole si trovano ad essere implementate in un contesto di rapida evoluzione dell’intelligenza artificiale. Esperti e dirigenti del settore vorrebbero una pausa temporanea nello sviluppo di tecnologie più avanzate, evidenziando la necessità di regolamentazioni e supervisione esterna.
Mentre il governo cerca di ottenere informazioni dettagliate sui progetti in corso, la comunità internazionale dell’intelligenza artificiale si confronta nel tentativo di bilanciare l’innovazione tecnologica con la necessità di sicurezza e responsabilità.