OpenAI, dopo un anno di attesa non è ancora pubblico il Voice Engine

OpenAI rinvia il rilascio di Voice Engine: dopo un anno, il potente tool di clonazione vocale resta limitato a test privati per timori legati a deepfake e sicurezza

Federico Morgantini
AI Voice Engine

Un anno fa, OpenAI ha presentato Voice Engine, una tecnologia avanzata di clonazione vocale in grado di riprodurre con estrema fedeltà una voce umana a partire da un campione di appena 15 secondi. Questo strumento sfrutta modelli di intelligenza artificiale per replicare tono, inflessione ed emozione del parlante, aprendo la strada a numerose applicazioni, dal doppiaggio automatico alla creazione di assistenti vocali iperrealistici. Tuttavia, nonostante le enormi potenzialità, OpenAI ha scelto di non rilasciare pubblicamente la tecnologia, citando rischi legati all’uso improprio, tra cui la disinformazione, la creazione di deepfake vocali e l’usurpazione d’identità. Questa scelta ha scatenato un acceso dibattito all’interno della comunità tecnologica, con molti esperti che si interrogano sulla reale capacità delle aziende di bilanciare innovazione e sicurezza. La domanda rimane: quando e come verrà rilasciato Voice Engine?

L’AI Voice Engine solo per un ristretto gruppo di partner

Dopo l’annuncio iniziale, OpenAI ha deciso di limitare l’uso del tool a un ristretto gruppo di partner fidati, tra cui aziende nel settore della sanità, dell’istruzione e dell’accessibilità digitale. L’obiettivo era testarne le applicazioni positive, come il supporto a persone con difficoltà di comunicazione o la traduzione simultanea con voci realistiche. Tuttavia, dopo un anno di test, non esiste ancora una data ufficiale di rilascio per il pubblico. OpenAI ha dichiarato di essere ancora impegnata nello sviluppo di misure di sicurezza adeguate per prevenire abusi, ma le incertezze rimangono. Nel frattempo, altre aziende stanno portando avanti ricerche simili, aumentando la pressione su OpenAI per accelerare la distribuzione del suo prodotto. La crescente sofisticazione dei deepfake vocali, con casi di truffe bancarie e disinformazione politica già documentati, ha spinto le autorità a esaminare da vicino queste tecnologie, chiedendo regolamentazioni più stringenti.

Innovazione e responsabilità etica

La decisione di OpenAI di mantenere Voice Engine sotto stretto controllo riflette una più ampia tendenza nel settore tecnologico, dove sempre più aziende stanno affrontando il dilemma tra innovazione e responsabilità etica. La possibilità di clonare voci con tale precisione solleva domande cruciali sulla privacy, la sicurezza e le implicazioni legali. Chi garantirà che la tecnologia venga utilizzata solo per scopi leciti? E quali saranno le conseguenze se finirà nelle mani sbagliate? Per ora, OpenAI continua a posticipare il rilascio del suo tool, mentre governi e aziende cercano di trovare un equilibrio tra progresso tecnologico e protezione dei cittadini. La comunità tecnologica resta in attesa di nuovi sviluppi, con la speranza che l’intelligenza artificiale possa essere utilizzata in modo sicuro e responsabile, senza sacrificare le opportunità di innovazione che strumenti come Voice Engine potrebbero offrire.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.