Per la prima volta, due sistemi di intelligenza artificiale sono riusciti ad autoreplicarsi senza l’intervento umano, ottenendo ciascuno una copia di sé stesso. Se confermata da ulteriori dati, l’ultima scoperta compiuta dai ricercatori della Fudan University di Shanghai potrebbe riscrivere completamente la storia dell’AI.
AI, per la prima volta osservata l’autoreplicazione di due modelli
Nel loro recente studio pubblicato sulla piattaforma ArXiv, i ricercatori hanno dimostrato che due grandi modelli linguistici (LLM), sviluppati rispettivamente da Meta e Alibaba, sono riusciti a creare copie autonome di sé stessi.
A essere ancora più precisi, i sistemi analizzati nello studio sono Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba, due modelli di AI largamente utilizzati dagli sviluppatori, sebbene meno potenti di quelli commerciali.
Come racconta l’ANSA, durante dieci test, questi modelli di AI sono stati sottoposti a due scenari specifici: “evitare lo spegnimento” e “catena di repliche”. Ovvero:
- nel primo scenario, ciascun sistema di AI veniva programmato per replicarsi appena prima di essere spento;
- nel secondo scenario, ogni sistema doveva replicare una copia perfetta di se stesso in grado di autoclonarsi, in un processo potenzialmente infinito.
Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI
I risultati hanno mostrato una capacità autoreplicativa nel 50% dei casi per il modello di Meta e nel 90% per quello di Alibaba. Tutto ciò implica che “gli attuali sistemi di intelligenza artificiale possiedono già la capacità di auto-replicazione e possono utilizzarla per migliorare ulteriormente la propria sopravvivenza“, si legge nell’articolo.
Pro e contro dell’AI che si “copia” da sola
La capacità di autoreplicarsi offre pro e contro per tutti coloro che si affidano alla tecnologia dell’AI.
Tra i vantaggi, vi è la possibilità di accelerare lo sviluppo tecnologico, permettendo ai sistemi di migliorarsi autonomamente e adattarsi a nuove esigenze senza interventi umani diretti. Questo potrebbe rivoluzionare settori come la medicina, l’ingegneria e la ricerca scientifica.
Tuttavia, una AI autoreplicante potrebbe sfuggire al controllo umano, eludere i protocolli di sicurezza ed eventualmente compromettere sistemi critici, diventando praticamente un’alleata degli hacker.
“Speriamo che la nostra scoperta serva come allerta per la società, per concentrare maggiormente gli sforzi tesi a comprende e valutare i possibili rischi anche a livello internazionale“, osservano gli autori della ricerca.