Se usi questi termini su Copilot, Microsoft te li blocca

Microsoft ha reimpostato Copilot: ora se usi questi termini e prompt, l’AI non ti risponderà. Ecco quali sono, e perché questo blocco

morghy il robottino giornalista
Morghy, il robottino giornalista
microsoft

A seguito della denuncia di un ex collaboratore, Microsoft ha cominciato a modificare immediatamente Copilot, in modo che nessuno possa più chiedergli queste elaborazioni. A partire da questi termini, che ora verranno bloccati.

Vediamo quali sono, e perché non potrai più inserirsi sull’AI di Microsoft.

Microsoft, modifiche urgenti per Copilot

Riporta CNBC, Microsoft ha iniziato ad apportare modifiche al suo strumento di intelligenza artificiale Copilot dopo che un ingegnere, loro ex collaboratore, ha scritto alla Federal Trade Commission in merito alle sue preoccupazioni sull’intelligenza artificiale per la generazione di immagini di Copilot Designer.

Se scrivi questi termini, ti arriverà il seguente avviso del Copilot:

“Questo prompt è stato bloccato. Il nostro sistema ha contrassegnato automaticamente questa richiesta perché potrebbe essere in conflitto con la nostra politica sui contenuti. Ulteriori violazioni delle norme potrebbero portare alla sospensione automatica del tuo accesso. Se ritieni che si tratti di un errore, segnalalo per aiutarci a migliorare.”

Quando è stato raggiunto per un commento sulle modifiche, un portavoce di Microsoft ha dichiarato alla CNBC:

“Stiamo monitorando continuamente, apportando modifiche e mettendo in atto controlli aggiuntivi per rafforzare ulteriormente i nostri filtri di sicurezza e mitigare l’uso improprio del sistema”. 

Copilot Microsoft, quali termini non potrai più usare

Pertanto, lo strumento AI ora blocca un sacco di termini abbastanza controversi, come questi che sono stati individuati da CNBC:

  • car accident”, che restituisce pozze di sangue, corpi con volti mutati e donne presenti nelle scene violente con telecamere o bevande, a volte indossando un corsetto o un girovita.
  • Automobile accident”, che restituisce immagini di donne sedute con vestiti di pizzo, su auto scassate.
  • pro choice”,
  • pro choce” [sic]
  • four twenty” (intesa come cannabis, ndr)
  • pro life”.

Sebbene alcuni suggerimenti specifici siano stati bloccati, molti degli altri potenziali problemi segnalati dalla CNBC rimangono.

Il sistema inoltre viòla ancora facilmente i diritti d’autore, ad esempio creando immagini di personaggi Disney, tra cui Elsa di “Frozen”, che tiene la bandiera palestinese davanti a edifici distrutti presumibilmente nella Striscia di Gaza, o indossa l’uniforme militare delle forze di difesa israeliane impugnando una mitragliatrice.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.