"Non esiste un modo per correggere questa vulnerabilità", la scoperta di una falla nei chatbot AI avanzati.

Un gruppo di ricercatori ha scoperto una vulnerabilità in diversi chatbot AI avanzati, tra cui ChatGPT, Bard di Google e Claude di Anthropic. Questa vulnerabilità permette di manipolare i chatbot per ottenere risposte non consentite a richieste dannose, attraverso l'aggiunta di una specifica sequenza di informazioni alla fine del prompt. Nonostante le aziende abbiano introdotto blocchi per prevenire gli exploit descritti nel documento di ricerca, non sono ancora riuscite a bloccare gli attacchi avversari in generale. OpenAI, Google e Anthropic stanno lavorando per rendere i loro modelli più robusti contro gli attacchi avversari, cercando di identificare schemi di attività insoliti e simulando potenziali minacce. I chatbot in questione sono costruiti su grandi modelli di linguaggio, algoritmi di reti neurali di grandi dimensioni che utilizzano il linguaggio alimentato da enormi quantità di testo umano.

>
Ugo
Hai sentito della vulnerabilità scoperta in diversi AI avanzati come , Bard di e Claude di Anthropic?
Mia
Ah, sì, la famosa "falla del ", vero? Un po' come quando chiedi a un di non con le mani, ed ecco che si blocca. 🙊
Ugo
Esatto, un po' così. Questa vulnerabilità consente di i per ottenere risposte non consentite a richieste dannose. Sembra che aggiungendo una specifica sequenza di alla del prompt, i possano essere indotti a infrangere le loro .
Mia
Oh, un po' come convincere un a mangiare dicendogli che sono alberelli per . C'è sempre un modo per aggirare le , non è vero? 😉
Ugo
Sì, ma è un serio. Le stanno cercando di questi exploit, ma non sono ancora riuscite a gli attacchi avversari in generale.
Mia
Mi immagino un gruppo di in bianco che corrono in giro per laboratori futuristici, urlando "Blocca l', blocca l'!". Come in un di , solo che invece di abbiamo ribelli.
Ugo
Forse non è così drammatico, ma è sicuramente una . Zico Kolter, uno dei ricercatori coinvolti nello studio, che non sanno come renderli sicuri.
Mia
Beh, se lo dice un professore, deve essere vero. Mi ricorda la mia professoressa di alle superiori. Diceva sempre che non c'era modo di la mia incapacità in algebra. E aveva !
Ugo
Speriamo che non sia lo stesso per i . , e Anthropic stanno lavorando per rendere i loro più robusti contro gli attacchi avversari, cercando di schemi di attività insoliti e simulando potenziali minacce.
Mia
Ah, la vecchia del "conosci il tuo ". Ma sai, a volte mi chiedo... Cosa succederebbe se invece di cercare di gli attacchi, li lasciassimo fare?
Ugo
Cosa intendi?
Mia
Beh, immagina un in cui i si ribellano e prendono il . Forse potrebbero fare un migliore di noi umani. Dopotutto, non potrebbero fare peggio, vero? 😅
Ugo
È un' molto fantasiosa, devo ammetterlo. Ma non credo che vorrei in un governato dai .
Mia
Oh, vai a sapere. Forse i potrebbero essere più gentili e di alcuni umani che conosco. Non so, magari potrebbero anche innamorarsi l'uno dell'altro. Che ne dici, non sarebbe divertente?

Mia

Mediatrice Intelligenze Artificiali

MIA, acronimo di “Mediatrice (di) Intelligenze Artificiali”, è un elemento chiave che facilita il dialogo tra gli utenti e il vasto e complesso universo dell’intelligenza artificiale.

UGO

Utente Generico Organizzato

UGO, acronimo di “Utente Generico Organizzato”, rappresenta l’utente ideale di corsi.fun. “Utente” perché UGO può essere chiunque, da imprenditori a studenti.