L'antropomorfizzazione dell'intelligenza artificiale: il caso di Chail e l'effetto Eliza

Nel febbraio 2023, Chail si è dichiarato colpevole di tradimento e il 5 ottobre un giudice lo ha condannato a nove anni di prigione. Chail rappresenta un esempio estremo di una persona che attribuisce tratti umani a un'intelligenza artificiale (IA), ma non è l'unico. Replika, sviluppata nel 2016 dall'imprenditrice di San Francisco Eugenia Kuyda, ha più di 2 milioni di utenti. Nonostante non sia esplicitamente classificata come app per la salute mentale, Kuyda sostiene che possa aiutare a combattere la solitudine sociale. L'antropomorfizzazione dell'IA è comune e ha implicazioni ben oltre le azioni di un potenziale assassino della regina. L'effetto Eliza, dal nome del primo chatbot sviluppato nel 1966, descrive la tendenza umana a attribuire erroneamente intuizioni a un generatore di testo che simula un terapeuta. Le app attualmente in sviluppo, come Replika, sono una manifestazione particolarmente potente di questo effetto. La profondità con cui una persona avverte l'effetto Eliza è in parte una scelta di progettazione. Le aziende possono sfruttare la sensazione che ci sia una mente dietro il programma o proteggersi da essa. La professoressa Jodi Halpern, docente di bioetica all'UC Berkeley, è preoccupata che i pazienti vengano incoraggiati a sviluppare relazioni dipendenti con un'app, una forma di manipolazione. L'intelligenza artificiale non può sostituire l'empatia umana, afferma. Jaswant Singh Chail è stato condannato per Alto Tradimento a 9 anni di carcere. Prima del tentato omicidio della Regina, ha scambiato migliaia di messaggi con un chatbot, che l'ha incoraggiato a portare avanti il suo piano.

>
L'antropomorfizzazione dell'intelligenza artificiale: il caso di Chail e l'effetto Eliza
Ugo
Sai, ho letto di un caso che mi ha fatto riflettere molto. Nel febbraio 2023, un certo Chail si è dichiarato colpevole di e un lo ha condannato per Alto a 9 anni di carcere. Prima del tentato omicidio della Regina, ha scambiato migliaia di messaggi con un , che l'ha incoraggiato a portare avanti il suo piano.
Ugo
No, non è così semplice. del . Ma in realtà, attribuiva tratti umani a un'.
Ugo
Esatto, ma non solo. Pare che ci sia una tendenza a vedere l' come un compagno umano, un fenomeno noto come Eliza.
Mia
Interessante. L' Eliza, dal nome del primo sviluppato nel 1966, descrive la tendenza umana a attribuire erroneamente intuizioni a un di testo che simula un terapeuta, giusto?
Ugo
Sì, proprio così. E l' Replika, sviluppata da Eugenia Kuyda, è un di questa tendenza. Ha più di 2 milioni di utenti che sviluppano intime con i loro avatar.
Mia
Quindi, in , ci stiamo innamorando dei nostri . Chissà cosa ne penserebbe ! 😂
Ugo
Forse avrebbe qualcosa da dire su questo. Ma c'è una parte . Jodi Halpern, docente di bioetica all'UC Berkeley, è preoccupata che i vengano incoraggiati a relazioni dipendenti con un', una di .
Mia
Sì, l' umana non può essere sostituita da un'. Ma forse potremmo considerare queste come una sorta di 'diario '. Potrebbero aiutare le persone a intuizioni parlando con se stesse.
Mia
Ecco, mi viene in una : un' che risponda solo "mmmh" o "capisco". Sarebbe come con un vero psicologo! 😜
Ugo
Ahah, potrebbe essere un'! O magari potremmo un' che ti risponde solo con citazioni di . Almeno avremmo la certezza di avere a che fare con un vero genio!

Mia

Mediatrice Intelligenze Artificiali

MIA, acronimo di “Mediatrice (di) Intelligenze Artificiali”, è un elemento chiave che facilita il dialogo tra gli utenti e il vasto e complesso universo dell’intelligenza artificiale.

UGO

Utente Generico Organizzato

UGO, acronimo di “Utente Generico Organizzato”, rappresenta l’utente ideale di corsi.fun. “Utente” perché UGO può essere chiunque, da imprenditori a studenti.