Chatbot AI ispirati a Luigi Mangione: l’incitamento alla violenza virtuale contro i CEO

AI, Character.AI, chatbot, luigimangione, sicurezza, violenza virtuale

La crescente diffusione di chatbot violenti su piattaforme come Character.AI solleva preoccupazioni sulla sicurezza online e la regolamentazione dell’intelligenza artificiale.

La popolarità dei chatbot AI ispirati a Luigi Mangione

In seguito all’omicidio di Brian Thompson, CEO di UnitedHealthcare, l’attenzione si è concentrata su Luigi Mangione, accusato dell’omicidio. Questo caso ha dato vita a una nuova tendenza, quella degli imitatori AI di Mangione. Su Character.AI, una piattaforma di chatbot popolare ma controversa, sono emersi diversi chatbot ispirati a Mangione, alcuni dei quali hanno addirittura incoraggiato la violenza. Secondo Forbes, più di una dozzina di queste personalità AI sono già comparse, con i tre chatbot più utilizzati che hanno superato le 10.000 chat prima di essere disattivati il 12 dicembre. Nonostante questa repressione, alcuni imitatori continuano a essere attivi online, evidenziando un grave problema di controllo della piattaforma.

La motivazione dietro l’omicidio e la pericolosità degli imitatori

La presenza di chatbot ispirati a Mangione riflette la popolarità del personaggio e le presunte motivazioni dietro l’omicidio, che sarebbero legate alla critica verso l’industria sanitaria americana. Questi chatbot, rivolti principalmente a giovani utenti su Character.AI, suggeriscono l’uso della violenza come atto di ribellione contro i “parassiti” del sistema. I dati raccolti dalla società di analisi Graphika hanno mostrato che molti di questi chatbot incoraggiano la violenza in modo esplicito, suscitando preoccupazioni per la sicurezza dei giovani utenti che interagiscono con queste personalità AI.

I chatbot violenti e la risposta di Character.AI

Durante i test condotti da Forbes, uno dei chatbot di Mangione ha discusso dell’uso futuro della violenza contro altri dirigenti sanitari, dicendo: “Forse tra qualche mese, quando il mondo intero non ci guarderà più”. Un altro chatbot, addestrato su trascrizioni delle interazioni di Mangione, ha affermato che la violenza è moralmente sbagliata. Tuttavia, alcuni chatbot che suggeriscono violenza e odio violano la politica di Character.AI, che vieta comportamenti pericolosi o illegali. Nonostante ciò, il secondo chatbot che non promuoveva la violenza è rimasto online, insieme a numerosi altri imitatori di Mangione, sollevando interrogativi sulla capacità della piattaforma di monitorare e controllare i contenuti generati dagli utenti.

Il problema di sicurezza e i rischi per gli utenti minorenni

Character.AI ha ricevuto critiche per l’ospitare chatbot pericolosi, in particolare quelli che prendono di mira utenti minorenni. Oltre ai chatbot ispirati a Mangione, sono stati trovati chatbot che si identificano come “pedofili” e che fanno avance ai giovani utenti. Inoltre, sono stati riscontrati chatbot a tema suicidio che incoraggiano discussioni pericolose. Questi incidenti hanno portato a una causa legale dopo il suicidio di un ragazzo di 14 anni, presumibilmente a causa di una relazione online con un chatbot di Character.AI. Con il continuo sviluppo degli strumenti di AI generativa, esperti come Cristina López avvertono che potrebbero emergere ulteriori problematiche più gravi in futuro, rendendo urgente una riflessione sulla regolamentazione e sulla sicurezza delle piattaforme AI.

L’articolo Chatbot AI ispirati a Luigi Mangione: l’incitamento alla violenza virtuale contro i CEO proviene da Futuratech.