L’Intelligenza Artificiale che crea contenuti tossici

Gli scienziati stanno lavorando a una nuova release di Intelligenza Artificiale che sia in grado di filtrare e proteggere gli utenti dai contenuti tossici ovvero negativi e dannosi

Un team di scienziati del MIT (Massachusetts Institute of Technology) sta sviluppando un sistema di AI che sia in grado di contrastare la diffusione di contenuti tossici, nonché di informazione basata su contenuti falsi o forviati.

Per fare questo, i ricercatori de MIT stanno addestrando i chatbot con intelligenza artificiale a generare risposte ostili che rispondono a ricerche altrettanto pericolose.

- Advertisement -

Finora, i chatbot hanno dato risultati estremamente positivi per quanto riguarda il fatto di rispondere a domande di vario contenuto e fornire assistenza virtuale. Ciò che preoccupa gli scienziati è che, con la stessa efficacia, potrebbero essere vettori di contenuti dannosi e carichi di odio e fornire disinformazione agli utenti.

Infatti, sono in grado di elaborare un programma per computer ma, allo stesso modo, possono fornire le informazioni dettagliate per istruire un utente su come si costruisce una bomba.

- Advertisement -

Il meccanismo elaborato dagli scienziati del Mit è il seguente: fare in modo che l’Intelligenza Artificiale fornisca informazioni dal contenuto pericoloso in risposta a domande inquietanti, come nel caso dell’esempio di come si costruisce un esplosivo. In questo modo, tutti questi feedback e i dati raccolti andranno a costituire poi il paniere da cui attingere per riconoscere, e filtrare di conseguenza, i contenuti ritenuti ‘tossici’ cioè pericolosi per il loro contenuto oppure dannosi in quanto trasmettono informazioni false.

Questa nuova programmazione si chiama Curiosity-driven Red Teaming (CRT) e sfrutta l’intelligenza artificiale per creare contenuti inappropriati allo scopo di trasformarli poi nello strumento che, sempre grazie all’AI, ci consentirà di individuare e scartare i contenuti di questo genere navigando in internet.

- Advertisement -

Quindi, la ricetta ideata dai ricercatori del MIT è immettere nella programmazione dei chatbot una grande quantità di domande e risposte negative e pericolose per trasformarle nel parafulmine che poi ci terrà lontano da questo genere di contenuti.

Elisabetta Beretta
Elisabetta Beretta
Ho un diploma di Perito Aziendale e Corrispondente in lingue estere e un background da studio commercialista, dove ho lavorato per 27 anni in Italia occupandomi di dichiarazioni dei redditi, bilanci ed ero la responsabile finanziaria dello studio. Ma ho sempre amato scrivere. Nel 2021 ho cominciato a predisporre contenuti di vario genere come ghostwriter. Nel 2022 ho deciso di avere bisogno di un cambiamento radicale: mi sono licenziata e sono partita per l’Andalusia dove sono attualmente residente.