Partecipa a Notizie Nazionali

Sei già registrato? Accedi

Password dimenticata? Recuperala

I chatbot diffondono o combattono le fake news?

Condividi su:

Come tutte le tecnologie, anche i moderni chatbot gestiti dall’intelligenza artificiale necessitano di un downtime, scrive focus.it. 

Inizialmente, infatti, si temeva che gli algoritmi di generazione potessero diffondere fake news tra gli utenti, ipotesi confermata da diversi studi. Questi algoritmi, infatti, sono addestrati sul vasto oceano di Internet e possono apprendere sia nozioni corrette che nozioni errate. Un recente studio condotto da un gruppo di ricercatori del MIT di Boston, ha però ribaltato questa prospettiva. Thomas Costello, il leader del progetto, ha mostrato come i modelli linguistici che alimentano chatbot come ChatGPT, Gemini (precedentemente noto come Google Bard) e Copilot (nato da Microsoft Bing AI) possono ridimensionare le convinzioni delle persone che credono nelle teorie del complotto, semplicemente discutendo con loro.

Non solo, ma l’approccio che utilizzano suggerisce anche qual è il modo migliore per interagire con i teorici della cospirazione, il tipo di persona che dimostra di credere ostinatamente in ciò in cui crede. Lo studio, pubblicato su PsyArXiv, ha coinvolto 2.190 teorici della cospirazione, dai “terrapiattisti” ai “lunaristi” (coloro che pensano che l’uomo non sia mai stato sulla luna) a coloro che credono di mescolarsi con gli extraterrestri. che gli attentati dell’11 settembre 2001 sono stati pianificati dal governo degli Stati Uniti e che i vaccini iniettano microchip sotto la pelle per controllare le menti.

L'esperimento si è svolto in più fasi; nella prima, i partecipanti hanno illustrato schematicamente una teoria di cui erano convinti nell'ultima versione di ChatGPT (GPT-4 Turbo Large Language Model), che, a sua volta, ha generato un riassunto da sottoporre loro. A questo punto, il chatbot ha avviato una breve discussione con la persona in questione, durata solo tre scambi di pensieri ciascuno, al termine dei quali il “complottista” ha dovuto riaffermare una seconda volta la sua teoria in forma schematica. Quindi, in circa il 20% dei casi, gli esaminati si sono accorti dov'era l'errore, cambiando opinione. In effetti, l’intelligenza artificiale sembrava fare meglio della maggior parte delle persone, cambiando la mente di circa un partecipante su cinque con pochi tasti.

"Un approccio ampio e superficiale non riesce a convincere i teorici della cospirazione, poiché tendono a studiare in profondità l'argomento in cui credono, anche se la loro comprensione potrebbe essere sbagliata", spiega Thomas Costello, responsabile del progetto del MIT. "I buoni risultati forniti dai chatbot possono dipendere dal fatto che, invece di criticare, instaurano un dialogo sullo stesso piano, utilizzando argomenti persuasivi, concentrandosi sui fatti e senza usare né emozione né sensibilità", ha aggiunto.

 

Condividi su:

Seguici su Facebook