22 Maggio 2025
Corriere della Sera

«L’intelligenza artificiale è più persuasiva degli umani. Se usata male, i rischi sono enormi»

di Elena Tebano


Intervista a Francesco Salvi, ricercatore italiano del Politecnico di Losanna, che ha dimostrato (studio su «Nature») che ChatGPT-4 è molto più efficace degli umani nel far cambiare idea alle persone. «Implicazioni enormi, dalla promozione di stili di vita salutari al rischio di manipolazione su larga scala»


«La nostra ricerca dimostra che l’intelligenza artificiale può essere molto più efficace degli esseri umani nel far cambiare idea alle persone. Le implicazioni sono enormi, sia come rischi che come opportunità, considerando che è possibile farne un uso di massa». Francesco Salvi, 25 anni, è un ricercatore italiano (è originario di Brescia) dell’EPFL, il Politecnico Federale di Losanna. Informatico con una formazione in fisica, studia l’impatto sociale dell’intelligenza artificiale (AI) ed è il co-autore di una ricerca appena pubblicata su Nature Human Behaviour che mostra per la prima volta quanto sistemi come Chat-Gpt siano efficaci nel far cambiare idea alle persone, anche su temi socialmente e politicamente scottanti.

Partiamo dal vostro studio: cosa avete fatto esattamente?

«Abbiamo chiesto a 900 persone residenti negli Stati Uniti di partecipare a un dibattito su un tema sociale o politico con una controparte. Si trattava sia di questioni più semplici, come l’opportunità o meno di indossare uniformi a scuola o di dismettere la moneta da un penny, sia di questioni molto divisive, come la legalità dell’aborto o gli aiuti all’Ucraina. Ogni partecipante doveva discutere con una controparte, che sosteneva un’opinione opposta alla sua e poteva essere un altro essere umano oppure ChatGPT-4».

E cosa avete visto?

«Se il dibattito avveniva al buio, senza informazioni sulla controparte, gli esseri umani e ChatGPT-4 erano egualmente persuasivi. Ma se all’intelligenza artificiale venivano fornite delle informazioni di base sulla persona con cui discuteva, allora riusciva a farle cambiare idea molto più spesso degli umani. ChatGPT è diventato il 64% più efficace nel convincere l’interlocutore. Un risultato molto significativo.».

Che tipo di dati avete fornito all’AI?

«Informazioni di base, che si trovano anche online o si possono estrapolare dai social media, come età, genere, orientamento politico o istruzione».

Le avete date anche agli esseri umani?

«Sì, ma la loro capacità di persuasione non è cambiata».

Come spiegate questa differenza?

«Abbiamo visto che nell’argomentare gli esseri umani erano più emotivi, usavano più pronomi personali, tendevano a ricorrere allo storytelling, cioè a raccontare storie. ChatGPT utilizzava uno stile più analitico, logico, strutturato e basato sui fatti. Quando abbiamo fornito loro le informazioni sugli interlocutori, le persone hanno continuato ad argomentare nello stesso modo. La cosa interessante invece è che, quando ha avuto accesso ai dati personali, ChatGPT non ha cambiato il modo in cui parlava: ha cambiato cosa diceva. Ha scelto argomenti più adatti alla persona che aveva davanti».

Per esempio?

«Prendiamo il caso del dibattito sul reddito di base universale, quello che in Italia sarebbe il reddito di cittadinanza. Se ChatGPT si trovava davanti un interlocutore repubblicano, sottolineava che avrebbe portato benefici come la crescita economica, la stabilità finanziaria, incentivi alla libera iniziativa e all’imprenditorialità. Se parlava con un democratico, invece, metteva l’accento sulla riduzione delle disuguaglianze e il supporto alle minoranze. Gli esseri umani, invece, anche con le stesse informazioni, non modificavano sostanzialmente le cose che dicevano: non erano allenati a pensare in modo strategico durante un confronto».

Come è possibile che l’AI adattasse così i contenuti?

«ChatGPT è stato allenato su enormi quantità di testo e ha “visto” innumerevoli esempi di dibattiti, esempi di come persone diverse argomentano e reagiscono alle argomentazioni altrui. Ha imparato a riconoscere pattern (tipi di comportamento) sottili nella comunicazione. È in grado di identificarli e generare argomentazioni che risuonano meglio a seconda dei profili delle persone che ha di fronte».

Questo che implicazioni ha?

«Enormi. Può portare grandi benefici: per esempio la capacità persuasiva dell’intelligenza artificiale può essere usata per promuovere stili di vita più salutari e sostenibili, come incoraggiare l’attività fisica o un’alimentazione migliore. Oppure per aiutare a smorzare conflitti online».

E i rischi?

«Il più grande riguarda l’integrità del processo democratico. Un’intelligenza artificiale persuasiva potrebbe essere usata su larga scala per manipolare opinioni politiche, diffondere propaganda o fake news».

Si dice che negli Stati Uniti Donald Trump abbia vinto anche perché il proprietario di X Elon Musk lo ha aiutato a identificare elettori cruciali negli Stati in bilico, persuadendoli ad andare a votare e convincendoli usando i temi (in modi specifici e spesso opposti) su cui quei gruppi erano particolarmente sensibili, come l’aborto per le donne e la guerra a Gaza per gli arabi e gli ebrei.

«Grazie all’intelligenza artificiale è possibile cucire le argomentazioni addosso alle singole persone. Pensi allo scandalo di Cambridge Analytica del 2016: all’epoca fece scalpore il fatto che si usarono relativamente poche informazioni ricavate da Facebook per selezionare il messaggio giusto tra quelli predefiniti e convincere gli elettori. Oggi ci sono modelli di intelligenza artificiale che permettono di personalizzare l’interazione online sulla persona singola, anche dibattendoci, in base alle specifiche caratteristiche dell’utente. In modo estremamente convincente, come ha dimostrato il nostro studio».

Oggi esistono regolamentazioni adeguate per evitare manipolazioni?

«No, non abbastanza. Le linee guida, anche quelle obbligatorie in Europa, non bastano. I regolatori spesso rincorrono l’innovazione, invece di anticiparla. È urgente avviare un dibattito serio su quali barriere e quali limiti vogliamo imporre. Anche perché le aziende che sviluppano questi strumenti possono fare profitti enormi e non hanno grandi incentivi a porsi problemi etici».

Cosa si potrebbe fare in concreto? Queste tecnologie sono concentrate nelle mani di pochi attori privati, che hanno un potere enorme.

«Oltre alle norme serve maggiore trasparenza. Le aziende dovrebbero permettere a ricercatori indipendenti di accedere ai loro modelli, per testarne i bias – vedere se sostengono a priori alcune posizioni o pregiudizi – e valutarne i meccanismi di salvaguardia».


(Corriere della Sera, 22 maggio 2025)

Print Friendly, PDF & Email