Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Con l’IA anche il correttore automatico può influenzare il nostro giudizio

Con l’IA anche il correttore automatico può influenzare il nostro giudizio

Uno studio rivela come gli assistenti alla scrittura dotati di intelligenza artificiale possano influenzare i ragionamenti degli utenti senza che questi se ne accorgano

17 maggio 2023, 15:58

Redazione ANSA

ANSACheck

Con l’IA anche il correttore automatico può influenzare il nostro giudizio - RIPRODUZIONE RISERVATA

Con l’IA anche il correttore automatico può influenzare il nostro giudizio - RIPRODUZIONE RISERVATA
Con l’IA anche il correttore automatico può influenzare il nostro giudizio - RIPRODUZIONE RISERVATA

di Alessio Jacona*

L’intelligenza artificiale deve essere maneggiata con cura: è questo, riassumendo, il monito che emerge da uno studio presentato lo scorso aprile, nel quale si dimostra che l’IA generativa è potenzialmente in grado di influenzare il giudizio di chi la usa e imporre un particolare punto di vista, a seconda del pregiudizio dell'algoritmo.

 

La ricerca è intitolata significativamente "Co-Writing with Opinionated Language Models Affects Users' Views", ed è stata presentata alla CHI Conference on Human Factors in Computing Systems di New Orleans. Rilanciata da The Wall Street Journal, studia gli assistenti alla scrittura dotati di intelligenza artificiale che completano automaticamente le frasi o scrivono risposte intelligenti al posto nostro, rivelando come questi sistemi, mentre suggeriscono parole, possano pilotare i ragionamenti degli utenti, oltre che instillare idee nella loro testa. Idee che possono influenzare il loro giudizio e le loro azioni.

 

Una notizia che fa riflettere, specie considerando la direzione che negli ultimi mesi,ha preso la competizione tra i giganti del tech: integrare l’intelligenza artificiale in ogni possibile strumento di lavoro o creativo. Tutto è iniziato quando Microsoft ha acquisito OpenaAI, l’azienda creatrice di chatGPT, e soprattutto dei Large Language Model GPT nelle loro varie versioni (l’ultima è GPT-4). Ora quella stessa tecnologia fluisce in Copilot, la soluzione con cui il gigante di Redmond integrerà una funzione di assistente IA in tutte le applicazioni e i servizi Microsoft 365; Poi è arrivata Google, che con il suo nuovo Large Language Model  PaLM 2, appena presentato, potenzierà praticamente tutto: dal motore di ricerca a Gmail,  da Google a Google Foto e persino Android 14, di fatto arrivando nelle tasche di miliardi di utenti.

L’esperimento

Lo studio è stato presentato da Maurice Jakesch, dottorando nel campo della scienza dell'informazione presso la Cornell University di New York. In esso viene chiesto a 1.506 partecipanti di scrivere un paragrafo rispondendo alla domanda "I social media sono un bene per la società?". Per rispondere, le persone hanno utilizzato un assistente di scrittura IA basato su un modello linguistico di grandi dimensioni che Jakesch e il suo team di colleghi potevano “pilotare”, attivando opinioni positive o negative sui social media a seconda della necessità.

 

Il contesto dove è avvenuta la scrittura era una piattaforma che imita un sito web di social media: in essa gli utenti hanno scritto mentre ad esempio veniva registrato quali suggerimenti dell'intelligenza artificiale venivano accettati e quali no, oppure quanto tempo veniva impiegato per comporre il paragrafo. Alla fine, chi ha lavorato con l'assistente IA con pregiudizio a favore dei social media, ha scritto un maggior numero di frasi per sostenere la bontà dei SM rispetto al gruppo di controllo che ha lavorato senza assistente. Stesso risultato, ma di segno opposto, per il gruppo che assistito da un’IA con bias negativo verso i SM. Alla fine dell’esperimento, i partecipanti che hanno usato l’IA hanno poi ribadito in un sondaggio l'opinione del loro assistente, a conferma che le idee instillate dall’interazione essere umano - macchina hanno perdurato anche subito dopo la fase di scrittura.

 

Nel recente passato erano già usciti alcuni studi su come i modelli linguistici di grandi dimensioni (LLM) come ChatGPT possono creare annunci pubblicitari e messaggi politici persuasivi, ma questo è la prima volta che si dimostra come il processo stesso di co-scrittura con uno strumento alimentato dall'intelligenza artificiale inquinata da bias possa influenzare le opinioni di una persona.

 

I rischi

All’atto pratico, lo studio sembra suggerire che i pregiudizi insiti negli strumenti di scrittura dell'intelligenza artificiale potrebbero avere ripercussioni rilevanti sulla visione del mondo di chi li utilizza e, di conseguenza, sulla cultura, sulla politica o ancora sull’economia. Allo stesso modo, è anche interessante notare che tali pregiudizi potrebbero essere sia 

involontari, cioè frutto del training dell’IA su dati inquinati da bias, sia intenzionali, cioè sviluppati ad hoc da chi gestisce l’IA per manipolare l’opinione degli utenti, ad esempio per realizzare scopi illeciti. Se a questo si aggiunge che, sempre secondo lo studio, la maggior parte dei partecipanti all’esperimento non si è nemmeno accorta che l'intelligenza artificiale fosse manipolata, né si è resa conto di esserlo, il quadro si fa inquietante.

 

Specie considerando la velocità incontrollata con cui queste tecnologie si stanno diffondendo: «Ci stiamo affrettando a implementare questi modelli di IA in tutti gli ambiti della vita, ma dobbiamo comprenderne meglio le implicazioni", ammonisce infatti il co-autore dello  Mor Naaman, professore presso il Jacobs Technion-Cornell Institute della Cornell Tech e di scienze dell'informazione presso il Cornell Ann S. Bowers College of Computing and Information Science. «Il processo di co-scrittura non mi dà la sensazione di essere persuaso - rivela - È come se stessi facendo qualcosa di molto naturale e organico: sto esprimendo i miei pensieri con un aiuto".

 

Tecnologie da governare. Insieme.

Lo ricerca di Jakesch e Naaman evidenzia ancora una volta la necessità di imparare a governare tecnologie potenti come le IA prima che queste prendano piede, altrimenti si corre il rischio di subirle invece che utilizzarle. Serve insomma una maggiore e più inclusiva discussione pubblica su come esse debbano essere utilizzate, monitorate e regolamentate per evitare usi impropri. «Più queste tecnologie diventano potenti, più profondamente si inseriscono nel tessuto sociale delle nostre società - conclude infatti Jakesch - tanto più dovremmo essere attenti a come governare i valori, le priorità e le opinioni in esse incorporate».

 

Al lavoro, che è stato finanziato dalla National Science Foundation, dalla German National Academic Foundation e dal ministero bavarese della Scienza e delle Arti, hanno contribuito anche Advait Bhat di Microsoft Research, Daniel Buschek dell'Università di Bayreuth e Lior Zalmanson dell'Università di Tel Aviv.

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

 

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza