Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

IA, la scienza mette alla prova ChatGPT. Servono regole

IA, la scienza mette alla prova ChatGPT. Servono regole

Nature, sviluppo inarrestabile. 5 passi per usarla al meglio

08 aprile 2023, 16:46

(di Enrica Battifoglia)

ANSACheck

IA, la scienza mette alla prova ChatGPT. Servono regole (free via pixabay) - RIPRODUZIONE RISERVATA

IA, la scienza mette alla prova ChatGPT. Servono regole (free via pixabay) - RIPRODUZIONE RISERVATA
IA, la scienza mette alla prova ChatGPT. Servono regole (free via pixabay) - RIPRODUZIONE RISERVATA

Sta imparando a poco a poco e, crescendo, potrebbe essere in grado di progettare esperimenti, analizzare dati e decidere se un articolo scientifico può essere pubblicato o meno: ChatGPT, l’applicazione dell’Intelligenza artificiale (IA) capace di conversare con gli esseri umani, sta imparando molto anche dagli scienziati, ma sbaglia facilmente. Lo indica l'analisi condotta dalla rivista Nature e pubblicata sul suo sito, dalla quale emerge inoltre che è proprio questo il momento giusto per trovare le regole per utilizzarne al meglio le potenzialità, evitando che gli errori possano scardinare i principi che da sempre guidano la ricerca scientifica. 

Rilasciato alla fine del 2022 dall’azienda californiana OpenAI e liberamente accessibile, ChatGPT è diventato rapidamente popolare anche fra i ricercatori e il suo sviluppo, scrive Nature, è già chiaramente inarrestabile. “Pensiamo che l’uso di questa tecnologia sia inevitabile e che vietarla non servirebbe. Perciò è imperativo che la comunità scientifica avvi un dibattito sulle implicazioni".

Alcuni scienziati stanno utilizzando ChatGPT per scrivere saggi e discorsi, nel sintetizzare gli articoli che leggono, prendere appunti sui loro esperimenti o per scrivere programmi informatici. Questo significa che programmi come questi, chiamati chatbot, ogni giorno vengono alimentati con dati e informazioni che permettono loro di imparare e di evolversi. Vale a dire, rileva Nature, che “presto questa tecnologia si evolverà al punto da poter progettare esperimenti, scrivere e completare manoscritti, condurre peer review e supportare decisioni editoriali per accettare o rifiutare manoscritti”. Dietro l’angolo potrebbero esserci una vera rivoluzione per la ricerca eun'accelerazione dell’innovazione, ma anche errori che potrebbero "degradare la qualità e la trasparenza della ricerca e alterare radicalmente la nostra autonomia come ricercatori umani”. Potrebbero, per esmepio, generare testi apparentemente convincenti ma sbagliati nei contenuti, fino a distorcere fatti scientifici e a diffondere disinformazione. 

Per questo motivo è meglio intervenire subito stabilendo delle regole, e sono almeno cinque quelle da cui, secondo la rivista, bisogna cominciare. 

La prima prevede che qualsiasi risultato prodotto da una chatbot sia sottoposto a una verifica umana, soprattutto alla luce del grande sviluppo che questi programmi potranno avere a mano a mano che si evolveranno, fino a produrre una nuova generazione di motori di ricerca capaci di dare risposte sempre più dettagliate, ma non per questo valide. La seconda regola prevede che questi programmi siano utilizzati in modo responsabile e trasparente, per esempio indicando ogni volta quale chatbot sia stata utilizzata per produrre un risultato, un documento o un’invenzione degna di brevetto. In terzo luogo, la trasparenza è d’obbligo anche nella proprietà delle chatbot e, secondo Nature, si dovrebbero intensificare gli sforzi perché siano per la maggioranza liberamente accessibili.  La quarta regole prevede che si utilizzino al meglio tutti i vantaggi che l’IA potrà offrire e, infine, bisognerà estendere il più possibile il dibattito su questo tema perché aumenti la consapevolezza nella società.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza