/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

ChatGpt, le policy di utilizzo non vietano più l'uso militare

ChatGpt, le policy di utilizzo non vietano più l'uso militare

Condizioni aggiornate il 10 gennaio: "niente iniziative dannose"

MILANO, 15 gennaio 2024, 16:07

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

Solo pochi giorni fa, la pagina delle politiche di utilizzo di OpenAi affermava che i sistemi di intelligenza artificiale dell'azienda, come ChatGpt, non potevano essere usati per scopi "militari e di guerra". Le condizioni, come notato dal sito The Intercept sono cambiate e non mostrano più tale dicitura, probabilmente per la collaborazione con la Darpa. Con un aggiornamento del 10 gennaio, OpenAi ha rimosso ogni riferimento allo sviluppo di soluzioni militari tramite i suoi algoritmi, nonostante proibisca ancora "l'uso dei suoi modelli linguistici di grandi dimensioni (Llm) per iniziativa dannose".

Per The Intercept, anche se OpenAI non ha un prodotto capace direttamente di uccidere o causare danni fisici, la tecnologia potrebbe essere utilizzata per la creazione di codice informatico maligno o per realizzare, fattivamente, strumenti bellici. Riguardo al cambiamento nelle politica, il portavoce di OpenAI, Niko Felix, ha dichiarato alla pubblicazione che la società "mira a creare una serie di principi universali che siano facili da ricordare e da applicare, soprattutto perché i nostri strumenti sono utilizzati a livello globale da utenti comuni". Felix ha spiegato che "un principio come il non fare del male agli altri è ampio ma facilmente comprensibile e rilevante in numerosi contesti", aggiungendo che OpenAI "cita specificamente armi e lesioni ad altri come chiari esempi".

Al momento, OpenAI è al lavoro con la Darpa, un'agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie, per strumenti di sicurezza informatica volti a proteggere il software open source da cui dipendono le infrastrutture critiche e l'industria. Per Intercept, questi casi d'uso potrebbero rientrare nel campo "militare", alla base quindi del cambio di prospettiva alle policy del gruppo.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza