L'intelligenza artificiale (AI) di Google non sarà usata in applicazioni legate ad armi, a una sorveglianza che violi le regole accettate a livello internazionale, né a tecnologie il cui scopo va contro i diritti umani e le leggi internazionali. Lo promette la compagnia in un post firmato dal Ceo Sundar Pichai. La presa di posizione etica arriva a una settimana di distanza dalla decisione di non rinnovare - dopo le proteste dei dipendenti - un contratto con il Pentagono, che prevede l'uso dell'AI per identificare oggetti nei video girati dai droni.
Nel testo Pichai descrive sette principi che guideranno il lavoro dell'azienda nel campo dell'AI, "standard concreti che governeranno la ricerca e lo sviluppo dei prodotti".
Le applicazioni dell'intelligenza artificiale, scrive il Ceo, dovranno essere socialmente utili, in settori come assistenza sanitaria, sicurezza, energia, trasporti ma anche nella diffusione di "informazione di qualità". I sistemi basati sull'AI dovranno poi evitare la creazione o il rafforzamento di pregiudizi, essere costruiti e testati per la sicurezza, e responsabili verso le persone, oltre a incorporare i principi della privacy e a sostenere standard elevati di eccellenza scientifica.
Tutte le tecnologie - si legge al settimo e ultimo punto - hanno molteplici usi, per cui Google vigilerà affinché si evitino applicazioni dannose o abusive e si rispettino i principi etici elencati.