Google ha rilasciato una serie di linee guida per creare "un'IA responsabile"

Ci sono così tante app di intelligenza artificiale che rendono la nostra vita quotidiana molto più semplice e produttiva. Al ritmo dell'innovazione, tutto può essere fatto con un unico comando.

L'intelligenza artificiale è più accessibile a un numero crescente di persone in tutto il mondo, ma poiché questa tecnologia crea nuove possibilità di miglioramento e aiuto quotidiano, i suoi progressi sollevano anche domande su come funziona, ad esempio quali problemi può causare se non sviluppata in modo responsabile.

Come suggerisce il nome, è un'intelligenza creata dall'uomo, ma portata avanti dalle macchine e che ha, in una certa misura, le stesse capacità dell'uomo: apprende, migliora ed è in grado di funzionare in determinati ambiti.

Quando parliamo di intelligenza artificiale, due grandi scuole di pensiero si scontrano: chi pensa che sia uno strumento, non più, e chi crede che sia solo questione di tempo prima che diventi una minaccia per il genere umano.

Man mano che le nostre capacità e possibilità di IA si espandono, tVedremo anche che verrà utilizzato per scopi pericolosi o dannosi. Ecco perché coloro che vedono questa tecnologia come una minaccia la vedono con sospetto e timore per l'impatto che può avere sulle loro vite. Alcuni personaggi famosi come Elon Musk sono tra loro.

Il capo di Tesla e SpaceX ha già avvertito più di una volta: l'IA supererà le prestazioni capacità cognitive umane. Musk ritiene che questa tecnologia minaccerà gli esseri umani in futuro, soprattutto sul posto di lavoro.

Questo è anche il motivo per cui la sua azienda Neuralink sta lavorando su interfacce cervello-macchina che verranno inserite nel cranio per preparare l'umanità a un futuro "fatale" in cui i robot lo governeranno. La verità è che ci sono anche alcuni film di fantascienza che hanno spaventato le persone, con futuri distopici in cui l'IA riesce a controllare gli umani.

I ricercatori affermano che è improbabile che un'IA mostri le emozioni umane come l'amore o l'odio e che non c'è motivo di aspettarsi che l'IA diventi intenzionalmente gentile o cattiva.

In questo senso, Google si è preoccupata del pericolo che l'IA può rappresentare quando non sviluppi con cura e il modo in cui interagisci con le persone. L'intelligenza artificiale deve imparare come un essere umano, ma rimanere efficiente e non diventare una macchina pericolosa. Google è stato un attore importante nello sviluppo dell'IA.

Con il suo programma di ricerca del Pentagono, "Project Maven", la società ha "addestrato" l'IA a classificare gli oggetti nelle immagini dei droni. In altre parole, ha insegnato ai droni a capire cosa stanno guardando.

Google Now afferma che l'intelligenza artificiale deve convivere con i pregiudizi e l'azienda vuole fare qualcosa al riguardo. Per fare questo, Google ha messo in atto appositi programmi in tema di "IA responsabile".

Due dei fondamentali dell'IA di Google sono "essere responsabili nei confronti delle persone" e "evitare di creare o rafforzare pregiudizi ingiusti". Ciò include lo sviluppo di sistemi di intelligenza artificiale interpretabili che mettono le persone in prima linea in ogni fase del processo di sviluppo, garantendo al contempo che i pregiudizi ingiusti che un essere umano possa avere non si riflettano nei risultati di un modello.

Secondo questa linea guida, Google si impegna a sviluppare l'intelligenza artificiale in modo responsabile e stabilisce una serie di aree di applicazione specifiche che non perseguirà, come non implementare l'intelligenza artificiale in tecnologie che possono causare danni o lesioni alle persone.

Google si adopererà per garantire che le informazioni disponibili tramite i modelli di IA essere accurati e di alta qualità. Inoltre, la tecnologia "deve essere responsabile nei confronti delle persone, soggetta alla direzione e al controllo umano".

Gli algoritmi di intelligenza artificiale e i set di dati possono riflettere, rafforzare e ridurre i pregiudizi ingiusti. In questo senso, Google si adopererà per evitare impatti sleali sulle persone, in particolare quelli relativi a caratteristiche sensibili come razza, etnia, sesso, reddito, nazionalità o convinzioni politiche o religiose, tra gli altri.

fonte: https://ai.google


Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile dei dati: Miguel Ángel Gatón
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.