Google va donar a conèixer una sèrie de pautes per a crear una «IA responsable»

Hi ha tantes aplicacions d?intel·ligència artificial que fan que la nostra vida diària sigui molt més fàcil i productiva. Al ritme de la innovació, tot es pot fer amb una sola ordre.

La IA és més accessible per a un nombre creixent de persones a tot el món, però a mesura que aquesta tecnologia crea noves possibilitats de millora i ajuda diària, els seus avenços també plantegen preguntes sobre com funciona, per exemple, quins problemes pot causar si no es desenvolupa de manera responsable.

Com suggereix el nom, és una intel·ligència creada per l'home, però realitzada per màquines i que té, fins a cert punt, les mateixes habilitats que els humans: aprèn, millora i és capaç de desenvolupar-se en determinades àrees.

Quan parlem d'intel·ligència artificial, xoquen dues grans escoles de pensament: els que pensen que és una eina, no més, i els que creuen que només és qüestió de temps abans que es converteixi en una amenaça per a la raça humana.

A mesura que les nostres capacitats i possibilitats d'IA s'ampliïn, tambem veurem que s'utilitzarà amb fins perillosos o maliciosos. És per això que els qui veuen aquesta tecnologia com una amenaça la veuen amb recel i temor per l'impacte que pot tenir a les seves vides. Algunes personalitats famoses com Elon Musk es troben entre ells.

El cap de Tesla i SpaceX ja ha advertit més d?una vegada: la IA superarà les capacitats cognitives humanes. Musk creu que aquesta tecnologia amenaçarà els humans en el futur, especialment al lloc de treball.

Aquesta és també la raó per la qual la seva empresa Neuralink està treballant en interfícies cervell-màquina que s'inseriran al crani per preparar la humanitat per a un futur «fatal» on els robots la governaran. La veritat és que hi ha algunes pel·lícules de ciència ficció que també han espantat la gent, presentant futurs distòpics en què la IA arriba a controlar els humans.

Els investigadors diuen que és poc probable que una IA manifesti emocions humanes com l'amor o l'odi i que no hi ha cap raó per esperar que la IA es torni intencionalment amable o mesquina.

En aquest sentit, a Google us ha preocupat el perill que pot representar la IA quan no es desenvolupa amb cura i la manera com interactua amb les persones. La IA ha d'aprendre com un ésser humà, però continuar sent eficient i no esdevenir una màquina perillosa. Google ha estat un actor important en el desenvolupament de la IA.

Amb el seu programa de recerca del Pentàgon, Projecte Maven, la companyia ha capacitat la IA en la classificació d'objectes en imatges de drones. En altres paraules, ha ensenyat als drones a entendre el que estan mirant.

Google ara diu que la intel·ligència artificial ha de viure amb prejudicis i l'empresa vol fer alguna cosa. Per això, Google ha posat en marxa programes adequats sobre el tema de la IA responsable.

Dos dels fonaments de la IA de Google són “ser responsable amb les persones” i “evitar crear o reforçar prejudicis injustos”. Això inclou el desenvolupament de sistemes d'intel·ligència artificial interpretables que col·loquen les persones al capdavant de cada etapa del procés de desenvolupament, alhora que garanteixen que els biaixos injustos que pugui tenir un ésser humà no es reflecteixin en els resultats d'un model.

D'acord amb aquesta directriu, Google s'esforça per desenvolupar la intel·ligència artificial de manera responsable i estableix una sèrie d'àrees d'aplicació específiques que no perseguirà, com ara no implementar la intel·ligència artificial en tecnologies que poden causar danys o lesions a les persones.

google sesforçarà per garantir que la informació disponible a través dels models de IA sigui precisa i d'alta qualitat. A més, la tecnologia «ha de retre comptes a les persones, i està subjecta a la direcció i control de l'ésser humà».

Els algorismes i conjunts de dades d'intel·ligència artificial poden reflectir, reforçar i reduir biaixos injustos. En aquest sentit, Google s'esforçarà per evitar impactes injustos a les persones, especialment aquells relacionats amb característiques sensibles com raça, ètnia, gènere, ingressos, nacionalitat o creences polítiques o religioses, entre d'altres.

font: https://ai.google


Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: Miguel Ángel Gatón
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.