Google udgav en række retningslinjer for oprettelse af "ansvarlig AI"

Der er så mange kunstige intelligens apps, der gør vores daglige liv så meget lettere og mere produktivt. I takt med innovation kan alt gøres med en enkelt kommando.

AI er mere tilgængelig for et voksende antal mennesker rundt om i verden, men da denne teknologi skaber nye muligheder for forbedring og daglig hjælp, rejser dens fremskridt også spørgsmål om, hvordan den fungerer - for eksempel hvilke problemer den kan forårsage, hvis den ikke udvikles ansvarligt.

Som navnet antyder, er det en intelligens skabt af mennesket, men udført af maskiner, og som til en vis grad har de samme evner som mennesker: den lærer, forbedrer og er i stand til at fungere i visse områder.

Når vi taler om kunstig intelligens, kolliderer to store tankeskoler: dem, der ikke synes, det er et værktøj, og dem, der tror, ​​at det kun er et spørgsmål om tid, før det bliver en trussel mod menneskeheden.

Da vores AI-muligheder og muligheder udvides, tVi vil også se, at det vil blive brugt til farlige eller ondsindede formål. Derfor ser de, der ser denne teknologi som en trussel, den med mistanke og frygt for den indflydelse, den kan have på deres liv. Nogle berømte personligheder som Elon Musk er blandt dem.

Tesla og SpaceX-chef har allerede advaret mere end én gang: AI vil overgå menneskelige kognitive evner. Musk mener, at denne teknologi vil true mennesker i fremtiden, især på arbejdspladsen.

Dette er også grunden til, at hans firma Neuralink arbejder på hjernemaskine-grænseflader, der vil blive indsat i kraniet for at forberede menneskeheden til en "dødelig" fremtid, hvor robotter vil styre den. Sandheden er, at der er nogle sci-fi-film, der også har skræmt folk med dystopiske fremtider, hvor AI får kontrol over mennesker.

Forskere siger, at en AI sandsynligvis ikke viser menneskelige følelser som kærlighed eller had, og at der ikke er nogen grund til at forvente, at AI bliver bevidst god eller ond.

I denne forstand, Google har været bekymret over den fare, som AI kan udgøre når du ikke udvikler dig med omhu og måden du interagerer med mennesker på. AI skal lære som et menneske, men forblive effektiv og ikke blive en farlig maskine. Google har været en vigtig spiller i udviklingen af ​​AI.

Med sit Pentagon-forskningsprogram "Project Maven" har virksomheden "trænet" AI i klassificering af objekter i dronebilleder. Med andre ord har det lært droner at forstå, hvad de ser på.

Google siger nu, at kunstig intelligens skal leve med bias og virksomheden vil gøre noget ved det. For at gøre dette har Google indført passende programmer om emnet "Ansvarlig AI".

To af de grundlæggende i Googles AI er "at være ansvarlig over for mennesker" og "at undgå at skabe eller forstærke urimelige fordomme". Dette inkluderer udvikling af fortolkelige kunstige intelligenssystemer, der sætter mennesker i spidsen for hvert trin i udviklingsprocessen, samtidig med at det sikres, at urimelige fordomme, som et menneske måtte have, ikke afspejles i resultaterne af en model.

I henhold til denne retningslinje stræber Google efter at udvikle kunstig intelligens ansvarligt og etablerer et antal specifikke applikationsområder, som det ikke vil forfølge, såsom ikke at implementere kunstig intelligens i teknologier, der kan forårsage skade eller skade på mennesker.

Google vil bestræbe sig på at sikre, at den tilgængelige information via AI-modeller være nøjagtige og af høj kvalitet. Desuden skal teknologi "være ansvarlig over for mennesker underlagt menneskelig ledelse og kontrol."

Algoritmer og datasæt for kunstig intelligens kan afspejle, forstærke og reducere urimelige bias. I denne forstand vil Google bestræbe sig på at undgå urimelige påvirkninger på mennesker, især dem, der er relateret til følsomme egenskaber såsom race, etnicitet, køn, indkomst, nationalitet eller politisk eller religiøs overbevisning, blandt andre.

kilde: https://ai.google


Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.