Google a lansat o serie de linii directoare pentru crearea „IA responsabilă”

Există atât de multe aplicații de inteligență artificială care ne fac viața de zi cu zi mult mai ușoară și mai productivă. În ritmul inovației, totul se poate face cu o singură comandă.

AI este mai accesibilă unui număr tot mai mare de oameni în întreaga lume, dar, deoarece această tehnologie creează noi posibilități de îmbunătățire și ajutor zilnic, progresele sale ridică, de asemenea, întrebări cu privire la modul în care funcționează - de exemplu, ce probleme poate provoca dacă nu este dezvoltată în mod responsabil.

După cum sugerează și numele, este o inteligență creată de om, dar realizată de mașini și care are, într-o oarecare măsură, aceleași abilități ca și oamenii: învață, se îmbunătățește și poate funcționa în anumite domenii.

Când vorbim despre inteligență artificială, două mari școli de gândire se ciocnesc: cei care cred că este un instrument, nu mai mult, și cei care cred că este doar o chestiune de timp înainte ca acesta să devină o amenințare pentru rasa umană.

Pe măsură ce capacitățile și posibilitățile noastre de AI se extind, tVom vedea, de asemenea, că va fi utilizat în scopuri periculoase sau rău intenționate. De aceea, cei care văd această tehnologie ca o amenințare o privesc cu suspiciune și teamă pentru impactul pe care îl poate avea asupra vieții lor. Unele personalități celebre precum Elon Musk se numără printre ele.

Șeful Tesla și SpaceX a avertizat deja de mai multe ori: AI va depăși performanța abilitățile cognitive umane. Musk crede că această tehnologie va amenința oamenii în viitor, mai ales la locul de muncă.

Acesta este și motivul pentru care compania sa Neuralink lucrează la interfețe creier-mașină care vor fi inserate în craniu pentru a pregăti omenirea pentru un viitor „fatal” în care roboții îl vor conduce. Adevărul este că există câteva filme SF care i-au speriat și pe oameni, care prezintă viitorul distopic în care AI ajunge să controleze oamenii.

Cercetătorii spun că este puțin probabil ca o IA să afișeze emoții umane cum ar fi iubirea sau ura și că nu există niciun motiv să ne așteptăm ca AI să devină intenționat drăguț sau rău.

În acest sens, Google a fost îngrijorat de pericolul pe care îl poate pune AI când nu te dezvolți cu grijă și modul în care interacționezi cu oamenii. AI trebuie să învețe ca o ființă umană, dar să rămână eficientă și să nu devină o mașină periculoasă. Google a fost un jucător major în dezvoltarea AI.

Cu programul său de cercetare Pentagon, „Project Maven”, compania a „instruit” AI în clasificarea obiectelor în imagini cu drone. Cu alte cuvinte, a învățat dronele să înțeleagă la ce se uită.

Google spune acum că inteligența artificială trebuie să trăiască cu părtinire iar compania vrea să facă ceva în acest sens. Pentru a face acest lucru, Google a implementat programe adecvate pe tema „AI responsabil”.

Două dintre elementele fundamentale ale AI ale Google sunt „responsabilitatea față de oameni” și „evitarea creării sau consolidării prejudecăților neloiale”. Aceasta include dezvoltarea unor sisteme de inteligență artificială interpretabile care să pună oamenii în fruntea fiecărei etape a procesului de dezvoltare, asigurându-se în același timp că prejudecățile nedrepte pe care le poate avea un om nu se reflectă în rezultatele unui model.

Conform acestui ghid, Google se străduiește să dezvolte în mod responsabil inteligența artificială și stabilește o serie de domenii specifice de aplicare pe care nu le va urmări, cum ar fi neaplicarea inteligenței artificiale în tehnologii care pot provoca vătămări sau răniri oamenilor.

Google se va strădui să se asigure că informațiile disponibile prin intermediul modelelor AI să fie exacte și de înaltă calitate. Mai mult, tehnologia „trebuie să fie responsabilă față de oameni, supusă direcției și controlului uman”.

Algoritmii de inteligență artificială și seturile de date pot reflecta, întări și reduce prejudecățile neloiale. În acest sens, Google se va strădui să evite impacturile nedrepte asupra oamenilor, în special cele legate de caracteristici sensibile precum rasa, etnia, sexul, venitul, naționalitatea sau credințele politice sau religioase, printre altele.

Fuente: https://ai.google


Lasă comentariul tău

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

*

*

  1. Responsabil pentru date: Miguel Ángel Gatón
  2. Scopul datelor: Control SPAM, gestionarea comentariilor.
  3. Legitimare: consimțământul dvs.
  4. Comunicarea datelor: datele nu vor fi comunicate terților decât prin obligație legală.
  5. Stocarea datelor: bază de date găzduită de Occentus Networks (UE)
  6. Drepturi: în orice moment vă puteți limita, recupera și șterge informațiile.