A Google kiadott egy sor iránymutatást a "felelős AI" létrehozására

Olyan sok mesterséges intelligencia alkalmazás van, amely sokkal könnyebbé és produktívabbá teszi mindennapjainkat. Az innováció ütemében mindent meg lehet tenni egyetlen paranccsal.

Az AI egyre több ember számára hozzáférhetőbb szerte a világon, de mivel ez a technológia új lehetőségeket teremt a fejlesztésre és a napi segítségre, előrelépései kérdéseket vetnek fel a működésével kapcsolatban is - például milyen problémákat okozhat, ha nem felelősségteljesen fejlesztik.

Ahogy a neve is sugallja, az ember által létrehozott, de gépek által végrehajtott intelligencia, amely bizonyos mértékig ugyanazokkal a képességekkel rendelkezik, mint az emberek: megtanul, javul és képes működni bizonyos területeken.

Amikor a mesterséges intelligenciáról beszélünk, két nagy gondolkodási iskola ütközik: akik azt hiszik, hogy ez egy eszköz, nem több, és azok, akik úgy gondolják, hogy csak idő kérdése, hogy ez veszélyt jelent-e az emberi fajra.

Amint az AI képességeink és lehetőségeink bővülnek, tAzt is látni fogjuk, hogy veszélyes vagy rosszindulatú célokra fogják használni. Éppen ezért azok, akik ezt a technológiát fenyegetésnek tekintik, gyanakodva és félve tekintenek rá az életükre gyakorolt ​​hatása miatt. Vannak köztük olyan híres személyiségek, mint Elon Musk.

A Tesla és a SpaceX főnöke már nem egyszer figyelmeztetett: az AI felül fog teljesíteni emberi kognitív képességek. Musk úgy véli, hogy ez a technológia a jövőben fenyegeti az embereket, különösen a munkahelyen.

A Neuralink cége ezért is dolgozik az agy-gép interfészeken, amelyeket a koponyába helyeznek, hogy felkészítsék az emberiséget egy "végzetes" jövőre, ahol robotok fogják uralkodni rajta. Az igazság az, hogy vannak olyan sci-fi filmek, amelyek megijesztették az embereket is, olyan disztópikus jövőkkel, amelyekben az AI irányíthatja az embereket.

A kutatók szerint nem valószínű, hogy egy mesterséges intelligencia megjeleníti az emberi érzelmeket mint a szerelem vagy a gyűlölet, és nincs ok arra számítani, hogy az AI szándékosan kedves vagy gonosz lesz.

Ebben az értelemben, A Google aggódott az AI okozta veszély miatt amikor nem gonddal és az emberekkel való kapcsolattartással fejlődik. Az AI-nek emberként kell tanulnia, de hatékonynak kell maradnia és ne váljon veszélyes géppé. A Google meghatározó szereplője volt az AI fejlesztésének.

A "Pentagon" kutatási programjával, a "Project Maven" -vel a vállalat "kiképezte" az AI-t az objektumok drónképekben történő osztályozására. Más szavakkal, megtanította a drónokat megérteni, amit néznek.

A Google Asszisztens szerint a mesterséges intelligenciának elfogultsággal kell élnie és a vállalat tenni akar ez ellen. Ennek érdekében a Google megfelelő programokat hozott létre a "Felelős AI" témában.

A Google mesterséges intelligenciájának két alapja az, hogy "felelősséggel tartozunk az emberek iránt" és "elkerüljük a tisztességtelen előítéletek létrehozását vagy megerősítését".. Ez magában foglalja az értelmezhető mesterséges intelligencia rendszerek kifejlesztését, amelyek az embereket a fejlesztési folyamat minden szakaszában előtérbe helyezik, miközben biztosítják, hogy az ember által esetlegesen alkalmazott igazságtalan elfogultság ne tükröződjön a modell eredményeiben.

Ezen irányelv szerint a Google arra törekszik, hogy felelősségteljesen fejlessze a mesterséges intelligenciát, és számos olyan speciális alkalmazási területet határoz meg, amelyeket nem fog folytatni, például nem alkalmazza a mesterséges intelligenciát olyan technológiákban, amelyek kárt okozhatnak az emberek számára.

Google arra törekszik, hogy az AI-modelleken keresztül elérhető információk rendelkezésre álljanak legyen pontos és jó minőségű. Ezenkívül a technológiának "elszámoltathatónak kell lennie az emberek előtt, emberi irányítás és irányítás mellett."

A mesterséges intelligencia algoritmusai és adathalmazai tükrözhetik, megerősíthetik és csökkenthetik a tisztességtelen elfogultságokat. Ebben az értelemben a Google arra törekszik, hogy elkerülje az emberekkel szembeni tisztességtelen hatásokat, különösen azokat, amelyek olyan érzékeny jellemzőkkel kapcsolatosak, mint a faj, az etnikai hovatartozás, a nem, a jövedelem, a nemzetiség vagy a politikai vagy vallási meggyőződés.

forrás: https://ai.google


Hagyja megjegyzését

E-mail címed nem kerül nyilvánosságra. Kötelező mezők vannak jelölve *

*

*

  1. Az adatokért felelős: Miguel Ángel Gatón
  2. Az adatok célja: A SPAM ellenőrzése, a megjegyzések kezelése.
  3. Legitimáció: Az Ön beleegyezése
  4. Az adatok közlése: Az adatokat csak jogi kötelezettség alapján továbbítjuk harmadik felekkel.
  5. Adattárolás: Az Occentus Networks (EU) által üzemeltetett adatbázis
  6. Jogok: Bármikor korlátozhatja, helyreállíthatja és törölheti adatait.