Firma Google wydała szereg wskazówek dotyczących tworzenia „odpowiedzialnej sztucznej inteligencji”

Jest tak wiele aplikacji sztucznej inteligencji, które sprawiają, że nasze codzienne życie jest o wiele łatwiejsze i bardziej produktywne. W tempie innowacji wszystko można zrobić za pomocą jednego polecenia.

Sztuczna inteligencja jest bardziej dostępna dla coraz większej liczby osób na całym świecie, ale ponieważ technologia ta stwarza nowe możliwości doskonalenia i codziennej pomocy, jej postępy rodzą również pytania o to, jak działa - na przykład jakie problemy może powodować, jeśli nie jest odpowiedzialnie rozwijana.

Jak sama nazwa wskazuje, jest to inteligencja stworzona przez człowieka, ale wykonywana przez maszyny, która ma w pewnym stopniu te same zdolności co człowiek: uczy się, doskonali i potrafi funkcjonować w określonych obszarach.

Kiedy mówimy o sztucznej inteligencji, zderzają się dwie wielkie szkoły myślenia: ci, którzy myślą, że to już tylko narzędzie, i ci, którzy wierzą, że to tylko kwestia czasu, zanim stanie się zagrożeniem dla rasy ludzkiej.

Wraz z rozwojem naszych możliwości i możliwości AI, tZobaczymy również, że zostanie wykorzystany do niebezpiecznych lub złośliwych celów. Dlatego ci, którzy postrzegają tę technologię jako zagrożenie, patrzą na nią z podejrzliwością i obawą o wpływ, jaki może mieć na ich życie. Wśród nich są znane osobistości, takie jak Elon Musk.

Szef Tesli i SpaceX ostrzegał już więcej niż raz: AI osiągnie lepsze wyniki zdolności poznawcze człowieka. Musk wierzy, że ta technologia zagrozi ludziom w przyszłości, zwłaszcza w miejscu pracy.

Dlatego też jego firma Neuralink pracuje nad interfejsami mózg-maszyna, które zostaną wstawione do czaszki, aby przygotować ludzkość na „fatalną” przyszłość, w której rządzą nią roboty. Prawda jest taka, że ​​jest kilka filmów science-fiction, które również przestraszyły ludzi, przedstawiając dystopijną przyszłość, w której sztuczna inteligencja może kontrolować ludzi.

Naukowcy twierdzą, że sztuczna inteligencja prawdopodobnie nie będzie wyświetlać ludzkich emocji jak miłość czy nienawiść i nie ma powodu, aby oczekiwać, że sztuczna inteligencja stanie się celowo miła lub złośliwa.

W tym sensie, Google obawia się niebezpieczeństwa, jakie może stanowić sztuczna inteligencja kiedy nie rozwijasz się z troską i sposobem interakcji z ludźmi. AI musi się uczyć jak człowiek, ale musi być wydajna i nie stać się niebezpieczną maszyną. Google jest głównym graczem w rozwoju sztucznej inteligencji.

Dzięki programowi badawczemu Pentagonu „Project Maven” firma „przeszkoliła” sztuczną inteligencję w klasyfikowaniu obiektów na zdjęciach z dronów. Innymi słowy, nauczył drony rozumieć, na co patrzą.

Google mówi teraz, że sztuczna inteligencja musi żyć z uprzedzeniami a firma chce coś z tym zrobić. W tym celu firma Google wdrożyła odpowiednie programy na temat „Odpowiedzialnej sztucznej inteligencji”.

Dwie podstawy sztucznej inteligencji Google to „odpowiedzialność wobec ludzi” i „unikanie tworzenia lub wzmacniania nieuczciwych uprzedzeń”. Obejmuje to rozwój możliwych do interpretacji systemów sztucznej inteligencji, które stawiają ludzi na czele każdego etapu procesu rozwoju, zapewniając jednocześnie, że niesprawiedliwe uprzedzenia, jakie może mieć człowiek, nie znajdują odzwierciedlenia w wynikach modelu.

Zgodnie z tymi wytycznymi Google stara się odpowiedzialnie rozwijać sztuczną inteligencję i ustanawia szereg konkretnych obszarów zastosowań, których nie będzie się zajmować, takich jak niewdrażanie sztucznej inteligencji w technologiach, które mogą wyrządzać krzywdę lub obrażenia ludzi.

Google dołoży starań, aby informacje dostępne za pośrednictwem modeli SI być dokładne i wysokiej jakości. Ponadto technologia „musi odpowiadać przed ludźmi, podlegać kierownictwu i kontroli człowieka”.

Algorytmy sztucznej inteligencji i zbiory danych mogą odzwierciedlać, wzmacniać i ograniczać nieuczciwe uprzedzenia. W tym sensie Google będzie starać się unikać nieuczciwego wpływu na ludzi, zwłaszcza tych związanych z drażliwymi cechami, takimi jak między innymi rasa, pochodzenie etniczne, płeć, dochód, narodowość lub przekonania polityczne lub religijne.

źródło: https://ai.google


Zostaw swój komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

*

*

  1. Odpowiedzialny za dane: Miguel Ángel Gatón
  2. Cel danych: kontrola spamu, zarządzanie komentarzami.
  3. Legitymacja: Twoja zgoda
  4. Przekazywanie danych: Dane nie będą przekazywane stronom trzecim, z wyjątkiem obowiązku prawnego.
  5. Przechowywanie danych: baza danych hostowana przez Occentus Networks (UE)
  6. Prawa: w dowolnym momencie możesz ograniczyć, odzyskać i usunąć swoje dane.