Google випустив низку вказівок щодо створення "відповідального ШІ"

Існує стільки програм для штучного інтелекту, які роблять наше повсякденне життя набагато простішим та продуктивнішим. В темпі інновацій все можна зробити за допомогою однієї команди.

ШІ є більш доступним для зростаючої кількості людей у всьому світі, але оскільки ця технологія створює нові можливості для вдосконалення та щоденної допомоги, її вдосконалення також породжує питання про те, як вона працює - наприклад, які проблеми вона може спричинити, якщо її не розробляти відповідально.

Як випливає з назви, це інтелект, створений людиною, але здійснюваний машинами і має певною мірою ті самі здібності, що і людина: він навчається, вдосконалюється і здатний функціонувати в певних сферах.

Коли ми говоримо про штучний інтелект, стикаються дві великі школи думок: тих, хто вважає це інструментом, не більше, і тих, хто вважає, що це лише питання часу, коли це стане загрозою для людської раси.

У міру розширення наших можливостей та можливостей штучного інтелекту, tМи також побачимо, що він буде використовуватися в небезпечних або зловмисних цілях. Ось чому ті, хто розглядає цю технологію як загрозу, сприймають її з підозрою та побоюванням за вплив, який вона може мати на їхнє життя. Серед них і такі відомі особистості, як Ілон Маск.

Бос Tesla і SpaceX вже неодноразово попереджав: ШІ буде перевершувати пізнавальні здібності людини. Маск вважає, що ця технологія буде загрожувати людям у майбутньому, особливо на робочому місці.

Ось чому його компанія Neuralink працює над інтерфейсами мозок-машина, які будуть вставлені в череп, щоб підготувати людство до "фатального" майбутнього, де роботи будуть ним керувати. Правда полягає в тому, що є деякі науково-фантастичні фільми, які також налякали людей, демонструючи дистопічне майбутнє, в якому ШІ контролює людей.

Дослідники кажуть, що ШІ навряд чи може виявляти людські емоції як любов або ненависть, і що немає жодних підстав очікувати, що ШІ стане навмисно приємним або підлим.

У цьому сенсі, Google стурбований небезпекою, яку може становити ШІ коли ви не розвиваєтесь обережно та спосіб взаємодії з людьми. ШІ повинен вчитися як людина, але залишатися дієвим і не стати небезпечною машиною. Google був головним гравцем у розвитку ШІ.

Завдяки своїй дослідницькій програмі в Пентагоні "Project Maven" компанія "навчила" ШІ класифікації об'єктів на знімках безпілотників. Іншими словами, це навчило дронів розуміти, на що вони дивляться.

Google Now каже, що штучний інтелект повинен жити з упередженнями і компанія хоче щось з цим зробити. Для цього Google створив відповідні програми на тему "Відповідальний ШІ".

Дві основи ШІ від Google - "нести відповідальність перед людьми" та "уникати створення чи посилення несправедливих забобонів". Це включає розробку інтерпретованих систем штучного інтелекту, які ставлять людей на перше місце на кожному етапі процесу розвитку, одночасно гарантуючи, що несправедливі упередження, які може мати людина, не відображаються в результатах моделі.

Відповідно до цього керівного принципу, Google прагне відповідально розробляти штучний інтелект та встановлює низку конкретних областей застосування, яких він не буде переслідувати, наприклад, не впровадження штучного інтелекту в технології, які можуть завдати шкоди чи шкоди людям.

Google намагатиметься забезпечити, щоб інформація, доступна через моделі ШІ бути точним та якісним. Крім того, технологія "повинна бути підзвітною людям, підпорядковуючись людському керівництву та контролю".

Алгоритми штучного інтелекту та набори даних можуть відображати, підсилювати та зменшувати несправедливі упередження. У цьому сенсі Google намагатиметься уникати несправедливих впливів на людей, особливо тих, що стосуються, зокрема, таких чутливих характеристик, як раса, етнічна приналежність, стать, дохід, національність чи політичні чи релігійні переконання.

Фуенте: https://ai.google


Залиште свій коментар

Ваша електронна адреса не буде опублікований. Обов'язкові для заповнення поля позначені *

*

*

  1. Відповідальний за дані: Мігель Анхель Гатон
  2. Призначення даних: Контроль спаму, управління коментарями.
  3. Легітимація: Ваша згода
  4. Передача даних: Дані не передаватимуться третім особам, за винятком юридичних зобов’язань.
  5. Зберігання даних: База даних, розміщена в мережі Occentus Networks (ЄС)
  6. Права: Ви можете будь-коли обмежити, відновити та видалити свою інформацію.