Google выпустил серию рекомендаций по созданию «ответственного ИИ».

Существует так много приложений с искусственным интеллектом, которые делают нашу повседневную жизнь намного проще и продуктивнее. В условиях инноваций все можно сделать с помощью одной команды.

AI становится более доступным для растущего числа людей во всем мире, но поскольку эта технология создает новые возможности для улучшения и ежедневной помощи, ее достижения также вызывают вопросы о том, как она работает - например, какие проблемы она может вызвать, если не будет разработана ответственно.

Как следует из названия, это интеллект, созданный человеком, но осуществляемый машинами, и который в определенной степени обладает теми же способностями, что и люди: он обучается, совершенствуется и может действовать в определенных областях.

Когда мы говорим об искусственном интеллекте, сталкиваются две великие школы мысли: те, кто думают, что это инструмент, не более, и те, кто считает, что это лишь вопрос времени, когда он станет угрозой для человечества.

По мере расширения наших возможностей и возможностей ИИ, tМы также увидим, что он будет использоваться в опасных или злонамеренных целях. Вот почему те, кто рассматривают эту технологию как угрозу, относятся к ней с подозрением и опасаются того воздействия, которое она может оказать на их жизнь. Среди них такие известные личности, как Илон Маск.

Босс Tesla и SpaceX уже не раз предупреждал: ИИ превзойдет когнитивные способности человека. Маск считает, что эта технология будет угрожать людям в будущем. особенно на рабочем месте.

Именно поэтому его компания Neuralink работает над интерфейсами мозг-машина, которые будут вставлены в череп, чтобы подготовить человечество к «фатальному» будущему, в котором им будут править роботы. Правда в том, что есть несколько научно-фантастических фильмов, которые тоже напугали людей, в которых рассказывается о мрачном будущем, в котором ИИ получает возможность управлять людьми.

Исследователи говорят, что ИИ вряд ли будет отображать человеческие эмоции например, любовь или ненависть, и нет причин ожидать, что ИИ намеренно станет милым или злым.

В этом смысле, Google обеспокоен опасностью, которую ИИ может представлять когда вы не развиваете заботу и не взаимодействуете с людьми. ИИ должен учиться как человек, но оставаться эффективным и не стать опасной машиной. Google был крупным игроком в развитии ИИ.

С помощью своей исследовательской программы Пентагона «Project Maven» компания «обучила» ИИ классифицировать объекты на изображениях дронов. Другими словами, он научил дронов понимать, на что они смотрят.

Google утверждает, что искусственному интеллекту необходимо жить с предвзятостью и компания хочет что-то с этим сделать. Для этого Google разработал соответствующие программы по теме «Ответственный ИИ».

Два основных принципа искусственного интеллекта Google - это «ответственность перед людьми» и «недопущение создания или усиления несправедливых предрассудков».. Это включает в себя разработку интерпретируемых систем искусственного интеллекта, которые ставят людей на передний план на каждом этапе процесса разработки, гарантируя, что несправедливые предубеждения, которые может иметь человек, не отражаются в результатах модели.

Согласно этому руководству Google стремится к ответственному развитию искусственного интеллекта и устанавливает ряд конкретных областей применения, которые он не будет преследовать, например, не внедряет искусственный интеллект в технологии, которые могут причинить вред или травмы людям.

Google будут стремиться к тому, чтобы информация, доступная через модели ИИ быть точными и качественными. Кроме того, технологии «должны быть подотчетны людям, подчиняться человеческому руководству и контролю».

Алгоритмы и наборы данных искусственного интеллекта могут отражать, усиливать и уменьшать несправедливые предубеждения. В этом смысле Google будет стремиться избегать несправедливого воздействия на людей, особенно тех, которые связаны с такими чувствительными характеристиками, как раса, этническая принадлежность, пол, доход, национальность, политические или религиозные убеждения, среди прочего.

источник: https://ai.google


Оставьте свой комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

*

*

  1. Ответственный за данные: Мигель Анхель Гатон
  2. Назначение данных: контроль спама, управление комментариями.
  3. Легитимация: ваше согласие
  4. Передача данных: данные не будут переданы третьим лицам, кроме как по закону.
  5. Хранение данных: база данных, размещенная в Occentus Networks (ЕС)
  6. Права: в любое время вы можете ограничить, восстановить и удалить свою информацию.