Google发布了一系列创建“负责任的AI”的准则

如此众多的人工智能应用程序使我们的日常生活变得更加轻松和高效。 以创新的步伐,一切都可以用一个命令完成。

越来越多的人可以使用AI 在全世界范围内,但是随着这项技术为改进和日常帮助创造了新的可能性,其技术进步也引发了有关其工作方式的疑问-例如,如果不负责任地发展,它将导致哪些问题。

顾名思义,它是人创造的,但是是由机器执行的,并且在某种程度上具有与人类相同的能力:它在某些领域中学习,改进并能够发挥作用。

当我们谈论人工智能时,两大思想流派相撞: 那些不再认为这是一种工具的人,以及那些认为它只是对人类的威胁只是时间问题。

随着我们AI能力和可能性的扩展,我们还将看到它将用于危险或恶意目的。 这就是为什么那些将这项技术视为威胁的人怀疑并担心该技术可能对他们的生活造成影响的原因。 其中包括一些著名人物,例如埃隆·马斯克(Elon Musk)。

特斯拉和SpaceX老板已经多次警告:人工智能将跑赢大市 人类的认知能力。 马斯克认为,这项技术将来会威胁人类, 特别是在工作场所。

这也是为什么他的公司Neuralink正在研究将被插入头骨的脑机接口,以为人类为“致命”的未来做准备,而机器人将对其进行统治。 事实是,有些科幻电影也使人感到恐惧,这些电影以反乌托邦的未来为特征,人工智能可以控制人类。

研究人员说,人工智能不太可能表现出人类的情感 例如爱或恨,没有理由指望AI会变得故意或友好。

从这个意义上说,Google一直担心AI可能带来的危险 当您不谨慎发展以及与人互动的方式时。 人工智能必须像人一样学习,但要保持高效 并不会成为危险的机器。 谷歌一直是人工智能发展的主要参与者。

通过五角大楼的研究计划“ Project Maven”,该公司已经“训练”了AI对无人机图像中的物体进行分类。 换句话说,它教会了无人机了解他们在看什么。

Google现在说人工智能必须忍受偏见 该公司想对此做些什么。 为此,Google已针对“负责任的AI”主题部署了适当的程序。

Google AI的两个基本原则是“对人负责”和“避免造成或加强不公平的偏见”。 这包括开发可解释的人工智能系统,使人们处于开发过程的每个阶段的最前沿,同时确保模型的结果不会反映出人类可能存在的不公平偏见。

根据该指南,Google致力于以负责任的方式开发人工智能,并建立了许多它不会追求的特定应用领域,例如未在可能对人类造成伤害或伤害的技术中实施人工智能。

谷歌 将努力确保通过AI模型可获得的信息 准确和高质量。 此外,技术“必须对人类负责,受人类指导和控制。”

人工智能算法和数据集可以反映,加强和减少不公平的偏见。 从这个意义上讲,Google会努力避免对人们造成不公平的影响,尤其是与种族,种族,性别,收入,国籍,政治或宗教信仰等敏感特征有关的影响。

数据来源: https://ai.google


本文内容遵循我们的原则 编辑伦理。 要报告错误,请单击 信息.

成为第一个发表评论

发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责数据:MiguelÁngelGatón
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。