Googleは、「責任あるAI」を作成するための一連のガイドラインをリリースしました

私たちの日常生活をとても簡単で生産的にする人工知能アプリはたくさんあります。 イノベーションのペースで、すべてをXNUMXつのコマンドで実行できます。

AIはますます多くの人々にとってよりアクセスしやすくなっています 世界中ですが、このテクノロジーは改善と日々の支援の新しい可能性を生み出すため、その進歩は、それがどのように機能するか、たとえば、責任を持って開発されなかった場合にどのような問題を引き起こす可能性があるかについても疑問を投げかけます。

名前が示すように、それは人間によって作成された知性ですが、機械によって実行され、ある程度、人間と同じ能力を持っています:それは特定の領域で学び、改善し、機能することができます。

人工知能について話すとき、XNUMXつの優れた考え方が衝突します。 それはもはや道具ではないと考える人々、そしてそれが人類への脅威となるのは時間の問題であると信じる人々。

AIの機能と可能性が拡大するにつれて、tまた、危険または悪意のある目的で使用されることもわかります。 そのため、このテクノロジーを脅威と見なす人々は、テクノロジーが自分たちの生活に与える影響を疑って恐れています。 イーロンマスクのようないくつかの有名人がその中にいます。

テスラとスペースXのボスはすでに複数回警告しています:AIはパフォーマンスを上回ります 人間の認知能力。 マスクは、この技術が将来人間を脅かすと信じています、 特に職場で。

これが、彼の会社であるNeuralinkが、ロボットが支配する「致命的な」未来に向けて人類を準備するために頭蓋骨に挿入されるブレインマシンインターフェースに取り組んでいる理由でもあります。 真実は、AIが人間を制御するようになるディストピアの未来を特集した、人々を怖がらせたいくつかのSF映画もあるということです。

研究者は、AIが人間の感情を表示する可能性は低いと述べています 愛や憎しみのように、AIが意図的にいいものや意地悪になることを期待する理由はありません。

この意味で、GoogleはAIがもたらす危険性を懸念してきました 注意深く成長しないとき、そしてあなたが人々と交流する方法。 AIは人間のように学習する必要がありますが、効率を維持します 危険な機械にはなりません。 GoogleはAIの開発における主要なプレーヤーです。

ペンタゴンの研究プログラム「ProjectMaven」で、同社はドローン画像内のオブジェクトを分類するためにAIを「トレーニング」しました。 言い換えれば、それはドローンに彼らが見ているものを理解することを教えました。

グーグルは今、人工知能はバイアスと共存しなければならないと言います そして会社はそれについて何かしたいと思っています。 これを行うために、Googleは「責任あるAI」をテーマにした適切なプログラムを導入しました。

GoogleのAIの基本のXNUMXつは、「人々に責任を負うこと」と「不当な偏見の作成または強化を回避すること」です。。 これには、開発プロセスのすべての段階で人々を最前線に置き、人間が持つ可能性のある不当な偏見がモデルの結果に反映されないようにする、解釈可能な人工知能システムの開発が含まれます。

このガイドラインに従って、Googleは責任を持って人工知能を開発するよう努めており、人に危害や傷害を引き起こす可能性のあるテクノロジーに人工知能を実装しないなど、追求しない特定のアプリケーション分野をいくつか確立しています。

でログイン AIモデルを通じて利用可能な情報を確保するよう努めます 正確で高品質であること。 さらに、テクノロジーは「人間の指示と制御に従って、人々に説明責任を負わなければなりません」。

人工知能のアルゴリズムとデータセットは、不当な偏見を反映、強化、軽減することができます。 この意味で、Googleは人々、特に人種、民族、性別、収入、国籍、政治的または宗教的信念などのデリケートな特性に関連する人々への不当な影響を回避するよう努めます。

出典 https://ai.google


コメントを最初に

コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

*

*

  1. データの責任者:MiguelÁngelGatón
  2. データの目的:SPAMの制御、コメント管理。
  3. 正当化:あなたの同意
  4. データの伝達:法的義務がある場合を除き、データが第三者に伝達されることはありません。
  5. データストレージ:Occentus Networks(EU)がホストするデータベース
  6. 権利:いつでも情報を制限、回復、削除できます。