Google đã phát hành một loạt hướng dẫn để tạo ra "AI có trách nhiệm"

Có rất nhiều ứng dụng trí tuệ nhân tạo giúp cuộc sống hàng ngày của chúng ta trở nên dễ dàng và hiệu quả hơn rất nhiều. Với tốc độ đổi mới, mọi thứ có thể được thực hiện bằng một lệnh duy nhất.

Số lượng người ngày càng dễ tiếp cận AI hơn trên toàn thế giới, nhưng khi công nghệ này tạo ra những khả năng mới để cải tiến và trợ giúp hàng ngày, những tiến bộ của nó cũng đặt ra câu hỏi về cách hoạt động của nó - ví dụ, những vấn đề mà nó có thể gây ra nếu nó không được phát triển một cách có trách nhiệm.

Như tên cho thấy, nó là một trí thông minh do con người tạo ra, nhưng được thực hiện bởi máy móc và ở một mức độ nhất định có những khả năng giống như con người: nó học hỏi, cải thiện và có thể hoạt động trong một số lĩnh vực nhất định.

Khi chúng ta nói về trí tuệ nhân tạo, hai trường phái tư tưởng lớn đã va chạm: những người nghĩ rằng nó là một công cụ, không hơn, và những người tin rằng nó chỉ là vấn đề thời gian trước khi nó trở thành mối đe dọa cho loài người.

Khi khả năng và khả năng AI của chúng ta mở rộng, tChúng tôi cũng sẽ thấy rằng nó sẽ được sử dụng cho các mục đích nguy hiểm hoặc độc hại. Đó là lý do tại sao những người coi công nghệ này là một mối đe dọa xem nó với sự nghi ngờ và lo sợ về tác động của nó đối với cuộc sống của họ. Một số nhân vật nổi tiếng như Elon Musk cũng nằm trong số đó.

Ông chủ Tesla và SpaceX đã nhiều lần cảnh báo: AI sẽ vượt trội hơn khả năng nhận thức của con người. Musk tin rằng công nghệ này sẽ đe dọa loài người trong tương lai, đặc biệt là ở nơi làm việc.

Đây cũng là lý do tại sao công ty Neuralink của anh ấy đang nghiên cứu các giao diện não-máy sẽ được đưa vào hộp sọ để chuẩn bị cho nhân loại cho một tương lai "chết chóc" nơi robot sẽ thống trị nó. Sự thật là, có một số bộ phim khoa học viễn tưởng cũng khiến mọi người sợ hãi, kể về tương lai lạc hậu, trong đó AI có thể kiểm soát con người.

Các nhà nghiên cứu cho biết AI không có khả năng hiển thị cảm xúc của con người thích yêu hay ghét và không có lý do gì để mong đợi AI trở nên tốt đẹp hoặc xấu tính một cách có chủ ý.

Theo nghĩa này, Google đã lo ngại về mối nguy hiểm mà AI có thể gây ra khi bạn không phát triển bằng sự quan tâm và cách bạn tương tác với mọi người. AI phải học như con người, nhưng vẫn hiệu quả và không trở thành một cỗ máy nguy hiểm. Google là một công ty lớn trong việc phát triển AI.

Với chương trình nghiên cứu của Lầu Năm Góc, "Project Maven", công ty đã "đào tạo" AI trong việc phân loại các đối tượng trong hình ảnh bay không người lái. Nói cách khác, nó đã dạy cho máy bay không người lái hiểu những gì chúng đang nhìn.

Google Hiện hành cho biết Trí tuệ nhân tạo phải tồn tại với sự thiên vị và công ty muốn làm điều gì đó về nó. Để làm được điều này, Google đã đưa ra các chương trình thích hợp về chủ đề "AI có trách nhiệm".

Hai trong số các nguyên tắc cơ bản của AI của Google là "có trách nhiệm với mọi người" và "tránh tạo ra hoặc củng cố các định kiến ​​không công bằng". Điều này bao gồm việc phát triển các hệ thống trí tuệ nhân tạo có thể diễn giải, đặt con người lên vị trí hàng đầu trong mọi giai đoạn của quá trình phát triển, đồng thời đảm bảo rằng những thành kiến ​​không công bằng mà con người có thể có sẽ không được phản ánh trong kết quả của một mô hình.

Theo hướng dẫn này, Google cố gắng phát triển trí tuệ nhân tạo một cách có trách nhiệm và thiết lập một số lĩnh vực ứng dụng cụ thể mà Google sẽ không theo đuổi, chẳng hạn như không triển khai trí tuệ nhân tạo trong các công nghệ có thể gây hại hoặc thương tích cho con người.

Google sẽ cố gắng đảm bảo rằng thông tin có sẵn thông qua các mô hình AI chính xác và chất lượng cao. Hơn nữa, công nghệ "phải chịu trách nhiệm trước con người, chịu sự chỉ đạo và kiểm soát của con người."

Các thuật toán và bộ dữ liệu trí tuệ nhân tạo có thể phản ánh, củng cố và giảm bớt những thành kiến ​​không công bằng. Theo nghĩa này, Google sẽ cố gắng tránh những tác động không công bằng đến mọi người, đặc biệt là những người liên quan đến các đặc điểm nhạy cảm như chủng tộc, dân tộc, giới tính, thu nhập, quốc tịch hoặc niềm tin chính trị hoặc tôn giáo, cùng những người khác.

Fuente: https://ai.google


Để lại bình luận của bạn

địa chỉ email của bạn sẽ không được công bố. Các trường bắt buộc được đánh dấu bằng *

*

*

  1. Chịu trách nhiệm về dữ liệu: Miguel Ángel Gatón
  2. Mục đích của dữ liệu: Kiểm soát SPAM, quản lý bình luận.
  3. Hợp pháp: Sự đồng ý của bạn
  4. Truyền thông dữ liệu: Dữ liệu sẽ không được thông báo cho các bên thứ ba trừ khi có nghĩa vụ pháp lý.
  5. Lưu trữ dữ liệu: Cơ sở dữ liệu do Occentus Networks (EU) lưu trữ
  6. Quyền: Bất cứ lúc nào bạn có thể giới hạn, khôi phục và xóa thông tin của mình.