Google merilis serangkaian pedoman untuk membuat "AI yang bertanggung jawab"

Ada banyak sekali aplikasi kecerdasan buatan yang membuat keseharian kita jadi lebih mudah dan produktif. Dengan kecepatan inovasi, semuanya bisa dilakukan dengan satu perintah.

AI lebih mudah diakses oleh semakin banyak orang di seluruh dunia, tetapi karena teknologi ini menciptakan kemungkinan baru untuk perbaikan dan bantuan sehari-hari, kemajuannya juga menimbulkan pertanyaan tentang cara kerjanya - misalnya, masalah apa yang dapat ditimbulkannya jika tidak dikembangkan secara bertanggung jawab.

Seperti namanya, itu adalah kecerdasan yang diciptakan oleh manusia, tetapi dilakukan oleh mesin dan yang, sampai batas tertentu, memiliki kemampuan yang sama dengan manusia: ia belajar, meningkat, dan mampu berfungsi di bidang tertentu.

Ketika kita berbicara tentang kecerdasan buatan, dua aliran pemikiran besar bertabrakan: mereka yang menganggapnya sebagai alat, tidak lebih, dan mereka yang percaya bahwa ini hanya masalah waktu sebelum menjadi ancaman bagi umat manusia.

Saat kemampuan dan kemungkinan AI kami berkembang, tKami juga akan melihat bahwa itu akan digunakan untuk tujuan berbahaya atau jahat. Itulah mengapa mereka yang melihat teknologi ini sebagai ancaman melihatnya dengan kecurigaan dan ketakutan akan dampaknya terhadap kehidupan mereka. Beberapa tokoh terkenal seperti Elon Musk ada di antaranya.

Bos Tesla dan SpaceX telah memperingatkan lebih dari sekali: AI akan mengungguli kemampuan kognitif manusia. Musk yakin teknologi ini akan mengancam manusia di masa depan, terutama di tempat kerja.

Ini juga mengapa perusahaannya, Neuralink, sedang mengerjakan antarmuka mesin otak yang akan dimasukkan ke dalam tengkorak untuk mempersiapkan umat manusia menghadapi masa depan yang "fatal" di mana robot akan mengaturnya. Faktanya adalah, ada beberapa film fiksi ilmiah yang juga membuat orang takut, menampilkan masa depan distopia di mana AI dapat mengendalikan manusia.

Para peneliti mengatakan AI tidak mungkin menampilkan emosi manusia menyukai cinta atau benci dan tidak ada alasan untuk mengharapkan AI menjadi baik atau jahat dengan sengaja.

Dalam pengertian ini, Google mengkhawatirkan bahaya yang dapat ditimbulkan AI ketika Anda tidak berkembang dengan hati-hati dan cara Anda berinteraksi dengan orang lain. AI harus belajar seperti manusia, tetapi tetap efisien dan tidak menjadi mesin yang berbahaya. Google telah menjadi pemain utama dalam pengembangan AI.

Dengan program penelitian Pentagon, "Project Maven," perusahaan telah "melatih" AI dalam mengklasifikasikan objek dalam citra drone. Dengan kata lain, ini telah mengajarkan drone untuk memahami apa yang mereka lihat.

Google Now Mengatakan Artificial Intelligence Harus Menghadapi Bias dan perusahaan ingin melakukan sesuatu. Untuk melakukan ini, Google telah menerapkan program yang sesuai dengan subjek "AI yang Bertanggung Jawab".

Dua dari dasar AI Google adalah "bertanggung jawab kepada orang-orang" dan "menghindari membuat atau memperkuat prasangka yang tidak adil". Ini termasuk pengembangan sistem kecerdasan buatan yang dapat ditafsirkan yang menempatkan orang di garis depan dalam setiap tahap proses pengembangan, sambil memastikan bahwa bias yang tidak adil yang mungkin dimiliki manusia tidak tercermin dalam hasil model.

Menurut pedoman ini, Google berusaha untuk mengembangkan kecerdasan buatan secara bertanggung jawab dan menetapkan sejumlah area aplikasi spesifik yang tidak akan dikejar, seperti tidak menerapkan kecerdasan buatan dalam teknologi yang dapat menyebabkan bahaya atau cedera pada orang.

Google akan berusaha untuk memastikan bahwa informasi tersedia melalui model AI akurat dan berkualitas tinggi. Selain itu, teknologi "harus bertanggung jawab kepada orang-orang, tunduk pada arahan dan kendali manusia."

Algoritme kecerdasan buatan dan kumpulan data dapat mencerminkan, memperkuat, dan mengurangi bias yang tidak adil. Dalam hal ini, Google akan berusaha untuk menghindari dampak yang tidak adil pada orang-orang, terutama yang terkait dengan karakteristik sensitif seperti ras, etnis, jenis kelamin, pendapatan, kebangsaan atau keyakinan politik atau agama, antara lain.

sumber: https://ai.google


tinggalkan Komentar Anda

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai dengan *

*

*

  1. Penanggung jawab data: Miguel Ángel Gatón
  2. Tujuan data: Mengontrol SPAM, manajemen komentar.
  3. Legitimasi: Persetujuan Anda
  4. Komunikasi data: Data tidak akan dikomunikasikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Basis data dihosting oleh Occentus Networks (UE)
  6. Hak: Anda dapat membatasi, memulihkan, dan menghapus informasi Anda kapan saja.