Google mengeluarkan satu siri panduan untuk membuat "AI yang bertanggungjawab"

Terdapat begitu banyak aplikasi kecerdasan buatan yang menjadikan kehidupan seharian kita menjadi lebih mudah dan produktif. Pada kadar inovasi, semuanya dapat dilakukan dengan satu perintah.

AI lebih mudah diakses oleh bilangan orang yang semakin meningkat di seluruh dunia, tetapi kerana teknologi ini mencipta kemungkinan baru untuk penambahbaikan dan bantuan harian, kemajuannya juga menimbulkan persoalan tentang cara kerjanya - misalnya, masalah apa yang dapat ditimbulkannya jika tidak dikembangkan secara bertanggungjawab.

Seperti namanya, itu adalah kecerdasan yang diciptakan oleh manusia, tetapi dilakukan oleh mesin dan yang, sampai batas tertentu, memiliki kemampuan yang sama seperti manusia: ia belajar, bertambah baik dan dapat berfungsi di bidang tertentu.

Apabila kita bercakap mengenai kecerdasan buatan, dua mazhab pemikiran hebat bertembung: mereka yang menganggapnya adalah alat, tidak lebih, dan mereka yang percaya bahawa ia hanya masalah masa sebelum ia menjadi ancaman bagi umat manusia.

Apabila keupayaan dan kemungkinan AI kita berkembang, tKami juga akan melihat bahawa ia akan digunakan untuk tujuan berbahaya atau berniat jahat. Itulah sebabnya mereka yang melihat teknologi ini sebagai ancaman memandangnya dengan rasa curiga dan takut akan kesannya terhadap kehidupan mereka. Beberapa personaliti terkenal seperti Elon Musk ada di antara mereka.

Bos Tesla dan SpaceX telah memberi amaran lebih dari satu kali: AI akan mengatasi kebolehan kognitif manusia. Musk percaya bahawa teknologi ini akan mengancam manusia pada masa akan datang, terutamanya di tempat kerja.

Inilah sebabnya mengapa syarikatnya Neuralink mengusahakan antaramuka mesin-otak yang akan dimasukkan ke dalam tengkorak untuk mempersiapkan umat manusia untuk masa depan "maut" di mana robot akan memerintahnya. Yang benar adalah, ada beberapa filem sci-fi yang menakutkan orang juga, yang menampilkan niaga hadapan dystopian di mana AI dapat mengawal manusia.

Para penyelidik mengatakan bahawa AI tidak mungkin menunjukkan emosi manusia seperti cinta atau benci dan bahawa tidak ada alasan untuk mengharapkan AI menjadi baik atau jahat.

Dalam pengertian ini, Google prihatin dengan bahaya yang dapat ditimbulkan oleh AI apabila anda tidak berkembang dengan berhati-hati dan cara anda berinteraksi dengan orang lain. AI mesti belajar seperti manusia, tetapi tetap cekap dan tidak menjadi mesin berbahaya. Google telah menjadi pemain utama dalam pengembangan AI.

Dengan program penyelidikan Pentagon, "Project Maven," syarikat telah "melatih" AI dalam mengklasifikasikan objek dalam gambar drone. Dengan kata lain, ia telah mengajar drone untuk memahami apa yang mereka lihat.

Google Now mengatakan kecerdasan buatan harus hidup dengan berat sebelah dan syarikat itu ingin melakukan sesuatu mengenainya. Untuk melakukan ini, Google telah melancarkan program yang sesuai dengan tajuk "AI Bertanggungjawab".

Dua asas AI dari Google adalah "bertanggungjawab terhadap orang lain" dan "mengelakkan daripada membuat atau memperkuat prasangka yang tidak adil". Ini termasuk pengembangan sistem kecerdasan buatan yang dapat ditafsirkan yang menempatkan orang di barisan depan dalam setiap tahap proses pengembangan, sambil memastikan bahawa bias yang tidak adil yang mungkin dimiliki manusia tidak tercermin dalam hasil model.

Menurut garis panduan ini, Google berusaha untuk mengembangkan kecerdasan buatan secara bertanggungjawab dan mewujudkan sejumlah bidang aplikasi tertentu yang tidak akan dikejarnya, seperti tidak menerapkan kecerdasan buatan dalam teknologi yang dapat menyebabkan bahaya atau kecederaan pada orang.

Google akan berusaha untuk memastikan bahawa maklumat yang ada melalui model AI tepat dan berkualiti tinggi. Tambahan pula, teknologi "mesti dipertanggungjawabkan kepada orang lain, tunduk pada arahan dan kawalan manusia."

Algoritma kecerdasan buatan dan set data dapat mencerminkan, memperkuat, dan mengurangkan bias yang tidak adil. Dalam pengertian ini, Google akan berusaha untuk mengelakkan kesan tidak adil terhadap orang, terutama yang berkaitan dengan ciri sensitif seperti bangsa, etnik, jantina, pendapatan, kewarganegaraan atau kepercayaan politik atau agama, antara lain.

Fuente: https://ai.google


Tinggalkan komen anda

Alamat email anda tidak akan disiarkan. Ruangan yang diperlukan ditanda dengan *

*

*

  1. Bertanggungjawab atas data: Miguel Ángel Gatón
  2. Tujuan data: Mengendalikan SPAM, pengurusan komen.
  3. Perundangan: Persetujuan anda
  4. Komunikasi data: Data tidak akan disampaikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Pangkalan data yang dihoskan oleh Occentus Networks (EU)
  6. Hak: Pada bila-bila masa anda boleh menghadkan, memulihkan dan menghapus maklumat anda.