Google เปิดตัวชุดแนวทางสำหรับการสร้าง "AI ที่รับผิดชอบ"

มีแอปปัญญาประดิษฐ์มากมายที่ทำให้ชีวิตประจำวันของเราง่ายขึ้นและมีประสิทธิผลมากขึ้น ก้าวทันนวัตกรรมทุกอย่างทำได้ด้วยคำสั่งเดียว

AI สามารถเข้าถึงได้มากขึ้นสำหรับผู้คนจำนวนมากขึ้น ทั่วโลก แต่เนื่องจากเทคโนโลยีนี้สร้างความเป็นไปได้ใหม่ ๆ สำหรับการปรับปรุงและการช่วยเหลือในชีวิตประจำวันความก้าวหน้าของเทคโนโลยีนี้ยังทำให้เกิดคำถามเกี่ยวกับวิธีการทำงานเช่นปัญหาที่อาจทำให้เกิดขึ้นได้หากไม่ได้รับการพัฒนาอย่างมีความรับผิดชอบ

ตามชื่อที่แนะนำมันเป็นความฉลาดที่มนุษย์สร้างขึ้น แต่ดำเนินการโดยเครื่องจักรและมีความสามารถเช่นเดียวกับมนุษย์ในระดับหนึ่งคือเรียนรู้ปรับปรุงและสามารถทำงานได้ในบางพื้นที่

เมื่อเราพูดถึงปัญญาประดิษฐ์โรงเรียนแห่งความคิดที่ยิ่งใหญ่สองแห่งขัดแย้งกัน: ผู้ที่คิดว่ามันเป็นเครื่องมือไม่มีอีกแล้วและผู้ที่เชื่อว่าเป็นเพียงเรื่องของเวลาก่อนที่มันจะกลายเป็นภัยคุกคามต่อเผ่าพันธุ์มนุษย์

เมื่อความสามารถและความเป็นไปได้ของ AI ของเราขยายตัวขึ้น tนอกจากนี้เรายังจะเห็นว่าจะถูกใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายหรือเป็นอันตราย นั่นคือเหตุผลที่ผู้ที่มองว่าเทคโนโลยีนี้เป็นภัยคุกคามมองด้วยความสงสัยและกลัวว่าจะมีผลกระทบต่อชีวิตของพวกเขา บุคคลที่มีชื่อเสียงบางคนเช่น Elon Musk อยู่ในหมู่พวกเขา

เจ้านาย Tesla และ SpaceX ได้เตือนมากกว่าหนึ่งครั้งแล้ว: AI จะมีประสิทธิภาพดีกว่า ความสามารถในการรับรู้ของมนุษย์ Musk เชื่อว่าเทคโนโลยีนี้จะคุกคามมนุษย์ในอนาคต โดยเฉพาะในที่ทำงาน

นี่คือเหตุผลที่ บริษัท Neuralink ของเขากำลังทำงานเกี่ยวกับอินเทอร์เฟซของเครื่องจักรสมองที่จะสอดเข้าไปในกะโหลกศีรษะเพื่อเตรียมมนุษยชาติสำหรับอนาคตที่ "ร้ายแรง" ซึ่งหุ่นยนต์จะปกครองมัน ความจริงก็คือมีภาพยนตร์ไซไฟบางเรื่องที่ทำให้ผู้คนหวาดกลัวเช่นกันโดยมีฟิวเจอร์สดิสโทเปียที่ AI ควบคุมมนุษย์ได้

นักวิจัยกล่าวว่า AI ไม่น่าจะแสดงอารมณ์ของมนุษย์ได้ เช่นความรักหรือความเกลียดชังและไม่มีเหตุผลที่จะคาดหวังให้ AI เป็นคนดีหรือมีเจตนาโดยเจตนา

ในแง่นี้Google กังวลเกี่ยวกับอันตรายที่ AI สามารถก่อให้เกิด เมื่อคุณไม่พัฒนาด้วยความระมัดระวังและวิธีที่คุณโต้ตอบกับผู้คน AI ต้องเรียนรู้เหมือนมนุษย์ แต่ยังคงมีประสิทธิภาพ และไม่กลายเป็นเครื่องจักรอันตราย Google เป็นผู้มีบทบาทสำคัญในการพัฒนา AI

ด้วยโครงการวิจัยของเพนตากอน "Project Maven" บริษัท ได้ "ฝึกอบรม" AI ในการจำแนกวัตถุในภาพโดรน กล่าวอีกนัยหนึ่งก็คือมันได้สอนให้โดรนเข้าใจสิ่งที่พวกเขากำลังมองหา

Google ตอนนี้กล่าวว่าปัญญาประดิษฐ์ต้องอยู่กับอคติ และ บริษัท ต้องการทำบางสิ่งเกี่ยวกับเรื่องนี้ ในการดำเนินการดังกล่าว Google ได้วางโปรแกรมที่เหมาะสมในหัวข้อ "Responsible AI"

ปัจจัยพื้นฐานสองประการของ AI ของ Google คือ "รับผิดชอบต่อผู้คน" และ "หลีกเลี่ยงการสร้างหรือตอกย้ำอคติที่ไม่เป็นธรรม". ซึ่งรวมถึงการพัฒนาระบบปัญญาประดิษฐ์ที่ตีความได้ซึ่งทำให้ผู้คนอยู่แถวหน้าของทุกขั้นตอนของกระบวนการพัฒนาในขณะเดียวกันก็ทำให้มั่นใจได้ว่าอคติที่ไม่เป็นธรรมของมนุษย์อาจไม่สะท้อนออกมาในผลลัพธ์ของแบบจำลอง

ตามแนวทางนี้ Google มุ่งมั่นที่จะพัฒนาปัญญาประดิษฐ์อย่างมีความรับผิดชอบและกำหนดพื้นที่การใช้งานเฉพาะจำนวนมากที่จะไม่ดำเนินการเช่นการไม่ใช้ปัญญาประดิษฐ์ในเทคโนโลยีที่อาจก่อให้เกิดอันตรายหรือการบาดเจ็บต่อผู้คน

Google จะพยายามตรวจสอบให้แน่ใจว่าข้อมูลที่มีอยู่ผ่านแบบจำลอง AI ถูกต้องและมีคุณภาพสูง นอกจากนี้เทคโนโลยี "ต้องรับผิดชอบต่อผู้คนโดยอยู่ภายใต้การควบคุมของมนุษย์"

อัลกอริทึมและชุดข้อมูลปัญญาประดิษฐ์สามารถสะท้อนเสริมสร้างและลดอคติที่ไม่เป็นธรรม ในแง่นี้ Google จะพยายามหลีกเลี่ยงผลกระทบที่ไม่เป็นธรรมต่อผู้คนโดยเฉพาะสิ่งที่เกี่ยวข้องกับลักษณะที่ละเอียดอ่อนเช่นเชื้อชาติชาติพันธุ์เพศรายได้สัญชาติหรือความเชื่อทางการเมืองหรือศาสนาเป็นต้น

Fuente: https://ai.google


แสดงความคิดเห็นของคุณ

อีเมล์ของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมายด้วย *

*

*

  1. ผู้รับผิดชอบข้อมูล: Miguel ÁngelGatón
  2. วัตถุประสงค์ของข้อมูล: ควบคุมสแปมการจัดการความคิดเห็น
  3. ถูกต้องตามกฎหมาย: ความยินยอมของคุณ
  4. การสื่อสารข้อมูล: ข้อมูลจะไม่ถูกสื่อสารไปยังบุคคลที่สามยกเว้นตามข้อผูกพันทางกฎหมาย
  5. การจัดเก็บข้อมูล: ฐานข้อมูลที่โฮสต์โดย Occentus Networks (EU)
  6. สิทธิ์: คุณสามารถ จำกัด กู้คืนและลบข้อมูลของคุณได้ตลอดเวลา