גוגל פרסמה סדרה של הנחיות ליצירת "AI אחראי"

יש כל כך הרבה אפליקציות של בינה מלאכותית שהופכות את חיי היומיום שלנו להרבה יותר קלים ופרודוקטיביים. בקצב החדשנות ניתן לעשות הכל בפקודה אחת.

AI נגיש יותר למספר הולך וגדל של אנשים ברחבי העולם, אך מכיוון שטכנולוגיה זו יוצרת אפשרויות חדשות לשיפור ועזרה יומיומית, ההתקדמות שלה מעלה גם שאלות לגבי אופן הפעולה שלה - למשל, אילו בעיות היא יכולה לגרום אם היא לא מפותחת באחריות.

כפי שהשם מרמז, מדובר באינטליגנציה שנוצרה על ידי האדם, אך מתבצעת על ידי מכונות ויש לה, במידה מסוימת, את אותן יכולות כמו בני האדם: היא לומדת, משפרת ומסוגלת לתפקד באזורים מסוימים.

כשאנחנו מדברים על בינה מלאכותית, שתי אסכולות נהדרות מתנגשות: אלו שחושבים שזה כלי, לא יותר, ואלה שמאמינים שזה רק עניין של זמן עד שהוא יהפוך לאיום על המין האנושי.

ככל שיכולות ואפשרויות ה- AI שלנו מתרחבות, tנראה גם שהוא ישמש למטרות מסוכנות או זדוניות. זו הסיבה שמי שרואה בטכנולוגיה זו איום רואה אותה בחשדנות ובפחד מההשפעה שיש לה על חייהם. כמה אישים מפורסמים כמו אילון מאסק הם ביניהם.

טסלה ובוס SpaceX כבר הזהירו לא פעם: AI יעלה על ביצועיו יכולות קוגניטיביות אנושיות. מאסק מאמין שטכנולוגיה זו תאיים על בני האדם בעתיד, במיוחד במקום העבודה.

זו גם הסיבה שחברת Neuralink שלו עובדת על ממשקי מכונת מוח שיוחדרו לגולגולת כדי להכין את האנושות לעתיד "קטלני" שבו הרובוטים ישלטו בו. האמת היא שישנם כמה סרטי מדע בדיוני שהפחידו אנשים, המציגים עתידיים דיסטופיים בהם AI יכול לשלוט בבני אדם.

החוקרים אומרים כי סביר להניח ש- AI לא יציג רגשות אנושיים כמו אהבה או שנאה ושאין שום סיבה לצפות ש- AI יהפוך נחמד בכוונה או מרושע.

במובן זה, גוגל חששה מהסכנה שעלולה להוות AI כשאתה לא מתפתח בזהירות ובדרך שאתה מתקשר עם אנשים. AI צריך ללמוד כמו בן אנוש, אך להישאר יעיל ולא להפוך למכונה מסוכנת. גוגל הייתה שחקנית מרכזית בפיתוח AI.

עם תוכנית המחקר של פנטגון, "Project Maven", החברה "הכשירה" AI בסיווג אובייקטים בתמונות מזל"ט. במילים אחרות, זה לימד מזל"טים להבין על מה הם מסתכלים.

גוגל אומר כעת כי הבינה המלאכותית חייבת לחיות עם הטיות והחברה רוצה לעשות משהו בנידון. לשם כך גוגל הקימה תוכניות מתאימות בנושא "AI אחראי".

שניים מהיסודות של ה- AI של גוגל הם "אחריות כלפי אנשים" ו"הימנעות מיצירה או חיזוק של דעות קדומות לא הוגנות ". זה כולל פיתוח מערכות בינה מלאכותית הניתנות לפרשנות המציבות אנשים בקדמת הבמה בכל שלב בתהליך הפיתוח, תוך הקפדה על ההטיות הלא הוגנות שאדם יכול לבוא לידי ביטוי בתוצאות המודל.

על פי הנחיה זו, גוגל שואפת לפתח בינה מלאכותית בצורה אחראית ומקימה מספר תחומי יישום ספציפיים שלא תעסוק בהם, כמו למשל לא ליישם בינה מלאכותית בטכנולוגיות שעלולות לגרום נזק או פגיעה באנשים.

Google ישתדל להבטיח את המידע הזמין באמצעות מודלים של AI להיות מדויקים ואיכותיים. יתר על כן, הטכנולוגיה "חייבת להיות אחראית לאנשים, בכפוף לכיוון ובקרה אנושית."

אלגוריתמים וערכות נתונים של בינה מלאכותית יכולים לשקף, לחזק ולהפחית הטיות לא הוגנות. במובן זה, גוגל תשאף למנוע השפעות בלתי הוגנות על אנשים, במיוחד כאלה הקשורים למאפיינים רגישים כמו גזע, מוצא אתני, מין, הכנסה, לאום או אמונות פוליטיות או דתיות, בין היתר.

מקור: https://ai.google


היה הראשון להגיב

השאירו את התגובה שלכם

כתובת הדוא"ל שלך לא תפורסם. שדות חובה מסומנים *

*

*

  1. אחראי לנתונים: מיגל אנחל גטון
  2. מטרת הנתונים: בקרת ספאם, ניהול תגובות.
  3. לגיטימציה: הסכמתך
  4. מסירת הנתונים: הנתונים לא יועברו לצדדים שלישיים אלא בהתחייבות חוקית.
  5. אחסון נתונים: מסד נתונים המתארח על ידי Occentus Networks (EU)
  6. זכויות: בכל עת תוכל להגביל, לשחזר ולמחוק את המידע שלך.