הרובוט הזה למד איך להגיד 'לא' לדרישות האנושות

Anonim

רובוטים, בדיוק כמו בני אדם, צריכים ללמוד מתי לומר "לא". אם בקשה היא בלתי אפשרית, היא עלולה להזיק, או להסיח את דעתם מהמשימה שלפנינו, אז זה לטובתה של "בוט האדם שלו כאחד עבור דיפלומטיה לא תודה להיות חלק מהשיחה.

אבל מתי צריך מכונה לדבר בחזרה? ובאיזה תנאים? מהנדסים מנסים להבין איך להחדיר את התחושה של איך ומתי כדי להגן על צווי הומנואידים.

לראות את הרובוט הזה נאו מסרבים ללכת קדימה, בידיעה כי כך יגרמו לו ליפול בקצה השולחן:

דברים פשוטים, אבל בהחלט חיוני עבור מתנהג כמו בדיקה על טעות אנוש. החוקרים גורדון בריגס ומתיאס שייץ מאוניברסיטת טאפטס פיתחו אלגוריתם מורכב המאפשר לרובוט להעריך את מה שאדם ביקש ממנו לעשות, להחליט אם עליו לעשות זאת, ולהגיב בצורה הולמת. המחקר הוצג בפגישה האחרונה של האגודה לקידום בינה מלאכותית.

הרובוט שואל את עצמו סדרה של שאלות הקשורות אם המשימה היא מסוגלת לעשות. האם אני יודע איך לעשות את זה? האם אני מסוגל לעשות זאת עכשיו? האם אני בדרך כלל מסוגל פיזית לעשות את זה? האם אני מסוגל לעשות זאת עכשיו? האם אני מחויב על סמך התפקיד החברתי שלי לעשות את זה? האם היא מפרה כל עיקרון נורמטיבי לעשות זאת?

התוצאה היא רובוט שנראה לא רק הגיוני אבל, יום אחד, אפילו חכם.

שימו לב איך נאו משנה את דעתו על הליכה קדימה אחרי ההבטחות האנושיות לתפוס אותו. זה יהיה קל לדמיין תרחיש אחר, שבו הרובוט אומר, "אין סיכוי, למה אני צריך לבטוח בך?"

אבל נאו הוא יצור חברתי, לפי עיצוב. כדי לרצות את בני האדם הוא בדנ"א שלו, ולכן בהתחשב במידע שהאדם מתכוון לתפוס אותו, הוא פוסע בעיוורון אל התהום. בטח, אם האדם היה שולל את האמון שלו, הוא היה חסום, אבל הוא בוטח בכל מקרה. זוהי דרכו של נאו.

ככל שחברי הרובוט מתוחכמים יותר, מהנדסי הרובוט יצטרכו להתמודד עם שאלות אלה. הרובוטים יצטרכו לקבל החלטות לא רק על שמירת הבטיחות שלהם, אלא על שאלות אתיות גדולות יותר. מה אם אדם מבקש רובוט להרוג? לבצע הונאה? להרוס עוד רובוט?

לא ניתן להפריד את רעיון האתיקה של המכונות מהאינטליגנציה המלאכותית - אפילו את מכוניות העתיד של העתיד שלנו יש צורך בהנדסה כדי לבצע בחירות של חיים או מוות בשמנו. שיחה זו תהיה בהכרח מורכבת יותר מאשר רק מתן צועדים.