הנה איך אנחנו יכולים לעצור בעתיד רמאי A.I. מ חיקוי HAL 9000

HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"

HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"
Anonim

איך נעצור את העתיד א. מהציית פקודות ובחירה ללכת בדרכה? זה אולי נשמע כמו העלילה מ 2001: אודיסיאה בחלל, אבל אחד המומחים טוען שזה משהו שאנחנו יכולים כבר להתחיל לחשוב עליו. בטח, אנחנו יכולים לכבות את אלגוריתם החיפוש של Google אם זה אי פעם הלך נוכלים, אבל כאשר מתמודד עם ההשלכות הכספיות והמשפטיות, זה יכול להיות קל לומר מאשר לעשות. בעתיד, ככל שאנו גדלים תלויים יותר מתקדם א 'א', זה יכול להיות בלתי אפשרי.

"אלגוריתם זה לא היה בכוונה בעיצוב עצמה להיות בלתי אפשרי לאתחל או לכבות, אבל זה שיתוף התפתח להיות ככה ", אמר סטיוארט ארמסטרונג, חוקר במכון העתיד של האנושות, בפיראטים הפסגה 2016 ביום רביעי. משמעות הדבר היא כי שינוי עם תוצאות לא מכוונות יכול להיות קשה לתקן, וזה לא יכול להיות הראשון א. למצוא את עצמה במצב הזה.

הפתרון של יצחק אסימוב היה שלושת חוקי הרובוטיקה, שקשה לרשום רעיונות כמו לא לגרום נזק לבני אדם. הבעיה היא שהנזק הוא סובייקטיבי למדי ופתוח לפרשנות. בני האדם עובדים יותר על ערכים, כמו ההבנה כי זה רע לגרום נזק ולפרש את המצב, מאשר עובדים על איזה כלל קשה כי הם לא צריכים להזיק.

"בגלל זה סוג של בעיה, כי אנשים הם הרבה יותר להוט עכשיו על השימוש מכונת למידה כדי לקבל ערכים ולא מנסה קוד אותם באופן מסורתי זה", אמר ארמסטרונג. "הערכים יציבים באופן שדברים אחרים אינם נמצאים בו. ערכים להגן על עצמם באופן מהותי."

אבל גם במצבים אלה, חשוב לתכנן א. לגרום להם להפריע בזמן שהם רצים. הפרעה בטוחה מאפשרת שינויים בטוחים במדיניות, אשר יכולים למנוע השלכות בלתי מכוונות מהערכים הנלמדים. אם HAL 9000 ניסתה פעם לעצור את הדלתות של תאי המפרץ, חשוב שנוכל לזהות שהערכים של א.י. מפוצצים ומתערבים מבלי לקחת את המערכת למצב לא מקוון.