A.I. מומחה וירג 'יניה Dignum: טרולי בעיה מראה למה אנחנו צריכים שקיפות

Anonim

אינטליגנציה מלאכותית זקוקה לשקיפות כדי שבני אדם יוכלו להחזיק בה בחשבון, טען חוקר. וירג 'יניה Dignum, פרופסור חבר באוניברסיטת דלפט טכנולוגיה, אמר לקהל באוניברסיטת ניו יורק ביום שישי כי אם אנחנו לא מבינים למה מכונות לפעול כמו שהם עושים, אנחנו לא יוכלו לשפוט את החלטותיהם.

דיגנום ציטט סיפור מאת דוד ברבי, סופר וחוקר מדעי, שפורסם ב פסיכולוגיה היום: "עדויות מראות שכאשר אנשים עובדים עם מכונות, הם מרגישים פחות תחושה של סוכנות ממה שהם עושים כשהם עובדים לבד או עם אנשים אחרים".

"בעיית העגלה", הסביר דיגנום, היא תחום שבו אנשים יכולים לשים אמונה עיוורת במכונה כדי לבחור את התוצאה הנכונה. השאלה היא האם להחליף את הידית ברכבת היוצאתטית היפותטית, כך שהיא הורגת אדם אחד במקום חמישה. אנשים מצפים מכונות לפתור את הבעיה בצורה רציונלית ביותר האפשרית. זה אולי לא תמיד כך, והשקיפות תסייע להסביר כיצד הגיעה המכונה להחלטה שלה.

"זה לא רק שרשרת רשת עמוקה מאוד של אירועים שאף אחד לא יכול להבין, אלא לעשות את ההסברים האלה בצורה שאנשים יכולים להבין", אמרה.

A.I. זה עושה את פעולתו ברור הוא תחום DARPA כבר לחקור. הסוכנות פירסמה בחודש אוגוסט הודעה כי היא מחפשת צוותים המעוניינים להסביר. פרויקטים, המכונה XAI. מערכות אלו יסייעו לחוקרים להבין מדוע. קיבל את ההחלטה כי הוא עשה, נותן יותר היקף להחליט מה לעשות עם המידע שנוצר במקום אמון עיוור המכונה.

עם הלמידה המכונה, ציין דיגנום כי שקיפות היא קריטית יותר מתמיד. "אנחנו לא יכולים לצפות שהמערכות, ובעיקר מכונות הלמידה של המחשב, ילמדו, ויידעו את זה מיד", אמרה."אנחנו לא מצפים מהנהגים שלנו, כשהם נוהגים, כדי להבין את חוקי התנועה. במדינות רבות, הם משתמשים בלוחות "L" כדי להראות, "אני לומד, סלח לי על הטעויות שאני יכול לעשות." "צפייה AI, הבנה איך זה מגיע החלטות מסוימות ומבוססת על זה יהיה חיוני עצירת מכונות שעדיין לומדות מקבלת החלטות רעות.