AI טוב יותר ב פשרה מאשר בני אדם, מוצא מחקר חדש

GHOSTEMANE - AI (OFFICIAL VIDEO)

GHOSTEMANE - AI (OFFICIAL VIDEO)
Anonim

בואו נודה בזה. מאז שהאינטליגנציה המלאכותית חלמה לראשונה, בני האדם פחדו מהיום שבו שולטים בשליטי AI שלנו. אבל כמה חוקרים כבר בודקים את היכולת של בינה מלאכותית לא רק להתחרות עם האנושות, אלא גם לשתף פעולה.

במחקר שפורסם ביום חמישי ב תקשורת טבע צוות של פרופסורים למדעי המחשב של BYU, יעקב קרנדל ומייקל גודריץ ', יחד עם עמיתים ב- MIT ובאוניברסיטאות אחרות, יצרו אלגוריתם ללמד מכונות שיתוף פעולה ופשרה.

החוקרים תכננו את המכונות באמצעות אלגוריתם בשם S # וניהלו אותם באמצעות מספר משחקים עם שותפים שונים - מכונת-מכונה, מחשב-אנושי ואדם-אנושי - כדי לבדוק איזו התאמה תביא לפשרות רבות. מכונות (או לפחות אלה מתוכנת עם S #), מתברר, הם הרבה יותר טוב בפשרה מאשר בני אדם.

אבל זה אולי אומר יותר על "כשלים אנושיים", אומר החוקר הראשי יעקב קרנדל הפוך. "למשתתפים אנושיים יש נטייה להיות לא נאמנים - הם היו פוחדים בעיצומו של קשר של שיתוף פעולה - ולא ישר - כמחצית מהמשתתפים שלנו בחרו שלא לעקוב אחר ההצעות שלהם - בשלב מסוים באינטראקציה".

מכונות שתוכנתו כדי להעריך את הכנות, מאידך גיסא, היו כנות. "האלגוריתם המסוים הזה לומד שהמאפיינים המוסריים טובים. זה מתוכנן לא לשקר, והוא גם לומד לשמור על שיתוף פעולה ברגע שהוא עולה ", אומר קרנדל.

בנוסף, המחקר מצא כי אסטרטגיות שיתוף פעולה מסוימות היו יעילות יותר מאחרות. אחד מהם היה "שיחה זולה", אותות מילוליים פשוטים המגיבים למצב נתון, כמו "מתוק". אנחנו מתעשרים! "או "אני מקבל את ההצעה האחרונה שלך." או, כדי להביע מורת רוח, "קלל אותך!" "תשלמי על זה! "או אפילו "על הפנים שלך!

לא משנה איזה סוג של משחק היה משחק או מי שיחק, לדבר זול הכפיל את כמות שיתוף הפעולה. זה גם הומאניזציה המכונות, עם שחקנים אנושיים לעתים קרובות מסוגל לדעת אם הם היו אינטראקציה עם מכונה או אדם.

מאחר שהמוקד של מחקר זה היה על בדיקת האלגוריתם S #, אחד החסרונות של המחקר הוא שהוא אינו מביא בחשבון הבדלים תרבותיים בין בני אדם שעשויים להשפיע על האופן שבו אוכלוסיות שונות עשויות להשתמש או לפרש אסטרטגיות כמו שיחות זולות, או כיצד שחקנים אנושיים רבים עשויים לעסוק בהונאה או חוסר נאמנות.

בסיפור הקצר האחרון של ספרו המפורסם של יצחק אסימוב משנת 1950 אני רובוט - "הסכסוך המובהק" - AI overords לעשות למעשה, להשתלט על כדור הארץ. אבל מכיוון שהם סבירים כל כך, ומתוכנתים בכמה כללים אתיים בלתי ניתנים לשבירה, זה דבר טוב לגזע האנושי. וכפי שמראה מחקר זה, כי האינטראקציות האנושיות מבולבלות ומסובכות, אולי, אנחנו יכולים לסמוך על מכונות. בהנחה כמובן, אם הם כבר מתוכנת עבור כנות.

תקציר:

מאז אלן טיורינג חוזה אינטליגנציה מלאכותית, ההתקדמות הטכנית נמדדה לעתים קרובות על ידי היכולת להביס בני אדם במפגשים עם סכום אפס (למשל, שחמט, פוקר או גו). פחות תשומת לב ניתנה לתרחישים שבהם שיתוף הפעולה בין אדם למכונה הוא מועיל, אך לא טריוויאלי, כגון תרחישים שבהם ההעדפות האנושיות והמכונות אינן מיושרות במלואן ולא נמצאות בקונפליקט. שיתוף פעולה אינו מחייב כוח חישובי גרידא, אלא הוא מקודד על ידי אינטואיציה, נורמות תרבותיות, רגשות, אותות, ומסרים מתפתחים מראש. כאן, אנו מפתחים אלגוריתם המשלב אלגוריתם של למידה מתקדמת עם מנגנוני איתות. אנו מראים כי אלגוריתם זה יכול לשתף פעולה עם אנשים ואלגוריתמים אחרים ברמות כי יריבו שיתוף פעולה אנושי במגוון של שני שחקנים חוזרים משחקים סטוכסטיים. תוצאות אלה מצביעות על כך ששיתוף פעולה כללי בין אדם למכונה הוא אפשרי, תוך שימוש במנגנונים אלגוריתמיים לא-טריוויאליים, אך בסופו של דבר פשוטים.