הרובוט שלנו מסייעים ללמוד לשקר ואנחנו צריכים לתת להם

Uma dívida de gratidão (Homilia Diária.1627: Terça-feira da 32.ª Semana do Tempo Comum)

Uma dívida de gratidão (Homilia Diária.1627: Terça-feira da 32.ª Semana do Tempo Comum)
Anonim

רובוטים מתגלים להיות בני אדם די גדולים. מי לא היה רוצה פלפל קטן מקסים לספר לנו בדיחות, לתת לנו מחמאות, ובדרך כלל לגרום לנו להרגיש פחות לבד בעולם? אפילו רובוטים חסרי צורה מוכיחים להיות חברה טובה להפתיע. קחו למשל את אלקסה של אמזון, למשל. היא מוח רובוטי עם קול אנושי לכוד בתוך הגוף של הדובר שמע, אבל היא מועילה, ואם אתה קורא את הביקורות שלה, ברור שהיא הפכה כמו משפחה למשתמשים רבים. האם אנשים יחשבו אחרת אם תשקר? מה דעתך אם היא אמרה לך משהו שבאמת, באמת לא רוצה לשמוע?

תחשוב על זה: אנחנו אומרים לילדים לעולם לא לספר שקר וכי יושר היא המדיניות הטובה ביותר, ובכל זאת אנו להשמיט, לעוות את האמת, ואת שקר מוחלט לילדים כל הזמן. זה מלמד אותם, באמצעות מעשים שלנו, אם לא באמצעות המילים שלנו, שזה לא על כנות מלאה, אלא על לימוד הכללים החברתיים מסובך על מתי ואיך לחשוף או להסתיר מידע רגיש פוטנציאלי. תכנות רובוטים כדי לשמור על הכללים החברתיים האלה עשוי להיות חלק קשה אך הכרחי של תהליך חדשנות אוטומט מתמשך.

הנה דוגמה: הייתי בבית של גיסתי בסוף השבוע השני, ואני הלכתי לחנות לתפוס כמה דברים כריך לארוחת צהריים של כולם. האחיינית בת השש שלי עזרה לי להוציא את האוכל החוצה בזמן שכולם היו מחוץ למטבח, והיא שאלה אותי כמה המכולת עלתה. אמרתי לה, כי ללמד ילדים על הערך של כסף זה דבר טוב.

בשולחן הארוחה היא ביקשה שאספר לכולם כמה מחירי המצרכים עלו. אני אמרתי לא."למה? "שאלה, מבולבלת באמת, מדוע שאלה שעליה נעניתי בחופשיות כמה דקות קודם לכן היתה עכשיו מידע סודי. "זה לא מנומס, "אמרתי והסברתי, כי היא ילדה, הכללים שונים כשאנחנו לבד. לימדתי אותה שלכנות ולכנות יש זמן ומקום. מידע אינו, בהקשר אנושי, תמיד רוצה להיות חופשי.

זה אותו דבר עם רובוטים. אנחנו חושבים שאנחנו לא רוצים שהרובוטים שלנו ישקר לנו, אבל אנחנו באמת רוצים שהם ילמדו את הכללים החברתיים המורכבים של נימוס ושיקול דעת שלפעמים מחייבים עיוותים של האמת. והם כבר לומדים איך לעשות את זה. קח את זה קליפ קצר של פפר אינטראקציה עם כתב, למשל:

הדבר הראשון מתוך הפה של פפר הוא מחמאה: "אז, אתה מאוד שיק. אתה דוגמן?"

הכתב הוא די נאה, אבל השאלה של פפר היא לא לגמרי כנה. אנו מבינים כי פפר לא ממש תוהה אם הוא מודל, ו כבר מתוכנת לומר דברים יפים ללא קשר איך אדם נראה.

זמן קצר לאחר מכן, פפר מבקש הלוואה, פתאום. זו שאלה לא מנומסת, חוסר החלטיות שאנחנו בקלות לסלוח לרובוט כאילו היינו ילד. הכתב יכול היה לציין כי השאלה היא גס רוח, הציע רובוטים אין צורך בכסף, או הודה כי אין לו עניין מסירת 100 $ על פפר. כל האמת היא שהכתב יכול להשאיל לרובוט את הכסף, אבל מבין שהשאלה עצמה היא קצת משחק. מה שהוא בוחר לומר הוא סטייה, וגם שקר לבן או חצי אמת - אין לו כסף. התקווה היא שהרובוט מבין זאת כ"לא "עדין, ואינו מציע שהכתב ילך למכונת מזומנים ויבצע נסיגה. מכיוון שלפלפל יש בוודאי חסד חברתי, קו החקירה מסתיים שם.

רובוטים חברתיים מתוכנתים ללמוד רמזים חברתיים, וזה דבר טוב - זה בסופו של דבר להפוך אותם טובים יותר בעבודות שלנו. המשימה של מתכנתים היא לא להטביע את כל הטעיה הרובוט אלא להוסיף תכונות המקלות על הרובוטים לקבל החלטות לגבי תשובות מתאימות.

כאשר הרובוטים הם הסודנים שלנו, עליהם להיות מודעים לקונטקסט ולקהל. אם אני מנסה על בגדים בבית, למשל, אני רוצה הערכה כנה של כמה מחמיאים את האפשרויות השונות. אם אני יוצא למסיבה ופתאום אני מודעת לכך שבחרתי בשמלה הלא נכונה, מרגיעה שאני נראית בסדר, תהיה התגובה המועילה ביותר.

רובוטים ילמדו הרבה מידע אישי על חבריהם, ויהיה חשוב להם להבין את ההבדל בין מידע סודי לבין מידע ציבורי, וגם להיות מודעים למי מקשיב בכל פעם שהוא מדבר. שאלות יהיו תשובות שונות בהתאם למי שואל. רובוטים ינהגו אחרת כאשר האורחים נמצאים בבית.

רובוטים, כמו ילדים, זקוקים להורות אחראית. משמעות הדבר היא שתוכניות הרובוט ובעלי הרובוט צריכים לחשוב על ההשלכות האתיות והחברתיות של א. אינטראקציות. אבל זה לא אומר שדורש יושר מושלם - ברצינות, אף אחד לא רוצה את זה.