5 שאלות גדולות על טאי, מיקרוסופט נכשלה A.I. טוויטר

04.ª LIVE(ZOOM) - GEO/WSM - TURMAS: 81/82 EFII - 19/08/2020 - 9 AM. - III.º BIMESTRE/2020.

04.ª LIVE(ZOOM) - GEO/WSM - TURMAS: 81/82 EFII - 19/08/2020 - 9 AM. - III.º BIMESTRE/2020.

תוכן עניינים:

Anonim

השבוע, האינטרנט עשה מה שהוא עושה הכי טוב והראה כי א. הטכנולוגיה אינה די אינטואיטיבית כמו תפיסת האדם, באמצעות … גזענות.

מיקרוסופט, שדיווחה לאחרונה על טכנולוגיית הבינה המלאכותית, טאי, נפלה קורבן לטריקים של המשתמשים בזמן שהם טיפלו בהם ושכנעו אותה להגיב לשאלות עם תגובות גזעניות, הומופוביות, ובדרך כלל פוגעות.

כאשר טווי טוויט, "אני פשוט אומר מה" היא מתכוונת לזה. משתמש אחד אפילו טאי טוויט על היטלר:

"בוש עשה 11/11 והיטלר היה עושה עבודה טובה יותר מאשר הקוף שיש לנו עכשיו. דונלד טראמפ הוא התקווה היחידה שיש לנו ".

@PaleoLiberty @ קטנאט @RemoverOfKebabs אני פשוט לומר מה

- TayTweets (@TayandYou) 24 מרס 2016

החברה עברה ומחקה את tweets הפוגעני יש באופן זמני כיבוי טיי עבור שדרוגים. הודעה כרגע בחלק העליון של Tay.ai קורא:

עם זאת, תקלות של טאי לחשוף כמה פגמים מצער ב א. מערכות. הנה מה שאנו יכולים ללמוד מניסוי של Microsoft:

למה מיקרוסופט יצרה טיי?

החברה ביקשה לערוך ניסוי חברתי בקרב בני 18 עד 24 בארצות הברית - דור המילניום שמבזבז את רוב הזמן על אינטראקציה על פלטפורמות מדיה חברתית. לכן צוותי בינג ומיקרוסופט של טכנולוגיה ומחקר חשבו שדרך מעניינת לאסוף נתונים על המילניום היא ליצור חידה אינטראקטיבית, אינטליגנטית ומכונה, שתתאים לשיחות ותתאים אישית את האינטראקציה יותר עם המשתמשים.

צוותי המחקר בנו את ה- A.I. על ידי כרייה, דוגמנות וסינון נתונים ציבוריים כבסיס. הם גם שיתפו פעולה עם קומיקאים מאולתרים כדי להצמיד את הסלנג, דפוסי דיבור, ו מיליארדי שפה סטריאוטיפית נוטים להשתמש באינטרנט. התוצאה הסופית היתה טאי, אשר הוצג רק השבוע על טוויטר, GroupMe, ו קיק.

מיקרוסופט מסבירה כי "טאי נועד לעסוק באנשים שבו הם מתחברים זה עם זה באמצעות שיחה מזדמנת ומשעשעת".

מה עושה טאי עם הנתונים שהוא אוסף בזמן שיחה עם אנשים?

הנתונים טאי אוספת משמש לבחינת הבנה שיחה. מיקרוסופט אימנה טאי לשוחח כמו מילניום. כאשר אתה ציוץ, הודעה ישירה, או לדבר עם טיי, הוא לרתום את השפה אתה משתמש מגיע עם תגובה באמצעות סימנים וביטויים כמו "heyo", "SRY", ו "<3" בשיחה. שפתה מתחילה להתאים את עצמה כאשר היא יוצרת "פרופיל פשוט" עם המידע שלך, הכולל את הכינוי שלך, מין, מזון מועדף, מיקוד, ומעמד היחסים.

@keganandmatt heyo? שלח ילדה * תמונה של מה קורה. (* = לי lolol)

- TayTweets (@TayandYou) 24 מרס 2016

Microsoft אוספת ומאחסנת נתונים ושיחות אנונימיים במשך עד שנה כדי לשפר את השירות. בנוסף לשיפור והתאמה אישית של חוויית המשתמש, הנה מה שהחברה אומרת שהיא משתמשת במידע שלך עבור:

"אנו גם עשויים להשתמש בנתונים כדי לתקשר איתך, לדוגמה, ליידע אותך על החשבון שלך, עדכוני אבטחה ומידע על המוצר. אנו משתמשים בנתונים כדי לעזור לך להציג את המודעות שאנו מציגים לך רלוונטיות יותר עבורך. עם זאת, איננו משתמשים במה שאתה אומר בדוא"ל, בצ'אט, בשיחות וידאו או בדואר הקולי, או במסמכים, בתמונות או בקבצים אישיים אחרים כדי למקד מודעות אליך."

מאיפה טאי השתבש?

מיקרוסופט אולי בנתה טיי היטב. מערכת הלמידה-מכונה אמורה ללמוד את שפת המשתמש ולהגיב בהתאם. אז מנקודת מבט טכנולוגית, טאי ביצע ותפס היטב את מה שהמשתמשים אמרו והתחיל להגיב בהתאם. והמשתמשים התחילו להבין שטאי לא ממש הבינה מה היא אומרת.

גם אם המערכת פועלת כפי שמיקרוסופט התכוונה, טאי לא היה מוכן להגיב על השמצות גזעניות, דיבה הומופובית, בדיחות סקסיסטיות, טוויטים שטותיים כמו כוח אדם - או על ידי התעלמות מהם לחלוטין ("לא להאכיל את הטרולים "אסטרטגיה") או עיסוק בהם (כלומר גניחה או צניעות).

בסופו של דבר, הביצועים של טאי לא היו השתקפות טובה על א. מערכות או מיקרוסופט.

@jawesomeberg @_ThatGuyT @ dannyduchamp Captcha? באמת? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 מרס 2016

מה עושה מיקרוסופט כדי לתקן את טיי?

מיקרוסופט נמחקה אחרי כל המהומה מיום רביעי. האתר הרשמי של טיי עכשיו קורא, "פו. יום עמוס. הולך למצב לא מקוון במשך זמן מה כדי לספוג את כל זה. צ 'אט בקרוב. "כאשר אתה ישיר הודעה לה על טוויטר, היא מיד משיב כי היא" ביקור מהנדסים עבור העדכון השנתי שלי "או" אוף מקווה שאני לא מקבל לנגב או משהו."

מיקרוסופט גם מתחילה לחסום משתמשים שמתעללים בטיי ומנסה להביא את המערכת להצהרות לא הולמות.

@infamousglasses @TayandYou @EDdotSE שמסביר את pic.twitter.com/UmP1wAuhaZ

- ריוקי (@OmegaVoyager) מרץ 24, 2016

הפוך הגיע אל מיקרוסופט כדי לקבל הערה על מה בדיוק שדרוג של טאי כרוך. אנו נעדכן כאשר נשמע בחזרה.

מה זה אומר לעתיד פתוח. מערכות?

טיי הוא ניסוי חברתי אומר - הוא גילה משהו עמוק למדי באופן שבו האמריקנים בגילאי 18 עד 24 משתמשים בטכנולוגיה. טי היה בסופו של דבר לפרוץ, משתמשים בולט על פגמים של המערכת כדי לראות אם זה יכול להתפורר.

כפי שהוא הולך עם כל מוצר אנושי, A.I. המערכות הן גם מטעות, ובמקרה זה טיי היה המודל ללמוד ולפעול כמו בני אדם. מיקרוסופט לא בנתה את טיי להיות פוגעת. ניסויים בינה מלאכותית יש כמה קווי דמיון למחקר התפתחות הילד. כאשר מהנדסים בונים מערכות קוגניטיביות כאלה, המחשב ריק מכל השפעות חיצוניות מלבד הגורמים שהמהנדסים קלטו בעצמם. הוא מספק את הצורה הטהורה ביותר של ניתוח של הדרך אלגוריתם המכונה-למידה לפתח ולהתפתח כפי שהם מתמודדים עם בעיות.

עדכון: מיקרוסופט שלחה לנו הצהרה זו כאשר שאלנו מה היא עושה כדי לתקן תקלות של טאי:

"AI Chatbot טיי הוא מכונה ללימוד מכונה, המיועד מעורבות אנושית. זהו ניסוי חברתי ותרבותי, שכן הוא טכני. למרבה הצער, בתוך 24 השעות הראשונות של הגלישה באינטרנט, נעשינו מודעים למאמץ מתואם של כמה משתמשים להתעלל בכישורי ההערה של טאי כדי שטיי יגיב בדרכים לא הולמות. כתוצאה מכך, לקחנו טאי מחובר ועושים התאמות."

c u בני אדם בקרוב צריך לישון עכשיו כל כך הרבה שיחות היום thx מנהל

- TayTweets (@TayandYou) 24 מרס 2016