מכונת לימודים נגד ISIS יהיה סבך שרשראות צבאיות של פיקוד

6º Ano - Matemática -Coordenadas -Prof ª Isis - Aula 16/09

6º Ano - Matemática -Coordenadas -Prof ª Isis - Aula 16/09
Anonim

לכולם באינטרנט היה זמן נהדר עם טיי, רובוט טוויטר של מיקרוסופט שהפך מכחיש שואה גזעני בתוך כמה שעות (ואז חזר ועשה את זה שוב). החברה יצרה דש יחסי ציבור - אירוע יותר מאשר אסון - תוך מתן לציבור שיעור אובייקט על היתרונות והחסרונות של הלמידה מכונה: אוטומציה יכול לרתום דפוסי השפעה מרתקת במהירות, אבל התוצאות יהיה צפוי לחיזוי.

כפי שקורה לעתים קרובות, הצבא הוא מאמץ מוקדם של טכנולוגיית האוטומציה. זה - בזמן אחד - מוביל את החיוב כלפי מכונה המכונה וגם מנסה נואשות לשמור על קשר. אחד התחומים העיקריים של הפנטגון הוא רובוטים אוטונומיים וכיצד הם יצטרפו עם בני אדם - לדוגמה, רובוט בסגנון R2D2, למשל. אבל השבוע, סגן שר ההגנה, רוברט וור, תיאר משימה נוספת עבור א.אי.: קריסת נתונים בקוד פתוח.

"אנו בטוחים לחלוטין שהשימוש במכונות ללימוד עמוק יאפשר לנו להבין טוב יותר את האיסיל כרשת ולהבין טוב יותר כיצד לכוון אותו במדויק ולהוביל לתבוסתו", אמר מזכיר העבודה, על פי אתר האינטרנט של DoD. על פי דיווח זה, עבודה, שדיבר באירוע שאורגן על ידי וושינגטון פוסט, היה התגלות שלו בעת שצפה חברת עמק הסיליקון להפגין "מכונה שלקחה נתונים טוויטר, Instagram ומקורות ציבוריים רבים אחרים כדי להראות את יולי 2014 מלזיה איירליינס טיסה 17 לירות למטה בזמן אמת."

חברות פרטיות ואכיפת החוק כבר מנסה להבין את "נתונים גדולים" במשך זמן רב. אבל לצבא יש יתרון: משאב. כמו כן, יש להם גישה לחומרים מסווגים.

נראה כי ממשלת ארה"ב מוכנה להתערב כי אלגוריתמי תוכנה יכולים למיין את כמות הנתונים המסיבית שם, על מנת לזהות מטרות של ISIS שאחרת היו נמנעות מהן, ולזהות מגרשים לפני שהמתכננים מסוגלים לבצע אותם. הממשלה כבר מנסה ללמוד מדיה חברתית כדי לחזות את גודל המחאות המקוונות. אין ספק כי מכונת למידה ייתן האנליסטים המודיעין הגברת כוח כדי להבין את שפע של מידע זמין בעולם. אבל כאשר האינטליגנציה הופכת לבסיס שבו נוצרת שביתה קטלנית, סוגיות האתיקה נעשות מורכבות יותר, גם אם הן נראות פשוטות.

אף-על-פי ש"העבודה" מיהרה לטעון כי הפנטגון לא "מינה סמכויות קטלניות למכונה", זה עדיין משחק הסיום. בינתיים, בני האדם יישארו "בלולאה", כפי שהז'רגון הולך. אבל כמו כל מי הסתכל על iPhone לדוח מזג האוויר כאשר עומד ליד החלון יודע, היחסים שיש לנו עם המכשירים שלנו ואת התוכנה היא לא פשוטה. אנו מודאגים בבעיות ומסיחים את דעתנו בקלות מבעיות ממשק המשתמש.

"הטיה אוטומטית", הנטייה של בני אדם לדחות למכונות, מציגה סכנה ברורה ונוכחת. הדוגמה להמחשת תופעה זו היא כאשר הטלפון שלך אומר לך לקחת מסלול נסיעה אתה יודע לא בסדר אבל אתה עושה את זה בכל מקרה, בהנחה כי הטלפון חייב לדעת משהו שאתה לא. זוהי בעיה נפוצה בהקשרים לא צבאיים. מה שהפנטגון מתקרבת אליו, אם כי, הוא דיווחי איומים שהוכנו על ידי אינטליגנציה מלאכותית. אנחנו לא יודעים שום דבר על היעילות הפוטנציאלית של תוכנית זו, מלבד זה יהיה קשה לבני אדם ליישם.

במאמר שפורסם ב -2001 על סטודנטים וטייסים מקצועיים והטיות אוטומטיות, החוקרים מצאו כי "בתרחישים שבהם המידע הנכון היה זמין לחצות את הסימון ולזהות אנומליות אוטומטיות, שיעורי השגיאה בקירוב של 55% תועדו בשתי האוכלוסיות". כי הוספת חבר צוות נוסף אנושי לא להקטין את הבעיה.

באופן דומה, מחקר של MIT מהשנה שעברה מצא במידת מה מטריד כי שחקני מחשב ומשחקי וידאו היו בעלי "נטייה גבוהה יותר לאוטומציה של overtrust." זה יכול להיות שככל שאנחנו מבלים זמן רב יותר במסכים שלנו, כך אנו בוטחים יותר במה שאנו רואים. שוב, הבעיה היא לא עם המערכות אנו משתמשים, אבל עם האופן שבו אנו משתמשים בהם. הפגם איננו בכוכבים שלנו, אלא בתוכנו.

נתונים גדולים נותרו מבטיחים. למידה ממוחשבת נותרה מבטיחה. אבל כאשר המכונות מייעצות לבני אדם, התוצאות צפויות באופן בלתי צפוי. האם הטרנספורמציה של טאי לשונאת נשים ניאו-נאצית פירושה שטוויטר שונא יהודים ונשים? קשה לדעת, אבל לא סביר. כאשר אנו לא מבינים את התהליך על ידי איך התשומות הופכות לתפוקות, אנחנו נאבקים להתמודד עם התוצאות בצורה רציונלית. מה שמציב את הפנטגון בעמדה מעניינת. האם אנשים מתכנתים את מכונת הלימוד של הצבא? זה לא איך שרשרת הפיקוד עובדת, אבל שרשראות של פקודות להסתבך כאשר הטכנולוגיה מעורבת.