MIT אומר א. לא מספיק חכם אבל ב Cybersecurity, עדיין צריך בני אדם

1. Introduction, Threat Models

1. Introduction, Threat Models
Anonim

המכון הטכנולוגי של מסצ 'וסטס יש חדשות טובות אם אתה בענף האבטחה: A.I. רובוטים עשויים לא קח את העבודה שלך.

חוקרים במעבדה למדעי המחשב והאינטליגנציה של MIT (CSAIL) פרסמו בשבוע שעבר מאמר המתאר מערכת משופרת של cybersecurity בשם "A.I.²" זוהי מערכת "אנליסט-in-the-loop" המשתמשת ב- A.I. כדי לסרוק כמויות אדירות של נתונים אנליסטים אנושיים כדי לספק משוב.

A.I. משלב את שני סוגי מערכות cybersecurity בשימוש כיום: מונע אנליסטים (בני אדם מנסה לזהות ולהגיב על התקפות), ומודע למידה ללא פיקוח מכונה (א 'באמצעות דפוסי לחזות ולזהות התקפות). שתי המערכות יש חסרונות שלהם. בני אדם נוטים להחמיץ הרבה התקפות סייבר בגלל נתונים מוחצים, ו- A.I. נוטה להוציא הרבה אזעקות שווא כי הדפוסים לא תמיד מנבאים.

שילוב כוחו של אדם בזיהוי איומים אמיתיים, וכוחו של א. איי. בעיבוד כמויות גדולות של נתונים, גורם למערכת ביטחון חזקה יותר. כמו כן, בני האדם להגיע לשמור על משרות cybersecurity שלהם.

החזרה לעבודה אנושית אולי נשמעת כמו חוקרת במעבדה לבינה מלאכותית שתנסה למנוע. אבל החוקרים של MIT טוענים כי באמצעות אנשים א. יחד מוביל שיעור גילוי של 86.8 אחוזים - 10 פעמים טוב יותר מאשר סולו- A.I. שיעור של 7.9 אחוזים - והאם זה זול יותר לאתחל.

A.I מורכב מ -4 מרכיבים. ראשית, מחשב אוספת נתונים גדולים. הנתונים מעובדים, ו outliers נשלפים באמצעות הקיים כבר א. טכנולוגיה. לאחר מכן, א. מושך כל דבר שעשוי להיות "זדוני" ושולח אותו לאנליסט אנושי. לבסוף, האנליסט שולח משוב לא.אי., אשר לומד מן המידע ומוטב לפענח אם ההתקפה זדונית או נורמלית.

נתונים אמיתיים בעולם של 3.6 מיליארד שורות יומן אומתו ש- A.I. ובני אדם ביצעו טוב יותר כקבוצה מאשר כגופים נפרדים.

בסך הכל, AI.² נשמע יותר כמו צעד באמצע בין פיתוח הטכנולוגיה האוטונומיה המלאה. א. ילמדו בסופו של דבר מספיק מעמיתיהם האנושיים שהסטודנט הופך לאדון. אבל עד למידה עמוקה עושה א. יעיל באופן משמעותי יותר מאשר אדם בסיוע א.ע., נייר המחקר חוזה כי האנליסטים cybersecurity יכול עיפרון בעוד כמה שנים של ביטחון תעסוקתי.