OpenAI: המשרד לשעבר של אלון מאסק נמצא על סף א. עידן

Multi-Agent Hide and Seek

Multi-Agent Hide and Seek
Anonim

ארגון OpenAI, עמותת המחקר, המחקרת את האינטליגנציה המלאכותית, שנוסדה על ידי אלון מסק ב -2016, עושה התקדמות גדולה - גם אחרי שמוסק נפרץ בין המחלוקות על הכיוון שלו. חוקרים פיתחו מערכות שיכולות לשחק משחקים, לכתוב כתבות חדשותיות ולהזיז אובייקטים פיזיים עם רמות פורצות של פוריות.

OpenAI גרמה למחלוקת עם המחקר שלה. בשבוע שעבר היא הכריזה על פיתוח מודל שפה, GTP2, שיכול ליצור טקסטים עם הנחיות מוגבלות. בהינתן המהדורה האנושית "מיילי סיירוס נתפסה בגניבה של אברקרומבי ופיץ 'בשדרת הוליווד היום", הפיקה המערכת סיפור שלם ואמין, שהמשיך עם "הזמרת בת ה -19 נתפסה על המצלמה המלווה בחנות על ידי מאבטחים ".

היא גם יצרה את הסיפור המקורי על חדי קרן מדברים על בסיס קצר:

"לא הייתי מעורב בקשר עם OpenAI כבר יותר משנה ואין לי ניהול או פיקוח של מועצת המנהלים", העיר מאסק בטוויטר בסוף השבוע. "הייתי צריך להתמקד בפתרון של מספר גדול של בעיות הנדסה & ייצור ב טסלה (במיוחד) & SpaceX. כמו כן, Tesla היה מתחרה על כמה אנשים כמו OpenAI & אני לא מסכים עם כמה מהצוות OpenAI רצה לעשות. הוסף את כל זה למעלה & זה היה רק ​​טוב יותר לחלק דרכים במונחים טובים."

המשרד במקור נראה כדרך אידיאלית עבור Musk להשיג את מטרותיו של רתימת א.י. לטובת האנושות. היזם הזהיר בעבר את "הסיכון הבסיסי" לציוויליזציה הנשקפת ממכונות חכמות במיוחד, וקרא לממשלות להסדיר את "כמו שאנחנו עושים מזון, סמים, מטוסים ומכוניות".

מוסק התחייבה לשלם 10 מיליון דולר כדי להתחיל את המשרד בתחילה, והצהרת המשימה שלו מתמקדת ב"גילוי וחקימת הדרך לבינה כללית מלאכותית בטוחה ".

זה לא קשה לראות איך תוכניות שהופכות סיפורים כמו זה משותף על ידי מנהל OpenAI גרג Brockman יכול לשמש מספר קטן יחסית של אנשים כדי להשפיע על דעותיהם של פחות ידע קהל.

עובד OpenAI הדפיס את המדגם שנכתב על ידי AI ופורסם על ידי סל המיחזור: http://t.co/PT8CMSU2AR pic.twitter.com/PuXEzxL7Xd

- גרג ברוקמן (@ gdb) 14 בפברואר 2019

"בשל החששות שלנו לגבי יישומים זדוניים של הטכנולוגיה, אנחנו לא משחררים את המודל המאומן", מסבירה החברה בבלוג. "כמו ניסוי גילוי אחראי, אנחנו במקום לשחרר מודל הרבה יותר קטן לחוקרים להתנסות, כמו גם נייר טכני."

ההודעה הובילה חששות הטכנולוגיה יכולה לשמש כדי ליצור חדשות מזויפות. הודו הזהיר כי עם הבחירות ההודיות הקרובות מאוחר יותר השנה, ה- A.I. עלולה להרוס את התהליך הדמוקרטי. חוקרי OpenAI עצמה המדינה כי, בשילוב עם מחקר לתוך ייצור אודיו סינתטי ווידאו, "הציבור הרחב יהיה צורך להיות יותר סקפטי של טקסט שהם מוצאים באינטרנט."

ריאן לאו, א. מדען ומתמחה לשעבר ב- OpenAI, סיכם את האיום של תוכנית כמו זו המשמשת ליצירת חדשות מזויפות בתמצית זו,

… מערכת אוטומטית יכולה: (1) לאפשר שחקנים רעים, אשר אין להם את המשאבים לשכור אלפי אנשים, לנהל מסעות פרסום דיסאינפורמציה בקנה מידה גדול; ו (2) להגדיל באופן דרסטי את קנה המידה של הקמפיינים דיסאינפורמציה כבר מנוהל על ידי שחקנים המדינה.

לא כל המחקר של OpenAI הוכח כה שנוי במחלוקת. Dactyl, חשפה ביולי 2018, יכול להסתגל פיזיקה בעולם האמיתי כדי לתפעל אובייקטים בעולם האמיתי. יד הרובוט מורכבת ביותר, עם 24 מעלות של חופש, אבל המערכת יכולה בקלות להזיז את האובייקטים מסביב רק באמצעות שלוש מצלמות RGB ואת הקואורדינטות של יד הרובוט.

יד הרובוט מנצלת את האלגוריתמים הלומדיסטיים של חיזוק הלמידה הכללית המשמשת להכות בני אדם במשחקי וידאו. צוות "OpenAI Five" התמודד מול צוות מקצועי דוטה 2 שחקנים ב 2018. המערכת הוכשרו 180 שנים בשווי של משחקים, תוך ניצול של 128,000 מעבדים ליבות מעבד ו 256 מעבדים גרפיים. בזמן שהוא היכה צוות אנושי של אנשי מקצוע לשעבר ו- twitch streamers, זה נכשל נגד שחקנים מקצועיים.

מאסק השתמש דוטה 2 התאמות כדי למשוך תשומת לב Neuralink, התוכנית שלו כדי ליצור מערכת יחסים סימביוטית עם A.I. על ידי קישור המוח האנושי והימנעות השתלטות הרובוט:

עבודה נהדרת של @Openai. צריך את ממשק עצבי בקרוב לאפשר סימביוזה אנושית / AI.

- אילון מוסק (@elonmusk) 6 באוגוסט 2018

בהודעת הטקסט שלה, הודיעה OpenAI כי היא מתכוונת לדון על האסטרטגיה הרחבה שלה בתוך שישה חודשים. המשרד מקווה לעורר דיון נוקב על הסכנות של אינטליגנציה מלאכותית, מהלך שיכול למנוע כמה תרחישי אסון שחזה מושק. עם זאת, גם החברה מודה כי היא "לא בטוח כי" מניעת גנרטור הטקסט "היא ההחלטה הנכונה היום." עם הפילוג כבר נוצר בין שתי ישויות עיקריות אזהרה על הסכנות של AI, אין זה סביר כי המחוקקים יהיה קל זמן בפיתוח פתרונות.