MIT בלשנים אומרים שפות אנושיות עשוי להיות צפוי

GTA 5 mit Freund @[[][¹¬µµ¦¦№¾¾¾½½₩₩°°ª¦µµ]

GTA 5 mit Freund @[[][¹¬µµ¦¦№¾¾¾½½₩₩°°ª¦µµ]
Anonim

מתרגם אוניברסלי הוא פסגה מדעית סטנדרטית: דג הבבל קיים בצורות רבות (חושב: C-3P0, "Microsofts" של גיבסון ומטריצת הלינגואקוד). בלשנים IRL נחשב זמן רב את היצירה של סוג זה של הטכנולוגיה את הפאזל האולטימטיבי ואת סוג של endgame קוד פיצוח. עכשיו, חוקרים במכון הטכנולוגי של מסצ 'וסטס הודיעו כי הם גילו נכס כמעט אוניברסלי ב 37 שפות. הנקרא "Minimization אורך תלות", התבנית מציינת לא רק את ההיגיון האנושי הבסיסי מתחת לשפה המורכבת, אלא גם את הפוטנציאל ליצור ולייצר רגש מחלקים דומים.

למעשה, DLM הוא הרעיון כי שמות עצם ללכת קרוב תארים כי, טוב, קל יותר להחזיק את הרעיון של בית לבנים בראש שלך אם "לבנים" ו "בית" להתקרב מקרוב. (הליריקה, "היא בית לבנים", היא הרבה יותר בלתי נשכחת מהליריקה, "בריק הוא החומר שתשתמש בו כדי להפוך אותה לבית.") בהודעה לעיתונות, ה- MIT מציע את הדוגמה הבאה:

(1) "ג'ון זרק את הזבל הישן שישב במטבח".

(2) "ג'ון זרק את האשפה הישנה שישבה במטבח".

המשפט הראשון הוא קל יותר לקריאה, כי אין חבורה שלמה של מילים זבל לשבת בין זרק החוצה. וככל שהמשפט ארוך יותר, כך חשוב יותר לצמצם את אורך התלות כדי להבטיח את המשמעות. עיקרו של המחקר החדש, כותבים המחברים, הוא כי הם הראו כי "אורך התלות הכולל עבור כל השפות הוא קצר יותר מאשר קונסרבטיבים אקראיים שמרניים."

העובדה שכולנו חולקים את כללי השפה הבסיסית היא רעיון שנבעט כבר זמן מה, אבל אף אחד לא בעט בו בהתלהבות רבה כמו נועם חומסקי, הבלשן הרדיקלי כביכול המתאר את מבנה השפה האנושית כנס או במערכת. (ספוילר: הוא אינו מאמין בנסים.) באתר האינטרנט שלו, חומסקי מתאר את הרעיון של דקדוק אוניברסלי ובכך:

אני חושב שהעבודה החשובה ביותר שמתרחשת קשורה לחיפוש אחר תכונות כלליות ומופשטות ביותר של מה שנקרא לפעמים דקדוק אוניברסלי: תכונות כלליות של השפה המשקפות סוג של צורך ביולוגי, ולא צורך לוגי; כלומר, תכונות של שפה שאינן הכרחיות מבחינה לוגית עבור מערכת כזו, אך הן תכונות בלתי נמנעות חיוני של השפה האנושית ידועים ללא למידה. אנחנו מכירים את המאפיינים האלה, אבל אנחנו לא לומדים אותם. אנו פשוט משתמשים בידע שלנו על מאפיינים אלה כבסיס ללמידה.

מחקר MIT זה אינו הראשון לצוף מזעור אורך התלות. הבלשנית של אוניברסיטת אדינבורו, ג'ניפר קולברטסון, שלא הייתה מעורבת במחקר, אמרה לארס טכניקה ש- DLM עושה מקרה חזק המבוסס על עדויות שקשה לצבור (כלומר, מסד נתונים של 37 שפות שניתן לנתח כך).