A.I. מכון המחקר מראה כיצד ליצור אלגוריתמים אחראים

Uma dívida de gratidão (Homilia Diária.1627: Terça-feira da 32.ª Semana do Tempo Comum)

Uma dívida de gratidão (Homilia Diária.1627: Terça-feira da 32.ª Semana do Tempo Comum)
Anonim

מכון המחקר AI פרסם כעת המלצות חדשות ליישום אחראי של אלגוריתמים במרחב הציבורי ביום רביעי.עצתם מופנית לכוח משימה שהוקם על ידי מועצת העיר ניו יורק בינואר, אשר לומד שימוש ממשלתי בבינה מלאכותית.

דו"ח של AI עכשיו, הערכות אלגוריתמיות השפעת: לקראת אוטומציה חשבונאות בסוכנויות ציבוריות, מתאר את הצורך בשקיפות בכל הנוגע לפריסת אלגוריתמים. לאלגוריתמים יש השפעה עצומה על חיי היומיום שלנו, אבל ההשפעה שלהם לפעמים נעלמת מעיני. בגלל שהם נאפים בתשתית של מדיה חברתית ופלטפורמות וידאו, למשל, קל לשכוח שתוכניות קובעות לעתים תכופות איזה תוכן נדחף למשתמשי האינטרנט. זה רק כאשר משהו משתבש, כמו וידאו תיאוריה קונספירציה להגיע בראש רשימת המגמות של YouTube, כי אנו בוחנים את ההליכים החלטה אוטומטית כי בצורת חוויות מקוונות.

ואלגוריתמים אינם מוגבלים לפלטפורמות אינטרנט. מוסדות ממשלתיים הסתמכו יותר ויותר על אלגוריתמים, בתחומים החל מחינוך ועד צדק פלילי. בעולם אידיאלי, אלגוריתמים יסלקו את ההטיה האנושית מהחלטות קשות, כמו קביעת האם יש להעניק לאסיר תנאי. בפועל, אלגוריתמים הם רק יעילים כמו האנשים שעושים אותם.

לדוגמה, חקירה על ידי ProPublica הראו כי אלגוריתמי הערכת הסיכון המשמשים באולמות המשפט מוטים באופן גזעני. כדי להחמיר את המצב, רבים מן האלגוריתמים המשמשים במגזר הציבורי הם בבעלות פרטית, וכמה חברות מסרבות לשתף את הקוד הבסיסי התוכנה שלהם. זה לא מאפשר להבין מדוע אלה שנקרא "שחור תיבת" אלגוריתמים להחזיר תוצאות מסוימות.

פתרון אפשרי אחד המוצע על ידי AI עכשיו? הערכות אלגוריתמיות. הערכות אלה קובעות נורמה של שקיפות מלאה, כלומר, גופים ממשלתיים המשתמשים באלגוריתמים יצטרכו לפרסם מתי ואיך הם משתמשים בהם. "דרישה זו כשלעצמה תעבור דרך ארוכה לשפוך אור על הטכנולוגיות המתפרסמות על מנת לשרת את הציבור, ובמקרים שבהם המחקר צריך להיות ממוקד", נכתב בדו"ח.

מדיניות של פתיחות סביב אלגוריתמים תפתח גם את הדלת לאזרחים לבחון ולמחוק את השימוש בהם. האם אתה רוצה אלגוריתם נותן לך ציון הערכת הסיכון מבוסס על גורמים מחוץ לשליטה שלך, במיוחד כאשר הציון הזה יכול לעזור לקבוע אם אתה הולך לכלא? אולי כן ואולי לא. כך או כך, חשוב לדעת בדיוק אילו משתנים מנותחים על ידי האלגוריתם.

בנוסף, AI Now ממליצה על הגדרת סטנדרט משפטי לאנשים לובי נגד אלגוריתמים לא הוגנים.

לדוגמה, אם סוכנות נכשלת לגלות מערכות הנמצאות במידה סבירה בהיקף של החלטות אוטומטיות, או אם היא מאפשרת לספקים לבצע תביעות סודיות של סחר חוץ ובכך חוסמת גישה מערכתית משמעותית, לציבור יש את ההזדמנות להעלות חששות גוף פיקוח סוכנות, או ישירות בבית המשפט אם הסוכנות סירבה לתקן בעיות אלה לאחר תקופת ההערה הציבורית.

ההמלצות מתמקדות למעשה במנדט אחד: אם אתה משתמש באלגוריתמים, אל תסתיר זאת.

קרא את הדוח המלא כאן.