אלגוריתם הוא להיות נבדק בסן פרנסיסקו לקבוע מראש בערבות המשפט

Uma dívida de gratidão (Homilia Diária.1627: Terça-feira da 32.ª Semana do Tempo Comum)

Uma dívida de gratidão (Homilia Diária.1627: Terça-feira da 32.ª Semana do Tempo Comum)
Anonim

מערכת המשפט הפלילי נמצאת בעיצומו של שינוי אלגוריתמי. בסביבות 30 תחומי שיפוט - כולל כל המדינות של אריזונה, קנטקי וניו ג'רזי, כמו גם ערים כמו סן פרנסיסקו ושיקגו - בודקים אלגוריתם שמגדיר את עלות הערבות על בסיס נתוני הרשומות הפליליות ברחבי הארץ. לא כל השופטים הם בהכרח מוכנים לקחת את ההמלצות הדיגיטליות ללב.

האלגוריתם נוצר על ידי קרן לורה וג'ון ארנולד ביוסטון, ונקראת הערכת בטיחות הציבור, או PSA. המטרה של האלגוריתם היא לקחת biases מתוך הגדרת בערבות על ידי שימוש בנתונים מ -1.5 מיליון מקרים prerial. בעבר, עם זאת, אלגוריתמים נשאו את אותן הטיות של האנשים שעושים אותם.

תשעה גורמים נכנסים לאלגוריתם, לפי אתר האינטרנט של הקרן:

  • אם העבירה הנוכחית היא אלימה
  • האם לאדם יש תשלום תלוי ועומד בזמן המעצר
  • האם אדם יש הרשעה קודמת הרשעה
  • האם יש לאדם הרשעה מוקדמת
  • האם לאדם יש הרשעה מוקדמת על פשע אלים
  • גיל האדם בזמן המעצר
  • האם האדם לא הופיע בשימוע קדם-משפטי בשנתיים האחרונות
  • האם האדם לא הופיע בדיון לפני למעלה משנתיים
  • האם האדם נידון בעבר למאסר.

האלגוריתם אינו מביא בחשבון גזע, מין, הכנסה, השכלה, תעסוקה או שכונה. זה, על פי הקרן, עושה PSA ניטרלי.

עם זאת, השופטים בסן פרנסיסקו לא עקבו באופן עקבי אחר ההמלצות סן פרנסיסקו כרוניקל דיווחים.

סן פרנסיסקו עברה להשתמש באלגוריתם לאחר שהתביעה הוגשה על ידי ארגון זכויות אדם לאומי, שטען כי ערבות מופרזת פגעו בעניים יותר מאשר בעשירים. אנשים עשירים שביצעו פשעים קלים היו קונים את דרכם מחוץ לכלא, בעוד אנשים עניים שלא יכלו להרשות לעצמם סכומים בערבות מופרזת נותרו בתא המעצר עד למשפט.

PSA היה אמור לרמה את המגרש על ידי הסתכלות על נתונים, ולא פשע מיידי. האלגוריתם משתמש בנתונים היסטוריים כדי לשפוט עד כמה סביר כי אדם יבצע פשע אחר או להימנע משפטים אם לשים בערבות, דו"ח מיעוט בסגנון. אם הסבירות היא גבוהה, בערבות מוגדר גבוה יותר, ולהיפך.

אלגוריתם דומה שנוצר על ידי Northpointe שימש להנחיית תאריכי שחרור אסירים. ProPublica פירסם את תוצאות החקירה בחודש מאי שמצא כי ציוני "הערכת הסיכונים" שניתנו על ידי האלגוריתם של Northpointe ניבאו באופן בלתי צפוי כי אנשים שחורים נוטים יותר לבצע פשע אחר מאשר אנשים לבנים לאחר שהם יצאו. רק 20 אחוזים מן התחזיות של Northpointe היו מדויקים.

טכנולוגיות מיפוי מתקדמות ונתונים גדולים, מאידך גיסא, מסייעות גם לאכיפת החוק לזהות נקודות משטרה פליליות.

האלגוריתם של הקרן נועד למנוע הטיה דומה על ידי הסרת כל האינדיקטורים הדמוגרפיים. בין אם זה באמת עובד, עם זאת, לא ייראה עד השופטים בעצם מתחילים להסתמך על אלגוריתמים על תקדים ואינטואיציה.