יכולות הבינה המלאכותית מתרחבות באופן אקספוננציאלי, כאשר AI מנוצל כעת בענפים מפרסום ועד מחקר רפואי. השימוש ב- AI באזורים רגישים יותר כמו תוכנות לזיהוי פנים, אלגוריתמי שכירה ומתן שירותי בריאות הביא לדיון בנושא הטיה והגינות.

הטיה היא פן נחקר היטב של הפסיכולוגיה האנושית. מחקר חושף באופן קבוע את ההעדפות והדעות הקדומות הלא מודעות שלנו, ועכשיו אנו רואים כי AI משקף חלק מההטיות הללו באלגוריתמים שלהם.

אז איך הבינה המלאכותית הופכת למוטה? ולמה זה משנה?

כיצד AI הופך מוטה?

למען הפשטות, במאמר זה נתייחס למידה מכונה ולמידה עמוקה אלגוריתמים כאלגוריתמים או מערכות AI.

חוקרים ומפתחים יכולים להכניס הטיה למערכות AI בשתי דרכים.

ראשית, ניתן להטמיע את ההטיות הקוגניטיביות של החוקרים בטעות באלגוריתמים של למידת מכונה. הטיות קוגניטיביות הן תפיסות אנושיות לא מודעות שיכולות להשפיע על האופן שבו אנשים מקבלים החלטות. זה הופך להיות נושא משמעותי כאשר ההטיות נוגעות לאנשים או לקבוצות אנשים ועלולות לפגוע באותם אנשים.

ניתן להציג הטיות אלו באופן ישיר אך בטעות, או שחוקרים עשויים להכשיר את ה- AI במערכי נתונים שהושפעו בעצמם מהטיה. לדוגמה, ניתן להכשיר AI לזיהוי פנים באמצעות מערך נתונים הכולל רק פנים בהירות. במקרה זה, ה- AI יבצע טוב יותר כאשר מתמודד עם פנים בהירות מאשר כהה. צורה זו של הטיה של AI ידועה כמורשת שלילית.

instagram viewer

שנית, הטיות יכולות להיווצר כאשר ה- AI מאומן על מערכי נתונים לא שלמים. לדוגמה, אם AI מאומן במערך נתונים הכולל רק מדעני מחשבים, הוא לא ייצג את כלל האוכלוסייה. זה מוביל לאלגוריתמים שלא מצליחים לספק חיזויים מדויקים.

דוגמאות להטיה עולמית של AI

היו לאחרונה מספר דוגמאות המדווחות היטב להטיות AI להמחיש את הסכנה של לאפשר להטיות אלה להתגנב.

תעדוף בתחום הבריאות בארה"ב

בשנת 2019 תוכנן אלגוריתם למידת מכונה שיסייע לבתי חולים וחברות ביטוח לקבוע אילו מטופלים ירוויחו יותר מכולם מתוכניות בריאות מסוימות. בהתבסס על בסיס נתונים של כ- 200 מיליון איש, האלגוריתם העדיף חולים לבנים על פני חולים שחורים.

נקבע כי הדבר נובע מהנחה שגויה באלגוריתם בדבר עלויות בריאות שונות בין אנשים לבנים, וההטיה הופחתה בסופו של דבר ב -80%.

קומפאס

פרופיל ניהול עברייני התיקון לסנקציות אלטרנטיביות, או COMPAS, היה אלגוריתם AI שנועד לחזות אם אנשים מסוימים יעברו שוב. האלגוריתם הניב כפול חיובי כוזב עבור עבריינים שחורים לעומת עבריינים לבנים. במקרה זה, הן במערך הנתונים והן במודל היו פגומים, והכניסו הטיה כבדה.

אֲמָזוֹנָה

אלגוריתם הגיוס שאמזון משתמשת בו כדי לקבוע את התאמתם של מועמדים נמצא בשנת 2015 כדי להעדיף גברים על פני נשים בכבדות. הסיבה לכך הייתה כי מערך הנתונים הכיל כמעט אך ורק גברים ואת קורות החיים שלהם מכיוון שרוב עובדי אמזון הם גברים.

כיצד לעצור הטיה של AI

AI כבר מבצע מהפכה בדרך בה אנו עובדים כל ענף. יש מערכות מוטות השולטות בתהליכי קבלת החלטות רגישים פחות רצוי. במקרה הטוב, זה מפחית את איכות המחקר מבוסס AI. במקרה הגרוע, זה פוגע באופן פעיל בקבוצות מיעוט.

ישנן דוגמאות לאלגוריתמי AI שכבר היו רגילים לסייע בקבלת החלטות אנושיות על ידי צמצום ההשפעה של הטיות קוגניטיביות אנושיות. בגלל האופן בו מאמנים אלגוריתמים של למידת מכונה, הם יכולים להיות מדויקים יותר ומוטים פחות מבני אדם באותו מיקום, וכתוצאה מכך לקבל החלטות הוגנות יותר.

אבל, כפי שהראינו, גם ההפך הוא הנכון. הסיכונים לאפשר בישול והגברה של הטיות אנושיות על ידי AI עשויים לעלות על כמה מהיתרונות האפשריים.

בסופו של היום, הבינה המלאכותית טובה רק כמו הנתונים איתם היא מאומנת. פיתוח אלגוריתמים חסרי משוא פנים דורש ניתוח מקיף ויסודי של מערכי נתונים, ומבטיח שהנתונים נקיים מהטיות מרומזות. זה קשה ממה שזה נשמע מכיוון שכל כך הרבה מההטיות שלנו אינן מודעות ולעתים קרובות קשה לזהות אותן.

אתגרים במניעת הטיה של AI

בפיתוח מערכות AI, יש להעריך כל שלב על פוטנציאל הטמעתו הטיה באלגוריתם. אחד הגורמים העיקריים למניעת הטיה הוא להבטיח כי הוגנות, ולא הטיה, "מבושלות" באלגוריתם.

הגדרת הוגנות

הוגנות היא מושג שקשה יחסית להגדיר. למעשה, זה דיון שמעולם לא הגיע לקונצנזוס. כדי להקשות על העניינים בעת פיתוח מערכות AI, יש להגדיר את המושג הוגנות מתמטית.

למשל, מבחינת אלגוריתם ההעסקה של אמזון, האם ההגינות תיראה כמו פיצול מושלם של 50/50 בין עובדים לעובדות? או פרופורציה אחרת?

קביעת הפונקציה

הצעד הראשון בפיתוח AI הוא לקבוע בדיוק מה הוא עומד להשיג. אם משתמשים בדוגמת COMPAS, האלגוריתם היה מנבא את הסבירות שעבריינים יעבירו מחדש. לאחר מכן, יש לקבוע קלטי נתונים ברורים כדי לאפשר לאלגוריתם לעבוד. זה עשוי לדרוש הגדרת משתנים חשובים, כגון מספר העבירות הקודמות או סוג העבירות שבוצעו.

הגדרת משתנים אלה כראוי היא צעד קשה אך חשוב בהבטחת הוגנות האלגוריתם.

הכנת מערך הנתונים

כפי שסיקרנו, סיבה עיקרית להטיה של AI היא נתונים לא שלמים, לא מייצגים או מוטים. בדומה למקרה של AI לזיהוי פנים, יש לבדוק היטב את נתוני הקלט לגבי הטיות, התאמה ושלמות לפני תהליך למידת המכונה.

בחירת תכונות

באלגוריתמים ניתן לשקול תכונות מסוימות או לא. התכונות יכולות לכלול מגדר, גזע או השכלה - בעצם כל מה שעשוי להיות חשוב למשימת האלגוריתם. תלוי בתכונות שנבחרו, דיוק הניבוי וההטיה של האלגוריתם יכולים להיות מושפעים קשות. הבעיה היא שקשה מאוד למדוד עד כמה האלגוריתם מוטה.

הטיה של AI אינה כאן כדי להישאר

הטיה של AI מתרחשת כאשר אלגוריתמים מניבים תחזיות מוטות או לא מדויקות בגלל תשומות מוטות. זה קורה כאשר נתונים מוטים או שלמים משתקפים או מוגברים במהלך הפיתוח וההכשרה של האלגוריתם.

החדשות הטובות הן שכאשר המימון למחקר AI מתרבה, אנו צפויים לראות שיטות חדשות להפחתה ואף ביטול הטיה של AI.

אימייל
5 מיתוסים נפוצים על בינה מלאכותית שאינם נכונים

בואו נקבע את השיא בכמה שקר נפוץ סביב AI.

קרא הבא

נושאים קשורים
  • הסבירו טכנולוגיה
  • בינה מלאכותית
  • למידת מכונה
על הסופר
ג'ייק הארפילד (6 מאמרים פורסמו)

ג'ייק הארפילד הוא סופר עצמאי שבסיסו בפרת ', אוסטרליה. כשהוא לא כותב, הוא בדרך כלל בחוץ ומצלם את חיות הבר המקומיות. אתה יכול לבקר אותו בכתובת www.jakeharfield.com

עוד מג'ייק הארפילד

הירשם לניוזלטר שלנו

הצטרף לניוזלטר שלנו לקבלת טיפים, ביקורות, ספרים אלקטרוניים בחינם ומבצעים בלעדיים!

צעד אחד נוסף !!!

אנא אשר את כתובת הדוא"ל שלך בדוא"ל ששלחנו לך זה עתה.

.