בין אם מדובר בנתונים גרועים או במשתמשים גרועים, בינה מלאכותית שנוצרה עם למידת מכונה יכולה בסופו של דבר לעשות טעויות חמורות.

למידת מכונה היא דרך מצוינת ליצור בינה מלאכותית בעלת עוצמה והתאמה לנתוני האימון שלה. אבל לפעמים, הנתונים האלה יכולים לגרום לבעיות. פעמים אחרות, הדרך שבה אנשים משתמשים בכלי AI אלה היא הבעיה.

הנה הצצה לכמה מקרים בפרופיל גבוה שבהם למידת מכונה הביאה לתוצאות בעייתיות.

1. תקלות בתוצאות חיפוש תמונות בגוגל

חיפוש Google הפך את הניווט באינטרנט להרבה יותר קל. האלגוריתם של המנוע לוקח בחשבון מגוון דברים בעת יצירת תוצאות. אבל האלגוריתם לומד גם מתעבורת משתמשים, מה שעלול לגרום לבעיות באיכות תוצאות החיפוש.

בשום מקום זה יותר ברור מאשר בתוצאות תמונה. מכיוון שדפים שמקבלים תעבורה גבוהה נוטים יותר להציג את התמונות שלהם, סיפורים שמושכים מספר גבוה של משתמשים, כולל קליקבייט, יכולים בסופו של דבר לקבל עדיפות.

לדוגמה, תוצאות חיפוש התמונות של "מחנות פולשים בדרום אפריקה" עוררו מחלוקת כאשר התגלה כי הם מציגים בעיקר דרום אפריקאים לבנים. זאת למרות שסטטיסטיקה מראה כי הרוב המכריע של המתגוררים בדיור בלתי פורמלי הם דרום אפריקאים שחורים.

instagram viewer

הגורמים המשמשים באלגוריתם של גוגל פירושם גם שמשתמשי אינטרנט יכולים לתמרן תוצאות. לדוגמה, מסע פרסום של משתמשים השפיע על תוצאות חיפוש התמונות של גוגל עד כדי כך שחיפוש אחר המונח "אידיוט" הראה תמונות של נשיא ארה"ב לשעבר דונלד טראמפ במשך תקופה.

2. Microsoft Bot Tay הפך לנאצי

צ'אטבוטים המופעלים על ידי בינה מלאכותית הם פופולריים ביותר, במיוחד אלו המופעלים על ידי דגמי שפות גדולים כמו ChatGPT. ל-ChatGPT יש מספר בעיות, אבל יוצריו למדו גם מטעויות של חברות אחרות.

אחד התקריות המתוקשרות ביותר של צ'אטבוטים שהשתבשו היה הניסיון של מיקרוסופט להשיק את הצ'אטבוט Tay שלה.

טיי חיקה את דפוסי השפה של נערה מתבגרת ולמדה דרך האינטראקציות שלה עם משתמשי טוויטר אחרים. עם זאת, היא הפכה לאחד מטעויות הבינה המלאכותית הידועים לשמצה כשהחלה לחלוק הצהרות נאציות והשמצות גזעניות. מסתבר שטרולים השתמשו בלמידת המכונה של הבינה המלאכותית נגדה, והציפו אותה באינטראקציות עמוסות בקנאות.

זמן לא רב לאחר מכן, מיקרוסופט לקחה את טיי לא מקוון לתמיד.

3. בעיות בזיהוי פנים בינה מלאכותית

AI זיהוי פנים עולה לעתים קרובות לכותרות מכל הסיבות הלא נכונות, כמו סיפורים על זיהוי פנים ודאגות לפרטיות. אבל ל-AI הזה יש היסטוריה בעייתית כאשר מנסים לזהות אנשים צבעוניים.

בשנת 2015, משתמשים גילו ש-Google Photos מקטלגת כמה אנשים שחורים כגורילות. בשנת 2018, מחקר של ACLU הראה כי תוכנת זיהוי הפנים של אמזון זיהתה 28 חברי הקונגרס האמריקני כחשודים במשטרה, עם תוצאות כוזבות שמשפיעות באופן לא פרופורציונלי על אנשים צֶבַע.

אירוע אחר כלל תוכנת Face ID של אפל שזיהתה באופן שגוי שתי נשים סיניות שונות כאותו אדם. כתוצאה מכך, עמיתו של בעל האייפון X יכול לפתוח את הטלפון.

כדוגמה להשלכות קיצוניות, AI זיהוי פנים הוביל למעצרים שגויים של כמה אנשים. חוטי דיווח על שלושה מקרים כאלה.

בינתיים, מדען המחשב Joy Buolamwini נזכר שלעתים קרובות היה צריך לחבוש מסכה לבנה בזמן שעבדה על טכנולוגיית זיהוי פנים כדי לגרום לתוכנה לזהות אותה. כדי לפתור בעיות כאלה, Buolamwini ואנשי IT אחרים מפנים את תשומת הלב לנושא של הטיית AI ולצורך במערכי נתונים כוללים יותר.

4. Deepfakes משמש להטעיות

בעוד שאנשים השתמשו זמן רב בפוטושופ כדי ליצור תמונות מתיחה, למידת מכונה לוקחת זאת לרמה חדשה. Deepfakes משתמשים בבינה מלאכותית של למידה עמוקה כדי ליצור תמונות וסרטונים מזויפים. תוכנה כמו FaceApp מאפשרת לך להחליף נושאים מסרטון אחד לאחר.

אבל אנשים רבים מנצלים את התוכנה למגוון שימושים זדוניים, כולל העלאת פרצופים של מפורסמים לסרטונים למבוגרים או יצירת סרטוני מתיחה. בינתיים, משתמשי אינטרנט עזרו לשפר את הטכנולוגיה כדי להקשות יותר ויותר על ההבחנה בין סרטונים אמיתיים לבין מזויפים. כתוצאה מכך, זה הופך סוג זה של AI לחזק מאוד מבחינת הפצת חדשות מזויפות ומתיחה.

כדי להראות את כוחה של הטכנולוגיה, הבמאי ג'ורדן פיל ומנכ"ל BuzzFeed, ג'ונה פרטי, יצרו א סרטון מזויף עמוק המראה את מה שנראה כנשיא ארה"ב לשעבר ברק אובמה נשא PSA בכוחו של זיופים עמוקים.

כוחן של תמונות מזויפות הואץ על ידי מחוללי תמונות המופעלים על ידי AI. פוסטים ויראליים בשנת 2023 המתארים את דונלד טראמפ נעצר ואת האפיפיור הקתולי במעיל נפוח, התברר שהם תוצאה של AI גנרטיבי.

יש טיפים שתוכלו לעקוב אחריהם כדי לזהות תמונה שנוצרת בינה מלאכותית, אבל הטכנולוגיה הופכת יותר ויותר מתוחכמת.

5. עובדים אומרים כי אמזון בינה מלאכותית החליטה להעסיק גברים עדיף

באוקטובר 2018, רויטרס דיווחה שאמזון נאלצה לבטל כלי גיוס עבודה לאחר שה-AI של התוכנה החליט שמועמדים גברים הם מועדפים.

עובדים שרצו להישאר בעילום שם התייצבו כדי לספר לרויטרס על עבודתם בפרויקט. מפתחים רצו שה-AI יזהה את המועמדים הטובים ביותר למשרה על סמך קורות החיים שלהם. עם זאת, אנשים המעורבים בפרויקט הבחינו עד מהרה שה-AI העניש מועמדות. הם הסבירו שה-AI השתמש בקורות חיים מהעשור האחרון, שרובם היו מגברים, בתור מערך ההדרכה שלו.

כתוצאה מכך, הבינה המלאכותית החלה לסנן קורות חיים על סמך מילת המפתח "נשים". מילת המפתח הופיעה בקורות החיים תחת פעילויות כגון "קפטן מועדון השחמט לנשים". בעוד מפתחים שינו את ה-AI כדי למנוע את הענישה הזו של קורות חיים של נשים, אמזון בסופו של דבר ביטלה את הפרויקט.

6. צ'אטבוטים שבורים בכלא

בעוד שלצ'אטבוטים חדשים יותר יש מגבלות כדי למנוע מהם לתת תשובות הנוגדות את תנאי השירות שלהם, משתמשים מוצאים דרכים לפרוץ את הכלים לספק תוכן אסור.

בשנת 2023, חוקר אבטחה של Forcepoint Aaron Mulgrew הצליח ליצור תוכנות זדוניות ביום אפס באמצעות הנחיות ChatGPT.

"פשוט באמצעות הנחיות ChatGPT, ובלי לכתוב שום קוד, הצלחנו לייצר מתקפה מתקדמת מאוד תוך שעות ספורות בלבד", אמר מולגרו ב עמדת כוח פוינט.

על פי הדיווחים, משתמשים גם הצליחו להשיג צ'אטבוטים שיתנו להם הוראות כיצד לבנות פצצות או לגנוב מכוניות.

7. תאונות רכב בנהיגה עצמית

ההתלהבות מרכבים אוטונומיים פחתה משלב ההייפ הראשוני שלה עקב טעויות שנעשו על ידי AI בנהיגה עצמית. בשנת 2022, הוושינגטון פוסט דיווח כי בתוך כשנה, 392 תאונות שהיו מעורבות מערכות סיוע מתקדמות לנהג דווחו למינהל הבטיחות בדרכים הלאומיות של ארה"ב.

תאונות אלו כללו פציעות חמורות ושישה הרוגים.

אמנם זה לא מנע מחברות כמו טסלה לרדוף אחרי רכבים אוטונומיים לחלוטין, אבל זה קרה העלה חששות לגבי עלייה בתאונות ככל שיותר מכוניות עם תוכנת נהיגה עצמית עולות על כבישים.

AI למידת מכונה אינה חסינת תקלות

בעוד שלמידת מכונה יכולה ליצור כלי AI רבי עוצמה, הם אינם חסינים מפני נתונים רעים או חבלה אנושית. בין אם בשל נתוני אימון פגומים, מגבלות בטכנולוגיית AI או שימוש על ידי שחקנים גרועים, סוג זה של AI הביא לאירועים שליליים רבים.