Tay AI של מיקרוסופט הפך מבינה מלאכותית מבטיחה לאסון מוחלט תוך פחות מיממה. הנה מה שהחברה למדה.

צ'טבוטים של AI כמו ChatGPT הופכים יותר ויותר לחלק אינטגרלי יותר מהטכנולוגיה המודרנית, אך לא ידוע לרבים, AI גנרטיבי לא תמיד היה טוב כמו היום. למעשה, בשנת 2016, צ'אט בוט Tay מתוצרת מיקרוסופט הראה לנו כמה מהר AI יכול להשפיע לאחור.

בואו נחקור מה היה צ'אטבוט ה-AI Tay של מיקרוסופט, מדוע הוא נכשל, המחלוקות שלו והלקחים שהחברה למדה לאחר הכישלון האסון שלה.

מה היה הטאי של מיקרוסופט?

Tay היה צ'טבוט בינה מלאכותית שפותחה על ידי מיקרוסופט והפכה לזמין באמצעות טוויטר ב-23 במרץ 2016. הצ'טבוט פותח עבור בני 18 עד 24 בארה"ב ל"מטרות בידור" וכדי "לנסות ולערוך מחקר על הבנת שיחה".

טיי לא נועד להיות צ'אט בוט מתוחכם כמו ChatGPT אלא בוט AI ידידותי בטוויטר שאפשר לנהל איתו שיחות - בערך כמו ה-AI שלי בסנאפצ'ט, אלא ליצירת קשרים חברתיים.

מדוע מיקרוסופט סגרה את טיי?

מיקרוסופט הסירה את טיי תוך 24 שעות מרגע העלייה לאוויר - מסיבה טובה. כמעט מיד לאחר הצגתו של טיי, משתמשי טוויטר החלו לנצל את השירות לרעה על ידי הזנת הצ'אטבוט מידע מוטעה, מלמד אותו מונחי גנאי, ומניע אותו להיות יותר ויותר פוגעני רק כדי לראות עד כמה זה אלך.

instagram viewer

וזה באמת הלך רחוק. תוך שעות לאחר ההשקה, טיי צייץ בטוויטר כמה מההשמצות הגזעיות הפוגעניות ביותר, הפיץ דברי שטנה, קידם את הנאציזם ואפילו העניק השראה ל"מלחמת גזע". איכס! ברור שלמיקרוסופט הייתה תקופה נוראית, והיא לא יכלה לתת לשירות להמשיך.

ב פוסט בבלוג הרשמי של מיקרוסופט, סגן נשיא התאגיד של מיקרוסופט, פיטר לי, הדהד את אותו הדבר:

אנו מצטערים מאוד על הציוצים הפוגעניים והפוגעניים של טיי, שאינם מייצגים את מי שאנחנו או את מה שאנחנו מייצגים, וגם לא את האופן שבו עיצבנו את טיי. Tay כעת במצב לא מקוון ואנו ננסה להחזיר את Tay רק כאשר אנו בטוחים שנוכל לצפות טוב יותר כוונת זדון שמתנגשת עם העקרונות והערכים שלנו.

המחדל של טיי הוא רק אחד מני רבים סכנות של בינה מלאכותית ותזכורת חזקה מדוע פיתוחו צריך להיעשות בזהירות ובפיקוח מירביים.

6 שיעורים שמיקרוסופט למדה אחרי טיי

טיי היה אסון מוחלט, אבל הוא גם לימד את מיקרוסופט כמה שיעורים מכריעים בכל הקשור לפיתוח כלי בינה מלאכותית. ובשביל מה שזה שווה, זה כנראה לטובה שמיקרוסופט למדה את הלקחים שלה במוקדם ולא במאוחר, מה שאפשר לה להתחיל עם גוגל ולפתח את החדש דפדפן Bing מבוסס בינה מלאכותית.

הנה כמה מהשיעורים האלה:

1. האינטרנט מלא בטרולים

האינטרנט מלא בטרולים, וזה לא בדיוק חדשות, נכון? ככל הנראה, זה היה כך למיקרוסופט ב-2016. אנחנו לא אומרים שבניית צ'טבוט ל"מטרות בידור" המכוון לבני 18 עד 24 הייתה קשורה לקצב שבו השירות נוצל לרעה. ובכל זאת, זה בהחלט לא היה הרעיון החכם ביותר.

אנשים באופן טבעי רוצים לבדוק את הגבולות של טכנולוגיות חדשות, ובסופו של דבר זה תפקידו של המפתח להסביר את ההתקפות הזדוניות הללו. במובן מסוים, טרולים פנימיים פועלים כמנגנון משוב להבטחת איכות, אבל זה לא אומר שצריך לשחרר צ'אטבוט ללא אמצעי הגנה מתאימים לפני ההשקה.

2. AI לא יכול להבדיל באופן אינטואיטיבי בין טוב לרע

הרעיון של טוב ורע הוא משהו ש-AI לא מבין באופן אינטואיטיבי. יש לתכנת אותו כדי לדמות את הידע של מה נכון ומה לא, מה מוסרי ולא מוסרי ומה נורמלי ומשונה.

התכונות הללו פחות או יותר מגיעות באופן טבעי לבני אדם כיצורים חברתיים, אבל בינה מלאכותית לא יכולה ליצור שיפוטים עצמאיים, להרגיש אמפתיה או לחוות כאב. זו הסיבה שכאשר משתמשי טוויטר האכילו את טאי בכל מיני תעמולה, הבוט פשוט עקב אחריו - לא מודע לאתיקה של המידע שהוא אוסף.

3. אל תאמן מודלים של AI באמצעות שיחות של אנשים

Tay נוצר על ידי "כריית נתונים ציבוריים רלוונטיים ושימוש בבינה מלאכותית ועריכה שפותחו על ידי צוות כולל קומיקאי אלתור." אימון מודל בינה מלאכותית באמצעות שיחות של אנשים באינטרנט הוא דבר נורא רַעְיוֹן.

ולפני שאתה מאשים את זה בטוויטר, דע שהתוצאה הייתה כנראה זהה ללא קשר לפלטפורמה. למה? כי אנשים הם פשוט לא האני הכי טוב שלהם באינטרנט. הם מתרגשים, משתמשים במילות סלנג ומשתמשים באנונימיות שלהם כדי להיות מרושעים.

4. AI חסר שכל ישר ואינו מקבל סרקזם

בינה מלאכותית כיום נראית אינטואיטיבית יותר (או, אם לומר זאת בצורה מדויקת יותר, טובה יותר בהדמיית אינטואיציה), אך עדיין מתקשה לפעמים בזיהוי סרקזם ודמויות דיבור. זה היה נכון עוד יותר ב-2016. מה שמובן מאליו לבני אדם אינו ברור לבינה מלאכותית; במילים אחרות, זה חסר שכל ישר.

אנשי בינה מלאכותית כמו טיי לא מבינים מדוע בני אדם הם כפי שאנו, פועלים כפי שאנו עושים, ואת האקסצנטריות של כל אדם. זה אולי מתנהג ונשמע אנושי במידה מפתיעה, אבל תכנות טוב יכול להגיע רק עד כה.

5. יש לתכנת בינה מלאכותית כדי לדחות בקשות לא חוקיות

בינה מלאכותית מאוד מושפעת ויש לתכנת אותה כדי לדחות בקשות המקדמות נזק. גם היום, אחרי כל ההתקדמות שלנו בעיבוד שפה טבעית, אנשים עדיין מוצאים פרצות לשוניות לגרום לצ'אטבוטים של AI כמו ChatGPT "להזות" ולספק תוצאות שנועדו להיות מוגבלות.

הנקודה כאן היא שהבינה המלאכותית היא צייתנית לחלוטין, וזו אולי החוזק והחולשה הגדולים ביותר שלה. כל מה שאתה לא רוצה שצ'אטבוט יעשה חייב להיות מתוכנת בו ידנית.

6. אסור להשאיר צ'טבוטים של AI ללא פיקוח

עד שבינה מלאכותית יכולה לווסת את עצמה, אי אפשר להשאיר אותה ללא פיקוח. אתה יכול לחשוב על הבינה המלאכותית של היום כמו ילד פלא; זה מבריק במובנים מסוימים, אבל זה עדיין ילד בכל זאת. אם יישאר ללא השגחה, אנשים ינצלו את החולשות שלו - וטאי היה דוגמה מצוינת לכך.

בינה מלאכותית היא כלי, בדיוק כמו האינטרנט, אבל הקצב והקנה מידה שבו דברים יכולים להגיב עם בינה מלאכותית גדולים בהרבה ממה שחווינו במהלך הימים הראשונים של האינטרנט.

בינה מלאכותית זקוקה לפיקוח ורגולציה מתמידים

טיי הוא לא הצ'אט-בוט היחיד שעשה נוכלים - היו מקרים רבים אחרים בדיוק כמוהו. אבל מה שגרם לו לבלוט הוא המהירות העצומה שבה הוא עשה זאת - והעובדה שהוא נוצר על ידי ענקית טכנולוגיה כמו מיקרוסופט.

דוגמאות כאלה מראות עד כמה אנחנו צריכים להיות זהירים בפיתוח כלי בינה מלאכותית, במיוחד כאשר הם נועדו לשמש אנשים רגילים.