החידושים האחרונים סביב טכנולוגיה מבוססת בינה מלאכותית פורצים את הגבולות של מה שחשבנו פעם שאפשרי עם בינה מלאכותית. עם זאת, כאשר צ'אטבוטים כמו ChatGPT ו-Bing Chat מצליחים כמעט כמו בני אדם בכמה דברים, האם הגיע הזמן להקיש על הבלמים לזמן מה?
אילון מאסק וכמה חוקרי בינה מלאכותית הם בין 1,188 האנשים (בזמן כתיבת שורות אלו) שחושבים כך. מכתב שפרסם מכון Future of Life ללא מטרות רווח קורא להפסקה של שישה חודשים בהכשרת טכנולוגיות AI טוב יותר מ-GPT 4, אך האם באמת נדרשת הפסקה?
מה עוסק עתיד החיים במכתב פתוח?
ה מכתב שפורסם על ידי מכון עתיד החיים מציין כי מעבדות בינה מלאכותית "ננעלו במרוץ שיצא משליטה" לפיתוח ולפרוס עוד ועוד דגמי AI חזקים יותר שאף אחד, כולל יוצריהם, לא יכול "להבין, לחזות או באופן אמין לִשְׁלוֹט".
הוא גם מציין כי מערכות בינה מלאכותית עכשוויות הופכות כעת לתחרותיות אנושיות במשימות כלליות ושואלת האם עלינו לפתח "מוחות לא אנושיים שעלולים בסופו של דבר לעלות במספרם, להתחכם, מיושן ולהחליף לָנוּ".
המכתב קורא בסופו של דבר לכל מעבדות הבינה המלאכותית להשהות מיד את האימון של מערכות בינה מלאכותיות חזקות יותר מ-GPT-4 למשך שישה חודשים לפחות. ההפסקה צריכה להיות ציבורית וניתנת לאימות גם בכל השחקנים המרכזיים. הוא גם קובע שאם לא ניתן לאכוף הפסקה כזו במהירות, ממשלות צריכות להתערב כדי לאסור אימון מודל AI באופן זמני.
לאחר שההפסקה פעילה, מעבדות בינה מלאכותית ומומחים עצמאיים מתבקשים להשתמש בה כדי לפתח ולהטמיע במשותף "קבוצה משותפת של פרוטוקולי אבטחה" כדי להבטיח שמערכות המצייתות לכללים אלה "בטוחות מעבר לסבירות ספק".
על המכתב הזה חתמו לא מעט אישים בשם, כולל אילון מאסק, סטיב ווזניאק, וחוקרי וסופרים של בינה מלאכותית. למעשה, רשימת החותמים מושהית כעת עקב ביקוש רב.
מה החששות של מאסק עם טכנולוגיית בינה מלאכותית מתקדמת ו-OpenAI?
למרות שחתימה על מכתבו של Future of Life עשויה להצביע על כך שמאסק מודאג מהסיכונים הבטיחותיים שמערכות AI מתקדמות כאלה מציבות, הסיבה האמיתית עשויה להיות משהו אחר.
מאסק ייסד את OpenAI יחד עם המנכ"ל הנוכחי, סם אלטמן, בשנת 2015 כמלכ"ר. עם זאת, הוא התחבט עם אלטמן מאוחר יותר ב-2018 לאחר שהבין שהוא לא מרוצה מההתקדמות של החברה. לפי הדיווחים מאסק רצה להשתלט כדי להאיץ את הפיתוח, אבל אלטמן ומועצת המנהלים של OpenAI ביטלו את הרעיון.
מאסק התרחק מ-OpenAI זמן קצר לאחר מכן ולקח איתו את כספו, תוך שהוא מפר את הבטחתו לתרום מיליארד אחד במימון ולתת רק 100 מיליון לפני שעזב. זה אילץ את OpenAI להפוך לחברה פרטית זמן קצר לאחר מכן במרץ 2019 כדי לגייס מימון להמשך המחקר שלה.
סיבה נוספת מדוע מאסק עזב הייתה שפיתוח הבינה המלאכותית בטסלה יגרום לניגוד עניינים בעתיד. ברור שטסלה זקוקה למערכות AI מתקדמות כדי להפעיל אותה תכונות נהיגה עצמית מלאה. מאז שמאסק עזב את OpenAI, החברה ברחה עם דגמי הבינה המלאכותית שלה והושקה ChatGPT המופעל על ידי GPT3.5 בשנת 2022 ומאוחר יותר בעקבות GPT-4 במרץ 2023.
צריך לקחת בחשבון את העובדה שצוות הבינה המלאכותית של מאסק לא קרובה ל-OpenAI בכל פעם שהוא אומר שדגמי בינה מלאכותית מודרניים עלולים להוות סיכונים. גם לו לא היו בעיות השקת גרסת הבטא לנהיגה עצמית מלאה של טסלה על כבישים ציבוריים, בעצם הופך נהגים רגילים של טסלה לבודקי בטא.
גם זה לא נגמר כאן. מאסק גם היה די ביקורתי על OpenAI בטוויטר, כאשר אלטמן הרחיק לכת ואמר שהוא תוקף אותם בזמן שהופיע בפודקאסט "On with Kara Swisher" לאחרונה.
כרגע, נראה שמאסק רק משתמש במכתב Future of Life כדי לעצור את הפיתוח ב-OpenAI ובכל חברה אחרת שמתעדכנת ל-GPT-4 כדי לתת לחברות שלו הזדמנות להתעדכן במקום להיות מודאג מהסכנות הפוטנציאליות של דגמי הבינה המלאכותית האלה פּוֹזָה. שימו לב שהמכתב גם מבקש להשהות את ה"אימון" של מערכות בינה מלאכותית למשך שישה חודשים, שניתן לעקוף בקלות יחסית כדי להמשיך ולפתח אותן בינתיים.
האם באמת יש צורך בהפסקה?
הצורך בהפסקה תלוי במצב של דגמי בינה מלאכותית קדימה. המכתב הוא בהחלט קצת דרמטי בטון, ואנחנו לא מסתכנים באיבוד שליטה על הציוויליזציה שלנו ל-AI, כפי שהוא קובע כל כך בגלוי. זה נאמר, טכנולוגיות AI אכן מהוות כמה איומים.
בהתחשב בכך ש-OpenAI ומעבדות AI אחרות יכולות להמציא בדיקות בטיחות טובות יותר, הפסקה תגרום יותר נזק מתועלת. עם זאת, ההצעה של המכתב למערכת של פרוטוקולי בטיחות משותפים ש"מבוקרים בקפדנות ומפוקחים על ידי מומחים חיצוניים בלתי תלויים" אכן נשמעת כמו רעיון טוב.
כאשר ענקיות טכנולוגיה כמו גוגל ומיקרוסופט מזרימות מיליארדים לפיתוח בינה מלאכותית ושילוב במוצרים שלהן, לא סביר שהמכתב ישפיע על הקצב הנוכחי של פיתוח בינה מלאכותית.
AI כאן כדי להישאר
עם ענקיות הטכנולוגיה שדוחפות את שילוב הבינה המלאכותית במוצרים שלהן ומכניסות מיליארדי דולרים במחקר ופיתוח, בינה מלאכותית כאן כדי להישאר, ללא קשר למה שהאופוזיציה אומרת.
אבל זה לא רעיון רע ליישם אמצעי בטיחות כדי למנוע מהטכנולוגיות הללו לרדת מהפסים ולהפוך פוטנציאליים לכלי פגיעה.