עם מודלים מודרניים של שפות בינה מלאכותית כמו ChatGPT ו-Bing Chat של מיקרוסופט מהווים גלים ברחבי העולם, מספר אנשים מודאגים מכך שה-AI ישתלט על העולם.
למרות שלא ניתקל ב-SkyNet בעתיד הנראה לעין, AI משתפרת מבני אדם במספר דברים. כאן נכנסת לתמונה בעיית בקרת הבינה המלאכותית.
מוסברת בעיית בקרת הבינה המלאכותית
בעיית בקרת הבינה המלאכותית היא הרעיון שבינה מלאכותית תהפוך בסופו של דבר טובה יותר בקבלת החלטות מאשר בני אדם. בהתאם לתיאוריה הזו, אם בני אדם לא יגדירו דברים נכון מראש, לא תהיה לנו הזדמנות לתקן דברים מאוחר יותר, כלומר לבינה מלאכותית תהיה שליטה יעילה.
המחקר הנוכחי על מודלים של AI ו-Machine Learning (ML) הוא, לכל הפחות, שנים ממעבר ליכולות האנושיות. עם זאת, סביר לחשוב שבהתחשב בהתקדמות הנוכחית, AI יעלה על בני אדם במונחים של אינטליגנציה ויעילות כאחד.
זה לא אומר שלדגמי AI ו-ML אין גבולות. הם, אחרי הכל, כבולים לחוקי הפיזיקה והמורכבות החישובית, כמו גם לכוח העיבוד של המכשירים התומכים במערכות אלו. עם זאת, ניתן להניח שהמגבלות הללו הן הרבה מעבר ליכולות האנושיות.
זה אומר שסופר אינטליגנטי מערכות AI יכולות להוות איום גדול
אם לא תוכנן כראוי עם אמצעי הגנה במקום כדי לבדוק כל התנהגות שעלולה להיות נוכלת. מערכות כאלה צריכות להיבנות מהיסוד כדי לכבד את הערכים האנושיים ולשמור על כוחן. זו המשמעות של בעיית הבקרה כשהיא אומרת שהדברים חייבים להיות מוגדרים נכון.אם מערכת AI הייתה עולה על המודיעין האנושי ללא אמצעי ההגנה המתאימים, התוצאה עלולה להיות קטסטרופלית. מערכות כאלה יכולות לקבל שליטה על משאבים פיזיים שכן משימות רבות מושגות בצורה טובה יותר או יעילה יותר. מכיוון שמערכות בינה מלאכותית נועדו להשיג יעילות מקסימלית, איבוד שליטה עלול להוביל לתוצאות חמורות.
מתי חלה בעיית בקרת הבינה המלאכותית?
הבעיה העיקרית היא שככל שמערכת בינה מלאכותית משתפרת, כך קשה יותר למפקח אנושי לנטר את הטכנולוגיה כדי להבטיח שניתן להשתלט בקלות על שליטה ידנית במקרה שהמערכת תיכשל. בנוסף, הנטייה האנושית להסתמך על מערכת אוטומטית גבוהה יותר כאשר המערכת פועלת בצורה מהימנה רוב הזמן.
דוגמה מצוינת לכך היא חבילת טסלה לנהיגה עצמית מלאה (FSD).. בעוד שהמכונית יכולה לנהוג בעצמה, זה דורש מאדם להיות עם ידיו על ההגה, מוכן להשתלט על המכונית במקרה של תקלה במערכת. עם זאת, ככל שמערכות הבינה המלאכותית הללו נעשות אמינות יותר, אפילו תשומת הלב של האדם הערני ביותר תתחיל להשתנות, והתלות במערכת האוטונומית תגדל.
אז מה קורה כשמכוניות מתחילות לנסוע במהירויות שבני אדם לא יכולים לעמוד בהן? בסופו של דבר נמסור את השליטה למערכות האוטונומיות של המכונית, כלומר מערכת AI תשלוט בחייך, לפחות עד שתגיע ליעד.
האם ניתן לפתור את בעיית בקרת הבינה המלאכותית?
ישנן שתי תשובות לשאלה האם ניתן לפתור את בעיית בקרת הבינה המלאכותית או לא. ראשית, אם נפרש את השאלה מילולית, לא ניתן לפתור את בעיית השליטה. אין שום דבר שאנחנו יכולים לעשות שמכוון ישירות לנטייה האנושית להסתמך על מערכת אוטומטית כאשר היא פועלת בצורה אמינה ויעילה יותר רוב הזמן.
עם זאת, אם נטייה זו תובא בחשבון כמאפיין של מערכות כאלה, נוכל לתכנן דרכים לעקוף את בעיית הבקרה. לדוגמה, ה קבלת החלטות אלגוריתמית ובעיית הבקרה מאמר מחקר מציע שלוש שיטות שונות להתמודדות עם המצב הקשה:
- השימוש במערכות פחות אמינות מחייב אדם לעסוק באופן פעיל במערכת שכן מערכות פחות אמינות אינן מהוות את בעיית הבקרה.
- לחכות שמערכת תעלה על היעילות והאמינות האנושית לפני פריסה בעולם האמיתי.
- ליישם אוטומציה חלקית בלבד באמצעות פירוק משימות. המשמעות היא שרק אותם חלקים במערכת שאינם דורשים ממפעיל אנושי לבצע משימה חשובה הם אוטומטיים. זה נקרא גישת הקצאת פונקציות דינמית/משלימה (DCAF).
גישת DCAF תמיד מציבה מפעיל אנושי בראש מערכת אוטומטית, ומבטיחה שהקלט שלו שולט בחלקים החשובים ביותר בתהליך קבלת ההחלטות של המערכת. אם מערכת מעורבת מספיק כדי שמפעיל אנושי ישים לב כל הזמן, ניתן לפתור את בעיית הבקרה.
האם אי פעם נוכל לשלוט ב-AI באמת?
ככל שמערכות בינה מלאכותית הופכות למתקדמות, מסוגלות ואמינות יותר, נמשיך להוריד אליהן משימות נוספות. עם זאת, ניתן לפתור את בעיית בקרת הבינה המלאכותית בעזרת אמצעי הזהירות וההגנה הנכונים.
AI כבר משנה את העולם עבורנו, בעיקר לטובה. כל עוד הטכנולוגיה נשמרת תחת פיקוח אנושי, לא צריך להיות לנו מה לדאוג.