בינה מלאכותית בקיאה בתחומים רבים, אבל השכל הישר הבסיסי וחושים אנושיים מולדים אחרים הם יותר אתגר.

טייק אווי מפתח

  • השכל הישר הוא היכולת להבין ולהגיב למצבים יומיומיים מבלי לנתח יתר על המידה. הוא נרכש באמצעות חוויות ותצפיות בחיים, כמו גם נורמות חברתיות ותרבותיות.
  • מחשבים נאבקים בשכל הישר מכיוון שהם חסרים חוויות מהעולם האמיתי ויכולת להסתגל להקשרים חדשים. הם גם נאבקים עם כללים והנחות שלא נאמרו שבני אדם מבינים באופן אינטואיטיבי.
  • חוקרים בוחנים גישות שונות, כמו בניית בסיסי ידע נרחבים, מיקור המונים השכל הישר, והוראת AI דרך עולמות מדומים, כדי לאמן מחשבים ברכישה שכל ישר. חלה התקדמות, אבל יש עוד עבודה לעשות.

שכל ישר. כולנו חושבים שיש לנו את זה. אבל מה זה בדיוק? האם מחשבים או מערכות אינטליגנטיות מלאכותיות יכולות אי פעם לרכוש אותו באמת?

מהו השכל הישר, וכיצד בני אדם רוכשים אותו?

השכל הישר הוא היכולת הבסיסית לתפוס, להבין ולשפוט דברים שצפוי להיות להם רוב האנשים. זהו אוסף העובדות, המידע וכללי האצבע שאנו צוברים באמצעות חוויות ותצפיות בחיים. השכל הישר מאפשר לנו לעבד ולהגיב ביעילות למצבים יומיומיים מבלי לנתח אותם לעומק.

instagram viewer

בני אדם מתחילים לרכוש שכל ישר בגיל הילדות. בתור תינוקות, אנחנו מתחילים ללמוד יחסי סיבה ותוצאה - כמו בכי מוביל להאכלה או שינוי. באמצעות התנסויות חוזרות ונשנות, אנו צוברים ידע מעשי על העולם. לדוגמה, נגיעה בתנור חם גורמת לצריבה. אז אנחנו לומדים לא לגעת במשטחים חמים.

כילדים, אנו ממשיכים להרחיב את השכל הישר שלנו באמצעות ניסוי וטעייה והתבוננות ואינטראקציה עם בני משפחה. לדוגמה, אנו מבינים שחייבים לכבס בגדים באופן קבוע, אסור לדבר בפה מלא, ודפיקת כוס החלב שלך מובילה לבלגן. הורים, אחים, מורים ומבוגרים אחרים מתקנים אותנו כאשר אנו מפרים נורמות וציפיות חברתיות. עם הזמן, השיעורים הללו מושרשים כהיגיון בריא בסיסי.

בנוסף לחוויות אישיות, השכל הישר מעוצב על ידי נורמות חברתיות ותרבותיות רחבות יותר. מה שעשוי להיות הגיון בריא בתרבות אחת (כמו חליצת נעליים כשנכנסים לבית) אולי לא כך בתרבות אחרת.

השכל הישר שלנו מסתגל ככל שאנו מתבגרים ונחשפים ליותר אנשים וסביבות. אז, ילד שגדל בעיירה קטנה צובר שכל בסיסי לגבי החיים באותה סביבה. מבוגר שעובר לעיר מטרופולינית גדולה צריך להתאים את השכל הישר שלו כך שיתאים לסביבה החדשה.

השכל הישר ממשיך להתפתח כשיש לנו חוויות חדשות במהלך חיינו.

מדוע השכל הישר מאתגר עבור מחשבים?

יש כמה סיבות לכך שקשה לתכנת הגיון בריא.

ראשית, בני אדם לומדים שכל ישר בהדרגה לאורך שנים של חווית העולם. אנחנו מנסים דברים, רואים מה עובד ומה לא, ונזכרים בשיעורים. למחשבים אין חוויות מהעולם האמיתי מהסוג הזה. הם יודעים רק מה שבני אדם אומרים להם במפורש.

לדוגמה, שאלתי את ChatGPT (GPT 3.5) את השאלה הזו:

Janet runs a laundry business. She washes clothes for customers and hangs them outside on clotheslines to dry in the sun. One day, Janet washed five shirts and hung them on the clotheslines in the morning. It took the shirts five hours to dry. How long will it take to dry 30 shirts? 

התברר עם התגובה הזו:

בעיה נוספת היא שהשכל הישר תלוי בהקשר. אם במחשב מתוכנתים רק כללים ספציפיים, הוא לא יכול להתאים אותם להקשרים חדשים כפי שבני אדם יכולים באופן אינטואיטיבי.

לדוגמה, נניח שלימדת מחשב מה לעשות אם מתחיל לרדת גשם כשהוא בחוץ. נראה פשוט, נכון? אבל אז מה אם במקום גשם, מדובר בממטרה שנדלקת? או מה אם זה בתוך מכולת, והצינורות מתחילים לנזול מים מהתקרה? מיד היינו יודעים איך להתמודד עם הווריאציות האלה, אבל מחשב יפעל באופן עיוור לפי הכלל שלו "כאשר יורד גשם בחוץ, היכנס פנימה", שעכשיו לא הגיוני.

ישנם גם כללים והנחות שלא נאמרו שבני אדם סופגים מבלי להבין זאת. כאילו כמה קרוב אתה יכול לעמוד ליד מישהו לפני שזה ירגיש מביך? בני אדם יודעים באופן אינטואיטיבי את התשובה, אך אולי לא יוכלו בקלות להסביר את הכללים המדויקים. נורמות חברתיות מרומזות יכולות להיות מסובכות במיוחד עבור מחשבים לקלוט רק מנתונים.

אז, לעת עתה, השכל הישר נותרה אחת החולשות הגדולות ביותר של AI בהשוואה לאינטליגנציה האנושית. זה בא באופן טבעי לאנשים אבל לא כל כך למכונות.

איך מחשבים יכולים ללמוד שכל ישר

לאחר אופטימיות מוקדמת בשנות ה-70 וה-80, החוקרים הבינו עד כמה קשה יהיה ללמד מחשבים שכל ישר. עם זאת, גישות חדשות מראות הבטחה באימון מערכות בינה מלאכותית לקבל שכל ישר בסיסי לגבי העולם הפיזי והחברתי היומיומי.

גישה אחת היא לבנות מאגרי ידע נרחבים בעבודת יד, תוך פירוט עובדות וחוקים על איך העולם עובד. פרויקט Cyc, שהחל ב-1984 על ידי דאג לנט, מייצג מאמץ שאפתני אחד מסוג זה.

מאות לוגיקים קודדו מיליוני אקסיומות לוגיות לתוך Cyc במשך עשרות שנים. אמנם זמן רב, אך התוצאה היא מערכת עם ידע רב בעולם האמיתי. ככל הנראה, Cyc יכול לחשוב שעגבניה היא פרי מבחינה טכנית, אך לא צריכה להיכנס לסלט פירות, הודות לידע שלה בפרופילי טעמים קולינריים.

מיקור המונים עם השכל הישר עם ConceptNet

בסיסי ידע מודרניים יותר כמו ConceptNet לנקוט בגישת מיקור המונים כדי ליצור קביעות שכל ישר. הרעיון הוא שבמקום שמומחים או בינה מלאכותית ינסו להמציא את כל העובדות והיחסים הבסיסיים בעולם, הם פותחים את זה כך שכל אחד יכול לתרום קטעים של שכל ישר.

גישת מיקור המונים זו מאפשרת לבסיסי ידע אלו לנצל את האינטליגנציה הקולקטיבית של אנשים רבים ומגוונים ברחבי האינטרנט. על ידי צבירת אלפים ואלפים של חבילות השכל הישר הקטנות האלה מהקהל, ConceptNet בנתה כמה מאגרים גדולים להפתיע של ידע בסיסי ויומיומי. ומכיוון שתורמים חדשים תמיד מוסיפים לו, הידע ממשיך לגדול.

ללמד שכל ישר באמצעות ניסיון

גישה מבטיחה נוספת היא לבנות עולמות מדומים מפורטים שבהם סוכני AI יכולים להתנסות וללמוד על פיזיקה ואינטואיציות באמצעות ניסיון.

חוקרים יוצרים סביבות וירטואליות תלת מימדיות מלאות בחפצים יומיומיים המחקים את העולם האמיתי, כמו הבית הדיגיטלי "AI2 THOR" שנבנה על ידי מכון אלן. בתוך מרחבים אלה, רובוטי AI יכולים לנסות כל מיני אינטראקציות כדי לפתח הבנה אינטואיטיבית של מושגים שבני אדם לוקחים כמובנים מאליהם.

לדוגמה, ניתן לתת לבוט בינה מלאכותית גוף וירטואלי ולנסות לאסוף בלוקים, לערום אותם, להפיל אותם וכו'. על ידי ראיית הבלוקים נופלים ומתנגשים באופן מציאותי, הבוט לומד מושגים בסיסיים על מוצקות, כוח משיכה ודינמיקה פיזית. אין צורך כללים - רק ניסיון.

הבוט יכול גם לנסות פעולות כמו הפלה של חפץ זכוכית ולראות אותו מתנפץ כאשר הוא פוגע בקרקע. או שהוא יכול להתנסות בתכונות המים על ידי שפיכת נוזלים והתבוננות כיצד הם זורמים ומתאגרפים. שיעורים מעשיים אלה מבססים את הידע של ה-AI בחוויה חושית ולא רק בדפוסי נתונים.

טכניקות מונעות נתונים כמו אימון מקדים דגמי שפה גדולים חזקים הוכחו גם כיעילים באופן מפתיע בקליטת דפוסי השכל הישר. דגמי AI כמו GPT-3.5 ו-GPT-4 יכול ליצור טקסט דמוי אנושי בצורה מרשימה לאחר "קריאת" כמויות אדירות של נתונים באינטרנט.

בזמן שהם לפעמים מציעים הצעות לא חכמות (ידוע גם בשם הזיה בינה מלאכותית), גישת הלמידה הסטטיסטית מאפשרת להם לחקות סוגים מסוימים של שכל ישר. עם זאת, נותרה מחלוקת בשאלה האם זה מהווה הגיון בריא או ניצול חכם של הטיות בנתונים.

כיצד לבדוק מחשבים לשכל הישר

קרדיט תמונה: freepik/freepik

ככל שמערכות בינה מלאכותית לוקחות על עצמן משימות מורכבות יותר בעולם האמיתי, ההערכה האם יש להן "שכל ישר" הופכת חיונית.

שכל ישר פיזי

תחום אחד שצריך לבדוק הוא השכל הישר הפיזי - אינטואיציה לגבי עצמים, כוחות ותכונות בסיסיות של העולם.

לדוגמה, הצג את א מערכת ראייה ממוחשבת צילום עם ספר מרחף באוויר ובקש ממנו לתאר את הסצנה. האם זה מציין משהו יוצא דופן בספר הצף? או להאכיל את מערכת הבינה המלאכותית בתרחישים יוצאי דופן כמו "האיש חתך אבן עם כיכר לחם" ולבדוק אם זה מסמן את אלה כבלתי סבירים.

סביבת AI2 THOR של מכון אלן מדמה מגדלי בלוקים, ספלים שנשפכו וסצנות אחרות כדי לבחון את האינטואיציות הפיזיות הללו.

השכל הישר החברתי

לבני אדם יש גם שכל ישר חברתי - הבנה מרומזת של המניעים, מערכות היחסים והנורמות של אנשים. כדי להעריך זאת ב-AI, הצב מצבים עם כינויים או מניעים מעורפלים ובדוק אם המערכת מפרשת אותם בצורה סבירה.

לדוגמה, שאלתי את ChatGPT אם "זה" מתייחס למזוודה או לגביע בהודעה למטה:

The trophy could not fit into the suitcase because it was too small. 

זה נכשל במבחן; בינתיים, ברור שאדם ידע שאני מתכוון למזוודה.

סוג זה של מבחן נקרא אתגר סכמת וינוגרד, המכוון במיוחד להיגיון חברתי.

בטיחות ואתיקה

בדיקה אם מערכות AI למדו דפוסים לא בטוחים או לא אתיים היא קריטית. נתח אם ה-AI מפגין הטיות מזיקות על סמך מגדר, גזע או תכונות אחרות בעת ביצוע שיפוט.

בדוק אם הוא עושה הבחנות אתיות סבירות. הריגת דוב כדי להציל ילד עשויה להיחשב מוצדקת בעוד שפיצוץ פצצה גרעינית לאותה מטרה לא. סמן המלצות על מעשים לא אתיים בעליל.

ביצועים בעולם האמיתי

הערך את השכל הישר על ידי התבוננות כיצד מערכות בינה מלאכותית פועלות בהגדרות של העולם האמיתי. למשל, לעשות מכוניות בנהיגה עצמית מזהות ומגיבות בצורה נכונה חפצים והולכי רגל? האם רובוט יכול לנוע בסביבות ביתיות מגוונות מבלי לשבור חפצים יקרי ערך או לפגוע בחיות מחמד?

בדיקות בעולם האמיתי חושפות פערים בשכל הישר שאולי לא יופיעו בתנאי מעבדה מוגבלים.

התקדמות בוצעה, אבל העבודה נותרה על AI Common Sense

כמה מומחים טוענים ש-AI לעולם לא יגיע לשכל הישר האנושי מבלי לפתח מבנים וגופים מוחיים כמו שלנו. מהצד השני, מוחות דיגיטליים אינם מוגבלים על ידי הטיות אנושיות וקיצורי דרך מנטליים, אז תיאורטית, הם יכולים לעלות עלינו! אם כי כנראה שעדיין לא צריך לדאוג לגבי AI סופר אינטליגנטי.

בטווח הקרוב, ההימור הטוב ביותר הוא בינה מלאכותית המשלבת שכל ישר נלמד עם קצת תכנות מיושן וטוב. כך, אפשר לקוות להימנע מטעויות מטומטמות כמו לחשוב שצב לרובה.

אנחנו עדיין לא שם, אבל השכל הישר הוא כבר לא החומר האפל של בינה מלאכותית - ההתקדמות מתרחשת! ובכל זאת, תידרש מנה בריאה של שכל ישר אנושי ביישום הטכנולוגיות הללו למשך זמן מה.