דיונים סביב תחושת בינה מלאכותית אינם דבר חדש, אך חדשות על ה-AI LaMDA של גוגל הציתו את הלהבות. לאחר שמהנדס טען שהבוט היה בהכרה, ואפילו בעל נשמה, עלו שוב כמה שאלות מוכרות.
האם בינה מלאכותית כמו LaMDA יכולה להיות מודע או מודע לעצמה, ואם כן, איך אתה יכול לדעת? האם זה משנה?
מה זה למד"א?
LaMDA, קיצור של Language Model for Dialogue Applications, הופיע לראשונה בשנת 2021 בכנס המפתחים של גוגל. מערכת הבינה המלאכותית המתקדמת אמורה לעזור לבנות צ'אטבוטים אחרים וקטנים יותר. כשגוגל הציגה אותו לראשונה, היא הודיעה על תוכניות לשלב אותו בכל דבר, כדי לעזור לשירותים כמו Google Assistant וחיפוש להרגיש אנושיים יותר, או לפחות טבעיים.
כאשר מהנדס גוגל בלייק למויין דיבר עם למד"א כדי לראות אם הוא השתמש בדברי שטנה, הוא הגיע עם רושם שונה. Lemoine טען שלמד"א היה רגיש, ואם הוא לא ידע שזה בוט, הוא היה חושב שזה ילד בן שמונה.
לאחר שיחותיו עם למד"א, למוין ניסה להוכיח שהוא מודע ולהגן על מה שלדעתו הוא זכויותיו החוקיות. בתגובה, גוגל הוציאה את Lemoine לחופשה מנהלית בתשלום בגין הפרת הסכמי סודיות.
האם LaMDA באמת מרגיש?
אז, האם למד"א באמת מרגיש? רוב המומחים שחשבו על הנושא הם סקפטיים. LaMDA היא פלטפורמת צ'אט מתקדמת ביותר בינה מלאכותית המנתחת טריליוני מילים מהאינטרנט, כך שהיא מיומנת להישמע כמו אדם אמיתי.
זו לא הפעם הראשונה שאחד מה-AI של גוגל שולל אנשים לחשוב שהוא אנושי. בשנת 2018, גוגל הדגימה את ה-Duplex AI שלה על ידי קריאה למסעדה להזמין שולחן. בשום שלב לא נראה שהעובד בצד השני מטיל ספק בכך שהם מדברים עם אדם.
קשה להגדיר משפט, למרות שרוב האנשים ספק שה-AI הגיע לנקודה הזו עדיין. עם זאת, ייתכן שהשאלה החשובה אינה האם ל-MDA אכן מרגיש, אלא מה זה משנה אם הוא יכול להטעות אנשים לחשוב שכן.
השלכות משפטיות אפשריות של למד"א
מצב למד"א מעלה הרבה שאלות משפטיות ואתיות. ראשית, אנשים מסוימים עשויים לתהות אם גוגל צדקה כשהיא מוציאה את Lemoine לחופשה בגלל שדיברה על כך.
על פי סעיף 740 לחוק העבודה של ניו יורק, הגנות על חושפי שחיתויות מגנות על עובדים מפני השלכות אם הם מאמינים שהנוהגים של המעסיק שלהם מפרים את החוק או מהווים סיכון משמעותי לציבור בְּטִיחוּת. המשפט כביכול של למד"א אינו עומד בדרישה החוקית הזו, אבל האם כדאי?
מתן זכויות בינה מלאכותית הוא נושא מסובך. בעוד AI יכול ליצור דברים ולהיראות אנושיים, אתה יכול להיתקל במצבים מסובכים אם למכונות האלה יש הגנות משפטיות. זכויות משפטיות פועלות סביב תגמולים ועונשים שאינם משפיעים על AI, מה שמסבך את הצדק.
אם מכונית בנהיגה עצמית פוגעת בהולך רגל, האם הבינה המלאכותית אשמה אם החוק מתייחס אליה כאל אדם? ואם כן, זה לא בהחלט נותן צדק לקורבן מכיוון שאתה לא יכול מבחינה טכנית להעניש בינה מלאכותית באותו אופן שהיית עושה לאדם.
שאלה נוספת שמתעוררת עם LaMDA וצ'טבוטים דומים של AI היא האבטחה שלהם. אם הבוטים האלה נראים אמיתיים בצורה משכנעת, אנשים עשויים לסמוך עליהם יותר ולהיות מוכנים לתת להם מידע רגיש יותר. זה פותח את הדלת לשלל חששות פרטיות ואבטחה אם הטכנולוגיה הזו תיפול לידיים הלא נכונות.
AI מציגה שאלות אתיות מסובכות
בינה מלאכותית כמו LaMDA ממשיכה להיות מתוחכמת ומציאותית יותר. ככל שהמגמה הזו גדלה, חברות ומחוקקים צריכים להעריך מחדש את האופן שבו הם מתייחסים לבינה מלאכותית וכיצד החלטות אלו יכולות להשפיע על הצדק והביטחון.
כפי שהוא נראה, ה-LaMDA AI של גוגל אולי לא מרגיש, אבל הוא מספיק טוב כדי להערים אנשים לחשוב שכן, מה שאמור לעורר כמה אזעקות.