הרעיון שטכנולוגיות AI חייבות להיות מווסתות הוא סנטימנט נפוץ. רוב הממשלות, מפתחי מוצרי בינה מלאכותית ואפילו משתמשים רגילים של מוצרי בינה מלאכותית מסכימים על כך. למרבה הצער, הדרך הטובה ביותר להסדיר את התחום הצומח במהירות היא חידה בלתי פתורה.
אם לא בודקים אותם, טכנולוגיות AI יכולות לשבש לרעה את אורח החיים שלנו ולאיים על קיומנו. אבל איך ממשלות יכולות לנווט במבוך האתגרים שמגיע עם התחום המתפתח במהירות?
1. תקנות פרטיות והגנה על נתונים
אחת הדאגות העיקריות עם טכנולוגיות AI היא פרטיות ואבטחת נתונים. מערכות בינה מלאכותית הן מכונות זוללות נתונים. הם צריכים נתונים כדי לפעול, יותר נתונים כדי להיות יעילים, ואפילו יותר נתונים כדי לשפר. אמנם זו לא בעיה, אבל הדרך שבה הנתונים האלה מקורם, טיבם ואיך הם מעובדים ומאוחסנים הם אחת מנקודות הדיבור הגדולות ביותר סביב תקנות בינה מלאכותית.
בהתחשב בכך, הדרך ההגיונית לנקוט היא להציב תקנות קפדניות של פרטיות נתונים השולטות בנתונים איסוף, אחסון ועיבוד, כמו גם זכויותיהם של אנשים - שהנתונים שלהם נמצאים בשימוש - לגשת ולשלוט הנתונים שלהם. שאלות שסביר להניח שהתקנות הללו יתייחסו הן:
- איזה סוג של נתונים ניתן לאסוף?
- האם נתונים פרטיים מסוימים צריכים להיחשב כטאבו ב-AI?
- כיצד חברות בינה מלאכותית צריכות לטפל בנתונים אישיים רגישים, כגון רישומי בריאות או מידע ביומטרי?
- האם חברות בינה מלאכותית יידרש להטמיע מנגנונים ליחידים לבקש מחיקה או תיקון של הנתונים האישיים שלהם בקלות?
- מהן ההשלכות על חברות בינה מלאכותית שאינן עומדות בתקנות פרטיות הנתונים? כיצד יש לפקח על הציות, וכיצד יש להבטיח את האכיפה?
- אולי הכי חשוב, איזה תקן צריכות חברות בינה מלאכותית ליישם כדי להבטיח את בטיחות האופי הרגיש של המידע שברשותן?
השאלות הללו וכמה אחרות היוו את עיקרה של מדוע ChatGPT נאסר באופן זמני באיטליה. אלא אם כן יטופלו החששות הללו, מרחב הבינה המלאכותית עשוי להיות מערב פרוע לפרטיות נתונים, והאיסור של איטליה עשוי להתברר כתבנית לאיסור על ידי מדינות אחרות ברחבי העולם.
2. פיתוח מסגרת AI אתית
חברות בינה מלאכותית מתהדרות לעתים קרובות במחויבותן להנחיות אתיות בפיתוח מערכות בינה מלאכותית. לפחות על הנייר, כולם תומכים בפיתוח AI אחראי. בתקשורת, מנהלי גוגל הדגישו כיצד החברה מתייחסת ברצינות לבטיחות ואתיקה של AI. באופן דומה, "AI בטוח ואתי" הוא מנטרה עבור מנכ"ל OpenAI, סם אלטמן. אלה די מברכים.
אבל מי קובע את החוקים? מי מחליט אילו הנחיות אתיות בינה מלאכותית מספיק טובות? מי מחליט איך נראה פיתוח AI בטוח? נכון לעכשיו, נראה שלכל חברת בינה מלאכותית יש ספין משלה לגבי פיתוח AI אחראי ואתי. OpenAI, Anthropic, Google, Meta, Microsoft, כולם. פשוט להסתמך על חברות בינה מלאכותית שיעשו את הדבר הנכון זה מסוכן.
ה ההשלכות של מרחב AI לא מסומן עלולות להיות קטסטרופליות. לתת לחברות בודדות להחליט אילו הנחיות אתיות לאמץ ואילו לזרוק דומה להליכה סהרורית אל תוך אפוקליפסת בינה מלאכותית. הפתרון? מסגרת בינה מלאכותית ברורה המבטיחה:
- מערכות בינה מלאכותית אינן מקפחות או מפלות באופן בלתי הוגן אנשים או קבוצות מסוימות על סמך גזע, מגדר או מצב סוציו-אקונומי.
- מערכות AI בטוחות, מאובטחות ואמינות, ומצמצמות את הסיכון להשלכות לא מכוונות או להתנהגות מזיקה.
- מערכות בינה מלאכותית נבנות מתוך מחשבה על ההשפעה החברתית הרחבה יותר של טכנולוגיות בינה מלאכותית.
- שבני אדם ישמרו על השליטה האולטימטיבית במערכות AI וקבלת ההחלטות שלהם בשקיפות.
- מערכות AI מוגבלות בכוונה בדרכים מועילות לבני אדם.
3. סוכנות רגולציה ייעודית
בשל השפעתה הפוטנציאלית על הציוויליזציה האנושית, הדיון סביב בטיחות בינה מלאכותית מקביל בדרך כלל לסיכון של משבר בריאות או אסון גרעיני. הימנעות מתקריות גרעיניות פוטנציאליות מחייבת סוכנות ייעודית כמו ה-NRC (Nuclear Regulatory Commission) של ארה"ב. הימנעות מהסיכון למשברים בריאותיים מסוכנים מחייבת את הקמת ה-FDA (מנהל המזון והתרופות)
באופן דומה, כדי להבטיח שדברים לא ישתבשו במרחב הבינה המלאכותית, נחוצה סוכנות ייעודית הדומה ל-FDA ול-NRC שכן בינה מלאכותית ממשיכה לעשות חדירה אגרסיבית לכל תחומי חיינו. למרבה הצער, הנושא של רגולציה של AI במדינה הוא נושא מסובך. העבודה של כל סוכנות רגולטורית ייעודית צפויה להיות קשה עד כאב ללא שיתוף פעולה חוצה גבולות. בדיוק כמו שה-NRC (נציבות הרגולציה הגרעינית) של ארה"ב צריכה לעבוד יד ביד עם האנרגיה האטומית הבינלאומית הסוכנות (IAEA) כדי להיות במיטבה, כל סוכנות רגולטורית AI ייעודית בארץ תצטרך גם אנלוג בינלאומי.
סוכנות כזו תהיה אחראית על הדברים הבאים:
- פיתוח תקנות AI
- הבטחת ציות ואכיפה
- פיקוח על תהליך הביקורת האתית של פרויקטים של AI
- שיתוף פעולה ושיתוף פעולה בין מדינות בנושא בטיחות ואתיקה של AI
4. טיפול בבעיות זכויות יוצרים וקניין רוחני
חוקי זכויות היוצרים הקיימים ומסגרות משפטיות מתפוררים מול הבינה המלאכותית. האופן בו תוכננו כלי בינה מלאכותית, במיוחד כלי בינה מלאכותית גנרטיבית, גורמת להם להיראות כמו מכונה להפרת זכויות יוצרים שאושרה על ידי הציבור שאינך יכול לעשות לגביה דבר.
אֵיך? ובכן, רבות ממערכות ה-AI של היום מאומנות באמצעות חומרים המוגנים בזכויות יוצרים. אתה יודע, מאמרים המוגנים בזכויות יוצרים, שירים המוגנים בזכויות יוצרים, תמונות המוגנות בזכויות יוצרים וכו'. ככה כלים אוהבים ChatGPT, Bing AI ו-Google Bard יכולים לעשות את הדברים המדהימים שהם עושים.
בעוד שמערכות אלו מנצלות בבירור את הקניין הרוחני של אנשים, הדרך שבה מערכות בינה מלאכותיות אלו עושות זאת אינו שונה מאדם שקורא ספר המוגן בזכויות יוצרים, מאזין לשירים המוגנים בזכויות יוצרים, או מביט בספר המוגן בזכויות יוצרים תמונות.
אתה יכול לקרוא ספר המוגן בזכויות יוצרים, ללמוד ממנו עובדות חדשות ולהשתמש בעובדות האלה כבסיס לספר שלך. אתה יכול גם להאזין לשיר המוגן בזכויות יוצרים כדי לקבל השראה ליצירת מוזיקה משלך. בשני המקרים, השתמשת בחומרים המוגנים בזכויות יוצרים, אבל זה לא בהכרח אומר שהמוצר הנגזר מפר את זכויות היוצרים של המקור.
למרות שזהו הסבר הגיוני להסביר את הבלגן שעושה AI מחוקי זכויות יוצרים, זה עדיין פוגע בבעלי זכויות היוצרים והקניין הרוחני. בהתחשב בכך, יש צורך בתקנות כדי:
- הגדירו בבירור את האחריות והאחריות של כל הצדדים המעורבים במחזור החיים של מערכת בינה מלאכותית. זה כולל הבהרת התפקידים של כל צד, ממפתחי בינה מלאכותית ועד משתמשי קצה, כדי להבטיח את האחריות הצדדים נושאים באחריות לכל הפרת זכויות יוצרים או הפרות קניין רוחני שבוצעו על ידי AI מערכות.
- לחזק את מסגרות זכויות היוצרים הקיימות ואולי להציג חוקי זכויות יוצרים ספציפיים ל-AI.
- להבטיח חדשנות במרחב הבינה המלאכותית תוך שמירה על זכויות היוצרים המקוריים, AI התקנות צריכות להגדיר מחדש את המושגים של שימוש הוגן ועבודה טרנספורמטיבית בהקשר של תוכן שנוצר בינה מלאכותית. דרושים הגדרות והנחיות ברורות יותר כדי להבטיח שמרחב AI יכול להמשיך להשתפר תוך כיבוד גבולות זכויות היוצרים. חיוני להגיע לאיזון בין חדשנות לשמירה על זכויותיהם של יוצרי תוכן.
- מסלולים ברורים לשיתוף פעולה עם בעלי הזכויות. אם בכל מקרה מערכות בינה מלאכותית הולכות להשתמש בקניין הרוחני של אנשים, צריכים להיות מסלולים או מסגרות ברורות עבור מפתחי בינה מלאכותית ו בעלי הזכויות לשתף פעולה, במיוחד במונחים של פיצויים כספיים, אם העבודה הנגזרת של נכסים רוחניים כאלה היא ממוסחר.
תקנת AI היא תיקון נחוץ מאוד
בעוד שבינה מלאכותית התגלתה כפתרון מבטיח לרבות מהבעיות החברתיות שלנו, בינה מלאכותית עצמה הופכת במהירות לבעיה הדורשת תיקון דחוף. הגיע הזמן לקחת צעד אחורה, לשקף ולבצע את התיקונים הדרושים כדי להבטיח את ההשפעה החיובית של AI על החברה. אנו זקוקים נואשות לכיול מחדש דחוף של הגישה שלנו לבנייה ושימוש במערכות AI.