פיתוח בינה מלאכותית דוחף קדימה במהירות, אבל מי צריך להנחות את הבינה המלאכותית והשפעתה על העולם?
טייק אווי מפתח
- בינה מלאכותית זקוקה לניטור קפדני יותר, שכן פרצות אבטחת סייבר ודאגות לפרטיות ממשיכות לצוץ.
- לממשלה, לחברות הטכנולוגיה ולמשתמשי הקצה יש תפקיד בוויסות הבינה המלאכותית, אך לכל גישה יש את המגבלות שלה.
- כלי תקשורת, ארגונים ללא מטרות רווח, איגודי תעשיית הטכנולוגיה, מוסדות אקדמיים וסוכנויות אכיפת חוק תורמים אף הם להסדרת הבינה המלאכותית.
לציבור הרחב יש דעות שונות על בינה מלאכותית - חלקם מאמינים שמכונות יחליפו לחלוטין עובדים אנושיים, בעוד שאחרים טוענים שבינה מלאכותית היא אופנה. עם זאת, דבר אחד שכולם מסכימים עליו הוא שבינה מלאכותית זקוקה לניטור קפדני יותר.
למרות החשיבות של רגולציית AI, היא תפסה את המושב האחורי לאימונים. מפתחים כל כך אובססיביים בבניית מודל הבינה המלאכותית הבא בגודלו עד שהם סוחרים באבטחת סייבר לקידום מהיר. השאלה היא לא אם AI זקוק לרגולציה; זה איזה גוף מנהל עם מימון הולם, משאבי אנוש ויכולת טכנולוגית ייקח את היוזמה.
אז מי צריך להסדיר AI?
גופים ממשלתיים
אנשים שונים, מצרכנים ועד מנהיגי טכנולוגיה, מקווים שהממשלה תסדיר AI
. למוסדות במימון ציבורי יש את המשאבים לעשות זאת. אפילו אילון מאסק וסם אלטמן, שני נהגים עיקריים במירוץ הבינה המלאכותית, מאמינים שחלקם דאגות פרטיות סביב AI מסוכנים מכדי שהגופים המנהלים יוכלו להתעלם מהם.הממשלה צריכה להתמקד בהגנה על פרטיות בוחריה וחירויות האזרח אם היא משתלטת על רגולציית AI. פושעי סייבר ממשיכים למצוא דרכים לנצל מערכות AI בתוכניות שלהם. אנשים שאינם בקיאים היטב בבינה מלאכותית עלולים להטעות בקלות על ידי קולות מסונתזים, סרטונים מזויפים עמוקים ופרופילים מקוונים המופעלים על ידי בוטים.
עם זאת, בעיה מרכזית אחת עם הממשלה המסדירה בינה מלאכותית היא שהיא עלולה לחנוק חדשנות מבלי משים. AI היא טכנולוגיה מורכבת ומתפתחת. אלא אם כן הפקידים המפקחים על הנחיות הפריסה, הפיתוח וההדרכה יבינו כיצד AI עובד, הם עלולים לשפוט מוקדם מדי ולא יעיל.
מפתחי בינה מלאכותית, חברות טכנולוגיה ומעבדות
בהתחשב במחסומים הפוטנציאליים שעלולים לנבוע מפיקוח ממשלתי על AI, רבים מעדיפים שחברות טכנולוגיה יובילו את הרגולציה. הם מאמינים שמפתחים צריכים להיות אחראים לטכנולוגיה שהם משחררים. ויסות עצמי מאפשר להם להניע חדשנות ולהתמקד בקידום מערכות אלו ביעילות.
יתרה מכך, ההבנה המעמיקה שלהם ב-AI תעזור להם ליצור הנחיות הוגנות ומושכלות המתעדפות את בטיחות המשתמש מבלי לפגוע בפונקציונליות. כמו בכל טכנולוגיה, המומחיות בתעשייה מייעלת את הניטור. הקצאת פקידים לא מאומנים להסדיר טכנולוגיות שהם בקושי מבינים עשויה להוות יותר בעיות מאשר יתרונות.
קח את הדיון בסנאט האמריקני 2018 על חוקי פרטיות הנתונים של פייסבוק כדוגמה. בדוח זה מאת הוושינגטון פוסט, תראה שמחוקקים רבים מבולבלים עם הפונקציות הבסיסיות של פייסבוק. אז אלא אם כן הסנאט האמריקני יוצר מחלקה יחידה של מומחי טכנולוגיה, סביר להניח שהם לא יהיו מוסמכים להסדיר מערכת כה מתקדמת ומשתנה ללא הרף כמו AI.
עם זאת, הבעיה העיקרית עם חברות טכנולוגיה המסדירות את עצמן היא שתאגידים מפוקפקים עלולים לנצל לרעה את כוחם. ללא צד שלישי מתערב, הם בעצם חופשיים לעשות מה שהם רוצים.
משתמשי קצה
יש החוששים שגופים ממשלתיים ופרטיים ינצלו לרעה מערכות בינה מלאכותית. הם לא בטוחים לגבי מתן שליטה מוחלטת לקומץ של גופים על טכנולוגיות כה חזקות, במיוחד מכיוון שבינה מלאכותית עדיין מתפתחת. הם עשויים בסופו של דבר להילחם על סמכות במקום לפעול למען רגולציה יעילה.
כדי להפחית את הסיכונים הללו, ספקנים מאמינים שלמשתמשי קצה מגיע דרור חופשי להשתמש במודלים של AI איך שהם רוצים. הם אומרים שגופים ממשלתיים צריכים להתערב רק כאשר משתמשי AI עוברים על החוק. זו מטרה שאפתנית, אבל היא יכולה להיות מושגת מבחינה טכנית אם מפתחי AI בקוד פתוח ישלטו בנתחי שוק.
עם זאת, הגדרה זו מציבה אנשים שאינם מתמצאים בטכנולוגיה בעמדת נחיתות. המשתמשים אחראים להגדיר את ההגבלות בתוך המערכות שלהם - למרבה הצער, לא לכולם יש את המשאבים לעשות זאת.
זה גם קצר רואי להסיר דגמים קנייניים מהשוק. התפשטות של למודלים של AI בקוד פתוח יש כמה השפעות חיוביות ושליליות; עבור חלק, החסרונות עולים על היתרונות.
ישויות אחרות הממלאות תפקיד ברגולציה של AI
למרות שגופים גדולים יובילו את הרגולציה של AI, ישנם גופים הממלאים תפקידים משמעותיים:
כלי תקשורת ממלאים תפקיד קריטי בעיצוב התפיסה של הציבור לגבי AI. הם מדווחים על התפתחויות בתעשייה, חולקים כלים חדשים, מביאים מודעות לשימושים המזיקים של AI ומראיינים מומחים לגבי חששות רלוונטיים.
רוב העובדות שמשתמשי הקצה יודעים על AI מגיעות בעיקר מכלי תקשורת. פרסום נתונים כוזבים, בין אם בכוונה ובין אם לאו, יגרום לנזק בלתי הפיך - אי אפשר לזלזל באיזו מהירות התפשטות המידע השגוי.
2. ארגונים לא - ממשלתיים
מספר ארגונים ללא מטרות רווח מתמקדים בהגנה על פרטיותם וחירויותיהם האזרחיות של משתמשי בינה מלאכותית. הם מחנכים את הציבור באמצעות משאבים חינמיים, דוגלים במדיניות חדשה, משתפים פעולה עם פקידי ממשל ומשמיעים חששות שלא התעלמו מהם.
הבעיה היחידה עם עמותות היא שבדרך כלל חסרים להם משאבים. מכיוון שהם אינם קשורים לממשלה, הם מסתמכים על שידולים פרטיים ותרומות לצורך הפעילות השוטפת. למרבה הצער, רק ארגונים מעטים מקבלים מימון הולם.
3. איגודי התעשייה הטכנולוגית
איגודי תעשיית הטכנולוגיה הממוקדים בינה מלאכותית יכולים לייצג את הזכויות והאינטרסים של הציבור. כמו עמותות, הם עובדים עם מחוקקים, מייצגים אנשים מודאגים, דוגלים במדיניות הוגנת ומביאים מודעות לנושאים ספציפיים.
ההבדל, לעומת זאת, הוא שלעתים קרובות יש להם קשרים עם חברות פרטיות. החברים שלהם עדיין עושים שידולים, אבל הם בדרך כלל יקבלו מספיק מימון מארגוני ההורים שלהם כל עוד הם מספקים תוצאות.
4. מוסדות אקדמיים
למרות שבינה מלאכותית מגיעה עם כמה סיכונים, היא ניטרלית מטבעה. כל ההטיות, בעיות הפרטיות, שגיאות האבטחה ופעילויות פשעי סייבר פוטנציאליות נובעות מבני אדם, כך שבינה מלאכותית כשלעצמה היא לא משהו שצריך לחשוש ממנו.
אבל מעטים מאוד כבר מבינים איך מודלים מודרניים של AI עובדים. תפיסות שגויות מעוותות את התפיסה של אנשים לגבי AI, ומנציחות פחדים חסרי בסיס כמו AI שהשתלט על האנושות או גניבת מקומות עבודה.
מוסדות אקדמיים יוכלו למלא פערים חינוכיים אלה באמצעות משאבים נגישים. עדיין אין יותר מדי עבודות אקדמיות על LLMs ומערכות NLP מודרניות. הציבור יכול להשתמש ב-AI בצורה אחראית יותר ולהילחם בפשעי סייבר אם הם מבינים לגמרי איך זה עובד.
5. רשויות אכיפת החוק
רשויות אכיפת החוק צריכות לצפות להיתקל בעוד יותר התקפות סייבר התומכות בבינה מלאכותית. עם ריבוי המודלים היצירתיים, נוכלים יכולים לסנתז קולות במהירות, ליצור תמונות מזויפות עמוקות, לגרד מידע אישי מזהה (PII), ואפילו ליצור פרסונות חדשות לגמרי.
רוב הסוכנויות אינן מצוידות לטפל בפשעים אלה. עליהם להשקיע במערכות חדשות ולהכשיר את השוטרים שלהם על פשעי סייבר מודרניים; אחרת, הם יתקשו לתפוס את הנוכלים האלה.
העתיד של רגולציית AI
בהתחשב באופי המהיר של בינה מלאכותית, לא סביר שגוף מנהל יחיד ישלוט בה. כן, מנהיגי טכנולוגיה יחזיקו בכוח רב יותר מצרכנים, אבל ישויות שונות חייבות לשתף פעולה כדי לנהל סיכוני AI מבלי להפריע להתקדמות. עדיף להגדיר אמצעי בקרה עכשיו בעוד בינה כללית מלאכותית (AGI) היא עדיין מטרה רחוקה.
עם זאת, הרגולציה של AI רחוקה בדיוק כמו AGI. בינתיים, המשתמשים חייבים לשמור על נוהלי בטיחות כדי להילחם באיומים מונעי בינה מלאכותית. הרגלים טובים כמו הגבלת האנשים שאתה מתחבר אליהם באינטרנט ואבטחת ה-PII הדיגיטלי שלך כבר עושים הרבה.