במהלך השנים האחרונות בלבד, יכולות הבינה המלאכותית התקדמו בצורה דרסטית. כיום, אנו יכולים להשתמש בבינה מלאכותית כדי ליצור אמנות, לכתוב סיפורים, ללמוד על העולם ועוד הרבה יותר. אבל האם כל זה קורה קצת מוקדם מדי? האם בינה מלאכותית מתפתחת מהר מדי, ואילו סימנים יש המעידים על כך?
מדוע אנשים מודאגים מ-AI?
בסוף מרץ 2023, פורסם באינטרנט מסמך על ידי Future of Life Institute בשם "השהה ניסויי בינה מלאכותית ענקית: מכתב פתוח". המסמך הציג טיעונים נגד פיתוח בינה מלאכותית מעבר לתחכום של GPT-4, האיטרציה האחרונה של OpenAI של צ'אט בוט מופעל בינה מלאכותית.
בתוך המכתב נכתב כי "מערכות בינה מלאכותיות עם אינטליגנציה אנושית-תחרותית יכולות להוות סיכונים עמוקים לחברה ולאנושות", וכן כי "יש לפתח מערכות בינה מלאכותיות עוצמתיות רק ברגע שאנו בטוחים שההשפעות שלהן יהיו חיוביות והסיכונים שלהן יהיו ניתן לניהול."
מספר דמויות בולטות בתחום הטכנולוגיה כולל סטיב ווזניאק ו אילון מאסק חתם על המכתב ורוצה לעצור את פיתוח הבינה המלאכותית. הבקשה הזו להפסקת פיתוח בינה מלאכותית העמידה בספק עד כמה AI הופכת מסוכנת, והסיכונים שהיא מציבה לחיי אדם.
אז אילו סימנים מצביעים על כך שבינה מלאכותית זזה מהר מדי?
1. תחרות עם בני אדם
כבר ראינו טכנולוגיה מחליפה עובדים אנושיים באינספור תרחישים. כשנכנסים למסעדת מזון מהיר, עכשיו אפשר להזמין דרך מסך מחשב, וכשרוצים לקנות מצרכים, אפשר לשלם עם מערכת אוטומטית. זו יכולה להיות אפשרות מהירה ונוחה, אך ככל שהאוטומציה הופכת בולטת יותר בתעשיות שונות, הצורך בעובדים אנושיים יורד.
כאן מתחילה הבעיה. כמובן שאנשים צריכים לעבוד כדי לפרנס את עצמם, אבל עליית האוטומציה הופכת את זה להרבה יותר קשה. זה נכון במיוחד לעובדי שכר מינימום, כגון אלו העוסקים בענף שירותי המזון, הייצור והקמעונאות. משימות בסיסיות, כמו בדיקת הזמנות, איסוף מטענים וניקיון, כולן יכולות להתבצע באמצעות מכונות. השילוב של AI אומר שבקרוב לא נצטרך עוד מפעילים עבור הטכנולוגיה הזו.
זה דווח על ידי FormStack ש-76% מהעסקים משתמשים באוטומציה לצורך סטנדרטיזציה או אוטומציה של זרימות עבודה יומיומיות. ועם זאפייר דיווח כי 94% מהעובדים הצהירו שעבודתם כרוכה במשימות שחוזרות על עצמן וגוזלות זמן, אוטומציה מונעת בינה מלאכותית יכולה בקלות רבה להפוך לרוב חלק מכוח העבודה העולמי בכל תעשיות.
2. עידוד עצלות אנושית
אחד היתרונות המרכזיים של AI הוא שהוא יכול לפשט כל כך הרבה משימות. אבל הנוחות הזו יכולה בקלות רבה לפנות מקום לעצלנות. ובמקרים מסוימים, זה כבר קרה.
קחו למשל את ChatGPT. אתה יכול להשתמש ב-ChatGPT כדי לעשות מגוון של דברים כמו כתיבת מאמרים, חקר נושאים, יצירת בדיחות, תרגום טקסט ועוד הרבה יותר. להיות בעל שירות שיכול לבצע עבורך משימות במהירות זה נהדר, אבל גם מוביל אותנו לעבר שאננות. עיכוב מאמץ ויצירתיות בדרך זו עשויה בהחלט להשפיע לרעה על האנושות כולה, וזו הסיבה העיקרית לכך שכל כך הרבה אנשים מודאגים מ-AI.
אנחנו כל כך רגילים לשירותים המונעים בינה מלאכותית בימינו המודרניים, שבאופן טבעי נתנו בהם אמון רב. לדוגמה, העוזרת הוירטואלית של מיקרוסופט, Cortana, משתמשת בלמידת מכונה ובינה מלאכותית כדי לבצע פקודות של משתמשים. עוזרים וירטואליים רבים אחרים, כולל Siri של אפל, משתמשים גם ב-AI כדי לתפקד.
לסמוך על הטכנולוגיה הזו אולי בטוח, אבל אין ממש לדעת, במיוחד לאור העובדה שה-AI עדיין בשלב מאוד התפתחותי.
3. התפשטות המידע המזויף
בתחומי המיינסטרים, בינה מלאכותית זכתה לשמצה רבה בזכות היכולת שלה ליצור אמנות, תמונות וסרטונים. לא רק שניתן להשתמש בשירותים המופעלים על ידי בינה מלאכותית ליצירת אמנות, אלא שהם יכולים גם ליצור צורה שנויה במחלוקת במיוחד של מדיה הידועה בשם deepfakes. זיופים עמוקים הם סרטוני וידאו המציגים את פניו של אדם שהושתלו על גופו של אדם אחר.
זה נשמע די כיף, אבל בקלות רבה ניתן להשתמש בו לרעה.
יש כבר אלפי סרטונים בחוץ של ידוענים ודמויות פוליטיות שנראה כאילו אומרים דברים מלוכלכים ובלתי הולמים באמצעות זיופים עמוקים. בעוד שכמה זיופים עמוקים קל מאוד לזהות, חלקם כל כך מתוחכמים שקשה להבחין אם הם אמיתיים או לא. כשזה קורה, אנשים עשויים להניח שאיש ציבור אמר משהו, שבמציאות, מעולם לא נאמר על ידם בכלל.
מתוך כך, אנשים יביעו דעות על הסרטונים האלה, ולכן יתרמו להפצת מידע מוטעה באינטרנט.
יתרה מכך, צ'אטבוטים המופעלים על ידי בינה מלאכותית יכולים גם לתת למשתמשים מידע שקרי. צ'טבוטים כגון ChatGPT, Boost. AI, ו-Drift יכולים לספק למשתמשים מידע רב, אך מידע זה לא תמיד בהכרח מדויק. כפי שנדון על ידי האפוטרופוס, צ'אטבוטים של AI אינם מחויבים בשום אופן לספק לך מידע אמיתי, כלומר חדשות מזויפות יכולות בקלות רבה לחמוק בין הסדקים ולעשות את דרכן אליך.
4. יצירת תוכנות זדוניות
בתחילת 2023 החלה להסתובב ידיעה בנושא שחקנים זדוניים היוצרים תוכנות זדוניות באמצעות ChatGPT. במקרה זה, חברת אנליסטי הסייבר Check Point Research מצאה שאנשים דנו ביתרונות השימוש ב-ChatGPT ליצירת תוכנות זדוניות בפורום פריצה. כותב הפוסט בפורום שיתף גנב מידע שהם כתבו ב-Python באמצעות ChatGPT, ומעודד שחקנים זדוניים אחרים ליצור תוכנות זדוניות באמצעות הצ'אטבוט.
תוכניות זדוניות צריכות להיות מקודד, מה שעלול לקחת זמן, במיוחד אם היוצר אינו משתמש בתבנית מתוכנית קיימת.
על ידי שימוש ב-ChatGPT, לא רק ששחקנים זדוניים יכולים לייעל את תהליך יצירת תוכנות זדוניות, אלא שאנשים בעלי ידע פחות טכנולוגי יכולים ליצור תוכנות זדוניות. ככל שתחכום הבינה המלאכותית ממשיכה להתקדם, ייתכן שניתן יהיה ליצור תוכנות זדוניות מתוחכמות להפליא שיכולות לעקוף זיהוי אנטי-וירוס, אימות, חומות אש ואמצעי הגנה אחרים.
5. חוסר הרגולציה
בעיה שכיחה בתעשיית הטכנולוגיה היא היעדר רגולציה עבור שירותים חדשים יותר, כגון פלטפורמות מבוססות בלוקצ'יין ומוצרי בינה מלאכותית. חוסר רגולציה עשוי להיחשב כדבר טוב בעיני חלקם, אך יכול גם לפנות מקום לפרקטיקות בלתי חוקיות.
לא רק שהיעדר רגולציה יכול להוביל לעלייה בהונאות ופשעי סייבר המופעלים על ידי בינה מלאכותית, אלא שהדרך שבה חוקרים מפתחים טכנולוגיות בינה מלאכותית עשויה גם להתחיל לחצות כמה גבולות רציניים. ישנם שיקולים אתיים שיש לעשות כאשר עוסקים בבינה מלאכותית. האם מערכת יכולה להיות מודעת מדי? איזה סוג של השפעות יהיו לבינה מלאכותית על חיי אדם? האם עלינו לרתום AI בצורה זו? רשימת השאלות נמשכת ונמשכת.
ללא רגולציה, חברות מסוימות עשויות להתחיל לפסוע על גבולות מוסריים, מה שעלול להיות, בתורו, חדשות רעות מאוד לציבור הרחב.
בינה מלאכותית נעה בקצב מהיר ובהחלט מהווה סיכונים
אין להכחיש שהפוטנציאל של בינה מלאכותית הוא עצום, אבל יש לרתום את זה כראוי כדי להפחית את הסיכוי שדברים יצאו משליטה. כבר ראינו בשימוש ב-AI בזדון, אז אין לדעת איך הבעיה הזו יכולה להתפתח ככל שהדברים מתקדמים יותר. הזמן יגיד אם בינה מלאכותית תהפוך לברכה או לקללה בעולמנו, והאופן שבו הוא מטופל כעת בוודאי ישחק תפקיד בתוצאה זו.