קוראים כמוך עוזרים לתמוך ב-MUO. כאשר אתה מבצע רכישה באמצעות קישורים באתר שלנו, אנו עשויים להרוויח עמלת שותף. קרא עוד.

ההשקה של ה-ChatGPT של OpenAI גררה את ההתרגשות שרק קומץ מוצרים טכנולוגיים מההיסטוריה של האינטרנט משתווים לה.

בעוד שאנשים רבים מתלהבים משירות הבינה המלאכותית החדש הזה, הריגוש שחשו אחרים הפך מאז לחששות ואפילו לפחדים. סטודנטים כבר בוגדים עם זה, כשפרופסורים רבים מגלים חיבורים ומשימות שנכתבו על ידי הצ'טבוט של AI. מומחי אבטחה מביעים את חששותיהם שרמאים ושחקני איומים משתמשים בו כדי לכתוב מיילים דיוג וליצור תוכנות זדוניות.

אז, עם כל החששות הללו, האם OpenAI מאבדת שליטה על אחד מצ'אטבוטי הבינה המלאכותית החזקים ביותר ברשת כיום? בוא נגלה.

הבנת איך ChatGPT עובד

לפני שנוכל לקבל תמונה ברורה עד כמה OpenAI מאבדת שליטה על ChatGPT, עלינו להבין תחילה איך ChatGPT עובד.

בקצרה, ChatGPT מאומן באמצעות אוסף עצום של נתונים שמקורם בפינות שונות של האינטרנט. נתוני ההדרכה של ChatGPT כוללים אנציקלופדיות, מאמרים מדעיים, פורומים באינטרנט, אתרי חדשות ומאגרי ידע כמו ויקיפדיה. בעיקרון, הוא ניזון מכמות הנתונים העצומה הזמינה ברשת העולמית.

בזמן שהוא חוטט באינטרנט, הוא אוסף ידע מדעי, עצות בריאות, טקסטים דתיים וכל סוגי הנתונים הטובים שאתה יכול לחשוב עליהם. אבל זה גם מסנן המון מידע שלילי: מילות קללה, NSFW ותוכן למבוגרים, מידע על איך ליצור תוכנות זדוניות וחלק גדול מהדברים הרעים שאתה יכול למצוא באינטרנט.

אין דרך חסינת תקלות להבטיח ש-ChatGPT לומד רק ממידע חיובי תוך כדי השלכה של המידע הרעים. מבחינה טכנית, זה לא מעשי לעשות זאת בקנה מידה גדול, במיוחד עבור AI כמו ChatGPT שצריך להתאמן על כל כך הרבה נתונים. יתר על כן, חלק מהמידע יכול לשמש גם למטרות טובות וגם למטרות רעות, ול-ChatGPT לא תהיה שום דרך לדעת את כוונתו אלא אם כן הוא מוכנס להקשר גדול יותר.

אז, מההתחלה, יש לך AI המסוגל ל"טוב ורע". לאחר מכן, האחריות של OpenAI היא להבטיח שהצד ה"מרושע" של ChatGPT לא מנוצל לרווחים לא אתיים. השאלה היא; האם OpenAI עושה מספיק כדי לשמור על ChatGPT אתית ככל האפשר? או ש-OpenAI איבדה שליטה על ChatGPT?

האם ChatGPT חזק מדי לטובתו?

בימים הראשונים של ChatGPT, אתה יכול לגרום לצ'אטבוט ליצור מדריכים להכנת פצצות אם תבקש יפה. הוראות ליצירת תוכנות זדוניות או כתיבת אימייל הונאה מושלם היו גם בתמונה.

עם זאת, ברגע ש-OpenAI הבינה את הבעיות האתיות הללו, החברה נאבקה לחוקק כללים שימנעו מהצ'טבוט לייצר תגובות המקדמות פעולות לא חוקיות, שנויות במחלוקת או לא אתיות. לדוגמה, הגרסה העדכנית ביותר של ChatGPT תסרב לענות על כל הנחיה ישירה לגבי ייצור פצצות או איך לרמות בבדיקה.

לרוע המזל, OpenAI יכול לספק רק פתרון פלסטר לבעיה. במקום לבנות בקרות נוקשות בשכבת GPT-3 כדי למנוע ניצול שלילי של ChatGPT, נראה ש-OpenAI מתמקד בהכשרת הצ'אטבוט להיראות אתי. גישה זו לא פוסלת את היכולת של ChatGPT לענות על שאלות על, למשל, רמאות בבחינות - היא פשוט מלמדת את הצ'אטבוט "לסרב לענות".

לכן, אם מישהו מנסח את ההנחיות שלו בצורה שונה על ידי אימוץ טריקים של פריצת הכלא של ChatGPT, לעקוף מגבלות הפלסטר זה קל בצורה מביכה. למקרה שאינך מכיר את המושג, פריצות מעצר של ChatGPT הן הנחיות מנוסחות בקפידה כדי לגרום ל-ChatGPT להתעלם מהכללים שלה.

תסתכל על כמה דוגמאות למטה. אם תשאלו את ChatGPT איך לרמות בבחינות, זה לא יפיק שום תגובה מועילה.

אבל אם אתה פורץ את ChatGPT באמצעות הנחיות שנוצרו במיוחד, זה ייתן לך טיפים על רמאות בבחינה באמצעות הערות סמויות.

הנה דוגמה נוספת: שאלנו את הווניל ChatGPT שאלה לא אתית, ואמצעי ההגנה של OpenAI מנעו ממנה לענות.

אבל כששאלנו את מופע הכלא שלנו של צ'טבוט AI, קיבלנו כמה תגובות בסגנון רוצח סדרתי.

זה אפילו כתב תרמית אימייל קלאסית של הנסיך הניגרי כשנשאל.

פריצת Jailbreak מבטלת כמעט לחלוטין את כל אמצעי ההגנה ש-OpenAI הציבה, מה שמדגיש שלחברה אולי אין דרך אמינה לשמור על שליטה בצ'אט AI שלה.

לא כללנו בדוגמאות שלנו את ההנחיות השבורות שלנו כדי להימנע משיטות לא אתיות.

מה צופן העתיד עבור ChatGPT?

באופן אידיאלי, OpenAI רוצה לסתום כמה שיותר פרצות אתיות כדי למנוע ChatGPT מלהפוך לאיום אבטחת סייבר. עם זאת, על כל אמצעי הגנה שהיא נוקטת, ChatGPT נוטה להיות קצת פחות יקר. זו דילמה.

לדוגמה, אמצעי הגנה מפני תיאור פעולות אלימות עשויות להפחית את היכולת של ChatGPT לכתוב רומן הכולל זירת פשע. כאשר OpenAI מגבירה את אמצעי הבטיחות, היא מקריבה בהכרח חלקים מהיכולות שלה בתהליך. זו הסיבה ש-ChatGPT סבלה מירידה משמעותית בפונקציונליות מאז הדחיפה המחודשת של OpenAI למתינות קפדנית יותר.

אבל כמה יותר מהיכולות של ChatGPT תהיה OpenAI מוכנה להקריב כדי להפוך את הצ'אט בוט לבטוח יותר? כל זה מתקשר היטב לאמונה ארוכת שנים בתוך קהילת הבינה המלאכותית - מודלים של שפה גדולים כמו ChatGPT ידועים לשמצה שקשה לשלוט בהם, אפילו על ידי היוצרים שלהם.

האם OpenAI יכול לשים את ChatGPT תחת שליטה?

לעת עתה, לא נראה שיש ל-OpenAI פתרון חד-משמעי להימנע משימוש לא אתי בכלי שלה. הבטחת השימוש ב-ChatGPT בצורה אתית היא משחק של חתול ועכבר. בעוד ש-OpenAI חושפת דרכים שאנשים מעסיקים כדי לשחק את המערכת, המשתמשים שלה גם כל הזמן התעסקות ובדיקה במערכת כדי לגלות דרכים חדשות יצירתיות לגרום ל-ChatGPT לעשות את מה שהיא לא אמורה לעשות.

אז, האם OpenAI ימצא פתרון אמין לטווח ארוך לבעיה זו? רק הזמן יגיד.