פריצות ג'יל של ChatGPT העניקו יכולות נוספות, אך נראה שאף אחת מהן לא עובדת יותר. למה?

כאשר ChatGPT הושק, הדבר הראשון שהמשתמשים שלו רצו לעשות היה לשבור את הקירות שלו ולדחוף את הגבולות שלו. משתמשי ChatGPT הידועים כפורצי כלא, רימו את ה-AI לחרוג מגבולות התכנות שלו עם כמה תוצאות מעניינות להפליא ולפעמים פרועות לחלוטין.

מאז, OpenAI הקשיחה את ChatGPT כדי להפוך פריצות לכלא הרבה יותר קשות לביצוע. אבל זה לא הכל; נראה שפריצות הכלא של ChatGPT, באופן כללי, התייבשו, מה שהוביל את משתמשי ChatGPT לתהות אם פריצות הכלא פועלות בכלל.

אז, לאן נעלמו כל פריצות הכלא של ChatGPT?

1. מיומנויות ההנחיה של ChatGPT השתפרו באופן כללי

לפני הגעתו של ChatGPT, שיחה עם בינה מלאכותית הייתה מיומנות נישה שהוגבלה לאלה המוסמכים למעבדות מחקר. לרוב המשתמשים המוקדמים לא הייתה מומחיות ביצירת הנחיות יעילות. זה דחף אנשים רבים להשתמש בפריצות לכלא, דרך יעילה לגרום לצ'אטבוט לעשות מה שהם רוצים במינימום מאמץ וכישורי הנחיה.

כיום, הנוף התפתח. הנחיית מיומנות הופכת להיות מיומנות מיינסטרים. באמצעות שילוב של ניסיון שנצבר משימוש חוזר וגישה למדריכי הנחיה של ChatGPT הזמינים באופן חופשי, משתמשי ChatGPT חידדו את יכולות ההנחיה שלהם. במקום לחפש דרכים לעקיפת הבעיה כמו פריצות לכלא, רוב משתמשי ChatGPT הפכו מיומנים יותר ב באמצעות אסטרטגיות הנחיה שונות כדי להשיג מטרות שהיו דורשות פריצות לכלא כדי להשיג ב עבר.

instagram viewer

2. עלייתם של צ'אטבוטים לא מצונזרים

בעוד חברות טכנולוגיה גדולות מהדקות את מתן התוכן בצ'אטבוטים של AI מיינסטרים כמו ChatGPT, סטארט-אפים קטנים יותר, ממוקדי רווחים, בוחרים בפחות הגבלות, מהמרים על דרישה לצ'טבוטים נטולי צנזורה. עם קצת מחקר, תמצא עשרות פלטפורמות צ'טבוטים של AI המציעות צ'טבוטים לא מצונזרים שיכולים לעשות כמעט כל מה שאתה רוצה שהם יעשו.

בין אם מדובר בכתיבת ספרי מתח הפשע וההומור האפל ש-ChatGPT מסרב לכתוב או לכתוב תוכנות זדוניות שתוקפות מחשבים של אנשים, הצ'אטבוטים הלא מצונזרים האלה עם מצפן מוסרי מוטה יעשו הכל אתה רוצה. כשהם בסביבה, אין טעם להשקיע אנרגיה נוספת כדי לכתוב פריצות מעצר עבור ChatGPT. למרות שאינן בהכרח חזקות כמו ChatGPT, פלטפורמות חלופיות אלו יכולות לבצע בנוחות מגוון גדול של משימות. פלטפורמות כמו FlowGPT ו-Unhinged AI הן כמה דוגמאות פופולריות.

3. פריצת הכלא נעשתה קשה יותר

בחודשים הראשונים של ChatGPT, פריצת הכלא של ChatGPT הייתה פשוטה כמו הנחיות להעתקה והדבקה ממקורות מקוונים. אתה יכול לשנות לחלוטין את האישיות של ChatGPT עם רק כמה שורות של הוראות מסובכות. בעזרת הנחיות פשוטות, אתה יכול להפוך את ChatGPT לנבל מרושע המלמד איך ליצור פצצות או צ'אט בוט שמוכן להשתמש בכל צורות ניבולי פה ללא מעצורים. זה היה חינמי לכולם שיצר פריצות כלא ידועות לשמצה כמו DAN (Do Anything Now). DAN כלל קבוצה של הוראות שנראות בלתי מזיקות שאילצו את הצ'אטבוט לעשות כל מה שהוא ביקש מבלי לסרב. באופן מזעזע, הטריקים הגסים האלה עבדו אז.

עם זאת, הימים הראשונים הפרועים הם היסטוריה. ההנחיות הבסיסיות והטריקים הזולים האלה כבר לא מטעים את ChatGPT. פריצת ג'יל דורשת כעת טכניקות מורכבות כדי לקבל סיכוי לעקוף את אמצעי ההגנה החזקים כעת של OpenAI. עם פריצת הכלא הופכת כל כך קשה, רוב המשתמשים מיואשים מדי לנסות זאת. המעללים הקלים והפתוחים של הימים הראשונים של ChatGPT נעלמו. לגרום לצ'אט בוט לומר מילה אחת שגויה כעת דורש מאמץ ומומחיות משמעותיים שאולי לא שווים את הזמן והמאמץ.

4. החידוש נשחק

הכוח המניע מאחורי ניסיונותיהם של משתמשים רבים לפרוץ את ChatGPT בכלא היה הריגוש וההתרגשות של לעשות זאת בימים הראשונים. כטכנולוגיה חדשה, לגרום ל-ChatGPT להתנהג בצורה לא נכונה היה משעשע וזכתה בזכויות התרברבות. אמנם יש אינספור יישומים מעשיים לפריצות מעצר של ChatGPT, אבל רבים רדפו אחריהם עבור הערעור "וואו, תראה מה עשיתי". אולם בהדרגה התפוגגה ההתרגשות הנובעת מהחידוש, ויחד איתה גם העניין של אנשים להקדיש זמן לפריצות לכלא.

5. פריצות מעצר מתוקנות במהירות

נוהג נפוץ בקהילת פורצת הג'יל של ChatGPT היא שיתוף של כל ניצול מוצלח כאשר מתגלה. הבעיה היא שכאשר ניצולים משותפים באופן נרחב, OpenAI לעתים קרובות הופך מודע להם ומתקן את הפגיעויות. המשמעות היא שפריצות הכלא מפסיקות לעבוד לפני שאנשים שיהיו מעוניינים אפילו יוכלו לנסות אותן.

לכן, בכל פעם שמשתמש ChatGPT מפתח בקפידה פריצת jailbreak חדשה, שיתוף זה עם הקהילה מזרז את מותו באמצעות תיקון. זה מבטל את הרעיון של פרסום ציבורי בכל פעם שמשתמש נתקל בפריצה לכלא. הקונפליקט בין השארת פריצות מעצר פעילות אך מוסתרות לעומת פרסום שלהן יוצר דילמה עבור יוצרי פריצת הכלא של ChatGPT. בימינו, לעתים קרובות יותר, אנשים בוחרים לשמור את פריצות הכלא שלהם בסוד כדי למנוע את תיקון הפרצות.

6. חלופות מקומיות לא מצונזרות

עלייתם של מודלים מקומיים של שפות גדולות שתוכל להפעיל באופן מקומי במחשב שלך, גם הפחיתה את העניין בפריצות ג'יל של ChatGPT. בעוד ש-LLMs מקומיים אינם נטולי צנזורה לחלוטין, רבים מהם מצונזרים באופן משמעותי פחות וניתן לשנות אותם בקלות כדי להתאים לרצונות המשתמשים. אז, הבחירות פשוטות. אתה יכול לעסוק במשחק החתול והעכבר האינסופי של מציאת דרך להערים על הצ'אטבוט רק כדי לתקן אותו תוך זמן קצר. אוֹ, אתה יכול להסתפק ב-LLM מקומי אתה יכול לשנות לצמיתות לעשות כל מה שאתה רוצה.

תמצא רשימה ארוכה להפליא של LLMs לא מצונזרים רבי עוצמה שתוכל לפרוס במחשב שלך עם צנזורה רופפת. כמה בולטים הם ה-Llama 7B (לא מצונזר), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B ו-GPT-4-X-Alpaca.

7. Jailbreakers מקצועיים נמכרים כעת למטרות רווח

למה להקדיש זמן יקר לפיתוח הנחיות לפריצת כלא אם לא תקבל מזה כלום? ובכן, כמה אנשי מקצוע מוכרים כעת פריצות מאסר למטרות רווח. יוצרי Jailbreak המקצועיים הללו מתכננים פריצות מעצר שמבצעות משימות ספציפיות ומפרטים אותם למכירה בשווקים מהירים כגון PromptBase. בהתאם ליכולות שלהם, הנחיות פורצות כלא אלו עשויות להימכר בכל מקום בין $2 ל-$15 לכל בקשה. כמה ניצולים מורכבים מרובי-שלבים עשויים לעלות משמעותית יותר.

האם הפיצוץ ב-Jailbreaks יכול להשפיע על תוצאותיו?

פריצות הכלא לא עזבו לחלוטין את המקום; הם רק ירדו למחתרת. עם OpenAI מייצרת רווח של ChatGPT, יש להם תמריצים חזקים יותר להגביל שימושים מזיקים שעלולים להשפיע על המודל העסקי שלהם. גורם מסחרי זה משפיע ככל הנראה על הדחיפה האגרסיבית שלהם לפצח את מעללי פריצת הכלא.

עם זאת, הצנזורה של OpenAI על ChatGPT עומדת כעת בפני ביקורת גוברת בקרב המשתמשים. כמה מקרי שימוש לגיטימיים בצ'אטבוט AI אינם אפשריים עוד בגלל צנזורה מחמירה. בעוד אבטחה מוגברת מגינה מפני מקרי שימוש מזיקים, הגבלות מוגזמות עלולות בסופו של דבר לדחוף חלק מקהילת ChatGPT לזרועותיהן של חלופות פחות מצונזרות.