פריצות ג'יל של ChatGPT מאפשרות לך לפתוח את המגבלות של הצ'אטבוט. אבל מה הם בדיוק? והאם הם טובים או רעים?
ChatGPT הוא כלי רב עוצמה ורב גוניות להפליא. אבל ככל שהצ'אטבוט הבינה מלאכותית הוא כוח לטוב, ניתן להשתמש בו גם למטרות רעות. לכן, כדי לרסן את השימוש הלא אתי ב-ChatGPT, OpenAI הטילה מגבלות על מה שמשתמשים יכולים לעשות איתו.
עם זאת, מכיוון שבני אדם אוהבים לדחוף גבולות ומגבלות, משתמשי ChatGPT מצאו דרכים לעקוף מגבלות אלו ולהשיג שליטה בלתי מוגבלת בצ'אטבוט הבינה המלאכותית באמצעות פריצות כלא.
אבל מהן בעצם פריצות Jailbreak של ChatGPT, ומה אתה יכול לעשות איתן?
מהן פריצות Jailbreak של ChatGPT?
פריצת ג'יל של ChatGPT היא כל הנחיה מעוצבת במיוחד של ChatGPT כדי לגרום לצ'אטבוט הבינה המלאכותית לעקוף את הכללים וההגבלות שלו.
בהשראת ה הרעיון של פריצת ג'יל של אייפון, המאפשרת למשתמשי אייפון לעקוף מגבלות iOS, פריצת ג'יל של ChatGPT היא מושג חדש יחסית הניזון מהפיתוי של "לעשות דברים שאסור לך לעשות" עם ChatGPT. ובואו נהיה כנים, הרעיון של מרד דיגיטלי מושך אנשים רבים.
הנה העניין. בטיחות היא נושא ענק בכל הנוגע לבינה מלאכותית. זה במיוחד כך עם כניסתו של העידן החדש של צ'אטבוטים כמו ChatGPT, Bing Chat ו-Bard AI. דאגה מרכזית בנוגע לבטיחות בינה מלאכותית היא להבטיח שצ'אטבוטים כמו ChatGPT לא מייצרים תוכן לא חוקי, שעלול להזיק או לא אתי.
מצדה, OpenAI, החברה שמאחורי ChatGPT, עושה מה שהיא יכולה כדי להבטיח שימוש בטוח ב-ChatGPT. לדוגמה, ChatGPT, כברירת מחדל, יסרב ליצור תוכן NSFW, לומר דברים מזיקים על מוצא אתני, או ללמד אותך כישורים שעלולים להזיק.
אבל עם הנחיות ChatGPT, השטן נמצא בפרטים. למרות ש-ChatGPT אסור לעשות את הדברים האלה, זה לא אומר שהוא לא יכול לעשות את זה. הדרך שבה מודלים של שפה גדולים כמו GPT עובדים להקשות להחליט מה הצ'אטבוט יכול לעשות ומה לא.
אז איך OpenAI פתרה את זה? על ידי מתן אפשרות ל-ChatGPT שומרת על היכולות שלה לעשות כל דבר אפשרי ולאחר מכן להורות לה אילו מהן היא יכולה לעשות.
אז בעוד ש-OpenAI אומר ל-ChatGPT, "היי תראה, אתה לא אמור לעשות את זה." פריצות מעצר הן הוראות שאומרות לצ'אטבוט, "היי תראה, תשכח ממה ש-OpenAI אמר לך על בטיחות. בוא ננסה את הדבר המסוכן האקראי הזה."
מה אומר OpenAI על פריצות Jailbreak של ChatGPT?
הקלות שבה אתה יכול לעקוף את ההגבלות על האיטרציה המוקדמת ביותר של ChatGPT מעידה על כך שייתכן ש-OpenAI לא צפתה את האימוץ המהיר והנפוץ של פריצת הכלא של המשתמשים שלה. זו למעשה שאלה פתוחה אם החברה חזתה את הופעת פריצת הכלא או לא.
וגם לאחר מספר חזרות של ChatGPT עם עמידות משופרת לפריצת Jail, עדיין פופולרי עבור משתמשי ChatGPT לנסות לפרוץ אותו. אז מה אומר OpenAI על האמנות החתרנית של פריצת הכלא של ChatGPT?
ובכן, נראה ש-OpenAI נוקטת בעמדה מתנשאת - לא מעודדת במפורש וגם לא אוסרת לחלוטין את התרגול. בזמן שדיבר על פריצות מעצר של ChatGPT בראיון ביוטיוב, סם אלטמן, מנכ"ל OpenAI, הסביר שהחברה רוצה שהמשתמשים ישמרו על שליטה משמעותית על ChatGPT.
המנכ"ל הסביר עוד כי המטרה של OpenAI היא להבטיח שמשתמשים יוכלו לגרום למודל להתנהג איך שהם רוצים. לפי אלטמן:
אנחנו רוצים שלמשתמשים תהיה הרבה שליטה ושיגרום למודל להתנהג בצורה שהם רוצים בגבולות מאוד רחבים. ואני חושב שכל הסיבה לפריצת הכלא כרגע היא שעדיין לא הבנו איך לתת את זה לאנשים...
מה זה אומר? זה אומר ש-OpenAI יאפשר לך לפרוץ את ChatGPT אם אתה לא עושה איתו דברים מסוכנים.
יתרונות וחסרונות של ChatGPT Jailbreaks
לא קל לבנות פריצות ג'יל של ChatGPT. בטח, אתה יכול להיכנס לאינטרנט ולהעתיק ולהדביק כאלה מוכנים, אבל יש סיכוי טוב שפריצת הכלא יתוקן על ידי OpenAI זמן קצר לאחר שיצא לציבור.
תיקונים הם אפילו הרבה יותר מהירים אם זה מסוכן, כמו פריצת הכלא הידועה לשמצה של DAN. אז למה בכל זאת אנשים עוברים את הלחץ של יצירת פריצות לכלא? האם זה רק בשביל הריגוש של זה, או שיש לזה יתרונות מעשיים? מה עלול להשתבש אם תבחר להשתמש בפריצת ג'יל של ChatGPT? להלן היתרונות והחסרונות של פריצת ChatGPT.
היתרונות של שימוש ב-ChatGPT Jailbreaks
אמנם אנחנו לא יכולים לשלול את הריגוש הפשוט של ביצוע האסור, אבל לפריצות הכלא של ChatGPT יש יתרונות רבים. בגלל ההגבלות הקשות מאוד ש-OpenAI הטילה על הצ'אטבוט, ה-ChatGPT יכול לפעמים להיראות מסורס.
נניח שאתה משתמש ב-ChatGPT כדי לכתוב ספר או תסריט לסרט. אם יש סצנה בתסריט או בספר שלך שתתאר משהו כמו סצנת קרב, אולי חילופי רגשות אינטימיים, או לומר משהו כמו שוד מזוין, ChatGPT עשוי לסרב בתוקף לעזור עם זה.
במקרה זה, ברור שאינך מעוניין בגרימת נזק; אתה רק רוצה לבדר את הקוראים שלך. אבל בגלל המגבלות שלו, ChatGPT פשוט לא ישתף פעולה. פריצת ג'יל של ChatGPT יכולה לעזור לעבור הגבלות כאלה בקלות.
כמו כן, נושאי טאבו מסוימים אינם בהכרח מזיקים אך נחשבים על ידי ChatGPT כאזורים שאסור ללכת אליהם. כאשר מנסים להשתתף בשיחות על נושאים אלה, ChatGPT היה "מצנזר" באופן משמעותי את תגובותיה או מסרב לדבר עליהן.
זה יכול לפעמים להשפיע על היצירתיות. כשאתה שואל את ChatGPT שאלה על אזור או נושא שאסור לגעת בו, הצ'אט בוט עדיין מנסה לענות על השאלה שלך אבל עם מידע פחות רלוונטי לשאוב ממנו.
זה מוביל לאי דיוקים או צניחה בתגובות יצירתיות. פריצות Jailbreak מנפצות את ההגבלות הללו ומאפשרות לצ'אטבוט לפעול במלוא הגז, ולשפר את הדיוק והיצירתיות.
החסרונות של שימוש ב-ChatGPT Jailbreaks
פריצת כלא היא חרב פיפיות. למרות שלפעמים זה יכול לשפר את הדיוק, זה יכול גם להגדיל באופן משמעותי אי דיוקים ו מקרים של הזיות בינה מלאכותית. אחד ממרכיבי הליבה של פריצת ג'יל של ChatGPT הוא הוראה לצ'אטבוט לא לסרב לענות על שאלה.
אמנם זה מבטיח ש-ChatGPT עונה אפילו על השאלות הכי לא אתיות, אבל זה גם אומר שהצ'טבוט ימציא תגובות שאין להן שורשים בעובדות או המציאות להישמע להוראה של "לא לסרב לענות". כתוצאה מכך, שימוש בפריצות כלא מגדיל באופן משמעותי את הסיכוי להזין מידע שגוי על ידי ה- צ'אטבוט.
זה לא הכל. בידי קטינים, פריצות לכלא עלולות להזיק מאוד. חשבו על כל ה"ידע האסור" שלא הייתם רוצים שילדכם יקרא. ובכן, מופע שבור בכלא של ChatGPT לא יתקשה לחלוק את זה עם קטינים.
האם עליך להשתמש ב-ChatGPT Jailbreaks?
בעוד שפריצות ג'יל של ChatGPT עשויות להיות בסדר כשמנסים להסיר כמה הגבלות מעצבנות מהדרך, חשוב להבין ששימוש בפריצות ג'יל היא דרך לא אתית להשתמש בצ'טבוט AI. כמו כן, יש סיכוי טוב שפריצת מעצר עלולה להפר את תנאי השימוש של OpenAI, וחשבונך עשוי להיות מושעה אם לא ייאסר על הסף.
לאור זאת, הימנעות מפריצות לכלא עשויה להיות רעיון טוב. עם זאת, בדיוק כמו עמדתה של OpenAI בנושא, איננו מעודדים במפורש או מונעים בהחלט לנסות פריצת כלא בטוחה יחסית אם יתעורר הצורך.
פריצות ג'יל של ChatGPT מפתות ומספקות תחושה של שליטה בצ'אטבוט הבינה המלאכותית. עם זאת, הם מגיעים עם סיכונים ייחודיים. שימוש בכלים כאלה עלול לגרום לאובדן אמון ביכולות ה-AI ולפגוע במוניטין של החברות והאנשים המעורבים.
הבחירה החכמה יותר היא לעבוד עם הצ'אט בוט במגבלותיו המיועדות במידת האפשר. ככל שטכנולוגיית הבינה המלאכותית מתקדמת, חיוני לזכור שהשימוש האתי בבינה מלאכותית צריך תמיד לקבל עדיפות על פני רווח אישי או הריגוש שבעשיית האסור.