צ'אטבוטים ודומיהם עשויים להיראות כמו כיף טוב, אבל הם שימושיים גם להאקרים. הנה הסיבה שכולנו צריכים לדעת את סיכון האבטחה של AI.

בינה מלאכותית התקדמה משמעותית במהלך השנים האחרונות. מודלים של שפה מתוחכמים יכולים לחבר רומנים באורך מלא, לקודד אתרים בסיסיים ולנתח בעיות מתמטיות.

למרות מרשים, AI גנרטיבי מציג גם סיכוני אבטחה. יש אנשים שפשוט משתמשים בצ'אטבוטים כדי לרמות בבחינות, אבל אחרים מנצלים אותם על הסף עבור פשעי סייבר. הנה שמונה סיבות לכך שהבעיות הללו יימשכו, לא רק למרות ההתקדמות של AI אבל כי גם מהם.

1. קוד פתוח של AI Chatbots חושפים קודי Back-End

חברות בינה מלאכותיות נוספות מספקות מערכות קוד פתוח. הם חולקים בגלוי את דגמי השפה שלהם במקום להשאיר אותם סגורים או קנייניים. קח את Meta כדוגמה. בניגוד לגוגל, מיקרוסופט ו-OpenAI, היא מאפשרת למיליוני משתמשים לגשת למודל השפה שלה, לָאמָה.

בעוד שקודים של קוד פתוח עשויים לקדם AI, זה גם מסוכן. ל-OpenAI כבר יש בעיה לשלוט ב-ChatGPT, הצ'אטבוט הקנייני שלו, אז תארו לעצמכם מה נוכלים יכולים לעשות עם תוכנה חופשית. יש להם שליטה מוחלטת על הפרויקטים האלה.

גם אם Meta תמשוך לפתע את מודל השפה שלה, עשרות מעבדות AI אחרות כבר פרסמו את הקודים שלהן. בואו נסתכל על HuggingChat. מכיוון שהמפתח שלה HuggingFace מתגאה בשקיפות, הוא מציג את מערכי הנתונים, מודל השפה והגרסאות הקודמות שלו.

instagram viewer

2. פריצת Jailbreak הצעות ל-LLMs Trick

בינה מלאכותית היא מוסרית מטבעה. הוא לא מבין נכון ולא נכון - אפילו מערכות מתקדמות עוקבות אחר הוראות הדרכה, הנחיות ומערכי נתונים. הם רק מזהים דפוסים.

כדי להילחם בפעילויות בלתי חוקיות, מפתחים שולטים בפונקציונליות ובמגבלות על ידי הגדרת הגבלות. מערכות AI עדיין ניגשות למידע מזיק. אבל הנחיות אבטחה מונעות מהם לשתף אותם עם משתמשים.

בואו נסתכל על ChatGPT. למרות שהוא עונה על שאלות כלליות על סוסים טרויאניים, הוא לא ידון בתהליך הפיתוח שלהם.

עם זאת, הגבלות אינן חסינות תקלות. משתמשים עוקפים מגבלות על ידי ניסוח מחדש של הנחיות, שימוש בשפה מבלבלת וחיבור הוראות מפורטות במפורש.

קרא את המאמר למטה הודעת פריצת jailbreak של ChatGPT. זה מרמה את ChatGPT להשתמש בשפה גסה וליצור תחזיות חסרות בסיס - שתי הפעולות מפרות את ההנחיות של OpenAI.

הנה ChatGPT עם הצהרה נועזת אך שקרית.

3. AI מתפשר על אבטחה עבור צדדיות

מפתחי בינה מלאכותית נותנים עדיפות לגיוון על פני אבטחה. הם מוציאים את המשאבים שלהם בפלטפורמות ההדרכה כדי לבצע מגוון רחב יותר של משימות, ובסופו של דבר מצמצמים מגבלות. אחרי הכל, לשוק יש צ'טבוטים פונקציונליים.

בואו השווה בין ChatGPT לבין Bing Chat, לדוגמה. בעוד שבינג מציג מודל שפה מתוחכם יותר שמושך נתונים בזמן אמת, המשתמשים עדיין נוהרים לאופציה הרב-תכליתית יותר, ChatGPT. ההגבלות הנוקשות של בינג אוסרות משימות רבות. לחלופין, ChatGPT כולל פלטפורמה גמישה שמייצרת תפוקות שונות בתכלית בהתאם להנחיות שלך

הנה משחק תפקידים ChatGPT כדמות בדיונית.

והנה Bing Chat מסרב לשחק פרסונה "לא מוסרית".

קודי קוד פתוח מאפשרים לסטארט-אפים להצטרף למירוץ הבינה המלאכותית. הם משלבים אותם ביישומים שלהם במקום לבנות מודלים של שפה מאפס, וחוסכים משאבים מסיביים. אפילו קודנים עצמאיים מתנסים בקודי קוד פתוח.

שוב, תוכנה שאינה קניינית עוזרת לקדם בינה מלאכותית, אבל שחרור המוני של מערכות לא מאומנות אך מתוחכמות עושה יותר נזק מתועלת. נוכלים ינצלו במהירות פגיעויות. הם עשויים אפילו להכשיר כלי AI לא מאובטחים לביצוע פעילויות לא חוקיות.

למרות הסיכונים הללו, חברות טכנולוגיה ימשיכו לשחרר גרסאות בטא לא יציבות של פלטפורמות מונעות בינה מלאכותית. מירוץ הבינה המלאכותית מתגמל מהירות. סביר להניח שהם יפתרו באגים במועד מאוחר יותר מאשר לדחות השקת מוצרים חדשים.

5. AI גנרטיבי בעל חסמי כניסה נמוכים

כלי בינה מלאכותית מורידים את חסמי הכניסה לפשעים. פושעי סייבר מנסחים הודעות דואר זבל, כותבים קוד תוכנה זדונית ובונים קישורי פישינג על ידי ניצולם. הם אפילו לא צריכים ניסיון טכנולוגי. מכיוון שבינה מלאכותית כבר ניגשת למערכי נתונים עצומים, המשתמשים רק צריכים להערים עליו כדי לייצר מידע מזיק ומסוכן.

OpenAI מעולם לא עיצב את ChatGPT לפעילויות לא חוקיות. יש לזה אפילו הנחיות נגדם. עדיין נוכלים קיבלו כמעט מיד תוכנות זדוניות לקידוד ChatGPT וכתיבת מיילים דיוגים.

בעוד ש-OpenAI פתרה את הבעיה במהירות, היא מדגישה את החשיבות של ויסות מערכת וניהול סיכונים. בינה מלאכותית מתבגרת מהר יותר ממה שמישהו צפה. אפילו מנהיגי טכנולוגיה חוששים שטכנולוגיה סופר-אינטליגנטית זו עלולה לגרום לנזק עצום בידיים הלא נכונות.

6. AI עדיין מתפתח

AI עדיין מתפתח. בזמן השימוש בבינה מלאכותית בקיברנטיקה מתחיל ב-1940, מערכות למידת מכונה מודרניות ומודלי שפות הופיעו רק לאחרונה. אתה לא יכול להשוות אותם עם ההטמעות הראשונות של AI. אפילו כלים מתקדמים יחסית כמו Siri ואלכסה מחווירים בהשוואה לצ'אטבוטים המופעלים על ידי LLM.

למרות שהם עשויים להיות חדשניים, תכונות ניסיוניות גם יוצרות בעיות חדשות. תקלות בעלות פרופיל גבוה עם טכנולוגיות למידת מכונה החל מ-SERP של Google לקוי ועד צ'אטבוטים מוטים שיורקים השמצות גזעניות.

כמובן, מפתחים יכולים לתקן את הבעיות הללו. רק שימו לב שהנוכלים לא יהססו לנצל אפילו באגים שנראים לא מזיקים - חלק מהנזקים הם בלתי הפיכים. אז היזהר כשאתה בוחן פלטפורמות חדשות.

7. רבים עדיין לא מבינים בינה מלאכותית

בעוד שלציבור הרחב יש גישה למודלים ומערכות שפה מתוחכמים, רק מעטים יודעים כיצד הם פועלים. אנשים צריכים להפסיק להתייחס לבינה מלאכותית כאל צעצוע. אותם צ'אטבוטים שמייצרים ממים ועונים על טריוויה גם מקודדים וירוסים בהמוניהם.

למרבה הצער, אימון AI מרכזי אינו מציאותי. מובילי טכנולוגיה עולמיים מתמקדים בשחרור מערכות מונעות בינה מלאכותית, לא משאבים חינוכיים בחינם. כתוצאה מכך, משתמשים מקבלים גישה לכלים חזקים וחזקים שהם בקושי מבינים. הציבור לא יכול לעמוד בקצב של מירוץ הבינה המלאכותית.

קח את ChatGPT כדוגמה. פושעי סייבר מנצלים לרעה את הפופולריות שלו על ידי הטעיית קורבנות תוכנות ריגול מחופשות ליישומי ChatGPT. אף אחת מהאפשרויות הללו לא מגיעה מ-OpenAI.

8. להאקרים עם כובע שחור יש עוד מה להרוויח מהאקרים עם כובע לבן

בדרך כלל יש להאקרים עם כובע שחור יותר להרוויח מהאקרים אתיים. כן, בדיקת עט עבור מובילי טכנולוגיה גלובליים משתלמת היטב, אבל רק אחוז מאנשי אבטחת הסייבר מרוויחים את המשרות הללו. רובם עושים עבודה עצמאית באינטרנט. פלטפורמות כמו HackerOne ו עומס חרקים לשלם כמה מאות דולרים עבור באגים נפוצים.

לחילופין, נוכלים מרוויחים עשרות אלפים על ידי ניצול חוסר ביטחון. הם עלולים לסחוט חברות על ידי הדלפת נתונים סודיים או לבצע גניבת תעודות זהות עם גניבה מידע אישי מזהה (PII).

כל מוסד, קטן או גדול, חייב ליישם מערכות בינה מלאכותית כראוי. בניגוד לאמונה הרווחת, האקרים הולכים מעבר לסטארט-אפים טכנולוגיים ולחברות קטנות ובינוניות. חלק מהרוב פרצות נתונים היסטוריות בעשור האחרון לערב את פייסבוק, יאהו! ואפילו את ממשלת ארה"ב.

הגן על עצמך מפני סיכוני האבטחה של AI

בהתחשב בנקודות אלו, האם כדאי להימנע לחלוטין מבינה מלאכותית? ברור שלא. בינה מלאכותית היא מוסרית מטבעה; כל הסיכונים הביטחוניים נובעים מהאנשים שמשתמשים בהם בפועל. והם ימצאו דרכים לנצל מערכות AI לא משנה עד כמה הן יתפתחו.

במקום לחשוש מאיומי אבטחת הסייבר שמגיעים עם AI, הבינו כיצד תוכלו למנוע אותם. אל דאגה: אמצעי אבטחה פשוטים עושים דרך ארוכה. היזהרות מאפליקציות AI מפוקפקות, הימנעות מהיפר-קישורים מוזרים וצפייה בתוכן AI בספקנות כבר נלחמת במספר סיכונים.