צ'אטבוטים של בינה מלאכותית עשויים להזות, לתת תשובות שגויות בביטחון - מה שהאקרים יכולים לנצל. הנה איך האקרים מנשקים הזיות.

בינה מלאכותית של מודל שפה גדול אינם מושלמים ולפעמים מייצרים מידע שקרי. מקרים אלה, הנקראים הזיות, עלולים להוות איום סייבר לעסקים ולחובבי בינה מלאכותית בודדים.

למרבה המזל, אתה יכול להגביר את ההגנה מפני הזיות בינה מלאכותית עם מודעות מוגברת וניחוש שני בריא.

מדוע AI הוזה?

אין הסכמה לגבי הסיבה לכך שדגמי AI הוזהים, אם כי יש כמה ניחושים סבירים.

בינה מלאכותית מאומנת ממערכי נתונים מסיביים, המכילים לרוב פגמים כמו פערי מחשבה, שונות בולטות בתוכן או הטיות מזיקות. כל הכשרה ממערכי נתונים לא שלמים או לא מספקים הללו עשויה להיות שורש ההזיות, גם אם איטרציות מאוחרות יותר של מערך הנתונים קיבלו אוצרות של מדעני נתונים.

לאורך זמן, מדעני נתונים יכולים להפוך מידע מדויק יותר ולהזין ידע נוסף כדי למלא משרות פנויות ולמזער את פוטנציאל ההזיה. מפקחים עלולים לסמן נתונים שגויים. ייתכן שקוד התכנות מכיל שגיאות. תיקון פריטים אלה הוא חיוני מכיוון שמודלים של AI מתקדמים בהתבסס על אלגוריתמים של למידת מכונה.

אלגוריתמים אלה משתמשים בנתונים כדי לקבוע קביעות. הרחבה לכך היא הרשת העצבית של הבינה המלאכותית, שיוצרת החלטות חדשות מחוויית למידת מכונה ועד

דומה למקוריות של המוח האנושי בצורה מדויקת יותר. רשתות אלו מכילות שנאים, המנתחים את היחסים בין נקודות נתונים מרוחקות. כאשר שנאים משתבשים, עלולות להתרחש הזיות.

כיצד הזיות בינה מלאכותית מספקות הזדמנויות להאקרים

למרבה הצער, זה לא ידוע שבינה מלאכותית הוזה, ובינה מלאכותית תישמע בטוחה בעצמה גם כשהיא שגויה לחלוטין. כל זה תורם להפיכת המשתמשים לשאננים יותר ולבטוחים יותר ב-AI, ושחקני איומים מסתמכים על התנהגות המשתמש הזו כדי לגרום להם להוריד או להפעיל את ההתקפות שלהם.

לדוגמה, מודל בינה מלאכותית עשוי להזות ספריית קוד מזויף ולהמליץ ​​למשתמשים להוריד את הספרייה הזו. סביר להניח שהדגם ימשיך להמליץ ​​על אותה ספרייה הזויה למשתמשים רבים ששואלים שאלה דומה. אם האקרים יגלו את ההזיה הזו, הם יכולים ליצור גרסה אמיתית של הספרייה המדומיינת - אבל מלאה בקוד מסוכן ובתוכנות זדוניות. כעת, כאשר בינה מלאכותית ממשיכה להמליץ ​​על ספריית הקוד, משתמשים שלא מודעים יורידו את קוד ההאקרים.

העברת קוד ותוכניות מזיקים על ידי ניצול הזיות בינה מלאכותית היא הצעד הבא הלא מפתיע עבור שחקני איומים. האקרים לא בהכרח יוצרים אינספור איומי סייבר חדשים - הם רק מחפשים דרכים חדשות לספק אותם ללא חשד. הזיות בינה מלאכותית טורפות את אותה נאיביות אנושית לחיצה על קישורי דוא"ל תלויה בה (ולכן אתה צריך השתמש בכלים לבדיקת קישורים כדי לאמת כתובות אתרים).

האקרים עשויים לקחת את זה גם לשלב הבא. אם אתה מחפש עזרה בקידוד ותוריד את הקוד המזויף והזדוני, שחקן האיום יכול גם לגרום לקוד לפעול בפועל, כשברקע פועלת תוכנית מזיקה. רק בגלל שזה עובד כמו שאתה צופה זה לא אומר שזה לא מסוכן.

חוסר השכלה עשוי לעודד אותך להוריד המלצות שנוצרו על ידי AI בגלל התנהגות טייס אוטומטי מקוון. כל מגזר נמצא תחת לחץ תרבותי לאמץ AI בשיטות העסקיות שלו. אינספור ארגונים ותעשיות הרחוקות מהטכנולוגיה משחקים עם כלי בינה מלאכותית עם מעט ניסיון ואבטחת סייבר דלילה יותר פשוט כדי להישאר תחרותיים.

כיצד להישאר בטוחים מהזיות בינה מלאכותית מנשקת

התקדמות באופק. יצירת תוכנות זדוניות עם AI יצירתי הייתה קלה לפני שחברות התאימו מערכי נתונים ותנאים והגבלות כדי למנוע דורות לא אתיים. אם אתה מכיר את החולשות החברתיות, הטכניות והאישיות שעשויות להיות לך נגד הזיות AI מסוכנות, מהן כמה דרכים להישאר בטוחים?

כל אחד בתעשייה יכול לעבוד על חידוד טכנולוגיית רשתות עצביות ואימות ספרייה. חייבות להיות בלמים ואיזונים לפני שהתגובות יפגעו במשתמשי הקצה. למרות שמדובר בקידום הכרחי בתעשייה, יש לך גם תפקיד בהגנה על עצמך ואחרים מפני איומי בינה מלאכותית.

משתמשים ממוצעים יכול לתרגל איתור הזיות בינה מלאכותית עם האסטרטגיות האלה:

  • איתור שגיאות כתיב ודקדוק.
  • לראות מתי ההקשר של השאילתה אינו מתיישב עם ההקשר של התגובה.
  • הכרה כאשר תמונות מבוססות ראייה ממוחשבת אינן תואמות את האופן שבו עיניים אנושיות רואות את הרעיון.

היזהר תמיד בעת הורדת תוכן מהאינטרנט, גם כאשר מומלץ על ידי AI. אם AI ממליצה להוריד קוד, אל תעשה זאת בצורה עיוורת; בדוק את כל הביקורות כדי לוודא שהקוד לגיטימי וראה אם ​​אתה יכול למצוא מידע על היוצר.

ההתנגדות הטובה ביותר נגד התקפות מבוססות הזיות בינה מלאכותית היא חינוך. לדבר על החוויות שלך ולקרוא כיצד אחרים עוררו הזיות זדוניות, בין אם בשוגג ובין אם בבדיקה מכוונת, חשוב לאין ערוך בניווט AI בעתיד.

שיפור אבטחת סייבר בינה מלאכותית

עליך להיזהר במה שאתה מבקש כשאתה מדבר עם AI. הגבל את הפוטנציאל לתוצאות מסוכנות על ידי היות ספציפי ככל האפשר והטלת ספק בכל מה שמגיע על המסך. בדוק קוד בסביבות בטוחות ובדוק עובדות מידע אחר שנראה אמין. בנוסף, שיתוף פעולה עם אחרים, דיון בחוויות שלך ופישוט הז'רגון על AI הזיות ואיומי אבטחת סייבר יכולים לעזור להמונים להיות יותר ערניים ועמידים בפני האקרים.