אולי שמעתם על התקפות יריבות ביחס לבינה מלאכותית ולמידת מכונה, אבל מה הן? מה המטרות שלהם?

טכנולוגיה אומרת לרוב שהחיים שלנו נוחים ובטוחים יותר. עם זאת, במקביל, התקדמות כזו פתחה דרכים מתוחכמות יותר עבור פושעי סייבר לתקוף אותנו ולהשחית את מערכות האבטחה שלנו, מה שהופך אותן לחסרות אונים.

בינה מלאכותית (AI) יכולה להיות מנוצלת על ידי מקצועני אבטחת סייבר ופושעי סייבר כאחד; באופן דומה, ניתן להשתמש במערכות למידת מכונה (ML) לטוב ולרע. חוסר המצפן המוסרי הזה הפך את התקפות יריבות ב-ML לאתגר הולך וגובר. אז מהן בעצם התקפות יריבות? מה המטרה שלהם? ואיך אפשר להתגונן מפניהם?

מהן התקפות יריבות בלמידת מכונה?

התקפות סייבר שמטרתן להערים על מודל ML עם קלט זדוני ובכך להוביל לרמת דיוק נמוכה יותר וביצועים גרועים. לכן, למרות שמו, ML יריב אינו סוג של למידת מכונה אלא מגוון של טכניקות שבהן פושעי סייבר - הלא הם יריבים - משתמשים כדי למקד למערכות ML.

המטרה העיקרית של התקפות כאלה היא בדרך כלל להערים על המודל למסור מידע רגיש, אי זיהוי פעילויות הונאה, הפקת תחזיות שגויות או השחתה מבוססת ניתוח דיווחים. אמנם ישנם מספר סוגים של התקפות יריבות, אך לעתים קרובות הן מכוונות לזיהוי ספאם מבוסס למידה עמוקה.

instagram viewer

בטח שמעתם על א התקפה של יריב-באמצע, שהיא טכניקת פישינג מתוחכמת חדשה ויעילה יותר הכוללת גניבה של מידע פרטי, עוגיות הפעלה, ואפילו עקיפת שיטות אימות רב-גורמי (MFA). למרבה המזל, אתה יכול להילחם בהם טכנולוגיית MFA עמידה להתחזות.

סוגי התקפות יריבות

הדרך הפשוטה ביותר לסווג סוגי התקפות יריבות היא להפריד אותם לשתי קטגוריות עיקריות -התקפות ממוקדות ו התקפות לא ממוקדות. כפי שהוצע, להתקפות ממוקדות יש מטרה ספציפית (כמו אדם מסוים) בעוד שללא ממוקדות אין מישהו ספציפי בראש: הן יכולות לכוון כמעט לכל אחד. באופן לא מפתיע, התקפות לא ממוקדות גוזלות פחות זמן אך גם פחות מוצלחות מעמיתיהם הממוקדות.

ניתן לחלק עוד יותר את שני הסוגים הללו קופסה לבנה ו קופסה שחורה התקפות יריבות, כאשר הצבע מרמז על הידע או חוסר הידע של מודל ה-ML הממוקד. לפני שנצלול עמוק יותר לתוך התקפות הקופסה הלבנה והקופסה השחורה, בואו נסתכל במהירות על הסוגים הנפוצים ביותר של התקפות יריבות.

  • הִתחַמְקוּת: בשימוש בעיקר בתרחישים של תוכנות זדוניות, התקפות התחמקות מנסות להתחמק מזיהוי על ידי הסתרת התוכן של הודעות דואר זבל שורצות בתוכנות זדוניות. על ידי שימוש בשיטת ניסוי וטעייה, התוקף מבצע מניפולציות בנתונים בזמן הפריסה ומשחית את הסודיות של מודל ML. זיוף ביומטרי הוא אחת הדוגמאות הנפוצות ביותר להתקפת התחמקות.
  • הרעלת נתונים: ידועות גם בתור התקפות מזהמות, מטרתן לתמרן מודל ML במהלך תקופת האימון או הפריסה, ולהפחית את הדיוק והביצועים. על ידי הכנסת קלט זדוני, התוקפים משבשים את המודל ומקשים על אנשי אבטחה לזהות את סוג הנתונים לדוגמה המשחיתים את מודל ה-ML.
  • תקלות ביזנטיות: התקפה מסוג זה גורמת לאובדן שירות מערכת כתוצאה מתקלה ביזנטית במערכות הדורשות הסכמה בין כל הצמתים שלה. ברגע שאחד הצמתים המהימנים שלו הופך להיות נוכל, הוא יכול לאכול מתקפת מניעת שירות (DoS) ולכבות את המערכת ולמנוע מצמתים אחרים לתקשר.
  • מיצוי דגם:במתקפת חילוץ, היריב יחקור מערכת ML קופסה שחורה כדי לחלץ את נתוני האימונים שלה או - בתרחישים הגרועים ביותר - את המודל עצמו. לאחר מכן, עם עותק של מודל ML בידיהם, יריב יכול לבדוק את התוכנה הזדונית שלו מול האנטי-תוכנה הזדונית/אנטי וירוס ולהבין איך לעקוף אותה.
  • התקפות מסקנות: כמו בהתקפות חילוץ, המטרה כאן היא לגרום למודל ML להדליף מידע על נתוני האימון שלו. עם זאת, היריב ינסה לברר באיזה מערך נתונים נעשה שימוש כדי לאמן את המערכת, כדי שיוכלו לנצל נקודות תורפה או הטיות בה.

White-Box לעומת Black-Box לעומת התקפות יריבות של Grey-Box

מה שמייחד את שלושת הסוגים הללו של התקפות יריבות הוא כמות הידע שיש ליריבים לגבי הפעולה הפנימית של מערכות ה-ML שהם מתכננים לתקוף. בעוד ששיטת הקופסה הלבנה דורשת מידע ממצה על מודל ה-ML הממוקד (כולל שלו ארכיטקטורה ופרמטרים), שיטת הקופסה השחורה אינה דורשת מידע והיא יכולה רק לצפות בה תפוקות.

דגם הקופסה האפורה, בינתיים, עומד באמצע שני הקצוות הללו. לפי זה, ליריבים יכולים להיות מידע מסוים על מערך הנתונים או פרטים אחרים על מודל ה-ML אך לא את כולו.

איך אתה יכול להגן על למידת מכונה מפני התקפות יריבות?

בעוד שבני אדם הם עדיין המרכיב הקריטי בחיזוק אבטחת הסייבר,AI ו-ML למדו כיצד לזהות ולמנוע התקפות זדוניות- הם יכולים להגביר את הדיוק של זיהוי איומים זדוניים, ניטור פעילות משתמשים, זיהוי תוכן חשוד ועוד הרבה יותר. אבל האם הם יכולים לדחות התקפות יריבות ולהגן על דגמי ML?

אחת הדרכים שבהן נוכל להילחם בהתקפות סייבר היא לאמן מערכות ML לזהות התקפות יריבות מבעוד מועד על ידי הוספת דוגמאות לנוהל ההדרכה שלהן.

בניגוד לגישת הכוח האכזרי הזו, שיטת הזיקוק ההגנתי מציעה שנשתמש במודל העיקרי והיעיל יותר כדי להבין לגלות את התכונות הקריטיות של מודל משני, פחות יעיל, ולאחר מכן לשפר את הדיוק של המשני עם הראשוני אחד. דגמי ML מאומנים בזיקוק הגנתי פחות רגישים לדגימות יריבות, מה שהופך אותם פחות רגישים לניצול.

נוכל גם לשנות כל הזמן את האלגוריתמים שבהם משתמשים מודלים של ML לסיווג נתונים, מה שעלול להפוך התקפות יריבות לפחות מוצלחות.

טכניקה בולטת נוספת היא סחיטת תכונות, שתצמצם את שטח החיפוש הזמין ליריבים על ידי "סחיטת" תכונות קלט מיותרות. כאן, המטרה היא למזער תוצאות חיוביות שגויות ולהפוך את זיהוי הדוגמאות הנגדיות ליעיל יותר.

הגנה על למידת מכונה ואינטליגנציה מלאכותית

התקפות יריבות הראו לנו שדגמי ML רבים יכולים להתנפץ בדרכים מפתיעות. אחרי הכל, למידת מכונה אדוורסרית היא עדיין תחום מחקר חדש בתחום אבטחת הסייבר, והיא מגיעה עם בעיות מורכבות רבות עבור AI ו-ML.

אמנם אין פתרון קסום להגנה על הדגמים הללו מפני כל התקפות יריבות, אבל העתיד כנראה יביא טכניקות מתקדמות יותר ואסטרטגיות חכמות יותר להתמודדות עם האיום הזה יָרִיב.