ניתן להשתמש בבינה מלאכותית לטוב ולרע. הנה רק כמה דרכים שבהן זה עוזר להאקרים ורמאים כרגע.

חובבי טכנולוגיה רבים מתלהבים מהפוטנציאל של בינה מלאכותית, אך פושעי סייבר מחפשים גם את הטכנולוגיה הזו כדי לעזור להם במעלליהם. AI הוא תחום מרתק, אבל הוא גם יכול לתת לנו סיבה לדאגה. אז באילו דרכים בינה מלאכותית יכולה לעזור לפושעי סייבר?

1. כתיבת תוכנות זדוניות

בינה מלאכותית היא סוג מתקדם של טכנולוגיה, כך שחלקם אולי לא ימצאו את זה מפתיע שניתן להשתמש בה כדי לכתוב תוכנות זדוניות. תוכנה זדונית היא כינוי לתוכנות זדוניות המשמשות (פורטמנטל של המילים "זדוני" ו"תוכנה") בפריצה, והיא יכולה לבוא בצורות רבות. אבל כדי להשתמש בתוכנה זדונית, זה חייב להיכתב קודם.

לא כל פושעי הרשת מנוסים בקידוד, כאשר אחרים פשוט לא רוצים לבזבז זמן בכתיבת תוכניות חדשות. זה המקום שבו AI יכול להיות שימושי.

בתחילת 2023, הבחינו בכך ניתן להשתמש ב-ChatGPT כדי לכתוב תוכנות זדוניות להתקפות אסורות. ChatGPT הפופולרי ביותר של OpenAI מופעל על ידי תשתית AI. הצ'אטבוט הזה יכול לעשות הרבה דברים שימושיים, אבל הוא גם מנוף על ידי אנשים אסורים.

במקרה ספציפי אחד, משתמש פרסם פוסט בפורום פריצה וטען שיש לו כתב תוכנה זדונית מבוססת Python באמצעות ChatGPT.

instagram viewer

ChatGPT יכול להפוך באופן יעיל את תהליך כתיבת תוכניות זדוניות. זה פותח את הדלת לפושעי סייבר טירונים שאין להם הרבה מומחיות טכנית.

ChatGPT (או לפחות הגרסה האחרונה שלו) יכולה לכתוב רק תוכנות תוכנה זדוניות בסיסיות, ולפעמים באגיות, ולא קוד מתוחכם המהווה איומים חמורים. עם זאת, זה לא אומר שלא ניתן להשתמש בבינה מלאכותית לכתיבת תוכנות זדוניות. בהתחשב בכך שצ'אט בוט נוכחי של AI יכול ליצור תוכניות זדוניות בסיסיות, ייתכן שלא יעבור זמן רב עד שנראה תוכנות זדוניות מתועבות יותר שמקורן במערכות AI.

2. פיצוח סיסמאות

סיסמאות עומדות לעתים קרובות כשורה אחת של נתונים המגנים על החשבונות והמכשירים שלנו. לכן, באופן לא מפתיע, פושעי סייבר רבים מנסים לפצח סיסמאות כדי לקבל גישה לנתונים הפרטיים שלנו.

פיצוח סיסמאות כבר פופולרי בפשעי סייבר, וישנן טכניקות שונות ששחקן זדוני יכול להשתמש בו כדי לחשוף את הסיסמה של המטרה. לטכניקות שונות יש שיעורי הצלחה שונים, אבל בינה מלאכותית יכולה להגדיל את הסיכוי לפיצוח סיסמה.

הרעיון של פיצוחי סיסמאות בינה מלאכותית איננו בשום אופן מדע בדיוני. למעשה, ZDNet דיווחו שמומחי אבטחת סייבר גילו שיותר ממחצית מהסיסמאות הנפוצות שם בחוץ ניתנות לפיצוח תוך פחות מדקה. המאמר התייחס א דו"ח גיבורי ביטחון הבית, שקבע כי כלי פיצוח המופעל על ידי בינה מלאכותית בשם PassGAN יכול לפצח 51 אחוז מהסיסמאות הנפוצות תוך פחות מדקה, ו-71 אחוז תוך פחות מיממה.

נתונים אלה מראים עד כמה פיצוח סיסמאות AI יכול להיות מסוכן. עם היכולת לפצח את רוב הסיסמאות הרגילות בפחות מ-24 שעות, אין לדעת מה יכול פושע רשת לעשות באמצעות כלי כזה.

3. ביצוע הנדסה חברתית

טקטיקה של פשעי סייבר המכונה הנדסה חברתית תובע המוני קורבנות מדי שבוע, ומהווה בעיה מרכזית בכל חלקי העולם. שיטה זו משתמשת במניפולציה כדי לפתות קורבנות כך שייענו לדרישות התוקף, לעתים קרובות מבלי להבין שהם ממוקדים.

בינה מלאכותית יכולה לסייע בהתקפות הנדסה חברתית על ידי ניסוח התוכן המשמש בתקשורת זדונית, כגון הודעות דיוג והודעות טקסט. אפילו עם רמת התקדמות בינה מלאכותית של היום, לא יהיה קשה לבקש מצ'אטבוט לנסח תסריט משכנע או משכנע, שבו פושע הסייבר יוכל להשתמש אז נגד הקורבנות שלו. האיום הזה לא נעלם מעיניהם, ואנשים כבר מודאגים מהסכנות הבאות.

במובן זה, בינה מלאכותית יכולה גם לעזור לגרום לתקשורת זדונית להיראות מקצועית ורשמית יותר על ידי גיהוץ שגיאות כתיב ודקדוק. לעתים קרובות אומרים שטעויות כאלה הן סימנים אפשריים לפעילות זדונית, ולכן זה עשוי לעזור לפושעי רשת אם הם יכולים לכתוב את תוכן ההנדסה החברתית שלהם בצורה נקייה ויעילה יותר.

4. איתור פגיעויות תוכנה

כדי לפרוץ תוכנות, פושעי סייבר צריכים לעתים קרובות למצוא ולנצל פגיעות אבטחה. פגיעויות אלו נובעות לרוב כתוצאה מבאגים בקוד של התוכנה. אם באג לא יתוקן, או שאדם לא מעדכן באופן קבוע את התוכנה שלו (מה שלעתים קרובות מחסל את פגמי האבטחה), פגיעויות עלולות להוות סיכון גדול.

פושעי סייבר יודעים זאת, וזו הסיבה שהם מחפשים פגמים. יש כבר כלים שאפשר להשתמש בהם כדי למצוא נקודות תורפה, כמו ערכת ניצול. אבל באמצעות AI, שחקן זדוני עשוי להדגיש הרבה יותר פגיעויות, שחלקן עשויות לשמש כדי לגרום נזק רב.

עם זאת, יישום AI זה יכול להיות מועיל גם עבור ספקי אבטחת סייבר, כפי שהוא יכול סיוע באיתור נקודות תורפה לפני שהם מנוצלים. היכולת לתקן פגם במהירות עלולה לחתוך את היכולת של שחקנים זדוניים לנצל אותו, ולצמצם את ההתקפות באופן כללי.

5. ניתוח נתונים גנוביםנתונים על מסך מחשב נייד

נתונים יקרים כמו זהב. היום, נתונים רגישים נמכרים בשוקי רשת אפלים על בסיס קבוע, עם כמה שחקנים זדוניים שמוכנים לשלם מחיר גבוה מאוד אם המידע שימושי מספיק.

אבל כדי שהנתונים האלה יהיו זמינים בשווקים האלה, קודם כל צריך לגנוב אותם. ניתן בהחלט לגנוב נתונים בכמויות קטנות, במיוחד כאשר התוקף מכוון לקורבנות בודדים. אבל פריצות גדולות יותר יכולות לגרום לגניבה של מסדי נתונים ענקיים. בשלב זה, פושע הסייבר צריך לקבוע איזה מידע במסד הנתונים הזה הוא בעל ערך.

באמצעות AI, ניתן לייעל את תהליך הדגשת מידע בעל ערך, ולקצר את הזמן הנדרש לשחקן זדוני לקבוע מה כדאי למכור, או, מצד שני, לנצל ישירות בעצמו יד. בינה מלאכותית, בבסיסה, היא כולה למידה, כך שיום אחד יכול להיות קל להשתמש בכלי מופעל בינה מלאכותית כדי לאסוף נתונים רגישים יקרי ערך.

AI מבטיח אך גם מהווה איומים רבים

כפי שקורה ברוב סוגי הטכנולוגיה, בינה מלאכותית נוצלה ותמשיך להיות מנוצלת על ידי פושעי סייבר. עם AI כבר יש כמה יכולות לא חוקיות, אין באמת לדעת איך פושעי סייבר יוכלו לקדם את ההתקפות שלהם באמצעות טכנולוגיה זו בעתיד הקרוב. חברות אבטחת סייבר עשויות גם לעבוד יותר ויותר עם AI כדי להילחם באיומים כאלה, אבל הזמן יגיד איך זה יתפתח.