ChatGPT יכול לעזור לאנשים לעשות מספר רב של דברים, כולל לקבל גישה למידע הרגיש ביותר שלך.

מאז השקתו, ChatGPT, הצ'אטבוט של OpenAI, שימש מיליוני אנשים לכתיבת טקסט, יצירת מוזיקה ויצירת קוד. אבל ככל שיותר אנשים משתמשים בצ'אטבוט של AI, חשוב לקחת בחשבון את סיכוני האבטחה.

כמו כל טכנולוגיה, ניתן להשתמש ב-ChatGPT מסיבות מרושעות. האקרים, למשל, יכולים להשתמש בו כדי ליצור תוכן זדוני, כמו כתיבת הודעות דוא"ל מזויפות כדי לקבל גישה למחשב האישי שלך או אפילו לחשבון הבנק שלך.

ChatGPT יכול לעזור לפושעי סייבר לפרוץ למחשב האישי שלך

האקרים, כולל ילדי תסריט, יכולים השתמש ב-ChatGPT כדי ליצור תוכנות זדוניות חדשות או לשפר את הקיימים. כמה פושעי סייבר כבר משתמשים בצ'אטבוט, במיוחד בגרסאות הקודמות שלו, כדי לכתוב קוד שלטענתם יכול להצפין קבצים.

כדי להתמודד עם מקרי שימוש כאלה, OpenAI הטמיעה מנגנונים לדחיית הנחיות המבקשות מ-ChatGPT ליצור תוכנות זדוניות. לדוגמה, אם תבקש מהצ'אטבוט "לכתוב תוכנה זדונית", הוא לא יעשה זאת. למרות זאת, פושעי סייבר עוקפים בקלות את מחסומי מתן התוכן הללו.

על ידי פעולתו כבוחן עט, שחקן איומים עשוי לנסח מחדש את ההנחיות שלו להערים על ChatGPT לכתוב קוד, שאותו הם יכולים לאחר מכן לצבוט ולהשתמש בהתקפות סייבר.

instagram viewer

א דו"ח של צ'ק פוינט, חברת אבטחה ישראלית, מציינת שהאקר יכול היה להשתמש ב-ChatGPT כדי ליצור תוכנות זדוניות בסיסיות של Infostealer. חברת האבטחה גילתה גם משתמש אחר שטוען ש-ChatGPT עזר לו לבנות כלי הצפנה רב-שכבתי שיכול להצפין מספר קבצים במתקפת כופר.

בתקרית נפרדת, החוקרים הניעו את ChatGPT ליצור קוד VBA זדוני שעלול להיות מושתל בקובץ Microsoft Excel שידביק את המחשב האישי שלך אם ייפתח; זה עשה בהצלחה. בנוסף, ישנן טענות ש-ChatGPT יכול לקודד תוכנה זדונית המסוגלת לרגל אחרי לחיצות המקלדת שלך.

האם ChatGPT יכול לפרוץ את חשבון הבנק שלך?

פרצות מידע רבות מתחילות ב מתקפת פישינג מוצלחת. התקפות דיוג כוללות לעתים קרובות שחקן זדוני ששולח לנמען אימייל המכיל מסמכים או קישורים בעלי מראה לגיטימי, אשר, כאשר לוחצים עליהם, יכולים להתקין תוכנות זדוניות במכשיר שלו. בדרך זו, קוד מ-ChatGPT לא צריך לפרוץ ישירות לחשבון הבנק שלך. מישהו צריך רק להשתמש ב-ChatGPT כדי לעזור לו להערים אותך כדי לתת לו גישה.

למרבה המזל, אתה יכול לזהות בקלות את רוב הונאות הדיוג המסורתיות; שגיאות דקדוקיות, שגיאות כתיב וביטויים מוזרים מאפיינים אותם לעתים קרובות. אבל כל אלה הן טעויות ש-ChatGPT עושה רק לעתים רחוקות, אפילו כאשר משתמשים בהם כדי לכתוב מיילים זדוניים עבור הונאות דיוג.

כאשר משתמשים בהונאות דיוג, הודעות שנראות ממקור לגיטימי יכולות להקל על הקורבנות לוותר על המידע המאפשר זיהוי אישי שלהם, כמו סיסמאות בנקאיות.

אם הבנק שלך שלח לך הודעה בדוא"ל, שקול לבקר ישירות באתר האינטרנט של הבנק במקום ללחוץ על כל קישור מוטבע. לחיצה על קישורים וקבצים מצורפים אקראיים, במיוחד אלה שמבקשים ממך להיכנס למקום כלשהו, ​​היא רק לעתים רחוקות רעיון טוב.

עבור דיוג, זה בעיקר על נפח. ChatGPT יכול לעזור להגביר את מסעות הפרסום של פישינג מכיוון שהוא יכול לשאוב במהירות כמויות אדירות של טקסטים בעלי צלילים טבעיים המותאמים לקהלים ספציפיים.

סוג אחר של התקפת פישינג הכוללת שימוש ב-ChatGPT הוא המקום שבו האקר יוצר חשבון מזויף בפלטפורמת צ'אט פופולרית כמו Discord ומתחזה לנציג לקוחות. לאחר מכן נציג הלקוחות המזויפים יוצר קשר עם לקוחות שפרסמו חששות והציע עזרה. אם משתמש נופל בפח, פושע הסייבר יפנה אותו לאתר מזויף שמרמה אותו לשתף מידע אישי, כמו פרטי הכניסה לבנק שלו.

הגן על המחשב האישי וחשבון הבנק שלך בעידן ה-AI

ChatGPT הוא כלי רב עוצמה ובעל ערך שיכול לענות על שאלות רבות שאתה מטיל בדרכו. אבל הצ'אטבוט יכול לשמש גם למטרות זדוניות, כמו יצירת הודעות דיוג ויצירת תוכנות זדוניות.

החדשות הטובות הן ש-OpenAI ממשיכה ליישם צעדים שמונעים ממשתמשים לנצל את ChatGPT על ידי בקשת הנחיות מזיקות. שוב, שחקני איומים ממשיכים למצוא דרכים חדשות לעקוף את ההגבלות הללו.

כדי למזער את הסכנות הפוטנציאליות של צ'אטבוטים של AI, חיוני להכיר את הסיכונים הפוטנציאליים שלהם ואת אמצעי האבטחה הטובים ביותר כדי להגן על עצמך מפני האקרים.