רבים מאיתנו משתמשים ב-ChatGPT בקלות דעת, אבל זה מגיע עם בעיות אבטחה ופרטיות רציניות שאתה צריך לדעת עליהן.

בינואר 2023, חודשיים בלבד לאחר ההשקה, ChatGPT (Generative Pre-trained Transformer) הפכה לאפליקציה הצומחת ביותר בכל הזמנים, וצברה יותר מ-100 מיליון משתמשים.

הצ'אטבוט המתקדם של OpenAI אולי המריץ מחדש את העניין של הציבור בבינה מלאכותית, אבל מעטים שקלו ברצינות את סיכוני האבטחה הפוטנציאליים הקשורים למוצר זה.

ChatGPT: איומי אבטחה ובעיות

הטכנולוגיה העומדת בבסיס ChatGPT וצ'אטבוטים אחרים עשויה להיות דומה, אך ChatGPT נמצאת בקטגוריה משלה. אלו חדשות נהדרות אם אתה מתכוון להשתמש בה כמעין עוזר אישי, אבל מדאיג אם אתה מחשיב ששחקני איום גם משתמשים בזה.

פושעי סייבר יכולים השתמש ב-ChatGPT כדי לכתוב תוכנות זדוניות, בניית אתרי הונאה, הפקת מיילים דיוגים, יצירת חדשות מזויפות וכן הלאה. בגלל זה, ChatGPT עשוי להיות סיכון אבטחת סייבר גדול יותר מאשר תועלת, כמו מחשב מצמרר לשים את זה בניתוח.

יחד עם זאת, יש חששות רציניים של-ChatGPT עצמו יש פגיעויות מסוימות שלא טופלו. לדוגמה, במרץ 2023, הופיעו דיווחים על כך שחלק מהמשתמשים יכולים לצפות בכותרות של שיחות של אחרים. כפי ש

instagram viewer
הגבול דיווח אז, מנכ"ל OpenAI, סם אלטמן, הסביר כי "באג בספריית קוד פתוח" גרם לבעיה.

זה רק מדגיש כמה זה חשוב הגבל את מה שאתה משתף עם ChatGPT, אשר אוסף כמות מדהימה של נתונים כברירת מחדל. המומחית הטכנולוגית סמסונג למדה זאת בדרך הקשה, כאשר קבוצת עובדים שהשתמשה בצ'אט בוט כעוזרת הדליפה אליה בטעות מידע סודי.

האם ChatGPT מהווה איום על הפרטיות שלך?

אבטחה ופרטיות אינם אותו דבר, אבל הם קשורים קשר הדוק ולעתים קרובות מצטלבים. אם ChatGPT הוא איום אבטחה, אז זה גם איום על הפרטיות, ולהיפך. אבל מה זה אומר במונחים פרקטיים יותר? איך נראית מדיניות האבטחה והפרטיות של ChatGPT?

מיליארדי מילים נגרדו מהאינטרנט כדי ליצור את מסד הנתונים העצום של ChatGPT. מסד הנתונים הזה נמצא במצב מתמשך של התרחבות, מכיוון ש-ChatGPT מאחסן את כל מה שמשתמשים חולקים. העמותה שבסיסה בארה"ב שכל ישר נתן ל-ChatGPT ציון הערכת פרטיות של 61 אחוז, וציין שהצ'אטבוט אוסף מידע אישי מזהה (PII) ונתונים רגישים אחרים. רוב הנתונים האלה מאוחסנים או משותפים עם צדדים שלישיים מסוימים.

בכל מקרה, עליך להיות זהיר בעת השימוש ב-ChatGPT, במיוחד אם אתה משתמש בו לעבודה, או לעבד מידע רגיש. ככלל אצבע, אסור לשתף את הבוט במה שלא היית רוצה שהציבור יידע.

טיפול בסיכוני האבטחה הקשורים ל-ChatGPT

בינה מלאכותית תוסדר בשלב מסוים, אבל קשה לדמיין עולם שבו היא לא מהווה איום ביטחוני. כמו כל טכנולוגיה, ניתן - ותהיה - לנצל אותה לרעה.

בעתיד, הצ'אטבוטים יהפכו לחלק בלתי נפרד ממנועי חיפוש, עוזרים קוליים ורשתות חברתיות, על פי Malwarebytes. ויהיה להם תפקיד בתעשיות שונות, החל משירותי בריאות וחינוך, ועד למימון ובידור.

זה ישנה באופן קיצוני את האבטחה כפי שאנו מכירים אותה. אך כפי שגם ציין Malwarebytes, ChatGPT וכלים דומים יכולים לשמש גם אנשי מקצוע בתחום אבטחת הסייבר; למשל לחפש באגים בתוכנה, או "דפוסים חשודים" בפעילות ברשת.

העלאת המודעות היא המפתח

למה ChatGPT יוכל להגיע בעוד חמש או 10 שנים מהיום? אנחנו יכולים רק לשער, אבל מה שאנחנו כן יודעים בוודאות הוא שהבינה המלאכותית לא הולכת לשום מקום.

ככל שצ'אטבוטים מתקדמים עוד יותר צצים, תעשיות שלמות יצטרכו להסתגל וללמוד כיצד להשתמש בהם בצורה אחראית. זה כולל את תעשיית אבטחת הסייבר, שכבר עוצבה על ידי AI. העלאת המודעות לסיכוני האבטחה הקשורים ל-AI היא המפתח, ותסייע להבטיח שטכנולוגיות אלו יתפתחו ושימוש בהן בצורה אתית.