עובדי סמסונג הדליפו בטעות נתונים של חברה פרטית באמצעות ChatGPT - דוגמה מדוע AI מהווה איום כה גדול על הפרטיות והאבטחה שלך.

ChatGPT הפך לבעיית אבטחה ופרטיות מרכזית מכיוון שרבים מדי מאיתנו חולקים בה בהיסח דעת את המידע הפרטי שלנו. ChatGPT מתעד כל שיחה שאתה מנהל איתו, כולל כל מידע אישי שאתה משתף. ובכל זאת, לא תדע את זה אלא אם כן חפרת במדיניות הפרטיות של OpenAI, תנאי השירות ודף השאלות הנפוצות כדי לחבר את זה יחד.

זה מספיק מסוכן להדליף מידע משלך, אבל בהתחשב בכך שחברות ענק משתמשות ב-ChatGPT כדי לעבד מידע מדי יום, זו עלולה להיות ההתחלה של אסון דליפת נתונים.

סמסונג הדליפה מידע סודי דרך ChatGPT

לפי גיזמודו, עובדי סמסונג הדליפו בטעות מידע סודי דרך ChatGPT בשלוש הזדמנויות נפרדות בטווח של 20 יום. זו רק דוגמה אחת לכמה קל לחברות להתפשר על מידע פרטי.

ChatGPT זוכה לביקורת פומבית בגלל בעיות הפרטיות שלה, אז זה פיקוח משמעותי שסמסונג נותנת לזה לקרות. מדינות מסוימות אפילו אסרו את ChatGPT כדי להגן על האזרחים שלהם עד שזה ישפר את הפרטיות שלו, אז אתה חושב שחברות יהיו זהירות יותר לגבי האופן שבו הצוות שלהן משתמש בזה.

למרבה המזל, נראה שהלקוחות של סמסונג בטוחים - לעת עתה, לפחות. הנתונים שנפרצו נוגעים רק לשיטות עסקיות פנימיות, לקוד קנייני כלשהו שהם פותרו בעיות, והפרוטוקולים של ישיבת צוות, כולם שהוגשו על ידי העובדים. עם זאת, לצוות היה קל באותה מידה להדליף מידע אישי של צרכנים, וזה רק עניין של זמן עד שנראה חברה אחרת עושה בדיוק את זה. אם זה יקרה, נוכל לצפות לראות

instagram viewer
עלייה מסיבית בהונאות דיוג וגניבת זהות.

יש כאן גם שכבת סיכון נוספת. אם עובדים ישתמשו ב-ChatGPT כדי לחפש באגים כמו שעשו עם הדלפת סמסונג, הקוד שהם מקלידים בתיבת הצ'אט יאוחסן גם בשרתים של OpenAI. זה עלול להוביל להפרות בעלות השפעה עצומה על חברות בפתרון בעיות במוצרים ובתוכניות שטרם פורסמו. אנו עלולים אפילו לראות מידע כמו תוכניות עסקיות שטרם פורסמו, מהדורות עתידיות ואבות טיפוס שדלפים, וכתוצאה מכך הפסדי הכנסה עצומים.

כיצד מתרחשות דליפות נתונים של ChatGPT?

מדיניות הפרטיות של ChatGPT מבהיר שהוא מקליט את השיחות שלך ומשתף את היומנים עם חברות אחרות ומאמני הבינה המלאכותית שלה. כאשר מישהו (לדוגמה, עובד סמסונג) מקליד מידע סודי בתיבת הדו-שיח, הוא מוקלט ונשמר בשרתים של ChatGPT.

זה מאוד לא סביר שהעובדים עשו זאת בכוונה, אבל זה החלק המפחיד. רוב הפרות הנתונים נגרמות כתוצאה מטעויות אנוש. לעתים קרובות, הסיבה לכך היא שהחברה לא הצליחה לחנך את הצוות שלה לגבי סיכוני הפרטיות של שימוש בכלים כמו AI.

לדוגמה, אם הם מדביקים רשימת אנשי קשר גדולה בצ'אט ומבקשים מה-AI לבודד את מספרי הטלפון של הלקוחות מהנתונים, ChatGPT מכיל את השמות ומספרי הטלפון האלה ברשומות. המידע הפרטי שלך נתון לחסדי חברות שלא שיתפת אותו איתן, מה שאולי לא יגן עליו מספיק כדי לשמור עליך. יש כמה דברים שאתה יכול לעשות כדי שמרו על עצמכם לאחר פריצת מידע, אבל עסקים צריכים להיות אחראים למניעת דליפות.

מוסר השכל של הסיפור: אל תספר ל-ChatGPT את הסודות שלך

אתה יכול להשתמש בבטחה ב-ChatGPT עבור מאות משימות שונות, אבל ארגון מידע סודי אינו אחד מהם. עליך להקפיד להימנע מהקלדת כל דבר אישי בתיבת הצ'אט, כולל שמך, כתובתך, הדוא"ל ומספר הטלפון שלך. קל לעשות את הטעות הזו, אז עליך להקפיד לבדוק את ההנחיות שלך כדי לוודא ששום דבר לא נכנס בטעות.

הדלפת סמסונג מראה לנו עד כמה אמיתי הסיכון של דליפת נתונים הקשורה ל-ChatGPT. למרבה הצער, אנו נראה יותר מסוגי הטעויות הללו, אולי עם השפעות גדולות בהרבה, מכיוון שבינה מלאכותית הופכת לחלק מרכזי בתהליכים של רוב העסקים.