יותר ויותר חברות אוסרות על ChatGPT במקום העבודה, אבל מה עומד מאחורי האיסורים?

למרות היכולות המרשימות שלו, כמה חברות גדולות אסרו על עובדיהן להשתמש ב-ChatGPT.

במאי 2023, סמסונג אסרה על השימוש ב-ChatGPT ובכלי בינה מלאכותית אחרים. ואז, ביוני 2023, בנק Commonwealth Bank of Australia הלך בעקבותיו, יחד עם חברות כמו אמזון, אפל ו JPMorgan Chase & Co. כמה בתי חולים, משרדי עורכי דין וסוכנויות ממשלתיות אסרו על עובדים להשתמש ChatGPT.

אז למה יותר ויותר חברות אוסרות על ChatGPT? להלן חמש סיבות עיקריות.

1. דליפות נתונים

ChatGPT דורש כמות גדולה של נתונים כדי להתאמן ולפעול ביעילות. הצ'אטבוט אומן באמצעות כמויות אדירות של נתונים שנגזרו מהאינטרנט, והוא ממשיך להיות מאומן.

לפי דף העזרה של OpenAI, כל פיסת מידע, כולל פרטי לקוחות חסויים, סודות מסחריים ועסקים רגישים המידע שאתה מזין את הצ'אטבוט עלול להיבדק על ידי המאמנים שלו, שעשויים להשתמש בנתונים שלך כדי לשפר המערכות שלהם.

חברות רבות כפופות לתקנות מחמירות להגנת מידע. כתוצאה מכך, הם נזהרים בשיתוף נתונים אישיים עם גורמים חיצוניים, מכיוון שהדבר מגביר את הסיכונים לדליפות נתונים.

instagram viewer

חוץ מזה, OpenAI לא מציעה שום הגנה על נתונים והבטחת סודיות. במרץ 2023, OpenAI אישרה באג המאפשר לחלק מהמשתמשים לראות את כותרות הצ'אט בהיסטוריה של משתמשים פעילים אחרים. למרות הבאג הזה תוקן ו OpenAI השיקה תוכנית באגים, החברה אינה מבטיחה את הבטיחות והפרטיות של נתוני המשתמש.

ארגונים רבים בוחרים להגביל עובדים מלהשתמש ב-ChatGPT כדי למנוע דליפות נתונים, מה שעלול לפגוע במוניטין שלהם, להוביל להפסדים כספיים ולהעמיד את הלקוחות והעובדים שלהם בסיכון לְהִסְתָכֵּן.

2. סיכוני אבטחת סייבר

בזמן לא ברור אם ChatGPT באמת נוטה לסיכוני אבטחת סייבר, יש סיכוי שהפריסה שלו בתוך ארגון עלולה להציג פגיעויות פוטנציאליות שתוקפי סייבר יכולים לנצל.

אם חברה משלבת את ChatGPT ויש חולשות במערכת האבטחה של הצ'אטבוט, ייתכן שתוקפים יוכלו לנצל את הפגיעויות ולהחדיר קודי תוכנות זדוניות. כמו כן, היכולת של ChatGPT ליצור תגובות דמויות אדם היא ביצת זהב לתוקפי פישינג שיכולים לקחת על חשבון או להתחזות לישויות לגיטימיות כדי להונות את עובדי החברה לשיתוף רגיש מֵידָע.

3. יצירת צ'אטבוטים מותאמים אישית

למרות התכונות החדשניות שלו, ChatGPT יכול לייצר מידע שקרי ומטעה. כתוצאה מכך, חברות רבות יצרו צ'טבוטים של AI למטרות עבודה. לדוגמה, בנק Commonwealth of Australia ביקש מעובדיו להשתמש במקום זאת ב-Gen.ai, צ'טבוט של בינה מלאכותית (AI) שמשתמש במידע של CommBank כדי לספק תשובות.

חברות כמו סמסונג ואמזון פיתחו מודלים מתקדמים של שפה טבעית, כך שעסקים יכולים ליצור ולפרוס צ'אטבוטים מותאמים אישית בקלות על סמך תמלילים קיימים. עם צ'אטבוטים פנימיים אלה, אתה יכול למנוע את ההשלכות המשפטיות והמוניטין הקשורות לטיפול לא נכון בנתונים.

4. חוסר רגולציה

בתעשיות בהן חברות כפופות לפרוטוקולים וסנקציות רגולטוריות, היעדר הנחיות רגולטוריות של ChatGPT הוא דגל אדום. ללא תנאים רגולטוריים מדויקים המסדירים את השימוש ב-ChatGPT, חברות עלולות לעמוד בפני השלכות משפטיות חמורות בעת שימוש בצ'אט בוט AI לצורך פעילותן.

בנוסף, היעדר רגולציה יכול להפחית את האחריות והשקיפות של החברה. רוב החברות עשויות להיות מבולבלות בנוגע להסבר תהליכי קבלת ההחלטות ואמצעי האבטחה של מודל שפת הבינה המלאכותית ללקוחות שלהם.

חברות מגבילות את ChatGPT מחשש להפרות אפשריות של חוקי הפרטיות והתקנות הספציפיות לתעשייה.

5. שימוש לא אחראי על ידי עובדים

בחברות רבות, חלק מהעובדים מסתמכים אך ורק על תגובות ChatGPT כדי ליצור תוכן ולבצע את חובותיהם. זה מוליד עצלות בסביבת העבודה ומעודד יצירתיות וחדשנות.

להיות תלוי ב-AI יכול להפריע ליכולת שלך לחשוב בצורה ביקורתית. זה גם יכול לפגוע באמינות החברה, מכיוון ש-ChatGPT מספק לעתים קרובות נתונים לא מדויקים ולא אמינים.

למרות ש-ChatGPT הוא כלי רב עוצמה, השימוש בו כדי לטפל בשאילתות מורכבות הדורשות מומחיות ספציפית לתחום עלול לפגוע בתפעול וביעילות של החברה. ייתכן שחלק מהעובדים לא זוכרים לבדוק עובדות ולאמת את התגובות שסופקו על ידי הצ'טבוט של הבינה המלאכותית, תוך התייחסות לתגובות כפתרון אחד המתאים לכולם.

כדי להפחית בעיות כמו אלה, חברות מטילות איסורים על הצ'אטבוט כדי שהעובדים יוכלו להתמקד במשימות שלהם ולספק פתרונות ללא שגיאות למשתמשים.

חסמי ChatGPT: עדיף בטוח מאשר מצטער

חברות האוסרות על ChatGPT מצביעות על סיכוני אבטחת סייבר, סטנדרטים אתיים של עובדים ואתגרי ציות לרגולציה. חוסר היכולת של ChatGPT להקל על האתגרים הללו תוך מתן פתרונות תעשייתיים מעיד על מגבלותיה ועל הצורך להתפתח עוד יותר.

בינתיים, חברות עוברות לצ'אטבוטים חלופיים או פשוט מגבילות את השימוש של העובדים ChatGPT כדי למנוע פרצות מידע אפשריות ומפרוטוקולי אבטחה ורגולציה לא אמינים הקשורים ל- צ'אט בוט.