בינה מלאכותית יכולה להישמע כמו הנשיא. או שזה יכול להישמע כמו אתה או אני. אז איזה סיכון אבטחת סייבר מציבה תוכנת שיבוט קולי בינה מלאכותית?
בינה מלאכותית (AI) היא טכנולוגיה חזקה שמבטיחה לשנות את חיינו. מעולם זה לא היה ברור כמו היום, כאשר כלים רבי עוצמה זמינים לכל מי שיש לו חיבור לאינטרנט.
זה כולל מחוללי קול בינה מלאכותית, תוכנה מתקדמת המסוגלת לחקות דיבור אנושי בצורה כל כך מוכשרת עד שאי אפשר להבחין בין השניים. מה זה אומר על אבטחת סייבר?
כיצד פועלים מחוללי קול בינה מלאכותית?
סינתזת דיבור, תהליך של הפקת דיבור אנושי באופן מלאכותי, קיים כבר עשרות שנים. וכמו כל טכנולוגיה, היא עברה שינויים עמוקים במהלך השנים.
אלה שהשתמשו ב-Windows 2000 ו-XP אולי זוכרים את Microsoft Sam, קול הגברי ברירת המחדל של טקסט לדיבור של מערכת ההפעלה. מיקרוסופט סם ביצעה את העבודה, אבל הצלילים שהיא הפיקה היו רובוטיים, נוקשים ולא טבעיים. הכלים העומדים לרשותנו כיום מתקדמים הרבה יותר, בעיקר הודות ללמידה עמוקה.
למידה עמוקה היא א שיטת למידת מכונה המבוסס על רשתות עצביות מלאכותיות. בגלל הרשתות העצביות הללו, AI מודרני מסוגל לעבד נתונים כמעט כמו הנוירונים במוח האנושי המפרשים מידע. כלומר, ככל שה-AI הופך לדומה יותר לאדם, כך הוא טוב יותר בחיקוי התנהגות אנושית.
זה, בקצרה, איך מחוללי קול מודרניים של AI עובדים. ככל שהם נחשפים ליותר נתוני דיבור, כך הם הופכים מיומנים יותר בחיקוי דיבור אנושי. בשל ההתקדמות האחרונה יחסית בטכנולוגיה זו, תוכנת טקסט לדיבור מתקדמת יכולה למעשה לשכפל את הצלילים שהיא מוזנת.
כיצד שחקני איומים משתמשים במחוללי קול בינה מלאכותית
באופן לא מפתיע, הטכנולוגיה הזו מנוצלת לרעה על ידי גורמי איומים. ולא רק פושעי סייבר במובן הטיפוסי של המילה, אלא גם על ידי סוכני דיסאינפורמציה, רמאים, משווקי כובעים שחורים וטרולים.
ברגע ש-ElevenLabs שחררה גרסת בטא של תוכנת הטקסט לדיבור שלה בינואר 2023, טרולים מימין קיצוני בלוח ההודעות 4chan החלו להתעלל בה. באמצעות הבינה המלאכותית המתקדמת, הם שיחזרו את קולותיהם של אנשים כמו דיוויד אטנבורו ואמה ווטסון, מה שגרם לזה להיראות כאילו הסלבריטאים מתנהלים עם טירדות נבזיות ומעוררות שנאה.
כפי ש סְגָן דיווח בזמנו, ElevenLabs הודתה שאנשים עושים שימוש לרעה בתוכנה שלה, במיוחד שיבוט קולי. תכונה זו מאפשרת לכל אחד "לשכפל" קולו של אדם אחר; כל מה שאתה צריך לעשות הוא להעלות הקלטה של דקה אחת, ולתת ל-AI לעשות את השאר. יש להניח שככל שההקלטה ארוכה יותר, כך הפלט טוב יותר.
במרץ 2023, סרטון ויראלי של TikTok משך את תשומת ליבו הניו יורק טיימס. בסרטון נשמעו הפודקאסטר המפורסם ג'ו רוגן וד"ר אנדרו הוברמן, אורח תדיר ב-The Joe Rogan Experience, משוחחים על משקה קפאין "מגביר את הליבידו". הסרטון גרם לזה להיראות כאילו גם רוגן וגם הוברמן תומכים באופן חד משמעי במוצר. למעשה, הקולות שלהם שובטו באמצעות AI.
בערך באותו זמן, בנק הסיליקון ואלי, שבסיסו בסנטה קלרה, קליפורניה, קרס עקב טעויות בניהול סיכונים ונושאים אחרים, והשתלט על ידי ממשלת המדינה. זה היה הכישלון הבנקאי הגדול ביותר בארצות הברית מאז המשבר הפיננסי של 2008, ולכן הוא שלח גלי הלם בשווקים העולמיים.
מה שתרם לפאניקה היה הקלטת אודיו מזויפת של נשיא ארה"ב ג'ו ביידן. בהקלטה נשמע ביידן ככל הנראה מתריע מפני "התמוטטות" קרובה ומנחה את ממשלו "להשתמש במלוא הכוח של התקשורת כדי להרגיע את הציבור". בודקי עובדות אוהבים PolitiFact מיהרו להפריך את הקליפ, אבל סביר להניח שמיליונים שמעו אותו עד אז.
אם אפשר להשתמש במחוללי קול בינה מלאכותית כדי להתחזות לסלבריטאים, אפשר להשתמש בהם גם כדי להתחזות לאנשים רגילים, וזה בדיוק מה שפושעי סייבר עשו. לפי ZDNet, אלפי אמריקאים נופלים להונאות המכונה vishing, או דיוג קולי כל שנה. זוג קשישים אחד עלה לכותרות לאומיות בשנת 2023 כשקיבל שיחת טלפון מה"נכד" שלהם, שטען שהוא בכלא וביקש כסף.
אם אי פעם העלית סרטון יוטיוב (או הופעת בסרטון כזה), השתתפת בשיחה קבוצתית גדולה עם אנשים שאתה לא לדעת, או שהעלית את הקול שלך לאינטרנט בצורה כלשהי, אתה או יקיריכם עלולים להיות בסכנה תיאורטית. מה יעצור רמאי מלהעלות את הקול שלך למחולל בינה מלאכותית, לשכפל אותו וליצור קשר עם המשפחה שלך?
מחוללי קול בינה מלאכותית משבשים את נוף אבטחת הסייבר
לא צריך מומחה אבטחת סייבר כדי לזהות עד כמה AI יכול להיות מסוכן בידיים הלא נכונות. ולמרות שזה נכון שאפשר לומר את אותו הדבר על כל הטכנולוגיה, בינה מלאכותית היא איום ייחודי מכמה סיבות.
ראשית, הוא חדש יחסית, מה שאומר שאנחנו לא באמת יודעים למה לצפות ממנו. כלי בינה מלאכותית מודרניים מאפשרים לפושעי סייבר להרחיב ולהפוך את פעולותיהם לאוטומטיות בצורה חסרת תקדים, תוך ניצול הבורות היחסית של הציבור בכל הנוגע לעניין זה. כמו כן, בינה מלאכותית גנרטיבית מאפשרת לשחקני איום עם מעט ידע ומיומנות ליצור קוד זדוני, בנה אתרי הונאה, הפצת ספאם, כתוב הודעות דיוג, ליצור תמונות מציאותיות, ולהפיק שעות אינסופיות של תוכן אודיו ווידאו מזויפים.
באופן מכריע, זה עובד בשני הכיוונים: בינה מלאכותית משמשת גם להגנה על מערכות, וכנראה שזה יהיה בעשרות השנים הבאות. זה לא יהיה מופרך להניח שמה שמחכה לנו הוא מעין מירוץ חימוש בינה מלאכותית בין פושעי סייבר ותעשיית אבטחת הסייבר, בהיות שהיכולות ההגנתיות וההתקפיות של הכלים הללו הן מטבען שווה.
עבור האדם הממוצע, הופעת הבינה המלאכותית הגנרטיבית הנרחבת דורשת רדיקלי חשיבה מחודשת על נוהלי אבטחה. עד כמה ש-AI מרגש ושימושי, הוא יכול לכל הפחות לטשטש את הגבול בין מה אמיתי למה לא, ובמקרה הגרוע להחמיר בעיות אבטחה קיימות וליצור מרחב חדש לתמרון גורמי איומים ב.
מחוללי קול מראים את הפוטנציאל ההרסני של AI
ברגע ש-ChatGPT יצא לשוק, הדיבורים על הסדרת בינה מלאכותית גברו. כל ניסיון להגביל את הטכנולוגיה הזו כנראה ידרוש שיתוף פעולה בינלאומי במידה שלא ראינו מזה עשרות שנים, מה שהופך את זה לבלתי סביר.
השד יצא מהבקבוק, והכי טוב שאנחנו יכולים לעשות זה להתרגל אליו. זאת, ומקווה שתחום אבטחת הסייבר יתאים את עצמו בהתאם.