טכנולוגיית Deepfake יכולה להיות כיף לשחק איתה, אבל פוטנציאל הנזק שלה הוא משמעותי. הנה מה שעתיד הזיופים העמוקים יכול להביא.
פעם היה קל לזהות את הסימנים המספרים של תמונה מזויפת עמוקה, אבל בינה מלאכותית גנרטיבית גורמת לנו לפקפק כמעט בכל מה שאנחנו רואים ושומעים עכשיו. עם כל דגם AI חדש שיוצא, הסימנים המובהקים של תמונה מזויפת הולכים ופוחתים, וכדי להוסיף בלבול, עכשיו אתה יכול ליצור סרטונים מזויפים עמוקים, שיבוטים קוליים של יקיריכם, וליצור מאמרים מזויפים בפשטות שניות.
כדי להימנע מזיופים עמוקים של AI, כדאי לדעת איזה סוג של סכנות הם מהווים.
האבולוציה של Deepfakes
זיוף עמוק מראה אדם עושה משהו שמעולם לא קרה בחיים האמיתיים. זה מזויף לחלוטין. אנחנו צוחקים על זיופים עמוקים כשהם משותפים באינטרנט בתור מם או בדיחה, אבל מעט מאוד אנשים מוצאים את זה מצחיק כשהם רגילים להטעות אותנו.
בעבר, זיופים עמוקים נוצרו על ידי צילום תמונה קיימת ושינויה בתוכנת עריכת תמונות כמו פוטושופ. אבל מה שמייחד AI deepfake הוא שניתן ליצור אותו מאפס באמצעות אלגוריתמי למידה עמוקה.
ה מילון מריאם-וובסטר מגדיר זיוף עמוק כ:
תמונה או הקלטה ששונתה בצורה משכנעת ותופלה כדי להציג מצג שווא של מישהו כמי שעושה או אומר משהו שלא נעשה או נאמר בפועל.
אבל עם ההתקדמות בטכנולוגיית AI, ההגדרה הזו מתחילה להיראות מיושנת. עם השימוש בכלי AI, זיופים עמוקים כוללים כעת תמונות, טקסט, סרטונים ושיבוט קולי. לפעמים, כל ארבעת המצבים של יצירת AI משמשים בבת אחת.
מכיוון שזהו תהליך אוטומטי שהוא מהיר וזול להפליא לשימוש, זה הכלי המושלם לחילוץ זיופים עמוקים בקצב שמעולם לא ראינו בעבר - הכל בלי צורך לדעת דבר אחד על איך לערוך תמונות, סרטונים או שֶׁמַע.
הסכנות הגדולות של AI Deepfakes
מארח של מחוללי וידאו בינה מלאכותית כבר קיימים, לצד הרבה מחוללי קול בינה מלאכותית. לזרוק פנימה א מודל שפה גדול כמו GPT-4 ויש לך מתכון ליצירת הזיופים העמוקים האמינים ביותר שראינו בהיסטוריה המודרנית עד כה.
להיות מודע לסוגים השונים של זיופים עמוקים של AI, וכיצד הם עשויים לשמש כדי להערים אותך, היא אחת הדרכים להימנע מהטעיה. הנה רק כמה דוגמאות רציניות לאופן שבו טכנולוגיית AI deepfake מהווה איום אמיתי.
1. גניבת זהות בינה מלאכותית
אולי ראית אותם. בין זיופי הבינה המלאכותית הוויראליים הראשונים שהופצו ברחבי העולם היו תמונה של דונלד טראמפ שנעצר, ואחד של האפיפיור פרנציסקוס במעיל נפוח לבן.
בעוד אחד נראה כמו דמיון מחדש תמים של מה שדמות דתית מפורסמת עלולה ללבוש ביום קריר ברומא; לתמונה האחרת, המציגה דמות פוליטית במצב חמור עם החוק, יש השלכות הרבה יותר גדולות אם היא אמיתית.
עד כה, אנשים התמקדו בעיקר בסלבריטאים, דמויות פוליטיות ואנשים מפורסמים אחרים בעת יצירת זיופים עמוקים של AI. בין השאר, הסיבה לכך היא שלאנשים מפורסמים יש הרבה תמונות שלהם באינטרנט, שכנראה עזרו לאמן את הדוגמנית מלכתחילה.
במקרה של מחולל תמונות בינה מלאכותית כמו Midjourney - המשמש גם בזיוף העמוק של טראמפ וגם של האפיפיור - משתמש פשוט צריך להזין טקסט שמתאר את מה שהוא רוצה לראות. ניתן להשתמש במילות מפתח כדי לציין את סגנון האמנות, כגון צילום או פוטוריאליזם, וניתן לכוונן את התוצאות על ידי העלאת הרזולוציה.
אתה יכול באותה קלות למד להשתמש ב- Midjourney ובדוק זאת בעצמך, אך מסיבות מוסריות ומשפטיות ברורות, עליך להימנע מפרסום תמונות אלו בפומבי.
למרבה הצער, להיות בן אדם ממוצע ולא מפורסם לא יבטיח שאתה בטוח גם מפני זיופים עמוקים של AI.
הבעיה נעוצה בתכונה מרכזית המוצעת על ידי מחוללי תמונות AI: היכולת להעלות תמונה משלך ולתפעל אותה באמצעות AI. וכלי כמו ציור חיצוני ב-DALL-E 2 יכול להרחיב תמונה קיימת מעבר לגבולותיה על ידי הזנת בקשת טקסט ותיאור מה עוד תרצה ליצור.
אם מישהו אחר היה עושה את זה עם התמונות שלך, הסכנות עלולות להיות גדולות משמעותית מהזיוף העמוק של האפיפיור בז'קט לבן - הם יכולים להשתמש בו בכל מקום, להעמיד פנים שאתה אתה. בעוד שרוב האנשים בדרך כלל משתמשים בבינה מלאכותית עם כוונות טובות, יש מעט מאוד הגבלות שמונעות מאנשים להשתמש בה כדי לגרום נזק, במיוחד במקרים של גניבת זהות.
2. Deepfake Voice Clone הונאות
בעזרת הבינה המלאכותית, זיופים עמוקים חצו גבול שרובנו לא היינו מוכנים אליו: שיבוטי קול מזויפים. רק עם כמות קטנה של אודיו מקורי - אולי מסרטון של TikTok שפרסמת פעם, או סרטון YouTube שאתה מופיע בו - מודל AI יכול לשחזר את הקול האחד-ויחיד שלך.
זה גם מוזר וגם מפחיד לדמיין שמקבלים שיחת טלפון שנשמעת בדיוק כמו בן משפחה, חבר או עמית. שיבוטים קוליים עמוקים הם דאגה רצינית מספיק ועדת הסחר הפדרלית (FTC) הוציא אזהרה על כך.
אל תסמוך על הקול. התקשר לאדם שכביכול יצר איתך קשר ואמת את הסיפור. השתמש במספר טלפון שאתה יודע שהוא שלהם. אם אינך יכול להגיע לאהובך, נסה ליצור איתו קשר דרך בן משפחה אחר או חבריו.
כך דיווח ה"וושינגטון פוסט". מקרה של זוג בשנות ה-70 לחייהם שקיבל טלפון ממישהו שנשמע בדיוק כמו הנכד שלהם. הוא היה בכלא ונזקק בדחיפות לכסף לערבות. ללא סיבה אחרת לפקפק עם מי הם מדברים, הם המשיכו ומסרו את הכסף לרמאי.
לא רק הדור המבוגר נמצא בסיכון, כך דיווח ה"גרדיאן". דוגמה נוספת למנהל בנק שאישר עסקה של 35 מיליון דולר לאחר סדרה של "שיחות מזויפות עמוקות" ממישהו שלדעתם הוא מנהל בנק.
3. חדשות מזויפות בהפקה המונית
דגמי שפה גדולים, כמו ChatGPT הם מאוד מאוד טובים בהפקת טקסט שנשמע בדיוק כמו בן אדם, וכרגע אין לנו כלים יעילים לזהות את ההבדל. בידיים הלא נכונות, חדשות מזויפות ותיאוריות קונספירציה יהיו זולות להפקה וייקח יותר זמן להפריך.
הפצת מידע מוטעה אינו דבר חדש כמובן, אלא עבודת מחקר פורסם ב-arXiv בינואר 2023 מסביר שהבעיה נעוצה בכמה קל להגדיל את התפוקה עם כלי בינה מלאכותית. הם מתייחסים לזה כ"קמפיינים להשפעה שנוצרו על ידי בינה מלאכותית", שלדבריהם יכולים, למשל, לשמש פוליטיקאים למיקור חוץ של הקמפיינים הפוליטיים שלהם.
שילוב של יותר ממקור אחד שנוצר בינה מלאכותית יוצר זיוף עמוק ברמה גבוהה. כדוגמה, מודל בינה מלאכותית יכול ליצור סיפור חדשותי כתוב היטב ומשכנע לצד התמונה המזוייפת של דונלד טראמפ שנעצר. זה נותן לזה יותר לגיטימציה מאשר אם התמונה הייתה משותפת לבד.
חדשות מזויפות אינן מוגבלות גם לתמונות ולכתיבה, התפתחויות ביצירת וידאו בינה מלאכותית אומרות שאנו רואים יותר סרטונים מזויפים עמוקים צצים. הנה אחד מרוברט דאוני ג'וניור שהושתל על סרטון של אילון מאסק, שפורסם על ידי ערוץ היוטיוב Deepfakery.
יצירת זיוף עמוק יכול להיות פשוט כמו הורדת אפליקציה. אתה יכול להשתמש באפליקציה כמו TokkingHeads כדי להפוך תמונות סטילס לאוואטרים מונפשים, המאפשר לך להעלות תמונה ואודיו משלך כדי שייראה כאילו האדם מדבר.
לרוב זה משעשע ומהנה, אבל יש גם פוטנציאל לצרות. זה מראה לנו עד כמה קל להשתמש בתמונה של מישהו כדי לגרום לזה להיראות כאילו אותו אדם הוציא מילים שמעולם לא דיבר.
אל תלך שולל על ידי AI Deepfake
Deepfakes ניתן לפרוס במהירות בעלות נמוכה מאוד ועם רף נמוך של מומחיות או כוח מחשוב נדרש. הם יכולים לקבל צורה של תמונה שנוצרה, שיבוט קולי או שילוב של תמונות, אודיו וטקסט שנוצרו על ידי AI.
פעם זה היה הרבה יותר קשה ועתיר עבודה לייצר זיוף עמוק, אבל עכשיו, עם הרבה אפליקציות AI בחוץ, כמעט לכל אחד יש גישה לכלים המשמשים ליצירת זיופים עמוקים. ככל שטכנולוגיית AI deepfake מתקדמת יותר ויותר, כדאי לעקוב מקרוב אחר הסכנות שהיא מציבה.