כולם חושבים שהם יכולים לזהות סרטון מזויף עמוק, אבל שיפור מהיר בטכנולוגיה, כולל כלי בינה מלאכותית, הופך את הזיהוי של סרטון מזויף לקשה מתמיד.

טייק אווי מפתח

  • זיופים עמוקים מהווים איומים משמעותיים על החברה, כולל הפצת דיסאינפורמציה, פגיעה במוניטין באמצעות התחזות ועוררות סכסוכים למען הביטחון הלאומי.
  • בעוד שטכנולוגיית בינה מלאכותית מציעה כלים לזיהוי זיופים עמוקים, הם אינם מושלמים, ושיקול הדעת האנושי נותר מכריע בזיהוי זיופים עמוקים.
  • לבני אדם ולכלי זיהוי בינה מלאכותית יש חוזקות וחולשות שונות בזיהוי זיופים עמוקים, ו שילוב היכולות שלהם יכול לשפר את אחוזי ההצלחה באיתור והפחתת הסכנות של זיוף עמוק טֶכנוֹלוֹגִיָה.

זיופים עמוקים מאיימים על כל היבט של החברה. היכולת שלנו לזהות תוכן מזויף חיונית לביטול דיסאינפורמציה, אבל ככל שטכנולוגיית AI משתפרת, על מי נוכל לסמוך שיזהה זיופים עמוקים: אדם או מכונה?

הסכנות של Deepfakes

ככל שטכנולוגיית הבינה המלאכותית מתקדמת, הסכנות של זיופים עמוקים מהווים איום הולך וגובר על כולנו. להלן סיכום מהיר של כמה מהבעיות הדוחקות ביותר שהזיופים העמוקים מציבים:

  • מֵידָע מַטעֶה: קטעי וידאו והקלטות קול מזויפות עמוקות עלולים להפיץ דיסאינפורמציה, כגון חדשות מזויפות.
  • instagram viewer
  • התחזות: על ידי התחזות ליחידים, זיופים עמוקים עלולים לפגוע במוניטין של אנשים או להונות את כל מי שהם מוכרים לו.
  • ביטחון לאומי: תרחיש יום הדין הברור עם זיופים עמוקים הוא צילומים או אודיו מפוברקים של מנהיג עולמי שמעורר סכסוך.
  • תסיסה אזרחית: צילומים ואודיו מטעים עשויים לשמש גם צדדים כדי לעורר כעס ותסיסה אזרחית בקרב קבוצות ספציפיות.
  • אבטחת סייבר: פושעי סייבר כבר משתמשים בכלי שיבוט קולי בינה מלאכותית כדי למקד אנשים עם מסרים משכנעים מאנשים שהם מכירים.
  • פרטיות והסכמה: השימוש הזדוני בזיופים עמוקים לוקח את הדמיון של אנשים ללא הסכמתם.
  • אמון וביטחון: אם אינך יכול להבחין בין אמת להונאה, מידע מדויק הופך לבלתי אמין באותה מידה.

Deepfakes רק יהפכו למשכנעים יותר, ולכן אנו זקוקים לכלים ותהליכים חזקים לאיתורם. בינה מלאכותית מספקת כלי אחד כזה בצורה של מודלים לגילוי זיוף עמוק. עם זאת, כמו אלגוריתמים שנועדו לזהות כתיבה שנוצרת בינה מלאכותית, כלי זיהוי עמוק זיופים אינם מושלמים.

בשלב זה, שיקול דעת אנושי הוא הכלי הנוסף היחיד שעליו אנו יכולים לסמוך. אז, האם אנחנו יותר טובים מאלגוריתמים בזיהוי זיופים עמוקים?

האם אלגוריתמים יכולים לזהות זיופים עמוקים יותר מבני אדם?

זיופים עמוקים הם איום רציני מספיק כדי שענקי טכנולוגיה וקבוצות מחקר מקדישות משאבים אדירים למחקר ופיתוח. בשנת 2019, אנשים כמו Meta, Microsoft ואמזון הציעו פרסים בסך 1,000,000 דולר במהלך Deepfake Detection Challenge למודל הזיהוי המדויק ביותר.

המודל עם הביצועים הטובים ביותר היה מדויק ב-82.56% מול מערך נתונים של סרטונים זמינים לציבור. עם זאת, כאשר אותם דגמים נבדקו מול "מערך נתונים של קופסה שחורה" של 10,000 סרטונים שלא נראו, המודל עם הביצועים הטובים ביותר היה מדויק ב-65.18%.

יש לנו גם הרבה מחקרים המנתחים את הביצועים של כלי זיהוי AI deepfake נגד בני אדם. כמובן, התוצאות משתנות ממחקר אחד למשנהו, אבל בדרך כלל, בני אדם שווים או עולים על שיעור ההצלחה של כלים לגילוי זיוף עמוק.

מחקר אחד משנת 2021 שפורסם ב PNAS גילה ש"משקיפים אנושיים רגילים" השיגו קצב דיוק מעט גבוה יותר מכלי זיהוי הזיופים העמוקים המובילים. עם זאת, המחקר מצא גם שהמשתתפים האנושיים ומודלים של AI היו רגישים לסוגים שונים של טעויות.

מעניין, מחקר שבוצע על ידי אוניברסיטת סידני גילתה שהמוח האנושי, באופן לא מודע, יעיל יותר באיתור זיופים עמוקים מאשר המאמצים המודעים שלנו.

זיהוי רמזים חזותיים ב-Deepfakes

מדע זיהוי הזיוף העמוק הוא מורכב, והניתוח הנדרש משתנה, בהתאם לאופי הצילומים. לדוגמה, סרטון ה-deepfake הידוע לשמצה של מנהיג צפון קוריאה קים ג'ונג און משנת 2020 הוא בעצם סרטון ראש מדבר. במקרה זה, שיטת זיהוי הזיוף העמוק היעילה ביותר עשויה להיות ניתוח הלחות (תנועות פה) ופונמות (צלילים פונטיים) לאיתור חוסר עקביות.

מומחים אנושיים, צופים מזדמנים ואלגוריתמים יכולים כולם לבצע ניתוח מסוג זה, גם אם התוצאות משתנות. ה MIT מגדיר שמונה שאלות שיעזרו לזהות סרטונים מזויפים עמוקים:

  • שימו לב לפנים. מניפולציות מתקדמות של DeepFake הן כמעט תמיד שינויי פנים.
  • שימו לב ללחיים ולמצח. האם העור נראה חלק מדי או מקומט מדי? האם הזדקנות העור דומה להזדקנות השיער והעיניים? DeepFakes עשוי להיות לא תואם בממדים מסוימים.
  • שימו לב לעיניים ולגבות. האם צללים מופיעים במקומות שהייתם מצפים להם? DeepFakes עלול לא לייצג את הפיזיקה הטבעית של סצנה במלואה.
  • שימו לב למשקפיים. האם יש בוהק? האם יש יותר מדי סנוור? האם זווית הבוהק משתנה כאשר האדם זז? שוב, DeepFakes עלול להיכשל לייצג באופן מלא את הפיזיקה הטבעית של התאורה.
  • שימו לב לשיער הפנים או היעדרו. האם שיער הפנים הזה נראה אמיתי? DeepFakes עשוי להוסיף או להסיר שפם, פאות או זקן. עם זאת, ייתכן ש-DeepFakes לא יצליח להפוך את התמורות שיער הפנים לטבעיות לחלוטין.
  • שימו לב לשומות בפנים. האם השומה נראית אמיתית?
  • שימו לב למצמוץ. האם האדם ממצמץ מספיק או יותר מדי?
  • שימו לב לתנועות השפתיים. כמה זיופים עמוקים מבוססים על סינכרון שפתיים. האם תנועות השפתיים נראות טבעיות?

הכלים העדכניים ביותר לזיהוי AI deepfake יכולים לנתח את אותם גורמים, שוב, בדרגות שונות של הצלחה. גם מדעני נתונים מפתחים כל הזמן שיטות חדשות, כמו זיהוי זרימת דם טבעית בפני הרמקולים שעל המסך. גישות חדשות ושיפורים לגישות הקיימות עלולות לגרום לכלי זיהוי בינה מלאכותית של זיוף עמוק בעקביות לעלות על בני אדם בעתיד.

זיהוי רמזי אודיו ב-Deepfakes

זיהוי אודיו מזויף עמוק הוא אתגר אחר לגמרי. ללא הרמזים החזותיים של וידאו וההזדמנות לזהות חוסר עקביות אודיו-ויזואלית, זיוף עמוק זיהוי מסתמך במידה רבה על ניתוח אודיו (שיטות אחרות כמו אימות מטא נתונים יכולות גם לעזור, בחלק מקרים).

מחקר שפורסם על ידי אוניברסיטאי קולג' בלונדון בשנת 2023 נמצא שבני אדם יכולים לזהות דיבור מזויף עמוק 73% מהמקרים (אנגלית ומנדרינית). כמו בסרטונים מזויפים עמוקים, מאזינים אנושיים מזהים לעתים קרובות באופן אינטואיטיבי דפוסי דיבור לא טבעיים בדיבור שנוצר בינה מלאכותית, גם אם הם לא יכולים לציין מה נראה כבוי.

הסימנים הנפוצים כוללים:

  • עילגות
  • חוסר ביטוי
  • רעשי רקע או הפרעות
  • אי עקביות קולית או דיבור
  • חוסר "מלאות" בקולות
  • מסירה עם תסריט יתר
  • חוסר פגמים (התחלות שווא, תיקונים, ניקוי גרון וכו')

שוב, אלגוריתמים יכולים גם לנתח דיבור עבור אותם אותות מזויפים עמוקים, אבל שיטות חדשות הופכות כלים ליעילים יותר. מחקר מאת USENIX זוהו דפוסים בשחזור מערכת הקול בינה מלאכותית שאינם מצליחים לחקות דיבור טבעי. זה מסכם שמחוללי קול בינה מלאכותית מייצרים אודיו התואמים רצועות קול צרות (בערך בגודל של קשית שתייה) ללא התנועות הטבעיות של הדיבור האנושי.

מחקר מוקדם יותר מ- מכון הורסט גרץ ניתח אודיו אמיתי ועמוק באנגלית וביפנית, וחשף הבדלים עדינים בתדרים הגבוהים יותר של דיבור אמיתי וזיופים עמוקים.

גם מערכת הקול וגם חוסר עקביות בתדר גבוה ניתנים להבנה עבור מאזינים אנושיים ומודלים לזיהוי בינה מלאכותית. במקרה של הבדלים בתדר גבוה, מודלים של בינה מלאכותית יכולים, תיאורטית, להיות מדויקים יותר ויותר - אם כי ניתן לומר את אותו הדבר גם לגבי זיופים עמוקים של בינה מלאכותית.

בני אדם ואלגוריתמים מטעים שניהם על ידי Deepfakes, אבל בדרכים שונות

מחקרים מצביעים על כך שבני אדם וכלי הזיהוי העדכניים ביותר של AI מסוגלים לזהות זיופים עמוקים. שיעורי ההצלחה יכולים לנוע בין 50% ל-90+%, בהתאם לפרמטרים של הבדיקה.

בהרחבה, גם בני אדם ומכונות מטעים על ידי זיופים עמוקים בהיקפים דומים. עם זאת, באופן מכריע, אנחנו רגישים בדרכים שונות, וזה יכול להיות הנכס הגדול ביותר שלנו בהתמודדות עם הסכנות של טכנולוגיית Deep Fake. שילוב של נקודות החוזק של בני אדם וכלים לגילוי זיוף עמוק יפחית את החולשות של כל אחד מהם וישפר את אחוזי ההצלחה.

לדוגמה, MIT מחקר מצא שבני אדם היו טובים יותר בזיהוי זיופים עמוקים של מנהיגי עולם ואנשים מפורסמים מאשר מודלים של AI. זה גם חשף את דגמי הבינה המלאכותית שנאבקו בצילומים עם מספר אנשים, אם כי זה הציע שזה יכול לנבוע מאלגוריתמים שעברו הכשרה על קטעים הכוללים רמקולים בודדים.

לעומת זאת, אותו מחקר מצא כי מודלים של בינה מלאכותית עשו ביצועים טובים יותר מבני אדם עם צילומים באיכות נמוכה (מטושטשים, מגורעים, כהים וכו') שניתן להשתמש בהם בכוונה כדי להונות צופים אנושיים. כמו כן, שיטות זיהוי AI עדכניות כמו ניטור זרימת הדם באזורי פנים מסוימים משלבות ניתוח שבני אדם אינם מסוגלים לעשות.

ככל שיתפתחו שיטות נוספות, היכולת של AI לזהות סימנים שאנחנו לא יכולים רק תשתפר, אבל גם היכולת שלה להטעות. השאלה הגדולה היא האם טכנולוגיית זיהוי הזיופים העמוקים תמשיך לעלות על הזיופים העמוקים עצמם.

לראות דברים אחרת בעידן ה-Deepfakes

כלי זיהוי בזיוף עמוק של בינה מלאכותית ימשיכו להשתפר, וכך גם איכות התוכן בזיוף עמוק עצמו. אם היכולת של בינה מלאכותית להטעות עולה על יכולת הזיהוי שלה (כמו שיש לה עם טקסט שנוצר בינה מלאכותית), שיקול הדעת האנושי עשוי להיות הכלי היחיד שנותר לנו להילחם בזיופים עמוקים.

לכל אחד יש אחריות ללמוד את הסימנים של זיופים עמוקים וכיצד לזהות אותם. מלבד ההגנה על עצמנו מפני הונאות ואיומי אבטחה, כל מה שאנו דנים ומשתפים באינטרנט חשוף לדיסאינפורמציה אם נאבד את המציאות.