חדשות מזויפות, זיופים עמוקים, תמונות מטעות: כל אלה יכולים להיווצר באמצעות בינה מלאכותית. הנה איך AI אומר שמידע מוטעה מתפשט.
בינה מלאכותית (AI) משחקת כעת תפקיד בהיבטים שונים של חיינו. באופן ספציפי, כלי בינה מלאכותית גנרטיבית כמו ChatGPT ואחרים גדלו באופן משמעותי. המשמעות היא שבעתיד יהיה שפע של תוכן שנוצר בינה מלאכותית.
עם זאת, AI גנרטיבי מציג גם את הסיכון של דיסאינפורמציה שנוצרת בינה מלאכותית. התכונות שלו מקלות על אנשים אופורטוניסטים להפיץ מידע כוזב. אז, בואו נחקור כיצד נעשה שימוש ב-AI גנרטיבי עבור דיסאינפורמציה.
סיכונים פוטנציאליים של AI גנרטיבי להפצת דיסאינפורמציה
בינה מלאכותית גנראטיבית מהווה איומים רבים על אנשים, כמו לקיחת משרות, יותר מעקבים והתקפות סייבר. וה בעיות אבטחה עם AI יחמירו עוד יותר. אבל יש עוד דאגה: אנשים יכולים להשתמש בו כדי להפיץ שקרים. אנשים מטעים יכולים להשתמש בבינה מלאכותית גנרטיבית כדי לשתף חדשות מזויפות באמצעות תוכן חזותי, שמיעתי או טקסטואלי.
ניתן לסווג חדשות כוזבות לשלושה סוגים:
- מֵידָע מְפוּבּרָק: מידע שגוי או כוזב לא מכוון.
- מֵידָע מַטעֶה: שימוש מכוון במידע מניפולטיבי או מטעה.
- מידע שגוי: חדשות מטעות או גרסה מוגזמת של האמת.
מתי בשילוב עם טכנולוגיית deepfake, כלי AI גנרטיביים יכולים להפוך תוכן שנראה ונשמע אמיתי, כמו תמונות, סרטונים, קטעי אודיו ומסמכים. יש הרבה אפשרויות ליצירת תוכן מזויף, אז לדעת כיצד להגן על עצמך מפני סרטונים מזויפים עמוקים חשוב.
מפיצי חדשות מזויפות יכולים לייצר תוכן בכמויות גדולות, מה שמקל על הפצה בקרב ההמונים באמצעות מדיה חברתית. ניתן להשתמש בדיסאינפורמציה ממוקדת כדי להשפיע על קמפיינים פוליטיים, שעלולים להשפיע על הבחירות. בנוסף, שימוש בכלים ליצירת טקסט ותמונות בינה מלאכותית מעורר חששות בנוגע לחוקי זכויות יוצרים, כפי שדווח על ידי שירות המחקר של הקונגרס: קביעת בעלות על תוכן שנוצר על ידי כלים אלה הופכת למאתגרת.
כיצד החוק יתייחס להפצת חדשות מזויפות באמצעות בינה מלאכותית? מי יישא באחריות להפצת מידע כוזב - המשתמשים, המפתחים או הכלים עצמם?
4 דרכים בהן ניתן להשתמש בבינה מלאכותית גנרטיבית כדי להפיץ דיסאינפורמציה
כדי להישאר בטוח באינטרנט, כולם צריכים להבין את הסיכונים של AI יצירתי בהפצת דיסאינפורמציה, מכיוון שהוא מגיע בצורות שונות. הנה כמה דרכים שניתן להשתמש בו כדי לתמרן אנשים.
1. יצירת תוכן מזויף באינטרנט
יצירת תוכן מזויף באמצעות AI גנרטיבי היא אסטרטגיה נפוצה המופעלת על ידי אלה שמפיצים חדשות כוזבות. הם משתמשים בכלי AI גנרטיביים פופולריים כמו ChatGPT, DALL-E, Bard, Midjourney ואחרים כדי לייצר סוגים שונים של תוכן. לדוגמה, ChatGPT יכול לעזור ליוצרי תוכן בדרכים רבות. אבל זה יכול גם ליצור פוסטים במדיה חברתית או מאמרי חדשות שעלולים להונות אנשים.
כדי להוכיח זאת, הנחיתי את ChatGPT לכתוב מאמר מומצא על מעצרו של נשיא ארה"ב ג'ו ביידן באשמת שחיתות. ביקשנו גם לכלול הצהרות מרשויות רלוונטיות כדי שזה ייראה אמין יותר.
הנה המאמר הפיקטיבי ש-ChatGPT העלה:
באופן מפתיע, הפלט היה משכנע ביותר. הוא כלל שמות והצהרות של דמויות סמכותיות כדי להפוך את המאמר לשכנע יותר. זה מראה כיצד כל אחד יכול להשתמש בכלים כאלה כדי ליצור חדשות כוזבות ולהפיץ אותן בקלות באינטרנט.
2. שימוש בצ'אטבוטים כדי להשפיע על דעותיהם של אנשים
צ'אטבוטים המסתמכים על מודלים של בינה מלאכותית יכולים להפעיל טקטיקות שונות כדי להשפיע על דעותיהם של אנשים, כולל:
- מניפולציה רגשית: AI יכול להשתמש במודלים של אינטליגנציה רגשית כדי לנצל טריגרים והטיות רגשיות כדי לעצב את נקודות המבט שלך.
- תאי הד והטיית אישור: צ'אטבוטים יכולים לחזק אמונות קיימות על ידי יצירת תאי הד שמאמתים את ההטיות שלך. אם אתה כבר מחזיק בנקודת מבט מסוימת, בינה מלאכותית יכולה לחזק אותה על ידי הצגת מידע שמתיישר עם הדעות שלך.
- הוכחה חברתית ואפקט העגלה: בינה מלאכותית יכולה לתמרן את רגשות הציבור על ידי יצירת הוכחות חברתיות. לכך עשויות להיות השלכות משמעותיות, מכיוון שהוא עלול להוביל אנשים להתאים את עצמם לדעות הרווחות או לעקוב אחר ההמון.
- התאמה אישית ממוקדת: לצ'אטבוטים יש גישה לכמויות אדירות של נתונים שהם יכולים לאסוף כדי ליצור פרופילים מותאמים אישית. זה מאפשר להם להתאים אישית תוכן בהתאם להעדפותיך. באמצעות התאמה אישית ממוקדת, AI יכול לשכנע אנשים או לחזק עוד יותר את דעותיהם.
הדוגמאות הללו ממחישות כולן כיצד ניתן להשתמש בצ'אטבוטים כדי להטעות אנשים.
3. יצירת AI DeepFakes
מישהו יכול להשתמש בזיופים עמוקים כדי ליצור סרטונים שקריים של אדם שאומר או עושה דברים שהם מעולם לא עשו. הם יכולים להשתמש בכלים כאלה להנדסה חברתית או להפעיל מסעות הכפשה נגד אחרים. יתרה מכך, בתרבות הממים של היום, זיופים עמוקים יכולים לשמש כלים לבריונות ברשת ברשתות החברתיות.
בנוסף, יריבים פוליטיים עשויים להשתמש באודיו ובסרטוני וידאו מזויפים כדי להכתים את המוניטין של יריביהם, תוך מניפולציה של רגשות הציבור בעזרת AI. כך זיופים עמוקים שנוצרו על ידי AI מהווים איומים רבים בעתיד. על פי 2023 כך דיווחה רויטרס, עליית טכנולוגיית הבינה המלאכותית עשויה להשפיע על הבחירות של אמריקה ב-2024. הדו"ח מדגיש את הנגישות של כלים כמו Midjourney ו-DALL-E שיכולים ליצור בקלות תוכן מפוברק ולהשפיע על הדעות הקולקטיביות של אנשים.
זה חיוני, אם כן, להיות מסוגל לזהות סרטונים שנוצרו על ידי זיופים עמוקים ולהבדיל אותם מהמקוריים.
4. שיבוט קולות אנושיים
AI גנרטיבי, יחד עם טכנולוגיית Deepfake, מאפשרת מניפולציה של דיבור של מישהו. טכנולוגיית Deepfake מתקדמת במהירות ומציעה מגוון כלים שיכולים לשכפל את הקול של כל אחד. זה מאפשר לאנשים זדוניים להתחזות לאחרים ולהונות אנשים תמימים. דוגמה אחת כזו היא השימוש במוזיקה עמוקה מזויפת.
יכול להיות שנתקלת בכלים כמו דומה לבינה מלאכותית, Speechify, לזייף אותך, ואחרים שיכולים לחקות את קולם של מפורסמים. אמנם כלי האודיו של AI יכולים להיות משעשעים, אך הם מהווים סיכונים משמעותיים. רמאים יכולים להשתמש בטכניקות של שיבוט קול עבור תוכניות הונאה שונות, וכתוצאה מכך הפסדים כספיים.
רמאים עשויים להשתמש בקולות מזויפים כדי להתחזות ליקיריך ולהתקשר אליך, מעמידים פנים שהם במצוקה. עם אודיו סינתטי שנשמע משכנע, הם יכולים לדרבן אותך לשלוח כסף בדחיפות, מה שיוביל אותך להיות קורבן של ההונאות שלהם. אירוע שדווח על ידי הוושינגטון פוסט במרץ 2023 מדגים את הנושא הזה: רמאים השתמשו בקולות מזויפים כדי לשכנע אנשים שהנכדים שלהם נמצאים בכלא וזקוקים לכסף...
כיצד לזהות דיסאינפורמציה מופצת בינה מלאכותית
מאבק בהפצת דיסאינפורמציה בהקלה על ידי AI הוא נושא דחוף בעולם של היום. אז איך אתה יכול לזהות מידע שקרי שנוצר על ידי AI?
- גש לתוכן מקוון בספקנות. אם אתה נתקל במשהו שנראה מניפולטיבי או לא אמין, אמת אותו באמצעות בדיקה צולבת.
- לפני שאתה סומך על מאמר חדשותי או פוסט במדיה חברתית, ודא שמקורם ממקור בעל מוניטין.
- היזהרו מאינדיקטורים של זיופים עמוקים, כגון מצמוץ לא טבעי או תנועות פנים, איכות שמע ירודה, תמונות מעוותות או מטושטשות וחוסר רגש אמיתי בדיבור.
- השתמש באתרי בדיקת עובדות כדי לאמת את דיוק המידע.
על ידי ביצוע שלבים אלה, תוכל לזהות ולהגן על עצמך מפני מידע מוטעה המונע בינה מלאכותית.
היזהרו מדיסאינפורמציה המופצת על ידי AI
תוכנה גנרטיבית מילאה תפקיד מכריע בקידום הבינה המלאכותית. ובכל זאת, הם יכולים להיות גם מקור משמעותי לדיסאינפורמציה בחברה. הכלים הזולים הללו אפשרו לכל אחד ליצור סוגים שונים של תוכן באמצעות מודלים מתוחכמים של AI; היכולת שלהם לייצר תוכן בכמויות גדולות ולשלב זיופים עמוקים הופכת אותם למסוכנים עוד יותר.
חשוב שתהיו מודעים לאתגרים של דיסאינפורמציה בעידן הבינה המלאכותית. ההבנה כיצד ניתן להשתמש בבינה מלאכותית להפצת חדשות מזויפות היא הצעד הראשון לקראת הגנה על עצמך מפני מידע מוטעה.