מחפשים לבדוק אם משהו נוצר על ידי בינה מלאכותית? גלאים לרוב לא עובדים ואלה חדשות רעות לביטחון שלך.

בינה מלאכותית (AI) תשנה חלקים שלמים בחברה שלנו בין אם נרצה ובין אם לא, וזה כולל את ה-World Wide Web.

עם תוכנה כמו ChatGPT זמינה לכל מי שיש לו חיבור לאינטרנט, זה הופך ליותר ויותר קשה להפריד בין תוכן שנוצר על ידי AI, מזה שנוצר על ידי בן אדם. טוב שיש לנו גלאי תוכן בינה מלאכותית, נכון?

האם גלאי תוכן בינה מלאכותית עובדים?

גלאי תוכן בינה מלאכותית הם כלים מיוחדים שקובעים אם משהו נכתב על ידי תוכנת מחשב או אדם. אם רק תחפש בגוגל את המילים "גלאי תוכן AI", תראה יש עשרות גלאים שם בחוץ, כולם טוענים שהם יכולים להבדיל בצורה מהימנה בין טקסט אנושי ללא אנושי.

הדרך שבה הם עובדים פשוטה למדי: אתה מדביק קטע כתיבה, והכלי אומר לך אם הוא נוצר על ידי AI או לא. במונחים טכניים יותר, שימוש בשילוב של טכניקות עיבוד שפה טבעית ומכונה לימוד אלגוריתמים, גלאי תוכן בינה מלאכותית מחפשים דפוסים ויכולות חיזוי, ומבצעים שיחות על סמך זֶה.

זה נשמע נהדר על הנייר, אבל אם אי פעם השתמשת בכלי זיהוי בינה מלאכותית, אתה יודע טוב מאוד שהם פוגעים, בלשון המעטה. לעתים קרובות יותר מאשר לא, הם מזהים תוכן שנכתב על ידי אדם כ-AI, או טקסט שנוצר על-ידי בני אדם כ-AI שנוצר. למעשה, חלקם גרועים באופן מביך במה שהם אמורים לעשות.

instagram viewer

כמה מדויקים הם גלאי תוכן בינה מלאכותית?

אם אתה בארצות הברית, תוצאת החיפוש הראשונה של Google עבור "גלאי תוכן בינה מלאכותית" היא writer.com (שנודע בעבר כ-Qordoba; זוהי פלטפורמת תוכן בינה מלאכותית שיש לה גם גלאי משלה). אבל כשאתה מדביק קטע מהאקראי הזה סוכנות הידיעות AP מאמר לתוך הכלי, הוא טוען שיש סיכוי טוב מאוד שהוא נוצר על ידי בינה מלאכותית.

אז, writer.com טעה.

למען ההגינות, גלאי תוכן AI אחרים אינם טובים יותר. לא רק שהם מייצרים תוצאות שגויות, אלא הם גם מסמנים תוכן AI כאנושי. וגם כשהם לא עושים זאת, ביצוע שינויים קלים בטקסט שנוצר ב-AI מספיק כדי לעבור עם צבעים מרהיבים.

בפברואר 2023, מרצה מאוניברסיטת וולונגונג ארמין אלימרדאני ופרופסור חבר ב-UNSW סידני אמה א. ג'יין בדקה מספר גלאי תוכן AI פופולרי, וקבעה שאף אחד מהם אינו אמין. בניתוח שלהם, שפורסם ב השיחה, Alimardani וג'יין הגיעו למסקנה ש"מרוץ החימוש" של AI זה בין מחוללי טקסט וגלאים יהווה אתגר משמעותי בעתיד, במיוחד עבור אנשי חינוך.

אבל לא רק למחנכים ולמורים יש סיבה לדאגה: לכולם יש. כאשר טקסט שנוצר בינה מלאכותית הופך להיות בכל מקום, היכולת להבדיל בין מה ש"אמיתי" ומה לא, כלומר למעשה לזהות כשמשהו נכתב על ידי AI, יהפוך לקשה יותר. תהיה לכך השפעה עצומה על כמעט כל הענפים ותחומי החברה, אפילו מערכות יחסים אישיות.

ההשלכות של AI על אבטחת סייבר ופרטיות

לעובדה שאין מנגנונים אמינים לקבוע אם משהו נוצר על ידי תוכנה או אדם יש השלכות חמורות על אבטחת סייבר ופרטיות.

שחקנים מאיימים כבר באמצעות ChatGPT כדי לכתוב תוכנות זדוניות, צור הודעות דיוג, כתוב ספאם, צור אתרי הונאה ועוד. ולמרות שיש דרכים להתגונן מפני זה, זה בהחלט מדאיג שאין תוכנה שמסוגלת להבדיל באופן אמין בין תוכן אורגני לבוט.

גם חדשות מזויפות הן כבר בעיה מסיבית. עם AI גנרטיבי בתמונה, סוכני דיסאינפורמציה מסוגלים להרחיב את פעולותיהם בצורה חסרת תקדים. לאדם רגיל, בינתיים, אין דרך לדעת אם משהו שהוא קורא באינטרנט נוצר על ידי תוכנה או אדם.

פרטיות זה עניין אחר לגמרי. קחו למשל את ChatGPT. זה היה האכילו יותר מ-300 מיליארד מילים לפני השקתו. תוכן זה הוסר מספרים, פוסטים בבלוגים ובפורומים, מאמרים ומדיה חברתית. הוא נאסף ללא הסכמת איש, ומתוך התעלמות מוחלטת לכאורה מהגנת הפרטיות והזכויות יוצרים.

ואז יש גם את הנושא של חיוביות כוזבות. אם תוכן מסומן בטעות כנוצר בינה מלאכותית, האם זה לא יכול להוביל לצנזורה, שהיא בכל מקרה בעיה עצומה? שלא לדבר על הנזק שהואשם בשימוש בטקסט שנוצר בינה מלאכותית עלול לגרום למוניטין של האדם, הן באינטרנט והן בחיים האמיתיים.

אם אכן יש מרוץ חימוש בין בינה מלאכותית וגלאי תוכן, הראשון מנצח. מה שגרוע מכך, נראה שאין פתרון. כל מה שיש לנו את המוצרים החצי אפויים שלנו שאפילו לא עובדים חצי מהזמן, או שאפשר להערים עליהם בקלות רבה.

כיצד לזהות תוכן AI: פתרונות פוטנציאליים

זה שכרגע לא נראה שיש לנו תשובות אמיתיות לבעיה הזו לא אומר שלא יהיו לנו כאלה בעתיד. למעשה, יש כבר כמה הצעות רציניות שיכולות לעבוד. סימון מים הוא אחד.

כשזה מגיע למודלים של AI ושפה עמוקה, סימון מים מתייחס להטמעת קוד סודי מסוגים בטקסט שנוצר ב-AI (למשל דפוס מילים, סגנון פיסוק). סימן מים כזה יהיה בלתי נראה לעין בלתי מזוינת, ולפיכך כמעט בלתי אפשרי להסירו, אך תוכנה מיוחדת תוכל לזהות אותו.

למעשה, עוד בשנת 2022, אוניברסיטת מרילנד חוקרים פיתחו שיטת סימון מים חדשה עבור רשתות עצביות מלאכותיות. החוקר הראשי טום גולדשטיין אמר אז שהצוות שלו הצליח "להוכיח מתמטית" שאי אפשר להסיר את סימן המים שלהם לחלוטין.

לעת עתה, מה שאדם רגיל יכול לעשות זה לסמוך על האינסטינקטים והשכל הישר שלו. אם יש משהו לא טוב בתוכן שאתה קורא - אם הוא מרגיש לא טבעי, חוזר על עצמו, חסר דמיון, בנאלי - ייתכן שהוא נוצר על ידי תוכנה. כמובן, אתה צריך גם לאמת כל מידע שאתה רואה באינטרנט, לבדוק שוב את המקור ולהתרחק מאתרים מפוקפקים.

מהפכת הבינה המלאכותית יוצאת לדרך

יש הטוענים שהמהפכה התעשייתית החמישית כבר כאן, שכן הבינה המלאכותית תופסת את מרכז הבמה במה שמתואר כהתכנסות של הדיגיטלי והפיזי. בין אם זה באמת המקרה או לא, כל מה שאנחנו יכולים לעשות הוא להסתגל.

החדשות הטובות הן שתעשיית אבטחת הסייבר מתאימה את עצמה למציאות החדשה הזו, ומיישמת אסטרטגיות הגנה חדשות עם AI ולמידת מכונה בחזית.