באוגוסט 2021 חשפה אפל את תוכניותיה לסרוק מכשירי iPhone לאיתור תמונות של התעללות מינית בילדים. הצעד עורר מחיאות כפיים מצד קבוצות הגנה על ילדים אך עורר חשש בקרב מומחי פרטיות ואבטחה כי השימוש בתכונה עלול להיעשות לרעה.

אפל תכננה בתחילה לכלול את טכנולוגיית הסריקה של שימוש לרעה מינית בילדים (CSAM) ב- iOS 15; היא במקום זאת עיכבה ללא הגבלת זמן את הפצת התכונה כדי לבקש משוב לפני השקתה המלאה.

אז מדוע תכונת זיהוי CSAM הפכה לנושא לוויכוח סוער, ומה גרם לאפל לדחות את ההשקה שלה?

מה עושה תכונת סריקת התמונות של אפל?

אפל הודיעה ליישם את תכונת סריקת התמונות בתקווה להילחם בהתעללות מינית בילדים. כל התמונות במכשירי משתמשי אפל ייסרקו לתוכן פדופילי באמצעות אלגוריתם "NueralHash" שנוצר על ידי אפל.

בנוסף, לכל מכשירי אפל המשמשים ילדים תהיה תכונת בטיחות שתהיה אוטומטית לטשטש תמונות למבוגרים אם יתקבל על ידי ילד, והמשתמש יזהיר פעמיים אם ינסה לפתוח אוֹתָם.

מלבד צמצום החשיפה לתוכן למבוגרים, אם ההורים רושמים עבורם את המכשירים שבבעלות ילדיהם בטיחות נוספת, ההורים יקבלו הודעה במקרה שהילד יקבל תוכן מפורש ממישהו באינטרנט.

instagram viewer

קרא עוד: מה שאתה צריך לדעת על הגנות על בטיחות ילדים של אפל

באשר למבוגרים שמשתמשים בסירי כדי לחפש כל דבר המייצר ילדים מינית, סירי לא תחפש את החיפוש הזה ותציע חלופות אחרות במקום זאת.

נתונים מכל מכשיר המכיל 10 או יותר תמונות שנחשדות חשודות על ידי האלגוריתמים יפוענחו ויעברו בדיקה אנושית.

אם התמונות האלה או כל אחת מהן במכשיר מסתברות למשהו ממאגר הנתונים שמספקת המרכז הלאומי לילדים נעדרים ומנוצלים, זה ידווח לרשויות וחשבון המשתמש יושעה.

החששות העיקריים בנוגע לתכונת סריקת תמונות

תכונת זיהוי CSAM הייתה עולה לאוויר עם השקת iOS 15 בספטמבר 2021, אך בפנים זעקה רחבה, אפל החליטה לקחת יותר זמן לאסוף משוב ולבצע שיפורים בנושא תכונה. הנה ההצהרה המלאה של אפל על העיכוב:

"בחודש שעבר הכרזנו על תוכניות לתכונות שנועדו לסייע בהגנה על ילדים מפני טורפים אשר להשתמש בכלי תקשורת כדי לגייס ולנצל אותם, ולהגביל את התפשטות ההתעללות המינית בילדים חוֹמֶר.

בהתבסס על משוב של לקוחות, קבוצות הסברה, חוקרים ואחרים, החלטנו לקחת זמן נוסף בחודשים הקרובים לאסוף קלט ולבצע שיפורים לפני ששחררו את בטיחות הילדים החשובה ביותר מאפיינים".

כמעט מחצית מהחששות הקשורים לתכונת סריקת התמונות של אפל סובבים סביב פרטיות; שאר הטיעונים כוללים אי דיוק סביר של אלגוריתמים ושימוש לרעה במערכת או בפרצות שלה.

בואו נחלק אותו לארבעה חלקים.

שימוש לרעה פוטנציאלי

הידיעה שכל חומר התואם פורנוגרפיה של ילדים או תמונות ידועות של התעללות מינית בילדים יכניס מכשיר לרשימה "החשודה" יכול להניע את פושעי הרשת.

הם יכולים להפציץ בכוונה אדם על תוכן לא הולם באמצעות iMessage, WhatsApp או כל אמצעי אחר ולהשהות את חשבונו של אותו אדם.

אפל הבטיחה שמשתמשים יכולים להגיש ערעור במקרה שחשבונותיהם הושעו עקב אי הבנה.

התעללות פנימית

למרות שהיא מיועדת למטרה מיטיבה, תכונה זו יכולה להפוך לאסון מוחלט עבור אנשים מסוימים אם המכשירים שלהם רשומים במערכת, עם או בלי ידיעתם, על ידי קרובי משפחה המעוניינים לעקוב אחר התקשורת ביניהם.

גם אם זה לא יקרה, אפל יצרה דלת אחורית כדי להנגיש את נתוני המשתמשים בסופו של יום. עכשיו זה עניין של מוטיבציה ונחישות לאנשים לגשת למידע האישי של אחרים.

קָשׁוּר: מהי דלת אחורית ומה היא עושה?

היא לא רק מקלה על הפרה גדולה של הפרטיות, אלא גם סוללת את הדרך להתעללות, רעילות או שליטה קרובי משפחה, אפוטרופוסים, חברים, מאהבים, מטפלים ואקסים כדי לפלוש עוד יותר למרחב האישי של מישהו או להגביל את חוֹפֶשׁ.

מצד אחד, הוא נועד להילחם בהתעללות מינית בילדים; מצד שני, ניתן להשתמש בו להמשך הנצחה של התעללות אחרת.

מעקב ממשלתי

אפל תמיד הציגה את עצמה כמותג מודע יותר לפרטיות מאשר המתחרות שלה. אבל עכשיו, זה עשוי להיכנס למדרון חלקלק של הצורך למלא את הדרישות הבלתי נגמרות של שקיפות נתוני משתמשים על ידי ממשלות.

המערכת שיצרה לאיתור תוכן פדופיליאק יכולה לשמש לאיתור כל סוג של תוכן בטלפונים. המשמעות היא שממשלות בעלות מנטליות פולחנית יכולות לעקוב אחר משתמשים ברמה האישית יותר אם ישימו על כך.

מעורר ממשלה או לא, מעורבות ממשלתית בחיי היומיום והאישיים שלך יכולה להיות מרתיעה, ומהווה פגיעה בפרטיות שלך. הרעיון שאתה צריך לדאוג לפלישות כאלה רק אם עשית משהו לא בסדר הוא חשיבה לקויה, ולא מצליח לראות את המדרון החלקלק הנ"ל.

אזעקות שווא

אחד החששות הגדולים ביותר בשימוש באלגוריתמים להתאמת תמונות למסד הנתונים הוא אזעקות שווא. אלגוריתמים של האשינג יכולים לזהות בטעות שתי תמונות כהתאמות גם כשהן לא זהות. טעויות אלו, הנקראות "התנגשויות", מדאיגות במיוחד בהקשר של תכנים של התעללות מינית בילדים.

חוקרים מצאו מספר התנגשויות ב- "NeuralHash" לאחר שאפל הודיעה כי תשתמש באלגוריתם לסריקת תמונות. אפל השיבה לשאלות בנוגע לאזעקות שווא בכך שהצביעה כי התוצאה תיבדק על ידי אדם בסוף, כך שאנשים לא צריכים לדאוג לגביה.

האם השהיית ה- CSAM של אפל היא קבועה?

ישנם יתרונות וחסרונות רבים בתכונה המוצעת של אפל. כל אחד מהם הוא אמיתי ומחזיק משקל. עדיין לא ברור אילו שינויים ספציפיים אפל תוכל להציג בתכונת סריקת CSAM כדי לספק את מבקריה.

זה יכול להגביל את הסריקה לאלבומי iCloud משותפים במקום לערב את מכשירי המשתמשים. מאוד לא סביר שאפל תבטל את התוכניות האלה לגמרי כיוון שהחברה בדרך כלל לא נוטה לוותר על התוכניות שלה.

עם זאת, ברור מהתגובה הגוברת הנרחבת וההתמודדות של אפל עם תוכניותיה, זאת חברות צריכות לשלב את קהילת המחקר מההתחלה, במיוחד עבור אנשים שאינם נבדקים טֶכנוֹלוֹגִיָה.

לַחֲלוֹקצִיוּץאימייל
בטיחות באינטרנט: 50+ טיפים לשמירה על ביטחון הילדים שלך באינטרנט

ילדים הם מטרות עיקריות של טורפים מקוונים ובריונות רשת. טיפים שימושיים אלה יכולים ללמד את ההורים כיצד לשמור על ביטחונם באינטרנט.

קרא הבא

נושאים קשורים
  • בִּטָחוֹן
  • אייפון
  • פרטיות סמארטפון
  • תפוח עץ
  • פרטיות מקוונת
  • הַשׁגָחָה
על הסופר
פוואד עלי (19 מאמרים פורסמו)

פוואד הוא מהנדס IT ותקשורת, יזם שאפתן וסופר. הוא נכנס לזירת כתיבת התוכן בשנת 2017 ועבד עם שתי סוכנויות שיווק דיגיטאלי ועם הרבה לקוחות B2B ו- B2C. הוא כותב על אבטחה וטכנולוגיה ב- MUO, במטרה לחנך, לבדר ולעסוק את הקהל.

עוד מאת פוואד עלי

הירשם לניוזלטר שלנו

הצטרף לניוזלטר שלנו לקבלת טיפים, סקירות, ספרים אלקטרוניים בחינם ומבצעים בלעדיים!

לחצו כאן להרשמה