אפל הודיעה על תוכניות לסרוק את תוכן iCloud שלך לאיתור חומר התעללות מינית בילדים (CSAM) באוגוסט 2021 כדי להגן על ילדים מפני התעללות מצד טורפים.
החברה תכננה להשיק תכונת זיהוי CSAM חדשה ב-iCloud Photos שתסרוק תוכן כזה ותדווח לאפל על תמונות תואמות תוך שמירה על פרטיות המשתמש.
עם זאת, התכונה החדשה נתקלה בתגובות מעורבות. למעלה משנה מאז ההכרזה הראשונית, אפל מפסיקה רשמית את תוכניתה לסרוק תמונות iCloud עבור CSAM.
אפל מפסיקה את תוכניתה לסרוק את iCloud לאיתור חומר התעללות בילדים
על פי דיווח של קווית, אפל מתרחקת מהתוכנית שלה לסרוק את ה-iCloud שלך לאיתור תוכן התעללות בילדים. הכלי יסרוק תמונות המאוחסנות ב-iCloud כדי למצוא את אלה שתואמות תמונות CSAM ידועות כפי שזוהו על ידי ארגוני בטיחות לילדים. לאחר מכן, הוא יוכל לדווח על התמונות הללו מכיוון שהחזקת תמונות CSAM אינה חוקית ברוב תחומי השיפוט, כולל ארה"ב.
מדוע אפל ביטלה את תוכניתה לסרוק תמונות iCloud
לאחר ההכרזה הראשונית ב-2021, אפל התמודדה עם תגובה נגדית של לקוחות, קבוצות ואנשים שדוגלים בפרטיות דיגיטלית ואבטחה ברחבי העולם.
מכשירי אייפון מציעים בדרך כלל יותר אבטחה ממכשירי אנדרואיד, ורבים ראו בכך צעד אחורה. למרות שזה היה ניצחון עבור ארגוני בטיחות ילדים, למעלה מ-90 קבוצות מדיניות כתבו מכתב פתוח לאפל מאוחר יותר באותו החודש, ואמרו לחברה לבטל את התוכנית.במכתב נטען כי בעוד הכלי מתכוון להגן על ילדים מפני התעללות, ניתן למנף אותו לצנזור חופש הביטוי ולאיים על פרטיות המשתמש ואבטחתו. עקב הלחץ הגובר, אפל עצרה את תוכניות ההשקה שלה כדי לאסוף משוב ולבצע התאמות נדרשות לתכונה. עם זאת, משוב לא העדיף את התוכנית של אפל לסרוק את תמונות iCloud, כך שהחברה מפסיקה רשמית את התוכניות לתמיד.
בהצהרה ל-WIRED אמרה החברה:
"יש לנו... החליטו לא להתקדם עם כלי זיהוי ה-CSAM שהוצע בעבר עבור תמונות iCloud. ניתן להגן על ילדים מבלי שחברות יסרוקו נתונים אישיים, ואנו נמשיך לעבוד עם ממשלות, תומכי ילדים ו חברות אחרות שיסייעו להגן על צעירים, לשמור על זכותם לפרטיות ולהפוך את האינטרנט למקום בטוח יותר עבור ילדים ועבורנו את כל."
התוכנית החדשה של אפל להגנה על ילדים
אפל מפנה את מאמציה לשיפור תכונות בטיחות התקשורת שהוכרזו באוגוסט 2021 והושקו בדצמבר אותה שנה.
בטיחות תקשורת היא אופציונלית וניתן להשתמש בה הורים ואפוטרופוסים כדי להגן על ילדים מפני שליחת וקבלה של תמונות מיניות מפורשות ב-iMessage. התכונה מטשטשת אוטומטית תמונות כאלה, והילד יוזהר מפני הסכנות הכרוכות בכך. זה גם מזהיר מישהו אם הוא מנסה לחפש CSAM במכשירי אפל.
עם ביטול התוכניות להשיק כלי זיהוי CSAM, החברה מצפה לשפר את התכונה עוד יותר ולהרחיב אותה לאפליקציות תקשורת נוספות.