אפל על המערכת לסריקת תכנים פדופיליים: "לא נסכים לשום שינוי של שום ממשלה"

אפל פרסמה הצהרה נוספת, שמגינה על המערכת שלה לסריקת תכנים הקשורים להתעללות מינית בילדים ומבהירה כי "התעמתנו כבר בעבר מול דרישות לשינויים מצד ממשלות....וסירבנו לכך בנחישות. נמשיך לסרב לדרישות כאלה גם בעתיד"

יישאר מיותם עד מועד לא ידוע. הפארק של אפל.

על רקע התגובות המעורבות על המערכת החדשה של אפל לסריקת תכנים על התעללות מינית בילדים – CSAM, פרסמה אפל הצהרה נוספת, שמגינה על המערכת שלה ומדגישה כי היא פרטית יותר ממערכות שחברות אחרות משתמשות בהן במשך שנים להסיר מהשרתים שלהן תמונות הקשורות להתעללות מינית בילדים, כמו גוגל או מיקרוסופט. זאת משום שהמערכת שלה משתמשת הן בשרתים שלה והן בתוכנה שתותקן במכשירי המשתמשים באמצעות עדכון מערכת ההפעלה.

היוזמה של אפל עוררה חששות בקרב חסידי הפרטיות ופרשנים טכנולוגיים שהמערכת תורחב במדיניות מסוימות ותשתמש לסריקה ואיתור של סוגים אחרים של תמונות, כמו כאלה עם תוכן פוליטי.

במסמך שפרסמה אפל באתר שלה, היא מציינת כי ממשלות לא יכולות להוסיף תמונות שהן לא CSAM לקודים של תמונות ידועות של התעללות בילדים – שאפל תפיץ במכשיריה כדי להפעיל את המערכת.

"אפל תסרב לכל דרישה כזאת. היכולת לאתר תמונות CSAM בנוי כדי לאתר רק תמונות CSAM ידועות בספריית התמונות ב-iCloud  שזוהו על ידי מומחים של המרכז לילדים נעדרים וקורבנות ניצול, NCMEC, או קבוצות אחרות. התעמתנו כבר בעבר מול דרישות לבנות ולפרוס שינויים לפי דרישות ממשלתיות שמפחיתות את רמת הפרטיות של המשתמשים וסירבנו לכך בנחישות. נמשיך לסרב לדרישות כאלה גם בעתיד", כתבה אפל, והוסיפה: "בואו נבהיר, הטכנולוגיה הזאת מוגבלת לזיהוי תמונות CSAM המאוחסנות ב-iCloud, ולא נסכים לשום בקשה משום ממשלה להרחיב את יכולותיה".

עוד פירטה החברה, כי המערכת לא סורקת ספריות של תמונות פרטיות במכשירים שלא מועלות ל-iCloud.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים