אפל מודיעה על דחייה בהפעלת המערכת לזיהוי תכנים פדופיליים

בעקבות הסערה והביקורות שעוררה תוכניתה של אפל להפעיל תכונות לאבטחה של ילדים הודיעה החברה על דחייה בהשקתן לצורך עריכה של התאמות נוספות לפני ההשקה

דורש מהעובדים לחזור לעבודה במשרד שלושה ימים בשבוע. מנכ"ל אפל, טים קוק.

בעקבות הסערה והביקורות שעוררה תוכניתה של אפל להפעיל תכונות לאבטחה של ילדים, בהן לסרוק ולזהות תכנים הקשורים להתעללות מינית בילדים – CSAM (ר"ת Child Sexual Abuse Material) בספריות התמונות של משתמשיה ב-iCloud, הודיעה החברה כי היא מעכבת את מימושה כדי לערוך בה התאמות נוספות לפני שתושק.

בהצהרה ששלחה החברה ל9to5Mac היא מציינת: "בחודש שעבר הכרזנו על כוונתנו להשיק תכונות שנודו לסייע בהגנה על ילדים מפני חיות הטרף שמשתמשות בכלי תקשורת כדי לנצל אותם, ולהגביל את ההפצה של תכנים הקשורים להתעללות מינית בילדים. בעקבות התגובות שקיבלנו ממשתמשים, מחוקרים, מקבוצות חברתיות ומאחרים, החלטנו לקחת זמן נוסף בחודשים הקרובים כדי לאסוף תגובות נוספות ולשפר את התכונות החשובות האלה של אבטחת ילדים, לפני שנשיק אותן".

תכונות האבטחה הנוספות חוץ מסריקת ספריות התמונות יידחו גם הן, בהן התכונות שהיו אמורות להתווסף להודעות ולבסיס המידע של Siri ו-Search.

אפל תכננה להטמיע את תכונות האבטחה האלה במערכות ההפעלה iOS 15, iPadOS 15 ובגירסת Monterey של macOS מאוחר יותר השנה. כעת, החברה לא ציינה תאריך חדש ולא פירטה אילו שינויים והתאמות היא מתכוונת לערוך כדי לשפר את המערכת.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים