חדשות אפל

ראש הפרטיות של אפל מסביר הגנות פרטיות 'מובנות' בתכונות בטיחות ילדים על רקע חששות המשתמשים

יום שלישי, 10 באוגוסט, 2021, 10:07 בבוקר PDT מאת הארטלי צ'רלטון

ראש תחום הפרטיות של אפל, אריק נוינשוונדר, הגיב לחלק מהדברים חששות המשתמשים סביב התוכניות של החברה לחדש תכונות בטיחות לילדים שיסרוק הודעות ו תמונות ספריות, בראיון עם TechCrunch .





מאפיין בטיחות ילדים כחול
כשנשאלה מדוע אפל בוחרת להטמיע רק תכונות בטיחות ילדים הסורקות אחר חומרי התעללות מינית בילדים (CSAM), נוינשוונדר הסביר כי אפל 'קיבלה כעת את הטכנולוגיה שיכולה לאזן בין בטיחות ילדים חזקה לפרטיות משתמש', והעניקה לחברה 'חדש היכולת לזהות חשבונות שמתחילים אוספים של CSAM ידוע.'

נוינשוונדר נשאלה אם, בדיעבד, מכריזה על תכונות בטיחות התקשורת בהודעות ועל מערכת זיהוי CSAM ב תמונות iCloud יחד הייתה ההחלטה הנכונה, לה הוא הגיב:



מתי העדכון הבא של macos

ובכן, למרות שהן [שתי] מערכות, הן גם חלק יחד עם ההתערבויות המוגברות שלנו שיגיעו בסירי ויחפשו. עד כמה שזה חשוב לזהות אוספים של CSAM ידועים שבהם הם מאוחסנים בשירות iCloud Photos של אפל, חשוב גם לנסות להתקדם מהמצב הנורא הזה ממילא.

כשנשאלה אם אפל מנסה להדגים לממשלות וסוכנויות ברחבי העולם שאפשר לסרוק תוכן אסור תוך שמירה על פרטיות המשתמש, הסביר נוינשוונדר:

עכשיו, למה לעשות את זה הוא כי, כפי שאמרת, זה משהו שיספק את יכולת הזיהוי תוך שמירה על פרטיות המשתמש. אנו מונעים מהצורך לעשות יותר למען בטיחות ילדים ברחבי המערכת האקולוגית הדיגיטלית, וכל שלושת התכונות שלנו, לדעתי, נוקטות צעדים חיוביים מאוד בכיוון הזה. יחד עם זאת, נשאיר את הפרטיות ללא הפרעה לכל מי שלא עוסק בפעילות הבלתי חוקית.

הוא נשאל אם אפל יצרה מסגרת שיכולה לשמש לאכיפת חוק כדי לסרוק אחר סוגים אחרים של תוכן בספריות של משתמשים ואם היא מערערת את המחויבות של אפל להצפנה מקצה לקצה.

זה לא ישנה את זה. המכשיר עדיין מוצפן, אנחנו עדיין לא מחזיקים את המפתח, והמערכת מתוכננת לפעול על נתונים במכשיר... האלטרנטיבה של עיבוד פשוט על ידי מעבר וניסיון להעריך את נתוני המשתמשים בשרת היא למעשה יותר ניתנות לשינויים [ללא ידע של המשתמש], ופחות מגינות על פרטיות המשתמש... אלו מיני מערכות שלדעתי מטרידות יותר בכל הנוגע למאפייני הפרטיות - או כיצד ניתן לשנות אותן ללא כל תובנות או ידע של המשתמש. לעשות דברים אחרים ממה שהם תוכננו לעשות.

מתי יצא האייפון SE החדש

לאחר מכן נשאל נוינשוונדר אם ניתן לאלץ את אפל לציית לחוקים מחוץ לארצות הברית שעלולים לאלץ אותה להוסיף דברים שאינם CSAM למסד הנתונים כדי לבדוק אותם במכשיר, שאליו הסביר שיש 'מספר של הגנות מובנות בשירות.

רשימת הגיבוב מובנית במערכת ההפעלה, יש לנו מערכת הפעלה גלובלית אחת ואין לנו את היכולת למקד עדכונים למשתמשים בודדים ולכן רשימות הגיבוב ישותפו על ידי כל המשתמשים כאשר המערכת מופעלת. ושנית, המערכת דורשת לחרוג מסף התמונות ולכן הניסיון לחפש אפילו תמונה בודדת ממכשיר של אדם או מסט של מכשירים של אנשים לא יעבוד כי המערכת פשוט לא מספקת שום ידע לאפל עבור תמונות בודדות המאוחסנות בשירות שלנו. ואז, שלישית, המערכת בנו בתוכו שלב של סקירה ידנית שבו, אם חשבון מסומן עם אוסף של חומר CSAM לא חוקי, צוות אפל יבדוק את זה כדי לוודא שהוא התאמה נכונה של חומר CSAM לא חוקי. לפני ביצוע כל הפניה לגורם חיצוני כלשהו. ולכן ההיפותטי דורשת דילוג על הרבה חישוקים, כולל שאפל תשנה את התהליך הפנימי שלה כדי להפנות חומר לא חוקי, כמו CSAM ידוע ושאנחנו לא מאמינים שיש בסיס שעליו אנשים יוכלו לעשות את זה בקשה בארה'ב והנקודה האחרונה שרק אוסיף היא שזה עדיין שומר על בחירת המשתמש, אם משתמש לא אוהב פונקציונליות מסוג זה, הוא יכול לבחור לא להשתמש ב-iCloud Photos ואם iCloud Photos אינו מופעל, לא חלק מהמערכת פונקציונלי.

Neuenschwander המשיך כי עבור משתמשים ש'לא מתעסקים בהתנהגות בלתי חוקית זו, אפל לא משיגה ידע נוסף על ספריית הענן של אף משתמש', ו'זה מותיר את הפרטיות ללא הפרעה'.

כיצד לאתחל את macbook pro 2011

לִרְאוֹת TechCrunch הראיון המלא של נוינשוונדר למידע נוסף.

תגיות: פרטיות אפל , תכונות אפל לבטיחות ילדים