חדשות אפל

קרייג פדריגי מכיר בבלבול סביב תכונות בטיחות ילדים של אפל ומסביר פרטים חדשים על אמצעי הגנה

יום שישי 13 באוגוסט 2021 7:33 בבוקר PDT מאת הארטלי צ'רלטון

סגן הנשיא הבכיר של אפל להנדסת תוכנה, קרייג פדריגי, הגן היום על התכנון השנוי במחלוקת של החברה תכונות בטיחות לילדים בראיון משמעותי עם הוול סטריט ג'ורנל , חושף מספר פרטים חדשים על אמצעי ההגנה המובנים במערכת של אפל לסריקת ספריות התמונות של המשתמשים עבור חומרי התעללות מינית בילדים (CSAM).





קרייג wwdc 2021 פרטיות
פדריגי הודה שאפל טיפלה בשבוע שעבר הַכרָזָה משתי התכונות החדשות גרועות, הקשורות לאיתור תוכן בוטה בהודעות לילדים ותוכן CSAM המאוחסן ב תמונות iCloud ספריות, והכירו בבלבול הנרחב סביב הכלים:

זה באמת ברור שהרבה הודעות התבלבלו בצורה די גרועה מבחינת האופן שבו הדברים הובנו. אנו מאחלים שזה היה יוצא קצת יותר ברור לכולם כי אנחנו מרגישים מאוד חיוביים וחזקים לגבי מה שאנחנו עושים.



כמה זמן אייפון 11 פרו

[...]

במבט לאחור, הצגת שתי התכונות הללו בו-זמנית הייתה מתכון לבלבול מסוג זה. על ידי שחרורם בו-זמנית, אנשים חיברו ביניהם טכנית ונבהלו מאוד: מה קורה עם ההודעות שלי? התשובה היא... שום דבר לא קורה עם ההודעות שלך.

תכונת בטיחות התקשורת פירושה שאם ילדים ישלחו או יקבלו תמונות מפורשות באמצעות iMessage, הם יוזהרו לפני הצפייה, התמונה תטושטש, ותהיה אפשרות להוריהם לקבל התראה. סריקת CSAM, לעומת זאת, מנסה להתאים תמונות של משתמשים לתמונות גיבוב של CSAM ידוע לפני העלאתן ל-iCloud. חשבונות שאותרו בהם CSAM יהיו כפופים לאחר מכן לבדיקה ידנית על ידי אפל ועשויים להיות מדווחים למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC).

כיצד למחוק היסטוריה מגוגל מפות

התכונות החדשות ספגו כמות גדולה של ביקורת מצד משתמשים, חוקרי אבטחה , ה Electronic Frontier Foundation (EFF) ואדוארד סנודן , ראש האבטחה לשעבר של פייסבוק , ואפילו עובדי אפל .

בין הביקורות הללו, פדריגי התייחס לאחד מתחומי הדאגה העיקריים, והדגיש שהמערכת של אפל תהיה מוגנת מפני ניצול של ממשלות או צדדים שלישיים אחרים עם 'רמות ביקורת מרובות'.


פדריגי גם חשף מספר פרטים חדשים סביב אמצעי ההגנה של המערכת, כמו העובדה שמשתמש יצטרך לפגוש בסביבות 30 התאמות לתוכן CSAM תמונות הספרייה לפני שאפל מקבלת התראה, ואז היא תאשר אם התמונות הללו נראות כמו מופעים אמיתיים של CSAM.

אם ורק אם אתה עומד בסף של משהו בסדר גודל של 30 תמונות פורנוגרפיות ידועות תואמות של ילדים, רק אז אפל יודעת משהו על החשבון שלך ויודעת משהו על התמונות האלה, ובשלב זה, יודעת רק על התמונות האלה, לא על כל אחת מהתמונות האחרות שלך. זה לא עושה קצת ניתוח כי האם יש לך תמונה של הילד שלך באמבטיה? או, לצורך העניין, הייתה לך תמונה של פורנוגרפיה כלשהי מכל סוג אחר? זה פשוטו כמשמעו התאמה רק על טביעות האצבע המדויקות של תמונות פורנוגרפיות ידועות ספציפיות לילדים.

הוא גם הצביע על היתרון הביטחוני בהצבת תהליך ההתאמה על אייפון ישירות, במקום שזה מתרחש בשרתים של ‌iCloud‌.

מכיוון שזה בטלפון, חוקרי אבטחה מסוגלים כל הזמן לבחון את המתרחש בתוכנת ה-[טלפון] של אפל. אז אם נעשו שינויים כלשהם שנועדו להרחיב את היקף זה בדרך כלשהי - באופן שהתחייבנו לא לעשות - יש אימות, הם יכולים לזהות שזה קורה.

כשנשאל אם מסד הנתונים של התמונות המשמש להתאמת תוכן CSAM במכשירים של משתמשים עלול להיפגע על ידי הכנסת חומרים אחרים, כגון תוכן פוליטי באזורים מסוימים, פדריגי הסביר כי מסד הנתונים בנוי מתמונות CSAM ידועות ממספר ארגוני בטיחות ילדים. כששניים לפחות נמצאים 'בתחומי שיפוט נפרדים' כדי להגן מפני ניצול לרעה של המערכת.

סקיצת במבוק של wacom לעומת עיפרון תפוחים

ארגונים אלה להגנה על ילדים, כמו גם מבקר בלתי תלוי, יוכלו לוודא שמאגר התמונות מורכב רק מתוכן מאותם גופים, לפי פדריגי.

הראיון של פדריגי הוא בין דחיפות יחסי הציבור הגדולות ביותר מצד אפל עד כה בעקבות התגובה הציבורית המעורבת להכרזה על מאפייני הבטיחות לילדים, אך החברה גם ניסתה שוב ושוב לטפל בדאגות המשתמשים , פרסום שאלות נפוצות והתייחסות ישירה לחששות ב ראיונות עם התקשורת .

תגיות: הוול סטריט ג'ורנל, קרייג פדריגי, תכונות בטיחות ילדים של אפל