חדשות אפל

אפל מפרסמת שאלות נפוצות כדי לטפל בחששות לגבי זיהוי CSAM וסריקת הודעות

יום שני, 9 באוגוסט 2021, 2:50 בבוקר PDT מאת טים ​​הארדוויק

אפל פרסמה שאלות נפוצות בשם 'הגנות מורחבות לילדים' שמטרתה להפיג את חששות הפרטיות של המשתמשים לגבי זיהוי ה-CSAM החדש ב- תמונות iCloud ובטיחות תקשורת עבור Messages תכונות שהחברה הוכרז בשבוע שעבר .





פרטיות תפוח
'מאז שהכרזנו על תכונות אלה, בעלי עניין רבים, כולל ארגוני פרטיות וארגוני בטיחות ילדים, הביעו את תמיכתם בפתרון החדש הזה, וחלקם פנו לשאלות', נכתב בשאלות הנפוצות. 'מסמך זה משמש לתת מענה לשאלות אלו ולספק יותר בהירות ושקיפות בתהליך.'

כמה דיונים טשטשו את ההבחנה בין שני התכונות, ואפל מקפידה מאוד על זה מסמך כדי להבדיל ביניהם, תוך הסבר שבטיחות התקשורת ב-Messages 'פועלת רק על תמונות שנשלחו או התקבלו באפליקציית Messages עבור חשבונות ילדים שהוגדרו ב-Family Sharing', בעוד שזיהוי CSAM ב-‌iCloud Photos‌ 'משפיע רק על משתמשים שבחרו להשתמש ב-‌iCloud Photos‌ לאחסן את התמונות שלהם... אין השפעה על כל מידע אחר במכשיר.'



מתוך השאלות הנפוצות:

כיצד להקליט מסך באייפון

שתי התכונות הללו אינן זהות ואינן משתמשות באותה טכנולוגיה.

בטיחות התקשורת ב-Messages נועדה לתת להורים ולילדים כלים נוספים שיסייעו להגן על ילדיהם מפני שליחת וקבלה של תמונות מיניות מפורשות באפליקציית Messages. זה עובד רק על תמונות שנשלחו או התקבלו באפליקציית ההודעות עבור חשבונות ילדים שהוגדרו בשיתוף משפחתי. זה מנתח את התמונות במכשיר, ולכן אינו משנה את הבטחות הפרטיות של הודעות. כאשר חשבון ילד שולח או מקבל תמונות בעלות אופי מיני בוטה, התמונה תטושטש והילד יקבל אזהרה, יוצגו בפניו משאבים מועילים, ויבטיחו לו שזה בסדר אם הוא לא רוצה להציג או לשלוח את התמונה. כאמצעי זהירות נוסף, ניתן גם לומר לילדים צעירים שכדי לוודא שהם בטוחים, הוריהם יקבלו הודעה אם הם אכן יצפו בה.

התכונה השנייה, זיהוי CSAM ב-iCloud Photos, נועד לשמור על CSAM מחוץ ל-iCloud Photos מבלי לספק מידע לאפל על תמונות כלשהן מלבד אלו התואמות לתמונות CSAM ידועות. תמונות CSAM אינן חוקיות להחזקה ברוב המדינות, כולל ארצות הברית. תכונה זו משפיעה רק על משתמשים שבחרו להשתמש בתמונות iCloud כדי לאחסן את התמונות שלהם. זה לא משפיע על משתמשים שלא בחרו להשתמש בתמונות iCloud. אין השפעה לנתונים אחרים במכשיר. תכונה זו אינה חלה על הודעות.

שאר המסמך מחולק לשלושה חלקים (בהדגשה למטה), עם תשובות לשאלות הנפוצות הבאות:

מתי יצא ה-11 pro max

כיצד ליצור תמונות של האפליקציות שלך
    בטיחות תקשורת בהודעות
  • מי יכול להשתמש בבטיחות תקשורת בהודעות?
  • האם זה אומר שהודעות ישתפו מידע עם אפל או עם רשויות אכיפת החוק?
  • האם זה שובר הצפנה מקצה לקצה בהודעות?
  • האם תכונה זו מונעת מילדים בבתים מתעללים לבקש עזרה?
  • האם הורים יקבלו הודעה מבלי שהילדים יוזהרו ותינתן להם בחירה?
  • זיהוי CSAM
  • האם זה אומר שאפל הולכת לסרוק את כל התמונות המאוחסנות אצלי אייפון ?
  • האם זה יוריד תמונות CSAM ל-‌iPhone‌ להשוות מול התמונות שלי?
  • למה אפל עושה את זה עכשיו?
  • אבטחה לזיהוי CSAM עבור תמונות iCloud
  • האם מערכת זיהוי CSAM ב-‌iCloud Photos‌ לשמש לזיהוי דברים מלבד CSAM?
  • האם ממשלות יכולות לאלץ את אפל להוסיף תמונות שאינן CSAM לרשימת ה-hash?
  • האם ניתן 'להחדיר' תמונות שאינן CSAM למערכת כדי לסמן חשבונות עבור דברים אחרים מלבד CSAM?
  • האם זיהוי CSAM ב-‌iCloud Photos‌ לסמן אנשים חפים מפשע באופן כוזב בפני רשויות החוק?

על הקוראים המעוניינים לעיין במסמך לקבלת התשובות המלאות של אפל לשאלות אלו. עם זאת, ראוי לציין שלשאלות אלו שניתן להשיב עליהן בכן/לא בינארי, אפל מתחילה את כולן ב-'לא' למעט שלוש השאלות הבאות מהסעיף שכותרתו 'אבטחה לזיהוי CSAM עבור ‌ תמונות iCloud‌:'

האם ניתן להשתמש במערכת זיהוי CSAM בתמונות iCloud כדי לזהות דברים אחרים מלבד CSAM?
התהליך שלנו נועד למנוע את זה. זיהוי CSAM עבור iCloud Photos בנוי כך שהמערכת פועלת רק עם גיבוב תמונות CSAM שמסופקים על ידי NCMEC וארגוני בטיחות ילדים אחרים. קבוצה זו של גיבוב תמונות מבוססת על תמונות שנרכשו ואושרו להיות CSAM על ידי ארגוני בטיחות ילדים. אין דיווח אוטומטי לרשויות אכיפת החוק, ואפל עורכת בדיקה אנושית לפני דיווח ל-NCMEC. כתוצאה מכך, המערכת מיועדת רק לדווח על תמונות המוכרות CSAM בתמונות iCloud. ברוב המדינות, כולל ארה'ב, עצם החזקת התמונות הללו היא פשע ואפל מחויבת לדווח לרשויות המתאימות על כל מקרים שאנו נודעים להם.

האם ממשלות יכולות לאלץ את אפל להוסיף תמונות שאינן CSAM לרשימת ה-hash?
אפל תסרב לכל דרישה כזו. יכולת זיהוי ה-CSAM של אפל בנויה אך ורק כדי לזהות תמונות CSAM ידועות המאוחסנות בתמונות iCloud שזוהו על ידי מומחים ב-NCMEC וקבוצות אחרות לבטיחות ילדים. התמודדנו בעבר עם דרישות לבנות ולפרוס שינויים שהוטלו על ידי הממשלה, אשר פוגעים בפרטיות המשתמשים, וסירבנו בתוקף לדרישות אלו. נמשיך לסרב להם בעתיד. תנו לנו להיות ברורים, טכנולוגיה זו מוגבלת לזיהוי CSAM המאוחסן ב-iCloud ואנחנו לא נעתר לבקשת ממשלה להרחיב אותה. יתר על כן, אפל עורכת סקירה אנושית לפני דיווח ל-NCMEC. במקרה בו המערכת מסמנת תמונות שאינן תואמות לתמונות CSAM ידועות, החשבון לא יושבת ולא יוגש דיווח ל-NCMEC.

האם ניתן 'להחדיר' תמונות שאינן CSAM למערכת כדי לסמן חשבונות עבור דברים אחרים מלבד CSAM?
התהליך שלנו נועד למנוע את זה. ערכת הגיבובים של תמונות המשמשים להתאמה הם מתמונות ידועות קיימות של CSAM שנרכשו ואומתו על ידי ארגוני בטיחות ילדים. אפל לא מוסיפה לסט ה-hash של תמונות CSAM ידועות. אותה קבוצה של hashes מאוחסנת במערכת ההפעלה של כל משתמש אייפון ואייפד, כך שהתקפות ממוקדות רק נגד אנשים ספציפיים אינן אפשריות במסגרת התכנון שלנו. לבסוף, אין דיווח אוטומטי לרשויות אכיפת החוק, ואפל עורכת בדיקה אנושית לפני דיווח ל-NCMEC. במקרה הלא סביר שהמערכת תסמן תמונות שאינן תואמות לתמונות CSAM ידועות, החשבון לא יושבת ולא יוגש דיווח ל-NCMEC.

אפל התמודדה עם ביקורת משמעותית מצד תומכי פרטיות, חוקרי אבטחה, מומחי קריפטוגרפיה, אקדמאים ואחרים על החלטתה לפרוס את הטכנולוגיה עם שחרורו של iOS 15 ו אייפד 15 , צפוי בספטמבר.

זה הביא ל- מכתב פתוח ביקורת על התוכנית של אפל לסרוק מכשירי אייפון עבור CSAM ב-‌iCloud Photos‌ ותמונות מפורשות בהודעות לילדים, שצברו למעלה מ-5,500 חתימות נכון לכתיבת שורות אלו. אפל ספגה ביקורת גם מוואטסאפ בבעלות פייסבוק, שהמפקד שלה וויל קתקרט קרא לזה 'הגישה השגויה ופגיעה בפרטיות של אנשים בכל העולם'. גם מנכ'ל Epic Games, טים סוויני תקפו את ההחלטה, בטענה שהוא 'התאמץ' לראות את המהלך מנקודת המבט של אפל, אך הגיע למסקנה ש'בלתי נמנע, זוהי תוכנת ריגול ממשלתית שהותקנה על ידי אפל בהתבסס על חזקת אשמה.'

'לא משנה כמה כוונות טובות, אפל מוציאה מעקב המוני לכל העולם עם זה', אמר המלשין הבולט אדוארד סנודן, והוסיף כי 'אם הם יכולים לסרוק פורנו לילדים היום, הם יכולים לסרוק כל דבר מחר.' גם הקרן האלקטרונית גבול ללא מטרות רווח מתח ביקורת התוכניות של אפל, שקבעו כי 'אפילו דלת אחורית מתועדת ביסודיות, מחושבת בקפידה ובהיקף צר היא עדיין דלת אחורית.'

איך אני מאפס קשיח לאייפון 7
תגיות: פרטיות אפל , תכונות אפל לבטיחות ילדים