חדשות אפל

חוקרי אבטחה מביעים אזעקה על התוכניות של אפל לסרוק תמונות iCloud, אבל תרגול כבר נפוץ

יום חמישי, 5 באוגוסט 2021, 14:04 PDT מאת ג'ולי קלובר

תפוח עץ הודיעה היום כי עם ההשקה של iOS 15 ו אייפד 15 , הוא יתחיל לסרוק תמונות iCloud בארה'ב כדי לחפש חומר ידוע להתעללות מינית בילדים (CSAM), עם תוכניות לדווח על הממצאים למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC).



תכונת בטיחות ילדים
לפני שאפל פירטה את תוכניותיה, חדשות על יוזמת CSAM דלפו, וחוקרי אבטחה כבר החלו להביע דאגות לגבי האופן שבו ניתן יהיה להשתמש בפרוטוקול סריקת התמונות החדש של אפל בעתיד, כפי שצוין על ידי זמנים כלכליים .

אפל משתמשת במערכת 'NeuralHash' כדי להשוות תמונות CSAM ידועות לתמונות של משתמש אייפון לפני העלאתם ל-iCloud . אם יש התאמה, התצלום הזה מועלה עם שובר בטיחות קריפטוגרפי, ובסף מסוים, מופעלת סקירה כדי לבדוק אם לאדם יש CSAM במכשירים שלו.





כיצד לבטל את הרישום לאפליקציה באייפון

נכון לעכשיו, אפל משתמשת בטכנולוגיית סריקת התמונות והתאמת התמונות שלה כדי לחפש התעללות בילדים, אך החוקרים חוששים שבעתיד היא יכולה להיות מותאמת לסריקה אחר סוגים אחרים של תמונות שמדאיגות יותר, כמו שלטים נגד הממשלה ב- מחאות.

בסדרת ציוצים, חוקר קריפטוגרפיה של ג'ונס הופקינס מתיו גרין אמר שסריקת CSAM היא 'רעיון ממש גרוע' מכיוון שבעתיד היא יכולה להתרחב לסריקת תמונות מוצפנות מקצה לקצה ולא רק תוכן שהועלה ל-‌iCloud‌. לילדים, אפל הוא הטמעת תכונת סריקה נפרדת המחפשת תוכן מיני בוטה ישירות ב-iMessages, המוצפנים מקצה לקצה.

גרין גם העלה חששות לגבי ה-hash שאפל מתכננת להשתמש בהם מכיוון שעלולות להיות 'התנגשויות', שבהן מישהו שולח קובץ לא מזיק המשתף hash עם CSAM ועלול לגרום לדגל שווא.

אפל מצידה אומרת שלטכנולוגיית הסריקה שלה יש 'רמת דיוק גבוהה במיוחד' כדי לוודא שחשבונות אינם מסומנים בצורה שגויה, ודוחות נבדקים ידנית לפני ‌iCloud‌ החשבון מושבת ודוח נשלח ל-NCMEC.

גרין מאמין שהיישום של אפל ידחוף חברות טכנולוגיה אחרות לאמץ טכניקות דומות. 'זה ישבור את הסכר', כתב. 'ממשלות ידרשו את זה מכולם'. הוא השווה את הטכנולוגיה ל'כלים שמשטרי דיכוי פרסו'.


חוקר האבטחה אלק מאפט, שעבד בעבר בפייסבוק, אמר כי ההחלטה של ​​אפל ליישם סוג זה של סריקת תמונות היא 'צעד ענק ורגרסיבי לפרטיות הפרט'. 'אפל חוזרת לפרטיות כדי לאפשר את 1984', אמר.

רוס אנדרסון, פרופסור להנדסת אבטחה באוניברסיטת קיימברידג' אמר כי הוא 'רעיון מזעזע לחלוטין' שעלול להוביל ל'מעקב מבוזר' של מכשירים.

כפי שרבים ציינו בטוויטר, חברות טכנולוגיה מרובות כבר עושות סריקת תמונות עבור CSAM. גוגל, טוויטר, מיקרוסופט, פייסבוק ואחרות משתמשות בשיטות גיבוב תמונות כדי לחפש ולדווח על תמונות ידועות של התעללות בילדים.


ראוי גם לציין שאפל הייתה כְּבָר סורק חלק מהתוכן לתמונות של התעללות בילדים לפני השקת יוזמת CSAM החדשה. בשנת 2020, קצינת הפרטיות הראשית של אפל, ג'יין הורוואת', אמרה שאפל השתמשה בטכנולוגיית הקרנה כדי לחפש תמונות לא חוקיות ולאחר מכן משביתה חשבונות אם מתגלות ראיות ל-CSAM.

la roche-posay חיישני UV מעקב אחר העור

אפל ב-2019 עדכן את מדיניות הפרטיות שלו לציין שהיא תסרוק תוכן שהועלה לאיתור 'תוכן שעלול להיות לא חוקי, כולל חומר של ניצול מיני של ילדים', כך שההכרזות של היום אינן חדשות לגמרי.

הערה: בשל האופי הפוליטי או החברתי של הדיון בנושא זה, שרשור הדיון נמצא אצלנו חדשות פוליטיות פוֹרוּם. כל חברי הפורום והמבקרים באתר מוזמנים לקרוא ולעקוב אחר השרשור, אך הפרסום מוגבל לחברי הפורום עם לפחות 100 פוסטים.

תגיות: פרטיות אפל , תכונות אפל לבטיחות ילדים