חדשות אפל

חוקרים באוניברסיטה שבנו מערכת סריקה CSAM מפצירים באפל לא להשתמש בטכנולוגיה ה'מסוכנת'

יום שישי 20 באוגוסט 2021 6:48 בבוקר PDT מאת סמי פתחי

חוקרי אוניברסיטה מכובדים מצלצלים בפעמוני האזעקה על הטכנולוגיה שמאחורי התוכניות של אפל לסרוק אייפון ספריות תמונות של משתמשים עבור CSAM, או חומר של התעללות מינית בילדים, המכנים את הטכנולוגיה 'מסוכנת'.





פרטיות תפוח
ג'וננת מאייר, עוזרת פרופסור למדעי המחשב וענייני ציבור באוניברסיטת פרינסטון, וכן אנוני קולשרשטה, חוקרת במרכז אוניברסיטת פרינסטון למדיניות טכנולוגית מידע, שניהם כתב מאמר מאמר ל הוושינגטון פוסט , המתאר את החוויות שלהם עם בניית טכנולוגיית זיהוי תמונה.

החוקרים התחילו לפני שנתיים פרויקט לזהות CSAM בשירותים מקוונים מוצפנים מקצה לקצה. החוקרים מציינים כי בהתחשב בתחומם, הם 'יודעים את הערך של הצפנה מקצה לקצה, שמגינה על נתונים מגישה של צד שלישי'. החשש הזה, הם אומרים, הוא מה שמחריד אותם בגלל ש-CSAM 'מתפשט בפלטפורמות מוצפנות'.



כיצד להשתמש במסננים ב-facetime

מאייר וקולשרסטה אמרו שהם רוצים למצוא אמצע למצב: לבנות מערכת שפלטפורמות מקוונות יכולות להשתמש בה כדי למצוא CSAM ולהגן על הצפנה מקצה לקצה. החוקרים מציינים כי מומחים בתחום פקפקו בסיכוי של מערכת כזו, אך הם הצליחו לבנות אותה ותוך כדי כך הבחינו בבעיה משמעותית.

ביקשנו לבחון דרך ביניים אפשרית, שבה שירותים מקוונים יכולים לזהות תוכן מזיק תוך שמירה אחרת על הצפנה מקצה לקצה. הרעיון היה פשוט: אם מישהו ישתף חומר שתואם למסד נתונים של תוכן מזיק ידוע, השירות יקבל התראה. אם אדם חלק תוכן תמים, השירות לא היה לומד דבר. אנשים לא יכלו לקרוא את מסד הנתונים או ללמוד אם התוכן תואם, מכיוון שמידע זה יכול לחשוף שיטות אכיפת חוק ולעזור לפושעים להתחמק מגילוי.

משקיפים בעלי ידע טענו שמערכת כמו שלנו רחוקה מלהיות ישימה. לאחר התחלות שווא רבות, בנינו אב טיפוס עובד. אבל נתקלנו בבעיה בולטת.

מאז ההכרזה של אפל על התכונה, החברה הופצצה עם חששות שהמערכת שמאחורי זיהוי CSAM יכולה לשמש כדי לזהות צורות אחרות של תמונות לבקשת ממשלות מדכאות. אפל דחתה בתוקף אפשרות כזו, ואמרה שהיא תסרב לכל בקשה כזו מצד ממשלות.

עם זאת, חששות לגבי ההשלכות העתידיות של הטכנולוגיה המשמשת לזיהוי CSAM נפוצים. מאייר וקולשרסטה אמרו שהדאגות שלהם לגבי האופן שבו ממשלות יכולות להשתמש במערכת כדי לזהות תוכן אחר מלבד CSAM 'הפריעו להם'.

איך מבטלים מנוי באייפון

ממשלה זרה יכולה, למשל, לאלץ שירות להוציא אנשים שחולקים דיבור פוליטי לא מועדף. זה לא היפותטי: WeChat, אפליקציית ההודעות הסינית הפופולרית, כבר משתמשת בהתאמת תוכן כדי לזהות חומרים מתנגדים. הודו חוקקה השנה כללים שעלולים לדרוש בדיקה מוקדמת של תוכן קריטי למדיניות הממשלה. רוסיה קנסה לאחרונה את גוגל, פייסבוק וטוויטר על כך שלא הסירו חומרי מחאה פרו-דמוקרטיים.

זיהינו חסרונות אחרים. לתהליך התאמת התוכן עלולות להיות תוצאות חיוביות שגויות, ומשתמשים זדוניים עלולים לשחק את המערכת כדי להעמיד משתמשים תמימים לבדיקה.

כל כך מוטרדנו שעשינו צעד שלא ראינו בעבר בספרות מדעי המחשב: הזהרנו מפני תכנון המערכת שלנו, ודחינו מחקר נוסף על איך לצמצם את החסרונות החמורים...

אפל המשיכה לטפל בדאגות המשתמשים בקשר לתוכניות שלה, פרסום מסמכים נוספים ו דף שאלות נפוצות . אפל ממשיכה להאמין שמערכת זיהוי ה-CSAM שלה, שתתרחש במכשיר של משתמש, תואמת את ערכי הפרטיות הוותיקים שלה.

תגיות: פרטיות אפל , WashingtonPost.com , תכונות בטיחות ילדים של אפל