חדשות אפל

עובדי אפל מעלים חששות פנימיים לגבי תוכניות איתור CSAM

יום שישי 13 באוגוסט 2021 12:43 בבוקר PDT מאת סמי פתחי

עובדי אפל מצטרפים כעת למקהלת יחידים המעוררים חששות לגבי התוכניות של אפל לסרוק אייפון ספריות התמונות של משתמשים עבור CSAM או חומרי התעללות מינית בילדים, על פי דיווחים מדברים באופן פנימי על האופן שבו ניתן להשתמש בטכנולוגיה כדי לסרוק את תמונות המשתמשים לאיתור סוגים אחרים של תוכן, על פי דיווח מאת רויטרס .





רחפן Apple Park יוני 2018 2
לפי רויטרס , מספר לא מוגדר של עובדי אפל פנו לערוצי Slack פנימיים כדי להעלות חששות לגבי זיהוי CSAM. באופן ספציפי, העובדים חוששים שממשלות עלולות לאלץ את אפל להשתמש בטכנולוגיה לצנזורה על ידי מציאת תוכן אחר מלבד CSAM. חלק מהעובדים חוששים שאפל פוגעת במוניטין הפרטיות המוביל בתעשייה שלה.

עובדי אפל הציפו ערוץ Slack פנימי של אפל עם יותר מ-800 הודעות על התוכנית שהוכרזה לפני שבוע, כך אמרו לרויטרס עובדים שביקשו לא להזדהות. רבים הביעו דאגה שהפיצ'ר עלול להיות מנוצל על ידי ממשלות דכאניות המחפשות למצוא חומר אחר לצנזורה או למעצרים, על פי עובדים שראו את השרשור בן הימים.



שינויים קודמים באבטחה באפל עוררו דאגה בקרב העובדים, אך נפח ומשך הדיון החדש מפתיעים, אמרו העובדים. כמה פוסטרים דאגו שאפל פוגעת במוניטין המוביל שלה בהגנה על הפרטיות.

על פי הדיווח, עובדי אפל בתפקידים הנוגעים לאבטחת משתמשים לא היו חלק מהמחאה הפנימית.

מאז שלו הודעה בשבוע שעבר , אפל הופצצה בביקורת על תוכניות זיהוי ה-CSAM שלה, שעדיין צפויות לצאת עם iOS 15 ו-iPadOS 15 בסתיו הקרוב. החששות נובעים בעיקר מהאופן שבו הטכנולוגיה יכולה להציג מדרון חלקלק ליישומים עתידיים על ידי ממשלות ומשטרים מדכאים.

כמה גדול הוא אייפד מיני

אפל דחקה בתקיפות את הרעיון שהטכנולוגיה במכשיר המשמשת לזיהוי חומרי CSAM יכולה לשמש לכל מטרה אחרת. ב מסמך שאלות נפוצות שפורסם , החברה אומרת שהיא תסרב בתוקף לכל דרישה כזו מצד ממשלות.

האם ממשלות יכולות לאלץ את אפל להוסיף תמונות שאינן CSAM לרשימת ה-hash?
אפל תסרב לכל דרישה כזו. יכולת זיהוי ה-CSAM של אפל בנויה אך ורק כדי לזהות תמונות CSAM ידועות המאוחסנות בתמונות iCloud שזוהו על ידי מומחים ב-NCMEC וקבוצות אחרות לבטיחות ילדים. התמודדנו בעבר עם דרישות לבנות ולפרוס שינויים שהוטלו על ידי הממשלה, אשר פוגעים בפרטיות המשתמשים, וסירבנו בתוקף לדרישות אלו. נמשיך לסרב להם בעתיד. תנו לנו להיות ברורים, טכנולוגיה זו מוגבלת לזיהוי CSAM המאוחסן ב-iCloud ואנחנו לא נעתר לבקשת ממשלה להרחיב אותה. יתר על כן, אפל עורכת סקירה אנושית לפני דיווח ל-NCMEC. במקרה בו המערכת מסמנת תמונות שאינן תואמות לתמונות CSAM ידועות, החשבון לא יושבת ולא יוגש דיווח ל-NCMEC.

א מכתב פתוח הביקורת על אפל וקריאה לחברה להפסיק לאלתר את תוכניתה לפרוס זיהוי CSAM צברה יותר מ-7,000 חתימות בזמן כתיבת שורות אלה. לראש ווטסאפ יש גם נשקל לדיון .

תגיות: פרטיות אפל , תכונות אפל לבטיחות ילדים