מערכת ה-CSAM של אפל הוטעתה, אך לחברה יש שני אמצעי הגנה

עדכון: אפל הזכירה בדיקה שנייה של השרת, וחברת ראייה ממוחשבת מקצועית תיארה אפשרות של מה ניתן לתאר זאת ב"איך הבדיקה השנייה עשויה לעבוד" למטה.
לאחר שהמפתחים ביצעו הנדסה הפוכה של חלקים ממנה, הגרסה המוקדמת של מערכת CSAM של אפל הוכנה למעשה כדי לסמן תמונה תמימה.עם זאת, אפל הצהירה כי יש לה אמצעי הגנה נוספים כדי למנוע זאת מלהתרחש בחיים האמיתיים.
הפיתוח האחרון התרחש לאחר פרסום האלגוריתם NeuralHash לאתר מפתחי הקוד הפתוח GitHub, כל אחד יכול להתנסות בו...
כל מערכות ה-CSAM פועלות על ידי ייבוא ​​מסד נתונים של חומרי התעללות מינית בילדים ידועים מארגונים כגון המרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC).מסד הנתונים מסופק בצורה של hashes או טביעות אצבע דיגיטליות מתמונות.
למרות שרוב ענקיות הטכנולוגיה סורקות תמונות שהועלו בענן, אפל משתמשת באלגוריתם NeuralHash באייפון של הלקוח כדי ליצור ערך hash של התמונה המאוחסנת, ולאחר מכן משווה אותו עם העותק שהורד של ערך הגיבוב של CSAM.
אתמול, מפתח טען כי הנדס לאחור את האלגוריתם של אפל ושחרר את הקוד ל-GitHub - טענה זו אושרה למעשה על ידי אפל.
בתוך כמה שעות לאחר שחרור GitHib, החוקרים השתמשו בהצלחה באלגוריתם כדי ליצור חיובי שגוי מכוון - שתי תמונות שונות לחלוטין שייצרו את אותו ערך hash.זה נקרא התנגשות.
עבור מערכות כאלה, תמיד קיים סיכון להתנגשויות, כי ה-hash הוא כמובן ייצוג מאוד פשוט של התמונה, אבל זה מפתיע שמישהו יכול ליצור את התמונה כל כך מהר.
ההתנגשות המכוונת כאן היא רק הוכחה לקונספט.למפתחים אין גישה למסד הנתונים של CSAM hash, מה שידרוש יצירת תוצאות חיוביות כוזבות במערכת בזמן אמת, אבל הוא מוכיח שהתקפות התנגשות הן קלות יחסית באופן עקרוני.
אפל אישרה למעשה שהאלגוריתם הוא הבסיס למערכת שלה, אך אמרה ללוח האם שזו לא הגרסה הסופית.החברה גם הצהירה כי מעולם לא התכוונה לשמור זאת בסודיות.
אפל אמרה ל-Motherboard במייל שהגרסה שניתחה על ידי המשתמש ב-GitHub היא גרסה גנרית, לא הגרסה הסופית המשמשת לזיהוי iCloud Photo CSAM.אפל אמרה שהיא גם חשפה את האלגוריתם.
"אלגוריתם NeuralHash [...] הוא חלק מקוד מערכת ההפעלה החתום [ו] חוקרי אבטחה יכולים לוודא שההתנהגות שלו תואמת את התיאור", נכתב במסמך של אפל.
החברה המשיכה ואמרה שיש שני שלבים נוספים: הפעלת מערכת התאמה משנית (סודית) על השרת שלה, ובדיקה ידנית.
אפל גם הצהירה כי לאחר שמשתמשים יעברו את סף 30 המשחקים, אלגוריתם שני לא ציבורי הפועל על שרתי אפל יבדוק את התוצאות.
"האש העצמאי הזה נבחר כדי לדחות את האפשרות שה-NeuralHash השגוי תואם למסד הנתונים המוצפן של CSAM במכשיר עקב הפרעה יריבות של תמונות שאינן CSAM וחורג מסף ההתאמה."
בראד דווייר מ-Roboflow מצא דרך להבחין בקלות בין שתי התמונות שפורסמו כהוכחה לקונספט להתקפת התנגשות.
אני סקרן איך נראות התמונות האלה ב-CLIP של מחלץ תכונות עצביות דומה אך שונה OpenAI.CLIP פועל בדומה ל- NeuralHash;הוא לוקח תמונה ומשתמש ברשת עצבית כדי ליצור קבוצה של וקטורים תכונה הממפים את תוכן התמונה.
אבל הרשת של OpenAI שונה.זהו מודל כללי שיכול למפות בין תמונות לטקסט.המשמעות היא שאנו יכולים להשתמש בו כדי לחלץ מידע תמונה מובן לאדם.
העברתי את שתי תמונות ההתנגשות שלמעלה דרך CLIP כדי לראות אם היא גם התבדתה.התשובה הקצרה היא: לא.משמעות הדבר היא שאפל צריכה להיות מסוגלת להחיל רשת חילוץ תכונות שנייה (כגון CLIP) על תמונות CSAM שזוהו כדי לקבוע אם הן אמיתיות או מזויפות.הרבה יותר קשה לייצר תמונות שמטעות שתי רשתות בו זמנית.
לבסוף, כפי שהוזכר קודם לכן, התמונות נבדקות באופן ידני כדי לאשר שהן CSAM.
חוקר אבטחה אמר שהסיכון האמיתי היחיד הוא שכל מי שרוצה לעצבן את אפל יכול לספק תוצאות חיוביות כוזבות לבודקים אנושיים.
"אפל למעשה עיצבה את המערכת הזו, כך שפונקציית ה-hash לא צריכה להישמר בסוד, מכיוון שהדבר היחיד שאתה יכול לעשות עם 'לא CSAM כ-CSAM' הוא לעצבן את צוות התגובה של אפל עם כמה תמונות זבל עד שהם מיישמים פילטרים כדי לחסל ניתוח האשפה הזו בצנרת היא תוצאות שגויות", אמר ניקולס וויבר, חוקר בכיר במכון הבינלאומי למדעי המחשב באוניברסיטת קליפורניה, ברקלי, ל-Motherboard בצ'אט מקוון.
פרטיות היא נושא שמעורר דאגה גוברת בעולם של היום.עקוב אחר כל הדיווחים הקשורים לפרטיות, אבטחה וכו' בהנחיות שלנו.
בן לאבג'וי הוא סופר טכני בריטי ועורך האיחוד האירופי עבור 9to5Mac.הוא ידוע בטורים ובכתבות היומן שלו, בוחן את הניסיון שלו עם מוצרי אפל לאורך זמן כדי לקבל ביקורות מקיפות יותר.הוא גם כותב רומנים, יש שני מותחנים טכניים, כמה סרטי מדע בדיוני קצרים ו-rom-com!


זמן פרסום: 20 באוגוסט 2021