شرکت اپل از قابلیت جدید ضد کودک آزاری در iOS، iPadOS، watchOS و سیستم عامل مک رونمایی کرد. این حرکت جهت جلوگیری از انتشار کودک آزاری در آمریکا صورت گرفته است.

به گفته سازندگان اپل، این شرکت قصد دارد با اسکن تصاویر اشتراک گذاری شده در سمت کاربر، در هنگام آپلود تصاویر به iCloud محتوای مرتبط با کودک آزاری را شناسایی کند. همچنین با استفاده از سیستم یادگیری ماشین (نصب شده روی هر دستگاه) تمامی عکس‌های ارسالی و دریافتی از طریق iMessage دستگاه‌های خردسالان (کودکان زیر ۱۳ سال) را اسکن کرده و در صورت مشاهده عکس نامناسب، سریعا به والدین گزارش دهد.

علاوه بر این، اپل قصد دارد سیری را ارتقا دهد تا زمانی که کاربر قصد جستجو محتوای مرتبط با کودک آزاری را دارد،  بتواند در کار صاحب دستگاه، اختلال ایجاد کرده و به او هشدار دهد که تمایل به این موضوع مشکل ساز بوده و آسیب‌هایی را به همراه دارد. 

شرکت اپل روی این نکته تاکید کرده که اسکن پیام‌ها از یادگیری ماشین نصب شده روی خود دستگاه برای شناسایی محتوای نامناسب استفاده خواهد کرد. این قابلیت طوری طراحی شده که شرکت به پیام‌های فرد دسترسی نداشته باشد. این قابلیت به صورت پیش فرض غیر فعال بوده و باید از قسمت تنظیمات و قابلیت‌های اشتراک گذاری خانوادگی (Family sharing features) توسط والدین فعال شود.

چگونه تصاویر مرتبط به کودک آزاری شناسایی می‌شود؟

برای اینکار تصاویر قبل از آپلود شدن به آی‌کلاد، در روی خود دستگاه با هش تصاویر کودک آزاری که در بانک اطلاعاتی سیستم عامل وجود دارد، مطابقت داده می‌شود. این سیستم که هش عصبی نام‌گذاری شده با بهره‌گیری از تکنولوژی رمزنگاری تقاطع مجموعه خصوصی طراحی شده است. با وجود اینکه تمام پروسه به صورت خودکار انجام می‌گیرد اما فقط زمانی کار می‌کند که اشتراک گذاری تصاویر iCloud فعال باشد.

علاوه بر این، شرکت اپل از یک پروسه رمزنگاری دیگر به نام آستانه اشتراک‌گذاری مخفی نیز استفاده خواهد کرد تا در صورتی که تصاویری زنگ خطر سیستم یادگیری ماشین را به صدا درآورد، بتوان به صورت دستی آن تصاویر را بررسی کرد و در صورت درست بودن این شناسایی، علاوه بر اینکه حساب فرد غیر فعال می‌شود، مراتب به مراجع قانونی نیز اطلاع داده خواهد شد.

محققان نگران نقض حریم خصوصی هستند:

در حال حاضر اپل مانند شرکت‌های بزرگ دیگر (گوگل، مایکروسافت و توییتر) تصاویر آپلود شده به سرورهایش (iClouad) را برای شناسایی محتوای کودک آزاری اسکن می‌کند. اما این تصمیم تمام مرزهای موجود را رد کرده و برخی عقیده دارند این کار منجر به بروز ضعف در رمزنگاری‌ها خواهد شد و می‌توان یک جدال طولانی مدت بر سر حریم خصوصی را راه بیاندازد.

طبق تحقیقاتی که در سال ۲۰۱۹ صورت گرفته، بیش از ۴۵ میلیون تصاویر از کودک آزاری گزارش داده شده که بیش از دو سوم آن (۹۰%) در پلتفرم فیسبوک بوده است.

این تغییرات وجهه شرکت را دچار تزلزل کرد و بسیاری باور دارند که اپل نیز با وجود تمام تلاشهایی که برای حفظ حریم خصوصی و افزایش کیفیت آن به خرج می‌دهد، اما همانند شرکتهای فیسبوک و واتساپ همچنان به دنبال ایجاد در پشتی برای محصولات خویش است.

بنیاد حریم الکترونیکی با اطلاع از نقض رمزنگاری‌ها و ایجاد در پشتی به واسطه این تصمیم اپل، در بیانیه‌ای اعلام کرد: ” کودک آزاری مسئله‌ای بسیار جدی است و اپل اولین شرکتی نیست که برای مقابله با این موضوع قدم پیش نهاده. گرفتن این تصمیم برای کار آسانی نبوده و به احتمال قوی این شرکت بهای زیادی برای آن خواهد پرداخت”.

فعلا این قابلیت در آمریکا منتشر خواهد و مشخص نیست که انتشار جهانی داشته باشد یا نه.

نظرات

نظر (به‌وسیله فیس‌بوک)