شرکت اپل از قابلیت جدید ضد کودک آزاری در iOS، iPadOS، watchOS و سیستم عامل مک رونمایی کرد. این حرکت جهت جلوگیری از انتشار کودک آزاری در آمریکا صورت گرفته است.
به گفته سازندگان اپل، این شرکت قصد دارد با اسکن تصاویر اشتراک گذاری شده در سمت کاربر، در هنگام آپلود تصاویر به iCloud محتوای مرتبط با کودک آزاری را شناسایی کند. همچنین با استفاده از سیستم یادگیری ماشین (نصب شده روی هر دستگاه) تمامی عکسهای ارسالی و دریافتی از طریق iMessage دستگاههای خردسالان (کودکان زیر ۱۳ سال) را اسکن کرده و در صورت مشاهده عکس نامناسب، سریعا به والدین گزارش دهد.
علاوه بر این، اپل قصد دارد سیری را ارتقا دهد تا زمانی که کاربر قصد جستجو محتوای مرتبط با کودک آزاری را دارد، بتواند در کار صاحب دستگاه، اختلال ایجاد کرده و به او هشدار دهد که تمایل به این موضوع مشکل ساز بوده و آسیبهایی را به همراه دارد.
شرکت اپل روی این نکته تاکید کرده که اسکن پیامها از یادگیری ماشین نصب شده روی خود دستگاه برای شناسایی محتوای نامناسب استفاده خواهد کرد. این قابلیت طوری طراحی شده که شرکت به پیامهای فرد دسترسی نداشته باشد. این قابلیت به صورت پیش فرض غیر فعال بوده و باید از قسمت تنظیمات و قابلیتهای اشتراک گذاری خانوادگی (Family sharing features) توسط والدین فعال شود.
چگونه تصاویر مرتبط به کودک آزاری شناسایی میشود؟
برای اینکار تصاویر قبل از آپلود شدن به آیکلاد، در روی خود دستگاه با هش تصاویر کودک آزاری که در بانک اطلاعاتی سیستم عامل وجود دارد، مطابقت داده میشود. این سیستم که هش عصبی نامگذاری شده با بهرهگیری از تکنولوژی رمزنگاری تقاطع مجموعه خصوصی طراحی شده است. با وجود اینکه تمام پروسه به صورت خودکار انجام میگیرد اما فقط زمانی کار میکند که اشتراک گذاری تصاویر iCloud فعال باشد.
علاوه بر این، شرکت اپل از یک پروسه رمزنگاری دیگر به نام آستانه اشتراکگذاری مخفی نیز استفاده خواهد کرد تا در صورتی که تصاویری زنگ خطر سیستم یادگیری ماشین را به صدا درآورد، بتوان به صورت دستی آن تصاویر را بررسی کرد و در صورت درست بودن این شناسایی، علاوه بر اینکه حساب فرد غیر فعال میشود، مراتب به مراجع قانونی نیز اطلاع داده خواهد شد.
محققان نگران نقض حریم خصوصی هستند:
در حال حاضر اپل مانند شرکتهای بزرگ دیگر (گوگل، مایکروسافت و توییتر) تصاویر آپلود شده به سرورهایش (iClouad) را برای شناسایی محتوای کودک آزاری اسکن میکند. اما این تصمیم تمام مرزهای موجود را رد کرده و برخی عقیده دارند این کار منجر به بروز ضعف در رمزنگاریها خواهد شد و میتوان یک جدال طولانی مدت بر سر حریم خصوصی را راه بیاندازد.
طبق تحقیقاتی که در سال ۲۰۱۹ صورت گرفته، بیش از ۴۵ میلیون تصاویر از کودک آزاری گزارش داده شده که بیش از دو سوم آن (۹۰%) در پلتفرم فیسبوک بوده است.
این تغییرات وجهه شرکت را دچار تزلزل کرد و بسیاری باور دارند که اپل نیز با وجود تمام تلاشهایی که برای حفظ حریم خصوصی و افزایش کیفیت آن به خرج میدهد، اما همانند شرکتهای فیسبوک و واتساپ همچنان به دنبال ایجاد در پشتی برای محصولات خویش است.
بنیاد حریم الکترونیکی با اطلاع از نقض رمزنگاریها و ایجاد در پشتی به واسطه این تصمیم اپل، در بیانیهای اعلام کرد: ” کودک آزاری مسئلهای بسیار جدی است و اپل اولین شرکتی نیست که برای مقابله با این موضوع قدم پیش نهاده. گرفتن این تصمیم برای کار آسانی نبوده و به احتمال قوی این شرکت بهای زیادی برای آن خواهد پرداخت”.
فعلا این قابلیت در آمریکا منتشر خواهد و مشخص نیست که انتشار جهانی داشته باشد یا نه.
هنوز نظری ثبت نشده است. شما اولین نظر را بنویسید.