دیپ فیک چیست؟ چطور ساخته می‌شود؟ آیا جهان ما برای پیامدهای این تکنولوژی آمادگی دارد؟

به مرور زمان ساخت دیپ‌فیک‌ها آسان‌تر و سریعتر می‌شود که همین امر در تازه‌ای را به روی مجرمان سایبری گشوده است. با وجود اینکه اغلب ویدیوهایی که تا به حال دیده‌ایم بی‌ضرر و خنده دار بودند اما می‌تواند در آینده نزدیک وجهه شیطانی‌ به خود گرفته و به عامل اصلی رسوایی‌های سیاسی، جرایم سایبری و سناریو‌های باور نکردنی که در آنها از ویدیوهای جعلی استفاده شده، تبدیل شود. حتی ممکن است هدف آن فقط اشخاص محل و چهره‌های شناخته شده نباشد و مردم عادی نیز در این کمپین‌ها مورد حمله واقع شوند.

دیپ‌فیک ترکیبی از تصویر انسان با هوش مصنوعی‌است که بواسطه آن می‌توان یک ویدیو جدید ایجاد کرده یا از ویدیویی که قبلا وجود داشته یک محتوای جعلی ساخت. از این طریق می‌توان صدا و تصویر یک شخصیت واقعی را تقلید کرد. این ویدیوها به شدت واقعی به نظر می‌رسند و فعلا در اغلب آنها از سلبریتی‌ها و شخصیت‌های عمومی استفاده شده است که در آن مطلبی غیر واقعی را بیان می‌کنند.

تحقیقات جدید نشان داده که ساخت این قبیل ویدیوها در حال افزایش است. آمارها نشان داده انتشار ویدیوهای دیپ‌فیک در فضای مجازی طی ۹ ماه اخیر دو برابر شده است. علاوه بر افزایش آمار، کیفیت این ویدیو‌ها نیز بهبود چشمگیری داشته است. با جستجوی واژه دیپ‌فیک در گوگل متوجه میزان فراگیری این قبیل ویدیوها خواهید شد.

البته از دیپ فیک برای کلاهبرداری استفاده شده است. در این حادثه یک مجرم سایبری توانسته با صدای مدیر اجرایی شرکت، هزاران دلار پول به حساب خود انتقال دهد. در این اتفاق، مدیر اجرایی یک شرکت (نام شرکت اعلام نشده) باور دارد که از طرف مدیر اجرایی شرکت اصلی تماسی دریافت کرده است که در این مکالمه از وی خواسته شده مبلغی (۲۴۴ هزار دلار آمریکا) را به حساب فروشنده مواد اولیه واریز کند. اگر تقلید صدا تا این اندازه بی عیب باشد که بتوان شخصی را از پشت تلفن فریب داد، پس برای کاهش آسیب‌های ناشی از این تکنولوژی باید تدابیری اندیشیده شود.

نظرات

نظر (به‌وسیله فیس‌بوک)