دیپ فیک چیست؟ چطور ساخته میشود؟ آیا جهان ما برای پیامدهای این تکنولوژی آمادگی دارد؟
به مرور زمان ساخت دیپفیکها آسانتر و سریعتر میشود که همین امر در تازهای را به روی مجرمان سایبری گشوده است. با وجود اینکه اغلب ویدیوهایی که تا به حال دیدهایم بیضرر و خنده دار بودند اما میتواند در آینده نزدیک وجهه شیطانی به خود گرفته و به عامل اصلی رسواییهای سیاسی، جرایم سایبری و سناریوهای باور نکردنی که در آنها از ویدیوهای جعلی استفاده شده، تبدیل شود. حتی ممکن است هدف آن فقط اشخاص محل و چهرههای شناخته شده نباشد و مردم عادی نیز در این کمپینها مورد حمله واقع شوند.
دیپفیک ترکیبی از تصویر انسان با هوش مصنوعیاست که بواسطه آن میتوان یک ویدیو جدید ایجاد کرده یا از ویدیویی که قبلا وجود داشته یک محتوای جعلی ساخت. از این طریق میتوان صدا و تصویر یک شخصیت واقعی را تقلید کرد. این ویدیوها به شدت واقعی به نظر میرسند و فعلا در اغلب آنها از سلبریتیها و شخصیتهای عمومی استفاده شده است که در آن مطلبی غیر واقعی را بیان میکنند.
تحقیقات جدید نشان داده که ساخت این قبیل ویدیوها در حال افزایش است. آمارها نشان داده انتشار ویدیوهای دیپفیک در فضای مجازی طی ۹ ماه اخیر دو برابر شده است. علاوه بر افزایش آمار، کیفیت این ویدیوها نیز بهبود چشمگیری داشته است. با جستجوی واژه دیپفیک در گوگل متوجه میزان فراگیری این قبیل ویدیوها خواهید شد.
البته از دیپ فیک برای کلاهبرداری استفاده شده است. در این حادثه یک مجرم سایبری توانسته با صدای مدیر اجرایی شرکت، هزاران دلار پول به حساب خود انتقال دهد. در این اتفاق، مدیر اجرایی یک شرکت (نام شرکت اعلام نشده) باور دارد که از طرف مدیر اجرایی شرکت اصلی تماسی دریافت کرده است که در این مکالمه از وی خواسته شده مبلغی (۲۴۴ هزار دلار آمریکا) را به حساب فروشنده مواد اولیه واریز کند. اگر تقلید صدا تا این اندازه بی عیب باشد که بتوان شخصی را از پشت تلفن فریب داد، پس برای کاهش آسیبهای ناشی از این تکنولوژی باید تدابیری اندیشیده شود.
هنوز نظری ثبت نشده است. شما اولین نظر را بنویسید.