دیپ‌فیکی که در آن یکی از اعضای خانواده گروگان گرفته شده، آینده تاریک تکنولوژی را به تصویر می‌کشد. پس از اینکه هوش مصنوعی توانست عکسهای اینستاگرام، صدای سخنرانی فرد در یک وبینار و ویدیوهای داستانی که در یوتوب آپلود کرده را با هم ترکیب کند، آشکارا به این موضوع اشاره می‌کند که همه کسانی که ویدیو و صدایشان در اینترنت وجود دارد، در خطر هستند.

این تکنولوژی با تماس‌های جعلی آغاز شد که در آن با پردازش صدای رئیس شرکت‌ها، از کارمندان خواسته می‌شد تا مبالغ بزرگی را به حساب کلاهبردار انتقال دهند. نسل بعدی دیپ‌فیک، نوید تقلید صدای بی عیب و نقصی را می‌دهد که با صدای خود فرد هیچ تفاوتی نخواهد داشت.

هرچه داده‌های بیشتری به سیستم یادگیری ماشین وارد شود، صدای خروجی نیز به طرز وحشتناکی واقعی‌تر خواهد شد. همانطور که قبلا نیز این اتفاق رخ داده و با یک تماس تلفنی ۲۴۳ هزار دلار از شرکت بریتانیایی کلاهبرداری شده است.

یکی از محققان امنیت سایبری در نشست کلاه سیاه آمریکا به این نکته اشاره کرد که از زمان انتشار ویروس کرونا و خانه نشین شدن اغلب مردم (به خصوص قشر محصل) کلاهبرداری گیفت کارت الکترونیکی ۸۲۰% افزایش داشته است. در برخی از این موراد، کلاهبردار خود را به عنوان رئیس شرکت جا زده و به کارمندان دستور خرید آنها را داده است. این قبیل حملات با یک جمله ساده آغاز می‌شود: سرت شلوغ نیست؟ سپس تمام مکالمات به پلتفرم دیگری مثل ایمیل انتقال داده می‌شود تا به واکنشهای اتوماتیک ربات نیازی نباشد.

این مثال دقیقا یک حمله مهندسی اجتماعی را نشان می‌دهد که در آن از طریق پیام، ایمیل و گیفت‌کارتهای الکترونیکی اقدام به کلاهبرداری شده است. زمانی که با تکنولوژی دیپ‌فیک به این حلقه افزوده می‌شود که در آن رئیس از کارمند خود می‌خواهد تا کاری را برایش انجام دهد، دیگر مقاومت در برابر آن غیر ممکن می‌شود.

به گفته دکتر کانهام، می‌توان از این تکنولوژی برای متهم کردن فردی به کاری که هرگز مرتکب آن نشده نیز اقدام کرد. ویدیویی که در آن فردی در حال انجام کاری خلاف عرف است، با وجود جعلی بودن آن، می‌تواند پیامدهای بدی برای قربانی به همراه داشته باشد. فرض کنید یکی از همکارانتان شما را به انجام کاری متهم کرده و برای دفاع از ادعای خود، ویدیویی را نیز نشان می‌دهد، در این صورت اثبات بیگناهی یا جعلی بودن ویدیو کار راحتی نیست.

انجام چنین کارهایی شاید برای افراد عادی چندان هم راحت نباشد. در سال ۲۰۱۹ یک روزنامه نگار با پرداخت ۵۵۲ دلار آمریکا، دیپ‌فیکی ایجاد کرد که در آن مارک زاکربرگ در کنگره شهادت می‌دهد. در این دیپ‌فیک چهره مارک زاکربرگ با جانشین فرمانده در فیلم Star Trek: The Next Generation عوض شده‌است.

به چشم و گوش‌تان اعتماد دارید؟

در زیر به چند مورد اشاره می‌کنیم که با رعایت آنها می‌توانید تا حد زیادی از در دام چنین کلاهبرداری هایی گرفتار نشوید:

• یک کلمه رمزی انتخاب کنید و آن را به کسی که باید اعتماد کنید بگویید: مثلا اگر هز از گاهی رییس شرکتی با بخش حسابداری تماس می‌گیرد و از آنها می‌خواهد نقل و انتقال مالی انجام دهند، باید یک کلمه رمزی بینشان داشته باشند. همین کار را می‌توان در مورد افرادی که احتمال گروگان‌ گرفته شدنشان وجود دارد می‌توان به کار گرفت.

• در مورد کارهایی که هرگز از همکاران، روسا یا زیردستان خود درخواست نخواهید کرد صحبت کنید. اگر قرار نیست شرکت شما سمت خرید گیفت کارت الکترونیکی برود، پس باید به همه کارمندان از قبل اطلاع داده شود.

• برای تایید هر درخواستی از سیستم احراز هویت چند لایه‌ای استفاده کنید. اگر مکالمه شما با یک پیام آغاز شده، پس بهتر است با یکی از شماره‌هایی که از آن شخص در اختیار دارید تماس بگیرید و مطمئن شوید که آیا خود او این پیام را برایتان ارسال کرده یا نه؟

تکنولوژی ساخت صدا و ویدیو دیپ‌فیک، فرصتی است که مهاجمان سایبری هرگز از آن چشم پوشی نخواهند کرد. همانطور که قبلا نیز در ماجرای شرکت بریتانیایی اشاره شد، چنین حملاتی معمولا سودآوری زیادی نیز برای هکر به همراه دارند. نکات امنیتی که در بالا به آنها اشاره شد، کارهای اولیه‌ای هستند که برای مقابله با این حملات باید انجام داد. مهم‌ترین اصل در حفظ امنیت، افزایش آگاهی و هوشیاری است. برای اینکه در دام این حملات گرفتار نشوید، تا زمان دریافت تاییدیه از درخواست کننده، به هیچ کس اعتماد نکنید.

نظرات

نظر (به‌وسیله فیس‌بوک)