دیپ فیک و جعل هویت
دیپفیک Deepfake به تصاویر، ویدئوها و صداهای جعلی ساختهشده با استفاده از کامپیوتر و نرمافزار میگویند که در آن ویدئوها و تصاویر برای ایجاد محتوای مصنوعی که معتبر به نظر میرسد ترکیب میشوند. این اصطلاح ترکیبی از کلمات عمیق Deep و جعلی fake است.
دیپفیک Deepfake به تصاویر، ویدئوها و صداهای جعلی ساختهشده با استفاده از کامپیوتر و نرمافزار میگویند که در آن ویدئوها و تصاویر برای ایجاد محتوای مصنوعی که معتبر به نظر میرسد ترکیب میشوند. این اصطلاح ترکیبی از کلمات عمیق Deep و جعلی fake است.
تعیین زمان اختراع این فنآوری دشوار است زیرا از فنآوری دستکاری عکسها و ویدیوهای دیجیتالی که مربوط به دهه 1990 است، نشأت میگیرد. بااینحال، اولین تلاش موفقیتآمیز دیپفیک در سال 2017 در شبکه اجتماعی اشتراک عکس ردیت Reddit ایجاد و منتشر شد. کاربر ویدیوهایی تغییر دادهشده را پست کرد و چهره افراد مشهور را روی بازیگران قرار داد.
تأثیرات منفی دیپ فیک بر امنیت سایبری
اگرچه بسیاری جنبههای سودمند دیپفیکها بر صنعت سرگرمی را تأیید میکنند اما این فنآوری تهدیدی برای امنیت سایبری است. دستکاری ویدیو و صدا، جعل هویت را تسهیل میکند.
کارشناسان امنیت سایبری هشدار میدهند که فنآوری دیپفیک خطر افشای اطلاعات حساس سازمانی را افزایش داده است. حملات سایبری مبتنی بر دیپفیک میتواند هرکسی را هدف قرار دهد. دسترسی آسان به برنامهها، نرمافزارها یا حتی وبسایتها، همه را مستعد قربانی شدن میکند. به دلیل گسترش رسانههای اجتماعی، این امکان وجود دارد که هویت شما در یک حمله دیپفیک مورداستفاده قرار گیرد. عکسها و فیلمهایی که از خود بهصورت آنلاین ارسال کردهاید را میتوان بازیابی کرد و در نرمافزار قرار داد.
سازمانها برای مقابله با این پدیده فریبنده باید کارکنان خود را آگاه کنند. استفاده از دیپفیک برای تغییر محتوای صوتی به کلاهبرداران کمک میکند تا در طول تماسهای تلفنی خود را بهجای کارمندان، تأمینکنندگان یا مدیران یک شرکت خاص جعل کنند. حضور روزافزون شرکتها در رسانههای اجتماعی تأثیر زیادی بر روی آن دارد.
یک مورد معروف کلاهبرداری با استفاده از دیپفیک در اوایل سال 2020 خبرساز شد. یک مدیر بانک در هنگکنگ پس از مکالمه تلفنی با مدیر یک شرکت اجازه انتقال 35 میلیون دلار را صادر کرد. کمی بعد مشخص شد که جاعل صدای مدیر شرکت را با استفاده از فنآوری دیپفیک بازسازی کرده است.
در یکی از نمونههای مشهور در سال 2019، مجرمان سایبری از فیشینگ مبتنی بر دیپفیک برای فریب مدیرعامل یک شرکت انرژی مستقر در بریتانیا استفاده کردند تا 243000 دلار برای آنها منتقل کند. با استفاده از نرمافزار جعل صوتی مبتنی بر هوش مصنوعی، مجرمان، جعل هویت رئیس هولدینگ شرکت را با موفقیت انجام دادند و باعث شدند مدیرعامل شرکت باور کند که با رئیس هولدینگ صحبت میکند.
دیپفیک چگونه کار میکند؟
دسترسی به نرمافزاری که امکان ایجاد دیپفیک را فراهم میکند در چند سال گذشته بهشدت افزایش یافته است. درنتیجه، افرادی که هیچ مهارتی در فتوشاپ یا فنآوری ندارند، اکنون میتوانند چنین محتوایی ایجاد کنند.
برنامههای تلفن همراه مانند Zao به افراد این امکان را میدهد تا چهره خود را روی بازیگران فیلمهای از پیش انتخابشده و صحنههای نمایش تلویزیونی قرار دهند. این فرآیند بهاندازه یک عکس از کاربر نیاز دارد. سپس الگوریتم برنامه چهره فرد را با بازیگر عوض و نتایج معتبری ایجاد میکند.
نرمافزارها و اپلیکیشن های دسکتاپ مانند FakeApp نیز از عوامل این موضوع هستند. اگرچه استفاده از آنها نسبتاً پیچیده است، اما برنامهها دستورالعملهایی را ارائه میدهند که استفاده از آنها را برای افرادی که مهارتهای فنی متوسطی دارند آسان میکند.
اما ایجاد یک دیپ فیک قابلباور نیاز به استفاده از هوش مصنوعی (AI) دارد.
در مورد صدای دیپفیک، تمام مطالب اصلی از طریق یک الگوریتم هوش مصنوعی اجرا میشود که صدا، لحن و رفتار فرد را شبیهسازی میکند. سخنرانیها، ارائهها، مصاحبهها، تماسهای تلفنی و ویدیوهای شرکتی بدون وقفه یا نویز محیطی میتوانند برای ایجاد صدای عمیق جعلی استفاده شوند.