در گذشته ممکن بود که عکس های شما از طریق نرم افزار های مختلفی دستکاری شود و تصویری جعلی از شما ایجاد شود که خلاف واقعیت است. اما باید گفت در حال حاضر فناوری خطرناک تری وجود دارد به نام دیپ فیک که در فارسی به معنای جعل عمیق می باشد که چهره و صدای افراد را تقلید می کند. دیپ فیک می تواند با تقلید چهره و صدای شما، آن را به یک ویدیو غیر واقعی تبدیل و منتشر کند. در واقع این موضوع تا کنون باعث نگرانی خیلی از افراد شده است. برای آشنایی بیشتر با فناوری دیپ فیک یا جعل عمیق با ما تا پایان این مطلب همراه باشید.
دیپ فیک چیست؟
دیپ فیک یا همان جعل عمیق را می توان یک فناوری جدید دانست که بر مبنای هوش مصنوعی عمل می کند و از این طریق می توان تصاویر و ویدیو های دروغین ساخت و هر بیننده ای را تحت تاثیر آن قرار داد. ممکن است تا کنون ویدیو ها و تصاویری را از افراد مشهور دیده باشید و صحت آن را تایید کنید و در فضاهای مجازی نیز دست به انتشار آن بزنید اما در حقیقت باید گفت امروزه در این عصر دیجیتالی دیگر نمی توان حتی به چشم های خود نیز اعتماد کرد. از آنجایی که این فناوری پیشروی بدون محدودیتی را در پیش گرفته است به زودی تشخیص بین مرز حقیقت و دروغ برای ما کاملا غیر ممکن خواهد شد.
دیپ فیک چگونه عمل می کند؟
در سال 2014 شخصی به نام “یان گودفلو“ که دانشجوی مقطع دکتری بود فناوری دیپ فیک را اختراع کرد و در حال حاضر در شرکت اپل مشغول به کار می باشد.
دیپ فیک (Deepfake) از دو واژه ی دیپ (Deep) به معنای عمیق و فیک (Fake) به معنای جعلی و دروغین ترکیب شده است. این فناوری بر اساس هوش مصنوعی ایجاد شده است و می تواند به تولید واقع گرانه اما دروغین تصاویر انسان بپردازد. برای اینکه تصاویر یا ویدیو های موجود با مجموعه ای از تصاویر و ویدیو های منبع ترکیب شود دسته خاصی از الگوریتم یادگیری ماشین که به آن شبکههای مولد تخاصمی (Generative Adversarial Networks) می گویند در فناوری دیپ فیک مورد استفاده قرار گرفته است.
دیپ فیک از شبکه های مولد تخاصمی که نام آنها به اختصار شبکه های GAN است استفاده می کند و این فناوری بر اساس یادگیری عمیق ایجاد شده است. الگوریتم هایGenerative Adversarial Networks یا به اختصار GAN متشکل از دو نوع هوش مصنوعی می باشند. یکی از این دو نوع هوش مصنوعی به تولید محتوا یا همان تولید تصاویر افراد می پردازد و نوع دیگر آن وظیفه ی تشخیص واقعی بودن و یا جعلی بودن عکس ایجاد شده را برعهده دارد. در حقیقت هوش مصنوعی رقیب در ابتدا می تواند عکس جعلی را از عکس واقعی به آسانی تشخیص دهد ولی با افزایش دقت و عملکرد هوش مصنوعی تولید کننده و همچنین طی گذر زمان برای مدل هوش مصنوعی رقیب تشخیص جعلی بودن محتوای تولید شده بسیار سخت خواهد شد.
آیا دیپ فیک خطرناک است؟
در پاسخ به این سوال باید گفت در واقع ابزار ها یا تکنولوژی های جدید به خودی خودشان خطری ندارند و از هر نوع ابزاری می توان هم استفاده مفید داشت و هم استفاده ی خطرساز و مضر. دیپ فیک هم از این قاعده مستثنی نیست و میتواند هم بسیار کاربردی باشد و راه حل بسیاری از مشکلات باشد و هم مخاطره آمیز باشد و به حریم شخصی افراد و وجهه اجتماعی آنها آسیب بزند.
متاسفانه استفاده از تکنولوژی دیپ فیک بیشتر در زمینه ی مخاطره آمیز آن است و این فناوری علاوه بر اینکه جامعه بازیگران و سلبریتی ها را مورد هدف قرار داده، به حریم سیاستمداران نیز تجاوز کرده و این مسئله باعث ایجاد مشکلات زیادی شده است.
از آنجایی که برای استفاده از این فناوری نیازی به دخالت مستقیم انسان و بر مبنای هوش مصنوعی عمل می کند، هر شخصی که بخواهد به راحتی می تواند از این طریق دست به ساخت ویدیو های جعلی بزند و محتواهای دروغین را تولید و منتشر نماید. افراد زیادی نیز وجود دارند که فیلم های غیر اخلاقی را با اهداف خصمانه از چهره های معتبرو معروف میسازند و باعث می شوند زندگی شخصی و اعتبار آنها به خطر بیفتد. متاسفانه خیلی ها با سو استفاده از این فناوری به کسب درآمد از این طریق میپردازند و بسیاری حاضرند پول زیادی را برای ساخت یک ویدیوی دیپ فیک و غیر اخلاقی از فرد مورد نظرشان پرداخت نمایند.
در کنار تمام چیزهایی که گفته شد این فناوری باعث می شود تا به طور کلی دموکراسی و امنیت ملی یک کشور نیز به خطر بیفتد زیرا دست به تحریف واقعیات جامعه زده و اطلاعات دروغین و غیر واقعی به افراد جامعه ارائه می کند.
چگونه با خطرات دیپ فیک Deepfake مقابله کنیم؟
لازم به ذکر است راهکاری که بتوان به طور قطع با استفاده از آن جلوی خطرات Deepfake ها را گرفت وجود ندارد اما توصیه می شود که به عنوان یک شخص عادی تا جایی که ممکن است در شبکه های اجتماعی از ارسال بی مورد تصاویر خودداری کنید. همچنین بهتر است در عکس ها و فیلم های کسانی که نمی شناسید حضور نداشته باشید و یا اینکه سعی کنید به نحوی صورتتان دور از دید دوربین باشد. در کنار کلاهبرداری های اینترنتی و حمله های فیشینگ هکر ها که باید بسیار مراقب بود تا به دامشان نیفتیم معضل دیگری که وجود دارد دیپ فیک است.
هانی فرید (Hany Farid) در رابطه با پیشگیری از دیپ فیک به افراد مشهور خصوصا سیاستمداران می گوید:
زمان صحبت کردن با اطرافیان خود، هر چند وقت یک بار و فقط یک لحظه دستتان را در مقابل چهره خود قرار داده تا در برابر این گونه تهدید ها از خودتان محافظت به عمل آورید.
اما از آنجایی که نسبت سرعت و تعداد فریم های عکاسی بالا رفته این روش موثر واقع نمی شود و نمی تواند راهکار مطمئنی برای اشخاص مشهور به حساب بیاید.
نمونه های استفاده از دیپ فیک برای افراد مشهور
در اینجا به چند نمونه از استفاده هایی که از این فناوری در دنیا برای تولید ویدیو های واقع گرایانه و دروغین از افراد معروف شده اشاره خواهیم کرد.
مارک زاکربرگ
در ماه ژوئن هنرمند معروف “بیل پوستر” در صفحه اینستاگرامش ویدیویی را منتشر کرد که در آن مارک زاکربرگ با افتخار از مالکیت فیسبوک و چگونگی تاثیرش بر کاربران صحبت می کند. این ویدیو با استفاده از یک نرم افزار اسرائیلی به نام Canny AI’s VDR ساخته شده است که مبتنی بر ساخت ویدیو با تکنیک جا به جایی دیالوگ می باشد. این نرم افزار نشان داد که چگونه گفتار معمولی هر شخصی میتواند مورد دستکاری قرار بگیرد.
در حالی است که بیل پوستر این ویدیو را با هشتگ دیپ فیک منتشر کرده بود اما باز هم این ویدیوی جعلی از مارک زاکربرگ توسط شبکه اجتماعی اینستاگرام حذف نشد.
نانسی پلوسی
یکی دیگر از ویدیو های جعلی که نشان می دهد تا چه حد استفاده از دیپ فیک در مسائل سیاسی می تواند خطرساز باشد مربوط به نانسی پلوسی می شود. در این ویدیو سخنگوی مجلس نمایندگان ایالت متحده آمریکا که نانسی پلوسی نام دارد در حال سخنرانی می باشد اما در نسخه جعلی سرعت صحبت های او را حدود 25 درصد کم کرده بودند و جوری نشان داده می شد که انگار او در حالت طبیعی اش قرار ندارد و مست است. این ویدیو در صفحه ی Politics Watchdog در فیسبوک منتشر شد و به سرعت منتشر شد.
در ابتدا فیسبوک این ویدیو را به صورت کامل حذف نکرد اما پس از مدتی این ویدیو حذف شد و در نهایت هم مشخص نشد که چه کسی آن را ساخته است. این اتفاق نشان داد که چقدر راحت صدای یک ویدیو را می توان مثل یک سند دستکاری کرد و تغییر داد.
باراک اوباما
از جمله بیشترین قربانی های دیپ فیک، سیاستمداران و افراد مشهور می باشند. یکی از دلایل استفاده از افراد مشهور برای تولید اینگونه ویدیو ها این است که از آنها به اندازه ی کافی عکس و ویدیو در دسترس است و منابع خوب و کاملی از آنها برای جعل وجود دارد.
در ویدیوی جعلی که از باراک اوباما منتشر شد، اوباما دونالد ترامپ را فردی غیر منطقی و حقیر خطاب می کند. هر چند این ویدیو جعلی بود و از طریق فناوری دیپ فیک ساخته شده بود اما به سرعت در فضای مجازی منتشر شد و بسیاری از افراد آن را باور کردند و دست به انتشار آن می زدند.
سرنوشت نرم افزار چینی دیپ فیک Zao
این اپلیکیشن در سال 2019 سروصدایی به پا کرد و با استفاده از آن می توان در کمتر از چند ثانیه و با دریافت چند عکس چهره یک فرد را به سلبریتی مورد علاقه او تبدیل کرد. پس از مدتی این نرم افزار با نارضایتی های بسیار و واکنش جدی و بازخورد هایی از سوی کاربران رو به رو شد که حاکی از نقض حریم خصوصی آنها بود. بنابراین سیاست های این اپلیکیشن از آن زمان به بعد تغییر پیدا کرده است.
معرفی اپلیکیشن ها و سایت های ساخت دیپ فیک
در صورتی که می خواهید با این فناوری بیشتر آشنا شوید در اینجا لیستی از بهترین اپلیکیشن ها و سایت های دیپ فیک را برایتان فراهم کرده ایم. برخی از این موارد صرفا بررای سرگرمی هستند.
- اپلیکیشن چینی Zao
- وب سرویس Deepfakes web β
- وبسایت AvengeThem
- اپلیکیشن Doublicat
- وبسایت MachineTube
- نرمافزار DeepFaceLab
- اپلیکیشن Deep Art
- اپلیکیشن Face Swap Live
سخن آخر
همان گونه که گفته شد با گسترش تکنولوژی دیپ فیک و پیشرفت همه روزه آن، دیگر مرز بین حقیقت و دروغ در آینده ای نه چندان دور قابل تشخیص نخواهد بود. همچنین، می توان گفت گسترش و تولید این قبیل نرم افزار ها که مبتنی بر دیپ فیک هستند حریم خصوصی کاربران را نقض خواهند کرد و این هشداری جدی است. اما با این حال باید دید پیشرفت همه روزه فناوری ها تا کجا بر زندگی افراد تاثیر خواهد گذاشت. در صورتی که در رابطه با فناوری دیپ فیک و آینده ی آن نظری دارید، با ما در بخش کامنت ها در میان بگذارید.