در دنیایی که یک جمله خاص از زبان سیاستمداران و سلبریتیها میتواند اتفاقات ریز و درشت بسیاری را به دنبال داشته باشد، بیش از هر زمان دیگری باید نسبت به صحتسنجی آنچه در فضای مجازی و شبکههای اجتماعی میبینید، حساس باشید. امروزه به کمک هوش مصنوعی و فناوری یادگیری ماشین با استفاده از چند عکس، فایل صوتی و ویدئو میتوان به راحتی ویدیوها و تصاویر جعلی ساخت که تا حد زیادی باورپذیر هستند. هر چه جلوتر میرویم، تشخیص جعلی بودن این ویدیوها، فایلهای صوتی و تصاویر جعلی دشوارتر میشود. به همین دلیل همه ما باید بدانیم که دیپ فیک چیست و چگونه میتوانیم از خطرات این فناوری پیچیده در امان بمانیم.
تکنولوژی دیپ فیک چیست؟
به زبان ساده، فناوری دیپ فیک (Deepfake) به امکان ساخت یک تصویر یا ویدیوی مصنوعی و جعلی توسط تکنولوژی یادگیری ماشین گفته میشود. یادگیری عمیق نوعی یادگیری ماشین است که در آن یک الگوریتم با در اختیار گرفتن دادههایی تغذیه میشود و میتواند خروجیهایی را تولید کند که مبتنی بر دادههای دریافتی و کاملا شبیه به آنها هستند.
یادگیری عمیق توسط یک کلاس خاص الگوریتم به نام شبکه عصبی اجرا میشود. مکانیزم عملکرد این شبکه عصبی کاملا شبیه به روشی است که مغز انسان برای یادگیری و پردازش اطلاعات به کار میگیرد. مجموعهای از گرهها در این شبکه فعال هستند که با استفاده از تبدیلات ریاضی، سیگنالهای ورودی به خروجی تبدیل میکنند. هر چه یک شبکه عصبی، گرههای بیشتری داشته باشد، کیفیت خروجی آن بهبود پیدا میکند.
چرا تشخیص ویدیوهای ساخته شده با فناوری دیپ فیک سخت است؟
وقتی صحبت از یادگیری ماشین به میان میآید، باید توجه داشته باشید که یک ربات دیپ فیک میتواند به مرور زمان خود را ارتقا دهد. هر چه دادههایی که در اختیار آن قرار میگیرد، بیشتر شود، الگوریتمهای آن فرصت بازیابی بیشتری پیدا میکنند. در نتیجه خروجی کار آن ها هر بار نسبت به دفعه قبل باورپذیرتر خواهد بود.
فرآیند تولید دیپ فیکهای پیچیده در واقع شامل 2 الگوریتم است. یک الگوریتم برای تولید بهترین کپی جعلی از تصاویر واقعی به کار گرفته میشود. الگوریتم دیگر برای تشخیص تصاویر واقعی از جعلی به کار گرفته میشوند. این دو الگوریتم دائما یک چرخه را تکرار میکنند و به مرور زمان در انجام وظایف خود ارتقا مییابند. نهایتا به مدلی دست پیدا میکند که در تولید تصاویر جعلی بسیار ماهر است و انسانها در تشخیص جعلی بودن آنها دچار مشکل میشوند.
فرآیند ساخت دیپ فیک ها چگونه است؟
اولین نکتهای که باید بدانید آن است که دیپ فیک فقط محدود به ویدیوها نیست. بلکه تصاویر و فایلهای صوتی زیادی نیز با اهداف کلاهبرداری و فریب دیگران به کمک فناوری دیپ فیک تولید میشوند. دو روش اصلی برای تولید دیپ فیکها وجود دارند که عبارتاند از:
1. روش رمزگذاری و رمزگشایی
در حالت کلی، ساخت یک ویدیوی دیپ فیک که در آن چهره یک فرد به صورت جعلی تغییر میکند، چند مرحله دارد. در ابتدا باید تا جای ممکن تصاویر مربوط به چهره اصلی و جایگزین مد نظر خود را جمعآوری کنید و در اختیار یک الگوریتم رمزنگاری مبتنی بر هوش مصنوعی مخصوص دیپ فیک قرار دهید.
این الگوریتم با پردازش تصاویر، ویژگیهای مشترک بین دو چهره را شناسایی میکند. سپس تلاش میکند تا سایر ویژگیهای چهرهها را به یکدیگر نزدیک کند. در ادامه دو الگوریتم هوش مصنوعی دیگر کار رمزگشایی از خروجی الگوریتم اول را انجام میدهد. هر یک از این الگوریتمها روی رمزگشایی یکی از چهرهها تمرکز میکند.
در ادامه شما باید تصویر رمزگذاری شده مربوط به شخص A را به الگوریتم رمزگشای مختص شخص B بدهید. به این ترتیب الگوریتم رمزگشا، چهره شخص B را با جهتگیری چهره شخص A بازسازی میکند. این کار به صورت دو سویه انجام میشود. برای دستیابی به نتیجه نهایی قانع کننده لازم است که بارها این فرآیند تکرار شود.
2. روش شبکه مولد یا گان (Gan)
یک روش دیگر هم برای ساخت دیپ فیکها وجود دارد. در این روش باید از یک شبکه مولد (Gan) متشکل از دو الگوریتم هوش مصنوعی در برابر یکدیگر استفاده کنید. اولین الگوریتم به عنوان ژنراتور یا مولد شناخته میشود. این الگوریتم نویزهای تصادفی تولید کرده و به یک تصویر تبدیل میکند. سپس تصویر مصنوعی تولید شده به جریانی از تصاویر واقعی مربوط به یک چهره دیگر، اضافه میشود. مجموعه این تصاویر در اختیار الگوریتم دوم معروف به الگوریتم تمایز قرار میگیرند.
نتایج اولیه خروجی الگوریتم دوم هیچ شباهتی به چهرههای اصلی ندارند. اما فرآیند یاد شده بارها و بارها تکرار میشود و در هر چرخه کیفیت خروجی مقداری بهبود پیدا میکند. بعد از مدتی تصاویر جعلی کاملا شبیه به تصاویر اصلی تولید میشوند.
چه چیزی تکنولوژی دیپ فیک را با تصاویر فتوشاپی متمایز میکند؟
تشخیص تصاویر جعلی که با استفاده از فتوشاپ و سایر برنامهها مانند اسنپ چت کار چندان سختی نیست. معمولا در همان نگاه اول میتوان متوجه شد که یک تصویر با استفاده از افکتهای خاص دستخوش تغییر شده است. به همین دلیل هیچ نگرانی در خصوص استفاده از این نرم افزارهای ادیت تصویر و ویدیو وجود ندارد.
داستان وقتی پیچیده میشود که تشخیص جعلی بودن تصاویر و ویدیوهای ساخته شده با ربات دیپ فیک دشوار میشود. هر کسی که توان به کارگیری فناوری دیپ فیک را داشته باشد، میتواند اطلاعات نادرست را در سطح دنیا پخش کند و گروههای بسیاری از مردم را تحت تاثیر قرار دهد. در مقیاس کوچک، ممکن است ویدیو یا تصویری از یک آشنا به دست شما برسد که شما را به انجام کار خاصی تشویق میکند. در مقیاس بزرگ هم ممکن است با ویدیوهایی از رهبران سیاسی بزرگ دنیا روبهرو شوید که با صحبتهای جعلی به جنگ و خشونت دامن میزنند.
چگونه میتوان دیپ فیک ها را تشخیص داد؟
تجربه نشان میدهد که با پیشرفت تکنولوژی دیپ فیک، تشخیص ویدیوها و تصاویر ساخته شده با این فناوری سختتر میشود. در سال 2018، برخی از محققان آمریکایی متوجه شدند که چهرههای دیپ فیک بهطور معمول پلک نمیزنند. این موضوع جای تعجب ندارد. چرا که اکثر تصاویر افراد با چشمان باز در اختیار الگوریتمها قرار میگیرند. به همین دلیل، الگوریتمهای یادگیری ماشین با پلک زدن افراد به صورت واقعی آشنایی پیدا نمیکنند.
البته در سالهای گذشته، دیپ فیکهایی تولید شدهاند که این نقطه ضعف در آنها به طور کامل برطرف شده است. موارد دیگری که بررسی آنها در تشخیص جعلی بودن دیپ فیکها کمک میکند، عبارتاند از:
- همگامسازی لبها در دیپ فیکها ممکن است به درستی صورت نگرفته باشد.
- رنگ پوست ممکن است حالت طبیعی و یکدست نداشته باشد.
- جزئیات موهای سر و بدن افراد در دیپ فیکها معمولا به خوبی تصویرسازی نمیشوند.
- نحوه نورپردازی روی تصاویر دیپ فیک هم یک راه تشخیص جعلی بودن آنهاست.
در عین حال، دولتها و مراکز تحقیقاتی مشغول انجام تحقیق و بررسی در زمینه تشخیص دیپ فیکها است. مایکروسافت، فیسبوک و آمازون در این زمینه سرمایهگذاری زیادی انجام دادهاند.
کلام پایانی
در این مطلب به زبان ساده توضیح دادیم که دیپ فیک چیست و چگونه تصاویر و ویدیوهای جعلی مبتنی بر این فناوری تولید میشوند. پیشرفت ابزارهای هوش مصنوعی، نگرانیها در خصوص فناوری دیپ فیک را تشدید کرده است. هنوز راهحل روشن و قابل اعتماد برای تشخیص این ویدیوها در دنیا معرفی نشده است. بههمین دلیل باید نسبت به صحت و سقم تصاویر، فایلهای صوتی و ویدیوهایی که در فضای مجازی به دست شما میرسند، همواره به دیده تردید نگاه کنید.