دیپفیک (Deepfake) محتوایی است که با استفاده از هوش مصنوعی و یادگیری عمیق (Deep Learning)، تصاویر، ویدیوها یا صداهای موجود را دستکاری یا به طور کامل بازسازی میکند تا فردی را در حال گفتن یا انجام دادن کاری نشان دهد که هرگز آن را انجام نداده است. هدف اصلی از تولید دیپفیک، کلاهبرداری، بدنامی، یا انتشار اطلاعات غلط است. تشخیص دیپفیک، بهویژه نمونههای پیشرفته، دشوار است اما با بررسی دقیق چندین شاخص کلیدی میتوان اصالت محتوا را زیر سؤال برد.
- تشخیص دیپفیک در محتوای ویدیویی و تصویری
در حالی که هوش مصنوعی در تقلید چهره خوب عمل میکند، هنوز در بازسازی جزئیات بیولوژیکی و فیزیکی ضعفهایی دارد.
الف) تمرکز بر ناهماهنگیهای چهره و بدن
شاخص ناهماهنگی | دیپفیک | محتوای اصلی |
پلک زدن | غیرعادی یا نامنظم: نرخ پلک زدن ممکن است بسیار کم یا غیرطبیعی باشد، زیرا مدلهای AI به اندازه کافی دادههای پلک زدن را برای بازسازی طبیعی ندارند. | پلک زدن منظم و طبیعی (معمولاً 2 تا 10 ثانیه یکبار). |
لبههای چهره | ممکن است در اطراف لبههای صورت یا گردن، مرزهای نامشخص یا سوسو زدن مشاهده شود. لبههای صورت گاهی کمی تارتر از بقیه تصویر هستند. | لبههای چهره و بدن کاملاً واضح و پیوسته هستند. |
نور و سایه | عدم تطابق منبع نور: سایهها و انعکاس نور (به ویژه روی عینک یا جواهرات) اغلب با حرکت سر فرد یا منبع نور محیط هماهنگ نیستند. | سایهها مطابق با حرکت سر و منبع نور محیطی تغییر میکنند. |
ناهنجاریهای دندان | دندانها ممکن است در برخی فریمها مبهم، نامنظم، یا درخشانتر از حد معمول به نظر برسند. | دندانها واضح، ثابت و دارای بافت طبیعی هستند. |

ب) بررسی ناهماهنگیهای محیطی و فیزیکی
- ثبات فیزیکی (Physical Inconsistencies):
- عدم تطابق گوشوارهها یا عینکها: ممکن است عینک یا گوشواره در طول ویدیو سوسو بزند یا موقعیت آن به طور ناگهانی تغییر کند.
- تغییر موقعیتهای ناگهانی: اجزای کوچک صورت (مانند خال یا چین و چروک) ممکن است به طور ناگهانی ظاهر یا ناپدید شوند.
- کیفیت تصویر و آرتیفکتها:
- آرتیفکتهای فشردهسازی: دیپفیکهای تولید شده توسط هوش مصنوعی اغلب دارای نویز یا آرتیفکتهای دیجیتالی بیشتری در مناطق خاصی (مانند پسزمینه یکنواخت) هستند.
- کیفیت پایین کلی: رزولوشن کلی ویدیو، بهویژه در مناطق پرجزئیات، ممکن است پایینتر از حد انتظار باشد.
۲. تشخیص دیپفیک در محتوای صوتی (Voice Cloning)
دیپفیک صوتی، که برای کلاهبرداریهای تلفنی استفاده میشود، با هدف تقلید تن، لهجه و زیر و بمی صدای فرد قربانی تولید میشود.
الف) تمرکز بر کیفیت صدا و لحن
- یکنواختی غیرطبیعی (Lack of Emotion): صدای دیپفیک اغلب در لحن، زیر و بمی و سرعت بیش از حد یکنواخت است. فقدان کامل مکثهای طبیعی، نفسگیریها، یا تغییرات احساسی ناگهانی مشکوک است.
- کیفیت صوتی نامناسب: با وجود اینکه صدای تقلیدی شبیه فرد است، ممکن است کیفیت صدا دارای نویز پسزمینه غیرعادی، صدای متالیک یا "رباتیک" باشد که نشاندهنده تولید مصنوعی است.
- صدای دهان (Mouth Noises): مدلهای هوش مصنوعی هنوز در بازسازی صداهای ریز و طبیعی تولید شده توسط دهان و زبان (مانند صدای "پ" یا "ف") ضعیف هستند. این صداها ممکن است در صدای تقلبی نامفهوم یا کاملاً حذف شده باشند.
ب) محتوای گفتار و زمینه
- کلمات عجیب یا غیرعادی: اگر فردی که صدایش را میشناسید، به طور غیرمنتظرهای از لغات یا عباراتی غیرمعمول استفاده کند که در زبان محاوره او رایج نیستند، مشکوک شوید.
- درخواستهای فوری و غیرمعمول: تقریباً تمام کلاهبرداریهای دیپفیک صوتی شامل درخواست پول یا اطلاعات حساس به صورت فوری و غیرعادی هستند ("من در وضعیت اضطراری هستم و باید بلافاصله پول را واریز کنی").
۳. اقدامات پیشگیرانه در برابر دیپفیک
الف) تأیید متقابل و منبع (Cross-Verification)
- تغییر کانال ارتباطی: اگر ویدیویی یا پیام صوتی مشکوک دریافت کردید، بلافاصله از طریق کانال ارتباطی دیگری (مانند ارسال پیامک با سؤال امنیتی، تماس تصویری یا ایمیل) با فرد تماس بگیرید.
- سؤال امنیتی: از فردی که گمان میکنید صدایش را میشنوید، یک سؤال شخصی بسیار خاص بپرسید که پاسخ آن برای یک کلاهبردار ناممکن باشد (مثلاً "اسم مستعار دوران بچگی عمویمان چه بود؟").
ب) استفاده از ابزارهای نرمافزاری
- ابزارهای آنالیز: محققان و شرکتهای فناوری، ابزارهای تحلیلی را توسعه دادهاند که میتوانند با بررسی آرتیفکتهای پیکسلی و الگوریتمهای صوتی، احتمال دیپفیک بودن محتوا را تخمین بزنند.
ج) آگاهی و آموزش
- مراقب باشید: همیشه به محتوایی که احساسات قوی (مانند خشم یا ترس) را تحریک میکند و شما را وادار به اقدام فوری میکند، شک کنید. هدف اصلی دیپفیک، به دست آوردن مزایای مالی از طریق فریب است.





































