تکنولوژی جعل عمیق؛فناوری خطرناک قرن حاضر/دیپ فیک چه خواهد کرد؟

فناوری دیپ فیک یا جعل عمیق که سیستم‌های مبتنی بر «یادگیری عمیق» (Deep Learning) و «یادگیری ماشین» (Machine Learning) محسوب می‌شوند در ابتدا شبیه سرگرمی می باشند.اما واقعیت چیز دیگری است.

به گـــزارش خبرگزاری علم و فناوری - استان سمنان؛اگردر چند سال اخیر،اخبار مربوط به فناوری ها را دنبال کرده باشید مشاهده می کنید ظهور فناوری‌های هوشمند و در عین خطرناکی در سطح اینترنت در حال گسترش هستند؛طوریکه به جرأت می‌توان گفت که از میان فناوری‌های ترسناک و خطرناک موجود در سطح اینترنت، قابلیت گول زدن افراد با محتویات جعلی و غیر واقعی توسط دیپ فیک (جعل عمیق)، یکی از عجیب ترین و در عین حال ترسناک ترین سناریوهای استفاده از فناوری‌های مبتنی بر هوش مصنوعی به شمار می رود.

در ساده ترین تعریف می توان گفت دیپ فیک، یا همان به اصطلاح جعل عمیق عنوان تکنیک جدیدی برمبنای هوش‌‌ مصنوعی است که به‌واسطه‌ی آن تصاویر و ویدئو‌های دروغینِ واقع‌گرایانه درست می‌شود؛ موضوعی که اخیرا بسیاری را وحشت‌زده کرده است.درواقع نام این تکنیک نیز به‌درستی عملکرد آن را آشکار می‌سازد؛ دیپ‌فیک، ترکیبی از یادگیری عمیق (Deep Learning) و جعل (Fake) است.

اساس سیستم‌های دیپ فیک مبتنی بر روش‌های یادگیری عمیق هستند. بخش گسترده ای از ابزارهایی که از طریق آن‌ها ویدئوهای دیپ فیک تولید می‌شوند، مبتنی بر تکنیک‌های خاصی به نام شبکه‌های مولد تخاصمی هستند. شبکه‌های مولد تخاصمی که به اختصار به آن‌ها شبکه‌های GAN نیز گفته می‌شود، توسط محققی به نام Ian Goodfellow در سال 2014 ابداع شدند.الگوریتم‌های GAN از دو مدل هوش مصنوعی تشکیل می‌شوند؛ وظیفه یکی از این مدل‌ها تولید محتوا (به عنوان نمونه، تولید تصاویر افراد) است. وظیفه مدل رقیب نیز این است که تشخیص دهد آیا عکس تولید شده واقعی است یا جعلی. مدل هوش مصنوعی که وظیفه تولید عکس را برعهده دارد، کار خود را از صفر آغاز می‌کند؛ به عبارت دیگر، تشخیص جعلی بودن تصاویر ابتدایی تولید شده توسط این مدل راحت است.

بنابراین، در ابتدای کار مدل هوش مصنوعی رقیب به راحتی قادر است میان تصاویر واقعی و جعلی تمایز ایجاد کند. با این حال، هر چقدر که زمان بیشتری می‌گذرد، دقت و عملکرد هر دو مدل ارتقاء پیدا می‌کند. در نهایت، عملکرد و دقت مدل هوش مصنوعی تولید کننده محتوا به قدری افزایش پیدا می‌کند که تشخیص جعلی بودن محتوای تولید شده توسط این مدل بسیار سخت می‌شود.

تاریخچه دیپ فیک (جعل عمیق)

شـــاید کمی عجیب و البتـــه باورنکردنی باشد اما کارگردانان سینما یکی از قدیمی‌ترین استفاده‌کنندگان از این فناوری بوده‌اند. به عنوان مثال سِر پیتر کوشینگ، بازیگر انگلیسی که نقش «گرند ماف تارکین» را تا پیش‌از مرگش در سال ۱۹۹۴ در مجموعه فیلم‌های جنگ ستارگان بازی می‌کرد، باری دیگر در فیلم «روگ وان: داستانی از جنگ ستارگان» که مربوط‌به سال ۲۰۱۶ می‌شود، ظاهر شد. در همین فیلم با استفاده از تکنیک مشابه، شخصیت «پرنسس لیا» هم بازسازی و جوان شد. در نمونه‌ای دیگر، ستاره‌ی فیلم «سریع و خشن»، یعنی پاول واکر را داریم که پیش‌از تکمیل فیلم‌برداری هفتمین قسمت از این سری در یک تصادف رانندگی درگذشت؛ اما به‌لطف دیپ‌فیک، هنوز شاهد هنرنمایی این بازیگر سری فیلم‌های سریع‌ و خشن هستیم.

در حقیقت این فناوری نیز برای تولیـــــد محتوای صوتی و تصویری متقاعد‌کننده و در‌عین‌حال غیرواقعی ساخته شده؛ یک فناوری که به‌سرعت در‌ حال‌ رشد و بهبود است و انتظار می‌رود روز‌به‌روز استفاده از آن گسترده‌تر شود. برنامه‌های ویرایش تصویر نظیر فتوشاپ، سال‌ها کاری مشابه را ازطریق جعل‌کردن تصاویر انجام می‌دهند؛ اما چیزی که اکنون با آن رو‌به‌رو هستیم، مبحثی کاملاً متفاوت و نگران‌کننده‌تر از جعل عکس یک نفر در فتوشاپ است.

با پیشرفت و گسترش خیره کننده هوش‌مصنوعی طی سال‌های اخیر، بسیاری از کار‌هایی که در گذشته سخت و ناممکن به‌ نظر می‌رسیدند، ممکن شده‌اند. پیش‌تر، کمتر کسی فکر می‌کرد که روزی بتوان محتوای یک ویدئو را به‌طور‌ کلی و بدون‌ دخالت مستقیم انسان تغییر داد؛ اما اکنون دیپ‌فیک ثابت کرده که چنین باوری در دنیای امروز جایی ندارد و به‌راحتی می‌توان ویدئو‌هایی تولید کرد که به‌سبب واقع‌گرایانه‌بودن، بتوان میان حقیقت و دروغ آن‌ها تمایزی قائل شد.

همان‌طور که در بالاتر اشاره شد، دیپ‌فیک یک تکنیک مبتنی‌بر هوش‌مصنوعی است؛ بنابراین نیازی به‌ دخالت مستقیم انسان ندارد؛ از‌این‌رو، هرکسی از‌طریق دیپ‌فیک می‌‌تواند ویدئویی جعلی و در‌عین‌حال واقع‌گرایانه درست کند.

اغلب سیستم‌های تولید دیپ فیک معمولا در دو حوزه «مطالعات دانشگاهی» (Academic Research) و یا به وسیله افراد «آماتور» (Amateur) در جوامع آنلاین توسعه یافته‌اند.

دیپ فیک در مطالعات دانشگاهی

اکثر مطالعات آکادمیک و دانگاهی مرتبط با دیپ فیک در حوزه «علوم کامپیوتر» (Computer Science)، هوش مصنوعی و به طور خاص «بینایی کامپیوتر» (Computer Vision) در حال انجام است. بینایی کامپیوتر حوزه‌ای است که بر پردازش کامپیوتری ویدئو و تصاویر دیجیتالی تمرکز دارد. اولین مطالعات تحقیقاتی معتبر در این زمینه، برنامه‌ای کامپیوتری به نام Video Rewrite بود. این برنامه کامپیوتری که در سال 1997 منتشر شد، می‌توانست تصاویر ویدیوئی صحبت کردن یک فرد خاص را به گونه‌ای تغییر دهد که به نظر برسد این فرد، کلمات موجود در یک فایل صوتی دیگر را به زبان می‌آورد.

 برنامه فوق اولین سیستم کامپیوتری محسوب می‌شود که فراینـــد «تجسم دوباره چهره» (Facial Reanimation) را به طور خودکار و از طریق روش‌های یادگیری ماشین انجام می‌دهد. برنامه‌ای کامپیوتری Video Rewrite، از روش‌های یادگیری ماشین برای ایجاد ارتباط میان صداهای ادا شده توسط شخص موجود در تصویر و شکل چهره آن‌ها استفاده می‌کند.

دیپ فیک و قربانیان آن

فنـــاوری دیپ فیک یا همان جعل عمیق در طول ظهور و پیدایش خود، نه تنها جامعه بازیگران و سلبریتی‌ها را هدف گرفته بلکه به حریم چهره‌های بزرگ سیاستمدار نیز تجاوز کرده است.با تمام این تفاسیر، تنها افراد مشهور نیستند که طعمه ی دیپ‌فیک می‌شوند. اساساً هرشخصی که در اینترنت و شبکه‌های اجتماعی فعالیت داشته باشد و حداقل یک عکس یا ویدئو از خود با دیگران به‌اشتراک گذاشته باشد، به‌ناگهان می‌تواند خود را در‌حال انجام کاری ببیند که در تاریک‌ترین لایه‌های ذهنش نیز ساخته و پرداخته نمی‌شود.

حتی در‌ این‌ زمینه ابزارهایی نیز ساخته شده‌اند تا فرایند ساخت چنین ویدئو‌هایی ساده‌تر شود؛ به‌عنوان‌ نمونه می‌توان به موتور جستجویی اشاره کرد که تصویر اشخاص عادی جامعه را دریافت می‌کند و براساس آن شبیه‌ترین بازیگر فیلم‌های بزرگسالان را پیشنهاد می‌دهد تا از ویدئو‌های وی برای ساخت محتوای غیراخلاقی دروغین با چهره فرد موردنظر استفاده شود.

متأسفانه توسعه ی این موضوع باعث شده تا عده‌ای از این راه کسب درآمد کنند.در انجمن‌های اینترنتی، عده‌ای بابت ساخت ویدئو‌های غیراخلاقی از فرد موردنظرشان، قیمت‌های بالایی پرداخت می‌کنند. طبق یافته‌های واشنگتن‌پست، تنها در یک مورد، شخصی نزدیک به ۵۰۰ عکس از چهره فرد موردنظرش را در یکی از این انجمن‌ها آپلود کرد؛ فردی که بابت کار باکیفیت، پول خوبی نیز پرداخت می‌کرد؛ موضوع تأسف‌برانگیز این است که هیچ قانونی برای توسل قربانیان به آن، فعلا تدوین نشده است.

متمایز از نگرانی‌ها درباره حریم‌ خصوصی، متخصصان پیش‌بینی می‌کنند که دیپ‌فیک در آینده نزدیک به یکی از بزرگ‌ترین خطر‌ها برای دموکراسی و امنیت ملی کشورهای تبدیل شود.

۴سایت و اپلیکیشن ساخت ویدیوهای دیپ فیک

 

  •         برنامه دیپ فیک Zao
  •         سایت دیپ فیک Deepfakes web β
  •         سایت دیپ فیک MachineTube
  •         اپلیکیشن دیپ فیک Face Swap Live

جمــــع بندی

فنـــاوری‌ نوین و خطرناک دیپ فیک (جعل عمیق)، یکی از جنجال‌برانگیزترین فناوری‌هایی است که در چند سال اخیر به ظهور رسیده است و طی این مدت کوتاه توانسته است بخش‌های مختلفی از جوامع انسانی و حتی مسائل سیاسی را نیز تحت تأثیر خود قرار دهد. چنین کاربردی از فناوری ممکن است یک هاله ابهام در مورد صحت و اعتبار ویدئوهای منتشر شده در سطح وب ایجاد کند.

بـــا این وجود، ظهـــور دیپ فیک، جذابیت این فناوری و کاربردهای گسترده ی آن در حــوزه‌های مختلف علم و فناوری را بیان می نماید.مــــدل‌های یادگیری عمیق نظیر GAN و مدل‌های مولد یادگیری عمیق نظیر شبکه‌های عصبی خودکدگذار (AutoEncoder)، به کاربران (با سطح دانش کافی از مفاهیم یادگیری ماشین) اجازه می‌دهند تا داده‌های مصنوعی ولی واقع‌گرایانه تولید کنند (داده‌های نظیر تصاویر دیجیتالی و ویدئو). به تعبیری دیگر،در صورتی که یکی از این الگوریتم‌های هوش مصنوعی به محصول تجاری تبدیل شود، ابزاری بسیار قدرتمند در اختیار کاربران عادی قرار می‌دهد تا بتوانند محتوای خلاقانه‌ای (برای استفاده در مقاصد مثبت) ایجاد کنند.

انتهای متن/ص

 

 

 

 

 

زمان انتشار: چهارشنبه ۷ خرداد ۱۳۹۹ - ۱۱:۴۲:۲۳

شناسه خبر: 88067

دیدگاه ها و نظرات :
نام کامل وارد شود
دقیق و صحیح وارد شود
لطفا فارسی و خوانا باشد
captcha
ارسال
اشتراک گذاری مطالب