تمام آنچه باید درباره فناوری دیپ فیك بدانید

وقتی حقیقت در عمق دروغ غرق می شود!

وقتی حقیقت در عمق دروغ غرق می شود!

گوپا: دیپ فیك، نوعی فناوری مبتنی بر هوش مصنوعی است كه برای تولید یا تغییر محتوای ویدئو به كار می رود و می تواند نتیجه ای را عرضه نماید كه با حقیقت متفاوت است. این فناوری از سال 2017 و با اقدام یك كاربر كه از آن برای تغییر چهره افراد مشهور و قرار دادن آنها در فیلم های غیراخلاقی بهره برده بود، بر سر زبان ها افتاد.


به گزارش گوپا به نقل از ایسنا، با گسترش استفاده از "دیپ فیك"، متخصصان حوزه فناوری، در مورد نتایج منفی احتمالی آن آگهی داده و بر ضرورت احتیاط در مورد آن تاكید می كنند.

ساخت ویدئوهای دیپ فیك
ویدئوهای "دیپ فیك"، با استفاده از دو سیستم مبتنی بر هوش مصنوعی ساخته می شوند كه "تولیدكننده"(generator) و "تفكیك كننده"(discriminator) نام دارند. در پروسه تولید ویدئوی دیپ فیك، تولیدكننده، یك ویدئوی غیرواقعی را تولید می كند و سپس تفكیك كننده، واقعی یا غیرواقعی بودن آنرا تشخیص می دهد. هر بار كه تفكیك كننده، ویدئویی را غیرواقعی تشخیص دهد، سرنخی به تولیدكننده ارائه می كند، تا نكات در ساخت ویدئوی بعدی رعایت شوند.
تولیدكننده و تفكیك كننده به همراه یكدیگر، یك "شبكه مخالف مولد"(GAN) را شكل می دهند. اولین گام برای شكل گیری یك شبكه مخالف مولد، شناسایی خروجی مورد نظر و ایجاد یك مجموعه داده آموزشی برای تولید كننده است. هنگامی كه تولیدكننده بتواند سطح قابل قبولی از خروجی را ایجاد كند، امكان انتقال ویدئوها به تفكیك كننده فراهم می شود.
همزمان با افزایش مهارت تولیدكننده در ایجاد ویدئوهای تقلبی، تفكیك كننده نیز در بررسی آنها مهارت پیدا می كند. متقابلا هر قدر تفكیك كننده در بررسی مهارت یابد، تولیدكننده نیز در ایجاد ویدئو ماهر می شود.
تغییر محتوای ویدئوها تا به امروز، كار بسیار دشواری بوده است اما از آنجائیكه ویدئوهای "دیپ فیك" با كمك هوش مصنوعی تولید می شوند، به مهارت قابل توجهی كه برای تولید یك ویدئوی واقعی به كار می رود، نیازی ندارند.

ابزاری در دست سودجویان
نكته منفی در مورد ویدئوهای دیپ فیك این است كه هر كسی می تواند به تولید آن بپردازد؛ در نتیجه همیشه امكان سوءاستفاده از چنین ویدئوهایی وجود دارد و نمی توان بسادگی به محتوای آنها اعتماد كرد. در واقع، می توان اظهار داشت كه بااینكه دیپ فیك، یك فناوری كارآمد با خاصیت های مثبت به نظر می آید اما می تواند نتایج منفی بسیاری را در حوزه های گوناگون از فناوری گرفته تا سیاست به همراه داشته باشد.
اگر دیپ فیك در دست افراد سودجو قرار گیرد، امكان رخ دادن هر پیامد منفی وجود خوهد داشت. برای مثال، چنین افرادی بسادگی می توانند از این ابزار برای تخریب نام شركت های بزرگ استفاده كنند یا در حوزه سیاست، به راحتی می توان دیپ فیك را برای از بین بردن محبوبیت یك شخصیت سیاسی به كار گرفت و تصویری كاملا غیرواقعی از وی به نمایش گذاشت. بدین ترتیب، دیپ فیك به راحتی می تواند یك نام آشنا و مشهور را در حوزه تجارت، فناوری یا سیاست از بین ببرد.
مصاحبه های صورت گرفته با متخصصان فعال در حوزه فناوری، اهمیت رعایت اخلاقیات را در مورد پژوهش های هوش مصنوعی نشان می دهند. متخصصان باور دارند كه خطرات گوناگون این حوزه همچون لطمه های امنیتی باید به دقت شناخته شوند و موسسات فعال در حوزه فناوری، نسبت به آموزش نیروها اقدام نمایند تا بتوانند بسادگی از عهده مقابله با خطرات دیپ فیك برآیند.
در هر حال، مقابله با دیپ فیك، كار ساده ای نخواهد بود. بااینكه ابزارهایی برای شناسایی با دیپ فیك ابداع شده و یا در حال ارائه هستند اما دیپ فیك، فناوری قدرتمندی است و مقابله با آن، به یك پروسه بررسی طولانی نیاز دارد.
نگرانی متخصصان در مورد دیپ فیك، دلیلهای گوناگونی دارد. ابزار تولید ویدئو كه از كیفیت بالایی نیز برخوردار می باشند، بیشتر از پیش در اختیار جامعه قرار دارند. جوامع كنونی می توانند اطلاعات را به سرعت دریافت و منتقل كنند اما هیچ كس برای تشخیص ویدئوهای ساخته شده با دیپ فیك آموزش ندیده است. هنگامی كه یك متن تغییر یافته را می خوانیم، می توانیم با بررسی مفهوم، علایم نگارشی و كلمات به تغییر آن پی ببریم اما تشخیص محتوای یك ویدئوی تغییر یافته با دیپ فیك، كار ساده ای نیست.
ویدئوهای دیپ فیك كه تولید آنها در سال ۲۰۱۷ صورت می گرفت، به دانش بالایی در زمینه علوم كامپیوتر، كامپیوتر های بسیار قوی و داده های گسترده نیاز داشتند اما هم اكنون، هر كس می تواند با یك كامپیوتر كه قدرت كافی برای كار كردن با این فناوری را دارد، به تنظیم ابزار دیپ فیك بپردازد و ویدئوی مورد نظر خودرا تولید نماید.
مهم ترین نكته برای تشخیص ویدئوهای دیپ فیك، زمان است. زمان می تواند به كسب مهارت كافی برای تشخیص بهتر ویدئوها كمك نماید. همان گونه كه فتوشاپ در آغاز كار، به این اندازه شناخته شده نبود و كاربرد نداشت، دیپ فیك نیز به مرور زمان، مراحل تكامل را طی خواهدنمود و به همین میزان، درك متخصصان در مورد این فناوری و نحوه تشخیص ویدئوهای تولید شده با آن نیز بهبود خواهد یافت.
پروفسور "رابرت فوئل"(Robert Foehl)، استاد دانشگاه اوهایو اظهار داشت: حتی اگر تشخیص ویدئوهای غیر واقعی از ویدئوهای واقعی ممكن شود، لطمه های آن در زمینه اخلاقی و انسانی به قوت خود باقی خواهند ماند. بزرگترین خطر ویدئوهای تولید شده با دیپ فیك، این است كه كاملا تشخیص ناپذیر هستند؛ در نتیجه جامعه نمی تواند بسادگی به آنها اطمینان كند و تردید افراد جامعه در مورد آنها از بین نمی رود.

فناوری كارآمد
بااینكه به موارد خیلی از جنبه های منفی دیپ فیك اشاره شد اما این فناوری، از كاربردهای مثبت هم خالی نیست. یكی از این نمونه های مثبت، ویدئویی بود كه دیوید بكام را در حال آگاه كردن مردم درباره بیماری مالاریا و نحوه محافظت در مقابل این بیماری نشان می داد. در این ویدئو، از ۹ زبان گوناگون استفاده شد تا پیام مورد نظر، در سطح گسترده تری منتقل شود. چنین ویدئویی، هم كارایی مفیدی برای جامعه است و هم دستاورد مثبتی برای افراد مشهور حاضر در ویدئو به حساب می آید.
مرورگر شما از ویدئو پشتیبانی نمی نماید.
فایل آنرا از اینجا دانلود كنید: video/mp4


منبع:

1398/06/17
17:31:03
5.0 / 5
3518
تگهای خبر: تولید , دانشگاه , ساخت , سیستم
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۵ بعلاوه ۲
گوپا