آشكارسازهای دیپ فیك هم گول می خورند
به گزارش گوپا دانشمندان با آزمایش پیشرفته ترین آشکارسازهای فناوری ˮدیپ فیکˮ(deepfake) به معنای ˮجعل عمیقˮ ثابت کردند که می توان آنها را هم فریب داد.
به گزارش گوپا به نقل از ایسنا و به نقل از انگجت، دانشگاه ها، سازمان ها و غول های فناوری مانند مایکروسافت و فیس بوک با کار بر روی ابزارهایی که بتوانند "جعل عمیق" را تشخیص دهند، در تلاش هستند تا از استفاده از آن برای توسعه اخبار مخرب و اطلاعات غلط جلوگیری نمایند.
حالا گروهی از دانشمندان علوم کامپیوتر از دانشگاه "سن دیگو" اخطار داده اند که آشکارسازهای "جعل عمیق" هنوز هم علیرغم این ابزارها قابل فریب دادن هستند.
این تیم در کنفرانس بینش کامپیوتری "WACV 2021" که به صورت آنلاین برگزار شد، با درج ورودی هایی در هر فریم ویدیویی نشان داد که چگونه می توان ابزارهای شناسایی "جعل عمیق" را فریب داد.
دانشمندان در اطلاعیه خود توضیح دادند که این ورودی ها تصاویر دستکاری شده ای هستند که می توانند سبب اشتباه سیستم های هوش مصنوعی شوند. اغلب آشکارسازها با ردیابی چهره در فیلمها و ارسال داده های برشی از چهره به یک شبکه عصبی کار می کنند. فیلمهای جعل عمیق قانع کننده هستند، چونکه با یک کپی از چهره یک شخص واقعی دستکاری شده اند، اما سیستم ردیاب یا آشکارساز می تواند با مشاهده عناصری مانند پلک زدن که در نسخه جعل عمیق واقعی به نظر نمی رسند، صحت ویدیو را تشخیص دهد.
اما دانشمندان دریافتند که با اعمال ورودی هایی از چهره و قرار دادن آنها در هر فریم از فیلم می توان حتی پیشرفته ترین آشکارسازهای جعل عمیق را هم فریب داد. بعلاوه، روشی که آنها ابداع کردند، حتی برای فیلمهای فشرده هم کارایی دارد.
ازاین رو توسعه دهندگان چگونه می توانند آشکارسازهایی ایجاد کنند که قابل فریب دادن نباشند؟ دانشمندان سفارش می کنند از "آموزش متخاصم" استفاده گردد. در این حالت یک نمونه جعلی تطبیقی مرتباً نسخه جعلی بوجود می آورد که می تواند آشکارساز را آموزش دهد تا آشکارساز بتواند در تشخیص تصاویر غیر معتبر پیشرفت کند.
محققان در مقاله خود نوشتند: جهت استفاده از این آشکارسازهای کاربردی جعل عمیق، ما استدلال می نماییم که ارزیابی سیستم در مقابل یک دشمن تطبیقی که از همه چیز آگاه است و می خواهد این دفاع ها را خنثی کند، ضروریست.
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب