دیپ فیك بس است!

دیپ فیك بس است!

به گزارش گوپا شرکت ˮفیسبوکˮ سیستم جدیدی برای تشخیص فناوری ˮدیپ فیکˮ(Deepfake) یا همان ˮجعل عمیقˮ ساخته است تا با استفاده از یک روش مهندسی معکوس بتواند استفاده از این تکنولوژی را در تصاویر مختلف تشخیص دهد.


به گزارش گوپا به نقل از ایسنا و به نقل از آی ای، در حالی که امکان دارد ما عادت کرده باشیم از فناوری معروف به "جعل عمیق" برای طیف وسیعی از کارهای نسبتاً بی ضرر استفاده شود، اما از این تکنولوژی میتوان برای ایجاد محتوای مخرب هم مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا صدمه رساندن به حرفه یک دولتمرد بهره برد.
تصاویری که مورد دستکاری "جعل عمیق" قرار می گیرند در واقع فیلمها یا تصاویر تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که می تواند کاملاً واقعی به نظر برسد. این تصاویر به قدری می توانند مخرب باشند که سال قبل ایالت کالیفرنیا استفاده از این تکنولوژی را در حوزه سیاست و پورنوگرافی ممنوع کرد.
ما به سادگی با این فناوری فریب می خوریم و آنچه را که در تصاویر می بینیم، باور می نماییم و این فناوری هم هر روز درحال بهبود یافتن است.
محققان شرکت "فیسبوک" و دانشگاه "میشیگان" برای مقابله با دست به دست شدن و انتشار ویروسی چنین تصاویر تغییر یافته ای، متد جدیدی را برای شناسایی "جعل عمیق" بوجود آورده اند که می تواند دریابد که از کدام مدل تولیدی برای ایجاد آنها استفاده شده است.
این تیم امیدوار است که این روش، ابزاری جهت بررسی بهتر انتشار اطلاعات غلط با استفاده از "جعل عمیق" بوده و همینطور راهی برای گشودن مسیرهای جدید برای تحقیقات آینده در اختیار محققان قرار دهد.
سیستم های تشخیص "جعل عمیق" از قبل هم به وجود آمده بودند، اما به علت این که این سیستم ها معمولا برای شناسایی مدلهای تولیدی خاص آموزش می بینند، بمحض این که مدل دیگری (مدلی که سیستم برای آن آموزش ندیده است) ظاهر می شود، سیستم نمی تواند بفهمد که این "جعل عمیق" از کجا آمده است.
اما سیستم جدید فیس بوک چگونه کار می کند؟ تیم سازنده تصمیم گرفت یک گام به جلو حرکت نماید و سیستم را فراتر از مجموعه محدود مدلهای عرضه شده آموزش دهد و با روش مهندسی معکوس آنرا قادر سازد تا هر نوع "جعل عمیق" را شناسایی کند.
"هاسنر" از فیس بوک اظهار داشت: روش مهندسی معکوس ما متکی به کشف الگوهای منحصر به فرد پشت مدل هوش مصنوعی است که برای تولید یک تصویر "جعل عمیق" استفاده می شود.
تیم سازنده می گوید" ما با تجزیه مدل می توانیم خصوصیات مدلهای مولد مورد استفاده برای ایجاد هر "جعل عمیق" را تخمین بزنیم و حتی چندین "جعل عمیق" را به مدلی که احتمالاً آنها را تولید کرده است، مرتبط نماییم. این سیستم اطلاعات در ارتباط با هر "جعل عمیق" را حتی آن مدل هایی که اطلاعات قبلی درباره آنها وجود نداشته است، عرضه می دهد.
این تیم سیستم خویش را با استفاده از یک مجموعه داده تصویری "جعل عمیق" متشکل از 100 هزار تصویر مصنوعی که از 100 مدل مختلف مولد در دسترس عموم ساخته شده است، آموزش داد و نتایج به صورت قابل توجهی بهتر از مدلهای تشخیصی قبلی بود.
این نوع از سیستم تشخیص "جعل عمیق" بخصوص برای سازمان های دولتی، پلیس و رسانه های اجتماعی که به شدت تلاش می کنند این اطلاعات جعلی منتشر نشود، می تواند مفید باشد.
تابحال هیچ تاریخی در مورد زمان اجرا و در دسترس عموم قرار گرفتن این سیستم به اشتراک گذاشته نشده است، اما محققان درحال کار بر روی چنین روش هایی هستند.




منبع:

1400/03/29
11:31:56
5.0 / 5
790
تگهای خبر: آینده , تحقیق , تكنولوژی , تولید
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۴ بعلاوه ۱
گوپا