وقتی آن تصویر پاپ فرانسیس را با یک ژاکت پفی سفید و صلیبی جواهرات دار دیدید، چه حسی داشتید، به نظر می رسید که پاپ از یک نمایش مد لباس خیابانی بیرون آمده است.
ما قبلاً دیپفیکها را دیدهایم، اما تعداد کمی این تأثیر را داشتند. و در حال حاضر، گوگل ابزاری را منتشر کرده است که از پخش بدون کنترل اینگونه تصاویرجلوگیری می کند.
Deep Mind، یک آزمایشگاه تحقیقاتی هوش مصنوعی که گوگل سالها پیش آن را به دست آورد، اخیراً از راهاندازی SynthID، یک ابزار واترمارک گذاری که به طور خاص برای شناسایی تصاویر تولید شده توسط هوش مصنوعی طراحی شده است، خبر داد.
تیم Deep Mind گفت، توانایی شناسایی محتوای تولید شده توسط هوش مصنوعی برای توانمندسازی افراد با آگاهی از زمان تعامل با رسانه های تولید شده و کمک به جلوگیری از انتشار اطلاعات نادرست بسیار مهم است.
برخلاف تکنیکهای واترمارک سنتی که اغلب به واترمارکهای قابل مشاهده یا متادیتا هایی که ممکن است گم شوند متکی هستند، Deep Mind یک واترمارک دیجیتال را در پیکسلهای یک تصویر جاسازی میکند.
بنابراین، حتی اگر تصویر را تغییر دهید – برش، تغییر اندازه، فیلترها، تنظیمات روشنایی – واترمارک باقی می ماند. چشم انسان آن را تشخیص نمی دهد، اما نرم افزار تشخیص می تواند آن را شناسایی کند.
نحوه کار کرد آن به اندازه کافی مشخص نیست؟ خوب، این تمام چیزی است که تیم مایل است در مورد فناوری به اشتراک بگذارد.
Demis Hessabis، مدیرعامل این شرکت به The Verge گفت: «هرچه بیشتر در مورد نحوه عملکرد آن فاش کنیم، هکرها و نهادهای شرور راحتتر میتوانند آن را دور بزنند.
در حال حاضر در نسخه بتا، SynthID برای کاربران Imagen (محصول Google Cloud) که از Vertex AI، یک پلت فرم یادگیری ماشین مبتنی بر سرویس ابری استفاده می کنند، در دسترس است. مشتریان قادر خواهند بود به طور مسئولانه تصاویر تولید شده توسط هوش مصنوعی را ایجاد، به اشتراک بگذارند و شناسایی کنند.
Hassabis میافزاید که این فناوری در برابر «دستکاریهای شدید تصویری» بیخطا نیست، اما پیشرفت در جهت درست است.
تیم Deep Mind در حال کار بر روی گسترش دسترسی به SynthID برای در دسترس قرار دادن آن برای اشخاص ثالث و ادغام آن در محصولات بیشتر گوگل است. این اعلامیه مدت کوتاهی پس از شرکت گوگل و شش بازیکن برتر هوش مصنوعی در نشست کاخ سفید و تعهد سرمایهگذاری در ابزارهای ایمنی هوش مصنوعی و تحقیقات برای استفاده مسئولانه منتشر شد.
در بیانیه ای، کاخ سفید از فناوری واترمارک جدید به عنوان راهی برای شرکت های هوش مصنوعی برای جلب اعتماد عمومی درخواست کرد. و طبق گزارش Verge، این نرم افزار احتمالاً به محتوای صوتی و تصویری نیز گسترش خواهد یافت.
این نشست به تلاش های دولت برای مبارزه با دیپ فیک ادامه داد. در سال 2021، کمیته وزارت امنیت داخلی و امور دولتی قانون Deepfake Task Force را تصویب کرد که دقیقاً همان چیزی است که به نظر می رسد.
در انتهای طیف، شما دیپ فیک هایی دارید که برای استایل دادن به پاپ در آخرین روندهای مد استفاده می شود. در یک پایانی تاریک، آنها می توانند به بی ثباتی سیاسی، تقلب و دستکاری سهام منجر شوند.
“در سال 2021، Adobe ائتلاف غیرانتفاعی برای منشأ و اعتبار محتوا (C2PA) را تأسیس کرد. این ائتلاف برای استاندارد کردن نحوه برچسبگذاری محتوای رسانه و مبارزه با اطلاعات نادرست وجود دارد. آنها به عنوان مهر تاییدی عمل خواهند کرد و به مصرف کنندگان نشان میدهند که asset دستکاری نشده است یا تغییر یافته است.
با توجه به رونق هوش مصنوعی، عضویت C2PA در شش ماه گذشته 56 درصد رشد کرده است. شاتر استوک در اواخر جولای اعلام کرد که پروتکل فنی C2PA را در سیستمهای هوش مصنوعی و ابزارهای خلاقیت خود از جمله هوش مصنوعی مولد تصویر ادغام میکند.
نکته اصلی: با افزایش فشار دولت، بازیگران بزرگ و کوچک هوش مصنوعی باید تلاشها را در جهت هوش مصنوعی مسئولانه در اولویت قرار دهند. چه در حال استفاده یا ایجاد ابزار باشید، نظارت بیشتری وجود خواهد داشت.