ژنراتورهای چهره تقلبی هوش مصنوعی را می توان دوباره بازسازی کرد تا چهره واقعی آنها آموزش داده شود

[ad_1]

کوتتس می گوید ، با این حال ، فرض بر این است که می توانید بر داده های آموزشی کنترل داشته باشید. او و همکارانش در انویدیا روش دیگری را برای افشای داده های خصوصی ، از جمله تصاویر چهره ها و اشیاء دیگر ، داده های پزشکی و غیره ، بدون نیاز به دسترسی به داده های آموزشی ارائه کرده اند.

در عوض ، آنها الگوریتمی را توسعه داده اند که می تواند داده های نشان داده شده توسط مدل آموزش دیده را با تغییر مسیرهایی که مدل در حین پردازش آن داده است ، دوباره ایجاد کند. از یک شبکه آموزش دیده برای تشخیص تصویر استفاده کنید: برای شناسایی آنچه در تصویر است ، شبکه آن را از طریق یک سری لایه های نورون های مصنوعی عبور می دهد. هر لایه سطوح مختلفی از اطلاعات را ترسیم می کند ، از لبه ها تا اشکال تا ویژگی های قابل تشخیص.

تیم کاوتس دریافتند که می توانند در میانه این مراحل یک مدل را قطع کرده و جهت آن را معکوس کرده و تصاویر ورودی را از داده های داخلی مدل بازآفرینی کنند. آنها این تکنیک را بر روی مدلهای رایج تشخیص تصویر و GAN ها آزمایش کردند. در یک آزمایش ، آنها نشان دادند که می توانند تصاویر را از Imagineet ، یکی از شناخته شده ترین مجموعه داده های تشخیص تصویر ، به طور دقیق بازتولید کنند.

تصاویر در ImageNet (بالا) همراه با سرگرمی تصاویر ایجاد شده با چرخاندن عقب مدل های آموزش دیده در ImageNet

NVIDIA

مانند آثار وبستر ، تصاویر بازآفرینی شده بسیار شبیه تصاویر واقعی هستند. کوتس می گوید: “ما از کیفیت شگفت زده شدیم.”

محققان معتقدند که این نوع حمله فقط خیالی نیست. تلفن های هوشمند و دیگر دستگاه های کوچک شروع به استفاده بیشتر از هوش مصنوعی کرده اند. به دلیل کمبود باتری و حافظه ، بعضی اوقات مدل ها تنها نیمی از دستگاه را پردازش می کنند و برای آخرین خرابی رایانه به ابر ارسال می شوند ، که محاسبه تقسیم نامیده می شود. اکثر محققان فرض کرده اند که محاسبه تقسیم اطلاعات خصوصی را در تلفن شخص نشان نمی دهد زیرا فقط مدل به اشتراک گذاشته شده است. اما حمله او نشان می دهد که اینطور نیست.

کائوتس و همکارانش اکنون در حال یافتن راهی برای جلوگیری از نشت اطلاعات خصوصی مدل ها هستند. او می گوید ما می خواستیم خطرات را درک کنیم تا بتوانیم ناامنی را کاهش دهیم.

اگرچه آنها از تکنیک های بسیار متفاوتی استفاده می کنند ، اما او فکر می کند که کار او و وبستر مکمل یکدیگر هستند. تیم وبستر نشان داد که داده های خصوصی را می توان در خروجی یک مدل یافت. تیم کائوتز نشان داد که داده های خصوصی را می توان با معکوس کردن ، ایجاد مجدد ورودی نشان داد. کوتس می گوید: “برای درک بهتر نحوه جلوگیری از حملات ، نگاه به هر دو جهت مهم است.”

[ad_2]

Jamiya Calhoun

دوستدار فرهنگ پاپ به طرز خشمگینانه ای فروتن. نینجاهای شبکه های اجتماعی بی عذرخواهی طرفدار الکل دردسر ساز.

تماس با ما