آخرین اخبار
facebook Telegram RSS ارسال به دوستان نسخه چاپی
کد خبر : 257455
تاریخ انتشار : 10 تیر 1398 13:0
تعداد بازدید : 245

جهان برای DeepNude آماده نیست

هفته گذشته عرضه یک اپلیکیشن جدید جنجالی شد؛ اپلیکیشنی که با دادن تصویری از یک زن، با استفاده از هوش مصنوعی، نسخه ای عریان از او را می ساخت و اگرچه این اپ، پس از اعتراضات بسیار حذف شد؛ اما نگرانی های تازه ای درباره سوءاستفاده از هوش مصنوعی ایجاد کرد.
undefined
آروا مهدوی*
ArwaM@

فناوران- اپلیکیشن DeepNude روز پنج شنبه گذشته غیرفعال و از بازارهای اپ حذف شد. سازنده این اپ در توییتی نوشت: ما این پروژه را برای سرگرمی کاربران چند ماه قبل ایجاد کردیم و هرگز گمان نمی کردیم که اینقدر فراگیر شود تا حدی که نتوانیم ترافیک آن را کنترل کنیم.
این توییت می افزاید: باوجود تمامی اقدامات محافظتی (واترمارک) که ما درنظر گرفتیم. وقتی 500 هزار نفر از آن استفاده کنند، امکان سوءاستفاده از آن بالا خواهد بود. دنیا هنوز برای DeepNude آماده نیست.
بله؛ دنیا هنوز برای DeepNude آماده نیست؛ اما لازم است که برای آن آماده شویم. این بار سازنده اپ دچار پشیمانی شد و وجدانش موجب شد که برنامه اش را حذف کند؛ اما از این پس شاهد ظهور پی درپی اپلیکیشن های مشابه باشیم که روز به روز بر پیچیدگی آنها افزوده می شود. لازم به یادآوری نیست که DeepNude تنها برنامه ای نیست که اجازه می دهد خلافکاران تصاویر عریان جعلی بسازند. هم اکنون نیز تصویر بسیاری از زنان، بدون اطلاع خودشان، روی تصاویر عریان یا هرزه نگارانه جعل می شود و ما تا کنون در مورد این مساله آن چنان که باید اقدامی انجام نداده ایم. ماری آن فرانکس، رییس بنیاد حقوق بشر سایبری، می گوید: زنان هم اکنون نیز با آسیب های ناشی از شی گرایی جنسی (Sexual objectification) دست به گریبانند؛ ولی مشکلات زنان بابت مشکلاتی که این گونه فناوری ها ایجاد می کند، نادیده گرفته شده است. در ماه های اخیر، نگرانی ها از فناوری جعل عمیق (DeepFake) گسترش یافته است؛ فناوری جدیدی مبتنی بر هوش مصنوعی که به کاربرانش امکان می دهد تصویر ویدیویی، صدا یا دستخط یک فرد مشهور را جعل کنند. اما آن گونه که فرانکس می گوید، عمده نگرانی ها و مباحثات به آثار منفی این فناوری برای سیاست مداران و افراد بانفوذ و مشهور معطوف است و این واقعیت نادیده گرفته می شود که انگیزه پشت بسیاری از این فناوری ها، کنترل و تحقیر زنان است. برای مثال DeepNude اجازه ساخت تصویر عریان از مردها را نمی دهد. این اپ به طور خاص روی زنان متمرکز است و حتی اگر تصویر یک مرد را به این اپلیکیشن وارد کنید؛ برای او اندام عریان زنانه جعل می کند.
آن فرانکس می افزاید: اگر شما قربانی جعل عمیق شوید؛ کار زیادی از دست تان برنمی آید. زیرا قوانین ما متناسب با فناوری پیشرفت نکرده است. از سوی دیگر، تقریبا محافظت از خود در برابر جعل عمیق غیرممکن است.
به گفته وی، برای محافظت از خود هیچ کاری نمی شود کرد؛ مگر اینکه کلا در فضای آنلاین نباشید.
اینترنت امروزه به فضایی ناامن برای زنان تبدیل شده است. بنا به گزارش سازمان عفو بین الملل، 29 درصد از زنان آمریکایی در فضای آنلاین با تهدید خشونت جنسی یا فیزیکی مواجه بوده اند. بررسی همین سازمان نشان می دهد که به طور متوسط، هر 30 ثانیه یک بار، یک توییت آزاردهنده یا حاوی توهین برای زنان ارسال می شود. در این میان، زنان سیاه پوست 84 درصد بیشتر از سفیدپوستان در معرض این توییت های آزاردهنده قرار دارند. پلتفرم های شبکه های اجتماعی هم تا کنون برای حل این مشکلات کار چندانی نکرده اند و این بی توجهی موجب شده که زنان در فضای آنلاین خود را سانسور کنند یا به کل شبکه های اجتماعی را ترک کنند.
ظهور فناوری جعل عمیق موجب خواهد شد که اینترنت به طور روز افزون برای زنان ناامن تر شود؛ مگر آنکه ما به جد به پدیده تنفر از زنان بپردازیم. ما در آستانه ورود به دورانی هستیم که زنان، قادر به ادامه حیات آنلاین نخواهند بود. 
آروا مهدوی، ستون نویس گاردین است


نظر شما



نمایش غیر عمومی
تصویر امنیتی :