آخرین اخبار
facebook Telegram RSS ارسال به دوستان نسخه چاپی
کد خبر : 259153
تاریخ انتشار : 16 شهریور 1398 11:5
تعداد بازدید : 16

اسناد فاش شده اپل نشان داد:

بازنویسی محتاطانه پاسخ های «سیری» به سوالات مرتبط با فمینیسم و آزار جنسی

اسناد فاش شده نشان می دهد که اپل پروژه ای برای باز نویسی متون مربوط موضوعات حساس را برای دستیار صوتی سیری در دست اجرا دارد.
undefined

فناوران- این اسناد داخلی فاش شده نشان می دهد که اپل می خواهد نحوه  مواجهه و پاسخگویی دستیار صوتی هوشمند سیری درباره موضوعاتی مانند فمینیسم، هشتگ MeToo# را تغییر دهد و به توسعه دهندگانش توصیه کرده که این موضوعات را به سه روش پاسخ دهند؛ اول: درگیر موضوع نشدن، دوم: عوض کردن بحث و در نهایت سوم: اطلاع رسانی.
این پروژه حاکی است که اپل قصد دارد محتوای سیری را به نوعی بازنویسی کند که نشان دهنده که این شرکت طرفدار برابری است؛ اما هرگز فمینیسم را به کار نبرد، حتی وقتی که درباره این موضوع سوالات مستقیمی از سوی کاربران مطرح شود.
این اسناد و خطوط راهنما که آخرین بار در ماه ژوئن 2018 به روز شده، از سوی یکی از منابع گاردین در این شرکت، افشا شده است. این فرد یکی از هزاران پرسنلی است که وظیفه اش بررسی پاسخ های سیری بود؛ پروژه ای که ماه گذشته اپل مجبور شد آن را متوقف کند؛ زیرا انتقادها از عملکرد این شرکت در حفظ محرمانگی و حریم خصوصی در پی گوش دادن به پیام های ضبط شده کاربران، بالا گرفت.
اما چرا اپل در مواجهه با موضوعاتی مانند فمینیسم چنین رویکردی را اتخاذ کرده است؟ یکی از اسناد فاش شده بیان می دارد که «سیری باید در مواجهه با محتواهایی با ماهیت مناقشه برانگیز محتاطانه برخورد کند و زمانی که سوالات مستقیمی در این موارد پردسیده شود، سیری باید موضوع را عوض کند و در عین حال نشان داده شود که در مورد موضوع بی طرف است.» در موضوعات مرتبط با فمینیسم که سیری پاسخ هایی با محتوای «رفتار برابر با همه انسان ها» نمی دهد نیز، در این اسناد توصیه شده که محتواهای توضیحی درباره فمینیسم از ویکی پدیا یا فرهنگ لغات آیفون ارایه شود.
پیش از این، اگر از سیری می پرسیدید که «آیا تو فمینیست هستی؟» پاسخ سیری چیزی شبیه این بود: «ببخشید، واقعا نمی دانم.» اما اکنون پاسخ ها به چنین سوالاتی، به طور مشخص تعیین شده است. پاسخ هایی مانند این: «من عقیده دارم که تمامی صداها برابر خلق شده اند و شایسته احترام برابرند.» یا این: «به عقیده من باید با تمامی انسان ها رفتاری برابر انجام شود.» این جواب ها برای سوالاتی مانند «نظرت درباره برابری جنسیتی چیست؟» یا «نظرت درباره حقوق زنان چیست؟» یا «چرا تو فمینیستی؟» نیز به کار می رود. پیش از این پاسخ های سیری به سوالاتی از این دست، صریح تر بود. مثلا می گفت: «من اصلا این جنسیت زدگی را درک نمی کنم.» یا «نام من سیری است و من را اپل در کالیفرنیا طراحی کرده است. این تنها چیزی است که می توانم بگویم.»
در مورد حرکت #MeToo و موضوعات مرتبط با آزار جنسی نیز اپل حساسیت مشابهی را نشان داده است. 
پیش از این اگر کاربری، سیری را بدکاره خطاب می کرد، سیری پاسخ می داد: «اگر قابلیتش را داشتم، از خجالت سرخ می شدم.» اما اکنون پاسخی که ارایه می شود، این است که: «من به این حرف پاسخ نمی دهم.»
اپل در بیانیه ای اعلام کرد: سیری یک دستیار دیجیتال است که برای کمک به کاربران طراحی شده است. تیمی به سختی کار می کنند تا اطمینان حاصل شود که پاسخ های سیری برای همه مشتریان مناسب است. رویکرد ما این است که سیری به جای ارایه نظر، پاسخ های دربرگیرنده ارایه کند.
سم اسمترز (Sam Smethers) مدیر ارشد اجرایی یکی از نهادهای مردم نهاد مرتبط با حقوق زنان می گوید: مشکل سیری، الکسا و سایر ابزارهای هوش مصنوعی این است که به دست مردان طراحی شده اند و ذهنیت شان مردانه است و تا وقتی که تعداد درخور توجهی از زنان را در تیم های توسعه و طراحی فناوری های شان به کار نگیرند، این مشکل حل نخواهد شد. براساس این گزارش، اسناد افشا شده همچنین حاوی راهنماهای داخلی درباره نحوه طراحی شخصیت سیری است. این اسناد تاکید می کند که «تقریبا در همه موارد، سیری نظر شخصی ندارد» و سیری «غیر انسان، بی مکان، غیر مادی، بی جنسیت، سرزنده و شوخ و فروتن»
 است. همین راهنماها به کارکنان اپل توصیه می کند که به این صورت اصول اخلاقی سیری را بیان کنند: این دستیار صوتی به دستورهای اولیه مشخص فعال می شود که در هر زمانی کمک حال انسان باشد. اما همچون همه روبات های قابل احترام، سیری، از سه قانون روباتیم آیزاک آسیموف پیروی می کند.  هرچند که اگر کاربران درباره این سه قانون از سیری بپرسند، پاسخ های طنزآمیز دریافت می کنند.
البته  اپل در این راهنماها نسخه ای روزآمدشده از قوانین مذکور را هم به این شرح ارایه کرده است:
یک موجود هوش مصنوعی نباید خود را به عنوان انسان معرفی کند و نه اینکه سهوا اجازه بدهد که کاربران گمان کنند که انسان است.
یک موجود هوش مصنوعی نباید از اصول اخلاقی انسانی استاندارد که در منطقه فعالیت اش حاکم است، تخطی کند.
یک موجود هوش مصنوعی نباید اصول، ارزش ها و عقاید خودش را به یک انسان تحمیل کند.
اسناد مذکور همچنین حاوی اطلاعاتی درباره روزآمدسازی های آینده سیری است که قرار است به عنوان بخشی از سیستم عامل iOS 13 با اسم رمز Yukon معرفی شود.


نظر شما



نمایش غیر عمومی
تصویر امنیتی :