وقتی سوگیری در طراحی محصول به معنای مرگ و زندگی است

 


When bias in product design means life or death

 

 

bias in product design

 

 

در دوره مطالعات دکترای خود یک رابط انسان و ربات فعال شده با صدا را برای یک سیستم رباتیک جراحی با استفاده از API تشخیص گفتار مایکروسافت طراحی کردم. اما، چون API عمدتا توسط مردان 20-30 ساله ساخته شده بود، صدای من را تشخیص نمی داد.

مجبور شدم توقع‌ام را پایین بیاورم تا بتواند کار کند. برای همین نتوانستم نتیجه‌ی کارم را شخصا ارائه دهم.

اگرچه من رابط را ساخته بودم، اما وقتی سیستم را به بازدیدکنندگان برجسته دانشگاه نشان می دادم، همیشه باید یک فارغ التحصیل مرد ارائه را رهبری می کرد، زیرا سیستم گفتار صدای آنها را تشخیص می داد اما صدای من را تشخیص نمی داد!

 

درست است که سیستم‌های تشخیص گفتار هوش مصنوعی از اوایل دهه 2000 به‌طور چشمگیری بهبود یافته‌اند، اما هنوز بسیاری از محصولات هوش مصنوعی وجود دارند که دارای این نقص‌های طراحی هستند.

 

این دقیقا چیزی است که وقتی مشتریان هدف شما را تحت تأثیر قرار می دهد مشکل ساز می شود - مانند زمانی که Hello Barbie، باربی باهوش مصنوعی Mattel، به سختی صدای کودکانی که قصد بازی با آن را داشتند تشخیص داد (این علاوه بر محتوای بسیار بحث برانگیز و حتی جنسیتی است که در عروسک برنامه ریزی شده است).

 

در حالی که Hello Barbie و تجربه هوش مصنوعی من هر دو ناامید کننده بودند، آنها به مسائل عمیق تری در تصویر بزرگتر اشاره می کنند. فقدان تنوع و فراگیری در هوش مصنوعی، و در توسعه کلی محصول، صرفاً یک نگرانی اجتماعی یا فرهنگی نیست.

یک نقطه کور در روند توسعه وجود دارد که عموم مردم را تحت تاثیر قرار می دهد. اما مادامی که برای محصولاتی که ایمنی در آنها یک شاخص مهم است اعمال شود، به مسئله ی مرگ و زندگی تبدیل می شود.

 

این بیش از یک شکایت از عدم تنوع در مهندسی است. به دلیل عواقب وخیم، صنعت باید تغییر کند، به خصوص که هوش مصنوعی به بخش بزرگی از زندگی ما تبدیل می شود.

 

 

تعصب (سوگیری‌ها) در طراحی و ایمنی خودرو

 

هر بار که سوار یک وسیله نقلیه می شوید، زندگی خود را به دست افراد مسئولی می سپارید که برای هر ویژگی، تصمیمات طراحی و مهندسی گرفته اند. و وقتی افرادی که این تصمیمات را می گیرند نیازهای شما را درک نمی کنند یا به آنها پاسخ نمی دهند، عملا زندگی شما در خطر است.

 

از لحاظ تاریخی، طراحی و توسعه محصولات خودرو تا حد زیادی توسط مردان تعریف شده است. در دهه 1960، پروتکل تست تصادف خودرو، با آدمک‌هایی مدل شده بود که بر اساس الگوی یک مرد معمولی با قد، وزن و قامت صدک 50 قرار داشتند. این بدان معنا بود که کمربندهای ایمنی برای مردان ایمن طراحی شده بودند و برای سالها خودروهایی فروخته می‌شود که تا حد زیادی برای زنان، به ویژه زنان باردار، ناایمن بودند.

در نتیجه، برای رانندگان زن تا 47 درصد بیشتر احتمال داشت که در تصادفات رانندگی آسیب جدی ببینند. خوشبختانه، این روند در حال تغییر است - در سال 2011، اولین آدمک‌های تست تصادف زن در تست ایمنی وارد شدند - اما بنیان فعلی طراحی خودروها همچنان بر روی بیش از 50 سال شیوه‌های طراحی خطرناک (سوگیری های قبلی) بنا شده است.

 

توجه به جنسیت تنها یکی از زمینه هایی است که در طراحی و مهندسی مورد بی توجه ای جدی قرار گرفته است. تعصب (سوگیری) طراحی در مورد نژاد، قومیت، طبقه اجتماعی-اقتصادی، گرایش جنسی و موارد دیگر به همان اندازه مشکل ساز هستند. به عنوان مثال (در زمان نگارش این مقاله)، سیستم بینایی رایانه‌ای گوگل، سیاه‌پوستان آمریکایی‌ها را گوریل تشخیص می‌داد، و گزارش شده است سیستم بینایی مایکروسافت افراد با پوست تیره‌تر را تشخیص نمی‌دهد. 

این درحالی است که امروزه یکی از برجسته ترین کاربردهای بینایی کامپیوتر، در خودروهای خودران است که برای شناخت و درک دنیای اطراف خود به این سیستم ها متکی هستند. اگر این سیستم ها افراد از هر نژاد را به عنوان انسان تشخیص ندهند، پیامدهای ایمنی جدی وجود خواهد داشت!

امیدوارم هرگز در آینده ای زندگی نکنیم که اتومبیل های خودران بیشتر به یک گروه نژادی ضربه بزنند یا زندگی برخی نژادها را بر دیگر نژادها در اولویت قرار دهند.
متأسفانه، هنگامی که یک گروه همگن در حال طراحی و مهندسی اکثریت قریب به اتفاق فناوری هستند، آنها آگاهانه و یا ناخودآگاه تعصبات خود را منتقل می کنند.

 

 

مشکل فراگیری گسترده

 

فراتر از حمل و نقل، ما برای نیازهای اولیه مانند غذا، ارتباطات، آموزش و بسیاری موارد دیگر به فناوری متکی هستیم. برای اینکه ما در جامعه ای برابر زندگی کنیم، فناوری ما باید در خدمت همه بخش ها باشد و به طور یکسان رفتار کند.

بیایید اذعان کنیم که امروزه تنوع و مشکلات گسترده ای در زمینه هوش مصنوعی وجود دارد. با یک جستجوی سریع در گوگل می‌توان  موارد ناامید کننده ای را کشف کرد که در آنها هوش مصنوعی به طور آشکار علیه یک گروه تبعیض قائل شده است، از جمله:

Tay مایکروسافت، یک چت ربات "نوجوان" هوش مصنوعی که از تعاملات می آموخت. طی 24 ساعت پس از قرار گرفتن در معرض عموم، تای شخصیتی نژادپرست، جنسیت‌گرا و همجنس‌گرا هراسی به خود گرفت و مجبور شدند برای مدت نامعلومی او را مرخص کنند!

 

Apple HealthKit، که ردیابی تخصصی مانند مصرف سلنیوم و مس را فعال می کرد، اما از گنجاندن ردیاب پریود زنان تا iOS 9 غافل بود.

 

مطالعه‌ای که توسط دانشگاه لنکستر انجام شد، به این نتیجه رسید که موتور جستجوی گوگل یک اتاق پژواک برای کلیشه‌های منفی در مورد نژاد، قومیت و جنسیت ایجاد می‌کند. در زمان نگارش این مقاله وقتی کلمات «آیا زنان…» را در گوگل تایپ کردم، گزینه‌های تکمیل خودکار آن عبارت بودند از: «…یک اقلیت»، «...شر»، «...مجاز در جنگ» یا، آخرین و نه کم اهمیت ترین، «… جذب پول».

 

با وجود این اشتباهات اخیر، سیلیکون ولی به سادگی از انکار گذشته به سمت پذیرش حرکت کرده است. این خوب نیست. ما باید گام های مستقیم و عملی را در جهت تغییر فرهنگ هوش مصنوعی و ایجاد محصولاتی که برای همه اقشار جامعه ایمن هستند، برداریم. چگونه این کار را انجام دهیم؟

 

 

Safer products begin with diverse teams

 

 

محصولات ایمن تر با تیم های متنوع شروع می شود

 

مطالعه‌ی اخیر توسط Paysa نشان داد که 68.4 درصد از افرادی که در فضای خودروهای خودران در شش ماه گذشته شغل داشتند، مرد و تنها 5.4 درصد زن بودند (26.2 درصد نامشخص هستند). از همان گروه، 42.1 درصد سفیدپوست، 36.2 درصد آسیایی و 21.6 درصد نامشخص بودند. حتی با وجود داده های نامشخص، این اعداد تصویری از کمبود شدید تنوع در فضایی را نشان می دهند که ایمنی میلیون ها نفر را تحت تاثیر قرار می دهد.

 

در حالی که یک بخش می تواند سطح مشخصی از همدلی را هنگام توسعه محصولات برای دیگران داشته باشد، ما بارها و بارها شاهد بوده ایم که چگونه داشتن یک تیم همگن می تواند منجر به طراحی های مغرضانه (دارای سوگیری) نسبت به آن گروه خاص شود.

 

وسوسه انگیز است که فکر کنیم حجم عظیم داده های موجود می تواند مشکل را حل کند. اما متاسفانه اینطور نیست. این الگوریتم‌ها با مقایسه یک مدل داده با مدل‌های مشابه گذشته کار می‌کنند - و برای کشف زمینه مناسب برای یک مدل داده خاص، نیاز به دوز سالمی از قضاوت انسانی است. تیم های مهندسی نقش مهمی در تعریف این مدل ها و در نتیجه فناوری حاصل از آن دارند.

حتی خوش‌نیت‌ترین توسعه‌دهندگان نیز می‌توانند به سادگی از دیدگاه محدود خود و اینکه چگونه ممکن است ناخودآگاه بر محصولاتی که ایجاد می‌کنند تأثیر بگذارد، بی‌اطلاع باشند. برای مثال، مردان سفید پوست اغلب حضور و تأثیر اقلیت ها را دست بالا می گیرند.

 

موسسه جینا دیویس در بررسی جنسیت در رسانه دریافته است که مردان سفیدپوست که جمعیتی با 17 درصد زنان را مشاهده می‌کنند، آن را 50-50 توصیف کرده‌اند و هنگامی که 33 درصد از جمعیت زنان بودند، آن را با اکثریت زنان بیان کردند. یک تخمین بیش از حد ساده مانند این نشان می دهد که دیدن جهان از منظر دیگری چقدر می تواند دشوار باشد.

 

البته که مهندسی نرم افزار، به ویژه در فضای نوپای خودروهای خودران، یک مسیر شغلی پردرآمد است، پس بسیاری از گروه های اقلیت نیز باید از چنین فرصت هایی برخوردار شوند. با این حال، دلیل مهم‌تری برای کار گروه‌های اقلیت در زمینه رانندگی خودروهای خودران وجود دارد - فرصتی برای طراحی محصولاتی که به طور مساوی بر زندگی میلیون‌ها نفر از افراد مختلف تأثیر می‌گذارد و آن را بهبود می‌بخشد.

 

من همه شرکت‌های فناوری را تشویق می‌کنم که ابتدا به وضعیت فعلی تنوع در تیم‌های مهندسی، محصول و رهبری خود آگاه و نسبت به آن صادق باشند. سپس، معیارها و اهداف قابل ردیابی را سه ماهه به سه ماه تنظیم کنند. زیرا مهم است که الزامات از همان روز اول آماده و  و در حین توسعه شرکت و محصول، در برنامه گنجانده شوند.

فقدان تنوع در هوش مصنوعی صرفاً یک نگرانی اجتماعی یا فرهنگی نیست.بلکه مسئله مرگ و زندگی است. برای ساختن محصولات ایمن‌تر که ارزش برابر و انسانیت همه مردم را به رسمیت می‌شناسد، ابتدا باید دیدگاه‌ها و صداهای متنوعی از یک تیم متنوع داشته باشیم. من باور ندارم که استخدام نامزدهای اقلیت سخت تر از ساخت خودروهای خودران است.


 

 

 

نویسنده: Carol E. Reiley یکی از بنیانگذاران و رئیس Drive.ai است. او قبلا آزمایشگاه Tinkerbelle را تاسیس کرده بود.

 

۵
از ۵
۴ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.