اصول طراحی برای هوش مصنوعی اخلاقی - بخش دوم

 

 

Human values in the loop
Design principles for ethical AI

 

 Human values in the loop Design principles for ethical AI

 

 

۲- عدالت: رفتار منصفانه با مردم

عدالت یکی دیگر از اصول اخلاقی بنیادین است که به‌طور مکرر در بیانیه‌های اخلاقی هوش مصنوعی دیده می‌شود. در تحلیل ETH زوریخ، این اصل مجموعه‌ای از مفاهیم زیر را در بر می‌گیرد:

  • شمول (inclusion
  • برابری (equality
  • تنوع (diversity
  • قابلیت بازگشت (reversibility
  • جبران (redress
  • امکان به چالش کشیدن (challenge
  • دسترسی و توزیع (access and distribution
  • منافع مشترک (shared benefits)
  • و رفاه مشترک (shared prosperity).

بخش عمده‌ای از گفت‌وگو پیرامون عدالت در ارتباط با هوش مصنوعی، بر «انصاف الگوریتمی» (algorithmic fairness) متمرکز است—ایده‌ای که می‌گوید الگوریتم‌های هوش مصنوعی باید عادلانه، بدون سوگیری، و برابر با افراد رفتار کنند.

اما «عادلانه بودن» یک الگوریتم دقیقاً به چه معناست؟

 

تمایز بین مفاهیم «عدالت فرآیندی» (procedural fairness) و «عدالت توزیعی» (distributive fairness) مفید است.

  • یک سیاست (یا الگوریتم) زمانی عدالت‌مند فرآیندی تلقی می‌شود که مستقل از نتایجی که ایجاد می‌کند، عادلانه باشد. عدالت فرآیندی با مفهوم قانونی «دادرسی عادلانه» (due process) مرتبط است.
  • یک سیاست (یا الگوریتم) زمانی عدالت‌مند توزیعی نامیده می‌شود که نتایج عادلانه‌ای ایجاد کند.

بیشتر فیلسوفان اخلاق، دیدگاه توزیعی نسبت به عدالت دارند، در حالی که عدالت فرآیندی تا حد زیادی بر اساس نتایجی که تولید می‌کند سنجیده می‌شود. از سوی دیگر، مطالعات روان‌شناسان اجتماعی و اقتصاددانان رفتاری نشان داده است که مردم اغلب به دیدگاه فرآیندی تمایل دارند و در برخی موارد، بیشتر به اینکه با آن‌ها به‌طور عادلانه رفتار شود اهمیت می‌دهند تا به نتایجی که تجربه می‌کنند.

 

 

۲-۱- موضوعات عدالت فرآیندی: ارتقای رفتار منصفانه (Procedural Fairness: Promote Fair Treatment)

  • سوگیری الگوریتمی (Algorithmic bias)،
  • رفتار عادلانه (Equitable treatment)،
  • ثبات (Consistency).

 

نمونه‌ها

  • نرم‌افزار تشخیص چهره که چهره‌های افراد با پوست تیره را به همان دقت چهره‌های افراد با پوست روشن شناسایی می‌کند.
  • جست‌وجوهای اینترنتی که از تقویت سوگیری‌های ضمنی اجتماعی جلوگیری می‌کنند.

 

اگرچه الگوریتم‌های هوش مصنوعی اغلب به دلیل عدم عدالت توزیعی مورد انتقاد قرار می‌گیرند، بسیاری از این بحث‌ها به‌طور ضمنی به عدالت فرآیندی نیز اشاره دارند. برای مثال، برخی منتقدان بر این باورند که دادن نام‌ها و صداهای زنانه به دستیارهای دیجیتال می‌تواند سوگیری‌های اجتماعی را تقویت کند. نمونه‌های رایج به مواردی اشاره دارند که در آن‌ها سوگیری‌های اجتماعی در داده‌های به‌کار رفته برای آموزش الگوریتم‌ها بازتاب یافته است، مثلا جست‌وجو برای واژه «مدیرعامل» (CEO) ممکن است تصاویر نامتناسبی از مردان سفیدپوست ارائه دهد، و سیستم‌های تشخیص چهره نشان داده‌اند که هنگام شناسایی افراد با پوست تیره، دقت کمتری دارند.

واضح است که خروجی‌های الگوریتم‌هایی از این دست می‌توانند از نظر عدالت توزیعی ناعادلانه باشند، زیرا ممکن است نتایج جانبدارانه‌ای ایجاد کنند: مانند این که مردان سفیدپوست تعداد نامتناسبی از شغل‌های پردرآمد را به دست آورند، یا نرخ تصادف خودروهای خودران برای عابران با پوست تیره به دلیل عملکرد ضعیف نرم‌افزار در شناسایی آن‌ها افزایش یابد.
اما حتی اگر نتایج را کنار بگذاریم، چنین الگوریتم‌هایی می‌توانند بر احساس بسیاری از افراد نسبت به عدالت فرآیندی تأثیر بگذارند. برای مثال، وب‌کم‌هایی که در شناسایی چهره‌های افراد با پوست تیره مشکل دارند، یا جست‌وجوهای اینترنتی برای «مدیرعامل» که عمدتاً تصاویر مردان را نمایش می‌دهند، فارغ از تأثیرات آن‌ها بر عملکرد یا پیشرفت شغلی افراد ممکن است ذاتاً غیرقابل قبول تلقی شوند.

 

 

۲-۲- موضوعات عدالت توزیعی: ارتقای نتایج عادلانه (Distributive Fairness: Promote Equitable Outcomes)

  • منافع مشترک (Shared benefits)،
  • رفاه مشترک (Shared properity)،
  • نتایج تصمیم‌گیری عادلانه (Fair decision outcomes).

 

نمونه‌ها

  • پرداختن به نابرابری فزاینده ناشی از تغییرات محیط کار به‌سبب فناوری.
  • جلوگیری از سوگیری‌های الگوریتمی که منجر به ناعادلانه بودن تصمیمات در استخدام یا آزادی مشروط می‌شوند.

 

پرداختن به چنین مسائلی معمولاً مستلزم آن است که روش‌های آماری مورد استفاده برای ایجاد سیستم‌های الگوریتمی، شامل تأملات اخلاقی مناسب باشند. به نکته‌ای که پیش‌تر مطرح شد توجه کنید: الگوریتم‌های یادگیری ماشین تنها تا حدی قابل اعتماد هستند که روی مجموعه داده‌های مناسب آموزش دیده باشند. برای بسیاری از کاربردها، مطلوب است که الگوریتم روی داده‌هایی آموزش ببیند که بازتاب‌دهنده وضعیت واقعی جهان باشند. برای مثال، برای پیش‌بینی دقیق فروش، الگوریتم باید با داده‌هایی کار کند که نماینده جمعیت مشتریان بالقوه باشد.

اما اگر بازتاب دقیق جهان همان‌گونه که هست، به معنای تداوم یک وضعیت ناعادلانه باشد چه؟

در چنین شرایطی، تمایل به عدالت و انصاف می‌تواند انگیزه‌ای برای ساخت نمونه‌های آموزشی باشد که بازتاب‌دهنده قضاوت‌ها درباره آنچه جهان باید باشد باشد — یک انتخاب تحت تأثیر اخلاق.

 

همان‌طور که علم داده باید شامل تأملات اخلاقی باشد، تأملات اخلاقی نیز باید از علم داده دقیق و موشکافانه بهره‌مند شوند. موجی از تحقیقات مهم پس از تحقیقی توسط ProPublica در سال ۲۰۱۶ شکل گرفت که نشان داد الگوریتمی پرکاربرد برای پیش‌بینی احتمال بازگشت به جرم (recidivism)، نرخ مثبت کاذب بسیار بالاتری برای افراد سیاه‌پوست نسبت به افراد سفیدپوست دارد. به طور شهودی، این تفاوت ممکن است به نظر کاملاً غیرقابل قبول برسد. اما اگر (۱) نرخ پایه کلی بازگشت به جرم برای افراد سیاه‌پوست بالاتر از افراد سفیدپوست باشد و (۲) الگوریتم «توازن پیش‌بینی» (predictive parity) را نشان دهد، به این معنا که نمره بالا تقریباً همان احتمال بازگشت به جرم را نشان می‌دهد، نرخ بالاتر misclassification برای افراد سیاه‌پوست یک ضرورت ریاضی است.

این نتیجه نمایانگر مجموعه‌ای رو به رشد از پژوهش‌ها است که به موازنه‌های ریاضیاتی اجتناب‌ناپذیر در دیدگاه‌های مختلف نسبت به «عدالت» الگوریتمی اشاره می‌کنند. یک موضوع نوظهور این است که، همانند مسئله تأثیر (impact), ارزیابی «عدالت» یک الگوریتم اغلب مستلزم سنجش موازنه‌ها است، نه گرفتن یک تصمیم باینری (درست یا نادرست).

 

نکته‌ی دیگری که باید مورد توجه قرار گیرد این است که بحث‌ها درباره عدالت الگوریتمی باید تنها به کاستی‌های پیش‌بینی‌های ماشینی محدود نشود، بلکه به کاستی‌های تصمیم‌گیری‌های انسانی نیز بپردازد. اقتصاددان رفتاری، سندیل مولای‌ناتان، اشاره می‌کند که:

همان کاربردهایی که مردم بیشترین نگرانی را درباره سوگیری الگوریتمی دارند، دقیقاً همان موقعیت‌هایی هستند که الگوریتم‌ها—اگر به‌درستی طراحی و اجرا شوند—بیشترین پتانسیل را برای کاهش تأثیر سوگیری‌های ضمنی انسانی دارند.

 

برای مثال، استخدام حوزه‌ای است که به‌خاطر آسیب‌پذیری در برابر سوگیری‌های ناخودآگاه شناختی معروف است و این سوگیری‌ها ممکن است بر اینکه در نهایت چه کسی شغل را به دست آورد تأثیر بگذارند. یک مطالعه میدانی شناخته‌شده در ایالات متحده، که مولای‌ناتان در آن همکاری داشت، نشان داد که رزومه‌های شبیه‌سازی‌شده با نام‌هایی که بار معنایی سیاه‌پوستی داشتند، به‌طور قابل توجهی مصاحبه‌های کمتری نسبت به رزومه‌های مشابه با نام‌هایی که بار معنایی سفیدپوستی داشتند، جذب کردند. در مقابل، کتاب Moneyball نوشته مایکل لوئیس نشان می‌دهد که الگوریتم‌های به‌درستی طراحی‌شده می‌توانند در پیش‌بینی اینکه چه کسی بیشترین احتمال موفقیت در شغل را دارد، از شهود انسانی بدون کمک، عملکرد بهتری داشته باشند.

 

آموزش ساده‌لوحانه الگوریتم‌های یادگیری ماشین بر اساس «نمونه‌های راحتی» (convenience samples) از داده‌ها می‌تواند به‌طور بالقوه سوگیری‌های انسانی موجود در داده‌ها را رمزگذاری و تقویت کند. در عین حال، نکته مولای‌ناتان این را نشان می‌دهد که صرفاً اجتناب از استفاده از الگوریتم‌ها نیز می‌تواند از نظر اخلاقی مسئله‌ساز باشد. برخلاف تصمیمات انسانی، پیش‌بینی‌های ماشینی در طول زمان ثابت هستند و فرضیات آماری و قضاوت‌های اخلاقی به‌کار رفته در طراحی الگوریتم می‌توانند به‌طور شفاف مستند شوند. بنابراین، پیش‌بینی‌های ماشینی را می‌توان به‌طور سیستماتیک بررسی، مورد بحث قرار داد و بهبود بخشید—امری که در مورد تصمیمات انسانی امکان‌پذیر نیست.

 


 

 

۳- خودمختاری: احترام به انسانیت و اختیار فردی (Autonomy: Respecting humanity and self-determination)

به‌طور ساده، خودمختاری توانایی افراد برای اتخاذ تصمیمات شخصی است. دایره‌المعارف فلسفه استنفورد تعریف کمی گسترده‌تری ارائه می‌دهد:

خودمختاری … توانایی بودن یک «خودِ مستقل»، زندگی کردن بر اساس دلایل و انگیزه‌هایی که به‌عنوان دلایل و انگیزه‌های خود شخص پذیرفته می‌شوند و نه محصول نیروی خارجی دست‌کاری‌کننده یا تحریف‌کننده است.

بسیاری از اصول مطرح‌شده در بیانیه‌های اخلاقی مختلف هوش مصنوعی، مانند شفافیت، قابلیت توضیح، حریم خصوصی و کرامت، را می‌توان به‌عنوان جنبه‌هایی از احترام به خودمختاری در نظر گرفت.

 

در زمینه‌های زیست‌اخلاقی، اصل خودمختاری اغلب در چارچوب آزادی افراد برای تصمیم‌گیری درباره دریافت درمان‌های پزشکی یا مشارکت در مطالعات پزشکی به کار گرفته می‌شود. کاربرد این اصل در زمینه هوش مصنوعی شاید به همان اندازه روشن باشد. هنگامی که انسان‌ها از سیستم‌های خودکار استفاده می‌کنند، آن‌ها دست‌کم به‌طور موقت بخشی از خودمختاری خود (قدرت تصمیم‌گیری) را به ماشین‌ها واگذار می‌کنند. با این حال، سیستم‌های خودکار می‌توانند به کاربران انسانی نشانه‌هایی ارائه دهند که نشان دهد چه زمانی بهتر است بخشی از خودمختاری خود را واگذار کنند و همچنین امکان لغو تصمیم سیستم در نقاط مناسب را فراهم کنند.

 

واگذاری بخشی از خودمختاری به یک ماشین هوشمند لزوماً یک مشکل اخلاقی ایجاد نمی‌کند. در واقع، گاهی انجام این کار می‌تواند انتخابی اخلاقی‌تر باشد. برای مثال، استفاده از درختان تصمیم‌گیری تشخیصی (نوعی رایج از الگوریتم‌های هوش مصنوعی مبتنی بر آمار) در اورژانس می‌تواند دقت تصمیمات تریاژ بیماران مبتلا به درد قفسه سینه را بهبود بخشد. این الگوریتم در انجام یک نوع کار خاص بسیار ماهر است که انسان‌ها عموماً در آن ضعف دارند: ترکیب عوامل خطر به روش‌های منسجم و بدون سوگیری.
از یک منظر، پزشکی که از این الگوریتم استفاده می‌کند بخشی از خودمختاری خود را واگذار می‌کند—اما از منظر عمیق‌تر، الگوریتم می‌تواند خودمختاری پزشک را تقویت کند و به‌عنوان نوعی «پروتز شناختی» یا دستیار عمل کند که به پزشک کمک می‌کند هدف بهبود درمان بیمار را بهتر محقق سازد.

 

 

خودمختاری نیازمند قابلیت توضیح‌پذیری نیست

درخت تصمیم‌گیری پزشکی نمونه‌ای از آنچه به‌طور فزاینده «هوش مصنوعی قابل توضیح» (explainable AI) نامیده می‌شود، است: ابزارهای هوش مصنوعی که فرآیندها و نتایج آن‌ها، تا حدی قابل فهم برای کاربران انسانی هستند.
اگرچه این مدل‌ها معمولاً از الگوریتم‌های پیچیده‌تر دقت کمتری دارند، گاهی در زمینه‌های پزشکی به دلیل شفافیت نسبی و ماهیت شهودی‌شان ترجیح داده می‌شوند.
قابلیت توضیح‌پذیری را می‌توان از منظر ارتقای خودمختاری انسان نگریست: اگر الگوریتم تشخیصی آسان برای درک باشد، پزشک می‌تواند قضاوت آگاهانه‌ای درباره زمان مناسب برای اجازه دادن به الگوریتم جهت هدایت تصمیم‌گیری داشته باشد. درک بیشتر، امکان تصمیم‌گیری آگاهانه‌تر و توانایی انتخاب را فراهم می‌کند.

 

 

۳-۱- موضوعات درک و فهم: توضیح چگونگی استفاده و زمان اعتماد به هوش مصنوعی (Comprehension: Explain How to Use and When to Trust AI)

  • قابل فهم بودن (Intelligibility)،

  • شفافیت (Transparency)،
  • قابل اعتماد بودن (Trustworthiness)،
  • پاسخگویی (Accountability).

 

نمونه‌ها:

  • الگوریتم‌های هوش مصنوعی قابل توضیح که به قضات یا مدیران استخدام کمک می‌کنند تصمیمات بهتری بگیرند.
  • درک اپراتور خودرو از زمان اعتماد به فناوری راننده‌ی خودکار.
  • ابزار مبتنی بر هوش مصنوعی که به تصمیم‌گیرندگان اطلاع می‌دهد چه زمانی تحت تأثیر «سقلمه» (nudge) قرار گرفته‌اند.
  • چت‌باتی که خود را به‌عنوان یک انسان واقعی جا نزند.


 

متأسفانه، بسیاری از انواع هوش مصنوعی، مانند الگوریتم‌های تصمیم‌گیری پزشکی مبتنی بر یادگیری عمیق یا الگوریتم‌های به‌کاررفته در خودروهای نیمه‌خودران، شفافیت یا قابلیت تفسیر مشابهی ارائه نمی‌دهند. ارائه توضیحات «چرا» همراه با الگوریتم‌های پیش‌بینی جعبه‌سیاه، حوزه‌ای در حال پژوهش است. اما وضعیت فعلی فناوری به گونه‌ای است که دست‌یابی به توضیح‌پذیری کامل همیشه هدفی واقع‌بینانه نیست. با این حال، این مسئله لزوماً زنگ خطر اخلاقی ایجاد نمی‌کند: توضیح‌پذیری ممکن است همیشه ضروری یا حتی مطلوب نباشد. در سناریوهای کم‌اهمیت مانند توصیه‌های محصول، تقاضای چندانی برای توضیح پشت خروجی‌های الگوریتمی وجود ندارد. و در سناریوهای پر اهمیت، دقت اضافی ارائه‌شده توسط الگوریتم‌های پیچیده ممکن است بر تمایل به شفافیت و توضیح‌پذیری اولویت داشته باشد. این نمونه دیگری است از یک موازنه اخلاقی که باید مورد بررسی و تأمل قرار گیرد.

 

در سناریوهایی که شامل الگوریتم‌های بسیار پیچیده هستند، مفهوم قابل اعتماد بودن (trustworthiness) ممکن است به‌عنوان یک اصل سازمان‌دهنده مفیدتر از توضیح‌پذیری باشد. برای مثال، تعداد کمی از رانندگان یا خلبانان خطوط هوایی، عملکرد درونی خودروهای نیمه‌خودران خود را به‌طور کامل درک می‌کنند. اما از طریق ترکیبی از آموزش، اطمینان حاصل شده از مقررات ایمنی، شهرت تولیدکننده در زمینه ایمنی و دانش ضمنی کسب‌شده از تجربه استفاده، کاربر یک درک عملی از شرایطی پیدا می‌کند که تحت آن‌ها می‌توان به خودرو اعتماد کرد تا هدف خود—رسیدن ایمن از نقطه A به نقطه B—را محقق سازد.

قابل توجه است که نمونه‌های اخیر تصادفات خودروهای نیمه‌خودران ناشی از سطوح غیرمجاز اعتماد به سیستم‌های کمک راننده بوده است. برای کاهش خطر تصادفات، آنچه مورد نیاز است، توضیح‌پذیری کامل نیست، بلکه داشتن یک درک عملی از شرایطی است که در آن‌ها باید به سیستم الگوریتمی اعتماد کرد یا نکرد.

 

 

استفاده از سقلمه (nudging) در خدمت خودمختاری

اکثر بحث‌ها درباره تأثیر هوش مصنوعی بر خودمختاری انسان بر نوع تصمیم‌گیری تدبیری تمرکز دارند که دانشمند شناختی دانیل کانمن آن را «سیستم ۲» یا «تفکر کند» (System 2 / thinking slow) می‌نامد، مانند تشخیص بیمار، استخدام یک کارمند، آزاد کردن متهم با وثیقه. اما فناوری‌های هوش مصنوعی می‌توانند بر تصمیم‌گیری‌های بازتابی‌تر «سیستم ۱» یا «تفکر سریع» (System 1 / thinking fast) نیز تأثیر بگذارند.
برای مثال، احتمال اینکه افراد گزینه پیش‌فرض، گزینه‌ای که با ساده‌ترین زبان ممکن توصیف شده، گزینه‌ای که در موتور جستجو اول ظاهر می‌شود یا گزینه‌ای که فکر می‌کنند افراد مشابه تمایل به انتخاب آن دارند را انتخاب کنند، به طور نامتناسبی زیاد است. به دلیل چنین تمایلات ذاتی، آنچه ریچارد تالر و کاس سانستین «معماری انتخاب» (
choice architecture) یا «سقلمه / هل دادن» (
nudging) می‌نامند، می‌تواند به طور قابل توجهی بر تصمیم‌گیری افراد تأثیر بگذارد.

مانند زمانی که آن سازمان دولتی که در استفاده از یک الگوریتم هوش مصنوعی برای شناسایی ادعاهای احتمالی تقلب در بیمه بیکاری (UI)، تصمیم گرفت به‌طور گزینشی با «سقلمه» (nudging) افراد را به رفتار صادقانه ترغیب کند، به جای اینکه صرفاً بر اساس خروجی الگوریتم، مزایا را قطع کند. استفاده از سقلمه یا هل‌های رفتاری به سازمان اجازه داد تا از آسیب غیرعمدی ناشی از محروم کردن افراد واجد شرایط از مزایای مورد نیاز جلوگیری کند.

با این حال، سقلمه کردن نیز می‌تواند پیامدهایی برای خودمختاری داشته باشد. برای مثال، مداخلات سقلمه نباید با اطلاعات نادرست افراد را فریب دهند یا به گونه‌ای آن‌ها را دستکاری کنند که برخلاف منافع خود عمل کنند. این مسئله یادآور الزامات اخلاقی برای اجتناب از «نیروهای خارجی دست‌کاری‌کننده یا تحریف‌کننده» است.

نویسندگان و کارشناسان به‌طور فزاینده‌ای نسبت به پتانسیل تهدیدکننده خودمختاری فناوری‌های هوش مصنوعی که با طراحی رفتاری ترکیب شده‌اند هشدار می‌دهند. در یک سرمقاله اخیر در مجله Scientific American، گروهی برجسته از دانشمندان چنین اظهار کردند:

برخی از پلتفرم‌های نرم‌افزاری در حال حرکت به سمت «محاسبات اقناعی» (persuasive computing) هستند. در آینده، با استفاده از فناوری‌های پیشرفته دستکاری، این پلتفرم‌ها قادر خواهند بود ما را در طول کل فرآیندهای تصمیم‌گیری هدایت کنند، چه برای اجرای فرآیندهای کاری پیچیده و چه برای تولید محتوای رایگان برای پلتفرم‌های اینترنتی، از طریق آن‌ها شرکت‌ها میلیاردها دلار درآمد کسب می‌کنند. روند از برنامه‌نویسی کامپیوترها به برنامه‌ریزی انسان‌ها تغییر می‌کند… عبارت جادویی «سقلمه‌ی بزرگ» (big nudging) است، که ترکیبی از داده‌های کلان (big data) و سقلمه کردن (nudging) است.

 

ترس کلی—و کاملاً به‌جا—این است که فناوری‌های هوش مصنوعی می‌توانند با مداخلات رفتاری ترکیب شوند تا افراد را به شیوه‌هایی دستکاری کنند که به منظور پیشبرد اهداف دیگران طراحی شده‌اند. نمونه‌هایی از این دست شامل الگوریتم‌های رفتاری همراه با پیام‌های اقناعی هستند که افراد را ترغیب می‌کنند محصولی را انتخاب کنند، به نامزد سیاسی‌ای رأی دهند، تنظیمات حریم خصوصی خود را تغییر دهند، با قراردادهای به‌اشتراک‌گذاری داده‌ها موافقت کنند، یا پیشنهادهای کاری در اقتصاد گیگ‌فناوری (gig work) را بپذیرند—چیزهایی که ممکن است اگر کنترل خود بهتری داشتند یا به اطلاعات دقیق‌تری دسترسی داشتند، انتخاب نمی‌کردند.

 

با این حال، روی دیگر قضیه این است که سقلمه کردن وقتی به‌صورت اخلاقی انجام شود، اغلب می‌تواند خودمختاری انسان را تقویت کند، نه اینکه آن را کاهش دهد. برای مثال، الگوریتم‌های هوش مصنوعی می‌توانند مداخلات رفتاری را شخصی‌سازی و هدفمند کنند که وقتی در محیط‌های دیجیتال غنی از داده‌ها تعبیه شوند، افراد را قادر می‌سازند بیشتر برای بازنشستگی پس‌انداز کنند، رفتارهای سالم‌تری داشته باشند، ایمن‌تر رانندگی کنند و مدیریت زمان و همکاری در محیط کار را مؤثرتر انجام دهند.
همان‌طور که درخت تصمیم‌گیری پزشکی با فراهم کردن امکان تصمیم‌گیری تدبیری بهتر، خودمختاری پزشکان را افزایش می‌دهد، معماری انتخاب مؤثر (
choice architecture) نیز می‌تواند افراد با عقلانیت محدود را قادر سازد تا اهداف خود را از طریق تصمیمات بازتابی یا عادتی بهبود یافته بهتر محقق کنند. در هر دو حالت، هوش مصنوعی نقش تقویت‌کننده خودمختاری دارد.

 

 

3-2- موضوعات کنترل: اجازه دادن به افراد برای اصلاح یا نادیده گرفتن هوش مصنوعی در مواقع مناسب (Control: Allow People to Modify or Override AI When Appropriate)

  • رضایت (Consent)،
  • انتخاب (Choice)،
  • تقویت توانمندی و خودمختاری انسان (Enhancing human agancy and self determination)،
  • قابلیت بازگشت خودمختاری ماشین (Reversibility of machine autonomy).

 

نمونه‌ها

  • تصمیم‌گیرندگان (مانند اپراتور خودرو) می‌توانند الگوریتمی را که آشکارا اشتباه عمل می‌کند، نادیده بگیرند یا اصلاح کنند.
  • معماری انتخاب (choice architecture) اگر گزینه پیش‌فرض تولیدشده توسط الگوریتم قابل قبول نباشد، امکان دسترسی به کل فهرست گزینه‌ها را فراهم می‌کند.

 

علاوه بر این، کاشف معماری انتخاب، کاس سانستاین، اشاره می‌کند که در بسیاری از موقعیت‌ها، محروم کردن افراد از مزایای معماری انتخاب هوشمند می‌تواند در واقع خودمختاری آن‌ها را تضعیف کند. برای مثال، هنگامی که فردی موظف به هدایت مجموعه‌ای پیچیده از گزینه‌های بهداشتی یا مزایای کارمندی است، ممکن است از الگوریتمی برای برجسته کردن یک گزینه پیش‌فرض مناسب استفاده شود (در حالی که فهرست کامل گزینه‌ها تنها با یک کلیک در دسترس است). اجتناب از چنین معماری انتخابی ممکن است فرد را مجبور کند زمان بسیار بیشتری را صرف تحقیق و بررسی این تصمیم کند، که می‌تواند توانایی او برای دنبال کردن سایر اهدافی را که مهم‌تر می‌داند، کاهش دهد. در چنین شرایطی، سانستاین بیان می‌کند که باید به افراد امکان داده شود تا گزینه «انتخاب نکردن» را انتخاب کنند.

 

به نظر می‌رسد مسئله مرکزی در این ملاحظات کنترل باشد. احترام به خودمختاری فردی مستلزم آن است که افراد آزادی داشته باشند تا تصمیمات خود را اتخاذ کنند—که به‌طور متناقضی شامل آزادی انتخاب برای پذیرفتن «سقلمه» یا هدایت شدن به روش‌هایی است که معتقدند رفاه آن‌ها را افزایش می‌دهد.

یک بار دیگر، مفهوم قابل اعتماد بودن (trustworthiness) اهمیت ویژه‌ای دارد. هنگامی که به افراد یک معماری انتخاب طراحی‌شده عمدی ارائه می‌شود، وظیفه معمار آن است که به کاربران اطلاع دهد که در واقع در حال سقلمه/هل داده شدن هستند، امکان خروج از آن (در این مورد، مشاهده فهرست کامل گزینه‌ها) را به آن‌ها بدهد، و مهم‌تر از همه، اعتماد آن‌ها را جلب کند که معمار انتخاب محیط تصمیم‌گیری را به‌گونه‌ای طراحی کرده است که به آن‌ها در دستیابی به اهدافشان کمک کند.

 

 

هوش مصنوعی اخلاقی از طریق طراحی

اغلب اخلاق به‌عنوان محدودیتی بر توانایی سازمان‌ها برای حداکثرسازی بازده سهامداران دیده می‌شود. اما ما دیدگاهی متفاوت پیشنهاد می‌کنیم:

اصول اخلاقی می‌توانند به‌عنوان معیارهای طراحی برای توسعه کاربردهای نوآورانه هوش مصنوعی‌ای عمل کنند که رفاه را افزایش و نابرابری‌ها را کاهش داده و به افراد کمک کنند اهداف خود را بهتر محقق سازند.

از این منظر، اصول تأثیرگذاری، عدالت و خودمختاری می‌توانند فناوری‌های هوش مصنوعی را به‌گونه‌ای شکل دهند که آنچه متخصصان بازاریابی، مدیریت و طراحی به ترتیب «مشتری‌مداری»، «کارمندمداری» و «انسان‌مداری» می‌نامند، تحقق یابد. توسعه فناوری‌های هوش مصنوعی قابل اعتماد که به طور ایمن و منصفانه به پیشبرد این اهداف کمک کنند، روشی کاملاً قرن بیست و یکمی برای سازمان‌ها است تا با انجام کارهای خوب، به موفقیت دست یابند.

 

پایان.

 



اصول طراحی برای هوش مصنوعی اخلاقی - بخش اول

 

 

 

 

منبع: https://www.deloitte.com/us/en/insights/topics/emerging-technologies/design-principles-ethical-artificial-intelligence.html?id=us:2sm:3li:4di6452::6di:20200711200000:disummer:3461185606:5&utm_source=li&utm_campaign=di6452&utm_content=di&utm_medium=social&linkId=93497204 

 

 

 

 

مقالات مرتبط:

 

 

 

 

۵
از ۵
۲ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.