Human values in the loop
Design principles for ethical AI

۲- عدالت: رفتار منصفانه با مردم
عدالت یکی دیگر از اصول اخلاقی بنیادین است که بهطور مکرر در بیانیههای اخلاقی هوش مصنوعی دیده میشود. در تحلیل ETH زوریخ، این اصل مجموعهای از مفاهیم زیر را در بر میگیرد:
- شمول (inclusion)،
- برابری (equality)،
- تنوع (diversity)،
- قابلیت بازگشت (reversibility)،
- جبران (redress)،
- امکان به چالش کشیدن (challenge)،
- دسترسی و توزیع (access and distribution)،
- منافع مشترک (shared benefits)
- و رفاه مشترک (shared prosperity).
بخش عمدهای از گفتوگو پیرامون عدالت در ارتباط با هوش مصنوعی، بر «انصاف الگوریتمی» (algorithmic fairness) متمرکز است—ایدهای که میگوید الگوریتمهای هوش مصنوعی باید عادلانه، بدون سوگیری، و برابر با افراد رفتار کنند.
اما «عادلانه بودن» یک الگوریتم دقیقاً به چه معناست؟
تمایز بین مفاهیم «عدالت فرآیندی» (procedural fairness) و «عدالت توزیعی» (distributive fairness) مفید است.
- یک سیاست (یا الگوریتم) زمانی عدالتمند فرآیندی تلقی میشود که مستقل از نتایجی که ایجاد میکند، عادلانه باشد. عدالت فرآیندی با مفهوم قانونی «دادرسی عادلانه» (due process) مرتبط است.
- یک سیاست (یا الگوریتم) زمانی عدالتمند توزیعی نامیده میشود که نتایج عادلانهای ایجاد کند.
بیشتر فیلسوفان اخلاق، دیدگاه توزیعی نسبت به عدالت دارند، در حالی که عدالت فرآیندی تا حد زیادی بر اساس نتایجی که تولید میکند سنجیده میشود. از سوی دیگر، مطالعات روانشناسان اجتماعی و اقتصاددانان رفتاری نشان داده است که مردم اغلب به دیدگاه فرآیندی تمایل دارند و در برخی موارد، بیشتر به اینکه با آنها بهطور عادلانه رفتار شود اهمیت میدهند تا به نتایجی که تجربه میکنند.
۲-۱- موضوعات عدالت فرآیندی: ارتقای رفتار منصفانه (Procedural Fairness: Promote Fair Treatment)
- سوگیری الگوریتمی (Algorithmic bias)،
- رفتار عادلانه (Equitable treatment)،
- ثبات (Consistency).
نمونهها
- نرمافزار تشخیص چهره که چهرههای افراد با پوست تیره را به همان دقت چهرههای افراد با پوست روشن شناسایی میکند.
- جستوجوهای اینترنتی که از تقویت سوگیریهای ضمنی اجتماعی جلوگیری میکنند.
اگرچه الگوریتمهای هوش مصنوعی اغلب به دلیل عدم عدالت توزیعی مورد انتقاد قرار میگیرند، بسیاری از این بحثها بهطور ضمنی به عدالت فرآیندی نیز اشاره دارند. برای مثال، برخی منتقدان بر این باورند که دادن نامها و صداهای زنانه به دستیارهای دیجیتال میتواند سوگیریهای اجتماعی را تقویت کند. نمونههای رایج به مواردی اشاره دارند که در آنها سوگیریهای اجتماعی در دادههای بهکار رفته برای آموزش الگوریتمها بازتاب یافته است، مثلا جستوجو برای واژه «مدیرعامل» (CEO) ممکن است تصاویر نامتناسبی از مردان سفیدپوست ارائه دهد، و سیستمهای تشخیص چهره نشان دادهاند که هنگام شناسایی افراد با پوست تیره، دقت کمتری دارند.
واضح است که خروجیهای الگوریتمهایی از این دست میتوانند از نظر عدالت توزیعی ناعادلانه باشند، زیرا ممکن است نتایج جانبدارانهای ایجاد کنند: مانند این که مردان سفیدپوست تعداد نامتناسبی از شغلهای پردرآمد را به دست آورند، یا نرخ تصادف خودروهای خودران برای عابران با پوست تیره به دلیل عملکرد ضعیف نرمافزار در شناسایی آنها افزایش یابد.
اما حتی اگر نتایج را کنار بگذاریم، چنین الگوریتمهایی میتوانند بر احساس بسیاری از افراد نسبت به عدالت فرآیندی تأثیر بگذارند. برای مثال، وبکمهایی که در شناسایی چهرههای افراد با پوست تیره مشکل دارند، یا جستوجوهای اینترنتی برای «مدیرعامل» که عمدتاً تصاویر مردان را نمایش میدهند، فارغ از تأثیرات آنها بر عملکرد یا پیشرفت شغلی افراد ممکن است ذاتاً غیرقابل قبول تلقی شوند.
۲-۲- موضوعات عدالت توزیعی: ارتقای نتایج عادلانه (Distributive Fairness: Promote Equitable Outcomes)
- منافع مشترک (Shared benefits)،
- رفاه مشترک (Shared properity)،
- نتایج تصمیمگیری عادلانه (Fair decision outcomes).
نمونهها
- پرداختن به نابرابری فزاینده ناشی از تغییرات محیط کار بهسبب فناوری.
- جلوگیری از سوگیریهای الگوریتمی که منجر به ناعادلانه بودن تصمیمات در استخدام یا آزادی مشروط میشوند.
پرداختن به چنین مسائلی معمولاً مستلزم آن است که روشهای آماری مورد استفاده برای ایجاد سیستمهای الگوریتمی، شامل تأملات اخلاقی مناسب باشند. به نکتهای که پیشتر مطرح شد توجه کنید: الگوریتمهای یادگیری ماشین تنها تا حدی قابل اعتماد هستند که روی مجموعه دادههای مناسب آموزش دیده باشند. برای بسیاری از کاربردها، مطلوب است که الگوریتم روی دادههایی آموزش ببیند که بازتابدهنده وضعیت واقعی جهان باشند. برای مثال، برای پیشبینی دقیق فروش، الگوریتم باید با دادههایی کار کند که نماینده جمعیت مشتریان بالقوه باشد.
اما اگر بازتاب دقیق جهان همانگونه که هست، به معنای تداوم یک وضعیت ناعادلانه باشد چه؟
در چنین شرایطی، تمایل به عدالت و انصاف میتواند انگیزهای برای ساخت نمونههای آموزشی باشد که بازتابدهنده قضاوتها درباره آنچه جهان باید باشد باشد — یک انتخاب تحت تأثیر اخلاق.
همانطور که علم داده باید شامل تأملات اخلاقی باشد، تأملات اخلاقی نیز باید از علم داده دقیق و موشکافانه بهرهمند شوند. موجی از تحقیقات مهم پس از تحقیقی توسط ProPublica در سال ۲۰۱۶ شکل گرفت که نشان داد الگوریتمی پرکاربرد برای پیشبینی احتمال بازگشت به جرم (recidivism)، نرخ مثبت کاذب بسیار بالاتری برای افراد سیاهپوست نسبت به افراد سفیدپوست دارد. به طور شهودی، این تفاوت ممکن است به نظر کاملاً غیرقابل قبول برسد. اما اگر (۱) نرخ پایه کلی بازگشت به جرم برای افراد سیاهپوست بالاتر از افراد سفیدپوست باشد و (۲) الگوریتم «توازن پیشبینی» (predictive parity) را نشان دهد، به این معنا که نمره بالا تقریباً همان احتمال بازگشت به جرم را نشان میدهد، نرخ بالاتر misclassification برای افراد سیاهپوست یک ضرورت ریاضی است.
این نتیجه نمایانگر مجموعهای رو به رشد از پژوهشها است که به موازنههای ریاضیاتی اجتنابناپذیر در دیدگاههای مختلف نسبت به «عدالت» الگوریتمی اشاره میکنند. یک موضوع نوظهور این است که، همانند مسئله تأثیر (impact), ارزیابی «عدالت» یک الگوریتم اغلب مستلزم سنجش موازنهها است، نه گرفتن یک تصمیم باینری (درست یا نادرست).
نکتهی دیگری که باید مورد توجه قرار گیرد این است که بحثها درباره عدالت الگوریتمی باید تنها به کاستیهای پیشبینیهای ماشینی محدود نشود، بلکه به کاستیهای تصمیمگیریهای انسانی نیز بپردازد. اقتصاددان رفتاری، سندیل مولایناتان، اشاره میکند که:
همان کاربردهایی که مردم بیشترین نگرانی را درباره سوگیری الگوریتمی دارند، دقیقاً همان موقعیتهایی هستند که الگوریتمها—اگر بهدرستی طراحی و اجرا شوند—بیشترین پتانسیل را برای کاهش تأثیر سوگیریهای ضمنی انسانی دارند.
برای مثال، استخدام حوزهای است که بهخاطر آسیبپذیری در برابر سوگیریهای ناخودآگاه شناختی معروف است و این سوگیریها ممکن است بر اینکه در نهایت چه کسی شغل را به دست آورد تأثیر بگذارند. یک مطالعه میدانی شناختهشده در ایالات متحده، که مولایناتان در آن همکاری داشت، نشان داد که رزومههای شبیهسازیشده با نامهایی که بار معنایی سیاهپوستی داشتند، بهطور قابل توجهی مصاحبههای کمتری نسبت به رزومههای مشابه با نامهایی که بار معنایی سفیدپوستی داشتند، جذب کردند. در مقابل، کتاب Moneyball نوشته مایکل لوئیس نشان میدهد که الگوریتمهای بهدرستی طراحیشده میتوانند در پیشبینی اینکه چه کسی بیشترین احتمال موفقیت در شغل را دارد، از شهود انسانی بدون کمک، عملکرد بهتری داشته باشند.
آموزش سادهلوحانه الگوریتمهای یادگیری ماشین بر اساس «نمونههای راحتی» (convenience samples) از دادهها میتواند بهطور بالقوه سوگیریهای انسانی موجود در دادهها را رمزگذاری و تقویت کند. در عین حال، نکته مولایناتان این را نشان میدهد که صرفاً اجتناب از استفاده از الگوریتمها نیز میتواند از نظر اخلاقی مسئلهساز باشد. برخلاف تصمیمات انسانی، پیشبینیهای ماشینی در طول زمان ثابت هستند و فرضیات آماری و قضاوتهای اخلاقی بهکار رفته در طراحی الگوریتم میتوانند بهطور شفاف مستند شوند. بنابراین، پیشبینیهای ماشینی را میتوان بهطور سیستماتیک بررسی، مورد بحث قرار داد و بهبود بخشید—امری که در مورد تصمیمات انسانی امکانپذیر نیست.
۳- خودمختاری: احترام به انسانیت و اختیار فردی (Autonomy: Respecting humanity and self-determination)
بهطور ساده، خودمختاری توانایی افراد برای اتخاذ تصمیمات شخصی است. دایرهالمعارف فلسفه استنفورد تعریف کمی گستردهتری ارائه میدهد:
خودمختاری … توانایی بودن یک «خودِ مستقل»، زندگی کردن بر اساس دلایل و انگیزههایی که بهعنوان دلایل و انگیزههای خود شخص پذیرفته میشوند و نه محصول نیروی خارجی دستکاریکننده یا تحریفکننده است.
بسیاری از اصول مطرحشده در بیانیههای اخلاقی مختلف هوش مصنوعی، مانند شفافیت، قابلیت توضیح، حریم خصوصی و کرامت، را میتوان بهعنوان جنبههایی از احترام به خودمختاری در نظر گرفت.
در زمینههای زیستاخلاقی، اصل خودمختاری اغلب در چارچوب آزادی افراد برای تصمیمگیری درباره دریافت درمانهای پزشکی یا مشارکت در مطالعات پزشکی به کار گرفته میشود. کاربرد این اصل در زمینه هوش مصنوعی شاید به همان اندازه روشن باشد. هنگامی که انسانها از سیستمهای خودکار استفاده میکنند، آنها دستکم بهطور موقت بخشی از خودمختاری خود (قدرت تصمیمگیری) را به ماشینها واگذار میکنند. با این حال، سیستمهای خودکار میتوانند به کاربران انسانی نشانههایی ارائه دهند که نشان دهد چه زمانی بهتر است بخشی از خودمختاری خود را واگذار کنند و همچنین امکان لغو تصمیم سیستم در نقاط مناسب را فراهم کنند.
واگذاری بخشی از خودمختاری به یک ماشین هوشمند لزوماً یک مشکل اخلاقی ایجاد نمیکند. در واقع، گاهی انجام این کار میتواند انتخابی اخلاقیتر باشد. برای مثال، استفاده از درختان تصمیمگیری تشخیصی (نوعی رایج از الگوریتمهای هوش مصنوعی مبتنی بر آمار) در اورژانس میتواند دقت تصمیمات تریاژ بیماران مبتلا به درد قفسه سینه را بهبود بخشد. این الگوریتم در انجام یک نوع کار خاص بسیار ماهر است که انسانها عموماً در آن ضعف دارند: ترکیب عوامل خطر به روشهای منسجم و بدون سوگیری.
از یک منظر، پزشکی که از این الگوریتم استفاده میکند بخشی از خودمختاری خود را واگذار میکند—اما از منظر عمیقتر، الگوریتم میتواند خودمختاری پزشک را تقویت کند و بهعنوان نوعی «پروتز شناختی» یا دستیار عمل کند که به پزشک کمک میکند هدف بهبود درمان بیمار را بهتر محقق سازد.
خودمختاری نیازمند قابلیت توضیحپذیری نیست
درخت تصمیمگیری پزشکی نمونهای از آنچه بهطور فزاینده «هوش مصنوعی قابل توضیح» (explainable AI) نامیده میشود، است: ابزارهای هوش مصنوعی که فرآیندها و نتایج آنها، تا حدی قابل فهم برای کاربران انسانی هستند.
اگرچه این مدلها معمولاً از الگوریتمهای پیچیدهتر دقت کمتری دارند، گاهی در زمینههای پزشکی به دلیل شفافیت نسبی و ماهیت شهودیشان ترجیح داده میشوند.
قابلیت توضیحپذیری را میتوان از منظر ارتقای خودمختاری انسان نگریست: اگر الگوریتم تشخیصی آسان برای درک باشد، پزشک میتواند قضاوت آگاهانهای درباره زمان مناسب برای اجازه دادن به الگوریتم جهت هدایت تصمیمگیری داشته باشد. درک بیشتر، امکان تصمیمگیری آگاهانهتر و توانایی انتخاب را فراهم میکند.
۳-۱- موضوعات درک و فهم: توضیح چگونگی استفاده و زمان اعتماد به هوش مصنوعی (Comprehension: Explain How to Use and When to Trust AI)
قابل فهم بودن (Intelligibility)،
- شفافیت (Transparency)،
- قابل اعتماد بودن (Trustworthiness)،
- پاسخگویی (Accountability).
نمونهها:
- الگوریتمهای هوش مصنوعی قابل توضیح که به قضات یا مدیران استخدام کمک میکنند تصمیمات بهتری بگیرند.
- درک اپراتور خودرو از زمان اعتماد به فناوری رانندهی خودکار.
- ابزار مبتنی بر هوش مصنوعی که به تصمیمگیرندگان اطلاع میدهد چه زمانی تحت تأثیر «سقلمه» (nudge) قرار گرفتهاند.
- چتباتی که خود را بهعنوان یک انسان واقعی جا نزند.
متأسفانه، بسیاری از انواع هوش مصنوعی، مانند الگوریتمهای تصمیمگیری پزشکی مبتنی بر یادگیری عمیق یا الگوریتمهای بهکاررفته در خودروهای نیمهخودران، شفافیت یا قابلیت تفسیر مشابهی ارائه نمیدهند. ارائه توضیحات «چرا» همراه با الگوریتمهای پیشبینی جعبهسیاه، حوزهای در حال پژوهش است. اما وضعیت فعلی فناوری به گونهای است که دستیابی به توضیحپذیری کامل همیشه هدفی واقعبینانه نیست. با این حال، این مسئله لزوماً زنگ خطر اخلاقی ایجاد نمیکند: توضیحپذیری ممکن است همیشه ضروری یا حتی مطلوب نباشد. در سناریوهای کماهمیت مانند توصیههای محصول، تقاضای چندانی برای توضیح پشت خروجیهای الگوریتمی وجود ندارد. و در سناریوهای پر اهمیت، دقت اضافی ارائهشده توسط الگوریتمهای پیچیده ممکن است بر تمایل به شفافیت و توضیحپذیری اولویت داشته باشد. این نمونه دیگری است از یک موازنه اخلاقی که باید مورد بررسی و تأمل قرار گیرد.
در سناریوهایی که شامل الگوریتمهای بسیار پیچیده هستند، مفهوم قابل اعتماد بودن (trustworthiness) ممکن است بهعنوان یک اصل سازماندهنده مفیدتر از توضیحپذیری باشد. برای مثال، تعداد کمی از رانندگان یا خلبانان خطوط هوایی، عملکرد درونی خودروهای نیمهخودران خود را بهطور کامل درک میکنند. اما از طریق ترکیبی از آموزش، اطمینان حاصل شده از مقررات ایمنی، شهرت تولیدکننده در زمینه ایمنی و دانش ضمنی کسبشده از تجربه استفاده، کاربر یک درک عملی از شرایطی پیدا میکند که تحت آنها میتوان به خودرو اعتماد کرد تا هدف خود—رسیدن ایمن از نقطه A به نقطه B—را محقق سازد.
قابل توجه است که نمونههای اخیر تصادفات خودروهای نیمهخودران ناشی از سطوح غیرمجاز اعتماد به سیستمهای کمک راننده بوده است. برای کاهش خطر تصادفات، آنچه مورد نیاز است، توضیحپذیری کامل نیست، بلکه داشتن یک درک عملی از شرایطی است که در آنها باید به سیستم الگوریتمی اعتماد کرد یا نکرد.
استفاده از سقلمه (nudging) در خدمت خودمختاری
اکثر بحثها درباره تأثیر هوش مصنوعی بر خودمختاری انسان بر نوع تصمیمگیری تدبیری تمرکز دارند که دانشمند شناختی دانیل کانمن آن را «سیستم ۲» یا «تفکر کند» (System 2 / thinking slow) مینامد، مانند تشخیص بیمار، استخدام یک کارمند، آزاد کردن متهم با وثیقه. اما فناوریهای هوش مصنوعی میتوانند بر تصمیمگیریهای بازتابیتر «سیستم ۱» یا «تفکر سریع» (System 1 / thinking fast) نیز تأثیر بگذارند.
برای مثال، احتمال اینکه افراد گزینه پیشفرض، گزینهای که با سادهترین زبان ممکن توصیف شده، گزینهای که در موتور جستجو اول ظاهر میشود یا گزینهای که فکر میکنند افراد مشابه تمایل به انتخاب آن دارند را انتخاب کنند، به طور نامتناسبی زیاد است. به دلیل چنین تمایلات ذاتی، آنچه ریچارد تالر و کاس سانستین «معماری انتخاب» (choice architecture) یا «سقلمه / هل دادن» (nudging) مینامند، میتواند به طور قابل توجهی بر تصمیمگیری افراد تأثیر بگذارد.
مانند زمانی که آن سازمان دولتی که در استفاده از یک الگوریتم هوش مصنوعی برای شناسایی ادعاهای احتمالی تقلب در بیمه بیکاری (UI)، تصمیم گرفت بهطور گزینشی با «سقلمه» (nudging) افراد را به رفتار صادقانه ترغیب کند، به جای اینکه صرفاً بر اساس خروجی الگوریتم، مزایا را قطع کند. استفاده از سقلمه یا هلهای رفتاری به سازمان اجازه داد تا از آسیب غیرعمدی ناشی از محروم کردن افراد واجد شرایط از مزایای مورد نیاز جلوگیری کند.
با این حال، سقلمه کردن نیز میتواند پیامدهایی برای خودمختاری داشته باشد. برای مثال، مداخلات سقلمه نباید با اطلاعات نادرست افراد را فریب دهند یا به گونهای آنها را دستکاری کنند که برخلاف منافع خود عمل کنند. این مسئله یادآور الزامات اخلاقی برای اجتناب از «نیروهای خارجی دستکاریکننده یا تحریفکننده» است.
نویسندگان و کارشناسان بهطور فزایندهای نسبت به پتانسیل تهدیدکننده خودمختاری فناوریهای هوش مصنوعی که با طراحی رفتاری ترکیب شدهاند هشدار میدهند. در یک سرمقاله اخیر در مجله Scientific American، گروهی برجسته از دانشمندان چنین اظهار کردند:
برخی از پلتفرمهای نرمافزاری در حال حرکت به سمت «محاسبات اقناعی» (persuasive computing) هستند. در آینده، با استفاده از فناوریهای پیشرفته دستکاری، این پلتفرمها قادر خواهند بود ما را در طول کل فرآیندهای تصمیمگیری هدایت کنند، چه برای اجرای فرآیندهای کاری پیچیده و چه برای تولید محتوای رایگان برای پلتفرمهای اینترنتی، از طریق آنها شرکتها میلیاردها دلار درآمد کسب میکنند. روند از برنامهنویسی کامپیوترها به برنامهریزی انسانها تغییر میکند… عبارت جادویی «سقلمهی بزرگ» (big nudging) است، که ترکیبی از دادههای کلان (big data) و سقلمه کردن (nudging) است.
ترس کلی—و کاملاً بهجا—این است که فناوریهای هوش مصنوعی میتوانند با مداخلات رفتاری ترکیب شوند تا افراد را به شیوههایی دستکاری کنند که به منظور پیشبرد اهداف دیگران طراحی شدهاند. نمونههایی از این دست شامل الگوریتمهای رفتاری همراه با پیامهای اقناعی هستند که افراد را ترغیب میکنند محصولی را انتخاب کنند، به نامزد سیاسیای رأی دهند، تنظیمات حریم خصوصی خود را تغییر دهند، با قراردادهای بهاشتراکگذاری دادهها موافقت کنند، یا پیشنهادهای کاری در اقتصاد گیگفناوری (gig work) را بپذیرند—چیزهایی که ممکن است اگر کنترل خود بهتری داشتند یا به اطلاعات دقیقتری دسترسی داشتند، انتخاب نمیکردند.
با این حال، روی دیگر قضیه این است که سقلمه کردن وقتی بهصورت اخلاقی انجام شود، اغلب میتواند خودمختاری انسان را تقویت کند، نه اینکه آن را کاهش دهد. برای مثال، الگوریتمهای هوش مصنوعی میتوانند مداخلات رفتاری را شخصیسازی و هدفمند کنند که وقتی در محیطهای دیجیتال غنی از دادهها تعبیه شوند، افراد را قادر میسازند بیشتر برای بازنشستگی پسانداز کنند، رفتارهای سالمتری داشته باشند، ایمنتر رانندگی کنند و مدیریت زمان و همکاری در محیط کار را مؤثرتر انجام دهند.
همانطور که درخت تصمیمگیری پزشکی با فراهم کردن امکان تصمیمگیری تدبیری بهتر، خودمختاری پزشکان را افزایش میدهد، معماری انتخاب مؤثر (choice architecture) نیز میتواند افراد با عقلانیت محدود را قادر سازد تا اهداف خود را از طریق تصمیمات بازتابی یا عادتی بهبود یافته بهتر محقق کنند. در هر دو حالت، هوش مصنوعی نقش تقویتکننده خودمختاری دارد.
3-2- موضوعات کنترل: اجازه دادن به افراد برای اصلاح یا نادیده گرفتن هوش مصنوعی در مواقع مناسب (Control: Allow People to Modify or Override AI When Appropriate)
- رضایت (Consent)،
- انتخاب (Choice)،
- تقویت توانمندی و خودمختاری انسان (Enhancing human agancy and self determination)،
- قابلیت بازگشت خودمختاری ماشین (Reversibility of machine autonomy).
نمونهها
- تصمیمگیرندگان (مانند اپراتور خودرو) میتوانند الگوریتمی را که آشکارا اشتباه عمل میکند، نادیده بگیرند یا اصلاح کنند.
- معماری انتخاب (choice architecture) اگر گزینه پیشفرض تولیدشده توسط الگوریتم قابل قبول نباشد، امکان دسترسی به کل فهرست گزینهها را فراهم میکند.
علاوه بر این، کاشف معماری انتخاب، کاس سانستاین، اشاره میکند که در بسیاری از موقعیتها، محروم کردن افراد از مزایای معماری انتخاب هوشمند میتواند در واقع خودمختاری آنها را تضعیف کند. برای مثال، هنگامی که فردی موظف به هدایت مجموعهای پیچیده از گزینههای بهداشتی یا مزایای کارمندی است، ممکن است از الگوریتمی برای برجسته کردن یک گزینه پیشفرض مناسب استفاده شود (در حالی که فهرست کامل گزینهها تنها با یک کلیک در دسترس است). اجتناب از چنین معماری انتخابی ممکن است فرد را مجبور کند زمان بسیار بیشتری را صرف تحقیق و بررسی این تصمیم کند، که میتواند توانایی او برای دنبال کردن سایر اهدافی را که مهمتر میداند، کاهش دهد. در چنین شرایطی، سانستاین بیان میکند که باید به افراد امکان داده شود تا گزینه «انتخاب نکردن» را انتخاب کنند.
به نظر میرسد مسئله مرکزی در این ملاحظات کنترل باشد. احترام به خودمختاری فردی مستلزم آن است که افراد آزادی داشته باشند تا تصمیمات خود را اتخاذ کنند—که بهطور متناقضی شامل آزادی انتخاب برای پذیرفتن «سقلمه» یا هدایت شدن به روشهایی است که معتقدند رفاه آنها را افزایش میدهد.
یک بار دیگر، مفهوم قابل اعتماد بودن (trustworthiness) اهمیت ویژهای دارد. هنگامی که به افراد یک معماری انتخاب طراحیشده عمدی ارائه میشود، وظیفه معمار آن است که به کاربران اطلاع دهد که در واقع در حال سقلمه/هل داده شدن هستند، امکان خروج از آن (در این مورد، مشاهده فهرست کامل گزینهها) را به آنها بدهد، و مهمتر از همه، اعتماد آنها را جلب کند که معمار انتخاب محیط تصمیمگیری را بهگونهای طراحی کرده است که به آنها در دستیابی به اهدافشان کمک کند.
هوش مصنوعی اخلاقی از طریق طراحی
اغلب اخلاق بهعنوان محدودیتی بر توانایی سازمانها برای حداکثرسازی بازده سهامداران دیده میشود. اما ما دیدگاهی متفاوت پیشنهاد میکنیم:
اصول اخلاقی میتوانند بهعنوان معیارهای طراحی برای توسعه کاربردهای نوآورانه هوش مصنوعیای عمل کنند که رفاه را افزایش و نابرابریها را کاهش داده و به افراد کمک کنند اهداف خود را بهتر محقق سازند.
از این منظر، اصول تأثیرگذاری، عدالت و خودمختاری میتوانند فناوریهای هوش مصنوعی را بهگونهای شکل دهند که آنچه متخصصان بازاریابی، مدیریت و طراحی به ترتیب «مشتریمداری»، «کارمندمداری» و «انسانمداری» مینامند، تحقق یابد. توسعه فناوریهای هوش مصنوعی قابل اعتماد که به طور ایمن و منصفانه به پیشبرد این اهداف کمک کنند، روشی کاملاً قرن بیست و یکمی برای سازمانها است تا با انجام کارهای خوب، به موفقیت دست یابند.
پایان.
اصول طراحی برای هوش مصنوعی اخلاقی - بخش اول
مقالات مرتبط:
- مراحل «نظری» بهکارگیری «اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی»
- نزدیک شدن به هوش مصنوعی اخلاقی: یک دیدگاه خودمانی
- هوش مصنوعی چقدر اخلاقی است؟
- ایجاد یک رویکرد سازمانی برای هوش مصنوعی مسئول
- مراحل «عملی» بهکارگیری اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی ــ بخش اول
- مراحل «عملی» بهکارگیری اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی ــ بخش دوم
- سند راهنمای «اخلاق در طراحی و اخلاقیات در رویکردهای استفاده برای هوش مصنوعی» کمیسیون اروپا
- قدرت علوم رفتاری در طراحی محصول
- انواع الگوهای فریبنده در تجربهی کاربری - بخش اول









