Human values in the loop
Design principles for ethical AI

یک سیستم انسانی باید چیزی باشد که ما در آن زندگی میکنیم. سندی پنتلند
بیش از ۶۰ سال پس از تولد این رشته، هوش مصنوعی (AI) به یکی از مسائل برجسته در حوزههای کسبوکار، امور عمومی، علم، سلامت و آموزش تبدیل شده است. الگوریتمهایی در حال توسعهاند تا به هدایت خودروها، راهبری سلاحها، انجام کارهای یکنواخت یا خطرناک، برقراری مکالمه، پیشنهاد محصولات، بهبود همکاری و اتخاذ تصمیمات مهم در حوزههایی مانند حقوق، وامدهی، پزشکی، پذیرش دانشگاهها و استخدام کمک کنند. با این حال، در حالی که فناوریهای پشتیبان هوش مصنوعی به سرعت در حال پیشرفتاند، تأثیرات اجتماعی آنها تنها در حال آغاز فهم و بررسی است.
تا همین اواخر، این باور که ارزشهای اجتماعی باید با تکامل طبیعی فناوری مطابقت داشته باشند - اینکه فناوری باید هنجارها و انتظارات اجتماعی را شکل دهد، نه اینکه توسط آنها شکل بگیرد - مد روز به نظر میرسید. برای مثال، استوارت برند در سال ۱۹۸۴ اعلام کرد که
«اطلاعات میخواهد آزاد باشد.»
در سال ۱۹۹۹، یک مدیر سیلیکونولی به گروهی از خبرنگاران گفت:
«شما هیچ حریم خصوصی ندارید… با آن کنار بیایید.»
در سال ۲۰۱۰، کوین کلی، یکی از بنیانگذاران مجله Wired، کتابی با عنوان چیزهایی که فناوری میخواهد منتشر کرد. «سریع حرکت کن و خراب کن» یک شعار رایج در سیلیکونولی بوده است.
اما این دیدگاه رسمی در پی فهرستی روزافزون از مسائل اخلاقی مرتبط با فناوری به چالش کشیده شده است. هرچند هوش مصنوعی تنها نوع فناوری درگیر نیست، اما معمولاً بیشترین سهم توجه و بحثها درباره پیامدهای اخلاقی را به خود اختصاص داده است.
بسیاری از نگرانیها درباره فناوریهای مبتنی بر هوش مصنوعی به خوبی منتشر و مورد بحث قرار گرفتهاند. برای مثال: الگوریتمهای هوش مصنوعی که در فناوریهای دیجیتال و شبکههای اجتماعی تعبیه شدهاند، میتوانند:
- تعصبات اجتماعی را تقویت کنند،
- انتشار شایعات و اطلاعات نادرست را تسریع بخشند،
- اتاقهای پژواک افکار عمومی را تشدید کنند،
- توجه ما را ربوده و
- سلامت روانی را تحت تأثیر قرار دهند.
کارشناسان هشدار میدهند که فناوریهای هوش مصنوعی میتوانند به ابزار جنگی تبدیل شوند. گزارش شده است که وسایل نقلیه نیمهخودران در شرایطی شکست میخورند که مالکان انتظار آن را نداشتهاند. و در حالی که ترسها از «ربودن شغلهای انسانی» توسط فناوریهای هوشمند اغلب بزرگنمایی میشوند، اقتصاددانان معتبر به افزایش نابرابری و فقدان فرصت برای بخشهایی از نیروی کار به دلیل تغییرات ناشی از فناوری در محیط کار اشاره میکنند.
بهدلیل نگرانیهایی از این دست، درخواستها برای طراحی و استفاده از هوش مصنوعی به شیوهای که ارزشهای فرهنگی مهم را منعکس کند، روزبهروز افزایش یافته است. در یک یادداشت تحلیلی اخیر، سرمایهگذار استیفن شوارتزمان از شرکتها خواست که در مواجهه با مسائل اخلاقی پیرامون هوش مصنوعی پیشگام باشند. او میگوید:
اگر میخواهیم پتانسیل شگفتانگیز هوش مصنوعی را محقق کنیم، باید هوش مصنوعی را به شیوهای پیش ببریم که اعتماد عمومی به اینکه هوش مصنوعی به نفع جامعه است، افزایش یابد. ما باید یک چارچوب برای بررسی تأثیرات و اخلاق آن داشته باشیم.
در واقع، طی سالهای اخیر تعداد زیادی چارچوب اخلاقی برای هوش مصنوعی ظهور کرده است. برای مثال، تیمی در دانشگاه سوئیسی ETH زوریخ اخیراً دستکم ۸۴ بیانیه اخلاقی هوش مصنوعی از شرکتها، نهادهای دولتی، دانشگاهها، سازمانهای غیرانتفاعی و دیگر سازمانها را تحلیل کرده است. اگرچه تیم برخی ناسازگاریها را شناسایی کرد، اما همپوشانی دلگرمکنندهای در اصول کلی مطرحشده نیز مشاهده شد. در تلاش مشابه دیگری، گروه AI4People به رهبری لوچیانو فلوریدی شش بیانیه اخلاقی برجسته هوش مصنوعی را تحلیل کرد. آنها نتیجه گرفتند که مجموعهای از چهار اصل اخلاقی پایدار و سطح بالاتر—خیرخواهی، ضرر نرساندن، عدالت و خودمختاری—بخش عمدهای از ماهیت این شش بیانیه را در بر میگیرد.
این چهار اصل ریشه در مکاتب بزرگ فلسفه اخلاق دارند و در واقع، طی چند دهه گذشته در حوزه زیستاخلاق (bioethics) به طور گسترده پذیرفته شدهاند. شاید تعجبآور نباشد که این اصول به خوبی در زمینه هوش مصنوعی نیز قابل تطبیق هستند. فلوریدی و همکارش جاش کوولز در مقالهای برای Harvard Data Science Review مینویسند:
از میان تمامی حوزههای اخلاق کاربردی، زیستاخلاق بیشترین شباهت را به اخلاق دیجیتال دارد، زیرا بهطور اکولوژیک با اشکال جدید عاملان، بیماران و محیطها برخورد میکند.
در کتاب Bit by Bit، دانشمند برجسته علوم اجتماعی محاسباتی، متیو سالگانیک، اخیراً همان اصول بنیادی را برای کمک به دانشمندان داده در ارزیابی پیامدهای اخلاقی کار با دادههای رفتاری تولیدشده توسط انسانها توصیه کرده است. سالگانیک میگوید:
در برخی موارد، رویکرد مبتنی بر اصول (principles-based approach) منجر به راهحلهای واضح و عملی میشود. و هنگامی که این اتفاق نمیافتد، بدهبستانهای مربوطه را روشن میکند، که برای ایجاد تعادل مناسب بسیار مهم است. علاوه بر این، رویکرد مبتنی بر اصول به اندازه کافی کلی است که صرف نظر از محل کار شما مفید خواهد بود.
مقاله حاضر تلاش میکند نشان دهد که:
اصول اخلاقی میتوانند بهعنوان اصول طراحی (design principles) برای سازمانهایی عمل کنند که قصد دارند فناوریهای نوآورانه هوش مصنوعی را بهگونهای به کار گیرند که هم از نظر اقتصادی سودآور باشد و هم برای انسانها و جوامع مفید، عادلانه و حافظ خودمختاری آنان باشد. بهطور مشخص، ما تأثیر، عدالت و خودمختاری را بهعنوان سه اصل اساسی پیشنهاد میکنیم که میتوانند راهنمای مفیدی برای بحثها پیرامون پیامدهای اخلاقی هوش مصنوعی (AI’s ethical implications) باشند.
سه اصل بنیادین که میتوانند به رهبران کمک کنند تا درباره پیامدهای اخلاقی هوش مصنوعی بهتر بیندیشند:
۱. تأثیر (IMPACT)
کیفیت اخلاقی یک فناوری به نتایج و پیامدهای آن بستگی دارد.
ریسکها و مزایا باید سنجیده شوند.
عدمضرر (Non-maleficence): از آسیب جلوگیری کنید.
نیکوکاری/سودرسانی (Beneficence): به شکوفایی انسانها و جوامع کمک کنید.
۲. عدالت / انصاف (JUSTICE)
مردم باید منصفانه با یکدیگر رفتار کنند.
عدالت / انصاف رویهای (Procedural fairness): ترویج رفتار منصفانه در فرایندها.
عدالت / انصاف توزیعی (Distributive fairness): ارتقای برابری در نتایج.
۳. خودمختاری (AUTONOMY)
مردم باید بتوانند آزادانه تصمیم بگیرند، بدون اینکه تحت تأثیر نیروهای دستکاریکننده قرار گیرند.
فهمپذیری (Comprehension): توضیح اینکه هوش مصنوعی چگونه استفاده میشود و چه زمانی میتوان به آن اعتماد کرد.
کنترل (Control): فراهم کردن امکان اصلاح یا نادیده گرفتن تصمیمات هوش مصنوعی در مواقع لازم.

دستیابی به هوش مصنوعی اخلاقی، قابل اعتماد و سودآور مستلزم آن است که بررسیهای اخلاقی بر پایه درک علمی از نقاط قوت و ضعف نسبی هم هوش ماشینی و هم شناخت انسانی قرار گیرد. به عبارت دیگر، «حکیم بودن» درباره هوش مصنوعی مستلزم «باهوش بودن» درباره آن است. برای مثال، بحث درباره راههای ارتقای ایمنی و قابلیت اطمینان هوش مصنوعی نیازمند درک این است که چرا فناوریهای هوش مصنوعی—که اغلب با استفاده از روشهای تحلیل آماری در مقیاس وسیع مانند یادگیری عمیق ساخته میشوند—در برخی زمینهها موفقاند اما در زمینههای دیگر شکست میخورند. به همین ترتیب، مباحث مربوط به عدالت الگوریتمی باید بر پایه درک هم از تعصبات و «نویز»هایی که بر تصمیمگیریهای انسانی بدون کمک تأثیر میگذارند و هم از مصالحههای موجود در برداشتهای مختلف از «عدالت» الگوریتمی شکل گیرد. در هر مورد، بررسیهای اخلاقی زمانی سازندهتر و مؤثرتر خواهند بود که با علم مرتبط آگاهانه پشتیبانی شوند.
همزمان، این مقاله نحوه کاربرد اصول بنیادی را مشخص نمیکند. سازمانها در اهداف و زمینههای عملیاتی خود متفاوتاند و بنابراین بیانیهها، چارچوبها، مجموعه قواعد و چکلیستهای متفاوتی را برای هدایت توسعه مسئولانه فناوریهای هوش مصنوعی اتخاذ خواهند کرد. علاوه بر این، بهکارگیری اصول بنیادی در مسائل خاص اغلب مستلزم ارزیابی مصالحهها بین گزینههایی است که اهمیت نسبی آنها در دیدگاه افراد، سازمانها و جوامع متفاوت است. ما پیشنهاد میکنیم که درک اصول بنیادی میتواند به افراد و سازمانها کمک کند تا چارچوبهای اخلاقی موثرتری ایجاد کنند و در مورد مسائل خاص بهتر تأمل و تصمیمگیری نمایند.
دِلویت درباره کامپیوترها و توانمندیهای انسانی، ۱۹۶۶
در حالی که کامپیوترها در سالهای پیش رو نقش مهمی در زندگی ما خواهند داشت، نه انسان مدرن و نه مدیریت مدرن منسوخ نخواهند شد. کامپیوترها مهارتهای انسان را تکمیل میکنند، افقهای دانش او را گسترش میدهند، قدرت جدیدی برای حل مسائل به او میبخشند و امکان بررسی مسائل جدید را فراهم میآورند. — رابرت ام. تروبلاد، رئیس، Touche Ross, Bailey & Smart
۱- تأثیر: ترویج نتایج قابل قبول
دو اصل اخلاقی بهطور گسترده شناختهشده، «ضرر نرساندن» (Non-maleficence: «به کسی آسیب نرسان») و «خیرخواهی» (Beneficence: «فقط کار خوب انجام بده») هستند. این اصول بر پایه نظریه اخلاقی «پیامدگرایانه / نتیجهگرا» (Consequentialist) قرار دارند؛ نظریهای که طرفداران آن شامل جان استوارت میل و جرمی بنتام بودهاند و معتقد است کیفیت اخلاقی یک عمل بستگی به پیامدهای آن دارد.
۱-۱- «اول، آسیب نرسان»
اصل «ضرر نرساندن» (Non-maleficence) حکم میکند که هوش مصنوعی باید از ایجاد آسیب، چه قابل پیشبینی و چه غیرعمدی، خودداری کند. نمونههایی از آسیبهای قابل پیشبینی شامل:
- هوش مصنوعی مسلحشده،
- استفاده از هوش مصنوعی در جنگ سایبری،
- هکهای مخرب،
- ایجاد یا انتشار اخبار یا تصاویر جعلی برای مختل کردن انتخابات،
- و کلاهبرداریهایی مانند فیشینگ و تقلب است.
اما طبیعتاً اکثریت قاطع سازمانهایی که هوش مصنوعی میسازند یا به کار میگیرند، قصد ایجاد آسیب بیمورد ندارند. برای این سازمانها، جلوگیری از پیامدهای غیرعمدی، نگرانی اصلی و حیاتی است.
برای جلوگیری از ایجاد هوش مصنوعی مضر، لازم است محدودیتهای علمی فناوریهای هوش مصنوعی را درک کنیم تا بتوان ریسکهای مرتبط با آنها را مدیریت کرد. برای مثال، بسیاری از الگوریتمهای هوش مصنوعی با بهکارگیری تکنیکهای یادگیری ماشینی، بهویژه یادگیری عمیق، روی حجم وسیعی از دادههای «برچسبگذاریشده» ایجاد میشوند. سپس این الگوریتمها میتوانند برای پیشبینی موارد آینده که مقادیر واقعی آنها نامعلوم است، به کار گرفته شوند. چنین الگوریتمهایی امروزه برای برآورد احتمال بازپرداخت وام توسط وامگیرنده، میانگین نمره مورد انتظار دانشجویی در صورت پذیرش در دانشگاه، احتمال اینکه یک تصویر رادیولوژی، تومور سرطانی باشد، یا احتمال اینکه جسم قرمز جلوی خودرو یک علامت توقف باشد، استفاده میشوند.
۱-۱-۱- موضوعات ضرر نرساندن: جلوگیری از آسیب (Non-maleficence: Avoid Harm):
- ایمنی،
- قابلیت اطمینان،
- پایداری،
- منبع داده،
- حریم خصوصی،
- امنیت سایبری،
- سوءاستفاده.
نمونهها:
- خودداری از ایجاد آسیب عمدی از طریق فیشینگ، نفوذهای سایبری، هوش مصنوعی مسلحشده یا «اخبار جعلی»
- اجتناب از آسیب غیرعمدی ناشی از مثبت کاذب، دادههای ناقص، مشخصهگذاری نادرست مدل یا عملکرد نامناسب الگوریتم
با وجود نام «هوش مصنوعی»، این الگوریتمها مبتنی بر نوعی درک مفهومی که مشخصه هوش انسانی است، نیستند. بلکه محصول تطبیق الگوهای آماری هستند. بنابراین، اگر از روشهای خودکار یا آمار ساده برای آموزش الگوریتمها روی دادههایی که دارای خطا یا تعصب هستند استفاده شود، خود آن الگوریتمها نیز احتمالاً همان خطاها یا تعصبات را منعکس خواهند کرد.
این حقیقت اساسی یادگیری ماشینی یک پیامد اخلاقی کلیدی دارد:
یک الگوریتم یادگیری ماشینی تنها تا حدی ایمن و قابل اعتماد است که روی (۱) حجم کافی از دادهها که (۲) نماینده مناسبی از سناریوهایی باشند که الگوریتم قرار است در آنها به کار گرفته شود، آموزش دیده باشد.
یک مطالعه موردی که توسط پژوهشگر برجسته یادگیری ماشینی، مایکل آی. جوردن، مطرح شده است، نشان میدهد که نادیده گرفتن چنین ریسکهایی میتواند به آسیبهای جسمی منجر شود. در این مورد، یک دستگاه هوش مصنوعی برای برآورد احتمال ابتلای جنین به سندرم داون بر اساس تصاویر سونوگرافی طراحی شده بود. در نقطهای، فرمت دادههای ورودی و وضوح تصاویر سونوگرافی تغییر کرد: هوش مصنوعی شروع به پردازش تصاویر با وضوح بالاتر برای محاسبه برآوردهای خود کرد. این تغییر باعث افزایش قابل توجه تشخیص سندرم داون توسط ماشین شد. این افزایش به دلیل موارد قبلاً ناشناخته نبود، بلکه به این دلیل بود که وضوح بالاتر تصاویر، مصنوعات آماری ساختگی ایجاد میکرد که الگوریتم (آموزشدیده روی تصاویر با وضوح پایینتر) آنها را به اشتباه به عنوان شاخصهای سندرم داون تفسیر میکرد. احتمالاً هزاران نفر بر اساس این تشخیصهای نادرست، اقدام به انجام آزمایش آمنیوسنتز کرده و نوزادان خود را در معرض خطر قرار دادهاند.
۱-۱-۲- موضوعات خیرخواهی: ارتقای رشد و شکوفایی انسانها و جوامع (Beneficence: Advance the Flourishing of People and Societies)
- رشد و شکوفایی انسانی،
- رفاه،
- کرامت،
- منافع عمومی،
- پایداری.
نمونهها:
- استفاده از هوش مصنوعی برای بهبود مراقبتهای پزشکی، ارائه منافع عمومی، ایجاد محیطهای امنتر، یا ارتقای نتایج آموزشی
با دانستن اینکه الگوریتمهای یادگیری ماشینی تنها تا حدی قابل اعتماد هستند که دادههای بهکار رفته برای آموزش آنها نماینده مناسبی از سناریوهایی باشد که در آنها به کار گرفته میشوند، یک سازمان میتواند اقداماتی برای شناسایی و کاهش ریسکهای ناشی از این محدودیت انجام دهد. برخی از این راهکارها ممکن است شامل موارد زیر باشند:
- بررسی منبع دادههای آموزشی—اینکه دادهها از کجا آمدهاند، چه استنباطهایی از آنها حاصل شده و این استنباطها تا چه حد برای وضعیت فعلی مرتبط هستند—برای ارزیابی قابلیت کاربرد الگوریتم.
- محدود کردن استفاده از الگوریتمها به محیطهایی که احتمال عملکرد قابل اعتماد آنها وجود دارد. برای مثال، وسایل نقلیه خودران میتوانند به خطوط ویژهای محدود شوند که دسترسی به آنها برای رانندگان انسانی (غیرقابل پیشبینی)، عابران پیاده و حیوانات ممنوع باشد. به همین ترتیب، یک چتبات میتواند طوری طراحی شود که از جمعآوری اطلاعات شخصی قابل شناسایی (PII) خودداری کند یا برخی کلمات را نادیده بگیرد تا ریسک سوءاستفاده کاهش یابد.
- ترکیب انسانها با سیستمهای الگوریتمی، تا قادر به استدلال مبتنی بر عقل سلیم و تصمیمگیری انعطافپذیر باشند. برای مثال، یک وسیله نقلیه نیمهخودران میتواند از هوش مصنوعی استفاده کند نه برای جایگزینی اپراتور انسانی، بلکه برای کمک به او در رانندگی ایمنتر. به همین ترتیب، به جای جایگزینی متخصصان انسانی (مانند پزشکان، مددکاران اجتماعی، قضات، کارمندان ارزیابی خسارت، معلمان در تصحیح اوراق دانشآموزان یا ویراستاران در شناسایی محتوای غیرقابل قبول شبکههای اجتماعی)، الگوریتمها میتوانند با ارائه نشانههای آماری استخراجشده برای مدیریت بار کاری و کاهش تعصبات در تصمیمگیری این متخصصان طراحی شوند. در سناریوهای حساس، یک رویکرد عملی میتواند این باشد که نیاز به همکاری انسان-کامپیوتر فرض شود و خودمختاری کامل ماشین به عنوان یک حالت محدود در نظر گرفته شود.
شکاف عقل سلیم در هوش مصنوعی
هوش مصنوعی را میتوان از نظر عملکردی اینگونه تعریف کرد:
هر نوع برنامه کامپیوتری که قادر به دستیابی به هدف خاصی است که معمولاً با هوش انسانی مرتبط است.
در یک انتهای طیف، هوش مصنوعی شامل سیستمهای مبتنی بر قوانین مانند اتوماسیون فرآیندهای رباتیک (RPA) میشود. در انتهای دیگر، بسیاری از کاربردهای مشهور امروزی مانند بهکارگیری تکنیکهای یادگیری ماشینی نظارتشده روی دادههای بزرگ اساساً نتیجه تحلیل آماری در مقیاس وسیع هستند. یکی از این تکنیکها خاص معروف به «یادگیری عمیق»، پایه بسیاری از کاربردهای شناختهشده هوش مصنوعی است، مانند چتباتها و سیستمهای تشخیص تصویر که برای کمک به هدایت خودروها یا شناسایی تومورها در تصاویر رادیولوژی استفاده میشوند.
وقتی پژوهشگران در دهه ۱۹۵۰ اصطلاح «هوش مصنوعی» را معرفی کردند، هدف ساخت سیستمهای کامپیوتری بود که هوش عمومی در سطح انسان را نمایش دهند. اما امروزه، «هوش مصنوعی» عمدتاً به کاربردهای محدود و متمرکز اشاره دارد که انعطافپذیری تفکر انسانی را ندارند. ایده قدیمی که هوش مصنوعی «عمومی» میتواند شناخت انسان را شبیهسازی کند، جای خود را به تعداد زیادی از هوشهای مصنوعی عملی و محدود امروزی داده است که بهطور بسیار متفاوتی نسبت به ذهن انسان عمل میکنند.
برخلاف هوش انسانی، الگوریتمهای هوش مصنوعی دارای عقل سلیم، درک مفهومی، شناخت روابط علت و معلولی یا درک شهودی فیزیک نیستند. برای نمونه، یک انسان میتواند با استفاده از عقل سلیم و آگاهی زمینهای، یک اصطلاح جدید عامیانه را تنها با چند مواجهه یاد بگیرد. در مقابل، یک الگوریتم ترجمه ماشینی برای اینکه احتمالاً درست عمل کند، باید در معرض تعداد زیادی نمونه ترجمهشده قبلی قرار گیرد.
نبود عقل سلیم، ناتوانی در تعمیم دادن یا در نظر گرفتن زمینه، باعث میشود الگوریتمهای هوش مصنوعی «شکننده» باشند؛ به این معنا که نمیتوانند با سناریوهای غیرمنتظره یا موقعیتهای ناآشنا مقابله کنند. همانطور که گری مارکوس و ارنست دیویس در کتاب Rebooting AI مینویسند:
بدون یک مدل شناختی غنی، پایداری وجود نخواهد داشت. آنچه در عوض دارید، حجم زیادی داده است همراه با امیدی که چیزهای جدید تفاوت زیادی با گذشته نداشته باشند. اما این امید اغلب نادرست است و زمانی که چیزهای جدید به اندازه کافی با گذشته متفاوت باشند، سیستم دچار شکست میشود.
برخی مفسران پیشنهاد کردهاند که پیشبینیهای بیش از حد خوشبینانه صنعت خودروسازی درباره رسیدن به خودروهای کاملاً خودران احتمالاً تحت تأثیر نادیده گرفتن همین نکته بنیادی بوده است.
1-2- هوش مصنوعی برای خیر (AI for good)
اصل نیکوکاری (beneficence) که در بسیاری از بیانیههای اخلاق هوش مصنوعی بازتاب یافته است، بیان میکند که هوش مصنوعی باید به گونهای طراحی شود که به ارتقای رفاه انسانها و سیاره کمک کند. در کتاب ابزارها و سلاحها (Tools and Weapons)، برد اسمیت از اصطلاح «فراگیری/ شمولگرایی» (inclusivity) برای اشاره به ایدهای مشابه استفاده کرد و به فناوریهای هوش مصنوعی اشاره نمود که برای کمک به افراد دارای مشکلات بینایی یا شنوایی توسعه یافتهاند.
کاربردهای نیکوکارانهی هوش مصنوعی میتوانند طیف گستردهای از رفاه جسمی و عاطفی را پوشش دهند و در هر دو سطح فردی و جمعی عمل کنند. برخی نمونهها عبارتند از:
- یک کاربرد اولیه در محاسبات عاطفی (affective computing) یا همان «هوش مصنوعی عاطفی»، که با هدف کمک به افراد مبتلا به اوتیسم طراحی شده است. این افراد معمولاً در استنباط حالات هیجانی دیگران با دشواری مواجه هستند و این ابزار میتوانست به آنها کمک کند تا در موقعیتهای اجتماعی بهتر عمل کنند. چنین سیستمهایی که بر پایه یادگیری عمیق ساخته میشوند، اغلب قادرند حالات هیجانی را از روی حالات چهره با دقتی بالاتر از بسیاری از انسانها تشخیص دهند و به این ترتیب، بهعنوان نوعی «سمعک عاطفی» عمل کنند تا نشانههای رفتاری دیگران را برای افراد آشکار سازند.
- ابتکارات «داده برای خیر» (Data for good) که از الگوریتمهای هوش مصنوعی برای شناسایی مناطق دارای فقر شدید از طریق تحلیل تصاویر ماهوارهای استفاده میکنند، خانههایی را که برای ساکنانشان خطر بالای مسمومیت با سرب دارند مشخص میکنند، دانشآموزان دبیرستانی را که در معرض خطر فارغالتحصیلی دیرهنگام قرار دارند شناسایی میکنند، یا مأموران پلیسی را که احتمال بیشتری برای تجربه رویدادهای نامطلوب دارند، تشخیص میدهند.
- چتباتهایی که مداخلات درمان شناختی-رفتاری (Cognitive Behavioral Therapy) را ارائه میدهند تا به بهبود شرایطی همچون افسردگی خفیف و اضطراب کمک کنند.
- رباتهای اجتماعی که مداخلات مبتنی بر «ذهنیت رشد» (growth mindset) را در خود جای دادهاند تا به کودکان کمک کنند در محیطهای آموزشی تمرکز خود را حفظ کنند.
- پوشیدنیهایی (wearables) که با بازیوارسازی (gamification) یا دیگر مداخلات رفتاری نوع «تلنگر» (nudge) همراه میشوند و برای ایجاد رفتارهای سالمتر طراحی شدهاند.
- اپلیکیشنهای دادهمحور که با طراحی مبتنی بر تلنگرهای رفتاری تجهیز شدهاند و برای کمک به کارگران پارهوقت (gig workers) ساخته شدهاند تا هر روز مقدار اندکی پول پسانداز کنند و بهتر به اهداف مالی خود برسند.
جالب آنکه، در حالی که اصل «پرهیز از آسیبرسانی» (non-maleficence) سومین اصل رایج در بیانیههای اخلاقی هوش مصنوعی مورد بررسی تیم ETH زوریخ بود، اصل «خیررسانی» (beneficence) در کمتر از نیمی از آنها دیده میشد. این تفاوت احتمالاً بازتابی از غلبهی بحثهای هشداردهنده درباره هوش مصنوعی است که بیشتر بر آسیبها تمرکز دارند، اما کمتر به ظرفیتهای هوش مصنوعی برای کاهش سوگیریهای انسانی، گسترش تواناییهای انسان، و ارتقای رفاه میپردازند.
مدیریت موازنهها (Managing tradeoffs)
بحثهای اخلاقی اغلب شامل مدیریت موازنهها میان اصولی است که نمیتوان آنها را همزمان به طور کامل برآورده ساخت. موازنه میان «خیررسانی» (beneficence) و «پرهیز از آسیبرسانی» (non-maleficence) رایج است. برای نمونه، ممکن است عموم مردم حاضر باشند نرخ مشخصی از تلفات مرتبط با خودروهای خودران را بپذیرند، اگر این نرخ پایینتر از نرخ تلفات ناشی از رانندگی انسانها با وسایل نقلیه سنتی باشد.
گاهی اوقات، فرایند بیان و شفافسازی یک موازنه اخلاقی میتواند نوآوریهایی را برانگیزد که آن موازنه را کمتر مسئلهساز کند. برای مثال، یک نهاد دولتی الگوریتمی مبتنی بر یادگیری ماشین سفارش داد تا افرادی را که احتمال بالاتری برای دریافت نادرست مزایای بیمه بیکاری (UI benefits) دارند، شناسایی کند. به دلایل فنی اجتنابناپذیر، چنین الگوریتمی میتوانست تعداد زیادی «مثبت کاذب» تولید کند—یعنی به اشتباه ادعاهای قانونی را نامعتبر تشخیص دهد. اگر آن سازمان دولتی صرفاً از الگوریتم برای اجرای یک قاعده تصمیمگیری خودکار استفاده میکرد، از نوع «اگر امتیاز از x بیشتر شد، مزایا را رد کن»، مثبتهای کاذب اجتنابناپذیر منجر میشد که آن سازمان، مزایای بیمه بیکاری موردنیاز را از شمار زیادی افراد مستحق دریغ کند.
به همین دلیل، تیم علم داده تصمیم گرفت سیستم هوش مصنوعی را بهگونهای طراحی کند که بهعنوان یک «موتور تلنگر» (nudge engine) عمل کند. به جای آنکه مزایا را از افرادی با امتیاز بالا سلب کند، سازمان برای مدعیانی که الگوریتم آنها را مشکوک شناسایی کرده بود، پیامهای رفتاری بهموقع و از نوع «تلنگر» به صورت پاپآپ ارسال کرد—برای نمونه: «۹ نفر از ۱۰ نفر از همسایگان شما در [شهرستان شما] درآمدشان را بهطور دقیق گزارش میکنند.» این پیامها هیچ آسیبی به افرادی که به اشتباه توسط الگوریتم پرچمگذاری شده بودند وارد نکرد، اما در مورد کسانی که واقعاً بهطور نادرست مزایا را مطالبه میکردند، تأثیر مطلوبی داشت. کارآزماییهای کنترلشده تصادفی (Randomized Controlled Trials) نشان دادند که پیامهای تلنگری هدفمندِ مبتنی بر یادگیری ماشین، پرداختهای نادرست بیمه بیکاری را حدود ۵۰ درصد کاهش دادند.
نکتهی کلیدی این است که هوش مصنوعی اخلاقی مستلزم آن است که سازمانها نهتنها پیشبینیها، بلکه مداخلات را نیز در نظر بگیرند. اغلب، مداخلات «اقتصاد کلاسیک» مانند تعیین قیمتها، ارائه یا خودداری از درمان، و اعمال تنبیه یا پاداش تنها گزینههای مورد توجه هستند. علم جدید «معماری انتخاب» (choice architecture) جعبهابزار را با مداخلات «نرم» گسترش میدهد که به سازمانها امکان میدهد بر اساس نشانههای مبهم الگوریتمی، به شیوهای اخلاقی عمل کنند. در مواردی که مداخلات تلنگری به اندازه کافی قوی نیستند، مباحث اخلاقی باید راهنمای تصمیمگیریهای سیاستی در مورد نحوهی استفاده از پیشبینیهای ماشینی باشند. برای نمونه، یک الگوریتم پیشبینی خاص میتواند یا برای سلب مزایا به کار رود، یا برای ارائهی حمایتهای پیشگیرانه به افراد در معرض خطر مورد استفاده قرار گیرد.
نکتهای حتی گستردهتر آن است که نوآوری فناورانه—که اغلب مستلزم تفکر میانرشتهای است—میتواند امکان کاهش یا مدیریت موازنههای دشوار اخلاقی را فراهم کند. شعار روزبهروز پرطرفدارتر «هوش مصنوعی انسانمحور» (human-centered AI) دعوتی برای در نظر گرفتن نیازهای انسانی و اجتماعی هنگام توسعه کاربردهای فناوریهای هوش مصنوعی است.
ادامه دارد ...
اصول طراحی برای هوش مصنوعی اخلاقی - بخش دوم
مقالات مرتبط:
- مراحل «نظری» بهکارگیری «اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی»
- نزدیک شدن به هوش مصنوعی اخلاقی: یک دیدگاه خودمانی
- هوش مصنوعی چقدر اخلاقی است؟
- ایجاد یک رویکرد سازمانی برای هوش مصنوعی مسئول
- مراحل «عملی» بهکارگیری اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی ــ بخش اول
- مراحل «عملی» بهکارگیری اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی ــ بخش دوم
- سند راهنمای «اخلاق در طراحی و اخلاقیات در رویکردهای استفاده برای هوش مصنوعی» کمیسیون اروپا









