Ethics By Design and Ethics of Use Approaches
for Artificial Intelligence
مقدمهٔ راهنما
این راهنما به تمام فعالیتهای تحقیقاتی مربوط به توسعه یا / و استفاده از سیستمها یا تکنیکهای مبتنی بر هوش مصنوعی، از جمله رباتیک، مربوط میشود. این مقاله براساس کار گروه تخصصی مستقل و سطح بالای هوش مصنوعی و «دستورالعملهای اخلاقی برای هوش مصنوعی قابلاعتماد» تهیهشده توسط آنها و همچنین نتایج پژوهشهای SIENNA و SHERPA با بودجهٔ اتحادیهٔ اروپا نوشته شده است.
این راهنما بر پایهٔ کار گروهی از متخصصان مستقل سطح عالی در هوش مصنوعی و «دستورالعملهای اخلاقی برای هوش مصنوعی قابل اعتماد» آنها و همچنین نتایج پروژههای SHERPA و SIENNA با بودجهٔ اتحادیهٔ اروپا تهیه شده است.
این سند، راهنمایی برای اتخاذ یک رویکرد اخلاقی متمرکز در حین طراحی، توسعه و استقرار و/ یا استفاده از راهحلهای مبتنی بر هوش مصنوعی ارائه میدهد؛ اصول اخلاقیای که سیستمهای هوش مصنوعی باید از آنها پشتیبانی کنند را توضیح داده و ویژگیهای کلیدیای را که سیستم/ برنامههای مبتنی بر هوش مصنوعی باید برای حفظ و ارتقاء داشته باشند، مورد بحث قرار میدهد:
- احترام به عامل انسانی؛
- حریم خصوصی، حفاظت از دادههای شخصی و حاکمیت دادهها؛
- انصاف (عدالت)؛
- رفاه فردی، اجتماعی و محیطزیستی؛
- شفافیت؛
- مسئولیتپذیری و نظارت.
علاوهبراین، این سند وظایف خاصی که باید انجام شوند تا هوش مصنوعی با این مشخصات تولید شود را نیز شرح میدهد.
برای پژوهشگرانی که قصد دارند از سیستمهای مبتنی بر هوش مصنوعی در تحقیقات خود استفاده کنند، این سند ویژگیهای اخلاقیای که باید در آن سیستمها وجود داشته باشند تا امکان استفاده از آنها فراهم شود را توضیح میدهد.
رویکرد محوری به کار رفته در این راهنما، «اخلاق در طراحی» است. هدف اخلاق در طراحی گنجاندن اصول اخلاقی در فرایند توسعه است که اجازه میدهد تا مسائل اخلاقی در اسرع وقت موردتوجه قرار بگیرند و در طول فعالیتهای پژوهشی بهدقت پیگیری شوند. این راهنما به صراحت وظایف مشخصی را که میتوان به عهده گرفت و برای هر روششناسی توسعه (مانند AGILE، V-Method یا CRISP-DA) میتوانند به کار روند را مشخص میکند. با این حال رویکرد توصیهشده باید متناسب با نوع پژوهش پیشنهادی باشد و باید مدنظر داشت که ریسکهای اخلاقی میتوانند در طول مرحلهٔ پژوهش و استقرار و به کارگیری یا مرحلهٔ اجرا متفاوت باشند. رویکرد اخلاق در طراحی ارائهشده در این راهنما یک ابزار اضافی دیگری برای رسیدگی به نگرانیهای مربوط به اخلاق و نشاندادن انطباق با اخلاقیات نیز ارائه میدهد. با این حال اتخاذ رویکرد اخلاق در طراحی مانع از دیگر اقدامات برای اطمینان از پایبندی به تمام اصول اخلاقی هوش مصنوعی و انطباق با چارچوب قانونی اتحادیهٔ اروپا با هدف تضمین انطباق کامل اخلاقی و اجرای الزامات اخلاقی نیست.
رویکرد پیشنهادی برای متقاضیان و ذینفعان Horizon Europe اجباری نیست، اما هدف آن ارائهٔ راهنماییهای بیشتر برای رسیدگی به نگرانیهای مرتبط با اخلاق و نشان دادن انطباق با اخلاقیات است.
این سند به سه بخش تقسیم میشود:
- بخش اول: اصول و الزامات:
این بخش اصول اخلاقیای که سیستمهای هوش مصنوعی باید به آنها پایبند باشند را تعریف کرده و الزاماتی را برای توسعهی آنها استخراج میکند؛ - بخش دوم: مراحل عملی برای استفاده از اخلاق در طراحی در توسعهٔ هوش مصنوعی:
این بخش مفهوم اخلاق در طراحی را شرح داده و آن را به یک مدل عمومی برای توسعهٔ سیستمهای هوش مصنوعی مرتبط میکند و اقداماتی را که باید در مراحل مختلف توسعهٔ هوش مصنوعی با هدف رعایت اصول اخلاقی و الزامات ذکرشده در بخش ۱ انجام شوند تعریف میکند؛ - بخش سوم: استقرار اخلاق و استفاده از دستورالعملها برای پیادهسازی یا بهکارگیری هوش مصنوعی به شیوهای که از نظر اخلاقی مسئولانه است.
بخش اول
اخلاق در طراحی
این بخش اصول اخلاقیای را که سیستمهای هوش مصنوعی باید به آنها پایبند باشند تعریف کرده و الزاماتی که هوش مصنوعی باید مطابق آنها باشد را استخراج میکند.
الزامات اخلاقی بهعنوان مشخصههای یک سیستم، به اصول آن تجسم میبخشند. در حالی که بسیاری از الزامات اخلاقی توسط الزامات قانونی پشتیبانی میشوند، انطباق اخلاقی را نمیتوان تنها با پایبندی به تعهدات قانونی به دست آورد. اخلاق مربوط به حمایت از حقوق فردی مانند آزادی و حریم خصوصی، برابری و انصاف، اجتناب از آسیب و ارتقای رفاه فردی، و ساختن جامعهای بهتر و پایدارتر است که اغلب راهحلهایی را پیشبینی میکند که در نهایت به الزامات قانونی برای رعایت آنها تبدیل میشوند.
اصول اخلاقی و الزامات
شش اصل کلی اخلاقی وجود دارد که هر سیستم هوش مصنوعی باید بر اساس حقوق اساسی که در منشور حقوق اساسی اتحادیهٔ اروپا (منشور اتحادیهٔ اروپا) و در قوانین حقوق بشر بینالمللی مربوطه آمده است، از این اصول محافظت کرده و آنها را رعایت کند:
- احترام به عامل انسانی:
انسانها باید برای تصمیمگیری و انجام اعمال خود مورد احترام قرار گیرند. احترام به عامل انسانی شامل سه اصل ویژه است که حقوق اساسی بشر را تعریف میکنند: استقلال، کرامت و آزادی؛ - حریم خصوصی و حاکمیت دادهها:
مردم حق دارند از حریم خصوصی و دادههایشان حفاظت شود و این موارد باید همیشه رعایت شوند؛ - انصاف (عدالت):
باید به مردم حقوق و فرصتهای برابر داده شود و نباید بدون داشتن شایستگی به آنها منفعت یا ضرری وارد شود؛ - رفاه فردی، اجتماعی و زیستمحیطی:
سیستمهای هوش مصنوعی باید به رفاه فردی، اجتماعی و زیستمحیطی کمک کنند و به آنها آسیبی وارد نکنند؛ - شفافیت:
هدف، ورودیها و عملیات برنامههای هوش مصنوعی باید برای ذینفعان قابلدرک و معلوم باشد؛ - مسئولیتپذیری و نظارت:
انسانها باید بتوانند طراحی و عملکرد سیستمهای مبتنی بر هوش مصنوعی را درک، نظارت و کنترل کنند و بازیگران دخیل در توسعه یا عملیات آنها باید مسئولیت نحوهی عملکرد این برنامهها و پیامدهای ناشی از آن را بر عهده بگیرند.
بهمنظور تعبیهی این شش اصل اخلاقی در طراحیها، سیستمهای هوش مصنوعی پیشنهادی باید با الزامات اخلاقی کلی که در زیر آمدهاند منطبق باشند.
1- احترام به عامل انسانی
احترام به عامل انسانی شامل سه اصل خاص است که حقوق اساسی بشر را تعریف میکند:
- استقلال
- کرامت
- آزادی
استقلال:
احترام گذاشتن به استقلال به این معنی است که به مردم اجازه دهیم خودشان فکر کنند، خودشان تصمیم بگیرند که چه چیزی درست و نادرست است و خودشان انتخاب کنند که چگونه میخواهند زندگی کنند. توجه به این نکته مهم است که سیستمهای هوش مصنوعی میتوانند بدون انجام کاری، استقلال انسان را محدود کنند ــ صرفاً با توجه نکردن به طیف کاملی از تنوع انسانها در سبک زندگی، ارزشها، باورها و سایر جنبههای زندگی که ما را منحصربهفرد میکنند. از این رو، چنین محدودیتهایی ممکن است بدون هیچگونه قصد بدخواهانهای پیش بیایند، اما صرفاً در نتیجهی عدم درک زندگی، باورها، ارزشها و ترجیحات مردم ایجاد شوند. این یک مشکل خاص با خدمات شخصیسازی است که هنجارهای فرهنگی متفاوت را در نظر نمیگیرد. علاوهبراین، خدمات شخصیسازی، حتی زمانی که هنجارهای فرهنگی متفاوت را در نظر میگیرد، ممکن است اطلاعات و گزینههای ارائهشده را محدود کند. سیستمهای مبتنی بر هوش مصنوعی باید از محدود کردن بیمعنای زمینهٔ تصمیمگیری فردی خودداری کنند (همچنین به قسمت «آزادی» زیر مراجعه کنید).
کرامت:
کرامت بیان کنندهٔ این است که هر انسانی دارای ارزشی ذاتیست که هرگز نباید به خطر بیفتد. از این رو، افراد نباید ابزاری، عینی یا غیرانسانی شوند، بلکه باید همیشه با احترام با آنها رفتار شود، مثلا هنگام استفاده یا قرار گرفتن در معرض سیستمهای مبتنی بر هوش مصنوعی.
آزادی:
احترام به آزادی مستلزم آن است که مردم در انجام آن دسته از اقداماتی که باید بهعنوان افراد مستقل دنبال کنند، مانند آزادی حرکت، آزادی بیان، آزادی دسترسی به اطلاعات و آزادی تجمع، محدود نشوند. علاوه بر این، آزادی مستلزم عدم وجود محدودیتهایی است که استقلال مردم را تضعیف میکند؛ مانند اجبار، فریب، بهرهبرداری از آسیبپذیریها و دستکاری. اما آزادی مطلق نیست بلکه توسط قانون محدود میشود.
الزامات عمومی اخلاقی در عامل انسانی:
- کاربران نهایی و سایر افرادی که تحتتأثیر سیستم هوش مصنوعی قرار میگیرند، نباید از توانایی تصمیمگیری اساسی در مورد زندگی خود محروم شوند یا آزادیهای اولیه از آنها سلب شود.
- باید اطمینان حاصل شود که برنامههای کاربردی هوش مصنوعی به طور مستقل و بدون نظارت انسانی و امکان جبران، تصمیمگیری نمیکنند: در مورد مسائل شخصی اساسی (مثلاً تأثیر مستقیم بر زندگی خصوصی یا حرفهای، سلامت، رفاه یا حقوق فردی) که معمولاً توسط انسانها از طریق انتخابهای شخصی آزاد تصمیمگیری میشوند؛ یا در مورد مسائل اساسی اقتصادی، اجتماعی و سیاسی، که معمولاً توسط مذاکرات جمعی تصمیمگیری میشوند، یا بهطور مشابهی تأثیر قابلتوجهی بر افراد میگذارند.
- کاربران نهایی و سایرین که تحتتأثیر سیستم هوش مصنوعی قرار میگیرند، نباید به هیچ وجه تابع، مجبور، فریبدادهشده، دستکاریشده، موردهدفقرارگرفته یا غیرانسانی شوند.
- وابستگی یا اعتیاد به سیستم و عملیات آن نباید عمداً تحریک شود. این اتفاق نباید از طریق عملیات و اقدامات مستقیم سیستم اتفاق بیفتد. همچنین باید تا حد امکان از کاربرد سیستمها برای این اهداف جلوگیری شود.
- برنامههای کاربردی هوش مصنوعی باید طوری طراحی شوند که به اپراتورهای سیستم و تا حد امکان به کاربران نهایی توانایی کنترل، هدایت و مداخله در عملیات اساسی سیستم را بدهند.
- - کاربران نهایی و سایر افرادی که تحت تأثیر سیستم هوش مصنوعی قرار میگیرند باید اطلاعات قابلقبولی در مورد منطق بهکاررفته در هوش مصنوعی و همچنین اهمیت و پیامدهای پیشبینیشده برای آنها دریافت کنند.
2- حریم خصوصی و حاکمیت داده
حفاظت از حریم خصوصی و دادهها حقوق اساسیای هستند که باید همیشه رعایت شوند. سیستمهای هوش مصنوعی باید بهگونهای ساخته شوند که اصول کمینهسازی دادهها و حفاظت از دادهها را بر اساس طراحی و بهطور پیشفرض مطابق با مقررات عمومی حفاظت از دادههای اتحادیهٔ اروپا (GDPR) در خود داشته باشند.
حقوق مربوط به حریم خصوصی باید توسط مدلهای حاکمیت دادهای که تضمینکنندهٔ صحت و نمایندگی دادهها هستند؛ از دادههای شخصی محافظت میکنند و انسانها را قادر میسازند تا بهطور فعال دادههای شخصی خود و نحوهٔ استفادهٔ سیستم از آنها را مدیریت کنند، محافظت شوند. حفاظت مناسب از دادههای شخصی میتواند موجب اعتماد در به اشتراکگذاری دادهها و تسهیل در جذب مدلهای اشتراکگذاری دادهها شود. به حداقل رساندن و حفاظت از دادهها هرگز نباید با هدف پنهان کردن سوگیری یا اجتناب از پاسخگویی به کار گرفته شود، و این موارد باید بدون آسیب رساندن به حقوق حریم خصوصی مورد بررسی قرار گیرند.
نکتهٔ مهم این است که مسائل اخلاقی نه تنها هنگام پردازش دادههای شخصی، بلکه زمانی که سیستم هوش مصنوعی از دادههای غیرشخصی استفاده میکند (بهعنوان مثال تعصب نژادی) هم مطرح شوند.
آیا میتوانیم الزاماتی را به اعتمادسازی در دادهها بیفزاییم که میتوانند به شرکتکنندگان در تحقیق کمک کنند تا دربارهٔ استفاده از دادهها مذاکره کنند؟
من فکر میکنم این بخش اگر توصیههای متناسبی را براساس انواع مختلف دادهها و مدلهای دادهٔ مورداستفاده در سیستمهای هوش مصنوعی ارائه کند، برای محققانِ هوش مصنوعی ارزش افزوده خواهد داشت؛ زیرا هر دسته از دادهها چالشهای مختلفی را ایجاد میکنند: training data, model data, production data, knowledge data or analysis-to-data, data-to-analysis and data-and-analysis-to-lake models
الزامات عمومی اخلاقی برای حفظ حریم خصوصی و حاکمیت داده:
- سیستمهای هوش مصنوعی باید دادههای شخصی را به شیوهای قانونی، منصفانه و شفاف پردازش کنند.
- اصول کمینهسازی و حفاظت از دادهها توسط طراحی و بهطور پیشفرض باید در مدلهای حاکمیت دادهی هوش مصنوعی ادغام شوند.
- باید تدابیر فنی و سازمانی مناسبی برای حفاظت از حقوق و آزادیهای افراد هدف در داده (مانند انتصاب افسر حفاظت از دادهها، ناشناسسازی، نام مستعار، رمزگذاری، تجمیع) تنظیم شوند. برای جلوگیری از نفوذ و نشت دادهها باید تدابیر امنیتی قویای در نظر گرفته شود. انطباق با قانون امنیت سایبری و استانداردهای امنیت بینالمللی میتواند مسیر امنی را برای پایبندی به اصول اخلاقی ارائه دهد.
- - دادهها باید بهگونهای جمعآوری، ذخیره و استفاده شوند که توسط انسان قابلبررسی باشند. تمام تحقیقاتی که با بودجهٔ اتحادیهٔ اروپا تامین میشوند باید با قوانین مربوطه و بالاترین استانداردهای اخلاقی مطابقت داشته باشند. این بدان معناست که همهٔ ذینفعان Horizon Europe باید اصول مندرج در GDPR را به کار گیرند
3- انصاف و عدالت
انصاف مستلزم آن است که همهٔ مردم از حقوق و فرصتهای اساسی یکسانی برخوردار باشند. این امر به نتایج یکسانی مثل این که افراد باید دارای ثروت یا موفقیت برابری در زندگی باشند نیاز ندارد. با این حال، نباید هیچ تبعیضی بر اساس جنبههای اساسی هویت که سلبشدنی نیستند، وجود داشته باشد. در حال حاضر قوانین مختلف تعدادی از این تبعیضها مانند جنسیت، نژاد، سن، گرایش جنسی، منشاء ملی، مذهب، سلامت و ناتوانی را به رسمیت میشناسند. انصاف در عمل مستلزم آن است که دستورالعمل ها (روندها) به گونهای طراحی نشده باشند که بهطور خاص به افراد یا گروههای منفرد آسیب وارد کنند. انصاف ذاتی مستلزم آن است که هوش مصنوعی الگوهای تبعیضی را که به طور ناروا افراد و / یا گروهها را بهدلیل آسیبپذیری خاصشان تحتفشار قرار میدهند، پرورش ندهد.
انصاف را میتوان با سیاستهایی که تنوع را ترویج میکنند نیز حمایت کرد. این سیاستها، با ارزشگذاری مثبت به تفاوتهای فردی، نه فقط ویژگیهایی مانند جنسیت و نژاد، بلکه شخصیتهای متنوع، تجربیات، پیشینههای فرهنگی، سبکهای شناختی و سایر متغیرهایی که بر دیدگاههای شخصی تأثیر میگذارند. حمایت از تنوع به معنای سازگاری با این تفاوتها و حمایت از ترکیب متنوع تیمها و سازمانها است.
الزامات اخلاقی عمومی برای انصاف:
- اجتناب از سوگیری الگوریتمی: سیستمهای هوش مصنوعی باید طوری طراحی شوند که از سوگیری در دادههای ورودی، مدلسازی و طراحی الگوریتم جلوگیری کنند. سوگیری الگوریتمی یک نگرانی خاص است که به تکنیکهای کاهشی خاصی نیاز دارد. پیشنهادهای پژوهشی باید مراحلی را برای اطمینان از اینکه دادههای افراد معرف جمعیت هدف بوده و تنوع آنها را منعکس میکنند یا به اندازهٔ کافی خنثی هستند، مشخص کنند.
- بهطور مشابه، پیشنهادات پژوهشی باید به صراحت مستند کنند که سوگیری در دادههای ورودی و در طراحی الگوریتمی ــ که میتواند باعث شود گروههای خاصی از افراد به اشتباه یا ناعادلانه نمایش داده شوند ــ، چگونه شناسایی شده و روشهای اجتناب از آن را نیز ذکر کنند. این امر مستلزم در نظر گرفتن استنباطهای به دست آمده توسط سیستم است که پتانسیل این را دارند که بهطور ناعادلانه گروههای خاصی از مردم یا افراد مجزا را محروم کرده یا به روشهای دیگر متحمل ضرر نمایند.
- دسترسپذیری همگانی: سیستمهای هوش مصنوعی (در صورت لزوم) باید طوری طراحی شوند که برای انواع مختلف کاربران نهایی با تواناییهای مختلف قابلاستفاده باشند. پیشنهادهای پژوهشی برای توضیح چگونگی دستیابی به این امر، مثل انطباق با دستورالعملهای دسترسی مرتبط، تشویق میشوند. تا حد امکان، سیستمهای هوش مصنوعی باید با ارائهٔ همان سطح از عملکرد و مزایا به کاربران نهایی با تواناییها، باورها، ترجیحات و علایق متفاوت، از تعصب عملکردی اجتناب کنند؛
- تأثیرات منصفانه: تأثیرات اجتماعی منفی احتمالی بر گروههای خاص، ــ مانند تأثیراتی غیر از آنهایی که ناشی از سوگیری الگوریتمی یا عدم دسترسی جهانی هستند ــ ممکن است در کوتاهمدت، میانمدت و بلندمدت رخ دهند، بهویژه اگر هوش مصنوعی از هدف اصلی خود منحرف شود. این تاثیرات باید کاهش یابند. سیستم هوش مصنوعی باید اطمینان حاصل کند که بر منافع گروههای مربوطه تأثیر منفی نمیگذارد. روشهای شناسایی و کاهش اثرات منفی اجتماعی در میانمدت و بلندمدت باید به خوبی در طرح پیشنهادی پژوهش مستند شوند.
4- رفاه فردی، اجتماعی و زیستمحیطی
رفاه فردی به این معنی است که افراد میتوانند زندگی کاملی که در آن قادرند نیازها و خواستههای خود را با احترام متقابل دنبال کنند، داشته باشند. رفاه اجتماعی به شکوفایی جوامعی اشاره دارد که نهادهای اساسی مانند مراقبتهای بهداشتی و سیاست در ٰآنها به خوبی عمل میکنند و منابع درگیری اجتماعی به حداقل میرسد. رفاه زیستمحیطی به عملکرد خوب اکوسیستمها، پایداری و به حداقل رساندن تخریب محیطزیستی اشاره دارد.
سیستمهای هوش مصنوعی نباید به رفاه فردی، اجتماعی یا زیستمحیطی آسیب برساند، بلکه باید تلاش کنند تا سهم مثبتی در این اشکال رفاه داشته باشند. برای تحقق این هدف، شرکتکنندگان احتمالی در پژوهش، کاربران نهایی، افراد و جوامع آسیبدیده و ذینفعان مربوطه باید در مراحل اولیه شناسایی شوند تا امکان ارزیابی واقعبینانه از چگونگی بهبود رفاه آنها یا آسیب رسیدن به آنها توسط سیستم هوش مصنوعی فراهم شود. برای حمایت از رفاه و جلوگیری از آسیب، باید در طول توسعه، انتخابهای مستندشدهای انجام شود.
الزامات عمومی اخلاقی برای بهزیستی:
- سیستمهای هوش مصنوعی باید همهٔ کاربران نهایی و ذینفعان را در نظر بگیرند و نباید بهزیستی روانشناختی و عاطفی آنها را بیجهت یا ناعادلانه کاهش دهند.
- سیستمهای هوش مصنوعی باید منافع و رفاه هر چه بیشتر افراد را تقویت کرده و آنها را پیش ببرند.
- توسعهٔ هوش مصنوعی باید به اصول پایداری زیستمحیطی، هم در مورد خود سیستم و هم در مورد زنجیرهٔ تامینی که به آن متصل است توجه داشته باشد. در صورت لزوم، باید تلاشهای مستندی برای در نظر گرفتن تأثیرات زیستمحیطی کلی سیستم و اهداف توسعهٔ پایدار وجود داشته باشند و در صورت نیاز، اقداماتی برای کاهش آنها انجام شوند. در مورد هوش مصنوعی تعبیهشده، این اقدامات باید شامل مواد استفادهشده و رویههای لغو کردن و از رده خارج کردن آن باشد.
- سیستمهای هوش مصنوعی که میتوانند در حوزهٔ رسانه، ارتباطات، سیاست، تجزیهوتحلیل اجتماعی، انجمنها و خدمات آنلاین تجزیهوتحلیل رفتاری به کار روند، باید از نظر پتانسیل تأثیر منفی بر کیفیت ارتباطات، تعامل اجتماعی، اطلاعات، فرایندهای دموکراتیک و روابط اجتماعی (مثلاً با حمایت از گفتمان غیرمدنی، حفظ یا تقویت اخبار جعلی و دیپفیک، تفکیک مردم در حبابهای فیلتر و اتاقهای پژواک، ایجاد روابط نامتقارن قدرت و وابستگی، و امکان دستکاری سیاسی در رایدهندگان) ارزیابی شوند. برای کاهش خطر چنین آسیبهایی باید اقدامات کاهشی انجام شوند.
- سیستمهای هوش مصنوعی و رباتیک نباید ایمنی در محل کار را کاهش دهند. برنامه باید تأثیر احتمالی بر ایمنی محل کار، یکپارچگی کارکنان و استانداردهای انطباق، مانند استاندارد IEEE P1228 (استاندارد ایمنی نرمافزار) را در نظر بگیرد.
5- شفافیت، توضیحپذیری و اعتراض
شفافیت مستلزم آن است که هدف، ورودیها و عملیات برنامههای هوش مصنوعی برای ذینفعان قابلدرک باشند. بنابراین شفافیت بر تمام عناصر مرتبط با یک سیستم هوش مصنوعی تأثیر میگذارد: دادهها، سیستم و فرایندهایی که توسط آن طراحی و اجرا میشوند، زیرا ذینفعان باید بتوانند مفاهیم اصلی پشت آن را درک کنند (چگونه و برای چه هدفی این سیستمها کار میکنند و تصمیم میگیرند).
ادعاهای مربوط به حقوق IP، محرمانه بودن یا اسرار تجاری تا زمانی که بهطور مناسب حفظ شوند، نمیتوانند مانع از شفافیت شوند، مثلا از طریق شفافیت انتخابی (مانند محرمانه بودن به اشخاص ثالث قابلاعتماد)، تعهدات فناوری یا محرمانه بودن. شفافیت برای تحقق سایر اصول یعنی احترام به عامل انسانی، حریم خصوصی و حاکمیت دادهها، پاسخگویی و نظارت ضروری است. بدون شفافیت (اطلاعات معنادار هدف، ورودیها و عملیات برنامههای هوش مصنوعی)، خروجیهای هوش مصنوعی قابلدرک و چه بسا قابلبحث هم نیستند. این امر اصلاح خطاها و پیامدهای غیراخلاقی را غیرممکن میکند.
الزامات عمومی اخلاقی برای شفافیت:
- باید برای کاربران نهایی روشن شود که با یک سیستم هوش مصنوعی تعامل دارند (بهویژه برای سیستمهایی که ارتباطات انسانی را شبیهسازی میکنند، مانند چتباتها).
- هدف، قابلیتها، محدودیتها، مزایا و خطرات سیستم هوش مصنوعی و تصمیمات منتقلشده توسط آن (از جمله دستورالعملهای نحوهٔ استفادهٔ صحیح از سیستم) باید آشکارا به کاربران نهایی و سایر ذینفعان، اطلاع داده شوند.
- هنگام ساخت یک راهحل هوش مصنوعی، باید در نظر داشت که چه اقداماتی قابلیت ردیابی سیستم هوش مصنوعی را در طول کل چرخهٔ عمر آن، از طراحی اولیه تا ارزیابی و ممیزی پس از استقرار یا در صورت مخالفت با استفاده از آن، ممکن میسازد.
- هر زمان لازم شد، پیشنهادی پژوهشی باید جزئیاتی در مورد اینکه چگونه تصمیمات اتخاذشده توسط سیستم برای کاربران قابلتوضیح است ارائه دهد. در صورت امکان این امر باید شامل دلایلی باشد که چرا سیستم تصمیم خاصی گرفته است. تبیینپذیری یک الزام مربوط به سیستمهایی است که تصمیمگیری میکنند، توصیههایی دارند یا اقداماتی را انجام میدهند که میتوانند صدمات مهمی ایجاد کنند، بر حقوق فردی تأثیر بگذارند یا بهطور قابلتوجهی بر منافع فردی یا جمعی تأثیر بگذارند.
- فرایندهای طراحی و توسعه باید به تمام مسائل اخلاقی مربوطه، مانند حذف سوگیری از یک مجموعه داده بپردازند. فرایندهای توسعه (روشها و ابزارها) باید سوابق تمام تصمیمات مربوطه را در این زمینه نگه دارند تا امکان ردیابی چگونگی برآورده شدن الزامات اخلاقی را فراهم آورند.
6- پاسخگویی با طراحی، کنترل و نظارت
مسئولیتپذیری برای هوش مصنوعی مستلزم آن است که بازیگران درگیر در توسعه یا اجرا، مسئولیت نحوهٔ عملکرد این برنامهها و پیامدهای ناشی از آن را بر عهده بگیرند. البته، پاسخگویی مستلزم سطوح مشخصی از شفافیت و همچنین نظارت است. توسعهدهندگان یا اپراتورهای سیستمهای هوش مصنوعی باید بتوانند توضیح دهند که چگونه و چرا یک سیستم ویژگیهای خاصی را نشان میدهد یا نتایج خاصی را به نمایش میگذارد. نظارت انسانی مستلزم این است که بازیگران انسانی قادر به درک، نظارت و کنترل طراحی و عملکرد سیستم هوش مصنوعی باشند.
پاسخگویی به نظارت بستگی دارد: توسعههندگان و اپراتورهای سیستمهای هوش مصنوعی برای اینکه بتوانند مسئولیت را بر عهده بگیرند و بر اساس آن عمل کنند، باید عملکرد و نتایج سیستم را درک و کنترل کنند. از این رو، برای اطمینان از پاسخگویی، توسعهدهندگان باید بتوانند توضیح دهند که چگونه و چرا یک سیستم ویژگیهای خاصی را نشان میدهد.
الزامات عمومی اخلاقی برای مسئولیتپذیری و نظارت:
- باید مستند شود که چگونه اثرات نامطلوب اخلاقی و اجتماعی (مانند نتایج تبعیضآمیز، عدم شفافیت) سیستم میتوانند شناسایی و متوقف شده و از تکرار مجدد آنها جلوگیری شود.
- سیستمهای هوش مصنوعی باید اجازهی نظارت و کنترل انسانی بر چرخههای تصمیمگیری و عملیات را بدهند، مگر اینکه دلایل قانعکنندهای ارائه شود که نشان دهد چنین نظارتی لازم نیست. چنین توجیهی باید توضیح دهد که چگونه انسانها قادر خواهند بود تصمیمات اتخاذشده توسط سیستم را درک کنند و چه مکانیسمهایی برای لغو آنها وجود خواهد داشت.
- پیشنهاد پژوهشی در صورت لزوم و تا حدی که با نوع آن مطابقت داشته باشد (مثلاً پایه یا پیشرقابتی)، باید شامل ارزیابی خطرات اخلاقی احتمالی مرتبط با سیستم هوش مصنوعی پیشنهادی باشد. این باید شامل رویههای ارزیابی ریسک و اقدامات کاهشی (پس از استقرار) نیز باشد.
- این نکته باید در نظر گرفته شود که چگونه کاربران نهایی، افرادی که موضوع دادهها هستند و سایر اشخاص ثالث میتوانند شکایات، نگرانیهای اخلاقی یا رویدادهای نامطلوب را گزارش کنند و چگونه این موارد ارزیابی، رسیدگی و به طرفهای مربوطه ارسال میشوند.
- بهعنوان یک اصل کلی، همهی سیستمهای هوش مصنوعی باید توسط اشخاص ثالث مستقل قابلبازرسی باشند (بهعنوان مثال، رویهها و ابزارهای موجود تحت رویکرد XAI از بهترین عملکرد در این زمینه پشتیبانی میکنند). این موضوع به بازرسی تصمیمات خود سیستم محدود نمیشود، بلکه رویهها و ابزارهای مورداستفاده در طول فرایند توسعه را نیز پوشش میدهد. در صورت لزوم، سیستم باید گزارشهای قابلدسترسی از فرایندهای داخلی سیستم هوش مصنوعی را ایجاد کند
ادامه دارد ...
مترجم: مریم رضائی حاجیده
منبع: کمیسیون اروپا مدیریت کل پژوهش و نوآوری- بخش اخلاق و یکپارچگی تحقیقات