Ethics By Design and Ethics of Use Approaches
for Artificial Intelligence
معرفی سند راهنما
این راهنما به فعالیتهای پژوهشی مرتبط با توسعه و استفاده از هوش مصنوعی (مانند رباتیک) میپردازد. این مقاله بر اساس دستورالعملهای اخلاقی برای هوش مصنوعی قابلاعتماد که توسط کارگروه تخصصی و مستقل هوش مصنوعی تهیه شده است و همچنین نتایج پژوهشهای SIENNA و SHERPA با اتحادیهٔ اروپا نگاشته شده است.
این سند، راهنمایی برای اتخاذ یک رویکرد اخلاقی متمرکز در حین طراحی، توسعه، و استقرار و/ یا استفاده از راهحلهای مبتنی بر هوش مصنوعی ارائه میدهد؛ اصول اخلاقیای که سیستمهای هوش مصنوعی باید از آنها پشتیبانی کنند را توضیح داده و ویژگیهای کلیدیای را که سیستم/ برنامههای مبتنی بر هوش مصنوعی باید برای حفظ و ارتقاء داشته باشند، مورد بحث قرار میدهد:
- احترام به عامل انسانی؛
- حریم خصوصی، حفاظت از دادههای شخصی و حاکمیت دادهها؛
- انصاف (عدالت)؛
- رفاه فردی، اجتماعی و محیطزیستی؛
- شفافیت؛
- مسئولیتپذیری و نظارت.
علاوهبراین، این سند وظایف خاصی که باید انجام شوند تا هوش مصنوعی با این مشخصات تولید شود را نیز شرح میدهد.
برای پژوهشگرانی که قصد دارند از سیستمهای مبتنی بر هوش مصنوعی در تحقیقات خود استفاده کنند، این سند ویژگیهای اخلاقیای که باید در آن سیستمها وجود داشته باشند تا امکان استفاده از آنها فراهم شود را توضیح میدهد.
رویکرد محوری به کار رفته در این راهنما، «اخلاق در طراحی» است. هدف اخلاق در طراحی گنجاندن اصول اخلاقی در فرایند توسعه است که اجازه میدهد تا مسائل اخلاقی در اسرع وقت موردتوجه قرار بگیرند و در طول فعالیتهای پژوهشی بهدقت پیگیری شوند. این مقاله به صراحت وظایف مشخصی را که میتوان به عهده گرفت و برای هر روششناسی توسعه (مانند AGILE، V-Method یا CRISP-DA) میتوانند به کار روند را مشخص میکند. با این حال رویکرد توصیهشده باید متناسب با نوع پژوهش پیشنهادی باشد و باید مدنظر داشت که ریسکهای اخلاقی میتوانند در طول مرحلهٔ پژوهش و استقرار و به کارگیری یا مرحلهٔ اجرا متفاوت باشند. رویکرد اخلاق در طراحی ارائهشده در این راهنما یک ابزار اضافی دیگری برای رسیدگی به نگرانیهای مربوط به اخلاق و نشاندادن انطباق با اخلاقیات نیز ارائه میدهد. با این حال اتخاذ رویکرد اخلاق در طراحی مانع از دیگر اقدامات برای اطمینان از پایبندی به تمام اصول اخلاقی هوش مصنوعی و انطباق با چارچوب قانونی اتحادیهٔ اروپا با هدف تضمین انطباق کامل اخلاقی و اجرای الزامات اخلاقی نیست.
رویکرد پیشنهادی برای متقاضیان و ذینفعان Horizon Europe اجباری نیست، اما هدف آن ارائهٔ راهنماییهای بیشتر برای رسیدگی به نگرانیهای مرتبط با اخلاق و نشان دادن انطباق با اخلاقیات است.
این سند به سه بخش تقسیم میشود:
- بخش ۱: اصول و الزامات:
این بخش اصول اخلاقیای که سیستمهای هوش مصنوعی باید به آنها پایبند باشند را تعریف کرده و الزاماتی را برای توسعهٔ آنها استخراج میکند؛ - بخش ۲: مراحل عملی برای استفاده از اخلاق در طراحی در توسعهٔ هوش مصنوعی:
این بخش مفهوم اخلاق در طراحی را شرح داده و آن را به یک مدل عمومی برای توسعهٔ سیستمهای هوش مصنوعی مرتبط میکند و اقداماتی را که باید در مراحل مختلف توسعهٔ هوش مصنوعی با هدف رعایت اصول اخلاقی و الزامات ذکرشده در بخش ۱ انجام شوند تعریف میکند؛ - بخش ۳: استقرار اخلاق و استفاده از دستورالعملها برای پیادهسازی یا بهکارگیری هوش مصنوعی به شیوهای که از نظر اخلاقی مسئولانه است.
فهرست سند
معرفی
بخش ۱- اخلاق در طراحی: اصول و الزامات
1- احترام به عامل انسانی؛
2- حریم خصوصی و حاکمیت داده؛
3- انصاف (عدالت)؛
4- رفاه فردی، اجتماعی و زیستمحیطی؛
5- شفافیت، توضیح پذیری و اعتراض؛
6- پاسخگویی با طراحی، کنترل و نظارت؛
بخش ۲- نحوهٔ بهکارگیری اصول اخلاق در طراحی در توسعهی هوش مصنوعی: مراحل عملی
فرایند توسعه
۱. مشخص کردن اهداف؛
2. تعیین الزامات (فنی و غیرفنی)؛
3. طراحی سطح بالا؛
۴. جمعآوری و آمادهسازی دادهها؛
۵. طراحی و توسعهٔ دقیق؛
6. آزمون و ارزشیابی
۳. بخش سوم: استقرار و استفادهٔ اخلاقی
برنامهریزی و مدیریت پروژه
اکتساب
استقرار و اجرا
نظارت
چکلیست پیوست I: تعیین اهداف در مقابل الزامات اخلاقی
برای مطالعهٔ کامل سند راهنما فایل زیر را دانلود کنید.
سند راهنمای اخلاق در طراحی و اخلاقیات در رویکردهای استفاده برای هوش مصنوعی کمیسیون اروپا ۲۰۲۱.pdf
مقالات مرتبط:
- نزدیک شدن به هوش مصنوعی اخلاقی: یک دیدگاه خودمانی
- هوش مصنوعی چقدر اخلاقی است؟
- ایجاد یک رویکرد سازمانی برای هوش مصنوعی مسئول
- مراحل «عملی» بهکارگیری اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی ــ بخش اول
- مراحل «عملی» بهکارگیری اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی ــ بخش دوم
مراحل «نظری» بهکارگیری «اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی»