مراحل «نظری» به‌کارگیری «اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی»

 

 

Ethics By Design and Ethics of Use Approaches
for Artificial Intelligence

 

 مراحل نظری به‌کارگیری «اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی»

 

مقدمهٔ راهنما

این راهنما به تمام فعالیت‌های تحقیقاتی مربوط به توسعه یا / و استفاده از سیستم‌ها یا تکنیک‌های مبتنی بر هوش مصنوعی، از جمله رباتیک، مربوط می‌شود. این مقاله براساس کار گروه تخصصی مستقل و سطح بالای هوش مصنوعی و «دستورالعمل‌های اخلاقی برای هوش مصنوعی قابل‌اعتماد» تهیه‌شده توسط آنها و همچنین نتایج پژوهش‌های SIENNA و SHERPA با بودجه‌ٔ اتحادیه‌ٔ اروپا نوشته شده‌ است.

این راهنما بر پایهٔ کار گروهی از متخصصان مستقل سطح عالی در هوش مصنوعی و «دستورالعمل‌های اخلاقی برای هوش مصنوعی قابل اعتماد» آنها و همچنین نتایج پروژه‌های SHERPA و SIENNA با بودجهٔ اتحادیهٔ اروپا تهیه شده است.

این سند، راهنمایی برای اتخاذ یک رویکرد اخلاقی متمرکز در حین طراحی، توسعه و استقرار و/ یا استفاده از راه‌حل‌های مبتنی بر هوش مصنوعی ارائه می‌دهد؛ اصول اخلاقی‌ای که سیستم‌های هوش مصنوعی باید از آنها پشتیبانی کنند را توضیح داده و ویژگی‌های کلیدی‌ای را که سیستم/ برنامه‌های مبتنی بر هوش مصنوعی باید برای حفظ و ارتقاء داشته باشند، مورد بحث قرار می‌دهد:

          - احترام به عامل انسانی؛

          - حریم خصوصی، حفاظت از داده‌های شخصی و حاکمیت داده‌ها؛

          - انصاف (عدالت)؛

          - رفاه فردی، اجتماعی و محیط‌زیستی؛

          - شفافیت؛

          - مسئولیت‌پذیری و نظارت.

علاوه‌براین، این سند وظایف خاصی که باید انجام شوند تا هوش مصنوعی با این مشخصات تولید شود را نیز شرح می‌دهد.

 

برای پژوهشگرانی که قصد دارند از سیستم‌های مبتنی بر هوش مصنوعی در تحقیقات خود استفاده کنند، این سند ویژگی‌های اخلاقی‌ای که باید در آن سیستم‌ها وجود داشته باشند تا امکان استفاده از آنها فراهم شود را توضیح می‌دهد.

رویکرد محوری به کار رفته در این راهنما، «اخلاق در طراحی» است. هدف اخلاق در طراحی گنجاندن اصول اخلاقی در فرایند توسعه است که اجازه می‌دهد تا مسائل اخلاقی در اسرع وقت موردتوجه قرار بگیرند و در طول فعالیت‌های پژوهشی به‌دقت پیگیری شوند. این راهنما به صراحت وظایف مشخصی را که می‌توان به عهده گرفت و برای هر روش‌شناسی توسعه (مانند AGILE، V-Method یا CRISP-DA) می‌توانند به کار روند را مشخص می‌کند. با این حال رویکرد توصیه‌شده باید متناسب با نوع پژوهش پیشنهادی باشد و باید مدنظر داشت که ریسک‌های اخلاقی می‌توانند در طول مرحله‌ٔ پژوهش و استقرار و به کارگیری یا مرحله‌ٔ اجرا متفاوت باشند. رویکرد اخلاق در طراحی ارائه‌شده در این راهنما یک ابزار اضافی دیگری برای رسیدگی به نگرانی‌های مربوط به اخلاق و نشان‌دادن انطباق با اخلاقیات نیز ارائه می‌دهد. با این حال اتخاذ رویکرد اخلاق در طراحی مانع از دیگر اقدامات برای اطمینان از پایبندی به تمام اصول اخلاقی هوش مصنوعی و انطباق با چارچوب قانونی اتحادیه‌ٔ اروپا با هدف تضمین انطباق کامل اخلاقی و اجرای الزامات اخلاقی نیست.

رویکرد پیشنهادی برای متقاضیان و ذینفعان Horizon Europe اجباری نیست، اما هدف آن ارائه‌ٔ راهنمایی‌های بیشتر برای رسیدگی به نگرانی‌های مرتبط با اخلاق و نشان دادن انطباق با اخلاقیات است.

 

این سند به سه بخش تقسیم می‌شود:

  • بخش اول: اصول و الزامات:
    این بخش اصول اخلاقی‌ای که سیستم‌های هوش مصنوعی باید به آنها پایبند باشند را تعریف کرده و الزاماتی را برای توسعه‌ی آن‌ها استخراج می‌کند؛
  • بخش دوم: مراحل عملی برای استفاده از اخلاق در طراحی در توسعه‌ٔ هوش مصنوعی:
    این بخش مفهوم اخلاق در طراحی را شرح داده و آن را به یک مدل عمومی برای توسعه‌ٔ سیستم‌های هوش مصنوعی مرتبط می‌کند و اقداماتی را که باید در مراحل مختلف توسعه‌ٔ هوش مصنوعی با هدف رعایت اصول اخلاقی و الزامات ذکرشده در بخش ۱ انجام شوند تعریف می‌کند؛
  • بخش سوم: استقرار اخلاق و استفاده از دستورالعمل‌ها برای پیاده‌سازی یا به‌کارگیری هوش مصنوعی به شیوه‌ای که از نظر اخلاقی مسئولانه است.

 


 

بخش اول
اخلاق در طراحی

 

این بخش اصول اخلاقی‌ای را که سیستم‌های هوش مصنوعی باید به آنها پایبند باشند تعریف کرده و الزاماتی  که هوش مصنوعی باید مطابق آنها باشد را استخراج می‌کند.

الزامات اخلاقی به‌عنوان مشخصه‌های یک سیستم، به اصول آن تجسم می‌بخشند. در حالی که بسیاری از الزامات اخلاقی توسط الزامات قانونی پشتیبانی می‌شوند، انطباق اخلاقی را نمی‌توان تنها با پایبندی به تعهدات قانونی به دست آورد. اخلاق مربوط به حمایت از حقوق فردی مانند آزادی و حریم خصوصی، برابری و انصاف، اجتناب از آسیب و ارتقای رفاه فردی، و ساختن جامعه‌ای بهتر و پایدارتر است که اغلب راه‌حل‌هایی را پیش‌بینی می‌کند که در نهایت به الزامات قانونی برای رعایت آنها تبدیل می‌شوند.

 

 

اصول اخلاقی و الزامات

شش اصل کلی اخلاقی وجود دارد که هر سیستم هوش مصنوعی باید بر اساس حقوق اساسی که در منشور حقوق اساسی اتحادیهٔ اروپا (منشور اتحادیه‌ٔ اروپا) و در قوانین حقوق بشر بین‌المللی مربوطه آمده است، از این اصول محافظت کرده و آنها را رعایت کند:

  • احترام به عامل انسانی:
    انسان‌ها باید برای تصمیم‌گیری و انجام اعمال خود مورد احترام قرار گیرند. احترام به عامل انسانی شامل سه اصل ویژه است که حقوق اساسی بشر را تعریف می‌کنند: استقلال، کرامت و آزادی؛
  • حریم خصوصی و حاکمیت داده‌ها:
    مردم حق دارند از حریم خصوصی و داده‌هایشان حفاظت شود و این موارد باید همیشه رعایت شوند؛
  • انصاف (عدالت):
    باید به مردم حقوق و فرصت‌های برابر داده شود و نباید بدون داشتن شایستگی به آنها منفعت یا ضرری وارد شود؛
  • رفاه فردی، اجتماعی و زیستمحیطی:
    سیستم‌های هوش مصنوعی باید به رفاه فردی، اجتماعی و زیست‌محیطی کمک کنند و به آنها آسیبی وارد نکنند؛
  • شفافیت:
    هدف، ورودی‌ها و عملیات برنامه‌های هوش مصنوعی باید برای ذینفعان قابل‌درک و
     معلوم باشد؛
  • مسئولیت‌پذیری و نظارت:
    انسان‌ها باید بتوانند طراحی و عملکرد سیستم‌های مبتنی بر هوش مصنوعی را درک، نظارت و کنترل کنند و بازیگران دخیل در توسعه یا عملیات آنها باید مسئولیت نحوه‌ی عملکرد این برنامه‌ها و پیامدهای ناشی از آن را بر عهده بگیرند.

به‌منظور تعبیه‌ی این شش اصل اخلاقی در طراحی‌ها، سیستم‌های هوش مصنوعی پیشنهادی باید با الزامات اخلاقی کلی که در زیر آمده‌اند منطبق باشند.

 

 

1- احترام به عامل انسانی

 

احترام به عامل انسانی شامل سه اصل خاص است که حقوق اساسی بشر را تعریف می‌کند:

  • استقلال
  • کرامت
  • آزادی

 

استقلال:


احترام گذاشتن به استقلال به این معنی است که به مردم اجازه دهیم خودشان فکر کنند، خودشان تصمیم بگیرند که چه چیزی درست و نادرست است و خودشان انتخاب کنند که چگونه می‌خواهند زندگی کنند. توجه به این نکته مهم است که سیستم‌های هوش مصنوعی می‌توانند بدون انجام کاری، استقلال انسان را محدود کنند ــ صرفاً با توجه نکردن به طیف کاملی از تنوع انسان‌ها در سبک زندگی، ارزش‌ها، باورها و سایر جنبه‌های زندگی که ما را منحصربه‌فرد می‌کنند. از این رو، چنین محدودیت‌هایی ممکن است بدون هیچ‌گونه قصد بدخواهانه‌ای پیش بیایند، اما صرفاً در نتیجه‌ی عدم درک زندگی، باورها، ارزش‌ها و ترجیحات مردم ایجاد شوند. این یک مشکل خاص با خدمات شخصی‌سازی است که هنجارهای فرهنگی متفاوت را در نظر نمی‌گیرد. علاوه‌براین، خدمات شخصی‌سازی، حتی زمانی که هنجارهای فرهنگی متفاوت را در نظر می‌گیرد، ممکن است اطلاعات و گزینه‌های ارائه‌شده را محدود کند. سیستم‌های مبتنی بر هوش مصنوعی باید از محدود کردن بی‌معنای زمینه‌ٔ تصمیم‌گیری فردی خودداری کنند (همچنین به قسمت «آزادی» زیر مراجعه کنید).

 

کرامت:


کرامت بیان کنندهٔ این است که هر انسانی دارای ارزشی ذاتی‌ست که هرگز نباید به خطر بیفتد. از این رو، افراد نباید ابزاری، عینی یا غیرانسانی شوند، بلکه باید همیشه با احترام با آنها رفتار شود، مثلا هنگام استفاده یا قرار گرفتن در معرض سیستم‌های مبتنی بر هوش مصنوعی.

 

آزادی:


احترام به آزادی مستلزم آن است که مردم در انجام آن دسته از اقداماتی که باید به‌عنوان افراد مستقل دنبال کنند، مانند آزادی حرکت، آزادی بیان، آزادی دسترسی به اطلاعات و آزادی تجمع، محدود نشوند. علاوه بر این، آزادی مستلزم عدم وجود محدودیت‌هایی است که استقلال مردم را تضعیف می‌کند؛ مانند اجبار، فریب، بهره‌برداری از آسیب‌پذیری‌ها و دستکاری. اما آزادی مطلق نیست بلکه توسط قانون محدود می‌شود.

 

الزامات عمومی اخلاقی در عامل انسانی:

  • کاربران نهایی و سایر افرادی که تحت‌تأثیر سیستم هوش مصنوعی قرار می‌گیرند، نباید از توانایی تصمیمگیری اساسی در مورد زندگی خود محروم شوند یا آزادی‌های اولیه از آنها سلب شود.
  • باید اطمینان حاصل شود که برنامه‌های کاربردی هوش مصنوعی به طور مستقل و بدون نظارت انسانی و امکان جبران، تصمیم‌گیری نمی‌کنند: در مورد مسائل شخصی اساسی (مثلاً تأثیر مستقیم بر زندگی خصوصی یا حرفه‌ای، سلامت، رفاه یا حقوق فردی) که معمولاً توسط انسان‌ها از طریق انتخاب‌های شخصی آزاد تصمیم‌گیری می‌شوند؛ یا در مورد مسائل اساسی اقتصادی، اجتماعی و سیاسی، که معمولاً توسط مذاکرات جمعی تصمیم‌گیری می‌شوند، یا به‌طور مشابهی  تأثیر قابل‌توجهی بر افراد می‌گذارند.
  • کاربران نهایی و سایرین که تحت‌تأثیر سیستم هوش مصنوعی قرار می‌گیرند، نباید به هیچ وجه تابع، مجبور، فریبداده‌شده، دستکاری‌شده، موردهدف‌قرارگرفته یا غیرانسانی شوند.
  • وابستگی یا اعتیاد به سیستم و عملیات آن نباید عمداً تحریک شود. این اتفاق نباید از طریق عملیات و اقدامات مستقیم سیستم اتفاق بیفتد. همچنین باید تا حد امکان از کاربرد سیستمها برای این اهداف جلوگیری شود.
  • برنامه‌های کاربردی هوش مصنوعی باید طوری طراحی شوند که به اپراتورهای سیستم و تا حد امکان به کاربران نهایی توانایی کنترل، هدایت و مداخله در عملیات اساسی سیستم را بدهند.
  • - کاربران نهایی و سایر افرادی که تحت تأثیر سیستم هوش مصنوعی قرار می‌گیرند باید اطلاعات قابل‌قبولی در مورد منطق به‌کاررفته در هوش مصنوعی و همچنین اهمیت و پیامدهای پیش‌بینی‌شده برای آنها دریافت کنند.

 

 

2- حریم خصوصی و حاکمیت داده

 

حفاظت از حریم خصوصی و داده‌ها حقوق اساسی‌ای هستند که باید همیشه رعایت شوند. سیستم‌های هوش مصنوعی باید به‌گونه‌ای ساخته شوند که اصول کمینه‌سازی داده‌ها و حفاظت از داده‌ها را بر اساس طراحی و به‌طور پیش‌فرض مطابق با مقررات عمومی حفاظت از داده‌های اتحادیه‌ٔ اروپا (GDPR) در خود داشته باشند.

حقوق مربوط به حریم خصوصی باید توسط مدل‌های حاکمیت داده‌ای که تضمین‌کنند‌هٔ صحت و نمایندگی داده‌ها هستند؛ از داده‌های شخصی محافظت می‌کنند و انسان‌ها را قادر می‌سازند تا به‌طور فعال داده‌های شخصی خود و نحوه‌ٔ استفاده‌ٔ سیستم از آنها را مدیریت کنند، محافظت شوند. حفاظت مناسب از داده‌های شخصی می‌تواند  موجب اعتماد در به اشتراک‌گذاری داده‌ها و تسهیل در جذب مدل‌های اشتراک‌گذاری داده‌ها شود. به حداقل رساندن و حفاظت از داده‌ها هرگز نباید با هدف پنهان کردن سوگیری یا اجتناب از پاسخگویی به کار گرفته شود، و این موارد باید بدون آسیب رساندن به حقوق حریم خصوصی مورد بررسی قرار گیرند.

نکته‌ٔ مهم این است که مسائل اخلاقی نه تنها هنگام پردازش داده‌های شخصی، بلکه زمانی که سیستم هوش مصنوعی از داده‌های غیرشخصی استفاده می‌کند (به‌عنوان مثال تعصب نژادی) هم مطرح شوند.

آیا می‌توانیم الزاماتی را به اعتمادسازی در داده‌ها بیفزاییم که می‌توانند به شرکت‌کنندگان در تحقیق کمک کنند تا درباره‌ٔ استفاده از داده‌ها مذاکره کنند؟

من فکر می‌کنم این بخش اگر توصیه‌های متناسبی را براساس انواع مختلف داده‌ها و مدل‌های داده‌ٔ مورداستفاده در سیستم‌های هوش مصنوعی ارائه کند، برای محققانِ هوش مصنوعی ارزش افزوده خواهد داشت؛ زیرا هر دسته از داده‌ها چالش‌های مختلفی را ایجاد می‌کنند: training data, model data, production data, knowledge data or analysis-to-data, data-to-analysis and data-and-analysis-to-lake models

 

الزامات عمومی اخلاقی برای حفظ حریم خصوصی و حاکمیت داده:

  • سیستم‌های هوش مصنوعی باید داده‌های شخصی را به شیوه‌ای قانونی، منصفانه و شفاف پردازش کنند.
  • اصول کمینه‌سازی و حفاظت از داده‌ها توسط طراحی و به‌طور پیشفرض باید در مدل‌های حاکمیت داده‌ی هوش مصنوعی ادغام شوند.
  • باید تدابیر فنی و سازمانی مناسبی برای حفاظت از حقوق و آزادی‌های افراد هدف در داده (مانند انتصاب افسر حفاظت از داده‌ها، ناشناس‌سازی، نام مستعار، رمزگذاری، تجمیع) تنظیم شوند. برای جلوگیری از نفوذ و نشت داده‌ها باید تدابیر امنیتی قوی‌ای در نظر گرفته شود. انطباق با قانون امنیت سایبری و استانداردهای امنیت بین‌المللی می‌تواند مسیر امنی را برای پایبندی به اصول اخلاقی ارائه دهد.
  • - داده‌ها باید به‌گونه‌ای جمع‌آوری، ذخیره و استفاده شوند که توسط انسان قابل‌بررسی باشند. تمام تحقیقاتی که با بودجه‌ٔ اتحادیه‌ٔ اروپا تامین می‌شوند باید با قوانین مربوطه و بالاترین استانداردهای اخلاقی مطابقت داشته باشند. این بدان معناست که همهٔ ذینفعان Horizon Europe باید اصول مندرج در GDPR را به کار گیرند

 

 

3- انصاف و عدالت

 

انصاف مستلزم آن است که همه‌ٔ مردم از حقوق و فرصت‌های اساسی یکسانی برخوردار باشند. این امر به نتایج یکسانی مثل این که افراد باید دارای ثروت یا موفقیت برابری در زندگی باشند نیاز ندارد. با این حال، نباید هیچ تبعیضی بر اساس جنبه‌های اساسی هویت که سلب‌شدنی نیستند، وجود داشته باشد. در حال حاضر قوانین مختلف تعدادی از این تبعیض‌ها مانند جنسیت، نژاد، سن، گرایش جنسی، منشاء ملی، مذهب، سلامت و ناتوانی را به رسمیت می‌شناسند. انصاف در عمل مستلزم آن است که دستورالعمل ها (روندها) به گونه‌ای طراحی نشده باشند که به‌طور خاص به افراد یا گروه‌های منفرد آسیب وارد کنند. انصاف ذاتی مستلزم آن است که هوش مصنوعی الگوهای تبعیضی را که به طور ناروا افراد و / یا گروه‌ها را به‌دلیل آسیبپذیری خاصشان تحت‌فشار قرار می‌دهند، پرورش ندهد.

انصاف را می‌توان با سیاست‌هایی که تنوع را ترویج می‌کنند نیز حمایت کرد. این سیاست‌ها، با ارزش‌گذاری مثبت به تفاوت‌های فردی، نه فقط ویژگی‌هایی مانند جنسیت و نژاد، بلکه شخصیت‌های متنوع، تجربیات، پیشینه‌های فرهنگی، سبک‌های شناختی و سایر متغیرهایی که بر دیدگاه‌های شخصی تأثیر می‌گذارند. حمایت از تنوع به معنای سازگاری با این تفاوت‌ها و حمایت از ترکیب متنوع تیم‌ها و سازمان‌ها است.

 

الزامات اخلاقی عمومی برای انصاف:

  • اجتناب از سوگیری الگوریتمی: سیستم‌های هوش مصنوعی باید طوری طراحی شوند که از سوگیری در داده‌های ورودی، مدل‌سازی و طراحی الگوریتم جلوگیری کنند. سوگیری الگوریتمی یک نگرانی خاص است که به تکنیک‌های کاهشی خاصی نیاز دارد. پیشنهادهای پژوهشی باید مراحلی را برای اطمینان از اینکه داده‌های افراد معرف جمعیت هدف بوده و تنوع آنها را منعکس می‌کنند یا به اندازه‌ٔ کافی خنثی هستند، مشخص کنند.
  • به‌طور مشابه، پیشنهادات پژوهشی باید به صراحت مستند کنند که سوگیری در داده‌های ورودی و در طراحی الگوریتمی ــ که می‌تواند باعث شود گروه‌های خاصی از افراد به اشتباه یا ناعادلانه نمایش داده شوند ــ، چگونه شناسایی شده و روش‌های اجتناب از آن را نیز ذکر کنند. این امر مستلزم در نظر گرفتن استنباط‌های به دست آمده توسط سیستم است که پتانسیل این را دارند که به‌طور ناعادلانه گروه‌های خاصی از مردم یا افراد مجزا را محروم کرده یا به روش‌های دیگر متحمل ضرر نمایند.
  • دسترس‌پذیری همگانی: سیستم‌های هوش مصنوعی (در صورت لزوم) باید طوری طراحی شوند که برای انواع مختلف کاربران نهایی با توانایی‌های مختلف قابل‌استفاده باشند. پیشنهادهای پژوهشی برای توضیح چگونگی دستیابی به این امر، مثل انطباق با دستورالعمل‌های دسترسی مرتبط، تشویق می‌شوند. تا حد امکان، سیستم‌های هوش مصنوعی باید با ارائه‌ٔ همان سطح از عملکرد و مزایا به کاربران نهایی با توانایی‌ها، باورها، ترجیحات و علایق متفاوت، از تعصب عملکردی اجتناب کنند؛
  • تأثیرات منصفانه: تأثیرات اجتماعی منفی احتمالی بر گروه‌های خاص، ــ مانند تأثیراتی غیر از آن‌هایی که ناشی از سوگیری الگوریتمی یا عدم دسترسی جهانی هستند ــ ممکن است در کوتاه‌مدت، میان‌مدت و بلندمدت رخ دهند، به‌ویژه اگر هوش مصنوعی از هدف اصلی خود منحرف شود. این تاثیرات باید کاهش یابند. سیستم هوش مصنوعی باید اطمینان حاصل کند که بر منافع گروه‌های مربوطه تأثیر منفی نمی‌گذارد. روش‌های شناسایی و کاهش اثرات منفی اجتماعی در میان‌مدت و بلندمدت باید به خوبی در طرح پیشنهادی پژوهش مستند شوند.

 

 

4- رفاه فردی، اجتماعی و زیست‌محیطی

 

رفاه فردی به این معنی است که افراد می‌توانند زندگی کاملی که در آن قادرند نیازها و خواسته‌های خود را با احترام متقابل دنبال کنند، داشته باشند. رفاه اجتماعی به شکوفایی جوامعی اشاره دارد که نهادهای اساسی مانند مراقبت‌های بهداشتی و سیاست در ٰآنها به خوبی عمل می‌کنند و منابع درگیری اجتماعی به حداقل می‌رسد. رفاه زیست‌محیطی به عملکرد خوب اکوسیستم‌ها، پایداری و به حداقل رساندن تخریب محیط‌زیستی اشاره دارد.

 

سیستم‌های هوش مصنوعی نباید به رفاه فردی، اجتماعی یا زیست‌محیطی آسیب برساند، بلکه باید تلاش کنند تا سهم مثبتی در این اشکال رفاه داشته باشند. برای تحقق این هدف، شرکت‌کنندگان احتمالی در پژوهش، کاربران نهایی، افراد و جوامع آسیب‌دیده و ذینفعان مربوطه باید در مراحل اولیه شناسایی شوند تا امکان ارزیابی واقع‌بینانه از چگونگی بهبود رفاه آنها یا آسیب رسیدن به آنها توسط سیستم هوش مصنوعی فراهم شود. برای حمایت از رفاه و جلوگیری از آسیب، باید در طول توسعه، انتخاب‌های مستندشده‌ای انجام شود.

 

الزامات عمومی اخلاقی برای بهزیستی:

  • سیستم‌های هوش مصنوعی باید همه‌ٔ کاربران نهایی و ذینفعان را در نظر بگیرند و نباید بهزیستی روانشناختی و عاطفی آنها را بی‌جهت یا ناعادلانه کاهش دهند.
  • سیستم‌های هوش مصنوعی باید منافع و رفاه هر چه بیشتر افراد را تقویت کرده و آنها را پیش ببرند.
  • توسعه‌ٔ هوش مصنوعی باید به اصول پایداری زیست‌محیطی، هم در مورد خود سیستم و هم در مورد زنجیره‌ٔ تامینی که به آن متصل است توجه داشته باشد. در صورت لزوم، باید تلاش‌های مستندی برای در نظر گرفتن تأثیرات زیست‌محیطی کلی سیستم و اهداف توسعه‌ٔ پایدار وجود داشته باشند و در صورت نیاز، اقداماتی برای کاهش آنها انجام شوند. در مورد هوش مصنوعی تعبیه‌شده، این اقدامات باید شامل مواد استفاده‌شده و رویه‌های لغو کردن و از رده خارج کردن آن باشد.
  • سیستم‌های هوش مصنوعی که می‌توانند در حوزه‌ٔ رسانه، ارتباطات، سیاست، تجزیه‌وتحلیل اجتماعی، انجمن‌ها و خدمات آنلاین تجزیه‌وتحلیل رفتاری به کار روند، باید از نظر پتانسیل تأثیر منفی بر کیفیت ارتباطات، تعامل اجتماعی، اطلاعات، فرایندهای دموکراتیک و روابط اجتماعی (مثلاً با حمایت از گفتمان غیرمدنی، حفظ یا تقویت اخبار جعلی و دیپ‌فیک، تفکیک مردم در حباب‌های فیلتر و اتاق‌های پژواک، ایجاد روابط نامتقارن قدرت و وابستگی، و امکان دستکاری سیاسی در رای‌دهندگان) ارزیابی شوند. برای کاهش خطر چنین آسیبهایی باید اقدامات کاهشی انجام شوند.
  • سیستم‌های هوش مصنوعی و رباتیک نباید ایمنی در محل کار را کاهش دهند. برنامه باید تأثیر احتمالی بر ایمنی محل کار، یکپارچگی کارکنان و استانداردهای انطباق، مانند استاندارد IEEE P1228 (استاندارد ایمنی نرم‌افزار) را در نظر بگیرد.

 

 

5- شفافیت، توضیح‌پذیری و اعتراض

 

شفافیت مستلزم آن است که هدف، ورودی‌ها و عملیات برنامه‌های هوش مصنوعی برای ذینفعان قابل‌درک باشند. بنابراین شفافیت بر تمام عناصر مرتبط با یک سیستم هوش مصنوعی تأثیر می‌گذارد: داده‌ها، سیستم و فرایندهایی که توسط آن طراحی و اجرا می‌شوند، زیرا ذینفعان باید بتوانند مفاهیم اصلی پشت آن را درک کنند (چگونه و برای چه هدفی این سیستم‌ها کار می‌کنند و تصمیم می‌گیرند).

 

ادعاهای مربوط به حقوق IP، محرمانه بودن یا اسرار تجاری تا زمانی که به‌طور مناسب حفظ شوند، نمی‌توانند مانع از شفافیت شوند، مثلا از طریق شفافیت انتخابی (مانند محرمانه بودن به اشخاص ثالث قابل‌اعتماد)، تعهدات فناوری یا محرمانه بودن. شفافیت برای تحقق سایر اصول یعنی احترام به عامل انسانی، حریم خصوصی و حاکمیت داده‌ها، پاسخگویی و نظارت ضروری است. بدون شفافیت (اطلاعات معنادار هدف، ورودی‌ها و عملیات برنامه‌های هوش مصنوعی)، خروجی‌های هوش مصنوعی قابل‌درک و چه بسا قابل‌بحث هم نیستند. این امر اصلاح خطاها و پیامدهای غیراخلاقی را غیرممکن می‌کند.

 

الزامات عمومی اخلاقی برای شفافیت:

  • باید برای کاربران نهایی روشن شود که با یک سیستم هوش مصنوعی تعامل دارند (به‌ویژه برای سیستمهایی که ارتباطات انسانی را شبیهسازی می‌کنند، مانند چت‌باتها).
  • هدف، قابلیت‌ها، محدودیت‌ها، مزایا و خطرات سیستم هوش مصنوعی و تصمیمات منتقل‌شده توسط آن (از جمله دستورالعمل‌های نحوه‌ٔ استفاده‌ٔ صحیح از سیستم) باید آشکارا به کاربران نهایی و سایر ذینفعان، اطلاع داده شوند.
  • هنگام ساخت یک راه‌حل هوش مصنوعی، باید در نظر داشت که چه اقداماتی قابلیت ردیابی سیستم هوش مصنوعی را در طول کل چرخه‌ٔ عمر آن، از طراحی اولیه تا ارزیابی و ممیزی پس از استقرار یا در صورت مخالفت با استفاده از آن، ممکن می‌سازد.
  • هر زمان لازم شد، پیشنهادی پژوهشی باید جزئیاتی در مورد اینکه چگونه تصمیمات اتخاذشده توسط سیستم برای کاربران قابل‌توضیح است ارائه دهد. در صورت امکان این امر باید شامل دلایلی باشد که چرا سیستم تصمیم خاصی گرفته است. تبیین‌پذیری یک الزام مربوط به سیستم‌هایی است که تصمیم‌گیری می‌کنند، توصیههایی دارند یا اقداماتی را انجام می‌دهند که می‌توانند صدمات مهمی ایجاد کنند، بر حقوق فردی تأثیر بگذارند یا به‌طور قابل‌توجهی بر منافع فردی یا جمعی تأثیر بگذارند.
  • فرایندهای طراحی و توسعه باید به تمام مسائل اخلاقی مربوطه، مانند حذف سوگیری از یک مجموعه داده بپردازند. فرایندهای توسعه (روش‌ها و ابزارها) باید سوابق تمام تصمیمات مربوطه را در این زمینه نگه دارند تا امکان ردیابی چگونگی برآورده شدن الزامات اخلاقی را فراهم آورند.

 

 

6- پاسخگویی با طراحی، کنترل و نظارت

 

مسئولیتپذیری برای هوش مصنوعی مستلزم آن است که بازیگران درگیر در توسعه یا اجرا، مسئولیت نحوه‌ٔ عملکرد این برنامه‌ها و پیامدهای ناشی از آن را بر عهده بگیرند. البته، پاسخگویی مستلزم سطوح مشخصی از شفافیت و همچنین نظارت است. توسعه‌دهندگان یا اپراتورهای سیستم‌های هوش مصنوعی باید بتوانند توضیح دهند که چگونه و چرا یک سیستم ویژگی‌های خاصی را نشان می‌دهد یا نتایج خاصی را به نمایش می‌گذارد. نظارت انسانی مستلزم این است که بازیگران انسانی قادر به درک، نظارت و کنترل طراحی و عملکرد سیستم هوش مصنوعی باشند.

پاسخگویی به نظارت بستگی دارد: توسعه‌هندگان و اپراتورهای سیستم‌های هوش مصنوعی برای اینکه بتوانند مسئولیت را بر عهده بگیرند و بر اساس آن عمل کنند، باید عملکرد و نتایج سیستم را درک و کنترل کنند. از این رو، برای اطمینان از پاسخگویی، توسعه‌دهندگان باید بتوانند توضیح دهند که چگونه و چرا یک سیستم ویژگی‌های خاصی را نشان می‌دهد.

 

الزامات عمومی اخلاقی برای مسئولیت‌پذیری و نظارت:

  • باید مستند شود که چگونه اثرات نامطلوب اخلاقی و اجتماعی (مانند نتایج تبعیضآمیز، عدم شفافیت) سیستم می‌توانند شناسایی و متوقف شده و از تکرار مجدد آنها جلوگیری شود.
  • سیستم‌های هوش مصنوعی باید اجازه‌ی نظارت و کنترل انسانی بر چرخه‌های تصمیم‌گیری و عملیات را بدهند، مگر اینکه دلایل قانع‌کننده‌ای ارائه شود که نشان دهد چنین نظارتی لازم نیست. چنین توجیهی باید توضیح دهد که چگونه انسان‌ها قادر خواهند بود تصمیمات اتخاذشده توسط سیستم را درک کنند و چه مکانیسمهایی برای لغو آنها وجود خواهد داشت.
  • پیشنهاد پژوهشی در صورت لزوم و تا حدی که با نوع آن مطابقت داشته باشد (مثلاً پایه یا پیش‌رقابتی)، باید شامل ارزیابی خطرات اخلاقی احتمالی مرتبط با سیستم هوش مصنوعی پیشنهادی باشد. این باید شامل رویه‌های ارزیابی ریسک و اقدامات کاهشی (پس از استقرار) نیز باشد.
  • این نکته باید در نظر گرفته شود که چگونه کاربران نهایی، افرادی که موضوع داده‌ها هستند و سایر اشخاص ثالث می‌توانند شکایات، نگرانی‌های اخلاقی یا رویدادهای نامطلوب را گزارش کنند و چگونه این موارد ارزیابی، رسیدگی و به طرف‌های مربوطه ارسال می‌شوند.
  • به‌عنوان یک اصل کلی، همه‌ی سیستم‌های هوش مصنوعی باید توسط اشخاص ثالث مستقل قابل‌بازرسی باشند (به‌عنوان مثال، رویه‌ها و ابزارهای موجود تحت رویکرد XAI از بهترین عملکرد در این زمینه پشتیبانی می‌کنند). این موضوع به بازرسی تصمیمات خود سیستم محدود نمی‌شود، بلکه رویهها و ابزارهای مورداستفاده در طول فرایند توسعه را نیز پوشش می‌دهد. در صورت لزوم، سیستم باید گزارش‌های قابل‌دسترسی از فرایندهای داخلی سیستم هوش مصنوعی را ایجاد کند

 

 

ادامه دارد ...

 

 

مترجم: مریم رضائی حاجیده

منبع: کمیسیون اروپا مدیریت کل پژوهش و نوآوری- بخش اخلاق و یکپارچگی تحقیقات

 

 

 

۵
از ۵
۵ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.