مراحل «عملی» به‌کارگیری اصول اخلاق در طراحی و توسعه‌ٔ هوش مصنوعی ــ بخش اول

 

 

Ethics By Design and Ethics of Use Approaches

for Artificial Intelligence

 

مراحل عملی به‌کارگیری اصول اخلاق در طراحی و توسعه‌ٔ هوش مصنوعی

 

 

بخش دوم
نحوه‌ٔ به‌کارگیری اصول اخلاق در طراحی در توسعه‌ٔ هوش مصنوعی: مراحل عملی

 

اخلاق در طراحی رویکردی است که می‌توان آن را برای اطمینان از اینکه الزامات اخلاقی در طول توسعه‌ٔ سیستم یا تکنیک هوش مصنوعی  به‌درستی موردتوجه واقع می‌شوند، به کار برد. این تنها رویکرد ممکن نیست. با این حال، این رویکرد اختصاصاً طراحی‌شده تا آنچه را که لازم است تا حد امکان روشن کند، وظایف خاصی را که باید انجام شوند توضیح دهد و به توسعه‌دهندگان کمک کند در هنگام توسعه‌ٔ یک سیستم هوش مصنوعی درباره‌ٔ اخلاق بیندیشند.

 

چرا اخلاق در طراحی؟

برای بسیاری از پروژه‌های هوش مصنوعی، مسائل اخلاقی مربوطه ممکن است تنها پس از استقرار سیستم شناسایی شوند، در حالیکه برای پروژه‌های دیگر ممکن است در مرحله‌ٔ توسعه آشکار شوند. اخلاق در طراحی در وهله‌ٔ اول برای جلوگیری از بروز مسائل اخلاقی با پرداختن به آنها در مرحله‌ٔ توسعه، به جای تلاش برای رفع آنها در مراحل بعدی، در نظر گرفته شده است. این امر با استفاده‌ٔ فعالانه از اصول به‌عنوان الزامات سیستم حاصل می‌شود. علاوه‌براین، از آنجایی که بسیاری از الزامات تنها در صورت ساخته‌شدن سیستم به روش‌های خاصی محقق می‌شوند، الزامات اخلاقی گاهی به جای خود سیستم هوش مصنوعی، در فرایندهای توسعه اعمال می‌شوند.

اخلاق در طراحی با یک مدل پنج لایه توصیف می‌شود؛ این مدل مشابه بسیاری از مدل‌های دیگر در علوم کامپیوتر است:‌ سطوح بالاتر انتزاعی‌تر هستند و با پایین آمدن سطوح ویژگی‌ها زیاد می‌شوند.

 

مدل پنج لایه اخلاق با طراحی
مدل ۵ لایه‌ٔ  اخلاق با طراحی

 

 

فرایند توسعه

 

هدف اخلاق در طراحی این است که مردم را در حین توسعه‌ٔ یک سیستم، در خصوص نگرانی‌های اخلاقی بالقوه به فکر کردن و ر سیدگی وادارد.

الزامات اخلاقی اصلی برای سیستم‌های هوش مصنوعی و رباتیک در بالا را می‌توان به‌صورت زیر خلاصه کرد:

  • سیستم‌های هوش مصنوعی نباید بر استقلال، آزادی یا کرامت انسان تأثیر منفی بگذارد.
  • سیستم‌های هوش مصنوعی نباید حق حفظ حریم خصوصی و حفاظت از داده‌های شخصی را نقض کنند. آنها باید از داده‌هایی استفاده کنند که ضروری، غیرجانبدارانه، نماینده و دقیق هستند.
  • سیستم‌های هوش مصنوعی باید با دستور کار منصفانه و بدون تبعیض توسعه یابند.
  • باید اقدامات لازم را انجام داد تا اطمینان حاصل شود که سیستم‌های هوش مصنوعی آسیب فردی، اجتماعی یا زیست‌محیطی ایجاد نمی‌کنند، به فناوری‌های مضر متکی نیستند و دیگران را تحت‌تأثیر قرار نمی‌دهند تا به‌گونه‌ای عمل کنند که باعث آسیب شده یا خودشان به‌صورت خزنده عمل کنند.
  • سیستم‌های هوش مصنوعی باید تا حد امکان برای ذینفعان و کاربران نهایی خود شفاف باشند.
  • نظارت و پاسخگویی انسانی برای اطمینان از انطباق با این اصول و رسیدگی به موارد عدم رعایت الزامی است.

 

اخلاق در طراحی بر این اساس استوار است که فرایندهای توسعه‌ی سیستمهای هوش مصنوعی و روباتیک را می‌توان با استفاده از یک مدل عمومی شش مرحله‌ای توصیف کرد. این بخش مدل عمومی را تشریح می‌کند، سپس مراحل موردنیاز برای استفاده از آن را به‌منظور گنجاندن اخلاق در طراحی در فرایند توسعه بیان می‌کند.

با ترسیم روش توسعه‌ٔ خود طبق مدل عمومی مورد استفاده در اینجا، می‌توان الزامات اخلاقی مربوطه را تعیین کرد. پس از انجام این کار، اخلاق در طراحی به‌عنوان وظایف، اهداف، محدودیت ها و موارد مشابه در روش توسعه شما گنجانده می‌شود. بنابراین احتمال بروز نگرانی‌های اخلاقی به حداقل می‌رسد؛ زیرا هر مرحله در فرایند توسعه شامل اقداماتی برای جلوگیری از بروز آنها در وهله‌ٔ اول است.

با وجود اینکه شش مرحله از مدل عمومی در اینجا در قالب یک لیست ارائه شده‌اند، اما اینها لزوما یک فرایند متوالی نیستند. مراحل ممکن است تکراری باشند، مانند مدل V یا CRISP-DM، یا ممکن است از مدل‌های آبشاری منحرف شوند و یا اینکه افزایشی باشند، مانند Agile. در هر مورد، تشخیص وظایف مشابه در روش توسعه‌ٔ موردعلاقه‌ٔ شخص، و سپس ترسیم وظایف مدل عمومی بر روی مراحل یا وظایف در رویکرد، نباید دشوار باشند.

 

مدل عمومی برای توسعه‌ی هوش مصنوعی

 

 

شش وظیفه در مدل عمومی عبارتند از:

  • مشخص کردن اهداف: تعیین این که سیستم برای چه کاری است و باید قادر به انجام چه کاری باشد.
  • تعیین الزامات: توسعه‌ی الزامات فنی و غیرفنی برای ساخت سیستم، از جمله تعیین اولیه‌ٔ منابع موردنیاز، ارزیابی اولیه‌ٔ ریسک و تجزیهوتحلیل هزینه و فایده، که منجر به نقشه‌ٔ طراحی می‌شود.
  • طراحی سطح بالا: توسعه‌ٔ یک معماری سطح بالا. این امر گاهی با توسعه‌ٔ یک مدل مفهومی پیش می‌رود.
  • جمع آوری و آماده‌سازی داده: جمع آوری، تأیید، تمیز کردن و یکپارچهسازی داده‌ها.
  • طراحی و توسعه‌ی دقیق: ساخت واقعی یک سیستم کاملاً کارآمد.
  • آزمون و ارزیابی: آزمودن و ارزیابی سیستم.

در ادامه هر یک از این مراحل به تفصیل به همراه وظایف مربوطه که برای اطمینان از رعایت اصول اخلاقی انجام می‌شوند، بررسی می‌شوند.

 

 

1- مشخص کردن اهداف

 

در این مرحله، اهداف سیستم بر اساس اصول اخلاقی و الزامات ارائه‌شده در بخش اول ارزیابی می‌شوند.

نقض‌های اخلاقی احتمالی از نظر درجه‌ٔ جدیت متفاوت هستند. برخی از این تخلف‌ها ممکن است فقط فرضی، بسیار بعید یا با جدیت کمتری باشند. در این موارد، لزوماً نباید سیستم را رها کرد، بلکه باید برای جلوگیری از پیامدهای غیراخلاقی و کاهش زودهنگام و به‌موقع آنها، اقدامات مشخصی انجام داد.

توجه داشته باشید که برخی از مسائل اخلاقی ممکن است نگرانی‌های اخلاقی جدی‌تری را نسبت به سایرین ایجاد کنند. به‌عنوان مثال می‌توان این موارد را برشمرد:

  • سیستم‌هایی که حقوق بشر را محدود می‌کنند؛
  • مردم را تحت تسلط خود می‌گیرند، فریب داده یا دستکاری می‌کنند؛
  • تمامیت جسمی یا ذهنی را نقض می‌کنند؛
  • موجب دلبستگی یا اعتیاد می‌شوند یا کنترل انسان را بر سر تصمیم‌های اصلی شخصی، اخلاقی یا سیاسی سلب می‌کنند.

 

برخی از این سیستمها ممکن است طبق قوانین اتحادیه‌ٔ اروپا ممنوع تلقی شوند. از این رو، برخی از اهداف از نقطه نظر اخلاقی تحت هیچ شرایطی مجاز نیستند. اگر هدف یک سیستم اساساً با ارزش‌ها و الزامات اخلاقی ناسازگار باشد، پروژه نباید ادامه یابد. هر کاری که می‌تواند انجام شود، نباید لزوما انجام شود.

اهدافی که احتمالاً منجر به آسیبهای جسمی، روانی یا مالی به افراد، آسیبهای زیستمحیطی یا آسیب به فرایندها و نهادهای اجتماعی شوند (مثلاً با حمایت از اطلاعات نادرست مردم) نیز از نظر اخلاقی قابل‌قبول نیستند. اگر پتانسیل قابل‌توجهی برای آسیب اجتماعی یا زیستمحیطی  ناشی از استفاده‌ٔ فناوری وجود داشته باشد، لازم است که ارزیابی اثرات اجتماعی و/ یا زیست‌محیطی انجام شود.

علاوه‌براین، در نظر بگیرید که آیا سیستم هوش مصنوعی ــ خود سیستم یا روش استفاده از آن ــ می‌تواند ناخواسته (یا عمداً) افراد را از نظر اجتماعی یا سیاسی در مضیقه قرار دهد، یا منجر به تبعیض ناعادلانه شود. در این صورت، اهداف سیستم باید اصلاح شده و اقدامات مناسبی برای کاهش این خطرات اتخاذ شوند.

توجه داشته باشید! الزامات اخلاقی در جهت شفافیت، پاسخگویی و نظارت معمولاً در مورد اهداف اعمال نمی‌شوند، بلکه در مورد معماری و طراحی دقیق سیستم به کار می‌روند. این الزامات معمولاً باید در این مرحله در نظر گرفته شوند تا مشخص شود که اهداف سیستم تا چه حد اجازه می‌دهند شفافیت و/ یا مسئولیت‌پذیری و نظارت لازم در سیستم به کار رود.

 

 

توجه:

هنگام ارزیابی اهداف، همواره احتمال سوء‌استفاده‌ٔ عمدی یا تصادفی را در نظر داشته باشید. تا حد امکان اهداف سیستم را در جهت کاهش چنین احتمالی اصلاح کنید. چنانچه سوء‌استفاده‌ٔ بالقوه قابل‌توجه است، ارزیابی ریسک را انجام دهید تا خطرات، عناصر طراحی موردنیاز برای کاهش این سوء‌استفاده و هر روشی که برای کاهش ریسک پس از استقرار و عملیاتی شدن لازم است، برآورد شوند.

 

 

 

 

 

 

 

دو دستورالعمل کلی زیر، برای مرحله‌ی مشخص کردن اهداف به کار می‌روند:

  • ارزیابی کنید که آیا اهداف پروژه‌ٔ طراحی با الزامات اخلاقی مربوطه مطابقت دارند یا خیر (به بخش ۱ و پیوست ۱ مراجعه کنید). توصیه می‌شود که یک متخصص اخلاق هوش مصنوعی (در صورت وجود) برای ارزیابی اهداف برای همکاری با اعضای تیم توسعه استخدام شود.
  •  در هر دو مرحله‌ٔ تعیین اهداف و تعیین  الزامات، ذینفعان خارجی را هم مدنظر قرار دهید. ممکن است ذینفعان از مسائل اخلاقی گسترده‌تری که در نتیجه‌ٔ استفاده از سیستم ناشی می‌شوند، آگاه باشند. در صورت امکان، باید با ذینفعان در مورد اینکه چه مسائل اخلاقی‌ای در معرض خطر هستند و چگونگی برخورد با این مسائل مشورت کرد. ذینفعان باید به‌طور مناسبی متنوع باشند (جنس، سن، قومیت، و غیره) و گروه‌های عمده‌ای را شامل شوند که به‌طور مستقیم یا غیرمستقیم تحت‌تأثیر سیستم قرار می گیرند. به این ترتیب طیف متنوعی از ایده‌ها و ترجیحات به انتخاب طراحی کمک خواهند کرد

 

 

2- تعیین الزامات فنی و غیرفنی

 

در طول این مرحله، الزامات توسعه، منابع و برنامه‌ها بر اساس الزامات اخلاقی ارزیابی می‌شوند.

کارکرد اولیه‌ٔ مرحله‌ٔ تعیین الزامات، رسیدن به برنامه‌ی توسعه‌ایست که شامل مشخصات طراحی سیستم، تعریف زیرساخت توسعه، تعیین منابع کارکنان موردنیاز، تعیین نقاط عطف و سایر مهلت‌ها و غیره است.

اکثر سازمان‌ها دارای مجموعه‌ٔ استانداردی از ابزارهای توسعه هستند که برای همهٔ پروژه‌ها استفاده می‌شوند. ساختارها و رویه‌های سازمانی و مدیریتی  ــ به مانند روش‌شناسی توسعه ــ معمولاً با این ابزارها تنظیم می‌شوند. بااین‌وجود، نمی‌توان فرض کرد که هر ابزار، فرایند یا عنصر سازمانی از اخلاق در طراحی پشتیبانی می‌کند. برخی از الزامات اخلاقی مشکلات جدیدی را در طول توسعه ایجاد می‌کنند. برای مثال، دیگر صرف اصلاح مجموعه داده‌ها برای سوگیری کافی نیست، بلکه توسعه‌دهندگان باید مستند کنند که این کار چگونه انجام شده است. در نتیجه، الزامات مربوط به نظارت و حسابرسی انسانی ممکن است نیاز به مستندسازی بسیاری از فرایندهای داخلی را به میزانی بیشتر از آنچه قبلاً وجود داشته، تحمیل کند. بنابراین باید در نظر گرفت که ابزارها و ساختارهای سازمانی مورداستفاده در پروژه‌های که قبلاً بر روش‌های توسعه متکی بودند، ممکن است نیاز به اصلاح داشته باشند.

در برخی موارد، ابزارهای توسعه‌ی مناسبی که امکان برآوردن الزامات اخلاقی را فراهم کنند، ممکن است به آسانی دردسترس نباشند. با این حال، لازم است که در جستجوی ابزار مناسب بسیار دقیق بود. الزامات تعیینشده در اینجا منحصر به Horizon Europe نیستند، بلکه خواسته‌های رایج بسیاری از پروژه‌های هوش مصنوعی هستند. در‌نتیجه، ابزارهای لازم برای برآوردن الزامات اخلاقی مربوطه به سرعت در حال توسعه هستند.

 

همه‌ی الزامات اخلاقی ممکن است مرتبط نباشند! درجه‌ای که ناتوانی فنی در برآوردن یک الزام اخلاقی می تواند مانع از پیشبرد پروژه شود، به الزامات اخلاقی خاص موردنظر و عملکرد سیستم بستگی دارد. به‌عنوان مثال، سیستمی که وام‌های شخصی را تأیید می‌کند باید بتواند هر تصمیم فردی را در قالبی خوانا برای انسان توضیح دهد، زیرا افراد تحت‌تأثیر تصمیمات آن قرار می‌گیرند. در مقابل، سیستمی که قرار ملاقات‌ها را مدیریت می‌کند ممکن است تنها تأثیر محدودی بر زندگی افراد داشته باشد، بنابراین به شفافیت کمتری نیاز دارد. در مواردی که اعتقاد بر این است که برآوردن یک الزام اخلاقی مربوطه از نظر فنی غیرممکن است، اهمیت این الزام عاملی در تعیین تأیید خواهد بود.

 

 

 

 

 

 

 

 

دستورالعمل‌های کلی زیر تا حدی که با نوع تحقیق پیشنهادی مطابقت داشته باشند (از پایه تا پیش‌رقابتی)، برای مرحله‌ی تعیین الزامات اعمال می‌شوند:

  • مشخصات طراحی پیشنهادی، محدودیت‌ها، منابع انتخاب‌شده و زیرساختها باید از نظر سازگاری با الزامات اخلاقی ارزیابی شوند. مثلاً، برخی از تکنیک‌های یادگیری عمیق ممکن است برای شفافیت  انتخاب خوبی نباشند. مناسب است که این مشخصات و محدودیتها را در برابر الزامات اخلاقی قسمت ۱ بررسی کنید و درصورت لزوم برای اطمینان از تناسب، آنها را اصلاح کنید.
  • هنگامی که برنامه‌ٔ یک طراحیِ کامل تولید شد (و تا حدودی با نوع پژوهش پیشنهادی مطابقت داشت)، به‌منظور برآورد خطرات اخلاقی خاص در توسعه، استقرار و استفاده از سیستم، یک ارزیابی تاثیرات و ریسک اخلاقی توصیه می‌شود که باید شامل ارزیابی خطرات مرتبط با استفاده‌های ناخواسته و پیامدهای سیستم باشد. برای جلوگیری از خطرات یا کاهش خطرات اجتناب‌ناپذیر باید برنامه‌ریزی‌هایی صورت گیرد. این ارزیابی ریسک باید در مراحل منظم فرایند توسعه، از طریق دسترسی بیشتر اطلاعات  به‌روز شود. نیاز است که برای ارزیابی ریسک اخلاقی برنامه‌ریزی و بودجه‌بندی شود. توصیه می‌شود که در صورت امکان، این کار توسط یک متخصص اخلاق با سابقه‌ٔ حرفه‌ای مناسب انجام شود. ارزیابی باید بر اساس ماهیت پروژه، شدت خطرات اخلاقی و بودجه‌ٔ کلی برای توسعه‌ی پروژه مقیاس شود.
  • توصیه می‌شود که در این مرحله یک طرح پیاده‌سازی اخلاق در طراحی (EbD)  تهیه شود که در آن تمام گام‌های بعدی موردنیاز برای گنجاندن EbD در فرایند توسعه، مشخص شده و بازیگران مسئول در انجام و نظارت بر وظایف تعیین شوند. در صورت لزوم، این طرح اجرایی باید ریسک اخلاقی و ارزیابی تأثیر را در صورتی که تکمیل شده باشد، در بر بگیرد.
  • علاوه‌براین، توصیه می‌شود که ارزیابی شامل یک معماری انطباق اخلاقی در زیرساخت توسعه و مجموعه‌ٔ ساختارها و رویه‌های سازمانی هم باشد. این معماریِ انطباق اخلاقی باید بر ابزارها و فرایندها در سطح توسعه‌دهنده تمرکز کند، اما به مکانیسم‌هایی برای ارتباطات خارجی از سوی کاربران نهایی و سایر ذینفعان در طول آزمایش و ارزیابی هم نیاز دارد. یک راه ساده‌ٔ رو به جلو این است که معماری انطباق اخلاقی را با انطباق قانونی مرتبط کنیم.

 

توصیه می‌شود که ارزیابی، یک مدل حاکمیت اخلاقی که ساختارهای سازمانی برای اداره‌ٔ فرایند EbD (مثلاً کمیته‌های بررسی اخلاقی/ مشاور اخلاقی/ حسابرس اخلاقی) را در بر می‌گیرد، در خود داشته باشد.

 

 

3- طراحی سطح بالا

 

طراحی سطح بالا به توسعه‌ٔ معماری کلی سیستم مربوط می‌شود.

الزامات اخلاقی باید دقیقاً مانند سایر الزامات سیستم در نظر گرفته شوند. طراحی باید شامل عملکردی باشد که به وسیله آن از الزامات اخلاقی به‌صورت برنامه‌ریزی‌شده حمایت شود، مانند نگهداری گزارش‌های دستکاری داده‌های داخلی توسط سیستم. الزامات شفافیت و نظارت انسانی معمولاً به ویژگی‌هایی فراتر از آنچه برای دستیابی به هدف سیستم موردنیاز است، احتیاج دارد.

دستورالعمل‌های کلی زیر برای مرحله‌ٔ طراحی سطح بالا، تا حدی که با نوع پژوهش پیشنهادی (از پایه تا پیشرقابتی) مطابقت داشته باشند و هر زمان که قابل‌اجرا باشد اعمال می‌گردند:

  • بررسی کنید که آیا طراحی به یک رابط مبتنی بر اصول طراحی انسان‌محور ــ که فرصت‌های معناداری را برای انتخاب انسان ایجاد می‌کنند ــ مجالی می‌دهد یا خیر.
  • ویژگی‌ها و عملکردهایی را طراحی کنید که موجب می‌شوند قابلیت‌ها و اهداف سیستم به‌طور آشکار به کاربران و هر کسی که ممکن است تحت‌تأثیر آن قرار گیرد، منتقل شوند.
  • مکانیسم‌هایی را طراحی کنید تا مردم بدانند چه زمانی در معرض تصمیمات سیستم قرار می‌گیرند. این مکانیزم‌‌ها می‌توانند رویه‌های عملیاتی مورداستفاده پس از استقرار هم باشند.
  • مطمئن شوید که بعد از استقرار سیستم، هیچ جنبه‌ای از سیستم هوش مصنوعی که ممکن است بدون اطلاع قبلی، با یک انسان اشتباه گرفته شود، وجود نداشته باشد. به خاطر داشته باشید که بسیاری از افراد ممکن است درک درستی از هوش مصنوعی نداشته باشند و ناآگاهانه تصور کنند که با یک فرد در حال تعامل هستند. برای مثال، حتی زمانی که در مورد چت‌بات‌ها این مورد رعایت شود، افرادی که نمی‌دانند اصطلاح چت‌بات به چه معناست، ممکن است آن را با انسان اشتباه بگیرند.
  • بررسی کنید که طراحی از الزامات اخلاقی برای حفظ حریم خصوصی، حفاظت از داده‌های شخصی، و حاکمیت داده پشتیبانی می‌کند. اطمینان حاصل کنید که فرایندها، رویه‌ها و ابزارهای توسعه، داده‌های شخصی را به‌گونه‌ای که حقوق اساسی افراد را نقض ‌کند، در معرض نمایش قرار نمی‌دهند. برای مثال، گزارش‌های خطا ممکن است شامل داده‌های شخصی‌ای باشند که هنگام مواجهه با یک باگ به آنها دسترسی پیدا می‌کنند. به ویژه مهم است که اطمینان حاصل شود که توسعه‌دهندگان به اطلاعات شخصی قابل‌شناسایی دسترسی ندارند؛ مگر در موارد کاملاً ضروری و دستورالعمل‌های منطبق با GDPR.
  • یک فرایند رسمی را برای تضمین انتخاب داده‌ها برای یک سیستم منصفانه، دقیق و بی‌طرفانه وضع نمایید. برای ارزیابی اولیه‌ٔ منابع داده قبل از وارد شدن به سیستم، برنامه‌ریزی کنید. یک مکانیسم قابل‌بازبینی را طراحی کنید که نحوه‌ی انتخاب داده، جمع‌آوری، ذخیره و استفاده از داده‌ها را ثبت ‌کند (هم فرایند توسعه و هم استفاده پس از عملیاتی‌شدن را پوشش ‌دهد). نمی‌توان فرض کرد که داده‌های به دست آمده همان داده‌های موردنظر هستند. برای مثال، مجموعه‌ٔ داده‌ها ممکن است ناقص باشند یا روش‌های وارد کردن داده‌ها ممکن است آنها را به روش‌های غیرمنتظره‌ای تغییر دهند. این مورد شامل فرایندهای رسمی طراحی برای بررسی و تصحیح سوگیری یا خطاها پس از وارد کردن هر داده هم می‌شود.
  • ارزیابی کنید که آیا این سیستم می‌تواند هرگونه آسیب فیزیکی‌ به افراد، حیوانات، اموال یا محیط‌زیست وارد کند یا خیر. اگر این امکان وجود دارد، ویژگی‌های طراحی را برای به حداقل رساندن خطر و/ یا شیوع و شدت آسیب احتمالی بگنجانید (به‌عنوان مثال اگر سیستم می‌تواند به دستورات صوتی پاسخ دهد، باید دستورات صوتی «ایست اضطراری» را در طراحی بگنجانید).
  • تمام تأثیرات منفی احتمالی بر گروه‌های مربوطه را در نظر بگیرید، ازجمله تأثیراتی غیر از آنهایی که ناشی از سوگیری الگوریتمی یا عدم دسترسی جهانی است و اقداماتی را برای کاهش هرگونه تأثیر منفی بالقوه (مانند انگ زدن، تبعیض) طراحی کنید.
  • سیستم‌های هوش مصنوعی مرتبط با رسانه‌ها، ارتباطات، سیاست، تحلیل‌های اجتماعی و جوامع آنلاین باید از نظر پتانسیل تأثیر منفی بر کیفیت ارتباطات، تعامل اجتماعی، اطلاعات، فرایندهای دموکراتیک و روابط اجتماعی ارزیابی شوند. در صورت لزوم، پیشنهادهای پژوهشی باید اقدامات کاهشی برای کم کردن خطر چنین آسیب‌هایی را به تفصیل شرح دهند.
  • هر زمان که مرتبط باشد، باید تأثیرات زیستمحیطی سیستم را در نظر بگیرید و در صورت نیاز اقداماتی را برای کاهش اثرات منفی انجام دهید. در مرحله‌ٔ تعیین اهداف، باید یک ارزیابی اولیه‌ٔ زیستمحیطی انجام شود. بعد از تکمیل طراحی سطح بالای سیستم، این ارزیابی باید به تفصیل انجام شود تا نشان دهد که چگونه سیستم به روشی سازگار با محیط‌زیست ساخته خواهد شد.
  • در صورت لزوم، در نظر گرفتن تأثیر احتمالی بر ایمنی و مطابقت با استانداردهای مناسب مانند IEEE P1228 (استاندارد ایمنی نرم‌افزار) را نمایش دهید و آنها را در ویژگی‌های طراحی لحاظ کنید تا از ایمنی و انطباق، مطمئن شوید.
  • در نظر داشته باشید که چگونه تصمیمات سیستم برای کاربران و سایر ذینفعان قابل‌توضیح هستند. در صورت امکان این توضیح باید شامل دلایلی باشد که چرا سیستم تصمیم خاصی گرفته است. سیستم (یا کسانی که آن را مستقر می‌کنند) همیشه باید مکانیزمی داشته باشد که به‌وسیله‌ٔ آن توضیح دهد که تصمیم چه بوده و از چه داده‌ها / ویژگی‌هایی برای تصمیم‌گیری استفاده شده است. توضیح‌پذیری به‌ویژه با سیستم‌هایی که تصمیم می‌گیرند، توصیه می‌کنند، یا اقداماتی را انجام می‌دهند که ممکن است آسیب قابل‌توجهی ایجاد کنند، بر حقوق فردی تأثیر بگذارند، یا بر منافع فردی یا جمعی تأثیر زیادی بگذارند، مرتبط است.
  • روشهایی را طراحی و ابزارهایی را انتخاب و پیکربندی کنید که بتوانند فرایندهای توسعه را به‌گونه‌ای مستند کنند که افراد بتوانند تصمیمات فرایندهای طراحی و توسعه را درک و ارزیابی کنند. پیشنهادهای پژوهشی همچنین باید توضیح دهند که انسان‌ها چگونه قادر خواهند بود تصمیمات سیستم را درک کنند و چه مکانیسمهایی برای نادیده گرفتن آنها توسط انسان طراحی خواهد شد. برای این مستندات یک رویکرد لایه‌ای که طیف وسیعی از جزئیات فنی را ارائه می‌کند، توصیه می‌شود. این رویکرد از مرورهای اولیه، مانند خلاصه‌های اجرایی، آغاز می‌شود و طرح‌واره‌های دقیق و سایر مدل‌های فنی را دربر می‌گیرد. به این ترتیب، می‌توان اسنادی متناسب با سطح تخصص و دغدغه‌های خاص افراد را در اختیار آنها نهاد.
  • مطمئن شوید که طراحی شامل مکانیسم‌هایی است که سیستم هوش مصنوعی تصمیمات خود را به‌وسیله آنها ثبت می‌کند تا بتوانند در معرض بازبینی و پاسخگویی انسانی قرار گیرند. اگر سوژه‌های داده یا کاربران، نهایی رفتار سیستم را زیر سوال ببرند، این بررسی به‌عنوان بخشی از بررسی حاکمیت اخلاقی داخلی یا ممیزی خارجی، می‌تواند از طریق ممیزی پس از استقرار صورت گیرد.
  • تا حد امکان و متناسب، سازوکارهایی برای پاسخگویی، نظارت انسانی و ممیزی خارجی پس از استقرار طراحی کنید. این سازوکارها ممکن است به عملکرد اضافه‌ای در داخل سیستم، تنها برای گزارش فعالیت‌های داخلی که هیچ نقشی در عملکرد سیستم ندارند نیاز داشته باشند. مکانیسم‌های نظارت پس از استقرار باید به کارهای نظارتی انجام‌شده در طول توسعه دسترسی داشته باشند.
  • در طراحی یک سیستم اخلاقی برای مستندات، اطمینان حاصل کنید که برای شناسایی مسائل اخلاقی و حل آنها؛ قابل‌ردیابی و دارای توضیح کافی باشند.
  • یک رژیم آزمایشی را در طراحی بگنجانید که بتواند بررسی کند که آیا عملیات داخلی سیستم با الزامات اخلاقی مطابقت دارد یا خیر. این رژیم ممکن است به تغییراتی در نحوه‌ٔ دستیابی به عملکرد در سیستم نیاز داشته باشد تا امکان آزمایش و اقدامات اصلاحی مناسب را فراهم آورد. پیشنهاد پژوهشی باید جزئیاتی درباره‌ٔ چگونگی شناسایی، توقف و جلوگیری از تکرار مجدد اثرات نامطلوب اخلاقی و اجتماعی سیستم ارائه کند.
  • در صورت امکان و ارتباط، اطمینان حاصل کنید که آیا فرایندی وجود دارد که از طریق آن هم کارکنان داخلی و هم اشخاص ثالث بتوانند آسیب‌پذیری‌ها، خطرات یا سوگیری‌های احتمالی سیستم را، هم در طول فرایند توسعه و هم پس از استقرار گزارش کنند یا خیر.
  • مطمئن شوید که سیستم به‌گونه‌ای طراحی شده است که امکان حسابرسی اخلاقی خارجی را فراهم می‌کند تا از وجود پاسخگویی اطمینان حاصل شود. اگر مطمئن نیستید، از روش‌های حسابرسی اخلاقی موجود کمک بگیرید.
  • ویژگی‌ها و عملکردها را به‌گونه‌ای طراحی کنید که کاربران نهایی از قابلیت‌ها و محدودیت‌های سیستم هوش مصنوعی پس از استقرار نیز آگاه باشند تا از مسائل مربوط به انحراف عملکرد، اتوماسیون یا تعصبات تعبیر و ترجمه ها جلوگیری شود.
  • اطمینان حاصل کنید که توسعه‌دهندگان برای توسعه‌ٔ آگاهی و شیوه‌های پاسخگویی آتی (از جمله دانش مرتبط با چارچوب قانونی قابل‌اجرا در سیستم) آموزش کافی دیده‌اند.

 

علاوه‌براین، پیشنهادات پژوهشی برای توضیح اینکه چگونه طراحی با قابلیت دسترسی جهانی سازگار است، تشویق می‌شوند؛ (مانند نشان دادن انطباق با دستورالعمل‌های دسترسی مرتبط).

این توضیح می‌تواند شامل ارزیابی دسترسی رابط و سایر نقاط تماس باشد. بررسی طراحی رابط اولیه و سایر نقاط تماس نشان خواهد داد که آیا یک رویکرد به یک‌اندازه برای همه‌ٔ کاربران اعمال می‌شود یا خیر. در این صورت، ممکن است لازم باشد طرح را اصلاح کنید یا یک توجیه رسمی برای آن تهیه کنید.

 

 

4- جمع‌آوری و آماده سازی داده

 

جمع‌آوری و آماده‌سازی داده‌ها از نظر اخلاقی یک مرحله‌ٔ بسیار مهم است.

باید فرض شود که هر داده‌ٔ جمع آوری‌شده مغرضانه، انحرافی یا ناقص است تا زمانی که خلاف آن ثابت شود. انصاف و دقت دغدغه‌های اصلی در اینجا هستند. به‌طور کلی، داده‌های جمع‌آوری‌شده از فعالیت‌های انسانی در هر جامعه، مانند ارتباطات نوشتاری یا الگوهای شغلی، ممکن است منعکس‌کننده‌ٔ سوگیری‌های آن جامعه باشند. بنابراین باید به‌طور فعال نشان داده شود که داده‌ها قبل از اینکه بتوان به آنها اعتماد کرد، دقیق، معرف یا خنثی هستند.

علاوه‌براین، آماده‌سازی داده‌ها ممکن است به مسائل اخلاقی نیز منجر شوند. گام‌هایی باید برداشته شود تا اطمینان حاصل شود که یادگیری آزمایشی و/ یا دستکاری الگوریتمی سوگیری‌های جدیدی ایجاد نمی‌کنند یا منجر به مسائل اخلاقی دیگر (مانند بی‌نام‌سازی) نمی‌شوند. مشکلات اغلب در مواردی ایجاد می‌شوند که آزمایش به‌طور دقیق، استفاده در دنیای واقعی را پس از استقرار منعکس نمی‌کنند، مانند ایجاد اتوماسیون یا سوگیری‌های ترجمه‌ای. به‌عنوان مثال، بسیاری از سیستم‌های تشخیص چهره به دلیل آزمایش روی جمعیت‌های قفقازی، عملکرد ضعیفی نسبت به افراد با پوست تیره‌تر دارند.

 

به خاطر داشته باشید که هنگام پردازش داده‌های شخصی، تمام تحقیقاتی که توسط اتحادیه‌ٔ اروپا تأمین مالی می‌شوند، باید با قوانین بین‌المللی، اروپایی و ملی و با بالاترین استانداردهای اخلاقی مطابقت داشته باشند. این بدان معناست که ذینفعان اتحادیه‌ٔ اروپا باید اصول GDPR را اعمال کنند مگر اینکه به استانداردهای بالاتر حفاظت از داده‌ها ملزم باشند. اگر از سازمان‌ها/ ارائه‌دهندگان خدمات خارجی برای ذخیره‌سازی / تحلیل / جمع‌آوری داده‌ها استفاده می‌کنید، مطمئن شوید که این موارد نیز با الزامات حفاظت از داده‌ها مطابقت دارند.

 

 

 

 

 

 

تا حدی که با نوع پژوهش پیشنهادی (از پایه تا پیشرقابتی) مطابقت داشته باشد و هر زمان که قابل‌اجرا باشد، دستورالعمل‌های کلی زیر برای مرحله‌ی جمع‌آوری و آماده‌سازی داده‌ها اعمال می‌شوند:

  • ارزیابی کنید که چگونه عملیات در هر فرایند ممکن است الزامات اخلاقی و/ یا حفاظت از داده‌ها را نقض کنند. تغییرات لازم را به دنبال آن ایجاد کنید. اگر تغییرات مناسب امکان پذیر نباشند، ممکن است نیاز به تغییر اهداف طراحی باشد.
  • اطمینان حاصل کنید که پردازش داده‌های شخصی با مقررات حفاظت از داده‌های عمومی (GDPR) و سایر قوانین ملی و اتحادیه‌ٔ اروپا مطابقت دارد. یک خط مشی حفاظت از داده‌های خاص تهیه کنید که جزئیات نحوه‌ٔ انطباق پروژه با الزامات حفاظت از داده‌ها را شرح دهد. اکیداً توصیه می‌شود با افسر حفاظت از داده‌های خود یا فردی با تخصص مربوط به حفاظت از داده‌ها (در صورت وجود) مشورت کنید. توجه داشته باشید که هر زمان که سیستم شما در حال پردازش داده‌های شخصی است، باید از اصل کمینه‌سازی داده‌ها پیروی کند. این بدان معناست که شما باید اطمینان حاصل کنید که فقط داده‌هایی که مرتبط، کافی و محدود به آنچه کاملاً ضروری هستند، توسط سیستم شما پردازش می‌شوند. شما همچنین باید اصول حفاظت از داده‌ها را به طور پیشفرض رعایت کنید و از حقوق و آزادی‌های افراد موضوع داده محافظت کنید.
  • مراحلی را مشخص کنید تا مطمئن شوید که داده‌های مربوط به افراد معرف هستند و تنوع آنها را منعکس می‌کنند یا به اندازه‌ٔ کافی خنثی هستند. به طور مشابه، شما باید نحوه‌ٔ جلوگیری از خطاها در داده‌های ورودی و طراحی الگوریتمی که می‌تواند گروه‌های خاصی از افراد را نادرست یا ناعادلانه نشان دهد، مستند کنید.
  • مطمئن شوید که داده‌های ورودی، آموزشی و خروجی همگی برای سوگیری ورودی (سوگیری در داده‌هایی که منجر به نمایش ناعادلانه، غیرنماینده یا تعصب‌آمیز افراد و گروه‌ها می‌شوند) تجزیه‌وتحلیل می‌شوند. به‌ویژه، تا حد امکان تأیید کنید که داده‌های شخصی و گروهی توضیح‌دهنده‌ٔ تنوع در جنسیت، نژاد، سن، گرایش جنسی، منشأ ملی، مذهب، سلامت و ناتوانی و سایر مقوله‌های اجتماعی مرتبط با این وظیفه هستند و فرضیات تعصب‌آمیز، کلیشه‌ای یا تبعیضآمیز دیگر در مورد افراد در این دسته‌ها قرار نمی‌گیرند. در جایی که مشخص شود سوگیری امکان پذیر است، مکانیسمهایی را برای اجتناب یا اصلاح آن ایجاد کنید. یعنی معیارهایی که براساس آن داده‌ها انتخاب می‌شوند را اصلاح کنید یا به‌گونه‌آی برنامه‌ریزی کنید که مجموعه‌ی داده‌ها پس از قرار گرفتن در سیستم اصلاح شوند. الزامات شفافیت و نظارت مستلزم مستند بودن چنین اصلاحاتی هستند.
  • داده‌های آموزشی خود را تجزیه‌وتحلیل کنید و اطمینان حاصل کنید که مرتبط و نماینده هستند. ارزیابی سوگیری را به‌طور رسمی برای داده‌های واردشده به سیستم انجام دهید. فرض نکنید که داده‌های وارد شده به سیستم بی‌طرفانه هستند؛ آنها را تا حد امکان با توجه به خطرات ناشی از هوش مصنوعی پیش‌بینی‌شده برای حقوق و آزادی‌های اساسی آزمایش کنید. تنوع و نمایندگی کاربران در داده‌ها، آزمایش برای جمعیت‌های خاص یا موارد استفاده‌ی مشکل‌ساز را بسنجید. مطمئن شوید که داده‌های یک گروه جمعیتی برای نشان دادن دیگری استفاده نمی‌شود، مگر اینکه به‌طور موجهی نماینده باشند. پتانسیل سوگیری مضری را که در مرحله‌ٔ آماده‌سازی داده‌ها معرفی می‌شوند، ارزیابی کنید، مانند حذف ناخواسته‌ٔ داده‌های مربوط به یک گروه اقلیت. اقداماتی را برای کاهش چنین خطری انجام دهید. مطمئن شوید که در صورت امکان، توانایی بازگشت به هر حالتی که سیستم در آن بوده است وجود داشته باشد تا مشخص یا پیش‌بینی شود که سیستم در زمان x چه کاری انجام می‌داد و در صورت امکان، تعیین کنید که از کدام داده‌ٔ آموزشی استفاده شده است.
  • اطمینان حاصل کنید که کارکنان درگیر، در مورد چارچوب قانونی قابل‌اجرا و نگرانی‌های اخلاقی آموزش مناسبی دیده‌اند.

 

 

ادامه دارد ...

 

 

مراحل نظری به‌کارگیری «اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی»

 

 

 

مترجم: مریم رضائی حاجیده

منبع: کمیسیون اروپا مدیریت کل پژوهش و نوآوری ــ بخش اخلاق و یکپارچگی تحقیقات

 

۵
از ۵
۳ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.