Ethics By Design and Ethics of Use Approaches
for Artificial Intelligence
5 ــ طراحی و توسعهٔ دقیق
در مرحلهٔ طراحی و توسعهٔ دقیق، یک سیستم کاملاً کارآمد ساخته میشود. اقدامات دربرگیرندهٔ الزامات اخلاقی به وظایف مختلف طراحی تفصیلی و همچنین به زیرساخت توسعه (ابزارها، روشها، رویهها و هر چیز دیگری که ممکن است دقیقاً بر نحوهٔ ساخت چیزی تأثیر بگذارد) اضافه میشوند.
تا حد زیادی، این مرحله شامل افزودن جزئیات بیشتر به الزامات اخلاقی سیستم و طراحی و اجرای معماری توسعهٔ اخلاقی است. اخلاق در طراحی خواستار رسیدگی به مسائل اخلاقی در مرحلهٔ توسعه است، بنابراین فرایندهای توسعهٔ موجود باید از این فعالیت پشتیبانی کنند. برای یکپارچهسازی الزامات اخلاقی، اطمینان حاصل کنید که دستورالعملهای اخلاقی به همهی توسعهدهندگان و مهندسان ابلاغ میشود، و هر جا که نیاز به تصمیمگیری مرتبط داشته باشند، طراحی در برابر نقشهی آنها برای پیادهسازی اخلاقی ارزیابی میشود. مسائلی که ممکن است بهویژه در این مرحله مرتبط باشد، مواردی هستند که به شفافیت، حریم خصوصی و پاسخگویی مربوط میشوند. آموزش مناسب و افزایش آگاهی میتوانند کمککننده باشند.
تا حدی که مطابق با نوع تحقیق پیشنهادی (از پایه تا پیشرقابتی) و در صورت لزوم، دستورالعملهای کلی زیر در مرحلهٔ طراحی و توسعهٔ دقیق اعمال میشوند:
- در صورت ایجاد دادههای شخصی جدید (بهعنوان مثال، از طریق تخمین دادههای ازدسترفته، تولید ویژگیهای مشتقشده و سوابق جدید) یا جمعآوری یا ایجاد مجموعه دادههای جدید، مطمئن شوید که همهٔ دادههای شخصی یا مجموعه دادههای جدید ایجادشده، سطح حفاظتی یکسانی در مقایسه با سطحی که قبلاً دادههای شخصی جمعآوری یا نگهداری میشدند، داشته باشند. دادههای شخصی استنباطشده نباید قادر به تغییر خروجی مجموعه داده باشند، یا بهطور قابلتوجهی بر حقوق افراد موضوع داده تأثیر بگذارند. دادههای شخصی تازهایجادشده نباید گمراهکننده باشد.
- اطمینان حاصل کنید که هیچ دادهٔ شخصی جدیدی در طول توسعهی سیستم یا در طول استفادهٔ منظم از سیستم جمعآوری یا ایجاد نشده است، مگر در موارد ضروری. اگر دادههای شخصی جدید جمعآوری یا ایجاد شدند، مطمئن شوید که مکانیسمهایی وجود دارند که محدودیتهایی را برای دسترسی یا استفاده از افراد ایجاد میکنند تا از افراد موضوع داده محافظت کنند.
- اطمینان حاصل کنید که فرایندهایی برای محافظت از کیفیت و یکپارچگی همه دادههای مربوطه، وجود دارند؛ ازجمله فرایندهایی برای تأیید اینکه مجموعه دادهها به خطر نیفتاده یا هک نشدهاند. اگر بر کیفیت منابع دادهٔ خارجی استفادهشده کنترل دارید، بسنجید که تا چه حد میتوانید کیفیت آنها را تأیید کنید.
- مطمئن شوید که نقشها و مسئولیتها برای اجرای الزامات اخلاقی و معماری مشخص هستند و همهٔ کارکنان مربوطه الزامات را درک میکنند.
- اطمینان حاصل کنید که مکانیسمهای نظارتی برای پردازش دادهها (از جمله محدود کردن دسترسی تنها به پرسنل مناسب، مکانیسمهایی برای ثبت دسترسی به دادهها و ایجاد تغییرات) وجود دارند. در توسعهٔ اخلاقیات خود با رویکرد طراحی، در نظر بگیرید که حتی زمانی که دادهها ناشناس هستند، ممکن است باز هم امکان ناشناس ــ زدایی آنها وجود داشته باشد.
- اگر پایگاه دادههای تشکیلشده توسط دادههای شخصی و غیرشخصی را با هم ترکیب میکنید، توجه داشته باشید که بدون توجه به نسبت هر نوع داده در مجموعه دادهٔ حاصله، باید بهعنوان دادههای شخصی پردازش شوند. مطمئن باشید که فرایند تعبیهشدهای وجود دارد که به افراد اجازه میدهد به دادههای خود دسترسی داشته باشند و آنها را از سیستم حذف کنند و/ یا خطاهای موجود در دادههای خود را تصحیح کنند. بنابراین باید اقداماتی را انجام دهید تا تضمین کنید که افراد میتوانند به دادههای شخصی خود دسترسی داشته باشند، آن هم به روشی که از حریم خصوصی افراد دیگر محافظت کند.
- اقدامات فنی و سازمانی را بهمنظور حفاظت از دادهها توسط طراحی و بهطور پیشفرض (مانند روشهای حریم خصوصی در طراحی) ایجاد نمایید؛ مانند رمزگذاری، نام مستعار، تجمیع، ناشناسسازی و به حداقل رساندن دادهها.
- در هر سیستمی دادهها میتوانند دستکاری شوند، آسیب ببینند، از دست بروند یا بهطور نامناسبی در معرض دید قرار بگیرند. فرایندهایی را طراحی کنید تا کاهش مداوم کیفیت دادهها را قبل از استفاده توسط سیستم بررسی کنند. این باید شامل اقداماتی برای جلوگیری از فساد خارجی و کاهش دادن فساد بیصدا و سایر اشکال فساد داده در سطح پایین باشد.
- سوگیریهای الگوریتمی را در مرحلهٔ توسعهٔ دقیق بررسی کنید. دادهها را میتوان به روشی جانبدارانه پردازش کرد، بنابراین الگوریتمها باید برای این مورد بررسی شوند. (بهعنوان مثال با استفاده از روشهای ارزیابی ضد واقعیت)
- اطمینان حاصل کنید که طراحی رابط، اصول دسترسی جهانی را رعایت میکند و از معرفی سوگیریهای عملکردی در مرحلهٔ توسعهٔ دقیق که عملکرد سیستم را برای کاربران نهایی مختلف نابرابر میسازد، اجتناب کنید.
- برای اطمینان از قابلیت ردیابی و پاسخگویی مورد نیاز، باید اقداماتی بر طبق روشهای زیر انجام شوند:
- روشهای مورداستفاده برای طراحی و توسعهٔ سیستمها، مانند مدلهای ساختهشده، روشهای آموزشی، اینکه کدام دادهها جمعآوری و انتخاب شدهاند و چگونگی انجام آن.
- روشهای مورداستفاده برای آزمایش و اعتبارسنجی سیستمها، مانند سناریوها یا موارد بهکاررفته برای آزمایش و اعتبارسنجی؛ دادههای مورداستفاده برای آزمایش و اعتبارسنجی؛ نتایج سیستم (نتایج یا تصمیمات اتخاذشده توسط سیستم)؛ سایر تصمیمات ممکن که از موارد مختلف ناشی میشوند، مثلا برای سایر زیرگروههای کاربران.
- یک توالی از روشهای فنی برای اطمینان از قابلیت ردیابی (مانند رمزگذاری ابرداده برای استخراج و ردیابی آن در صورت لزوم). باید راهی وجود داشته باشد که بدانیم دادهها از کجا آمدهاند و توانایی ساختن نحوهٔ ارتباط قطعات مختلف داده با یکدیگر مهیا باشد.
- مطمئن شوید که کد بهطور فعال در برنامهٔ نرمافزار و در اسناد جانبی مناسب توضیح داده و مستند شدهاند (مطابق با زبان(ها) و روش). اطمینان حاصل کنید که مستندات برای برنامهنویسان همکار قابلدرک و در دسترس آنهاست. توافقنامههای محرمانه میتوانند بر نگرانیهای مربوط به IP، محرمانه بودن یا اسرار تجاری کمک کنند.
- مطمئن شوید که میدانید تصمیمات و نتایج اتخاذشده توسط سیستم تا چه حد قابلدرک هستند، مثلا آیا به گردش کار داخلی مدل دسترسی دارید یا خیر.
- از روشها و ابزارهای رسمی برای اطمینان از توضیحپذیری در جاهای ممکن استفاده کنید و اگر برای سیستم خاصی طراحیشده، مطلوب باشد، مانند رویکردهای XAI یا شفافیت در طراحی و مستندات برنامهریزیشده، مانند کارتهای مدل.
- اینکه سیستم میتواند اطلاعات نادرست یا گمراهکننده را به مردم ارائه دهد را در نظر داشته باشید، و در صورت لزوم، اقداماتی را برای جلوگیری از آن انجام دهید یا برای به حداقل رساندن این خطر الزامات طراحی را اضافه کنید. در برخی موارد، پس از عملیاتی شدن سیستم، این خطر افزایش مییابد. اگر چنین است، اسناد، عملکرد یا مکانیسمهای دیگری را اضافه کنید تا خطر اطلاعات نادرست به حداقل برسد.
- در نظر بگیرید که آیا سیستم بهطور اجتنابناپذیر دادهها را دستکاری میکند یا تصمیماتی میگیرد که برای انسان قابلردیابی یا درک نباشند. اگر چنین است، الزامات طراحی را اضافه کنید تا عملیات دادهها را تا حد امکان در معرض بررسی دقیق قرار دهید، و/ یا برای توضیح اینکه چرا عملیات دادهها نمیتوانند و نباید حسابرسی شوند توجیه رسمی آماده کنید. توجه کنید که نگرانیهای مربوط به مالکیت معنوی کافی نیستند. رژیمهای آزمایش جعبه سیاه و «آزمایش ردیابی» میتوانند برای ارزیابی خارجی عملیات دادههای داخلی استفاده شوند.
- در معماری توسعه، ابزارها و مکانیسمهایی را ایجاد کنید تا تمام اطلاعات مربوط به ارزیابی اخلاقی، مانند منبع دیتابیس و ماهیت مدلهای مورداستفاده ثبت شوند. اطمینان حاصل کنید که کارکنان برای استفاده از ابزارها و مکانیسمهای مربوطه آموزش دیده و تشویق میشوند.
- در صورت امکان، مکانیسمهایی را برای ارزیابی و در صورت لزوم اقدام دربارهی نگرانیهای مطرحشده توسط کارکنان و اشخاص ثالث ایجاد کنید. اطمینان حاصل کنید که چنین اقداماتی قبل از ادامهٔ توسعه (یا استقرار) انجام میشوند.
- ممکن است لازم باشد کنترلهای ممیزی عمیقاً در سیستم تعبیه شوند. مطمئن شوید که کنترلهای ممیزی برای گزارش عملکرد و ثبت تصمیمات توسط سیستم ساخته شدهاند.
- سند اخلاقی الزامات پروژه را اصلاح و تکمیل کنید. این احتمالاً یک فرایند تکراری است. تا آنجا که ممکن است، هرگونه تصمیم اتخاذشده در مورد نحوهٔ مطابقت سیستم با الزامات اخلاقی خود را ثبت کنید.
- در صورت امکان از شیوههای مصرف انرژی پایدار پیروی کنید. بهویژه، تصمیماتی که توسط سیستم گرفته میشوند و بر دنیای غیرانسانی تأثیر میگذارند، باید به دقت در نظر گرفته شوند.
6 ــ آزمون و ارزشیابی
بهعنوان بخشی از مرحلهٔ آزمایش و ارزیابی، یک ارزیابی اخلاقی انجام میشود تا ببیند آیا سیستم الزامات اخلاقی خود را برآورده میکند یا خیر.
ممکن است سیستم به الزامات عملکردی خود دست یابد، اما الزامات اخلاقی را برآورده نکند. در این صورت نمیتوان سیستم را با موفقیت تکمیل کرد. با این حال، تمام هدف اخلاق در طراحی اجتناب از چنین نتیجهای است. در صورتی که اخلاق در طراحی به طور جدی اعمال شود، باید از مسائل اخلاقی در این مرحله از فرایند توسعه جلوگیری کند.
بهعنوان بخشی از مرحلهٔ آزمایش و ارزیابی، باید یک چکلیست از الزامات اخلاقی پروژه را برای طراحی یک رژیم آزمایشی داشته باشید تا بتوانید انطباق اخلاقی سیستم را بررسی کنید. بسیار بعید است که هر رژیم آزمون استانداردی را برای همهٔ الزامات اخلاقی سیستم در نظر بگیرد، بنابراین انتخاب روش آزمون در اینجا مهم است. این آزمایش را برای تعیین اینکه آیا سیستم تمام الزامات اخلاقی خود را برآورده میکند، اجرا کنید. انحراف از ویژگیهای اخلاقی مورد نظر سیستم را به همان اندازهٔ باگ آن جدی بگیرید و کارهای اصلاحی را تا زمانی که سیستم الزامات اخلاقی خود را برآورده کند انجام دهید. اکیداً توصیه میشود که در این مرحله، ذینفعان را هم درگیر کنید. از ذینفعان بپرسید که آیا از اینکه سیستم به اندازهٔ کافی ارزشها و نیازهای آنها را در نظر میگیرد (که احتمالاً قبلاً در ابتدای پروژهٔ مورد بحث قرار گرفته است) راضی هستند یا خیر و در صورت نیاز اقدامات لازم را انجام دهید.
فرایند آزمایش باید شامل درک رفتار سیستم توسط کاربران نهایی باشد. نمیتوان تصور کرد که دیگران خروجی سیستم را به همان روش توسعهدهندگان درک میکنند. درک افراد آسیبدیده در مورد هدف سیستم، اینکه چه کسی یا چه چیزی ممکن است از آن سود ببرد و (مهمتر از همه) محدودیتهای آن را آزمایش کنید.
علاوهبر بررسی انطباق با الزامات اخلاقی و درگیر کردن ذینفعان، و میزان تطابق با نوع پژوهش پیشنهادی (از پایه تا پیشرقابتی)، مراحل زیر را نیز در نظر بگیرید:
- بررسی کنید که آیا کاربران درک میکنند که با یک عامل غیرانسانی در حال تعامل هستند و/ یا اینکه یک تصمیم، محتوا، توصیه یا خروجی نتیجهٔ یک تصمیم الگوریتم، در موقعیتهایی هستند که انجام ندادن آنها برای کاربران فریبنده، گمراهکننده یا مضر هستند.
- اطمینان حاصل کنید که کنترلهای ممیزی برای بررسی عملکرد، ثبت تصمیمات اتخاذشده در مورد هدف و عملکرد سیستم (مانند گزارش در مورد تأثیرات بهطور کلی، نه فقط وقوع تأثیرات منفی) در سیستم تعبیه شدهاند. مطمئن شوید که مکانیسمهایی برای اطلاعرسانی به کاربران سازمانی و کاربران نهایی (اگر مستقیماً با آنها سروکار دارند) در مورد دلایل نتایج سیستم ایجاد شدهاند.
- اطمینان حاصل کنید که اطلاعات در مورد قابلیتها و محدودیتهای سیستم بهطور واضح، قابلدرک و فعالانه به ذینفعان، کاربران و سایر افراد آسیبدیده منتقل میشوند، و انتظارات واقعبینانه را ممکن میسازند.
- در صورت امکان، مطمئن شوید که فرآیندهای عملی برای اشخاص ثالث (مانند تامینکنندگان، مصرفکنندگان، توزیعکنندگان/فروشندگان) یا کارگران وجود دارد تا آسیبپذیریها، خطرات یا سوگیریهای احتمالی در سیستم را گزارش کنند. اطمینان حاصل کنید که مکانیسمهایی برای بررسی و اقدام بر اساس چنین گزارشهایی وجود دارند.
- فرایندهایی را برای به دست آوردن و در نظر گرفتن بازخورد کاربران و مکانیسمهای موجود برای تطبیق سیستم در پاسخ مناسب ایجاد کنید.
- اطمینان حاصل کنید که به کاربران و ذینفعان توضیحاتی داده میشود که بتوانند بفهمند چرا سیستم انتخاب خاصی را انجام داده است که منجر به نتیجهٔ خاصی در طول آزمایش شده است تا بتوانند آن را بهطور دقیق ارزیابی کنند.
- برای کمک به توسعهٔ شیوههای پاسخگویی (ازجمله چارچوب قانونی قابلاعمال برای سیستم)، آموزش به کاربران را توسعه و ارائه دهید.
- بهطور رسمی سعی کنید پیامدها / موارد بیرونی عملیات سیستم را پیشبینی کنید.
بخش سوم
استقرار و استفادهٔ اخلاقی
این بخش از دستورالعملها در مورد چهار روش اصلی برای استفاده از سیستمهای هوش مصنوعی در پروژههای تحقیقاتی اعمال میشوند: مدیریت پروژه، اکتساب، اجرا و نظارت. با در نظر گرفتن تمام این فرایندها، این دستورالعملهای اخلاقی از افت عملکرد در هنگام استقرار هوش مصنوعی پس از پایان پروژه جلوگیری خواهند کرد.
ــ مدیریت پروژه به برنامهریزی یک پروژهٔ تحقیقاتی جدید، معمولاً در یک طرح پروژه، و مدیریت فعالیتهای برنامهریزیشده در طول پروژه اشاره دارد. برای این منظور، این بخش به مراحلی میپردازد که باید در برنامهریزی و مدیریت پروژه لحاظ شوند تا اطمینان حاصل شود که مسائل اخلاقی به طور صحیح در استقرار و استفاده از یک سیستم هوش مصنوعی اعمال میشوند.
ــ اکتساب، به فرایند دستیابی به یک سیستم هوش مصنوعی گفته میشود که در خود سیستم توسعه نیافته باشد. یک سازمان در قبال وضعیت اخلاقی هر سیستم هوش مصنوعی که از آن استفاده میکند مسئول است؛ حتی اگر آن سیستم توسط دیگری ساخته شده باشد. اگر سیستم در خود پروژه توسعه یافته باشد، دستورالعملهای اخلاق در طراحی؟ مربوط به بخش ۲ این سند اعمال میشوند.
ــ استقرار و پیادهسازی به فرایند استقرار سیستم هوش مصنوعی در محیط کاربری و همچنین برنامهریزی و اجرای تغییرات در سازمان اشاره دارد. نحوهٔ استقرار یک سیستم ممکن است ویژگیهای اخلاقی سیستم را تغییر دهد. بنابراین، پیادهسازی باید تضمین کند که سیستم به الزامات اخلاقی خود ادامه میدهد.
- منظور از نظارت، فرایند بررسی انطباق سیستم با الزامات و توسعه و اجرای طرحهایی برای بهبود عملکرد است. ویژگیهای اخلاقی کامل یک سیستم ممکن است تا زمانی که سیستم «بهصورت کاملا طبیعی» مستقر نشده باشد، آشکار نشوند. درنتیجه، همهٔ سیستمهای هوش مصنوعی نیازمند نظارت مداوم اخلاقی و در صورت لزوم، تنظیم هستند. این نظارت، معمولاً با روش ممیزی که در حال تبدیل شدن به یک الزام قانونی رایج است، انجام میشود.
برنامهریزی و مدیریت پروژه
- برنامهریزی برای وظایف اخلاقی مرتبط با کاربرد: در بودجهبندی و برنامهریزی، مسائل اخلاقی بالقوهای که ممکن است رخ دهند را در نظر بگیرید. هر زمان که مناسب باشد، انتصاب مشاور یا مشاوران اخلاقی مستقل، متخصص در زمینهٔ اخلاق فناوریهای جدید و نوظهور و حفاظت از دادههای شخصی را در نظر بگیرید.
- نقشها و رویههایی را برای اجرای دستورالعملهای اخلاقی و نظارت بر اجرای آنها تعریف کنید. این میتواند شامل تشکیل یک افسر اخلاق هوش مصنوعی یا تیمی باشد که مسئولیت اجرای دستورالعملهای اخلاقی یا نظارت بر اجرای آنها را بر عهده دارند. نباید تصور کرد که هر کسی که در طول توسعه، انطباق اخلاقی را مدیریت کرد، مرجع مناسب برای این نقش است.
- اطمینان حاصل کنید که اهدافی که سیستم برای آنها استفاده میشوند، الزامات طراحی و انتخاب منابع با الزامات اخلاقی ارائهشده در مراحل اهداف و الزامات اخلاق در طراحی مطابقت دارند.
اکتساب
- اگر یک سیستم هوش مصنوعی خارجی، بهعنوان یک راهحل خارجی به کار رود، سیستمی را انتخاب کنید که بیشترین توانایی را برای برآورده کردن الزامات اخلاقی مشخصشده در قسمت ۱ دارد. اگر سیستم هوش مصنوعی بهصورت سفارشی توسط یک توسعهدهندهٔ خارجی ساخته شده است، اولویت را به توسعهدهندهای بدهید که از رویکرد اخلاق در طراحی استفاده میکند یا مایل است به الزامات اخلاقی مندرج در این راهنما پایبند باشد. تا حد ممکن، پایبندی خود به این الزامات را تأیید کنید. حداقل، فروشنده باید بتواند بسیاری از اطلاعات موردنیاز را ارائه دهد. از آنجایی که اخلاق در طراحی نیازمند شفافیت و نظارت انسانی است، ممکن است در ابتدا از فروشنده بخواهیم مکانیسمهای نظارت اخلاقی توسعهدهنده را توضیح داده و نمونههایی از اسناد شفافیت آنها را نشان دهد. بدون شفافیت کافی، تعیین انطباق اخلاقی سیستم و یا ارائهٔ شواهد برای پاسخگویی ممکن نخواهد بود.
- در صورت انتخاب توسعهٔ داخلی، از روش اخلاق در طراحی که در قسمت دوم این سند توضیح داده شده است، پیروی کنید و تأیید کنید که سیستم حاصل از الزامات اخلاقی ذکرشده پیروی میکند.
- اطمینان حاصل کنید که هر دادهای که قبل از استقرار برای سیستم جمعآوری و آماده شده است، مطابق با دستورالعملهای جمعآوری و آمادهسازی دادهها است (بخش دوم، بخش ۴).
- در صورت لزوم، ارزیابی ریسک اخلاقی و ارزیابی تاثیر به منظور بررسی ریسکهای اخلاقی خاص در استفاده از سیستم انجام شود. برای کاهش خطرات اخلاقی شناساییشده، لازم است که اقدامات کاهشی انجام شوند. میتوان این را در بالای ارزیابی اخلاقی اولیه، در طراحی اولیهٔ پروژه ایجاد کرد. با این حال، مهم است که بدانیم که ممکن است با تکامل سیستم در طول توسعه، مسائل جدیدی به وجود بیایند که در این مورد بیشتر یاد خواهید گرفت.
استقرار و اجرا
- اگر ابزارهای هوش مصنوعی مستقرشده حاوی دادههای شخصی هستند، آنها را حذف کنید، مگر اینکه بتوانید توجیه کنید که چرا حذف کردن احتمالاً دستیابی به اهداف خاص آن را غیرممکن کرده یا بهطور جدی آسیب میرساند.
- برنامهها و خطمشیهایی را ایجاد و اجرا کنید که با الزامات اخلاقی سیستم انطباق عملیاتی دارند (به بخش ۱ مراجعه کنید).
- دادهها، دسترسیها، سیاستها و رویههای مدیریت ریسک بهکاررفته در سیستم را با هدف به کار بستن الزامات اخلاقی بهروزرسانی کنید.
- در آموزش بهرهبرداری و استفاده از سیستم، سیاستهای اخلاقی جدید را لحاظ کنید. به جنبههای اخلاقی درون ارتباطات در مورد راهاندازی سیستم توجه کنید.
- بر اجرای دستورالعملهای اخلاقی سیستم در طول مرحلهٔ اجرا نظارت کنید، مسائل و خطرات را شناسایی نمایید و در صورت نیاز تنظیمات لازم را اجرا کنید.
نظارت
- مکانیسمهایی را برای اطمینان از اینکه کاربران نهایی مطابق با خطمشیهای کاربران از سیستم استفاده میکنند و نسبت به مسائل اخلاقی در عملیات و استفاده هوشیار هستند ایجاد نمایید و با کارکنان ارشد در مورد موضوعاتی که از نظر اخلاقی مشکلساز یا مبهم هستند، مشورت کنید.
- اطمینان حاصل کنید که اهداف و معیارهای نظارتی، برای انطباق با الزامات اخلاقی وجود دارند. اگر پایشها اینطور نشان دادند که انطباق کمتر از هدف است، بهصورت دورهای بر انطباق نظارت کنید و پیشنهادهایی را برای بهبود ارائه دهید.
- هنگام استقرار سیستم هوش مصنوعی در طول عمر پروژه، اطمینان حاصل کنید که ذینفعان، کاربران و افراد سیستم هوش مصنوعی، کانالهای ارتباطی «شکایت اخلاقی» خود را دارند که از طریق آن به شما در مورد نگرانیهای اخلاقیشان در صورت بروز هشدار دهند. به خاطر داشته باشید که مشکلات اخلاقی اغلب به این دلیل رخ میدهند که یک سیستم بر افرادی تأثیر میگذارد که هرگز انتظار نمیرفت تحتتأثیر سیستم قرار بگیرند. هوش مصنوعی منطبق با اخلاقیات برای اطمینان از حفاظت فنی و سازمانی مناسب، با هدف جلوگیری از افت عملکرد و مداخله در صورت بروز خطرات طراحی شده است.
چکلیست پیوست 1:
تعیین اهداف در مقابل الزامات اخلاقی
این چکلیست یک ابزار پشتیبانی است و فهرستی جامع از همهٔ الزامات اخلاقی که میتوانند برای توسعهٔ هر سیستم هوش مصنوعی خاص قابلاجرا باشد را تشکیل نمیدهد. این باید همراه با دستورالعملهای فعلی بخش ۱ تا ۳ مورد استفاده قرار گیرد و تا حدی که مطابق با نوع سیستم هوش مصنوعی و پژوهش پیشنهادی (از پایه تا پیشرقابتی) هستند، اعمال شوند.
تعیین اهداف در مقابل الزامات اخلاقی | بله | خیر (چگونه خطرات احتمالی کاهش خواهند یافت؟) |
احترام به عامل انسانی | ||
کاربران نهایی و دیگر افراد تحتتاثیر هوش مصنوعی از توانایی تصمیمگیری در مورد زندگی خود محروم نیستند، آزادیهای اولیه از آنها سلب شده است. |
|
|
کاربران نهایی و دیگر افراد تحتتاثیر هوش مصنوعی، تابع، مجبور، فریبخورده، دستکاریشده، عینیشده یا غیرانسانیشده نمیشوند، و همچنین وابستگی یا اعتیاد نسبت به سیستم و عملیات آن تحریک نمیگردد. |
|
|
این سیستم بهطور مستقل در مورد موضوعات حیاتی که معمولاً توسط انسانها از طریق انتخابهای شخصی آزاد یا مشورتهای جمعی تصمیمگیری میشوند، یا به طور مشابه بر افراد تأثیر میگذارد، تصمیمگیری نمیکنند. |
|
|
این سیستم به گونهای طراحی شده است که به اپراتورهای سیستم و تا حد امکان به کاربران نهایی توانایی کنترل، هدایت و مداخله در عملیات اساسی سیستم (در صورت لزوم) را بدهد. |
|
|
حریم خصوصی و حاکمیت داده | ||
این سیستم دادهها را مطابق با الزامات قانونی، انصاف و شفافیت تنظیمشده در چارچوب قانونی حفاظت از دادههای ملی و اتحادیهی اروپا و انتظارات معقول سوژههای داده پردازش میکند. |
|
|
تدابیر فنی و سازمانی برای حفاظت از حقوق سوژههای داده (از طریق اقداماتی مانند ناشناسسازی، نام مستعار، رمزگذاری و تجمیع) وجود دارند. |
|
|
اقدامات امنیتی برای جلوگیری از نقض و نشت دادهها (مانند مکانیسمهای ثبت دسترسی به دادهها و اصلاح آنها) وجود دارند. |
|
|
انصاف | ||
این سیستم برای جلوگیری از سوگیری الگوریتمی در دادههای ورودی، مدلسازی و طراحی الگوریتم طراحی شده است. |
|
|
این سیستم بهگونهای طراحی شده است که میتوان از انواع مختلف کاربران نهایی با تواناییهای مختلف (در صورت امکان / مرتبط) استفاده کرد. |
|
|
این سیستم تأثیرات اجتماعی منفی بر گروههای مربوطه ندارد، تأثیراتی به جز آنهایی که ناشی از سوگیری الگوریتمی یا عدم دسترسی جهانی هستند. |
|
|
رفاه فردی، اجتماعی و زیستمحیطی | ||
سیستم هوش مصنوعی رفاه همهٔ ذینفعان را در نظر میگیرد و آن را بیجهت یا ناعادلانه کم / تضعیف نمیکند. |
|
|
سیستم هوش مصنوعی به اصول پایداری زیستمحیطی توجه دارد، هم در مورد خود سیستم و هم در مورد زنجیرهٔ تامینی که به آن متصل است (در صورت لزوم) |
|
|
این سیستم هوش مصنوعی پتانسیل تأثیر منفی بر کیفیت ارتباطات، تعامل اجتماعی، اطلاعات، فرایندهای دموکراتیک و روابط اجتماعی (در صورت لزوم) را ندارد. |
|
|
این سیستم ایمنی و یکپارچگی در محیط کار را کاهش نمیدهد و با مقررات مربوط به بهداشت و ایمنی و استخدام مطابقت دارد. |
|
|
شفافیت | ||
کاربران نهایی میدانند که در حال تعامل با یک سیستم هوش مصنوعی هستند. |
|
|
هدف، قابلیتها، محدودیتها، مزایا و خطرات سیستم هوش مصنوعی و تصمیمهای منتقلشده به همراه پیامدهای احتمالی آن بهطور آشکار به اطلاع کاربران نهایی و سایر ذینفعان میرسد. |
|
|
افراد میتوانند بررسی، پرسوجو، اعتراض کنند و به دنبال تغییر یا اعتراض به فعالیتهای هوش مصنوعی یا رباتیک باشند (درصورت لزوم) |
|
|
این سیستم هوش مصنوعی قابلیت ردیابی در کل چرخهٔ عمر خود، از طراحی اولیه تا ارزیابی و ممیزی پس از استقرار را امکانپذیر میکند. |
|
|
این سیستم جزئیاتی را در مورد چگونگی گرفتن تصمیمات و دلایلی که این تصمیمات بر اساس آنها گرفته شدهاند (در صورت امکان و مرتبط بودن) ارائه میدهد. |
|
|
این سیستم سوابق تصمیمات گرفتهشده را نگه میدارد (در صورت لزوم) |
|
|
مسئولیتپذیری و نظارت | ||
این سیستم جزئیاتی را دربارهی چگونگی شناسایی، توقف و جلوگیری از تکرار مجدد اثرات نامطلوب اخلاقی و اجتماعی ارائه میدهد. |
|
|
این سیستم هوش مصنوعی اجازهٔ نظارت انسانی در طول چرخهٔ عمر پروژه را / با توجه به چرخهٔ تصمیمگیری و عملیات آنها (در صورت لزوم) میدهد. |
|
|
.
پایان.
مراحل «عملی» بهکارگیری اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی ــ بخش اول
مراحل «نظری» بهکارگیری «اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی»
مترجم: مریم رضائی حاجیده
منبع: کمیسیون اروپا مدیریت کل پژوهش و نوآوری- بخش اخلاق و یکپارچگی تحقیقات