مراحل «عملی» به‌کارگیری اصول اخلاق در طراحی و توسعه‌ٔ هوش مصنوعی ــ بخش دوم

 

Ethics By Design and Ethics of Use Approaches

for Artificial Intelligence

 

مراحل عملی به‌کارگیری اصول اخلاق در طراحی و توسعه‌ٔ هوش مصنوعی

 

     

    5 ــ طراحی و توسعهٔ دقیق

     

    در مرحله‌ٔ طراحی و توسعه‌ٔ دقیق، یک سیستم کاملاً کارآمد ساخته می‌شود. اقدامات دربرگیرنده‌ٔ الزامات اخلاقی به وظایف مختلف طراحی تفصیلی و همچنین به زیرساخت توسعه (ابزارها، روش‌ها، رویه‌ها و هر چیز دیگری که ممکن است دقیقاً بر نحوه‌ٔ ساخت چیزی تأثیر بگذارد) اضافه می‌شوند.

    تا حد زیادی، این مرحله شامل افزودن جزئیات بیشتر به الزامات اخلاقی سیستم و طراحی و اجرای معماری توسعه‌ٔ اخلاقی است. اخلاق در طراحی خواستار رسیدگی به مسائل اخلاقی در مرحله‌ٔ توسعه است، بنابراین فرایندهای توسعه‌ٔ موجود باید از این فعالیت پشتیبانی کنند. برای یکپارچه‌سازی الزامات اخلاقی، اطمینان حاصل کنید که دستورالعمل‌های اخلاقی به همه‌ی توسعه‌دهندگان و مهندسان ابلاغ می‌شود، و هر جا که نیاز به تصمیم‌گیری مرتبط داشته باشند، طراحی در برابر نقشه‌ی آنها برای پیاده‌سازی اخلاقی ارزیابی می‌شود. مسائلی که ممکن است به‌ویژه در این مرحله مرتبط باشد، مواردی هستند که به شفافیت، حریم خصوصی و پاسخگویی مربوط می‌شوند. آموزش مناسب و افزایش آگاهی می‌توانند کمک‌کننده باشند.

    تا حدی که مطابق با نوع تحقیق پیشنهادی (از پایه تا پیشرقابتی) و در صورت لزوم، دستورالعمل‌های کلی زیر در مرحله‌ٔ طراحی و توسعه‌ٔ دقیق اعمال می‌شوند:

    • در صورت ایجاد داده‌های شخصی جدید (به‌عنوان مثال، از طریق تخمین داده‌های ازدست‌رفته، تولید ویژگی‌های مشتق‌شده و سوابق جدید) یا جمع‌آوری یا ایجاد مجموعه‌ داده‌های جدید، مطمئن شوید که همه‌ٔ داده‌های شخصی یا مجموعه‌ داده‌های جدید ایجادشده، سطح حفاظتی یکسانی در مقایسه با سطحی که قبلاً داده‌های شخصی جمع‌آوری یا نگهداری می‌شدند، داشته باشند. داده‌های شخصی استنباط‌شده نباید قادر به تغییر خروجی مجموعه‌ داده باشند، یا به‌طور قابل‌توجهی بر حقوق افراد موضوع داده تأثیر بگذارند. داده‌های شخصی تازه‌ایجادشده نباید گمراه‌کننده باشد.
    • اطمینان حاصل کنید که هیچ داده‌ٔ شخصی جدیدی در طول توسعه‌ی سیستم یا در طول استفاده‌ٔ منظم از سیستم جمع‌آوری یا ایجاد نشده است، مگر در موارد ضروری. اگر داده‌های شخصی جدید جمع‌آوری یا ایجاد شدند، مطمئن شوید که مکانیسم‌هایی وجود دارند که محدودیت‌هایی را برای دسترسی یا استفاده از افراد ایجاد می‌کنند تا از افراد موضوع داده محافظت ‌کنند.
    • اطمینان حاصل کنید که فرایندهایی برای محافظت از کیفیت و یکپارچگی همه داده‌های مربوطه، وجود دارند؛ ازجمله فرایندهایی برای تأیید اینکه مجموعه‌ داده‌ها به خطر نیفتاده یا هک نشده‌اند. اگر بر کیفیت منابع داده‌ٔ خارجی استفاده‌شده کنترل دارید، بسنجید که تا چه حد می‌توانید کیفیت آنها را تأیید کنید.
    • مطمئن شوید که نقش‌ها و مسئولیت‌ها برای اجرای الزامات اخلاقی و معماری مشخص هستند و همه‌ٔ کارکنان مربوطه الزامات را درک می‌کنند.
    • اطمینان حاصل کنید که مکانیسم‌های نظارتی برای پردازش داده‌ها (از جمله محدود کردن دسترسی تنها به پرسنل مناسب، مکانیسم‌هایی برای ثبت دسترسی به داده‌ها و ایجاد تغییرات) وجود دارند. در توسعه‌ٔ اخلاقیات خود با رویکرد طراحی، در نظر بگیرید که حتی زمانی که داده‌ها ناشناس هستند، ممکن است باز هم امکان ناشناس ــ زدایی آنها وجود داشته باشد.
    • اگر پایگاه داده‌های تشکیل‌شده توسط داده‌های شخصی و غیرشخصی را با هم ترکیب می‌کنید، توجه داشته باشید که بدون توجه به نسبت هر نوع داده در مجموعه‌ داده‌ٔ حاصله، باید به‌عنوان داده‌های شخصی پردازش شوند. مطمئن باشید که فرایند تعبیه‌شده‌ای وجود دارد که به افراد اجازه می‌دهد به داده‌های خود دسترسی داشته باشند و آنها را از سیستم حذف کنند و/ یا خطاهای موجود در داده‌های خود را تصحیح کنند. بنابراین باید اقداماتی را انجام دهید تا تضمین کنید که افراد می‌توانند به داده‌های شخصی خود دسترسی داشته باشند، آن هم به روشی که از حریم خصوصی افراد دیگر محافظت کند.
    • اقدامات فنی و سازمانی را به‌منظور حفاظت از داده‌ها توسط طراحی و به‌طور پیش‌فرض (مانند روش‌های حریم خصوصی در طراحی) ایجاد نمایید؛ مانند رمزگذاری، نام مستعار، تجمیع، ناشناس‌سازی و به حداقل رساندن داده‌ها.
    • در هر سیستمی داده‌ها می‌توانند دستکاری شوند، آسیب ببینند، از دست بروند یا به‌طور نامناسبی در معرض دید قرار بگیرند. فرایندهایی را طراحی کنید تا کاهش مداوم کیفیت داده‌ها را قبل از استفاده توسط سیستم بررسی کنند. این باید شامل اقداماتی برای جلوگیری از فساد خارجی و کاهش دادن فساد بی‌صدا و سایر اشکال فساد داده ‌در سطح‌ پایین باشد.
    • سوگیری‌های الگوریتمی را در مرحله‌ٔ توسعهٔ دقیق بررسی کنید. داده‌ها را می‌توان به روشی جانبدارانه پردازش کرد، بنابراین الگوریتم‌ها باید برای این مورد بررسی شوند. (به‌عنوان مثال با استفاده از روش‌های ارزیابی ضد واقعیت)
    • اطمینان حاصل کنید که طراحی رابط، اصول دسترسی جهانی را رعایت می‌کند و از معرفی سوگیری‌های عملکردی در مرحله‌ٔ توسعه‌ٔ دقیق که عملکرد سیستم را برای کاربران نهایی مختلف نابرابر می‌سازد، اجتناب کنید.
    • برای اطمینان از قابلیت ردیابی و پاسخگویی مورد نیاز، باید اقداماتی بر طبق روش‌های زیر انجام شوند:
    • روش‌های مورداستفاده برای طراحی و توسعه‌ٔ سیستمها، مانند مدل‌های ساخته‌شده، روش‌های آموزشی، اینکه کدام داده‌ها جمع‌آوری و انتخاب شده‌اند و چگونگی انجام آن.
    • روش‌های مورداستفاده برای آزمایش و اعتبارسنجی سیستم‌ها، مانند سناریوها یا موارد به‌کاررفته برای آزمایش و اعتبارسنجی؛ داده‌های مورداستفاده برای آزمایش و اعتبارسنجی؛ نتایج سیستم (نتایج یا تصمیمات اتخاذشده توسط سیستم)؛ سایر تصمیمات ممکن که از موارد مختلف ناشی می‌شوند، مثلا برای سایر زیرگروه‌های کاربران.
    • یک توالی از روش‌های فنی برای اطمینان از قابلیت ردیابی (مانند رمزگذاری ابرداده برای استخراج و ردیابی آن در صورت لزوم). باید راهی وجود داشته باشد که بدانیم داده‌ها از کجا آمده‌اند و توانایی ساختن نحوه‌ٔ ارتباط قطعات مختلف داده با یکدیگر مهیا باشد.
    • مطمئن شوید که کد به‌طور فعال در برنامه‌ٔ نرم‌افزار و در اسناد جانبی مناسب توضیح داده و مستند شده‌اند (مطابق با زبان(ها) و روش). اطمینان حاصل کنید که مستندات برای برنامه‌نویسان همکار قابل‌درک و در دسترس آنهاست. توافق‌نامه‌های محرمانه می‌توانند بر نگرانی‌های مربوط به IP، محرمانه بودن یا اسرار تجاری کمک کنند.
    • مطمئن شوید که می‌دانید تصمیمات و نتایج اتخاذشده توسط سیستم تا چه حد قابل‌درک هستند، مثلا آیا به گردش کار داخلی مدل دسترسی دارید یا خیر.
    • از روش‌ها و ابزارهای رسمی برای اطمینان از توضیح‌پذیری در جاهای ممکن استفاده کنید و اگر برای سیستم خاصی طراحی‌شده، مطلوب باشد، مانند رویکردهای XAI یا شفافیت در طراحی و مستندات برنامه‌ریزی‌شده، مانند کارت‌های مدل.
    • اینکه سیستم می‌تواند اطلاعات نادرست یا گمراه‌کننده را به مردم ارائه دهد را در نظر داشته باشید، و در صورت لزوم، اقداماتی را برای جلوگیری از آن انجام دهید یا برای به حداقل رساندن این خطر الزامات طراحی را اضافه کنید. در برخی موارد، پس از عملیاتی شدن سیستم، این خطر افزایش می‌یابد. اگر چنین است، اسناد، عملکرد یا مکانیسم‌های دیگری را اضافه کنید تا خطر اطلاعات نادرست به حداقل برسد.
    • در نظر بگیرید که آیا سیستم به‌طور اجتناب‌ناپذیر داده‌ها را دستکاری می‌کند یا تصمیماتی می‌گیرد که برای انسان قابل‌ردیابی یا درک نباشند. اگر چنین است، الزامات طراحی را اضافه کنید تا عملیات داده‌ها را تا حد امکان در معرض بررسی دقیق قرار دهید، و/ یا برای توضیح اینکه چرا عملیات داده‌ها نمی‌توانند و نباید حسابرسی شوند توجیه رسمی آماده کنید. توجه کنید که نگرانی‌های مربوط به مالکیت معنوی کافی نیستند. رژیم‌های آزمایش جعبه سیاه و «آزمایش ردیابی» می‌توانند برای ارزیابی خارجی عملیات داده‌های داخلی استفاده شوند.
    • در معماری توسعه، ابزارها و مکانیسم‌هایی را ایجاد کنید تا تمام اطلاعات مربوط به ارزیابی اخلاقی، مانند منبع دیتابیس و ماهیت مدل‌های مورداستفاده ثبت شوند. اطمینان حاصل کنید که کارکنان برای استفاده از ابزارها و مکانیسمهای مربوطه آموزش دیده و تشویق می‌شوند.
    • در صورت امکان، مکانیسمهایی را برای ارزیابی و در صورت لزوم اقدام درباره‌ی نگرانی‌های مطرح‌شده توسط کارکنان و اشخاص ثالث ایجاد کنید. اطمینان حاصل کنید که چنین اقداماتی قبل از ادامه‌ٔ توسعه (یا استقرار) انجام می‌شوند.
    • ممکن است لازم باشد کنترل‌های ممیزی عمیقاً در سیستم تعبیه شوند. مطمئن شوید که کنترل‌های ممیزی برای گزارش عملکرد و ثبت تصمیمات توسط سیستم ساخته شده‌اند.
    • سند اخلاقی الزامات پروژه را اصلاح و تکمیل کنید. این احتمالاً یک فرایند تکراری است. تا آنجا که ممکن است، هرگونه تصمیم اتخاذ‌شده در مورد نحوه‌ٔ مطابقت سیستم با الزامات اخلاقی خود را ثبت کنید.
    • در صورت امکان از شیوه‌های مصرف انرژی پایدار پیروی کنید. به‌ویژه، تصمیماتی که توسط سیستم گرفته می‌شوند و بر دنیای غیرانسانی تأثیر می‌گذارند، باید به دقت در نظر گرفته شوند.

     

     

    6 ــ آزمون و ارزشیابی

     

    به‌عنوان بخشی از مرحله‌ٔ آزمایش و ارزیابی، یک ارزیابی اخلاقی انجام می‌شود تا ببیند آیا سیستم الزامات اخلاقی خود را برآورده می‌کند یا خیر.

    ممکن است سیستم به الزامات عملکردی خود دست یابد، اما الزامات اخلاقی را برآورده نکند. در این صورت نمی‌توان سیستم را با موفقیت تکمیل کرد. با این حال، تمام هدف اخلاق در طراحی اجتناب از چنین نتیجهای است. در صورتی که اخلاق در طراحی به طور جدی اعمال شود، باید از مسائل اخلاقی در این مرحله از فرایند توسعه جلوگیری کند.

    به‌عنوان بخشی از مرحله‌ٔ آزمایش و ارزیابی، باید یک چک‌لیست از الزامات اخلاقی پروژه را برای طراحی یک رژیم آزمایشی داشته باشید تا بتوانید انطباق اخلاقی سیستم را بررسی کنید. بسیار بعید است که هر رژیم آزمون استانداردی را برای همهٔ الزامات اخلاقی سیستم در نظر بگیرد، بنابراین انتخاب روش آزمون در اینجا مهم است. این آزمایش را برای تعیین اینکه آیا سیستم تمام الزامات اخلاقی خود را برآورده می‌کند، اجرا کنید. انحراف از ویژگی‌های اخلاقی مورد نظر سیستم را به همان اندازه‌ٔ باگ آن جدی بگیرید و کارهای اصلاحی را تا زمانی که سیستم الزامات اخلاقی خود را برآورده کند انجام دهید. اکیداً توصیه می‌شود که در این مرحله، ذینفعان را هم درگیر کنید. از ذینفعان بپرسید که آیا از اینکه سیستم به اندازه‌ٔ کافی ارزش‌ها و نیازهای آنها را در نظر می‌گیرد (که احتمالاً قبلاً در ابتدای پروژهٔ مورد بحث قرار گرفته است) راضی هستند یا خیر و در صورت نیاز اقدامات لازم را انجام دهید.

     

    فرایند آزمایش باید شامل درک رفتار سیستم توسط کاربران نهایی باشد. نمی‌توان تصور کرد که دیگران خروجی سیستم را به همان روش توسعه‌دهندگان درک می‌کنند. درک افراد آسیبدیده در مورد هدف سیستم، اینکه چه کسی یا چه چیزی ممکن است از آن سود ببرد و (مهمتر از همه) محدودیت‌های آن را آزمایش کنید.

    علاوه‌بر بررسی انطباق با الزامات اخلاقی و درگیر کردن ذینفعان، و میزان تطابق با نوع پژوهش پیشنهادی (از پایه تا پیش‌رقابتی)، مراحل زیر را نیز در نظر بگیرید:

    • بررسی کنید که آیا کاربران درک می‌کنند که با یک عامل غیرانسانی در حال تعامل هستند و/ یا اینکه یک تصمیم، محتوا، توصیه یا خروجی نتیجه‌ٔ یک تصمیم الگوریتم، در موقعیت‌هایی هستند که انجام ندادن آنها برای کاربران فریبنده، گمراه‌کننده یا مضر هستند.
    • اطمینان حاصل کنید که کنترل‌های ممیزی برای بررسی عملکرد، ثبت تصمیمات اتخاذشده در مورد هدف و عملکرد سیستم (مانند گزارش در مورد تأثیرات به‌طور کلی، نه فقط وقوع تأثیرات منفی) در سیستم تعبیه شده‌اند. مطمئن شوید که مکانیسم‌هایی برای اطلاع‌رسانی به کاربران سازمانی و کاربران نهایی (اگر مستقیماً با آنها سروکار دارند) در مورد دلایل نتایج سیستم ایجاد شده‌اند.
    • اطمینان حاصل کنید که اطلاعات در مورد قابلیت‌ها و محدودیت‌های سیستم به‌طور واضح، قابل‌درک و فعالانه به ذینفعان، کاربران و سایر افراد آسیب‌دیده منتقل می‌شوند، و انتظارات واقع‌بینانه را ممکن می‌سازند.
    • در صورت امکان، مطمئن شوید که فرآیندهای عملی برای اشخاص ثالث (مانند تامینکنندگان، مصرف‌کنندگان، توزیع‌کنندگان/فروشندگان) یا کارگران وجود دارد تا آسیب‌پذیری‌ها، خطرات یا سوگیری‌های احتمالی در سیستم را گزارش کنند. اطمینان حاصل کنید که مکانیسم‌هایی برای بررسی و اقدام بر اساس چنین گزارش‌هایی وجود دارند.
    • فرایندهایی را برای به دست آوردن و در نظر گرفتن بازخورد کاربران و مکانیسم‌های موجود برای تطبیق سیستم در پاسخ مناسب ایجاد کنید.
    • اطمینان حاصل کنید که به کاربران و ذینفعان توضیحاتی داده می‌شود که بتوانند بفهمند چرا سیستم انتخاب خاصی را انجام داده است که منجر به نتیجه‌ٔ خاصی در طول آزمایش شده است تا بتوانند آن را به‌طور دقیق ارزیابی کنند.
    • برای کمک به توسعه‌ٔ شیوه‌های پاسخگویی (ازجمله چارچوب قانونی قابل‌اعمال برای سیستم)، آموزش به کاربران را توسعه و ارائه دهید.
    • به‌طور رسمی سعی کنید پیامدها / موارد بیرونی عملیات سیستم را پیشبینی کنید.

     


     

    بخش سوم

    استقرار و استفادهٔ اخلاقی

     

    این بخش از دستورالعمل‌ها در مورد چهار روش اصلی برای استفاده از سیستم‌های هوش مصنوعی در پروژه‌های تحقیقاتی اعمال می‌شوند: مدیریت پروژه، اکتساب، اجرا و نظارت. با در نظر گرفتن تمام این فرایندها، این دستورالعمل‌های اخلاقی از افت عملکرد در هنگام استقرار هوش مصنوعی پس از پایان پروژه جلوگیری خواهند کرد.

    ــ مدیریت پروژه به برنامه‌ریزی یک پروژه‌ٔ تحقیقاتی جدید، معمولاً در یک طرح پروژه، و مدیریت فعالیت‌های برنامه‌ریزی‌شده در طول پروژه اشاره دارد. برای این منظور، این بخش به مراحلی می‌پردازد که باید در برنامه‌ریزی و مدیریت پروژه لحاظ شوند تا اطمینان حاصل شود که مسائل اخلاقی به طور صحیح در استقرار و استفاده از یک سیستم هوش مصنوعی اعمال می‌شوند.

    ــ اکتساب، به فرایند دستیابی به یک سیستم هوش مصنوعی گفته می‌شود که در خود سیستم توسعه نیافته باشد. یک سازمان در قبال وضعیت اخلاقی هر سیستم هوش مصنوعی که از آن استفاده می‌کند مسئول است؛ حتی اگر آن سیستم توسط دیگری ساخته شده باشد. اگر سیستم در خود پروژه توسعه یافته باشد، دستورالعمل‌های اخلاق در طراحی؟ مربوط به بخش ۲ این سند اعمال می‌شوند.

    ــ استقرار و پیاده‌سازی به فرایند استقرار سیستم هوش مصنوعی در محیط کاربری و همچنین برنامه‌ریزی و اجرای تغییرات در سازمان اشاره دارد. نحوه‌ٔ استقرار یک سیستم ممکن است ویژگی‌های اخلاقی سیستم را تغییر دهد. بنابراین، پیاده‌سازی باید تضمین کند که سیستم به الزامات اخلاقی خود ادامه می‌دهد.

    - منظور از نظارت، فرایند بررسی انطباق سیستم با الزامات و توسعه و اجرای طرح‌هایی برای بهبود عملکرد است. ویژگی‌های اخلاقی کامل یک سیستم ممکن است تا زمانی که سیستم «به‌صورت کاملا طبیعی» مستقر نشده باشد، آشکار نشوند. درنتیجه، همهٔ سیستم‌های هوش مصنوعی نیازمند نظارت مداوم اخلاقی و در صورت لزوم، تنظیم هستند. این نظارت، معمولاً با روش ممیزی که در حال تبدیل شدن به یک الزام قانونی رایج است، انجام می‌شود.

     

     

    برنامه‌ریزی و مدیریت پروژه

    • برنامه‌ریزی برای وظایف اخلاقی مرتبط با کاربرد: در بودجه‌بندی و برنامه‌ریزی، مسائل اخلاقی بالقوه‌ای که ممکن است رخ دهند را در نظر بگیرید. هر زمان که مناسب باشد، انتصاب مشاور یا مشاوران اخلاقی مستقل، متخصص در زمینه‌ٔ اخلاق فناوری‌های جدید و نوظهور و حفاظت از داده‌های شخصی را در نظر بگیرید.
    • نقش‌ها و رویه‌هایی را برای اجرای دستورالعمل‌های اخلاقی و نظارت بر اجرای آنها تعریف کنید. این می‌تواند شامل تشکیل یک افسر اخلاق هوش مصنوعی یا تیمی باشد که مسئولیت اجرای دستورالعمل‌های اخلاقی یا نظارت بر اجرای آنها را بر عهده دارند. نباید تصور کرد که هر کسی که در طول توسعه، انطباق اخلاقی را مدیریت کرد، مرجع مناسب برای این نقش است.
    • اطمینان حاصل کنید که اهدافی که سیستم برای آنها استفاده می‌شوند، الزامات طراحی و انتخاب منابع با الزامات اخلاقی ارائه‌شده در مراحل اهداف و الزامات اخلاق در طراحی مطابقت دارند.

     

    اکتساب

    • اگر یک سیستم هوش مصنوعی خارجی، به‌عنوان یک راه‌حل خارجی به کار رود، سیستمی را انتخاب کنید که بیشترین توانایی را برای برآورده کردن الزامات اخلاقی مشخص‌شده در قسمت ۱ دارد. اگر سیستم هوش مصنوعی به‌صورت سفارشی توسط یک توسعه‌دهنده‌ٔ خارجی ساخته شده است، اولویت را به توسعه‌دهنده‌ای بدهید که از رویکرد اخلاق در طراحی استفاده می‌کند یا مایل است به الزامات اخلاقی مندرج در این راهنما پایبند باشد. تا حد ممکن، پایبندی خود به این الزامات را تأیید کنید. حداقل، فروشنده باید بتواند بسیاری از اطلاعات موردنیاز را ارائه دهد. از آنجایی که اخلاق در طراحی نیازمند شفافیت و نظارت انسانی است، ممکن است در ابتدا از فروشنده بخواهیم مکانیسمهای نظارت اخلاقی توسعه‌دهنده را توضیح داده و نمونه‌هایی از اسناد شفافیت آنها را نشان دهد. بدون شفافیت کافی، تعیین انطباق اخلاقی سیستم و یا ارائه‌ٔ شواهد برای پاسخگویی ممکن نخواهد بود.
    • در صورت انتخاب توسعه‌ٔ داخلی، از روش اخلاق در طراحی که در قسمت دوم این سند توضیح داده شده است، پیروی کنید و تأیید کنید که سیستم حاصل از الزامات اخلاقی ذکرشده پیروی می‌کند.
    • اطمینان حاصل کنید که هر داده‌ای که قبل از استقرار برای سیستم جمع‌آوری و آماده شده است، مطابق با دستورالعمل‌های جمع‌آوری و آماده‌سازی داده‌ها است (بخش دوم، بخش ۴).
    • در صورت لزوم، ارزیابی ریسک اخلاقی و ارزیابی تاثیر به منظور بررسی ریسک‌های اخلاقی خاص در استفاده از سیستم انجام شود. برای کاهش خطرات اخلاقی شناسایی‌شده، لازم است که اقدامات کاهشی انجام شوند. می‌توان این را در بالای ارزیابی اخلاقی اولیه، در طراحی اولیه‌ٔ پروژه ایجاد کرد. با این حال، مهم است که بدانیم که ممکن است با تکامل سیستم در طول توسعه، مسائل جدیدی به وجود بیایند که در این مورد بیشتر یاد خواهید گرفت.

     

    استقرار و اجرا

    • اگر ابزارهای هوش مصنوعی مستقرشده حاوی داده‌های شخصی هستند، آنها را حذف کنید، مگر اینکه بتوانید توجیه کنید که چرا حذف کردن احتمالاً دستیابی به اهداف خاص آن را غیرممکن کرده یا به‌طور جدی آسیب می‌رساند.
    • برنامه‌ها و خط‌مشی‌هایی را ایجاد و اجرا کنید که با الزامات اخلاقی سیستم انطباق عملیاتی دارند (به بخش ۱ مراجعه کنید).
    • داده‌ها، دسترسی‌ها، سیاست‌ها و رویه‌های مدیریت ریسک به‌کاررفته در سیستم را با هدف به کار بستن الزامات اخلاقی به‌روزرسانی کنید.
    • در آموزش بهره‌برداری و استفاده از سیستم، سیاست‌های اخلاقی جدید را لحاظ کنید. به جنبه‌های اخلاقی درون ارتباطات در مورد راه‌اندازی سیستم توجه کنید.
    • بر اجرای دستورالعمل‌های اخلاقی سیستم در طول مرحله‌ٔ اجرا نظارت کنید، مسائل و خطرات را شناسایی نمایید و در صورت نیاز تنظیمات لازم را اجرا کنید.

     

     

    نظارت

    • مکانیسم‌هایی را برای اطمینان از اینکه کاربران نهایی مطابق با خط‌مشی‌های کاربران از سیستم استفاده می‌کنند و نسبت به مسائل اخلاقی در عملیات و استفاده هوشیار هستند ایجاد نمایید و با کارکنان ارشد در مورد موضوعاتی که از نظر اخلاقی مشکل‌ساز یا مبهم هستند، مشورت کنید.
    • اطمینان حاصل کنید که اهداف و معیارهای نظارتی، برای انطباق با الزامات اخلاقی وجود دارند. اگر پایشها اینطور نشان دادند که انطباق کمتر از هدف است، به‌صورت دوره‌ای بر انطباق نظارت کنید و پیشنهادهایی را برای بهبود ارائه دهید.
    • هنگام استقرار سیستم هوش مصنوعی در طول عمر پروژه، اطمینان حاصل کنید که ذینفعان، کاربران و افراد سیستم هوش مصنوعی، کانال‌های ارتباطی «شکایت اخلاقی» خود را دارند که از طریق آن به شما در مورد نگرانی‌های اخلاقیشان در صورت بروز هشدار دهند. به خاطر داشته باشید که مشکلات اخلاقی اغلب به این دلیل رخ می‌دهند که یک سیستم بر افرادی تأثیر می‌گذارد که هرگز انتظار نمی‌رفت تحت‌تأثیر سیستم قرار بگیرند. هوش مصنوعی منطبق با اخلاقیات برای اطمینان از حفاظت فنی و سازمانی مناسب، با هدف جلوگیری از افت عملکرد و مداخله در صورت بروز خطرات طراحی شده است.

     


     

    چک‌لیست پیوست 1:
    تعیین اهداف در مقابل الزامات اخلاقی

     

    این چک‌لیست یک ابزار پشتیبانی است و فهرستی جامع از همه‌ٔ الزامات اخلاقی که می‌توانند برای توسعه‌ٔ هر سیستم هوش مصنوعی خاص قابل‌اجرا باشد را تشکیل نمی‌دهد. این باید همراه با دستورالعمل‌های فعلی بخش ۱ تا ۳ مورد استفاده قرار گیرد و تا حدی که مطابق با نوع سیستم هوش مصنوعی و پژوهش پیشنهادی (از پایه تا پیشرقابتی) هستند، اعمال شوند.

     

    تعیین اهداف در مقابل الزامات اخلاقی

    بله

    خیر (چگونه خطرات احتمالی کاهش خواهند یافت؟)

    احترام به عامل انسانی

    کاربران نهایی و دیگر افراد تحت‌تاثیر هوش مصنوعی از توانایی تصمیم‌گیری در مورد زندگی خود محروم نیستند، آزادی‌های اولیه از آنها سلب شده است.

     

     

    کاربران نهایی و دیگر افراد تحت‌تاثیر هوش مصنوعی، تابع، مجبور، فریب‌خورده، دستکاری‌شده، عینی‌شده یا غیرانسانی‌شده نمی‌شوند، و همچنین وابستگی یا اعتیاد نسبت به سیستم و عملیات آن تحریک‌ نمی‌گردد.

     

     

    این سیستم به‌طور مستقل در مورد موضوعات حیاتی که معمولاً توسط انسان‌ها از طریق انتخاب‌های شخصی آزاد یا مشورت‌های جمعی تصمیم‌گیری می‌شوند، یا به طور مشابه بر افراد تأثیر می‌گذارد، تصمیم‌گیری نمی‌کنند.

     

     

    این سیستم به گونه‌ای طراحی شده است که به اپراتورهای سیستم و تا حد امکان به کاربران نهایی توانایی کنترل، هدایت و مداخله در عملیات اساسی سیستم (در صورت لزوم) را بدهد.

     

     

    حریم خصوصی و حاکمیت داده

    این سیستم داده‌ها را مطابق با الزامات قانونی، انصاف و شفافیت تنظیم‌شده در چارچوب قانونی حفاظت از داده‌های ملی و اتحادیه‌ی اروپا و انتظارات معقول سوژه‌های داده پردازش می‌کند.

     

     

    تدابیر فنی و سازمانی برای حفاظت از حقوق سوژه‌های داده (از طریق اقداماتی مانند ناشناس‌سازی، نام مستعار، رمزگذاری و تجمیع) وجود دارند.

     

     

    اقدامات امنیتی برای جلوگیری از نقض و نشت داده‌ها (مانند مکانیسم‌های ثبت دسترسی به داده‌ها و اصلاح آنها) وجود دارند.

     

     

    انصاف

    این سیستم برای جلوگیری از سوگیری الگوریتمی در داده‌های ورودی، مدل‌سازی و طراحی الگوریتم طراحی شده است.
    این سیستم برای جلوگیری از سوگیری تاریخی و انتخابی در جمع‌آوری داده‌ها، سوگیری نمایشی و عملی در آموزش الگوریتمی، سوگیری تجمیع و ارزیابی در مدل‌سازی و سوگیری اتوماسیون در استقرار طراحی شده است.

     

     

    این سیستم به‌گونه‌ای طراحی شده است که می‌توان از انواع مختلف کاربران نهایی با توانایی‌های مختلف (در صورت امکان / مرتبط) استفاده کرد.

     

     

    این سیستم تأثیرات اجتماعی منفی بر گروه‌های مربوطه ندارد، تأثیراتی به جز آنهایی که ناشی از سوگیری الگوریتمی یا عدم دسترسی جهانی هستند.

     

     

    رفاه فردی، اجتماعی و زیست‌محیطی

    سیستم هوش مصنوعی رفاه همه‌ٔ ذینفعان را در نظر می‌گیرد و آن را بی‌جهت یا ناعادلانه کم / تضعیف نمی‌کند.

     

     

    سیستم هوش مصنوعی به اصول پایداری زیست‌محیطی توجه دارد، هم در مورد خود سیستم و هم در مورد زنجیره‌ٔ تامینی که به آن متصل است (در صورت لزوم)

     

     

    این سیستم هوش مصنوعی پتانسیل تأثیر منفی بر کیفیت ارتباطات، تعامل اجتماعی، اطلاعات، فرایندهای دموکراتیک و روابط اجتماعی (در صورت لزوم) را ندارد.

     

     

    این سیستم ایمنی و یکپارچگی در محیط کار را کاهش نمی‌دهد و با مقررات مربوط به بهداشت و ایمنی و استخدام مطابقت دارد.

     

     

    شفافیت

    کاربران نهایی می‌دانند که در حال تعامل با یک سیستم هوش مصنوعی هستند.

     

     

    هدف، قابلیت‌ها، محدودیت‌ها، مزایا و خطرات سیستم هوش مصنوعی و تصمیم‌های منتقل‌شده به همراه پیامدهای احتمالی آن به‌طور آشکار به اطلاع کاربران نهایی و سایر ذینفعان می‌رسد.

     

     

    افراد می‌توانند بررسی، پرس‌وجو، اعتراض کنند و به دنبال تغییر یا اعتراض به فعالیت‌های هوش مصنوعی یا رباتیک باشند (درصورت لزوم)

     

     

    این سیستم هوش مصنوعی قابلیت ردیابی در کل چرخه‌ٔ عمر خود، از طراحی اولیه تا ارزیابی و ممیزی پس از استقرار را امکان‌پذیر می‌کند.

     

     

    این سیستم جزئیاتی را در مورد چگونگی گرفتن تصمیمات و دلایلی که این تصمیمات بر اساس آنها گرفته شده‌اند (در صورت امکان و مرتبط بودن) ارائه می‌دهد.

     

     

    این سیستم سوابق تصمیمات گرفته‌شده را نگه می‌دارد (در صورت لزوم)

     

     

    مسئولیت‌پذیری و نظارت

    این سیستم جزئیاتی را درباره‌ی چگونگی شناسایی، توقف و جلوگیری از تکرار مجدد اثرات نامطلوب اخلاقی و اجتماعی ارائه می‌دهد.

     

     

    این سیستم هوش مصنوعی اجازه‌ٔ نظارت انسانی در طول چرخه‌ٔ عمر پروژه را / با توجه به چرخه‌ٔ تصمیم‌گیری و عملیات آنها (در صورت لزوم) می‌دهد.

     

     

     

    .

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    پایان.

     

    مراحل «عملی» به‌کارگیری اصول اخلاق در طراحی و توسعه‌ٔ هوش مصنوعی ــ بخش اول

    مراحل «نظری» به‌کارگیری «اصول اخلاق در طراحی و توسعهٔ هوش مصنوعی»

     

     

    مترجم: مریم رضائی حاجیده

    منبع: کمیسیون اروپا مدیریت کل پژوهش و نوآوری- بخش اخلاق و یکپارچگی تحقیقات

     

     

     

    ۵
    از ۵
    ۶ مشارکت کننده

    نوشته های اخیر

    دسته بندی ها

    ثبت

    پیغام شما با موفقیت ارسال شد.