اصول طراحی برای هوش مصنوعی اخلاقی - بخش اول

 

 

 

Human values in the loop
Design principles for ethical AI

 

 Human values in the loop Design principles for ethical AI

 

 

یک سیستم انسانی باید چیزی باشد که ما در آن زندگی می‌کنیم. سندی پنتلند

 

بیش از ۶۰ سال پس از تولد این رشته، هوش مصنوعی (AI) به یکی از مسائل برجسته در حوزه‌های کسب‌وکار، امور عمومی، علم، سلامت و آموزش تبدیل شده است. الگوریتم‌هایی در حال توسعه‌اند تا به هدایت خودروها، راهبری سلاح‌ها، انجام کارهای یکنواخت یا خطرناک، برقراری مکالمه، پیشنهاد محصولات، بهبود همکاری و اتخاذ تصمیمات مهم در حوزه‌هایی مانند حقوق، وام‌دهی، پزشکی، پذیرش دانشگاه‌ها و استخدام کمک کنند. با این حال، در حالی که فناوری‌های پشتیبان هوش مصنوعی به سرعت در حال پیشرفت‌اند، تأثیرات اجتماعی آن‌ها تنها در حال آغاز فهم و بررسی است.

تا همین اواخر، این باور که ارزش‌های اجتماعی باید با تکامل طبیعی فناوری مطابقت داشته باشند - اینکه فناوری باید هنجارها و انتظارات اجتماعی را شکل دهد، نه اینکه توسط آنها شکل بگیرد - مد روز به نظر می‌رسید. برای مثال، استوارت برند در سال ۱۹۸۴ اعلام کرد که

«اطلاعات می‌خواهد آزاد باشد.»

در سال ۱۹۹۹، یک مدیر سیلیکون‌ولی به گروهی از خبرنگاران گفت:

«شما هیچ حریم خصوصی ندارید… با آن کنار بیایید.»

در سال ۲۰۱۰، کوین کلی، یکی از بنیان‌گذاران مجله Wired، کتابی با عنوان چیزهایی که فناوری می‌خواهد منتشر کرد. «سریع حرکت کن و خراب کن» یک شعار رایج در سیلیکون‌ولی بوده است.

 

اما این دیدگاه رسمی در پی فهرستی روزافزون از مسائل اخلاقی مرتبط با فناوری به چالش کشیده شده است. هرچند هوش مصنوعی تنها نوع فناوری درگیر نیست، اما معمولاً بیشترین سهم توجه و بحث‌ها درباره پیامدهای اخلاقی را به خود اختصاص داده است.

بسیاری از نگرانی‌ها درباره فناوری‌های مبتنی بر هوش مصنوعی به خوبی منتشر و مورد بحث قرار گرفته‌اند. برای مثال: الگوریتم‌های هوش مصنوعی که در فناوری‌های دیجیتال و شبکه‌های اجتماعی تعبیه شده‌اند، می‌توانند:

  • تعصبات اجتماعی را تقویت کنند،
  • انتشار شایعات و اطلاعات نادرست را تسریع بخشند،
  • اتاق‌های پژواک افکار عمومی را تشدید کنند،
  • توجه ما را ربوده و
  • سلامت روانی را تحت تأثیر قرار دهند.

کارشناسان هشدار می‌دهند که فناوری‌های هوش مصنوعی می‌توانند به ابزار جنگی تبدیل شوند. گزارش شده است که وسایل نقلیه نیمه‌خودران در شرایطی شکست می‌خورند که مالکان انتظار آن را نداشته‌اند. و در حالی که ترس‌ها از «ربودن شغل‌های انسانی» توسط فناوری‌های هوشمند اغلب بزرگ‌نمایی می‌شوند، اقتصاددانان معتبر به افزایش نابرابری و فقدان فرصت برای بخش‌هایی از نیروی کار به دلیل تغییرات ناشی از فناوری در محیط کار اشاره می‌کنند.

 

به‌دلیل نگرانی‌هایی از این دست، درخواست‌ها برای طراحی و استفاده از هوش مصنوعی به شیوه‌ای که ارزش‌های فرهنگی مهم را منعکس کند، روزبه‌روز افزایش یافته است. در یک یادداشت تحلیلی اخیر، سرمایه‌گذار استیفن شوارتزمان از شرکت‌ها خواست که در مواجهه با مسائل اخلاقی پیرامون هوش مصنوعی پیشگام باشند. او می‌گوید:

اگر می‌خواهیم پتانسیل شگفت‌انگیز هوش مصنوعی را محقق کنیم، باید هوش مصنوعی را به شیوه‌ای پیش ببریم که اعتماد عمومی به این‌که هوش مصنوعی به نفع جامعه است، افزایش یابد. ما باید یک چارچوب برای بررسی تأثیرات و اخلاق آن داشته باشیم.

 

در واقع، طی سال‌های اخیر تعداد زیادی چارچوب اخلاقی برای هوش مصنوعی ظهور کرده است. برای مثال، تیمی در دانشگاه سوئیسی ETH زوریخ اخیراً دست‌کم ۸۴ بیانیه اخلاقی هوش مصنوعی از شرکت‌ها، نهادهای دولتی، دانشگاه‌ها، سازمان‌های غیرانتفاعی و دیگر سازمان‌ها را تحلیل کرده است. اگرچه تیم برخی ناسازگاری‌ها را شناسایی کرد، اما همپوشانی دلگرم‌کننده‌ای در اصول کلی مطرح‌شده نیز مشاهده شد. در تلاش مشابه دیگری، گروه AI4People به رهبری لوچیانو فلوریدی شش بیانیه اخلاقی برجسته هوش مصنوعی را تحلیل کرد. آن‌ها نتیجه گرفتند که مجموعه‌ای از چهار اصل اخلاقی پایدار و سطح بالاتر—خیرخواهی، ضرر نرساندن، عدالت و خودمختاری—بخش عمده‌ای از ماهیت این شش بیانیه را در بر می‌گیرد.

این چهار اصل ریشه در مکاتب بزرگ فلسفه اخلاق دارند و در واقع، طی چند دهه گذشته در حوزه زیست‌اخلاق (bioethics) به طور گسترده پذیرفته شده‌اند. شاید تعجب‌آور نباشد که این اصول به خوبی در زمینه هوش مصنوعی نیز قابل تطبیق هستند. فلوریدی و همکارش جاش کوولز در مقاله‌ای برای Harvard Data Science Review می‌نویسند:

از میان تمامی حوزه‌های اخلاق کاربردی، زیست‌اخلاق بیشترین شباهت را به اخلاق دیجیتال دارد، زیرا به‌طور اکولوژیک با اشکال جدید عاملان، بیماران و محیط‌ها برخورد می‌کند.

 

در کتاب Bit by Bit، دانشمند برجسته علوم اجتماعی محاسباتی، متیو سالگانیک، اخیراً همان اصول بنیادی را برای کمک به دانشمندان داده در ارزیابی پیامدهای اخلاقی کار با داده‌های رفتاری تولیدشده توسط انسان‌ها توصیه کرده است. سالگانیک می‌گوید:

در برخی موارد، رویکرد مبتنی بر اصول (principles-based approach) منجر به راه‌حل‌های واضح و عملی می‌شود. و هنگامی که این اتفاق نمی‌افتد، بده‌بستان‌های مربوطه را روشن می‌کند، که برای ایجاد تعادل مناسب بسیار مهم است. علاوه بر این، رویکرد مبتنی بر اصول به اندازه کافی کلی است که صرف نظر از محل کار شما مفید خواهد بود.

 

مقاله حاضر تلاش می‌کند نشان دهد که:

اصول اخلاقی می‌توانند به‌عنوان اصول طراحی (design principles) برای سازمان‌هایی عمل کنند که قصد دارند فناوری‌های نوآورانه هوش مصنوعی را به‌گونه‌ای به کار گیرند که هم از نظر اقتصادی سودآور باشد و هم برای انسان‌ها و جوامع مفید، عادلانه و حافظ خودمختاری آنان باشد. به‌طور مشخص، ما تأثیر، عدالت و خودمختاری را به‌عنوان سه اصل اساسی پیشنهاد می‌کنیم که می‌توانند راهنمای مفیدی برای بحث‌ها پیرامون پیامدهای اخلاقی هوش مصنوعی (AI’s ethical implications) باشند.

 

 

سه اصل بنیادین که می‌توانند به رهبران کمک کنند تا درباره پیامدهای اخلاقی هوش مصنوعی بهتر بیندیشند:

۱. تأثیر (IMPACT)

کیفیت اخلاقی یک فناوری به نتایج و پیامدهای آن بستگی دارد.
ریسک‌ها و مزایا باید سنجیده شوند.

  • عدم‌ضرر (Non-maleficence): از آسیب جلوگیری کنید.

  • نیکوکاری/سودرسانی (Beneficence): به شکوفایی انسان‌ها و جوامع کمک کنید.

 

۲. عدالت / انصاف (JUSTICE)

مردم باید منصفانه با یکدیگر رفتار کنند.

  • عدالت / انصاف رویه‌ای (Procedural fairness): ترویج رفتار منصفانه در فرایندها.

  • عدالت / انصاف توزیعی (Distributive fairness): ارتقای برابری در نتایج. 

 

۳. خودمختاری (AUTONOMY)

مردم باید بتوانند آزادانه تصمیم بگیرند، بدون اینکه تحت تأثیر نیروهای دست‌کاری‌کننده قرار گیرند.

  • فهم‌پذیری (Comprehension): توضیح اینکه هوش مصنوعی چگونه استفاده می‌شود و چه زمانی می‌توان به آن اعتماد کرد.

  • کنترل (Control): فراهم کردن امکان اصلاح یا نادیده گرفتن تصمیمات هوش مصنوعی در مواقع لازم.

 

 

۳ اصل طراحی برای هوش مصنوعی احلاقی - AI

 

 

دستیابی به هوش مصنوعی اخلاقی، قابل اعتماد و سودآور مستلزم آن است که بررسی‌های اخلاقی بر پایه درک علمی از نقاط قوت و ضعف نسبی هم هوش ماشینی و هم شناخت انسانی قرار گیرد. به عبارت دیگر، «حکیم بودن» درباره هوش مصنوعی مستلزم «باهوش بودن» درباره آن است. برای مثال، بحث درباره راه‌های ارتقای ایمنی و قابلیت اطمینان هوش مصنوعی نیازمند درک این است که چرا فناوری‌های هوش مصنوعی—که اغلب با استفاده از روش‌های تحلیل آماری در مقیاس وسیع مانند یادگیری عمیق ساخته می‌شوند—در برخی زمینه‌ها موفق‌اند اما در زمینه‌های دیگر شکست می‌خورند. به همین ترتیب، مباحث مربوط به عدالت الگوریتمی باید بر پایه درک هم از تعصبات و «نویز»هایی که بر تصمیم‌گیری‌های انسانی بدون کمک تأثیر می‌گذارند و هم از مصالحه‌های موجود در برداشت‌های مختلف از «عدالت» الگوریتمی شکل گیرد. در هر مورد، بررسی‌های اخلاقی زمانی سازنده‌تر و مؤثرتر خواهند بود که با علم مرتبط آگاهانه پشتیبانی شوند.

 

همزمان، این مقاله نحوه کاربرد اصول بنیادی را مشخص نمی‌کند. سازمان‌ها در اهداف و زمینه‌های عملیاتی خود متفاوت‌اند و بنابراین بیانیه‌ها، چارچوب‌ها، مجموعه قواعد و چک‌لیست‌های متفاوتی را برای هدایت توسعه مسئولانه فناوری‌های هوش مصنوعی اتخاذ خواهند کرد. علاوه بر این، به‌کارگیری اصول بنیادی در مسائل خاص اغلب مستلزم ارزیابی مصالحه‌ها بین گزینه‌هایی است که اهمیت نسبی آن‌ها در دیدگاه افراد، سازمان‌ها و جوامع متفاوت است. ما پیشنهاد می‌کنیم که درک اصول بنیادی می‌تواند به افراد و سازمان‌ها کمک کند تا چارچوب‌های اخلاقی موثرتری ایجاد کنند و در مورد مسائل خاص بهتر تأمل و تصمیم‌گیری نمایند.

 

 


دِلویت درباره کامپیوترها و توانمندی‌های انسانی، ۱۹۶۶

در حالی که کامپیوترها در سال‌های پیش رو نقش مهمی در زندگی ما خواهند داشت، نه انسان مدرن و نه مدیریت مدرن منسوخ نخواهند شد. کامپیوترها مهارت‌های انسان را تکمیل می‌کنند، افق‌های دانش او را گسترش می‌دهند، قدرت جدیدی برای حل مسائل به او می‌بخشند و امکان بررسی مسائل جدید را فراهم می‌آورند. — رابرت ام. تروبلاد، رئیس، Touche Ross, Bailey & Smart

 


 

 

۱- تأثیر: ترویج نتایج قابل قبول

 

دو اصل اخلاقی به‌طور گسترده شناخته‌شده، «ضرر نرساندن» (Non-maleficence: «به کسی آسیب نرسان») و «خیرخواهی» (Beneficence: «فقط کار خوب انجام بده») هستند. این اصول بر پایه نظریه اخلاقی «پیامدگرایانه / نتیجه‌گرا» (Consequentialist) قرار دارند؛ نظریه‌ای که طرفداران آن شامل جان استوارت میل و جرمی بنتام بوده‌اند و معتقد است کیفیت اخلاقی یک عمل بستگی به پیامدهای آن دارد.

 

 

۱-۱- «اول، آسیب نرسان»

اصل «ضرر نرساندن» (Non-maleficence) حکم می‌کند که هوش مصنوعی باید از ایجاد آسیب، چه قابل پیش‌بینی و چه غیرعمدی، خودداری کند. نمونه‌هایی از آسیب‌های قابل پیش‌بینی شامل:

  • هوش مصنوعی مسلح‌شده،
  • استفاده از هوش مصنوعی در جنگ سایبری،
  • هک‌های مخرب،
  • ایجاد یا انتشار اخبار یا تصاویر جعلی برای مختل کردن انتخابات،
  • و کلاهبرداری‌هایی مانند فیشینگ و تقلب است.

اما طبیعتاً اکثریت قاطع سازمان‌هایی که هوش مصنوعی می‌سازند یا به کار می‌گیرند، قصد ایجاد آسیب بی‌مورد ندارند. برای این سازمان‌ها، جلوگیری از پیامدهای غیرعمدی، نگرانی اصلی و حیاتی است.

 

برای جلوگیری از ایجاد هوش مصنوعی مضر، لازم است محدودیت‌های علمی فناوری‌های هوش مصنوعی را درک کنیم تا بتوان ریسک‌های مرتبط با آن‌ها را مدیریت کرد. برای مثال، بسیاری از الگوریتم‌های هوش مصنوعی با به‌کارگیری تکنیک‌های یادگیری ماشینی، به‌ویژه یادگیری عمیق، روی حجم وسیعی از داده‌های «برچسب‌گذاری‌شده» ایجاد می‌شوند. سپس این الگوریتم‌ها می‌توانند برای پیش‌بینی موارد آینده که مقادیر واقعی آن‌ها نامعلوم است، به کار گرفته شوند. چنین الگوریتم‌هایی امروزه برای برآورد احتمال بازپرداخت وام توسط وام‌گیرنده، میانگین نمره مورد انتظار دانشجویی در صورت پذیرش در دانشگاه، احتمال اینکه یک تصویر رادیولوژی، تومور سرطانی باشد، یا احتمال اینکه جسم قرمز جلوی خودرو یک علامت توقف باشد، استفاده می‌شوند.

 

 

۱-۱-۱- موضوعات ضرر نرساندن: جلوگیری از آسیب (Non-maleficence: Avoid Harm):

  • ایمنی،
  • قابلیت اطمینان،
  • پایداری،
  • منبع داده،
  • حریم خصوصی،
  • امنیت سایبری،
  • سوءاستفاده.

 

نمونه‌ها:

  • خودداری از ایجاد آسیب عمدی از طریق فیشینگ، نفوذهای سایبری، هوش مصنوعی مسلح‌شده یا «اخبار جعلی»
  • اجتناب از آسیب غیرعمدی ناشی از مثبت کاذب، داده‌های ناقص، مشخصه‌گذاری نادرست مدل یا عملکرد نامناسب الگوریتم
     

 

با وجود نام «هوش مصنوعی»، این الگوریتم‌ها مبتنی بر نوعی درک مفهومی که مشخصه هوش انسانی است، نیستند. بلکه محصول تطبیق الگوهای آماری هستند. بنابراین، اگر از روش‌های خودکار یا آمار ساده برای آموزش الگوریتم‌ها روی داده‌هایی که دارای خطا یا تعصب هستند استفاده شود، خود آن الگوریتم‌ها نیز احتمالاً همان خطاها یا تعصبات را منعکس خواهند کرد.

این حقیقت اساسی یادگیری ماشینی یک پیامد اخلاقی کلیدی دارد:

یک الگوریتم یادگیری ماشینی تنها تا حدی ایمن و قابل اعتماد است که روی (۱) حجم کافی از داده‌ها که (۲) نماینده مناسبی از سناریوهایی باشند که الگوریتم قرار است در آن‌ها به کار گرفته شود، آموزش دیده باشد.

 

یک مطالعه موردی که توسط پژوهشگر برجسته یادگیری ماشینی، مایکل آی. جوردن، مطرح شده است، نشان می‌دهد که نادیده گرفتن چنین ریسک‌هایی می‌تواند به آسیب‌های جسمی منجر شود. در این مورد، یک دستگاه هوش مصنوعی برای برآورد احتمال ابتلای جنین به سندرم داون بر اساس تصاویر سونوگرافی طراحی شده بود. در نقطه‌ای، فرمت داده‌های ورودی و وضوح تصاویر سونوگرافی تغییر کرد: هوش مصنوعی شروع به پردازش تصاویر با وضوح بالاتر برای محاسبه برآوردهای خود کرد. این تغییر باعث افزایش قابل توجه تشخیص سندرم داون توسط ماشین شد. این افزایش به دلیل موارد قبلاً ناشناخته نبود، بلکه به این دلیل بود که وضوح بالاتر تصاویر، مصنوعات آماری ساختگی ایجاد می‌کرد که الگوریتم (آموزش‌دیده روی تصاویر با وضوح پایین‌تر) آن‌ها را به اشتباه به عنوان شاخص‌های سندرم داون تفسیر می‌کرد. احتمالاً هزاران نفر بر اساس این تشخیص‌های نادرست، اقدام به انجام آزمایش آمنیوسنتز کرده و نوزادان خود را در معرض خطر قرار داده‌اند.

 

 

۱-۱-۲- موضوعات خیرخواهی: ارتقای رشد و شکوفایی انسان‌ها و جوامع (Beneficence: Advance the Flourishing of People and Societies)

  • رشد و شکوفایی انسانی،
  • رفاه،
  • کرامت،
  • منافع عمومی،
  • پایداری.

 

نمونه‌ها:

  • استفاده از هوش مصنوعی برای بهبود مراقبت‌های پزشکی، ارائه منافع عمومی، ایجاد محیط‌های امن‌تر، یا ارتقای نتایج آموزشی

 

با دانستن این‌که الگوریتم‌های یادگیری ماشینی تنها تا حدی قابل اعتماد هستند که داده‌های به‌کار رفته برای آموزش آن‌ها نماینده مناسبی از سناریوهایی باشد که در آن‌ها به کار گرفته می‌شوند، یک سازمان می‌تواند اقداماتی برای شناسایی و کاهش ریسک‌های ناشی از این محدودیت انجام دهد. برخی از این راهکارها ممکن است شامل موارد زیر باشند:

  • بررسی منبع داده‌های آموزشی—این‌که داده‌ها از کجا آمده‌اند، چه استنباط‌هایی از آن‌ها حاصل شده و این استنباط‌ها تا چه حد برای وضعیت فعلی مرتبط هستند—برای ارزیابی قابلیت کاربرد الگوریتم.
     
  • محدود کردن استفاده از الگوریتم‌ها به محیط‌هایی که احتمال عملکرد قابل اعتماد آن‌ها وجود دارد. برای مثال، وسایل نقلیه خودران می‌توانند به خطوط ویژه‌ای محدود شوند که دسترسی به آن‌ها برای رانندگان انسانی (غیرقابل پیش‌بینی)، عابران پیاده و حیوانات ممنوع باشد. به همین ترتیب، یک چت‌بات می‌تواند طوری طراحی شود که از جمع‌آوری اطلاعات شخصی قابل شناسایی (PII) خودداری کند یا برخی کلمات را نادیده بگیرد تا ریسک سوءاستفاده کاهش یابد.
     
  • ترکیب انسان‌ها با سیستم‌های الگوریتمی، تا قادر به استدلال مبتنی بر عقل سلیم و تصمیم‌گیری انعطاف‌پذیر باشند. برای مثال، یک وسیله نقلیه نیمه‌خودران می‌تواند از هوش مصنوعی استفاده کند نه برای جایگزینی اپراتور انسانی، بلکه برای کمک به او در رانندگی ایمن‌تر. به همین ترتیب، به جای جایگزینی متخصصان انسانی (مانند پزشکان، مددکاران اجتماعی، قضات، کارمندان ارزیابی خسارت، معلمان در تصحیح اوراق دانش‌آموزان یا ویراستاران در شناسایی محتوای غیرقابل قبول شبکه‌های اجتماعی)، الگوریتم‌ها می‌توانند با ارائه نشانه‌های آماری استخراج‌شده برای مدیریت بار کاری و کاهش تعصبات در تصمیم‌گیری این متخصصان طراحی شوند. در سناریوهای حساس، یک رویکرد عملی می‌تواند این باشد که نیاز به همکاری انسان-کامپیوتر فرض شود و خودمختاری کامل ماشین به عنوان یک حالت محدود در نظر گرفته شود.

 

 

شکاف عقل سلیم در هوش مصنوعی

هوش مصنوعی را می‌توان از نظر عملکردی اینگونه تعریف کرد:

هر نوع برنامه کامپیوتری که قادر به دستیابی به هدف خاصی است که معمولاً با هوش انسانی مرتبط است.

در یک انتهای طیف، هوش مصنوعی شامل سیستم‌های مبتنی بر قوانین مانند اتوماسیون فرآیندهای رباتیک (RPA) می‌شود. در انتهای دیگر، بسیاری از کاربردهای مشهور امروزی مانند به‌کارگیری تکنیک‌های یادگیری ماشینی نظارت‌شده روی داده‌های بزرگ اساساً نتیجه تحلیل آماری در مقیاس وسیع هستند. یکی از این تکنیک‌ها خاص معروف به «یادگیری عمیق»، پایه بسیاری از کاربردهای شناخته‌شده هوش مصنوعی است، مانند چت‌بات‌ها و سیستم‌های تشخیص تصویر که برای کمک به هدایت خودروها یا شناسایی تومورها در تصاویر رادیولوژی استفاده می‌شوند.

 

وقتی پژوهشگران در دهه ۱۹۵۰ اصطلاح «هوش مصنوعی» را معرفی کردند، هدف ساخت سیستم‌های کامپیوتری بود که هوش عمومی در سطح انسان را نمایش دهند. اما امروزه، «هوش مصنوعی» عمدتاً به کاربردهای محدود و متمرکز اشاره دارد که انعطاف‌پذیری تفکر انسانی را ندارند. ایده قدیمی که هوش مصنوعی «عمومی» می‌تواند شناخت انسان را شبیه‌سازی کند، جای خود را به تعداد زیادی از هوش‌های مصنوعی عملی و محدود امروزی داده است که به‌طور بسیار متفاوتی نسبت به ذهن انسان عمل می‌کنند.

برخلاف هوش انسانی، الگوریتم‌های هوش مصنوعی دارای عقل سلیم، درک مفهومی، شناخت روابط علت و معلولی یا درک شهودی فیزیک نیستند. برای نمونه، یک انسان می‌تواند با استفاده از عقل سلیم و آگاهی زمینه‌ای، یک اصطلاح جدید عامیانه را تنها با چند مواجهه یاد بگیرد. در مقابل، یک الگوریتم ترجمه ماشینی برای اینکه احتمالاً درست عمل کند، باید در معرض تعداد زیادی نمونه ترجمه‌شده قبلی قرار گیرد.

نبود عقل سلیم، ناتوانی در تعمیم دادن یا در نظر گرفتن زمینه، باعث می‌شود الگوریتم‌های هوش مصنوعی «شکننده» باشند؛ به این معنا که نمی‌توانند با سناریوهای غیرمنتظره یا موقعیت‌های ناآشنا مقابله کنند. همان‌طور که گری مارکوس و ارنست دیویس در کتاب Rebooting AI می‌نویسند:

بدون یک مدل شناختی غنی، پایداری وجود نخواهد داشت. آنچه در عوض دارید، حجم زیادی داده است همراه با امیدی که چیزهای جدید تفاوت زیادی با گذشته نداشته باشند. اما این امید اغلب نادرست است و زمانی که چیزهای جدید به اندازه کافی با گذشته متفاوت باشند، سیستم دچار شکست می‌شود.

برخی مفسران پیشنهاد کرده‌اند که پیش‌بینی‌های بیش از حد خوش‌بینانه صنعت خودروسازی درباره رسیدن به خودروهای کاملاً خودران احتمالاً تحت تأثیر نادیده گرفتن همین نکته بنیادی بوده است.

 

 

 

1-2- هوش مصنوعی برای خیر (AI for good)

اصل نیکوکاری (beneficence) که در بسیاری از بیانیه‌های اخلاق هوش مصنوعی بازتاب یافته است، بیان می‌کند که هوش مصنوعی باید به گونه‌ای طراحی شود که به ارتقای رفاه انسان‌ها و سیاره کمک کند. در کتاب ابزارها و سلاح‌ها (Tools and Weapons)، برد اسمیت از اصطلاح «فراگیری/ شمول‌گرایی» (inclusivity) برای اشاره به ایده‌ای مشابه استفاده کرد و به فناوری‌های هوش مصنوعی اشاره نمود که برای کمک به افراد دارای مشکلات بینایی یا شنوایی توسعه یافته‌اند.

کاربردهای نیکوکارانه‌ی هوش مصنوعی می‌توانند طیف گسترده‌ای از رفاه جسمی و عاطفی را پوشش دهند و در هر دو سطح فردی و جمعی عمل کنند. برخی نمونه‌ها عبارتند از:

  • یک کاربرد اولیه در محاسبات عاطفی (affective computing) یا همان «هوش مصنوعی عاطفی»، که با هدف کمک به افراد مبتلا به اوتیسم طراحی شده است. این افراد معمولاً در استنباط حالات هیجانی دیگران با دشواری مواجه هستند و این ابزار می‌توانست به آن‌ها کمک کند تا در موقعیت‌های اجتماعی بهتر عمل کنند. چنین سیستم‌هایی که بر پایه یادگیری عمیق ساخته می‌شوند، اغلب قادرند حالات هیجانی را از روی حالات چهره با دقتی بالاتر از بسیاری از انسان‌ها تشخیص دهند و به این ترتیب، به‌عنوان نوعی «سمعک عاطفی» عمل کنند تا نشانه‌های رفتاری دیگران را برای افراد آشکار سازند.
  • ابتکارات «داده برای خیر» (Data for good) که از الگوریتم‌های هوش مصنوعی برای شناسایی مناطق دارای فقر شدید از طریق تحلیل تصاویر ماهواره‌ای استفاده می‌کنند، خانه‌هایی را که برای ساکنانشان خطر بالای مسمومیت با سرب دارند مشخص می‌کنند، دانش‌آموزان دبیرستانی را که در معرض خطر فارغ‌التحصیلی دیرهنگام قرار دارند شناسایی می‌کنند، یا مأموران پلیسی را که احتمال بیشتری برای تجربه رویدادهای نامطلوب دارند، تشخیص می‌دهند.
  • چت‌بات‌هایی که مداخلات درمان شناختی-رفتاری (Cognitive Behavioral Therapy) را ارائه می‌دهند تا به بهبود شرایطی همچون افسردگی خفیف و اضطراب کمک کنند.
  • ربات‌های اجتماعی که مداخلات مبتنی بر «ذهنیت رشد» (growth mindset) را در خود جای داده‌اند تا به کودکان کمک کنند در محیط‌های آموزشی تمرکز خود را حفظ کنند.
  • پوشیدنی‌هایی (wearables) که با بازی‌وارسازی (gamification) یا دیگر مداخلات رفتاری نوع «تلنگر» (nudge) همراه می‌شوند و برای ایجاد رفتارهای سالم‌تر طراحی شده‌اند.
  • اپلیکیشن‌های داده‌محور که با طراحی مبتنی بر تلنگرهای رفتاری تجهیز شده‌اند و برای کمک به کارگران پاره‌وقت (gig workers) ساخته شده‌اند تا هر روز مقدار اندکی پول پس‌انداز کنند و بهتر به اهداف مالی خود برسند.

 

جالب آنکه، در حالی که اصل «پرهیز از آسیب‌رسانی» (non-maleficence) سومین اصل رایج در بیانیه‌های اخلاقی هوش مصنوعی مورد بررسی تیم ETH زوریخ بود، اصل «خیررسانی» (beneficence) در کمتر از نیمی از آن‌ها دیده می‌شد. این تفاوت احتمالاً بازتابی از غلبه‌ی بحث‌های هشداردهنده درباره هوش مصنوعی است که بیشتر بر آسیب‌ها تمرکز دارند، اما کمتر به ظرفیت‌های هوش مصنوعی برای کاهش سوگیری‌های انسانی، گسترش توانایی‌های انسان، و ارتقای رفاه می‌پردازند.

 

 

 

مدیریت موازنه‌ها (Managing tradeoffs)

بحث‌های اخلاقی اغلب شامل مدیریت موازنه‌ها میان اصولی است که نمی‌توان آن‌ها را هم‌زمان به طور کامل برآورده ساخت. موازنه میان «خیررسانی» (beneficence) و «پرهیز از آسیب‌رسانی» (non-maleficence) رایج است. برای نمونه، ممکن است عموم مردم حاضر باشند نرخ مشخصی از تلفات مرتبط با خودروهای خودران را بپذیرند، اگر این نرخ پایین‌تر از نرخ تلفات ناشی از رانندگی انسان‌ها با وسایل نقلیه سنتی باشد.

 

گاهی اوقات، فرایند بیان و شفاف‌سازی یک موازنه اخلاقی می‌تواند نوآوری‌هایی را برانگیزد که آن موازنه را کمتر مسئله‌ساز کند. برای مثال، یک نهاد دولتی الگوریتمی مبتنی بر یادگیری ماشین سفارش داد تا افرادی را که احتمال بالاتری برای دریافت نادرست مزایای بیمه بیکاری (UI benefits) دارند، شناسایی کند. به دلایل فنی اجتناب‌ناپذیر، چنین الگوریتمی می‌توانست تعداد زیادی «مثبت کاذب» تولید کند—یعنی به اشتباه ادعاهای قانونی را نامعتبر تشخیص دهد. اگر آن سازمان دولتی صرفاً از الگوریتم برای اجرای یک قاعده تصمیم‌گیری خودکار استفاده می‌کرد، از نوع «اگر امتیاز از x بیشتر شد، مزایا را رد کن»، مثبت‌های کاذب اجتناب‌ناپذیر منجر می‌شد که آن سازمان، مزایای بیمه بیکاری موردنیاز را از شمار زیادی افراد مستحق دریغ کند.

به همین دلیل، تیم علم داده تصمیم گرفت سیستم هوش مصنوعی را به‌گونه‌ای طراحی کند که به‌عنوان یک «موتور تلنگر» (nudge engine) عمل کند. به جای آنکه مزایا را از افرادی با امتیاز بالا سلب کند، سازمان برای مدعیانی که الگوریتم آن‌ها را مشکوک شناسایی کرده بود، پیام‌های رفتاری به‌موقع و از نوع «تلنگر» به صورت پاپ‌آپ ارسال کرد—برای نمونه: «۹ نفر از ۱۰ نفر از همسایگان شما در [شهرستان شما] درآمدشان را به‌طور دقیق گزارش می‌کنند.» این پیام‌ها هیچ آسیبی به افرادی که به اشتباه توسط الگوریتم پرچم‌گذاری شده بودند وارد نکرد، اما در مورد کسانی که واقعاً به‌طور نادرست مزایا را مطالبه می‌کردند، تأثیر مطلوبی داشت. کارآزمایی‌های کنترل‌شده تصادفی (Randomized Controlled Trials) نشان دادند که پیام‌های تلنگری هدفمندِ مبتنی بر یادگیری ماشین، پرداخت‌های نادرست بیمه بیکاری را حدود ۵۰ درصد کاهش دادند.

 

نکته‌ی کلیدی این است که هوش مصنوعی اخلاقی مستلزم آن است که سازمان‌ها نه‌تنها پیش‌بینی‌ها، بلکه مداخلات را نیز در نظر بگیرند. اغلب، مداخلات «اقتصاد کلاسیک» مانند تعیین قیمت‌ها، ارائه یا خودداری از درمان، و اعمال تنبیه یا پاداش تنها گزینه‌های مورد توجه هستند. علم جدید «معماری انتخاب» (choice architecture) جعبه‌ابزار را با مداخلات «نرم» گسترش می‌دهد که به سازمان‌ها امکان می‌دهد بر اساس نشانه‌های مبهم الگوریتمی، به شیوه‌ای اخلاقی عمل کنند. در مواردی که مداخلات تلنگری به اندازه کافی قوی نیستند، مباحث اخلاقی باید راهنمای تصمیم‌گیری‌های سیاستی در مورد نحوه‌ی استفاده از پیش‌بینی‌های ماشینی باشند. برای نمونه، یک الگوریتم پیش‌بینی خاص می‌تواند یا برای سلب مزایا به کار رود، یا برای ارائه‌ی حمایت‌های پیشگیرانه به افراد در معرض خطر مورد استفاده قرار گیرد.

نکته‌ای حتی گسترده‌تر آن است که نوآوری فناورانه—که اغلب مستلزم تفکر میان‌رشته‌ای است—می‌تواند امکان کاهش یا مدیریت موازنه‌های دشوار اخلاقی را فراهم کند. شعار روزبه‌روز پرطرفدارتر «هوش مصنوعی انسان‌محور» (human-centered AI) دعوتی برای در نظر گرفتن نیازهای انسانی و اجتماعی هنگام توسعه کاربردهای فناوری‌های هوش مصنوعی است.

 

 

ادامه دارد ...

 

اصول طراحی برای هوش مصنوعی اخلاقی - بخش دوم

 

 

 

 

مقالات مرتبط:

 

 

 

۵
از ۵
۲ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.