چرا «عدم قطعیت صریح» برای آینده‌‌‌‌‌‌‌‌‌‌‌‌‌ی فناوری اخلاقی اهمیت دارد؟

 

Why ‘Explicit Uncertainty’ Matters
for the Future of Ethical Technology

BY MARK NITZBERG

 

 چرا «عدم قطعیت صریح» برای آینده‌‌‌‌‌‌‌‌‌‌‌‌‌ی فناوری اخلاقی اهمیت دارد؟

 

چه می‌شد اگر الگوریتم‌ها به جای اهداف نهایی شرکت‌ها، حول اهداف کاربران ساخته می‌شدند؟

 

امروزه بزرگ‌ترین نگرانی‌ها در مورد هوش مصنوعی پیرامون دیدگاه‌های ویران ــ شهری (dystopian) ربات‌های اربابی که کنترل بشریت را به دست گرفته‌اند، نمی‌چرخند؛ بلکه در مورد ماشین‌هایی‌اند که رفتار بد انسانی را تشدید می‌کنند. الگوریتم‌های شبکه‌های اجتماعی یکی از بارزترین نمونه‌ها برای این رفتارها هستند.

 

YouTube را در نظر بگیرید که در طول سال‌ها ویژگی‌ها و موتورهای توصیه‌‌اش را با هدف نگه‌ داشتن افراد در صفحه‌ نمایش خود پیاده‌سازی کرده است. همانطور که نیویورک تایمز در سال 2019 گزارش داد، بسیاری از تولیدکنندگان محتوا با رویکرد راست افراطی آموخته‌اند که می‌توانند محتوای پیشنهادی خود را به‌گونه‌ای تغییر دهند تا آن‌ها را برای الگوریتم‌ها جذاب‌تر کنند و بسیاری از کاربران را به تماشای تدریجی محتواهای افراطی‌تر سوق دهند. یوتیوب در واکنش به این موضوع، مانند الگوی مشوقان نفرت‌پراکنی، اقدامات حذفی را انجام داده‌است. یک مطالعه‌‌ی مستقل منتشر شده در سال 2019 ادعا کرد که الگوریتم یوتیوب برای منصرف کردن بینندگان از تماشای "محتوای بنیادگرایانه یا افراطی" مثبت عمل کرده است. با این حال، در جولای 2021، تحقیقات جدید نشان دادند که یوتیوب همچنان در حال ایجاد تفرقه و کمک به انتشار اطلاعات نادرست و مضر است.

توییتر و فیسبوک هم با مناقشات مشابهی روبرو شده‌اند. آن‌ها هم اقدامات مشابهی را برای مقابله با اطلاعات نادرست و محتواهای نفرت‌پراکن انجام داده‌اند. اما مسئله‌ی اولیه همچنان باقی است: هدف کسب‌و‌کارها حفظ کاربران در پلتفرم است. برخی از کاربران و سازندگان محتوا از این مدل‌های کسب‌وکاری در جهت  ایجاد محتواهای مشکل‌ساز سود می‌برند.

 

الگوریتم‌هایی مانند موتورهای توصیه‌ی یوتیوب با هدف نهایی درگیری و تعامل بیشتر کاربران برنامه‌ریزی شده‌اند. در اینجا، یادگیری ماشینی بر اساس رفتار کاربر برای دستیابی به آن هدف سازگار و بهینه می‌شود. اگر محتوای خاصی باعث تعامل بیشتر شود، الگوریتم ممکن است به طور طبیعی همان محتوا را به افراد دیگر توصیه کند، در واقع همه در خدمت آن هدف قرار می‌گیرند. این موضوع می‌تواند تأثیرات گسترده‌ای بر جامعه داشته باشد. همانطور که سناتور کریس کونز در آوریل 2021 هنگامی که مدیران یوتیوب، فیس‌بوک و توییتر در مقابل کنگره شهادت می‌دادند، گفت:

«این الگوریتم‌ها اطلاعات نادرست را تقویت، قطب‌بندی سیاسی را تغذیه و ما را حواس‌پرت‌تر و منزوی‌تر می‌کنند».

 

برای پرداختن به این موضوع، شرکت‌ها و رهبران باید پیامدهای اخلاقی مدل‌های کسب‌و‌کار مبتنی بر فناوری را در نظر بگیرند. در مثال رسانه‌های اجتماعی، اگر یک الگوریتم چنین هدف نهایی‌ای را برای خود تعریف نکرده باشد، چقدر متفاوت‌تر عمل خواهد کرد؟

 

اجتناب از اهداف ثابت

در مرکز «هوش مصنوعی سازگار با انسان»، ما خواستار مدل جدیدی برای هوش مصنوعی هستیم. این مدل ممکن است یک ایده‌ی رادیکال به نظر برسد: عدم قطعیت صریح (explicit uncertainty). با استفاده از این مدل، الگوریتم هدف ذاتی ندارد. در عوض، وظیفه‌ی آن کشف اهداف کاربرانش در هر مرحله است.

وقتی هوش مصنوعی بر اساس این مدل ساخته می‌شود، احتمال آسیب‌رسانی کمتری وجود دارد. یک کاربر که محتوایی را تماشا می‌کند و آن را می‌پسندد، الگوریتم را بنا به توصیه‌ی همان محتوا به میلیون‌ها نفر دیگر سوق نمی‌دهد، زیرا در تعاملات کاربری، دیگر هدف ثابتی وجود نخواهد داشت.

 

در این مدل، الگوریتم بیشتر شبیه یک کتاب باز برای هر کاربر عمل می‌کند. برای اطلاع از تنظیمات برگزیده‌ی کاربران، ممکن است به طور نسبتاً مکرر، به‌ویژه در روزهای اولیه‌ی استفاده، از آن‌ها بپرسد که دوست دارند چه چیزی را ببینند. برای مثال، یک ویدیو یا مقاله ممکن است با این اعلان همراه شود: «آیا می‌خواهید یک بررسی واقعی درباره‌ی این موضوع را از یکی از منابع زیر ببینید؟» اگر کاربر گزینه‌ای را انتخاب کند، هوش مصنوعی متوجه می‌شود که کاربر آن نوع پیشنهاد را دوست دارد و متعاقباً می‌تواند منابع مشابهی را پیشنهاد کند. در حال حاضر تا حدودی می‌توانیم این را در سیستم‌های ناوبری که می‌پرسند، «آیا یک مسیر جایگزین برای صرفه‌جویی 20 دقیقه‌ای می‌خواهید؟» ببینیم. این تجربه کاربران را وادار می‌کند که متوقف شوند و بهترین و مفیدترین راه را برای خودشان انتخاب کنند.

 

کارخانه‌ای را تصور کنید که در آن یک الگوریتم ماشین‌آلات کار می‌کند. اگر الگوریتم هدف ثابتی برای تولید هر چه بیشتر محصولات داشته باشد، ممکن است خیلی سریع شروع به حرکت کرده و احتمال حوادث و صدمات بیشتری در محل کار را به همراه داشته باشد. در عوض اگر الگوریتم هیچ هدف ثابتی برای شروع نداشته باشد، از رفتارهای کارگران می‌آموزد که چگونه با آن‌ها، برای بهینه‌سازی خروجی محصول با سرعتی که ترجیح می‌دهند، هماهنگ عمل کند.

 

پذیرش نقش بزرگتر برای انسان

به کمک روش طراحی الگوریتم‌های کاربرمحورتر، یک سازمان می‌تواند بازی کردن سیستم را برای افراد با اهداف پلید دشوارتر کند و بر آنچه کاربران دیگر تجربه می‌کنند تأثیر بگذارد. افرادی که این الگوریتم‌ها را می‌سازند، می‌توانند راه‌هایی را برای کشف اولویت‌های کاربران و حتی تشویق آن‌ها به بیان فعالانه‌ی ترجیحات خود در نظر بگیرند.

البته، سوگیری‌ها و شکست‌های انسانی همیشه مشکل‌ساز خواهند بود. کاهش آسیب‌های احتمالی برای هر محصولی که انسان ایجاد می‌کند، ــ از جمله هوش مصنوعی ــ غیرممکن است. اما این مدل جدید با ایجاد «عدم قطعیت صریح» به عنوان یک هنجار، کمک‌کننده خواهد بود. با این کار شرکت‌ها و رهبران در تصمیم گیری‌ها و انتخاب مدل‌های کسب‌و‌کاری خود، تفکر بلندمدتی را که کاربران و پیامدهای غیرمنتظره را مد نظر قرار می‌دهد، لحاظ خواهند کرد. 

ما می‌توانیم هوش مصنوعی را چابک‌تر و پاسخگوتر به نیازهای افراد و تابع انتخاب‌های آن‌ها کنیم. با توجه به اینکه الگوریتم‌ها به طور فزاینده‌ای به دنیای ما قدرت می‌دهند، زمان تغییر مسیر فرا رسیده است.

 

 

 

منبع: https://sloanreview.mit.edu/article/why-explicit-uncertainty-matters-for-the-future-of-ethical-technology/#:~:text=It's%20built%20around%20what%20may,likely%20to%20do%20severe%20damage.

۵
از ۵
۱۱ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.