Why ‘Explicit Uncertainty’ Matters
for the Future of Ethical Technology
BY MARK NITZBERG
چه میشد اگر الگوریتمها به جای اهداف نهایی شرکتها، حول اهداف کاربران ساخته میشدند؟
امروزه بزرگترین نگرانیها در مورد هوش مصنوعی پیرامون دیدگاههای ویران ــ شهری (dystopian) رباتهای اربابی که کنترل بشریت را به دست گرفتهاند، نمیچرخند؛ بلکه در مورد ماشینهاییاند که رفتار بد انسانی را تشدید میکنند. الگوریتمهای شبکههای اجتماعی یکی از بارزترین نمونهها برای این رفتارها هستند.
YouTube را در نظر بگیرید که در طول سالها ویژگیها و موتورهای توصیهاش را با هدف نگه داشتن افراد در صفحه نمایش خود پیادهسازی کرده است. همانطور که نیویورک تایمز در سال 2019 گزارش داد، بسیاری از تولیدکنندگان محتوا با رویکرد راست افراطی آموختهاند که میتوانند محتوای پیشنهادی خود را بهگونهای تغییر دهند تا آنها را برای الگوریتمها جذابتر کنند و بسیاری از کاربران را به تماشای تدریجی محتواهای افراطیتر سوق دهند. یوتیوب در واکنش به این موضوع، مانند الگوی مشوقان نفرتپراکنی، اقدامات حذفی را انجام دادهاست. یک مطالعهی مستقل منتشر شده در سال 2019 ادعا کرد که الگوریتم یوتیوب برای منصرف کردن بینندگان از تماشای "محتوای بنیادگرایانه یا افراطی" مثبت عمل کرده است. با این حال، در جولای 2021، تحقیقات جدید نشان دادند که یوتیوب همچنان در حال ایجاد تفرقه و کمک به انتشار اطلاعات نادرست و مضر است.
توییتر و فیسبوک هم با مناقشات مشابهی روبرو شدهاند. آنها هم اقدامات مشابهی را برای مقابله با اطلاعات نادرست و محتواهای نفرتپراکن انجام دادهاند. اما مسئلهی اولیه همچنان باقی است: هدف کسبوکارها حفظ کاربران در پلتفرم است. برخی از کاربران و سازندگان محتوا از این مدلهای کسبوکاری در جهت ایجاد محتواهای مشکلساز سود میبرند.
الگوریتمهایی مانند موتورهای توصیهی یوتیوب با هدف نهایی درگیری و تعامل بیشتر کاربران برنامهریزی شدهاند. در اینجا، یادگیری ماشینی بر اساس رفتار کاربر برای دستیابی به آن هدف سازگار و بهینه میشود. اگر محتوای خاصی باعث تعامل بیشتر شود، الگوریتم ممکن است به طور طبیعی همان محتوا را به افراد دیگر توصیه کند، در واقع همه در خدمت آن هدف قرار میگیرند. این موضوع میتواند تأثیرات گستردهای بر جامعه داشته باشد. همانطور که سناتور کریس کونز در آوریل 2021 هنگامی که مدیران یوتیوب، فیسبوک و توییتر در مقابل کنگره شهادت میدادند، گفت:
«این الگوریتمها اطلاعات نادرست را تقویت، قطببندی سیاسی را تغذیه و ما را حواسپرتتر و منزویتر میکنند».
برای پرداختن به این موضوع، شرکتها و رهبران باید پیامدهای اخلاقی مدلهای کسبوکار مبتنی بر فناوری را در نظر بگیرند. در مثال رسانههای اجتماعی، اگر یک الگوریتم چنین هدف نهاییای را برای خود تعریف نکرده باشد، چقدر متفاوتتر عمل خواهد کرد؟
اجتناب از اهداف ثابت
در مرکز «هوش مصنوعی سازگار با انسان»، ما خواستار مدل جدیدی برای هوش مصنوعی هستیم. این مدل ممکن است یک ایدهی رادیکال به نظر برسد: عدم قطعیت صریح (explicit uncertainty). با استفاده از این مدل، الگوریتم هدف ذاتی ندارد. در عوض، وظیفهی آن کشف اهداف کاربرانش در هر مرحله است.
وقتی هوش مصنوعی بر اساس این مدل ساخته میشود، احتمال آسیبرسانی کمتری وجود دارد. یک کاربر که محتوایی را تماشا میکند و آن را میپسندد، الگوریتم را بنا به توصیهی همان محتوا به میلیونها نفر دیگر سوق نمیدهد، زیرا در تعاملات کاربری، دیگر هدف ثابتی وجود نخواهد داشت.
در این مدل، الگوریتم بیشتر شبیه یک کتاب باز برای هر کاربر عمل میکند. برای اطلاع از تنظیمات برگزیدهی کاربران، ممکن است به طور نسبتاً مکرر، بهویژه در روزهای اولیهی استفاده، از آنها بپرسد که دوست دارند چه چیزی را ببینند. برای مثال، یک ویدیو یا مقاله ممکن است با این اعلان همراه شود: «آیا میخواهید یک بررسی واقعی دربارهی این موضوع را از یکی از منابع زیر ببینید؟» اگر کاربر گزینهای را انتخاب کند، هوش مصنوعی متوجه میشود که کاربر آن نوع پیشنهاد را دوست دارد و متعاقباً میتواند منابع مشابهی را پیشنهاد کند. در حال حاضر تا حدودی میتوانیم این را در سیستمهای ناوبری که میپرسند، «آیا یک مسیر جایگزین برای صرفهجویی 20 دقیقهای میخواهید؟» ببینیم. این تجربه کاربران را وادار میکند که متوقف شوند و بهترین و مفیدترین راه را برای خودشان انتخاب کنند.
کارخانهای را تصور کنید که در آن یک الگوریتم ماشینآلات کار میکند. اگر الگوریتم هدف ثابتی برای تولید هر چه بیشتر محصولات داشته باشد، ممکن است خیلی سریع شروع به حرکت کرده و احتمال حوادث و صدمات بیشتری در محل کار را به همراه داشته باشد. در عوض اگر الگوریتم هیچ هدف ثابتی برای شروع نداشته باشد، از رفتارهای کارگران میآموزد که چگونه با آنها، برای بهینهسازی خروجی محصول با سرعتی که ترجیح میدهند، هماهنگ عمل کند.
پذیرش نقش بزرگتر برای انسان
به کمک روش طراحی الگوریتمهای کاربرمحورتر، یک سازمان میتواند بازی کردن سیستم را برای افراد با اهداف پلید دشوارتر کند و بر آنچه کاربران دیگر تجربه میکنند تأثیر بگذارد. افرادی که این الگوریتمها را میسازند، میتوانند راههایی را برای کشف اولویتهای کاربران و حتی تشویق آنها به بیان فعالانهی ترجیحات خود در نظر بگیرند.
البته، سوگیریها و شکستهای انسانی همیشه مشکلساز خواهند بود. کاهش آسیبهای احتمالی برای هر محصولی که انسان ایجاد میکند، ــ از جمله هوش مصنوعی ــ غیرممکن است. اما این مدل جدید با ایجاد «عدم قطعیت صریح» به عنوان یک هنجار، کمککننده خواهد بود. با این کار شرکتها و رهبران در تصمیم گیریها و انتخاب مدلهای کسبوکاری خود، تفکر بلندمدتی را که کاربران و پیامدهای غیرمنتظره را مد نظر قرار میدهد، لحاظ خواهند کرد.
ما میتوانیم هوش مصنوعی را چابکتر و پاسخگوتر به نیازهای افراد و تابع انتخابهای آنها کنیم. با توجه به اینکه الگوریتمها به طور فزایندهای به دنیای ما قدرت میدهند، زمان تغییر مسیر فرا رسیده است.