Approaching Ethical AI Design: an insider’s perspective
افراد شاغل در صنعت فناوری، به ویژه آنهایی که با دادهها سروکار دارند تاکید زیادی بر کاربرد اخلاق در هوش مصنوعی دارند (حتی پاپ نیز در این زمینه دخالت کرده است!). کنفرانسها، پژوهشها، پستهای وبلاگی، ویدئوها، پیشگامان فکری همگی ــ به درستی ــ بر روی یکی از مهمترین ملاحظات قرن بیستویکم تمرکز میکنند: چگونه هوش مصنوعی را به نفع نوع بشر هدایت کنیم؟
برای آنهایی که مشتاق این موضوع هستند، پاسخ به این پرسش احتمالا ارزش چندین دهه تحقیق را دارد. برای دیگران ممکن است به معنی صرف میلیونها ساعت وقت در طراحی الگوریتم یا نرمافزار عیبیابی باشد. مسئولیت به دست آوردن این حق چیزی فراتر از سیاست، مقررات، آموزش، سرمایهگذاری و … است.
همانطور که شما مشغول خواندن این متن هستید، هزاران یا میلیونها شرکت در سراسر جهان دقیقاً در همین لحظه در حال دستوپنجه نرم کردن با هوش مصنوعی هستند. آنها برای بازی کردن دههها یا سالها وقت در اختیار ندارند… چون همین الان به هوش مصنوعی نیاز دارند. زیرا به خوبی میدانند برای استفاده حداکثری از پذیرش هوش مصنوعی قبل از اینکه خیلی دیر شود، رقابت وجود دارد. در حال حاضر، تنها در بریتانیا بیش از 1400 استارتآپ هوش مصنوعی با رشد بالا وجود دارد که در این آمار بخش وسیعی از شرکتهای تجاری و عمومی خارج از هوش مصنوعی لحاظ نشدهاند. پس اینجا با یک چالش واقعی مواجه هستیم.
ما چگونه میتوانیم این کار را بصورت اخلاقی و مسئولانه انجام دهیم؟ آیا همین الان از نظر فنی امکانپذیر است؟ اجازه دهید با پرداختن به برخی از رایجترین سوالات به این پرسش پاسخ دهم.
از کجا آغاز کنم؟
تبریک میگویم، شما قبلاً آغاز کردهاید! زیرا آگاه شدن از موضوع اولین قدم است. شما با درک اینکه مجموعهای از ملاحظات بالاتر و فراتر از بقیه وجود دارد که باید به آنها توجه کنید، اولین قدم را برداشتهاید.
نقطه شروع شما به این که چه کسی هستید هم بستگی دارد: آیا سیستمهای هوش مصنوعی خود را میسازید، آیا کاربر یکی از آنها هستید، شاید هم مسئول خرید یک راهحل هوش مصنوعی مناسب هستید؟ ممکن است مشمول هر سه مورد شوید.
امروزه یکی از رایجترین تصورات غلط در مورد هوش مصنوعی اخلاقی این است که مسئولیت آن تنها بر عهده افرادی است که سیستمها را ایجاد میکنند. اصلا اینطور نیست. یک راهحل هوش مصنوعی در یک شرکت ممکن است تمام اهداف اخلاقی آن شرکت را برآورده کند، اما همان سیستم در سازمان دیگر ممکن است اینطور نباشد. در نظر گرفتن استفاده از هوش مصنوعی به عنوان ترکیبی از فناوری، افراد، هدف، دادهها و ذینفعان مورد نظر، به شما کمک میکند تصمیم بگیرید که کدام راهحل یا سیستم خاص برای رفع مشکل شما مناسبتر است.
دانشمندان شما درگیر این بودند که آیا «میتوانند» یا نه … آنها به اینکه آیا «باید» یا نه فکر نکردهاند.
پارک ژوراسیک
چگونه بفهمم که هوش مصنوعی که تولید یا استفاده می کنیم اخلاقی است؟
هرگز تضمینی برای حل این معضل وجود نخواهد داشت، به همین دلیل شرکتهایی که آن را جدی میگیرند در فرایندهای داخلی و پستهای بازرسی اخلاقی خود سرمایهگذاری میکنند. همیشه از ما در مورد اینکه آیا میتوانید هوش مصنوعیِ «منطبق بر مقررات» بسازید، سؤال میشود. پاسخ این است، «البته» (و شما باید این کار را بکنید!).
باید مراقب بود، زیرا مقررات در فضای هوش مصنوعی هنوز در مراحل اولیهی خود هستند و مطابقت با قانون به معنی در نظر گرفتن همه ملاحظات اخلاقی نیست.
بسیاری از بزرگترین بدیهایی که انسانها بر همنوعان خود وارد کردهاند، از طرف افرادی بوده که نسبت به چیزی که در واقع نادرست بوده است کاملا احساس اطمینان میکردند.
برتراند راسل
اگر امروز هوش مصنوعی شرکت اخلاقی باشد، آیا فردا نیز اخلاقی خواهد بود؟
باز هم، نه لزوما. هوش مصنوعی محصول پیچیدهای از دادهها و الگوریتمها است و در برنامههایی که تصمیماتِ هوش مصنوعی مستقیماً بر انسان تأثیر میگذارند، باید نحوهی تغییر دادهها و مدلها را هم در نظر گرفت.
به عنوان مثال، اگر یک مدل خاصی را برای خدمت به گروه خاصی طراحی کرده باشید (مثلاً صاحبان وسایل نقلیه الکتریکی (EV))، برخی از تصمیمات طراحی خود را بر اساس جمعیتی که قصد دارید به آنها خدمت کنید، تنظیم خواهید کرد. مثلا در این مورد اگر بگوییم مالکان طبقهی متوسط خودروهای برقی، سفید پوست، مرد و پنجاه ساله هستند؛ در این صورت مدل شما برای خدمترسانی بسیار موثر به این جمعیت طراحی میشود. با این حال، ما میدانیم که بر اساس اهداف دولت و افزایش شایستگی فناوری EV، احتمالاً جمعیتشناسی صاحبان خودروهای برقی طی چند سال آینده تغییر خواهد کرد. مدل شما این را نمیداند. بنابراین حتی اگر بهترین مدل را برای وضعیت فعلی خود طراحی کنید و امروز تمام ملاحظات اخلاقی را در نظر بگیرید، ممکن است ناخواسته به ضرر جمعیت مورد نظر شما در آینده باشد، زیرا دنیای اطراف آن تغییر کرده است. بخش کلیدی تعهد شما به هوش مصنوعی اخلاقی باید تعهد به هدف آیندهی آن نیز باشد.
چه پشتیبانی برای کمک به شرکت ها وجود دارد؟
«مشاورههای اخلاقی» برای راهنمایی شما پیرامون برخی ملاحظات مهم در دسترس هستند. در سطح جهانی، مراکز مستقلی (مانند RAI) وجود دارند که در مورد نحوهی برخورد با این موضوع از منظر عملی شما را راهنمایی کرده و اطلاعاتی را در اختیارتان خواهند گذاشت.
یک ارائهدهندهی راهحلهای هوش مصنوعی، از قبل در مورد چگونگی رسیدگی به عناصر اخلاقی طراحی راهحلتان و همچنین نکات فنی با شما صحبت میکند.
تعبیهی طراحی اخلاقی در برنامههای جهانی هوش مصنوعی یکی از چالشبرانگیزترین خواستههای قرن بیستویکم و در عین حال یکی از مهمترین آنها خواهد بود. با تکامل مقررات و بهبود قابلیتهای ماشینی، این انسانها هستند که در جایگاهِ هدایتِ استفاده، تحقیق، پیادهسازی و طراحی قرار دارند و از این طریق قابلیتهای جمعی ما را به سمت یک هوش مصنوعی واقعاً انسانمحور هدایت میکنند.
منبع: https://www.mindfoundry.ai/blog/approaching-ethical-ai-design