نزدیک شدن به هوش مصنوعی اخلاقی: یک دیدگاه خودمانی

 

 

Approaching Ethical AI Design: an insider’s perspective

 

هوش مصنوعی اخلاقی

 

 

افراد شاغل در صنعت فناوری، به ویژه آن‌هایی که با داده‌ها سروکار دارند تاکید زیادی بر کاربرد اخلاق در هوش مصنوعی دارند (حتی پاپ نیز در این زمینه دخالت کرده است!). کنفرانس‌ها، پژوهش‌ها، پست‌های وبلاگی، ویدئوها، پیشگامان فکری همگی ــ به درستی ــ بر روی یکی از مهم‌ترین ملاحظات قرن بیست‌و‌یکم تمرکز می‌کنند: چگونه هوش مصنوعی را به نفع نوع بشر هدایت کنیم؟

برای آن‌هایی که مشتاق این موضوع هستند، پاسخ به این پرسش احتمالا ارزش چندین دهه تحقیق را دارد. برای دیگران ممکن است به معنی صرف میلیون‌ها ساعت وقت در طراحی الگوریتم یا نرم‌افزار عیب‌یابی باشد. مسئولیت به دست آوردن این حق چیزی فراتر از سیاست، مقررات، آموزش، سرمایه‌گذاری و … است.

 

 

همانطور که شما مشغول خواندن این متن هستید، هزاران یا میلیون‌ها شرکت در سراسر جهان دقیقاً در همین لحظه در حال دست‌و‌پنجه نرم کردن با هوش مصنوعی هستند. آن‌ها برای بازی کردن دهه‌ها یا سال‌ها وقت در اختیار ندارند… چون همین الان به هوش مصنوعی نیاز دارند. زیرا به خوبی می‌دانند برای استفاده حداکثری از پذیرش هوش مصنوعی قبل از اینکه خیلی دیر شود، رقابت وجود دارد. در حال حاضر، تنها در بریتانیا بیش از 1400 استارت‌آپ هوش مصنوعی با رشد بالا وجود دارد که در این آمار بخش وسیعی از شرکت‌های تجاری و عمومی خارج از هوش مصنوعی لحاظ نشده‌اند. پس اینجا  با یک چالش واقعی مواجه هستیم. 

ما  چگونه می‌توانیم این کار را بصورت اخلاقی و مسئولانه انجام دهیم؟ آیا همین الان از نظر فنی امکان‌پذیر است؟ اجازه دهید با پرداختن به برخی از رایج‌ترین سوالات به این پرسش پاسخ دهم.

 

از کجا آغاز کنم؟

تبریک می‌گویم، شما قبلاً آغاز کرده‌اید! زیرا آگاه شدن از موضوع اولین قدم است. شما با درک اینکه مجموعه‌ای از ملاحظات بالاتر و فراتر از بقیه وجود دارد که باید به آن‌ها توجه کنید، اولین قدم را برداشته‌اید.

نقطه شروع شما به این که چه کسی هستید هم بستگی دارد: آیا سیستم‌های هوش مصنوعی خود را می‌سازید، آیا کاربر یکی از آن‌ها هستید، شاید هم مسئول خرید یک راه‌حل هوش مصنوعی مناسب هستید؟ ممکن است مشمول هر سه مورد شوید.

امروزه یکی از رایج‌ترین تصورات غلط در مورد هوش مصنوعی اخلاقی این است که مسئولیت آن تنها بر عهده افرادی است که سیستم‌ها را ایجاد می‌کنند. اصلا اینطور نیست. یک راه‌حل هوش مصنوعی در یک شرکت ممکن است تمام اهداف اخلاقی آن شرکت را برآورده کند، اما همان سیستم در سازمان دیگر ممکن است اینطور نباشد. در نظر گرفتن استفاده از هوش مصنوعی به عنوان ترکیبی از فناوری، افراد، هدف، داده‌ها و ذینفعان مورد نظر، به شما کمک می‌کند تصمیم بگیرید که کدام راه‌حل یا سیستم خاص برای رفع مشکل شما مناسب‌تر است.

دانشمندان شما درگیر این بودند که آیا «می‌توانند» یا نه … آن‌ها به اینکه آیا «باید» یا نه فکر نکرده‌اند.
پارک ژوراسیک

 

هوش مصنوعی اخلاقی

 

چگونه بفهمم که هوش مصنوعی که تولید یا استفاده می کنیم اخلاقی است؟

هرگز تضمینی برای حل این معضل وجود نخواهد داشت، به همین دلیل شرکت‌هایی که آن را جدی می‌گیرند در فرایندهای داخلی و پست‌های بازرسی اخلاقی خود سرمایه‌گذاری می‌کنند. همیشه از ما در مورد اینکه آیا می‌توانید هوش مصنوعیِ «منطبق بر مقررات» بسازید، سؤال می‌شود. پاسخ این است، «البته» (و شما باید این کار را بکنید!).

باید مراقب بود، زیرا مقررات در فضای هوش مصنوعی هنوز در مراحل اولیه‌ی خود هستند و مطابقت با قانون به معنی در نظر گرفتن همه ملاحظات اخلاقی نیست.

بسیاری از بزرگترین بدی‌هایی که انسان‌ها بر همنوعان خود وارد کرده‌اند، از طرف افرادی بوده که نسبت به چیزی که در واقع نادرست بوده است کاملا احساس اطمینان می‌کردند.
برتراند راسل

 

اگر امروز هوش مصنوعی شرکت اخلاقی باشد، آیا فردا نیز اخلاقی خواهد بود؟

باز هم، نه لزوما. هوش مصنوعی محصول پیچیده‌ای از داده‌ها و الگوریتم‌ها است و در برنامه‌هایی که تصمیماتِ هوش مصنوعی مستقیماً بر انسان تأثیر می‌گذارند، باید نحوه‌ی تغییر داده‌ها و مدل‌ها را هم در نظر گرفت. 

به عنوان مثال، اگر یک مدل خاصی را برای خدمت به گروه خاصی طراحی کرده باشید (مثلاً صاحبان وسایل نقلیه الکتریکی (EV))، برخی از تصمیمات طراحی خود را بر اساس جمعیتی که قصد دارید به آن‌ها خدمت کنید، تنظیم خواهید کرد. مثلا در این مورد اگر بگوییم مالکان طبقه‌ی متوسط خودروهای برقی، سفید پوست، مرد و پنجاه ساله هستند؛ در این صورت مدل شما برای خدمت‌رسانی بسیار موثر به این جمعیت طراحی می‌شود. با این حال، ما می‌دانیم که بر اساس اهداف دولت و افزایش شایستگی فناوری EV، احتمالاً جمعیت‌شناسی صاحبان خودروهای برقی طی چند سال آینده تغییر خواهد کرد. مدل شما این را نمی‌داند. بنابراین حتی اگر بهترین مدل را برای وضعیت فعلی خود طراحی کنید و امروز تمام ملاحظات اخلاقی را در نظر بگیرید، ممکن است ناخواسته به ضرر جمعیت مورد نظر شما در آینده باشد، زیرا دنیای اطراف آن تغییر کرده است. بخش کلیدی تعهد شما به هوش مصنوعی اخلاقی باید تعهد به هدف آینده‌ی آن نیز باشد.

 

چه پشتیبانی برای کمک به شرکت ها وجود دارد؟

«مشاوره‌های اخلاقی» برای راهنمایی شما پیرامون برخی ملاحظات مهم در دسترس هستند. در سطح جهانی، مراکز مستقلی (مانند RAI) وجود دارند که در مورد نحوه‌ی برخورد با این موضوع از منظر عملی شما را راهنمایی کرده و اطلاعاتی را در اختیارتان خواهند گذاشت. 

یک ارائه‌دهنده‌ی راه‌حل‌های هوش مصنوعی، از قبل در مورد چگونگی رسیدگی به عناصر اخلاقی طراحی راه‌حل‌تان و همچنین نکات فنی با شما صحبت می‌کند.

 

تعبیه‌ی طراحی اخلاقی در برنامه‌های جهانی هوش مصنوعی یکی از چالش‌برانگیزترین خواسته‌های قرن بیست‌و‌یکم و در عین حال یکی از مهم‌ترین آن‌ها خواهد بود. با تکامل مقررات و بهبود قابلیت‌های ماشینی، این انسان‌ها هستند که در جایگاهِ هدایتِ استفاده، تحقیق، پیاده‌سازی و طراحی قرار دارند و از این طریق  قابلیت‌های جمعی ما را به سمت یک هوش مصنوعی واقعاً انسان‌محور هدایت می‌کنند.

 

 

 

منبع: https://www.mindfoundry.ai/blog/approaching-ethical-ai-design

۵
از ۵
۱۳ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.