هوش مصنوعی چقدر اخلاقی است؟


 

How ethical is Artificial Intelligence

Sukant Khurana 

هوش مصنوعی چقدر اخلاقی است؟

 


زنی مدت زمان کوتاهی پس از مرگ شریک زندگی خود متوجه بارداری‌اش می‌شود. او که قادر به کنار آمدن با غم و اندوه خود نیست، یک نسخه‌ی رباتیک از او را سفارش می‌دهد. این نسخه به طرز شگفت‌انگیزی مانند شریک سابقش شوخ‌طبع است. حتی از برخی جهات از او هم بهتر عمل می‌کند. با این حال، نمی‌تواند همیشه احساسات صمیمی این زن را درک کند. زندگی مشترک آن‌ها به یک آشفتگی بزرگ تبدیل می‌شود.

متن فوق خلاصه‌ای بود از قسمت «الان برمی‌گردم» سریال Black Mirror ــ یک سریال تلویزیونیِ علمی تخیلی که به طرز عجیبی علاقه‌ی بشریت به فناوری را به تصویر می‌کشد. بیشتر قسمت‌ها در زمان حال نیز نمود جایگزین دارند. برخی از تصاویر مربوط به مسائل معاصری هستند که ما در زمینه‌ی هوش مصنوعی (AI) با آن روبرو هستیم.

باید بپذیریم که تجزیه‌وتحلیلِ تاثیرات هوش مصنوعی و اینکه چگونه می‌تواند آینده‌ی ما را شکل دهد، ضروری است.

 

در نگاه کلی، هوش مصنوعی یعنی الگوریتم‌ها و مدل‌هایی که هدفشان تفکر، ادراک و عمل است. این ایده قرن‌ها برای بشریت جذاب بوده، اما شروع واقعی هوش مصنوعی از تابستان 1956 در کالج دارتموث ایالات متحده رقم خورده است. تیمی متشکل از 10 دانشمند برجسته ــ مشتاق مدل‌سازی هوش بیولوژیک ــ برای یک پروژه‌ی تابستانی 6 هفته‌ای تشکیل جلسه دادند و پایه‌های هوش مصنوعی را بنا نهادند. این تلاش بر اساس این حدس بود که «در اصل می‌توان هوش را به قدری دقیق توصیف کرد که یک ماشین بتواند آن را شبیه‌سازی کند».

در شش دهه‌ی بعد از آن شروع گستاخانه، حوزه‌ی هوش مصنوعی دوره‌هایی از هیاهو و انتظارات بالا را با شکست و ناامیدی پشت سر گذاشته است.

نیک بوستروم، Superintelligence (2014)

 

در حالی که هدف اولیه‌ی هوش مصنوعی درک هوش بود، اما اکنون می‌توان گفت که راه درازی را پیموده است که هم موجب تحسین و هم ایجاد دلهره شده است. کسانی که آن را ترویج می‌کنند معتقدند که «به تلاش انسان کمک می‌کند» (مانند هر فناوری دیگری)، در مقابل افراد دیگر فکر می‌کنند که این عرصه مشابه میدان مینی از تعهدات اخلاقی و رفتاری است که کاملاً درک نشده است.

 

 

 

بیکاری و هوش مصنوعی

بر طبق تخمین دانشگاه آکسفورد در سال 2013 بیش از 47 درصد از کل مشاغل ایالات متحده تا دو دهه‌ی آینده خودکار خواهند شد. در کشورهای در حال توسعه، این برآوردها می‌تواند بیش از 70 درصد باشد. مطالعه‌ی دیگری گزارش می‌دهد که بیش از 60 درصد از مردم بریتانیا احساس می‌کنند که هوش مصنوعی مشاغل آن‌ها را خواهد دزدید. بیکاری افراد بدون‌شک مهم‌ترین نقطه‌ ضعف هوش مصنوعی است. نیازهای روزافزون به دقت، کارایی و صرفه‌جویی، صنایع را وادار به خودکارسازی ها و پایان دادن به مشاغل سنتی می‌کند. در بسیاری از موارد، این مسئله با اعتراضات و اعتصابات شدیدی مواجه می‌شود که حتی دولت‌ها نیز در رفع آن ناکام هستند.

 

هر فناوری‌ای که تمایل دارد جامعه را در مقیاس جهانی متحول کند نیز هدف اتهامات قرار می‌گیرد. به عنوان مثال، انقلاب صنعتی مسلماً بشریت را به سمت بهتر شدن تغییر داد، اما در ابتدا جوامع آن را به دلیل ایجاد بیکاری سرزنش می‌کردند. وندل والاک (Wendell Wallach)، اخلاق‌شناس و محققِ دانشگاه ییل، می‌گوید:

این یک نگرانی قدیمی است ــ مسئله‌ی افرادِ پیشرفت‌گریز و مخالفِ فناوری (the Luddite) به 200 سال پیش باز می‌گردد ــ نگرانی از اینکه هر شکل جدیدی از فناوری، به نسبت مشاغلی که ایجاد می‌کند، مشاغل بیشتری را از بین می‌برد. ما که تا به حال همچین چیزی ندیده‌ایم. هر فناوری جدید در نهایت مشاغل ثانویه‌ی بیشتری را نسبت به مشاغل حذف‌شده ایجاد می‌کند.

 

اثرات مکانیزاسیون (اتوماسیون) بر اقتصاد به خوبی بررسی شده‌اند و این تصورِ عمومی که هوش مصنوعی مشاغل را غارت کرده و به نرخ فزاینده‌ی بیکاری کمک می‌کند اغراق‌آمیز به نظر می‌رسد. در حال حاضر، هوش مصنوعی فقط می‌تواند کارهای بیش از حد جسمی و یکنواخت را خودکار کند و در کارهایی که به سطوح بالایی از مهارت‌های شناختی نیاز دارند، ضعیف عمل می‌کند.

همانطور که ماروین مینسکی (Marvin Minsky) زمانی اشاره کرد، و احتمالا شما هم به آن فکر کرده‌اید چرا هیچ ربات مصنوعی هوشمندی با موفقیت برای مهار فاجعه هسته‌ای فوکوشیما مستقر نشد.

بدیهی است که مشاغل آینده پیچیده‌تر و از نظر شناختی چالش‌برانگیزتر خواهند بود، بنابراین نیاز به آموزش افزایش یافته و منجر به تربیت نیروی کار ماهر می‌شود. با این حال، اثرات این انتقال بر مشاغل یقه آبی و سفید نگران‌کننده است.

راوی شانکار پراساد (Ravi Shankar Prasad)، وزیر الکترونیک و فناوری اطلاعات هند، در مذاکره با شرکت‌ها برای ساختن نقشه‌ی راه یک تریلیون دلاری اقتصاد دیجیتال هند، این امر را موضوعی تکراری دانسته است. او قول می‌دهد از طریق آموزش پرسنل، هوش مصنوعی قادر است مشاغل بیشتری را ایجاد کند.

 

 

استاد معادلات، انسان هیچ!

هانس برلینر (Hans Berliner)، استاد علوم کامپیوترِ دانشگاه کارنگی ملون برنامه‌ای موسوم به BKG 9.8 را نوشت که در سال 1979 با لوئیجی ویلا (قهرمان تخته‌نرد جهان) بازی کرد و او را شکست داد. این اولین باری بود که قهرمان جهانیِ یک فعالیت فکری شناخته شده توسط یک مصنوع دست بشر در یک آزمون مهارتیِ رو‌دررو شکست می‌خورد.

گری کاسپاروف ــ‌ استاد بزرگ شطرنج جهان ــ در سال 1997 مغلوب دیپ بلو در IBM شد. لی سدول ــ قهرمان بازی رومیزی چینی Go ــ در سال 2016 به AlphaGo گوگل باخت. و در سال 2017، AlphaGo-Zero (نوعی از AlphaGo) با بازی کردن با خودش بازی گوگل را شکست داد و قهرمان شد. شکست دادن قهرمانان جهان در بازی‌هایی مانند شطرنج و Go ــ که به طور گسترده‌ای از دید جامعه به عنوان تجسم عقل بشری درک می‌شوند ــ لزوماً به این معنی نیست که هوش مصنوعی از انسان‌ها باهوش‌تر شده است.

در حال حاضر، دامنه‌ی تخصص هوش مصنوعی به تعداد انگشت‌شماری از قابلیت‌های کلی محدود شده است به عنوان مثال، یک گاو ممکن است شیر بدهد، اما نمی‌تواند پرواز با هواپیما را یاد بگیرد. در دفاع از گاو، ممکن است کسی استدلال کند که طبیعتاً برای پرواز با هواپیما مهندسی نشده است. و دقیقاً به همین دلیل است که AlphaGo (طراحی شده برای بازی Go) تا زمانی که بازی شطرنج را یاد نگرفته است، نمی تواند حتی یک کودک نوپا را در شطرنج شکست بدهد (بعد از آن AlphaChess نامیده می‌شود). هوش مصنوعی کاربردی ممکن است متخصص یک زمینه‌ی خاص را از بین ببرد، اما دقیقا در همان زمینه‌ی تعریف‌شده و خاص.

 

 

اختصاصی بودن این زمینه‌ها، نگرانی‌های اخلاقی زیادی را ایجاد می‌کند:

اگر هوش مصنوعی (در مواردی از انتصابات اشتباه) درک شود، نه تنها ممکن است منجر به نارضایتی (که تا حدودی قابل قبول است) شود، بلکه می‌تواند به بروز برخی از مشکلات سلامتی هم دامن بزند. همچنین، اگر هوش مصنوعی در یک زمینه‌ی خاص برای انجام یک کار کلی به کار گرفته شود، بسیار محتمل است که به شدت شکست بخورد.

 

ممکن است هر مشکلی با هوش مصنوعی پیش بیاید؟

شبکه‌های عصبی دسته‌ای از الگوریتم‌ها هستند که از روش کار مغز الهام گرفته‌اند. از شبکه‌های عصبی به طور گسترده در محصولاتی مانند مترجم‌ها و چت‌بات‌ها استفاده می‌شود اگرچه شبکه‌های عصبی معیارهای عملکردی مخصوص به خود را دارند اما فریب دادن آن‌ها کار سختی نیست. برخی از سیستم‌ها مانند AlphaGo ممکن است عملکرد بهتری از انسان‌ها داشته باشند، اما اکثر آن‌ها یا ضعیف عمل می‌کنند یا گاهی اوقات از کار می‌افتند؛ همیشه احتمال خطا وجود دارد. دستیارهای شخصی هوشمند مانند Siri ادعا می‌کنند که بهره‌وری فرد را بهبود می‌بخشند، اما به طرز وحشتناکی قادر به درک ساده‌ترین عبارات هم نیستند.

 

نگرانی دیگر ناشی از کاربرد مستقل هوش مصنوعی در نتیجه‌ی وجود وسایل نقلیه‌ی بدون راننده پدیدار می‌شود. اگر یک هوش مصنوعی مستقل در وضعیت catch-22 گیر کند چه کاری انجام می‌دهد؛ در این وضعیت هر عملی منجر به علیت می‌شود. برای مثال، مسئله‌ی تراموا (trolley car) را در نظر بگیرید.

 

 مسئله‌ی تراموا

 

آیا هوش مصنوعی در کنترل، اهرم را بر می‌گرداند؟ اگر بله، چرا؟

و اگر نه، دلیلش چیست؟

 

 

ارزش چنین هوش مصنوعی‌ای چه خواهد بود؟ و از آنجایی که تعریف ارزش‌های انسانی مبهم است، چگونه می‌توان آن را مدل‌سازی وقابل برنامه‌ریزی کرد؟ این پرسش‌های فلسفی و فنی، محققان را ملزم به همکاری و توسعه‌ی راهبردهایی می‌کند که در آن بشریت با ماشین‌های هوشمند همزیستی می‌کند.

کارشناسان در مورد این که آیا صحبت درباره‌ی اخلاق در هوش مصنوعی خیلی زود است یا خیر بحث و استدلال می‌کنند. استیون هاوکینگ، با مصاحبه‌ای که در سال 2014 با بی‌بی‌سی انجام داد هیاهویی در جامعه‌ی هوش مصنوعی برانگیخت؛ او هشدار داد که: 

توسعه‌ی کامل هوش مصنوعی می‌تواند به منزله‌ی پایان نسل بشر باشد.

 

با این حال، دانشمند معاصر او، میچیو کاکو (Michio Kaku) در مورد چشم‌اندازها چندان غمگین نیست. او انتظار ندارد که به این زودی‌ها یک تَکینگی فناوری (technological singularity) (زمانی که هوش مصنوعی از انسان‌ها باهوش‌تر می‌شود) اتفاق بیفتد. کاکو طرفدار تئوری "سوئیچ خاموش" است:

اگر هوش مصنوعی به رفتار نامطلوب خود ادامه دهد، می‌توان با خاموش کردن برق آن را متوقف کرد.

این اختلاف عمدتاً ناشی از شکاف در هوش مصنوعی (علم در مقابل مهندسی) است. بنیانگذاران این رشته بیان کرده‌اند که در جایی در دهه‌ی 80، تمرکز این رشته به مهندسی معطوف شد. همانطور که شبکه‌های عصبی شهرت یافتند، برنامه‌های کاربردی بیش از حد مورد استفاده قرار گرفتند؛ این منجر به فروش بیش از حد، ناامیدی و رکود تحقیقاتِ باکیفیت هوش مصنوعی شد.

 

یادگیری عمیق (شبکه‌های عصبی مدرن) به دلیل اینکه هیچ‌کس نمی‌داند چگونه الگوریتم‌ها برخلاف رویکردهایی مانند یادگیری بیزی (الگوریتم‌های مبتنی بر نظریه‌ی احتمال) کار می‌کنند، در معرض انتقادات سنگینی هستند. برخی از دانشمندان استدلال می‌کنند که اگر الگوریتم‌ها غیرقابل‌حل هستند، یعنی نمی‌دانند چگونه دارند کاری را انجام می‌دهند، پس آن را انجام نمی‌دهند؛ به این ترتیب، آن‌ها مدل مناسبی برای یک مشکل نیستند. حتی اگر این الگوریتم‌ها راه‌حلی را تولید کنند که امیدوارکننده به نظر برسد، اغلب بهترین راه‌حل برای مشکل نیست. نوام چامسکی (Noam Chomsky) به طور مداوم چنین مدل‌هایی را مورد تمسخر قرار داده است، او می‌گوید:

آیا ماشین‌ها می‌توانند مانند پرسیدن فکر کنند، آیا زیردریایی‌ها می‌توانند شنا کنند؟ اگر می‌خواهید اسم آن را شنا بگذارید، خب. آیا هواپیماها پرواز می‌کنند؟ در انگلیسی، آنها پرواز می‌کنند، در عبری، آنها سر می‌خورند.

 

باربارا پارت (Barbara Parte) دانشمندی‌ست که دیدگاه خود را اینگونه به اشتراک می‌گذارد:

«دانستن دقیق معناشناسی [مسئله] پیش‌نیازی هر چیزی‌ست که بتوان آن را هوش نامید».

 

بحث این است که تحقیقات هوش مصنوعی باید بر نحوه‌ی عملکرد سیستم‌های هوشمند و اِعمال آن برای یک مشکل تمرکز کنند. محاسبات کور نه تنها از سوال اصلی دور می‌شوند، بلکه وضعیت را هم تشدید می‌کنند.

 

صنعتی شدن هوش مصنوعی نه تنها برای پیشرفت کلی فناوری در جامعه، بلکه برای اقدامات غیراخلاقی هم پتانسیل‌های زیادی دارد. اگرچه افشاگری‌های اسنودن در مورد خطر دستیابی به داده‌ها به حفظ حریم خصوصی کمک کرد، اما ما کماکان به مکیدن داده‌ها ادامه می‌دهیم. Big Data (مجموعه‌ی عظیمی از داده‌ها که به تصمیم‌گیری کمک می‌کند) بهانه‌ای برای جمع‌آوری داده و انجام معاملات ناخواسته شده است.

 

همچنین می‌توان از هوش مصنوعی برای تبدیل جامعه به موش آزمایشگاهی برای آزمایش‌های اجتماعی بدون رضایت آگاهانه افراد استفاده کرد. در سال 2014، فیس‌بوک نتایج تحقیقی را منتشر کرد که در آن، آن‌ها فیدهای خبری را دستکاری کردند تا بررسی کنند که آیا می‌توان بر احساسات کاربر تأثیر گذاشت یا خیر. این تحقیق به دلیل استفاده از روش‌هایی که به کار گرفته شده بودند، با انتقاد شدید دانشگاهیان مواجه شد. هوش مصنوعی Job-recommender گوگل به دلیل ارائه‌ی تبلیغات معتبر فقط به نامزدهای مرد، برچسب جنسیت‌گرا خورد و هوش مصنوعی به کار رفته در برنامه عکس گوگل، یک فرد سیاه‌پوست آفریقایی‌الاصل را به عنوان گوریل شناسایی کرد!

 

محاسبات انسانی (Crowdsourcing) برای Crpytojacking مورد سوءاستفاده قرار می‌گیرد: میلیون‌ها وب‌سایت با تجزیه‌وتحلیل هوشمندانه و کنترل (تعادل بار) ماشین‌های میزبان، ارزهای رمزنگاری شده (مانند بیت‌کوین) را استخراج کرده و کاربران را با رایانه‌های کند و تجربه‌ی کاربری ضعیفی روبرو می‌کنند. ارائه‌دهندگان خدمات اینترنتی، از ترافیک اینترنت برای کنترل هوشمندانه سرعت‌ها استفاده می‌کنند و این کار را با شناسایی نوع بار از طریق هوش مصنوعی انجام می‌دهند. این مسئله توسط درایو Net-Neutrality مورد اعتراض قرار گرفته است.

 

سلاح‌های خودمختار هم از دل تحقیقات دفاعی بیرون آمدند. با این حال، یک فناوریِ احمقانه‌ی بدون «انسانی در وسط» می‌تواند منجر به فاجعه شود. حادثه‌ی هشدارِ اشتباه هسته‌ای شوروی در سال 1983 را در نظر بگیرید. در 26 سپتامبر، یک سیستم هشدار اولیه در ارتش شوروی گزارش داد که ایالات متحده چندین موشک پرتاب کرده است. استانیسلاو پتروف (Stanislav Petrov)، مرد مسئول، آن را یک هشدار نادرست ارزیابی کرده و از پروتکل‌های حمله‌ی تلافی‌جویانه سرپیچی کرد. یک بررسی تأیید کرد که سیستم هشدار واقعاً خراب شده بود. دخالت انسانی جان میلیون‌ها نفر را نجات داد. عواقب تلافی‌جویانه (یا حتی نقض امنیتی) می‌توانست پایانی بر جهان باشد.

 

برخی از مسائل در هوش مصنوعی نیازمند توجه فوری هستند، در حالی که برخی دیگر آینده‌نگرتر هستند. محققان اغلب در مورد تَکینگی فناوری بحث می‌کنند و هشدار زمانی را می‌دهند که هوش مصنوعی از هوش انسانی فراتر می‌رود. ایده‌ی تکینگی باعث ناراحتی است، زیرا می‌تواند چشم‌اندازهایی را به دنیای علمی ــ تخیلی باز کند (به فرانکشتاین فکر کنید).

 

هوش مصنوعی

 

 

آیا یک ابرهوش بر بشریت مسلط خواهد شد؟ 

این هوش مصنوعی نسبت به انسان بدخواه است یا همدل خواهد بود؟

 

مهندسی یک AGI (Artificial general intelligence) در وهله‌‌ی اول یک چالش فناورانه است که همسو کردن آن با ارزش‌های انسانی و ایجاد احساسات کاری غیرممکن به نظر می‌رسد. بنابراین تلاش‌های فعلی برای ایجاد یک AGI به درون‌نگری عمیقی نیاز دارد. حتی اگر نگرانی‌ها در مورد AGI خیلی دور از ذهن به نظر برسند، دیر یا زود باید به آن‌ها رسیدگی کنیم.

با این حال، فراانسان‌گرایی معاصر، مسائل بیشتری را به دنبال دارد و هدف آن بهبود شرایط انسان، غلبه بر محدودیت‌های زیستی و تجربه‌ی خود پس از انسان با استفاده از فناوری‌های حال و آینده یعنی مهندسی ژنتیک، هوش مصنوعی و رابط کامپیوتری مغز و غیره است. افراد به صورت بالقوه دارای پتانسیل‌های زیادی هستند، اما قرار گرفتن در معرض انگیزه‌های شیطانی، ممکن است منجر به از بین رفتن تمام اطلاعات شود، ادعایی که توسط نیک بوستروم مطرح شده است.

 

طوفان فکری اخلاقی:

صنایع و دولت‌ها اخیراً شروع به درک اهمیت اخلاق در هوش مصنوعی کرده‌اند.

موسسه‌ی «آینده‌ی زندگی» (FLI) که توسط ماکس تگمارکِ (Max Tegmark) فیزیکدان تأسیس شده است، برای ترویج مشارکت اخلاق در تحقیقات هوش مصنوعی یک جنبش بین‌المللی را رهبری می‌کند. هیئت مشاوره‌ی علمی آن متشکل از ایلان ماسک صنعتگر و دانشمندان برجسته‌ای مانند استیون هاوکینگ (Stephen Hawking)، استوارت راسل (Stuart Russel) و کریستف کخ (Christof Koch) هستند و به دلایل عجیبی، مورگان فریمن (هنرپیشه‌ی آمریکایی) نیز عضو آن است. FLI در سازماندهی کنفرانس‌هایی در زمینه‌ی هوش مصنوعیِ اخلاقی و تأمین بودجه برای پروژه‌های تحقیقاتی مرتبط نقش مهمی داشته است. ایلان ماسک اخیراً 10 میلیون دلار برای تحقیقات هوش مصنوعیِ ایمن به این بنیاد اهدا کرده است.

 

FLI در سال 2017 کنفرانس هوش مصنوعی Asilomar را برگزار کرد که محل تلاقی محققان، فیلسوفان و صنعتگران شد. Ray Kurzweil پیشنهاد کرد همان‌طور که زمانی برای زیست‌فناوری‌ها دستورالعمل‌هایی منتشر می‌شد، در مورد هوش مصنوعی هم باید چنین باشد و به همان نحوی که این دستورالعمل‌ها برای زیست‌فناوری‌ها جواب دادند برای هوش مصنوعی هم باید کار کنند. شین لگ (Shane Legg)، یکی از بنیانگذاران DeepMind، نیاز به درک سازوکارهای داخلی و بازنمایی شبکه‌های عصبی و الگوریتم‌های یادگیری ماشین را مطرح کرد.

شرکت‌های دیگری مانند آمازون، فیسبوک، گوگل، دیپ مایند، مایکروسافت و آی بی ام هم مشابه FLI در این بحث هوش مصنوعی مشارکت کردند. ائتلاف چند شرکت غیرانتفاعی با هم با هدف گرد هم آوردن سازمان‌ها، مؤسسات دانشگاهی و شرکت‌ها می‌تواند منجر به ایجاد هوش مصنوعی برای کمک به مهم‌ترین چالش‌های بشر شود.

DeepMind، یک شرکت تحقیقاتی بریتانیانی‌ست که AlphaGo را توسعه داده و Google در ژانویه‌ی 2014 به مبلغ 400 میلیون پوند آن را خریداری نمود. آن‌ها در شرایط کسب اطمینان حاصل کردند که به هیچ تحقیق غیراخلاقی سفارش شده توسط Google متعهد نیستند. این شرکت اخیراً، یک تیم داخلی راه‌اندازی کرده تا تاثیرات اجتماعی فناوری‌هایی را که توسعه می‌دهد بررسی کند، و با «چالش‌های اخلاقی کلیدی» مانند حریم خصوصی، شفافیت، حکمرانی و اخلاقیات در میان دیگران مقابله کند. شرکت‌هایی مانند مایکروسافت و گوگل نیز به تازگی این روند را در داخل خود آغاز کرده‌اند. آن‌ها در حال ایجاد تیم‌های اخلاقی به رهبری دانشمندان و فیلسوفان برتر هستند تا از توسعه‌ی ایمن اطمینان حاصل کنند. یکی از نمایندگان تیم گوگل گفت:

 

ما نمی‌خواهیم توسعه‌ی نوآوری را خفه کنیم، اما ارائه‌ی یک ساختارِ نظارتی دقیق روی این سیستم‌ها برای ما و جامعه بسیار مهم است.»

 

«باز بودن» تاثیر زیادی روی نرم‌افزارها دارد. کیفیت کار برنامه‌نویسان را ارتقا می‌دهد، باگ‌ها را شناسایی می‌کند و کدها را بهبود می‌بخشد. همچنین کد منبع، علم، داده‌ها، تکنیک‌های ایمنی، قابلیت‌ها و اهداف را در دسترس عموم می‌‌گذارد. بنابراین، مطلوبیتِ جهانیِ باز بودن در هوش مصنوعی در حال ظهور است. OpenAI یک شرکت تحقیقاتی غیر انتفاعی هوش مصنوعی (با تامین مالی ایلان ماسک) است که هدف آن ترویج و توسعه‌ی هوش مصنوعیِ دوستانه و توزیع منافع در کل بشریت است.

موسسات آکادمیک بهترین مکان برای معرفی اخلاق هوش مصنوعی هستند، زیرا گرایش اولیه به سمت توسعه‌ی اخلاقی می‌تواند بخشی از مشکلات را از قبل حل کند. هم‌اکنون دانشگاه‌ها شروع به اضافه کردن مطالعات فلسفه، علوم انسانی و اخلاقی در برنامه‌های درسی هوش مصنوعی کرده‌اند. CMU، یکی از رهبران جهانی در تحقیقات یادگیری ماشین، برای ترویج تحقیقات اخلاقی در هوش مصنوعی و رباتیک از بنیاد K & L Gates کمک مالیِ 10 میلیون دلاری دریافت کرد. پروفسور سوبرا سورش، رئیس سابق CMU در سخنرانی خود مطرح کرد:

این تنها فناوری نیست که تعیین می‌کند این قرن چگونه پیش می‌رود. آینده‌ی ما همچنین به شدت تحت‌تأثیر نحوه‌ی تعامل انسان با فناوری، نحوه‌ی پیش‌بینی و واکنش ما به عواقب ناخواسته‌ی کارمان، و نحوه‌ی اطمینان از استفاده از فناوری به نفع بشریت، به‌صورت فردی و اجتماعی خواهد بود.»

 

 

آموزش استفاده از هوش مصنوعی:

همانطور که می‌دانیم هوش مصنوعی، اینترنت اشیا و سایر فناوری‌ها بشریت را متحول کرده‌اند. با جمع‌آوری داده‌ها و ردیابی فعالیت‌های ما، وب‌سایت‌ها بیشتر از آنچه ممکن است درباره خودمان بدانیم، از ما می‌دانند. الگوریتم‌های ما اثر هنری‌ای را می‌سازند که خود آن را درک نمی‌کنند. وسایل نقلیه‌ی کارخانه‌ای مجهز به راهبرهای خودکاری هستند که ممکن است عواقب یک تصمیم را درک نکنند.

هوش مصنوعی در گذشته مسائل بسیاری را برانگیخته است و به این کار ادامه خواهد داد. هدف این است که با درنظر گرفتن اقدامات احتیاطی؛ هوشمندانه بازی کنیم. تحقیقات اخلاقی، اقتصاد و فلسفه‌ی هوش مصنوعی با درون‌نگری، علم و سرمایه‌ی زیادی همراه است. محققان و صنعتگران شروع به تشخیص نقش مناسب هوش مصنوعی در جامعه کرده‌اند. با این حال، سیاست‌های دولتی هنوز به جایگاه قابل‌توجهی نرسیده‌اند.

 

تغییرات آب‌و‌هوایی و افزایش جمعیت، پوشش جنگلی ساندربان را به شدت کاهش داده است. در نتیجه، انسان‌ها به محض مواجهه با ببر بنگال مجبور می‌شوند این حیوانِ در معرض خطر انقراض را بکشند. (قلمرو یک ببر ممکن است 60 تا 100 کیلومتر مربع باشد که اکنون قلمرو او توسط انسان بسیار کوچک‌تر شده است) وقوع درگیری‌ها اجتناب‌ناپذیر است. این مشکل بسیار اهمیت دارد، اما دلیل اینکه کسی به آن خیلی اهمیت نمی‌دهد این است که بازده اقتصادی حلِ این مشکل بسیار کم است.

هوش مصنوعی منادی پتانسیل‌های عظیم و امکانات بی حد و حصر است، اما برای بهره‌برداریِ کامل از آن  دولت‌ها باید از انگیزه‌های سطحی که صرفا به مقابله با بیکاری محدود می‌شوند، بپرهیزند. ما باید به طور راهبردی هوش مصنوعی را درون موضوعات مهم‌تری مانند تغییرات آب‌و‌هوایی، مراقبت‌های بهداشتی، آموزش، امنیت و تحقیقات مستقر کنیم. پرداختن به مهمترین مسائل در جهان، پتانسیل واقعی هوش مصنوعی را آشکار خواهد کرد. هوش مصنوعی به خودی خود شایسته‌ی احترام یا نفرت نیست. به جای آن، این اراده و اعمال بشریت است که مسیر آینده‌ی ما را تعیین می‌کند.

 

 

 

منبع: https://becominghuman.ai/how-ethical-is-artificial-intelligence-37ee034e7435 

 

۵
از ۵
۱۷ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.