انسانی: یک دستور کار جدید در مواجهه با فناوری از «تریستان هریس» بخش دوم

 

Humane: A New Agenda for Tech 

BY Tristan Harris

Paleolithic Emotions, Medieval Institutions, and Godlike Technology

احساسات پارینه سنگی، نهادهای قرون وسطی، و فناوری خداگونه

 

ترستان هریس
تریستان هریس

 

سیستم‌های اجتماعی مصنوعی غلبه بر طبیعت انسان

چه اتفاقی در حال رخ دادن است؟

آیا انسان‌ها بد هستند؟ آیا این واقعا ما هستیم؟ آیا اینها انتخاب انسان‌ها است؟ خیر.

 

اینها به این دلیل اتفاق می‌افتند که ما سیستم‌های اجتماعی مصنوعی‌ای داریم که طبیعت انسان را ربوده و بر آن غلبه کرده‌اند، هوش مصنوعی عظیمی که با ساختن عروسک‌های وودو و در ترکیب با اقتصاد توجه استخراجی __ که بر اساس جلب توجه مردم ساخته شده است __ بر ضعف‌های انسانی غلبه پیدا کرده است.

و این همان چیزی است که باعث تنزل رتبه‌ی انسان‌ها (نگاه او به انسانیت) می‌شود. زیرا ما در حالی که در جهت ارتقای ماشین‌ها تلاش می‌کنیم، از انسانیت خود غافل مانده‌ایم.

 

مشکلات ما در حال افزایش است ــ تغییرات آب و هوایی، نابرابری ــ توانایی و نیاز ما برای توافق با یکدیگر و نگاه کردن به جهان به یک شکل و افکار و گفتمان منفی در حال افزایش است. اما ظرفیت ما برای حل مشکلات رو به کاهش گذاشته است. بنابراین ما راه را اشتباه رفته‌ایم.

و به همین دلیل است که اکنون باید مسیر خود را تغییر دهیم زیرا این وضعیت در شرف خطرناک‌تر شدن است.

 

چند نفر در اینجا با یکی از دوستانتان در حال گفتگو بوده‌اید و متقاعد شده‌اید که فیسبوک به میکروفون شما گوش می‌دهد، زیرا تبلیغ چیزی که در مورد آن صحبت می‌کردید در فید فیسبوک شما نمایش داده شده؟

در اصل، پزشکی قانونیِِ داده‌ها نشان می‌دهد که آن‌ها به میکروفون گوش نمی‌دهند. این یک تئوری توطئه است. آنها اصلا مجبور نیستند به میکروفون شما گوش دهند، زیرا آنها یک نسخه‌ی عروسک وودوی کوچک از شما دارند و فقط به آنچه آن عروسک می‌گوید گوش می‌دهند. و از آنجایی که بلد هستند و می‌توانند حرف‌های آن شخص را پیش‌بینی کنند، دقیقاً می‌دانند که شما به چه چیزی فکر می‌کردید.

 

نکته اینجاست که ما از دنیای ربایش افکار مردم و استفاده از سوگیری‌های شناختی عبور کرده و در حال حاضر به پیش‌بینی کامل طبیعت انسانی رسیده‌ایم. من دیگر مجبور نیستم با کمبریج آنالیتیکا، داده‌های شما را بدزدم. با استفاده از یک مقاله‌ی جدید با دقت 80 درصد، من در واقع می‌توانم پنج ویژگی اصلی شخصیتی شما را فقط با نگاه کردن به حرکات موس و الگوهای کلیک به دست بیاورم. ضمناً من این کار را فقط با نگاه کردن انجام می‌دهم.

 

ردیابی دیجیتال

 

 

یا در حال حاضر هوش مصنوعی می‌تواند به طور کامل چهره تولید کند. هیچ کدام از این چهره‌هایی که می‌بینید (اسلایدهای کنفرانس) واقعی نیستند. یک شکل از ترکیب بین چهره‌های موجود نیستند. اینها همه از ابتدا تولید می‌شوند و می‌توان آنها را طوری ایجاد کرد که کاملاً قابل اعتماد باشند.

به عنوان مثال، این شخص ممکن است به طرز عجیبی آشنا به نظر برسد و شما حتی دلیل آن را ندانید. چهره‌ی او ممکن است ترکیبی از چهره‌ی افرادی باشد که ممکن است در این صحنه دیده باشید. می‌توانید این چهره‌ها را برای گفتن چیزهایی که می‌خواهید متحرک کنید، و در آینده، کلماتی را در گوش شما زمزمه خواهند کرد و شما به آنها اعتماد خواهید کرد.

 

با در اختیار داشتن فناوری، شما مجبور نیستید بر نقاط قوت افراد غلبه کنید. شما فقط باید بر نقاط ضعف آنها غلبه کنید. این غلبه بر طبیعت انسان است و به معنای کیش و مات انسانیت است. زیرا در حالی که ما مراقب فناوری بودیم تا از نقاط قوت ما عبور نکنند، این فناوری بود که ضعف‌های ما را دستکاری کرد و البته به‌عنوان یک شعبده‌باز، این تنها چیزی است که لازم بود بلد باشد و انجام دهد.

 

چگونه مشکل را حل کنیم؟

چند لحظه وقت بگذارید و به آنچه شنیده‌اید (خوانده‌اید) فکر کنید. خب، در این مورد چه باید بکنیم؟ احتمالا خواهید گفت بیایید آن اعلان‌ها را خاموش کنیم. عالی میشه!

این مثل شرایطی است که به خاطر تغییرات اقلیمی در حال سوختن هستیم و می‌گوییم بیایید نی را ممنوع کنیم! خب، واضح است که چنین راه‌حل‌هایی کافی نیستند.

این یک مشکل سیستمی است که نیاز به راه‌حل‌های سیستمی دارد.

 

خب؟ ما می خواهیم چه کار کنیم؟

 

اگر مهندسانی را در زمینه‌ی اخلاق تربیت کنیم چه؟ مثلا از آنها بخواهیم جرمی بنتام (Jeremy Bentham) و امانوئل کانت (Emmanuel Kant) را در نتیجه‌گرایی مطالعه کنند. دیگه حتما مشکل حل خواهد شد.

باور کنید، من به شدت از آموزش اخلاق به همه حمایت می‌کنم، اما این هم برای مشکلی که ما به تازگی در مورد سقوط رتبه‌ی انسان مطرح کردیم، کافی نیست.

می‌گویید، آن را روی بلاک‌چین قرار دهیم. بیایید اقتصاد توجه را روی بلاک‌چین قرار دهیم. این عالی خواهد شد. اما این هم مشکل را حل نمی‌کند. البته اکنون جامعه‌ی بلاک‌چین درگیر این راه‌حل است، بنابراین می‌توانیم بعداً در مورد نتایج آن صحبت کنیم.

احتمالا می‌گویید، آنها در ازای داده‌های ما چه چیزی به ما پرداخت کردند؟ خب بله، شرکت‌ها باید برای تمام داده‌های ما که از آنها استفاده می‌کنند به ما پول یا خدمات بپردازند. اما مثل این است که یک فرانکنشتاین دیجیتالی دنیا را ویران کند و هرازگاهی در حالی که این کار را می‌کند به ما هم پول بدهد. این کافی نیست. البته خوب است که از داده‌های ما محافظت شود، اما نشان دادیم که آن‌ها به داده‌های ما نیازی ندارند، زیرا می‌توانند هر چیزی را که باید درباره ما بدانند پیش‌بینی کنند. پس این هم مشکلی را حل نمی‌کند.

 

اگر منتظر تحقیقات بیشتر باشیم چه؟ خیر. چون این مشکل فوری است. اورژانسی است.

 

شکی نیست که سیلیکون‌ولی در حوزه‌ی فناوری بسیار خبره و کاربلد است. اما چیزی که ما در مورد آن خیلی ماهر نبوده‌ایم و باید در مورد آن کاری بکنیم، شناخت طبیعت انسان است. و این بدان معناست که باید درک کامل تری از نحوه کار انسان داشته باشیم.

و این مانند این است که نقشه‌ی تکاملی را برداشته و بگوییم، شاید لازم باشد دوباره در آینه نگاه کنیم و ارزیابی کاملی از تمام ضعف‌ها، سرشت و همچنین نقاط قوت انسانی‌مان داشته باشیم. ما در کجا می‌درخشیم؟

 طبق آنچه آزا در ابتدا به نقل از پدرش، جف گفت:

یک رابط کاربری اگر پاسخگوی نیازهای انسان باشد و در عین حال به ضعف‌های او هم توجه کند، انسانی است.

 

به همین دلیل است که ما به رویکرد جدیدی با عنوان فناوری انسانی نیازمندیم. زیرا باید با نگاهی به ویژگی‌های انسانی (قوت و ضعف) شروع شود. و به گونه‌ای ارگونومیک طراحی شود تا به طبیعت انسان و نیازهای انسانی او پاسخ داده و در عین حال بفهمد که چگونه باید از نقاط درخشان وجود او بهره ببرد.

یک دستور کار منسجم برای فناوری انسانی این است که به نگرانی‌هایی که زندگی واقعی مردم را تحت تأثیر قرار می‌دهند بپردازد. انتخابات واقعی، سلامت روان کودکان، قطبی‌سازی، بطالت پروری، خشم‌سازی، هتک حرمت و موارد دیگر که در شمار این نگرانی‌ها هستند.

خبر خوب این که همه اینها فقط از یک چیز سرچشمه می‌گیرد و آن غلبه بر طبیعت انسان است و ما می‌توانیم دوباره آن را به محور اصلی خود بازگردانیم.

 

حالا چگونه می‌خواهیم این کار را انجام دهیم؟

 

یک مدل اجتماعی ــ ارگونومیک کامل از طبیعت انسان

خب، سه چیزی که ما را به این دنیای تحقیر کننده‌ی انسانی رسانده‌اند:

  1. سیستم‌های اجتماعی مصنوعی (artificial social systems)  که باید خودمان را خم کنیم تا در درون چیزهایی قرار بگیریم که به نوعی ذهن ما را ربوده‌اند.
  2. هوش‌های مصنوعی‌ غافلگیرکننده‌ای که ماهیت انسان را پیش‌بینی می‌کنند.
  3. مشوق‌های استخراجی (extractive incentives).

 

 

اما خبر خوب این است که با تغییر این سه چیز:

  1. رفتن از سیستم‌های اجتماعی مصنوعی به انسانی؛ که هم‌تراز و هماهنگ با تمام غرایز اجتماعی ما هستند و حقیقت راستین طبیعت انسانی را تشخیص می‌دهند.
  2. هوش مصنوعی انسانی که به جای بهره‌برداری از ارزش‌ها و محدودیت‌های طبیعت انسان، امانت‌دار آنها است.
  3. حرکت از انگیزه‌های استخراجیِ (extractive incentives) مبتنی بر رقابت در مسابقه‌های برتری‌طلبانه به سمت انگیزه‌های احیا‌کننده (regenerative incentive) که به ما کمک می‌کنند.

 

می‌توان چیزها را تغییر داد. انجام این کارها می‌تواند از تنزل رتبه‌ی انسان به شناخت نقاط قوت و تقویت پتانسیل‌های او ارتقا یابد و زمینه را برای درخشش ما در روابطمان، مدنیت، خلاقیت، زمینه‌ها و حقایق مشترک میان ما فراهم آورد.

 

هوش مصنوعی و مدل اجتماعی-ارگونومیک

 

پس این کاری است که ما باید انجام دهیم:

بیایید در ابتدا نگاهی دوباره داشته باشیم به روشی که تا به حال کارها را بر اساس آن انجام می‌دادیم. در حال حاضر چگونه سیستم‌های اجتماعی انسانی را می‌سازید؟ منظورم این است که بالاخره ما با تلاش برای طراحی انسان‌محور به اینجا رسیده‌ایم و اکنون متوجه شده‌ایم این روش‌ها کافی نبوده‌اند. زیرا اشکال طراحی انسان‌محور این است که اشکالات انسان (نقاط ضعف) را در مرکز قرار می‌دهد.

 

بنابراین ما باید از تمام آنچه که می‌بینیم محافظت کنیم. باید یاد بگیریم که چگونه چیزهای جدیدی را در خود ببینیم که قبلا پیش‌بینی نکرده‌ بودیم. و این یعنی دوباره نگاه کردن در آینه و داشتن یک مدل اجتماعی ــ ارگونومیک (socio-ergonomic) کامل از طبیعت انسان.

مدل ارگونومیکِ اجتماعی لایه‌های مختلفی دارد ــ فیزیولوژی، احساسات، شناخت، تصمیم‌گیری، حس کردن، انتخاب کردن و پویایی گروه. ما به دانش کامل از نحوه‌ی کار انسان نیاز داریم.

در مورد نحوه‌ی عملکرد ما به صورت فردی دو جنبه‌ی ارگونومیکی وجود دارد؛ بخش توجه، فیزیولوژی، تنش و شناخت ما که حاصل نحوه‌ی سیم‌کشی دیرینه‌شناسی اخلاقی ما (Paleo Ethically) است. و بخش ارگونومی اجتماعی که شامل مواردی از این دست است: چگونه به صورت گروهی کار کنیم؟ چگونه استدلال اجتماعی کنیم؟

از این مدل ارگونومیکی می‌توانید برای شروع تشخیص مشکلات استفاده کنید.

 

بیایید مثالی بزنیم که همه‌ی ما آن را تجربه کرده‌ایم. چند نفر از شما ــ در میانه‌ی نوشتن ایمیل ناگهان یک برگه‌ی جدید باز می‌کنید؟

ما در واقع هر 40 ثانیه یک بار این کار را انجام می‌دهیم. این میانگینِ زمانی است که اکنون ما روی صفحه‌ی نمایش کامپیوتر تمرکز می‌کنیم. باورنکردنی است! این در واقع مربوط به دو سال و نیم پیش است! 40 ثانیه.

توجه کنید که این یک وقفه‌ی خارجی نبوده است. بنابراین اگر بخواهیم این مشکل را با فناوری حل کنیم، چه می‌کنیم؟ آیا باید هوش مصنوعی بهتری بسازیم؟ آیا به داده‌های بیشتری نیاز داریم؟ آیا ما به یادگیری ماشینی بهتری نیاز داریم؟ آیا به دکمه‌ی «مزاحم نشوید» نیاز داریم؟ خوب توجه کنید، مشکل از کجا آمده است؟ از بیرون نبود، تماس از داخل خود ما بود. مشکل در درون ما بود. از کجای درون ما آمده بود؟

 

 

شبکه های مجازی و اختلال توجه

 

بیایید از مدل ارگونومیکی کمک بگیریم، از فیزیولوژی خودمان شروع کنیم. در آن لحظه چگونه نفس می‌کشیم؟ در واقع چیزی به نام آپنه ایمیل (email apnea) وجود دارد. ما وقتی ایمیل خود را می‌خوانیم نفس نمی‌کشیم. و این تاثیر زیادی روی شناخت ما دارد.

 

همین الان نفس بکشید. آیا قبل از اینکه نفس بکشید، متوجه شده‌اید که چگونه نفس می‌کشید؟ وقتی در معرض نفس نکشیدن قرار می‌گیرید، می‌توانید استرس، اضطراب و احساسات دیگر را احساس کنید. اما خیلی ساده، مادامی که توجه خود را به آن معطوف می‌کنید ناگهان نسبت به چیزی که شما را تحت فرمان گرفته بود، اختیار پیدا می‌کنید.

 

بنابراین در واقع توجه دوباره به چیزی که نمی‌توانیم ببینیم می‌تواند آن چیزها را بازیابی کند. زیرا فیزیولوژی، ضربان قلب، استرس و کورتیزولِ ما بر احساسات ما و احساسات ما بر توجه و شناخت ما تأثیر می‌گذارد.

 

حالا بیایید نگاهی به مثالی بیندازیم که چگونه این موضوع بر استدلال اجتماعی ما تاثیر می‌گذارد.

مثال خوب آن چیست؟ تراز کردن (Leveling up). یکی از رایج‌ترین تجربیات در مورد فناوری احساس انزوای اجتماعی است. امروزه، تنها نیمی از آمریکایی‌ها می‌گویند که تعاملات اجتماعی معنادار روزانه دارند. 18 درصد اظهار می‌کنند که به ندرت احساس می‌کنند که حتی افرادی وجود دارند که می‌توانند با آنها صحبت کنند.

چند نفر از شما این احساس را داشته‌اید که تنها هستید، حتی نمی‌دانید با چه کسی تماس بگیرید و به نوعی در آن گرفتار شده‌اید؟

 

مغز ما در استدلال اجتماعی (social reasoning) بی‌نظیر است، اما به نوعی گیج هم هست. منظورم این است که برای یک لحظه می‌توانید بگویید، خب، ما چیزهایی زیادی داریم. چرا وقتی تنها هستیم این کارها را انجام نمی‌دهیم؟ شاید ما این کارها را انجام نمی‌دهیم زیرا ترجیح آشکار ما این است که می‌خواهیم تنها باشیم. ما در واقع می‌خواهیم تنها آنجا بنشینیم! تجربه نکرده‌اید؟

 

خب، وقتی یک منوی واقعا عالی از انتخاب‌ها به ما داده نمی‌شود سیستم عصبی ما گیج می‌شود، و جایی که بار فکر کردن بر دوش ماست، هزاران امکان در برابر ما قرار می‌گیرد. زیرا سیگنال‌های اجتماعی که مغز ما به دنبال آن است، چندان ارگونومیک نیستند.

تصور کنید که به جای انواع اطلاعاتی که مغز ما به دنبال آن است سیگنال‌هایی باشند که دوستانمان به ما اهمیت می‌دهند. به‌عنوان مثال، وقتی آنها می‌گویند ــ هر زمان که نیاز به صحبت داشتی با من تماس بگیر مغز ما خوب عمل می‌کند ــ وقتی دوست ما این را می‌گوید ما می‌دانیم که چه احساسی داریم. اما مغز ما در به خاطر سپردن زمانی که احساس ناراحتی می‌کنیم، چندان خوب نیست.

 

حالا تصور کنید که فناوری به گونه‌ای متفاوت طراحی شده باشد، مثلا این واقعیت را در مورد طبیعت انسان تشخیص دهد و زمانی که احساس تنهایی می‌کنید این سیگنال‌ها را قابل مشاهده کند. خب تصور کنید که تنها هستید و منوی بازی می‌بینید، مثلاً یک صفحه. یا تصور کنید که مثلا فناوری و فیس‌بوک و این چیزها برای کمک به تعمیق آن یک یا دو رابطه طراحی شده باشند که همان روابط «در کنار یکدیگر بودن» هستند.

 

یا اگر حمایت از یکدیگر آسان بود چه؟ چه می‌شد اگر این کار به آسانی کسب اطلاعات از ویکی‌پدیا می‌بود؟ یا به آسانی وایرال شدن محتوا در رسانه‌های اجتماعی؟ چه می‌شد اگر این چیزی بود که ما می‌خواستیم آن را آسان کنیم؟ اگر به جای منزوی شدن، ارتباط بیشتری برقرار می‌کردیم می‌توانستیم از یکدیگر حمایت کنیم.

 

این مثالی از استدلال اجتماعی بود. حالا بیایید یک سطح بالا برویم و به قطبی شدن نگاه کنیم.

 

خب در کدام طیف سیاسی قرار دارید. اگر فکر می‌کنید پیدا کردن زمینه‌ی مشترک با افراد طیف مقابلتان آسان است دست خود را بلند کنید. در واقع سخت است که با افراد طرف مقابل، زمینه‌ی مشترک پیدا کنیم. ما غالبا فکر می‌کنیم که نمی‌توانیم توافق کنیم.

 

قطب‌بندی از سال 1991 تا 2001، 2004 تا 2014 افزایش یافته است. بخشی از آن توسط رسانه‌های اجتماعی تشدید شده است. اما آیا ما واقعاً در این که نمی‌توانیم توافق کنیم هم قطبی شده‌ایم؟ یا تجربیات ما تواناییمان را  برای یافتن زمینه‌های مشترک موجود نشان نمی‌دهد؟

 

دو قطبی سازی

 

شاید از ما سوالات درستی پرسیده نشده است. اگر بیش از آنچه که فکر می‌کنیم توافق داشته باشیم چه؟ و شاید خواست رسانه‌های اجتماعی و فناوری است زیرا زمانی که شما این گروه‌ها را به صورت انبوه در انواع دسته‌ها پخش می‌کنید عملا جمع‌های پویایی برای درک و فهم و گفتمان شکل نمی‌گیرد، زیرا مغز ما برای چنین شرایطی طراحی و تکامل نیافته است.

بنابراین اگر به این فکر کنید که طبیعت درخشان ذهن ما کجاست، به جایی می‌رسید که اساساً در یافتن زمینه‌های مشترک؛ آگاهی کسب می‌کند.

 

چیزهایی مانند نشستن دور آتش در پیک‌نیک که در آن ما به راحتی می‌توانیم منطقی بودن، گشاده‌رویی و مدنیت را پیدا کنیم. میزهای شام که به اندازه انسان بودن قدیمی هستند. نوشیدن با یکدیگر، اینکه اندازه گروه چقدر است؟ چقدر اعتماد وجود دارد؟ چند نفر سر میز هستند؟ و چیزهایی مانند مکالمات اتاق نشیمن وجود دارند که به مغز ما سیگنال‌های اعتمادی را می‌دهند که ما  نیاز داریم، زیرا فضاهای امن کوچکی را ایجاد می‌کنند که در آن تعداد کمی از افراد می‌توانند سوالات را در یک چارچوب مناسب وبا تسهیل گروهی خوب با دیدگاه‌های مختلف بسنجند ــ این در واقع مدلی است که کار کرده است. این مدل ذهنی ماست.

 

یا چیزهایی مانند تغییر دادن من، که در واقع از کانال Reddit بیرون آمد و متوجه شد که اگر به مردم انگیزه بدهید که بگویند ــ هی، من می‌خواهم دیدگاه‌ام را تغییر دهم ــ مثلا از شما دعوت می‌کند تا دیدگاهش را در مورد واکسیناسیون تغییر دهید ــ مردم هم به خاطر این که پاداش بیشتری دریافت کنند واقعاً نظر یکدیگر را تغییر می‌دهند.

 

حال، اگر یافتن زمینه‌ی مشترک آسان بود، چه؟ اگر این کار را به آسانی دسترسی به ویکی‌پدیا انجام دهیم، چه می‌شود؟ یا به سادگی وایرال شدن محتوا در رسانه‌های اجتماعی؟ وقتی یافتن زمینه‌ی مشترک آسان است، چه اتفاقی در مورد قطبی شدن می‌افتد؟ وقتی زمینه‌های مشترک آسان است، چه بر سر تفکر توطئه می‌آید؟ وقتی یافتن زمینه‌های مشترک و گفتگو کردن آسان‌تر است، برای اعتیاد چه اتفاقی می‌افتد؟

البته که زمینه‌های مشترک دارای مزایای آبشاری موج‌دار است. و مهمتر از آن، برای تهدیدهای وجودی ما که به توافق و یافتن آن زمینه‌ی مشترک بستگی دارد، چه اتفاقی می‌افتد؟ فضاهایی با تسهیل گروهی و با سؤالات مشترک خوب.

 

این نمونه‌ای از یک نمای ارگونومیک کامل‌تر است که «چگونه می‌توان از فناوری استفاده کرد و یک نمای ظریف‌تر و پیچیده‌تر از طبیعت انسان را هم در نظر گرفت؟» و این به این معنی است که با پرسیدن «از چه چیزی می‌خواهیم محافظت کنیم» شروع کنیم. مناطقی که می‌خواهیم محافظت کنیم کدامند؟

مثلا از آنجایی که کودکان به طور طبیعی در بازی کردن با یکدیگر مهارت دارند، ما باید به جای جایگزین کردن آنها یا تولید جایگزین‌های مصنوعی، فناوری را در اطراف این تجربیات بپیچیم. در نتیجه حاصل آن یک سیستم اجتماعی انسانی است، یعنی فناوری را مجدداً برای کار با سیستم‌های اجتماعی انسانی تنظیم می‌کند.

 

 

تقویت درخشش طبیعت ما

اکنون ما هوش مصنوعی را داریم و باید به سمت هوش مصنوعی انسانی برویم. چگونه این کار را انجام دهیم؟ ما انباری متشکل از 2 میلیارد عروسک وودو داریم که در هر گوشه‌ای خوابیده‌اند (برای هر چهار نفر روی زمین، یک عروسک وودو داریم) و از هر کدام از آنها می‌توان برای پیش‌بینی کامل آنچه ما را متقاعد می‌کند، آنچه می‌تواند ما را به تماشای بیشتر نگه دارد، و آنچه می‌تواند ما را از نظر سیاسی دستکاری کند، استفاده کرد. با این همه عروسک وودو چه کنیم؟

 

این نوع جدیدی از قدرت نامتقارن است. خوب پس ما به نوع جدیدی از امانتداری نیاز داریم.

 

اگر فناوری‌ای دارید که می‌تواند شما را کاملاً تحت تأثیر قرار دهد تا هر کاری را که نیاز دارید انجام دهید، مطمئن شوید که به نفع ماست و به نفع ما عمل می‌کند. مثلا دستیار هوش مصنوعی‌ای را تصور کنید که اساساً برای محافظت از محدودیت‌های طبیعت انسان طراحی شده و برخلاف طرف مقابل که برای استخراج کار می‌کند، در راستای منافع ما عمل کند.

 

و در نهایت، ما باید از مشوق‌های استخراجی به سمت مشوق‌های احیاکننده برویم. زیرا اگر به دامنه‌ی تحقیر و تنزل انسان، و تأثیر آن بر گستره توجه، قطبی شدن، مدنیت، اعتماد و نجابت ما نگاه کنید، نمی‌توانیم این مسئله را فقط با یک سری چسب‌زخم حل کنیم. ما به مجموعه‌ی جدیدی از مشوق‌ها نیاز داریم که رقابت را برای رفع این مشکلات تسریع کند. این مانند کاری است که بازار برای حل تغییرات آب‌و‌هوایی می‌کند. ما به مجموعه‌ای از انگیزه‌های جدید نیاز داریم که مسابقه‌ای را در جهت عکس آن و به سمت بالا ایجاد کند تا زندگی ما را با ارزش‌هایمان هماهنگ کند.

 

ممکن است بگویید ــ خب، یک لحظه صبر کن. در مورد مدل کسب‌و‌کار چطور؟

یا که بگویید ما در حال ارائه‌ی محصولات رایگان هستیم، برای جایگزینی این محصولات رایگان چه کار کنیم؟ عالی است! ما در حال ایجاد انزوای اجتماعی رایگان، کاهش رایگان دامنه‌ی توجه، تخریب رایگان حقیقت مشترکمان و بی تمدن کردن رایگان هستیم. اما رایگان، گران‌ترین مدل کسب‌و‌کاری است که تا به حال ایجاد کرده‌ایم.

در مقابل تصور کنید که ما انگیزه‌هایی برای طراحی مسابقه رسیدن به اوج می‌داشتیم، انگیزه‌هایی برای پیدا کردن یک تجربه‌ی معنادار به جای رقابت برای نگه داشتن مدام شما روی صفحه نمایش. جایی که همه چیز برای اعتماد ما رقابت می‌کرد تا ما را به جایی که می‌خواهیم برساند نه فقط برای «توجه».

 

حدود شش سال که در گوگل بودم و این ارائه را انجام دادم و گفتم ــ هی، ما  در قبال نحوه شکل دادن به توجه 2 میلیارد نفر مسئولیت اخلاقی داریم و هم‌اکنون داریم این رقابت را تا انتهای ساقه مغز میزبانی می‌کنیم و باید هرچه زودتر کاری در مورد آن انجام دهیم.

زمانی که در گوگل بودم، کاملاً ناامید شده بودم. به معنای واقعی کلمه روزهایی بود که سر کار می‌رفتم و تمام روز ویکی‌پدیا می‌خواندم و ایمیلم را چک می‌کردم و نمی‌دانستم چگونه، وقتی چیزی به بزرگی اقتصادِ توجه و انگیزه‌های منحرف آن وجود دارد، چگونه می‌توان سیستمی به این بزرگی را تغییر داد؟ من واقعاً احساس ناامیدی می‌کردم و افسرده بودم.

 

 به  کمک آزا، فرصتی پیدا کردم که یک سخنرانی TED را در زمان مناسبی ارائه کنم. و مشاهده کردم که در واقع قدرت زیادی در زبان مشترک وجود دارد. بسیاری از مردم همین احساس را داشتند، اما زبانی برای بیان آن وجود نداشت. دیدم که چگونه مفاهیم __ اقتصاد توجه، هک مغز، ربودن ذهن _ زبان و درک مشترک و صدای فراگیر یکپارچه‌ای را ایجاد کرده‌اند و همه چیز می‌تواند شروع به تغییر کند.

 

 

بحث و گفتگو درباره فناوری انسانی

 

 

افراد زیادی درباره این مشکلات صحبت کرد‌ه‌اند. من آنجا قدرت درک مشترک را دیدم ــ راجر مک‌نامی (Roger McNamee)، جارون لانیر (Jaron Lanier)، جاستین روزنشتاین (Justin Rosenstein)، که دکمه لایک را اختراع کرد، سندی پاراکیلاس (Sandy Parakilas) در فیس‌بوک، رنه دی رستا (Renee DiResta)، گیوم (Guillaume)، مهندس سابق یوتیوب، مارک بنیوف (Marc Benioff) - وقتی مردم شروع به صحبت می کنند و می‌گویند مشکلی وجود دارد، همه چیز می‌تواند شروع به تغییر کند.

 

مثلا گزارشی بود که sense media در سپتامبر 2018 منتشر کرد مبنی بر اینکه اکنون 72 درصد از نوجوانان معتقدند که برای صرف زمان بیشتر در این برنامه‌ها دستکاری شده‌اند. هیچ کس دو سال قبل از آن به این موضوع فکر هم نمی‌کرد.

The Verge می‌گوید، مناظره درباره‌ی مصرف درست زمان به پایان رسیده است و موضوع «مصرف درست زمان» برنده شد.

چرا این را گفتند؟ زیرا مارک زاکربرگ یک سال پیش گفته بود که ــ هدف بزرگ جدید ما این است که مطمئن شویم زمان به درستی در فیسبوک صرف می‌شود. اپل ویژگی‌هایی را راه‌اندازی کرد تحت عنوان آیا زمان را به خوبی سپری کرده‌اید تا به شما کمک کند زمان استفاده از گوشی خود را مدیریت کنید. گوگل هم همینطور. و اکنون آنها به طور پیش‌فرض در شب دارای مقیاس خاکستری در تلفن‌ها هستند. اکنون شما یک میلیارد تلفن دارید که اساساً ویژگی‌های کوچکی را در اختیار دارند تا زمان خوبی را صرف کنید.

بدون نوشتن هیچ خط کدی، فقط با ایجاد یک درک مشترک، می‌توانید کل اکوسیستم را از جایی که هست به جایی که می‌خواهید منتقل کنید. با اینکه اینها قدم‌های کوچکی هستند اما شروع حرکت ما به سمت رفاه را تسهیل می‌کنند.

اکنون اپل و گوگل بر سر اینکه چه کسی بهتر می‌تواند تجارب رفاهی را برای مردم فراهم کند با هم رقابت می‌کنند. اما ما باید آن رویه‌ای را که بر سر یافتن نقاط درخشش طبیعت انسان رقابت می‌کند ارتقا دهیم. این به ما کمک می‌کند تا با مدل عمیق‌تر و پیچیده‌تری از طبیعت انسان همسو شویم. این کاری است که ما باید انجام دهیم.

 

این یک لحظه‌ی تاریخی است که گونه‌ای باهوش فناوری‌ای می‌سازد که آن فناوری می‌تواند نسخه عروسکی خالقش را شبیه‌سازی کند و در نهایت عروسک می‌تواند استاد را کنترل کند. این وضعیت بی‌سابقه‌ای است.

و زمانی که بتوانیم به‌طور کامل، نه فقط نقاط قوت این افراد، بلکه نقاط ضعف، صدای فراگیر محیط اجتماعی‌ آنها، سلامت روان آنها، هنجارهای اجتماعی همه دوستانشان و جهت‌دهی کامل سلامت روان یک نسل نوجوان را به سمتی شبیه‌سازی کنیم، می‌تواند نقطه پایانی بر کار انسان باشد.

این لحظه، یک لحظه‌ی تاریک، مهم و سرنوشت‌ساز خواهد بود و می‌تواند پایان عاملیت انسانی باشد. این اتفاق با ناهشیار بودن نسبت به آنچه در حال وقوع است، رخ می‌دهد. این بدین معناست که اگر ماشین خودران اقتصاد توجه استخراجی را رها کنیم، دقیقاً خواهیم دید که به چه چیزی می‌انجامد، تنزل رتبه‌ی انسان. بنابراین این ما هستیم که می‌توانیم اجازه دهیم این اتفاق بیافتد.

 

می خواهم از شما بخواهم که همین الان نفس بکشید، زیرا وقتی نسبت به آن آگاهی پیدا کردید، ناگهان از تابع بودن به انتخاب و عاملیت میرسیم. بنابراین بیایید ببینیم چگونه این چیزها طبیعت انسان را ربوده‌اند و بیایید یک برنامه طراحی کنیم که آن را اصلاح کند.

 

ما گروهی در مرکز فناوری انسانی هستیم که می‌خواهیم این تغییر را ایجاد کنیم. و نقش ما حمایت از کل جامعه در تسریع این تغییر است.

تنزل رتبه‌ی انسان مانند تغییر «اقلیم جهانی فرهنگ» است. و مانند تغییرات آب و هوایی، می‌تواند فاجعه بار باشد. اما برخلاف تغییرات آب و هوایی، تنها حدود هزار نفر باید کاری را که انجام می‌دهند، تغییر دهند. و همانطور که می‌توانید حدس بزنید ــ بسیاری از ما که اینجا در این اتاق کنفرانس هستیم و بسیاری از ما که در حال تماشای (مطالعه) آن هستیم، را شامل می‌شود.

 

قدم‌هایی که ما پیشنهاد می‌دهیم به قرار ذیل هستند:

  • تیم‌های محصول می‌توانند شروع به یکپارچه کردن و در هم تنیدن طراحی انسانی در محصولات خود کنند.
  • کارگران فناوری می‌توانند صدای خود را بلند کنند و هر روز کاهش رتبه‌ی انسانی را گوشزد کنند.
  • خبرنگاران می‌توانند به جای رسوایی‌ها و نارضایتی‌ها، مشکلات و راه‌حل‌های سیستمی را روشن کنند.
  • رای‌دهندگان می‌توانند، از سیاست‌گذاران تقاضای تصویب قوانین اجرایی بکنند و بگویند ـ هی، ما نمی‌خواهیم فرزندانمان سقوط کنند.
  • سیاست‌گذاران می‌توانند با حمایت از شهروندان در تغییر خواسته‌ها از شرکت‌های فناوری به آن پاسخ دهند.
  • این منجر به این می‌شود که سهامداران بگویند ــ هی، ما از این شرکت‌ها تعهدی می‌خواهیم که از مدل‌های تجاری مبتنی بر تنزل رتبه‌ی انسانی دور شوند.
  • شرکت‌های سرمایه‌گذاری برای کمک به بشریت تغییر رویه خواهند داد.
  • و کارآفرینانی که محصولات پیچیده‌ای در مورد انسانیت ما می‌سازند، اوج می‌گیرند و پلتفرم‌هایی که این مشوق‌ها را فراهم می‌کنند، با هم رقابت می‌کنند تا به برنامه‌ها اجازه دهند نه برای توجه، بلکه برای رقابت با هم، برای اعتماد ما و برای ترغیب ما به همسویی با ارزش‌هایمان رقابت کنند. درنتیجه مسابقه‌ای رو به سمت بالا ایجاد می‌شود و با انجام این کارها روند از غیرممکن به اجتناب‌ناپذیر تبدیل خواهد شد.

 

برای اولین بار در تاریخ، اگر به این ماشین اجازه دهیم با خلبان خودکار کار کند، یا بدون اینکه دست به اقدام عملی بازدارنده‌ای بزنیم، فقط نسبت به آن آگاهی داشته باشیم ممکن است با پایان کارگزاری و عاملیت انسانی روبرو شویم. خبر خوب این است که این اتفاق فقط حول یک چیز می‌چرخد و آن این است که چگونه طبیعت انسان ربوده می‌شود. و هنگامی که ما از آن آگاه شدیم، حق انتخاب داریم.

 

و این دستور کار انسانی است که امیدواریم همه ما بتوانیم آن را پشت سر بگذاریم. با انجام این کار، شاید E.O. ویلسون بگوید که ــ ما می‌توانیم احساسات پارینه سنگی خود را در آغوش بگیریم، نهادهای قرون وسطایی خود را ارتقا دهیم، تا به ما کمک کند خرد استفاده از فناوری خداگونه داشته باشیم.

 

قدم بعدی شما برای حرکت در این مسیر چیست؟

 

پایان

 

 

آنچه مطالعه کردید بخش دوم (بخش اول) ترجمه سخنرانی تریسان هریس در سال 2017 از جهت اهمیت پرداختن به فناوری انسانی است. در صورت علاقمندی می توانید ویدئوی سخنرانی را مشاهده کنید و یا برای مطالعه‌ی متن دستنویس سخنرانی به زبان اصلی به سایت سر بزنید.

 

 

استودیوی طراحی انسانی نیز مفتخر است در راستای ترویج و آموزش مفاهیم فناوری انسانی، به پژوهش، ترجمه و تالیف و تولید محتوا پیرامون مفاهیم اساسی فناوری انسانی بپردازد و مشاوره تخصصی کسب‌و‌کارهای نوپا را نیز برعهده گیرد.

 

 

 

 

۵
از ۵
۱۹ مشارکت کننده

نوشته های اخیر

دسته بندی ها

ثبت

پیغام شما با موفقیت ارسال شد.