Humane: A New Agenda for Tech
Paleolithic Emotions, Medieval Institutions, and Godlike Technology
احساسات پارینه سنگی، نهادهای قرون وسطی، و فناوری خداگونه
سیستمهای اجتماعی مصنوعی غلبه بر طبیعت انسان
چه اتفاقی در حال رخ دادن است؟
آیا انسانها بد هستند؟ آیا این واقعا ما هستیم؟ آیا اینها انتخاب انسانها است؟ خیر.
اینها به این دلیل اتفاق میافتند که ما سیستمهای اجتماعی مصنوعیای داریم که طبیعت انسان را ربوده و بر آن غلبه کردهاند، هوش مصنوعی عظیمی که با ساختن عروسکهای وودو و در ترکیب با اقتصاد توجه استخراجی __ که بر اساس جلب توجه مردم ساخته شده است __ بر ضعفهای انسانی غلبه پیدا کرده است.
و این همان چیزی است که باعث تنزل رتبهی انسانها (نگاه او به انسانیت) میشود. زیرا ما در حالی که در جهت ارتقای ماشینها تلاش میکنیم، از انسانیت خود غافل ماندهایم.
مشکلات ما در حال افزایش است ــ تغییرات آب و هوایی، نابرابری ــ توانایی و نیاز ما برای توافق با یکدیگر و نگاه کردن به جهان به یک شکل و افکار و گفتمان منفی در حال افزایش است. اما ظرفیت ما برای حل مشکلات رو به کاهش گذاشته است. بنابراین ما راه را اشتباه رفتهایم.
و به همین دلیل است که اکنون باید مسیر خود را تغییر دهیم زیرا این وضعیت در شرف خطرناکتر شدن است.
چند نفر در اینجا با یکی از دوستانتان در حال گفتگو بودهاید و متقاعد شدهاید که فیسبوک به میکروفون شما گوش میدهد، زیرا تبلیغ چیزی که در مورد آن صحبت میکردید در فید فیسبوک شما نمایش داده شده؟
در اصل، پزشکی قانونیِِ دادهها نشان میدهد که آنها به میکروفون گوش نمیدهند. این یک تئوری توطئه است. آنها اصلا مجبور نیستند به میکروفون شما گوش دهند، زیرا آنها یک نسخهی عروسک وودوی کوچک از شما دارند و فقط به آنچه آن عروسک میگوید گوش میدهند. و از آنجایی که بلد هستند و میتوانند حرفهای آن شخص را پیشبینی کنند، دقیقاً میدانند که شما به چه چیزی فکر میکردید.
نکته اینجاست که ما از دنیای ربایش افکار مردم و استفاده از سوگیریهای شناختی عبور کرده و در حال حاضر به پیشبینی کامل طبیعت انسانی رسیدهایم. من دیگر مجبور نیستم با کمبریج آنالیتیکا، دادههای شما را بدزدم. با استفاده از یک مقالهی جدید با دقت 80 درصد، من در واقع میتوانم پنج ویژگی اصلی شخصیتی شما را فقط با نگاه کردن به حرکات موس و الگوهای کلیک به دست بیاورم. ضمناً من این کار را فقط با نگاه کردن انجام میدهم.
یا در حال حاضر هوش مصنوعی میتواند به طور کامل چهره تولید کند. هیچ کدام از این چهرههایی که میبینید (اسلایدهای کنفرانس) واقعی نیستند. یک شکل از ترکیب بین چهرههای موجود نیستند. اینها همه از ابتدا تولید میشوند و میتوان آنها را طوری ایجاد کرد که کاملاً قابل اعتماد باشند.
به عنوان مثال، این شخص ممکن است به طرز عجیبی آشنا به نظر برسد و شما حتی دلیل آن را ندانید. چهرهی او ممکن است ترکیبی از چهرهی افرادی باشد که ممکن است در این صحنه دیده باشید. میتوانید این چهرهها را برای گفتن چیزهایی که میخواهید متحرک کنید، و در آینده، کلماتی را در گوش شما زمزمه خواهند کرد و شما به آنها اعتماد خواهید کرد.
با در اختیار داشتن فناوری، شما مجبور نیستید بر نقاط قوت افراد غلبه کنید. شما فقط باید بر نقاط ضعف آنها غلبه کنید. این غلبه بر طبیعت انسان است و به معنای کیش و مات انسانیت است. زیرا در حالی که ما مراقب فناوری بودیم تا از نقاط قوت ما عبور نکنند، این فناوری بود که ضعفهای ما را دستکاری کرد و البته بهعنوان یک شعبدهباز، این تنها چیزی است که لازم بود بلد باشد و انجام دهد.
چگونه مشکل را حل کنیم؟
چند لحظه وقت بگذارید و به آنچه شنیدهاید (خواندهاید) فکر کنید. خب، در این مورد چه باید بکنیم؟ احتمالا خواهید گفت بیایید آن اعلانها را خاموش کنیم. عالی میشه!
این مثل شرایطی است که به خاطر تغییرات اقلیمی در حال سوختن هستیم و میگوییم بیایید نی را ممنوع کنیم! خب، واضح است که چنین راهحلهایی کافی نیستند.
این یک مشکل سیستمی است که نیاز به راهحلهای سیستمی دارد.
خب؟ ما می خواهیم چه کار کنیم؟
اگر مهندسانی را در زمینهی اخلاق تربیت کنیم چه؟ مثلا از آنها بخواهیم جرمی بنتام (Jeremy Bentham) و امانوئل کانت (Emmanuel Kant) را در نتیجهگرایی مطالعه کنند. دیگه حتما مشکل حل خواهد شد.
باور کنید، من به شدت از آموزش اخلاق به همه حمایت میکنم، اما این هم برای مشکلی که ما به تازگی در مورد سقوط رتبهی انسان مطرح کردیم، کافی نیست.
میگویید، آن را روی بلاکچین قرار دهیم. بیایید اقتصاد توجه را روی بلاکچین قرار دهیم. این عالی خواهد شد. اما این هم مشکل را حل نمیکند. البته اکنون جامعهی بلاکچین درگیر این راهحل است، بنابراین میتوانیم بعداً در مورد نتایج آن صحبت کنیم.
احتمالا میگویید، آنها در ازای دادههای ما چه چیزی به ما پرداخت کردند؟ خب بله، شرکتها باید برای تمام دادههای ما که از آنها استفاده میکنند به ما پول یا خدمات بپردازند. اما مثل این است که یک فرانکنشتاین دیجیتالی دنیا را ویران کند و هرازگاهی در حالی که این کار را میکند به ما هم پول بدهد. این کافی نیست. البته خوب است که از دادههای ما محافظت شود، اما نشان دادیم که آنها به دادههای ما نیازی ندارند، زیرا میتوانند هر چیزی را که باید درباره ما بدانند پیشبینی کنند. پس این هم مشکلی را حل نمیکند.
اگر منتظر تحقیقات بیشتر باشیم چه؟ خیر. چون این مشکل فوری است. اورژانسی است.
شکی نیست که سیلیکونولی در حوزهی فناوری بسیار خبره و کاربلد است. اما چیزی که ما در مورد آن خیلی ماهر نبودهایم و باید در مورد آن کاری بکنیم، شناخت طبیعت انسان است. و این بدان معناست که باید درک کامل تری از نحوه کار انسان داشته باشیم.
و این مانند این است که نقشهی تکاملی را برداشته و بگوییم، شاید لازم باشد دوباره در آینه نگاه کنیم و ارزیابی کاملی از تمام ضعفها، سرشت و همچنین نقاط قوت انسانیمان داشته باشیم. ما در کجا میدرخشیم؟
طبق آنچه آزا در ابتدا به نقل از پدرش، جف گفت:
یک رابط کاربری اگر پاسخگوی نیازهای انسان باشد و در عین حال به ضعفهای او هم توجه کند، انسانی است.
به همین دلیل است که ما به رویکرد جدیدی با عنوان فناوری انسانی نیازمندیم. زیرا باید با نگاهی به ویژگیهای انسانی (قوت و ضعف) شروع شود. و به گونهای ارگونومیک طراحی شود تا به طبیعت انسان و نیازهای انسانی او پاسخ داده و در عین حال بفهمد که چگونه باید از نقاط درخشان وجود او بهره ببرد.
یک دستور کار منسجم برای فناوری انسانی این است که به نگرانیهایی که زندگی واقعی مردم را تحت تأثیر قرار میدهند بپردازد. انتخابات واقعی، سلامت روان کودکان، قطبیسازی، بطالت پروری، خشمسازی، هتک حرمت و موارد دیگر که در شمار این نگرانیها هستند.
خبر خوب این که همه اینها فقط از یک چیز سرچشمه میگیرد و آن غلبه بر طبیعت انسان است و ما میتوانیم دوباره آن را به محور اصلی خود بازگردانیم.
حالا چگونه میخواهیم این کار را انجام دهیم؟
یک مدل اجتماعی ــ ارگونومیک کامل از طبیعت انسان
خب، سه چیزی که ما را به این دنیای تحقیر کنندهی انسانی رساندهاند:
- سیستمهای اجتماعی مصنوعی (artificial social systems) که باید خودمان را خم کنیم تا در درون چیزهایی قرار بگیریم که به نوعی ذهن ما را ربودهاند.
- هوشهای مصنوعی غافلگیرکنندهای که ماهیت انسان را پیشبینی میکنند.
- مشوقهای استخراجی (extractive incentives).
اما خبر خوب این است که با تغییر این سه چیز:
- رفتن از سیستمهای اجتماعی مصنوعی به انسانی؛ که همتراز و هماهنگ با تمام غرایز اجتماعی ما هستند و حقیقت راستین طبیعت انسانی را تشخیص میدهند.
- هوش مصنوعی انسانی که به جای بهرهبرداری از ارزشها و محدودیتهای طبیعت انسان، امانتدار آنها است.
- حرکت از انگیزههای استخراجیِ (extractive incentives) مبتنی بر رقابت در مسابقههای برتریطلبانه به سمت انگیزههای احیاکننده (regenerative incentive) که به ما کمک میکنند.
میتوان چیزها را تغییر داد. انجام این کارها میتواند از تنزل رتبهی انسان به شناخت نقاط قوت و تقویت پتانسیلهای او ارتقا یابد و زمینه را برای درخشش ما در روابطمان، مدنیت، خلاقیت، زمینهها و حقایق مشترک میان ما فراهم آورد.
پس این کاری است که ما باید انجام دهیم:
بیایید در ابتدا نگاهی دوباره داشته باشیم به روشی که تا به حال کارها را بر اساس آن انجام میدادیم. در حال حاضر چگونه سیستمهای اجتماعی انسانی را میسازید؟ منظورم این است که بالاخره ما با تلاش برای طراحی انسانمحور به اینجا رسیدهایم و اکنون متوجه شدهایم این روشها کافی نبودهاند. زیرا اشکال طراحی انسانمحور این است که اشکالات انسان (نقاط ضعف) را در مرکز قرار میدهد.
بنابراین ما باید از تمام آنچه که میبینیم محافظت کنیم. باید یاد بگیریم که چگونه چیزهای جدیدی را در خود ببینیم که قبلا پیشبینی نکرده بودیم. و این یعنی دوباره نگاه کردن در آینه و داشتن یک مدل اجتماعی ــ ارگونومیک (socio-ergonomic) کامل از طبیعت انسان.
مدل ارگونومیکِ اجتماعی لایههای مختلفی دارد ــ فیزیولوژی، احساسات، شناخت، تصمیمگیری، حس کردن، انتخاب کردن و پویایی گروه. ما به دانش کامل از نحوهی کار انسان نیاز داریم.
در مورد نحوهی عملکرد ما به صورت فردی دو جنبهی ارگونومیکی وجود دارد؛ بخش توجه، فیزیولوژی، تنش و شناخت ما که حاصل نحوهی سیمکشی دیرینهشناسی اخلاقی ما (Paleo Ethically) است. و بخش ارگونومی اجتماعی که شامل مواردی از این دست است: چگونه به صورت گروهی کار کنیم؟ چگونه استدلال اجتماعی کنیم؟
از این مدل ارگونومیکی میتوانید برای شروع تشخیص مشکلات استفاده کنید.
بیایید مثالی بزنیم که همهی ما آن را تجربه کردهایم. چند نفر از شما ــ در میانهی نوشتن ایمیل ناگهان یک برگهی جدید باز میکنید؟
ما در واقع هر 40 ثانیه یک بار این کار را انجام میدهیم. این میانگینِ زمانی است که اکنون ما روی صفحهی نمایش کامپیوتر تمرکز میکنیم. باورنکردنی است! این در واقع مربوط به دو سال و نیم پیش است! 40 ثانیه.
توجه کنید که این یک وقفهی خارجی نبوده است. بنابراین اگر بخواهیم این مشکل را با فناوری حل کنیم، چه میکنیم؟ آیا باید هوش مصنوعی بهتری بسازیم؟ آیا به دادههای بیشتری نیاز داریم؟ آیا ما به یادگیری ماشینی بهتری نیاز داریم؟ آیا به دکمهی «مزاحم نشوید» نیاز داریم؟ خوب توجه کنید، مشکل از کجا آمده است؟ از بیرون نبود، تماس از داخل خود ما بود. مشکل در درون ما بود. از کجای درون ما آمده بود؟
بیایید از مدل ارگونومیکی کمک بگیریم، از فیزیولوژی خودمان شروع کنیم. در آن لحظه چگونه نفس میکشیم؟ در واقع چیزی به نام آپنه ایمیل (email apnea) وجود دارد. ما وقتی ایمیل خود را میخوانیم نفس نمیکشیم. و این تاثیر زیادی روی شناخت ما دارد.
همین الان نفس بکشید. آیا قبل از اینکه نفس بکشید، متوجه شدهاید که چگونه نفس میکشید؟ وقتی در معرض نفس نکشیدن قرار میگیرید، میتوانید استرس، اضطراب و احساسات دیگر را احساس کنید. اما خیلی ساده، مادامی که توجه خود را به آن معطوف میکنید ناگهان نسبت به چیزی که شما را تحت فرمان گرفته بود، اختیار پیدا میکنید.
بنابراین در واقع توجه دوباره به چیزی که نمیتوانیم ببینیم میتواند آن چیزها را بازیابی کند. زیرا فیزیولوژی، ضربان قلب، استرس و کورتیزولِ ما بر احساسات ما و احساسات ما بر توجه و شناخت ما تأثیر میگذارد.
حالا بیایید نگاهی به مثالی بیندازیم که چگونه این موضوع بر استدلال اجتماعی ما تاثیر میگذارد.
مثال خوب آن چیست؟ تراز کردن (Leveling up). یکی از رایجترین تجربیات در مورد فناوری احساس انزوای اجتماعی است. امروزه، تنها نیمی از آمریکاییها میگویند که تعاملات اجتماعی معنادار روزانه دارند. 18 درصد اظهار میکنند که به ندرت احساس میکنند که حتی افرادی وجود دارند که میتوانند با آنها صحبت کنند.
چند نفر از شما این احساس را داشتهاید که تنها هستید، حتی نمیدانید با چه کسی تماس بگیرید و به نوعی در آن گرفتار شدهاید؟
مغز ما در استدلال اجتماعی (social reasoning) بینظیر است، اما به نوعی گیج هم هست. منظورم این است که برای یک لحظه میتوانید بگویید، خب، ما چیزهایی زیادی داریم. چرا وقتی تنها هستیم این کارها را انجام نمیدهیم؟ شاید ما این کارها را انجام نمیدهیم زیرا ترجیح آشکار ما این است که میخواهیم تنها باشیم. ما در واقع میخواهیم تنها آنجا بنشینیم! تجربه نکردهاید؟
خب، وقتی یک منوی واقعا عالی از انتخابها به ما داده نمیشود سیستم عصبی ما گیج میشود، و جایی که بار فکر کردن بر دوش ماست، هزاران امکان در برابر ما قرار میگیرد. زیرا سیگنالهای اجتماعی که مغز ما به دنبال آن است، چندان ارگونومیک نیستند.
تصور کنید که به جای انواع اطلاعاتی که مغز ما به دنبال آن است سیگنالهایی باشند که دوستانمان به ما اهمیت میدهند. بهعنوان مثال، وقتی آنها میگویند ــ هر زمان که نیاز به صحبت داشتی با من تماس بگیر مغز ما خوب عمل میکند ــ وقتی دوست ما این را میگوید ما میدانیم که چه احساسی داریم. اما مغز ما در به خاطر سپردن زمانی که احساس ناراحتی میکنیم، چندان خوب نیست.
حالا تصور کنید که فناوری به گونهای متفاوت طراحی شده باشد، مثلا این واقعیت را در مورد طبیعت انسان تشخیص دهد و زمانی که احساس تنهایی میکنید این سیگنالها را قابل مشاهده کند. خب تصور کنید که تنها هستید و منوی بازی میبینید، مثلاً یک صفحه. یا تصور کنید که مثلا فناوری و فیسبوک و این چیزها برای کمک به تعمیق آن یک یا دو رابطه طراحی شده باشند که همان روابط «در کنار یکدیگر بودن» هستند.
یا اگر حمایت از یکدیگر آسان بود چه؟ چه میشد اگر این کار به آسانی کسب اطلاعات از ویکیپدیا میبود؟ یا به آسانی وایرال شدن محتوا در رسانههای اجتماعی؟ چه میشد اگر این چیزی بود که ما میخواستیم آن را آسان کنیم؟ اگر به جای منزوی شدن، ارتباط بیشتری برقرار میکردیم میتوانستیم از یکدیگر حمایت کنیم.
این مثالی از استدلال اجتماعی بود. حالا بیایید یک سطح بالا برویم و به قطبی شدن نگاه کنیم.
خب در کدام طیف سیاسی قرار دارید. اگر فکر میکنید پیدا کردن زمینهی مشترک با افراد طیف مقابلتان آسان است دست خود را بلند کنید. در واقع سخت است که با افراد طرف مقابل، زمینهی مشترک پیدا کنیم. ما غالبا فکر میکنیم که نمیتوانیم توافق کنیم.
قطببندی از سال 1991 تا 2001، 2004 تا 2014 افزایش یافته است. بخشی از آن توسط رسانههای اجتماعی تشدید شده است. اما آیا ما واقعاً در این که نمیتوانیم توافق کنیم هم قطبی شدهایم؟ یا تجربیات ما تواناییمان را برای یافتن زمینههای مشترک موجود نشان نمیدهد؟
شاید از ما سوالات درستی پرسیده نشده است. اگر بیش از آنچه که فکر میکنیم توافق داشته باشیم چه؟ و شاید خواست رسانههای اجتماعی و فناوری است زیرا زمانی که شما این گروهها را به صورت انبوه در انواع دستهها پخش میکنید عملا جمعهای پویایی برای درک و فهم و گفتمان شکل نمیگیرد، زیرا مغز ما برای چنین شرایطی طراحی و تکامل نیافته است.
بنابراین اگر به این فکر کنید که طبیعت درخشان ذهن ما کجاست، به جایی میرسید که اساساً در یافتن زمینههای مشترک؛ آگاهی کسب میکند.
چیزهایی مانند نشستن دور آتش در پیکنیک که در آن ما به راحتی میتوانیم منطقی بودن، گشادهرویی و مدنیت را پیدا کنیم. میزهای شام که به اندازه انسان بودن قدیمی هستند. نوشیدن با یکدیگر، اینکه اندازه گروه چقدر است؟ چقدر اعتماد وجود دارد؟ چند نفر سر میز هستند؟ و چیزهایی مانند مکالمات اتاق نشیمن وجود دارند که به مغز ما سیگنالهای اعتمادی را میدهند که ما نیاز داریم، زیرا فضاهای امن کوچکی را ایجاد میکنند که در آن تعداد کمی از افراد میتوانند سوالات را در یک چارچوب مناسب وبا تسهیل گروهی خوب با دیدگاههای مختلف بسنجند ــ این در واقع مدلی است که کار کرده است. این مدل ذهنی ماست.
یا چیزهایی مانند تغییر دادن من، که در واقع از کانال Reddit بیرون آمد و متوجه شد که اگر به مردم انگیزه بدهید که بگویند ــ هی، من میخواهم دیدگاهام را تغییر دهم ــ مثلا از شما دعوت میکند تا دیدگاهش را در مورد واکسیناسیون تغییر دهید ــ مردم هم به خاطر این که پاداش بیشتری دریافت کنند واقعاً نظر یکدیگر را تغییر میدهند.
حال، اگر یافتن زمینهی مشترک آسان بود، چه؟ اگر این کار را به آسانی دسترسی به ویکیپدیا انجام دهیم، چه میشود؟ یا به سادگی وایرال شدن محتوا در رسانههای اجتماعی؟ وقتی یافتن زمینهی مشترک آسان است، چه اتفاقی در مورد قطبی شدن میافتد؟ وقتی زمینههای مشترک آسان است، چه بر سر تفکر توطئه میآید؟ وقتی یافتن زمینههای مشترک و گفتگو کردن آسانتر است، برای اعتیاد چه اتفاقی میافتد؟
البته که زمینههای مشترک دارای مزایای آبشاری موجدار است. و مهمتر از آن، برای تهدیدهای وجودی ما که به توافق و یافتن آن زمینهی مشترک بستگی دارد، چه اتفاقی میافتد؟ فضاهایی با تسهیل گروهی و با سؤالات مشترک خوب.
این نمونهای از یک نمای ارگونومیک کاملتر است که «چگونه میتوان از فناوری استفاده کرد و یک نمای ظریفتر و پیچیدهتر از طبیعت انسان را هم در نظر گرفت؟» و این به این معنی است که با پرسیدن «از چه چیزی میخواهیم محافظت کنیم» شروع کنیم. مناطقی که میخواهیم محافظت کنیم کدامند؟
مثلا از آنجایی که کودکان به طور طبیعی در بازی کردن با یکدیگر مهارت دارند، ما باید به جای جایگزین کردن آنها یا تولید جایگزینهای مصنوعی، فناوری را در اطراف این تجربیات بپیچیم. در نتیجه حاصل آن یک سیستم اجتماعی انسانی است، یعنی فناوری را مجدداً برای کار با سیستمهای اجتماعی انسانی تنظیم میکند.
تقویت درخشش طبیعت ما
اکنون ما هوش مصنوعی را داریم و باید به سمت هوش مصنوعی انسانی برویم. چگونه این کار را انجام دهیم؟ ما انباری متشکل از 2 میلیارد عروسک وودو داریم که در هر گوشهای خوابیدهاند (برای هر چهار نفر روی زمین، یک عروسک وودو داریم) و از هر کدام از آنها میتوان برای پیشبینی کامل آنچه ما را متقاعد میکند، آنچه میتواند ما را به تماشای بیشتر نگه دارد، و آنچه میتواند ما را از نظر سیاسی دستکاری کند، استفاده کرد. با این همه عروسک وودو چه کنیم؟
این نوع جدیدی از قدرت نامتقارن است. خوب پس ما به نوع جدیدی از امانتداری نیاز داریم.
اگر فناوریای دارید که میتواند شما را کاملاً تحت تأثیر قرار دهد تا هر کاری را که نیاز دارید انجام دهید، مطمئن شوید که به نفع ماست و به نفع ما عمل میکند. مثلا دستیار هوش مصنوعیای را تصور کنید که اساساً برای محافظت از محدودیتهای طبیعت انسان طراحی شده و برخلاف طرف مقابل که برای استخراج کار میکند، در راستای منافع ما عمل کند.
و در نهایت، ما باید از مشوقهای استخراجی به سمت مشوقهای احیاکننده برویم. زیرا اگر به دامنهی تحقیر و تنزل انسان، و تأثیر آن بر گستره توجه، قطبی شدن، مدنیت، اعتماد و نجابت ما نگاه کنید، نمیتوانیم این مسئله را فقط با یک سری چسبزخم حل کنیم. ما به مجموعهی جدیدی از مشوقها نیاز داریم که رقابت را برای رفع این مشکلات تسریع کند. این مانند کاری است که بازار برای حل تغییرات آبوهوایی میکند. ما به مجموعهای از انگیزههای جدید نیاز داریم که مسابقهای را در جهت عکس آن و به سمت بالا ایجاد کند تا زندگی ما را با ارزشهایمان هماهنگ کند.
ممکن است بگویید ــ خب، یک لحظه صبر کن. در مورد مدل کسبوکار چطور؟
یا که بگویید ما در حال ارائهی محصولات رایگان هستیم، برای جایگزینی این محصولات رایگان چه کار کنیم؟ عالی است! ما در حال ایجاد انزوای اجتماعی رایگان، کاهش رایگان دامنهی توجه، تخریب رایگان حقیقت مشترکمان و بی تمدن کردن رایگان هستیم. اما رایگان، گرانترین مدل کسبوکاری است که تا به حال ایجاد کردهایم.
در مقابل تصور کنید که ما انگیزههایی برای طراحی مسابقه رسیدن به اوج میداشتیم، انگیزههایی برای پیدا کردن یک تجربهی معنادار به جای رقابت برای نگه داشتن مدام شما روی صفحه نمایش. جایی که همه چیز برای اعتماد ما رقابت میکرد تا ما را به جایی که میخواهیم برساند نه فقط برای «توجه».
حدود شش سال که در گوگل بودم و این ارائه را انجام دادم و گفتم ــ هی، ما در قبال نحوه شکل دادن به توجه 2 میلیارد نفر مسئولیت اخلاقی داریم و هماکنون داریم این رقابت را تا انتهای ساقه مغز میزبانی میکنیم و باید هرچه زودتر کاری در مورد آن انجام دهیم.
زمانی که در گوگل بودم، کاملاً ناامید شده بودم. به معنای واقعی کلمه روزهایی بود که سر کار میرفتم و تمام روز ویکیپدیا میخواندم و ایمیلم را چک میکردم و نمیدانستم چگونه، وقتی چیزی به بزرگی اقتصادِ توجه و انگیزههای منحرف آن وجود دارد، چگونه میتوان سیستمی به این بزرگی را تغییر داد؟ من واقعاً احساس ناامیدی میکردم و افسرده بودم.
به کمک آزا، فرصتی پیدا کردم که یک سخنرانی TED را در زمان مناسبی ارائه کنم. و مشاهده کردم که در واقع قدرت زیادی در زبان مشترک وجود دارد. بسیاری از مردم همین احساس را داشتند، اما زبانی برای بیان آن وجود نداشت. دیدم که چگونه مفاهیم __ اقتصاد توجه، هک مغز، ربودن ذهن _ زبان و درک مشترک و صدای فراگیر یکپارچهای را ایجاد کردهاند و همه چیز میتواند شروع به تغییر کند.
افراد زیادی درباره این مشکلات صحبت کردهاند. من آنجا قدرت درک مشترک را دیدم ــ راجر مکنامی (Roger McNamee)، جارون لانیر (Jaron Lanier)، جاستین روزنشتاین (Justin Rosenstein)، که دکمه لایک را اختراع کرد، سندی پاراکیلاس (Sandy Parakilas) در فیسبوک، رنه دی رستا (Renee DiResta)، گیوم (Guillaume)، مهندس سابق یوتیوب، مارک بنیوف (Marc Benioff) - وقتی مردم شروع به صحبت می کنند و میگویند مشکلی وجود دارد، همه چیز میتواند شروع به تغییر کند.
مثلا گزارشی بود که sense media در سپتامبر 2018 منتشر کرد مبنی بر اینکه اکنون 72 درصد از نوجوانان معتقدند که برای صرف زمان بیشتر در این برنامهها دستکاری شدهاند. هیچ کس دو سال قبل از آن به این موضوع فکر هم نمیکرد.
The Verge میگوید، مناظره دربارهی مصرف درست زمان به پایان رسیده است و موضوع «مصرف درست زمان» برنده شد.
چرا این را گفتند؟ زیرا مارک زاکربرگ یک سال پیش گفته بود که ــ هدف بزرگ جدید ما این است که مطمئن شویم زمان به درستی در فیسبوک صرف میشود. اپل ویژگیهایی را راهاندازی کرد تحت عنوان آیا زمان را به خوبی سپری کردهاید تا به شما کمک کند زمان استفاده از گوشی خود را مدیریت کنید. گوگل هم همینطور. و اکنون آنها به طور پیشفرض در شب دارای مقیاس خاکستری در تلفنها هستند. اکنون شما یک میلیارد تلفن دارید که اساساً ویژگیهای کوچکی را در اختیار دارند تا زمان خوبی را صرف کنید.
بدون نوشتن هیچ خط کدی، فقط با ایجاد یک درک مشترک، میتوانید کل اکوسیستم را از جایی که هست به جایی که میخواهید منتقل کنید. با اینکه اینها قدمهای کوچکی هستند اما شروع حرکت ما به سمت رفاه را تسهیل میکنند.
اکنون اپل و گوگل بر سر اینکه چه کسی بهتر میتواند تجارب رفاهی را برای مردم فراهم کند با هم رقابت میکنند. اما ما باید آن رویهای را که بر سر یافتن نقاط درخشش طبیعت انسان رقابت میکند ارتقا دهیم. این به ما کمک میکند تا با مدل عمیقتر و پیچیدهتری از طبیعت انسان همسو شویم. این کاری است که ما باید انجام دهیم.
این یک لحظهی تاریخی است که گونهای باهوش فناوریای میسازد که آن فناوری میتواند نسخه عروسکی خالقش را شبیهسازی کند و در نهایت عروسک میتواند استاد را کنترل کند. این وضعیت بیسابقهای است.
و زمانی که بتوانیم بهطور کامل، نه فقط نقاط قوت این افراد، بلکه نقاط ضعف، صدای فراگیر محیط اجتماعی آنها، سلامت روان آنها، هنجارهای اجتماعی همه دوستانشان و جهتدهی کامل سلامت روان یک نسل نوجوان را به سمتی شبیهسازی کنیم، میتواند نقطه پایانی بر کار انسان باشد.
این لحظه، یک لحظهی تاریک، مهم و سرنوشتساز خواهد بود و میتواند پایان عاملیت انسانی باشد. این اتفاق با ناهشیار بودن نسبت به آنچه در حال وقوع است، رخ میدهد. این بدین معناست که اگر ماشین خودران اقتصاد توجه استخراجی را رها کنیم، دقیقاً خواهیم دید که به چه چیزی میانجامد، تنزل رتبهی انسان. بنابراین این ما هستیم که میتوانیم اجازه دهیم این اتفاق بیافتد.
می خواهم از شما بخواهم که همین الان نفس بکشید، زیرا وقتی نسبت به آن آگاهی پیدا کردید، ناگهان از تابع بودن به انتخاب و عاملیت میرسیم. بنابراین بیایید ببینیم چگونه این چیزها طبیعت انسان را ربودهاند و بیایید یک برنامه طراحی کنیم که آن را اصلاح کند.
ما گروهی در مرکز فناوری انسانی هستیم که میخواهیم این تغییر را ایجاد کنیم. و نقش ما حمایت از کل جامعه در تسریع این تغییر است.
تنزل رتبهی انسان مانند تغییر «اقلیم جهانی فرهنگ» است. و مانند تغییرات آب و هوایی، میتواند فاجعه بار باشد. اما برخلاف تغییرات آب و هوایی، تنها حدود هزار نفر باید کاری را که انجام میدهند، تغییر دهند. و همانطور که میتوانید حدس بزنید ــ بسیاری از ما که اینجا در این اتاق کنفرانس هستیم و بسیاری از ما که در حال تماشای (مطالعه) آن هستیم، را شامل میشود.
قدمهایی که ما پیشنهاد میدهیم به قرار ذیل هستند:
- تیمهای محصول میتوانند شروع به یکپارچه کردن و در هم تنیدن طراحی انسانی در محصولات خود کنند.
- کارگران فناوری میتوانند صدای خود را بلند کنند و هر روز کاهش رتبهی انسانی را گوشزد کنند.
- خبرنگاران میتوانند به جای رسواییها و نارضایتیها، مشکلات و راهحلهای سیستمی را روشن کنند.
- رایدهندگان میتوانند، از سیاستگذاران تقاضای تصویب قوانین اجرایی بکنند و بگویند ـ هی، ما نمیخواهیم فرزندانمان سقوط کنند.
- سیاستگذاران میتوانند با حمایت از شهروندان در تغییر خواستهها از شرکتهای فناوری به آن پاسخ دهند.
- این منجر به این میشود که سهامداران بگویند ــ هی، ما از این شرکتها تعهدی میخواهیم که از مدلهای تجاری مبتنی بر تنزل رتبهی انسانی دور شوند.
- شرکتهای سرمایهگذاری برای کمک به بشریت تغییر رویه خواهند داد.
- و کارآفرینانی که محصولات پیچیدهای در مورد انسانیت ما میسازند، اوج میگیرند و پلتفرمهایی که این مشوقها را فراهم میکنند، با هم رقابت میکنند تا به برنامهها اجازه دهند نه برای توجه، بلکه برای رقابت با هم، برای اعتماد ما و برای ترغیب ما به همسویی با ارزشهایمان رقابت کنند. درنتیجه مسابقهای رو به سمت بالا ایجاد میشود و با انجام این کارها روند از غیرممکن به اجتنابناپذیر تبدیل خواهد شد.
برای اولین بار در تاریخ، اگر به این ماشین اجازه دهیم با خلبان خودکار کار کند، یا بدون اینکه دست به اقدام عملی بازدارندهای بزنیم، فقط نسبت به آن آگاهی داشته باشیم ممکن است با پایان کارگزاری و عاملیت انسانی روبرو شویم. خبر خوب این است که این اتفاق فقط حول یک چیز میچرخد و آن این است که چگونه طبیعت انسان ربوده میشود. و هنگامی که ما از آن آگاه شدیم، حق انتخاب داریم.
و این دستور کار انسانی است که امیدواریم همه ما بتوانیم آن را پشت سر بگذاریم. با انجام این کار، شاید E.O. ویلسون بگوید که ــ ما میتوانیم احساسات پارینه سنگی خود را در آغوش بگیریم، نهادهای قرون وسطایی خود را ارتقا دهیم، تا به ما کمک کند خرد استفاده از فناوری خداگونه داشته باشیم.
قدم بعدی شما برای حرکت در این مسیر چیست؟
پایان
آنچه مطالعه کردید بخش دوم (بخش اول) ترجمه سخنرانی تریسان هریس در سال 2017 از جهت اهمیت پرداختن به فناوری انسانی است. در صورت علاقمندی می توانید ویدئوی سخنرانی را مشاهده کنید و یا برای مطالعهی متن دستنویس سخنرانی به زبان اصلی به سایت سر بزنید.
استودیوی طراحی انسانی نیز مفتخر است در راستای ترویج و آموزش مفاهیم فناوری انسانی، به پژوهش، ترجمه و تالیف و تولید محتوا پیرامون مفاهیم اساسی فناوری انسانی بپردازد و مشاوره تخصصی کسبوکارهای نوپا را نیز برعهده گیرد. |