کتی اونیل، بوستون ریویو — آیا شما هم شنیدهاید؟ روزی ما در جامعهای کامل تحت رهبری یک هوشِ مصنوعیِ همهکاره زندگی خواهیم کرد، هوشی که اثبات شده مطلقاً خیرخواه نوع بشر خواهد بود.
یعنی، اگر آن روزی که ماشینها صاحب آگاهی میشوند، زمام امور را به دست میگیرند، و ما را میکشند، همهمان نمرده باشیم، در چنین جامعهای خواهیم زیست.
شما میتوانید با این استدلال کارهای بسیار گستردهای انجام دهید، و
هواداران نوعدوستی کارآمد کمکهای خیرخواهانۀ عظیمی در سطح بینالمللی
انجام دادهاند که مایۀ اعتبار و سرافرازی آنهاست، اما وسواس نسبتبه
مفهوم کارآمدی را این واقعیت محدود میکند که رنج، همانند خیر جمعی،
بهسختی قابل کمّیسازی است.
بااینحال، بهجای اذعان به محدودیتهای اعدادِ بیحس و روح، این گروه
اخیراً بهنوعی خود را دستمایۀ تقلید و طنز قرار داده است. برخی اقلیتهای
گروه بر این باورند که، بهجای نگرانی دربارۀ رنج کنونی، آنها باید دربارۀ
ریسکهای وجودی نگران باشند، رخدادهای آیندهنگرانۀ نامحتمل که با
محاسباتی با توان ده توصیف میشوند و بنابراین میتوانند رنجهایی عظیم به
بار آورند. مثال خوبی در این زمینه را میتوان در وبسایت فیوچر آو
هیومنیتی اینستیتیوت۱۴ که نیک باستروم آن را اداره میکند یافت:
«... ما در مییابیم که مقدار مورد انتظار کاهش ریسک وجودی فقط بهاندازۀ
یک میلیاردمِ یک میلیاردمِ یک درصدْ صد میلیارد بار بیشتر از یک میلیارد
زندگی بشری ارزش دارد».
این آیندهپژوهان، بهعنوان یک گروه، اشخاصی اساساً همدل با همدیگر هستند،
اما بهطور اسفانگیزی در رابطه با مسائل بشری کنونی سادهاندیشاند. اگر
آنها دربارۀ ریسک وجودی نگران نباشند، دربارۀ رنج پلانکتونها نگران
هستند، یا شاید دربارۀ تکتک ذرات جهان.
من ایلان ماسک را در این ربع دوم قرار خواهم داد، هرچند او شرایط کامل
عضویت در این گروه را ندارد. او، که کارآفرینی قدرتمند و فوقالعاده
ثروتمند است، محتملاً به گروه نخست تعلق دارد، اما گاهی در رخدادهای جنبش
نوعدوستی کارآمد حضور مییابد و اخیراً دربارۀ این امر سر و صدا بر پا
کرده است که رایانهها خبیث میشوند و ما را وارد جنگ جهانی سوم میکنند.
بدبینانی که بین ما هستند ممکن است ظنین شوند که این عمدتاً دستاویزی است
تا او در مقام میانجی بین هوش مصنوعی فوقالعاده باهوش و آدمیان خدمات خود
را به فروش برساند هنگامی که زمان این کار بهطور گریزناپذیر فرا برسد. هر
چه باشد، ماسک همیشه چیزی برای فروش دارد، از جمله بلیط سفر به مریخ، سیارۀ
پشتیبان زمین.
ربع سوم
گروه بعدی: آنها که به تکنولوژی خوشبیناند. آنها بهطور خاص دربارۀ
تکینگی صحبت نمیکنند، اما مایلاند برای افرادی که میخواهند به آنها
باور داشته باشند، از فضایل پرشمار تکنولوژی را ستایش کنند.
این گروه تازهترین ایدهها را اخذ میکنند، برای مثال اینکه «آیا بیتکوین
مشکلات جهان را حل میکند؟»، و آن را در ازای دریافت پول موضوع یک سخنرانی
قرار میدهند. اَبَرثروتمند نیستند، اما مشتاقاند ثروتمندتر و مشهورتر
بشوند. پول را دنبال کنید و درخواهید یافت که آنها چیزی هستند که دنیل
درزنر نویسندۀ صنعت ایدهها۱۵ (۲۰۱۷) «رهبران اندیشه»
مینامد، بازرگانانِ تکایده که ثروتمندان بانفوذ به آنها پول میدهند تا
در کنفرانسهای تِد یا جاهایی شبیه تد احساس کنند خاص هستند.
این گروه پیامبران جدید سرمایه هستند، آنچنان که نیکول آشوف توصیفشان کرده
است، و هر موضوع داغ سیاستزدودهای را عرضه میکنند تا توجه
اَبَرثروتمندان را در هر دورهای به خود جلب کنند. استیو جابزِ قدیس حامی
آنهاست؛ آنان نمایندۀ رؤیای آمریکایی در دندۀ سرعت هستند، یعنی تحقیر وضع
موجود و این تصور که ما میتوانیم تمام مشکلات را حل کنیم بدون ساز و برگ
قدیمی و منسوخ اتحادیهها، آموزش عمومی، و شبکههای تأمین اجتماعی. آنها
وقتی ندارند برای پرداختن به پرسشهای دشوار نابرابری ساختاری، که با تکان
یک عصای جادویی ناپدید نمیشود.
این دسته نهتنها در واقع مشکلات را حل نمیکنند، بلکه آن نوع
آیندهپژوهانی هستند که به آشکارترین نحو چیزی برای فروش دارند: یک بینش
شرکتی، ایمان کورکورانه به غولهای صنعت، و حس موفقیت سزاوارانه. برای
مثال، آلیدا درات آیندهپژوهی که در استخدام کپیتال وان است (شرکت فعال در
زمینۀ کارت اعتباری)، در «همایش هو تک»۱۶ اخیرِ زنان همجنسگرا،
به شنوندگان توضیح میدهد که شغل او تمرکز بر «آیندههای مثبت» است، طوری
که کپیتال وان بتواند این آیندهها را به واقعیت بدل کند. معنای این سخن
بهطور کامل روشن نیست، اما من گمان نمیکنم این حرفها به معنای اعتبار
مالی مجانی برای همه باشد.
زنان بیشتری در این گروه هستند اما، در پایان، این حضور حاکی از پیشرفت
نیست. این گروه نیروی فروش چاپلوس و زبردستِ جنبش آیندهپژوهی است. هدف
آنها تسلط بر گفتوگوست و، با تکرار پیشبینیها دربارۀ آینده بهاندازۀ
کافی، موجب میشوند تا آن آینده به ایدهای عادی و ثابت در تخیل جمعی ما
بدل شود، حتی اگر آن آینده نوعی دولت نظارت با خرید خوب باشد.
ربع چهارم
سرانجام: افرادی که به تکینگیها باور ندارند، اما باز هم نگران هستند. این
گروهِ من است. در ربع چهارم، ما پولی در اختیار نداریم و نفوذ چندانی هم
نداریم. اکثریتِ ما زنان، مردان دگرباش و رنگینپوستان هستیم. ما در مؤسسات
علمیِ دادهها که در سراسر کشور در حال ظهور هستند بازنمود اندکی داریم،
زیرا اهداف مالی چنین مؤسساتی با ابراز نگرانیهای دردسر آفرین ما ناسازگار
است.
و من نگران هستم. زیرا الگوریتمهای خودکار پیشاپیش دارند جای مهمترین
فرآیندهای تصمیمگیری انسانی را میگیرند؛ از آزمونهای شخصیت گرفته که
متقاضیان شغل واجد شرایط را مشخص میکند تا الگوریتمهای ریسک تبهکاری که
قضات را متقاعد میکند تا احکام طولانیتری صادر کنند. وقتی به پیرامون
خودم نگاه میکنم، میبینم نیازی نیست تا نوعی آیندۀ فرضی را در نظر بگیریم
که در آن بشر در حال رنجکشیدن باشد. ما همین الان در آنجا هستیم.
دانشمندانِ علم دادهها در حال خلق ماشینهایی هستند که فهم کاملی از آنها
ندارند، ماشینهایی که برندهها را از بازندهها جدا میکنند بهدلایلی که
از قبل برای ما بسیار آشنا هستند: طبقه، نژاد، سن، وضعیت معلولیت، کیفیت
آموزش، و دیگر سنجههای جمعیتشناختی. این تهدیدی برای خود مفهوم پویایی
اجتماعی است. این پایان رؤیای آمریکایی است. و با وجود آن اغلب
آیندهپژوهان دارند دربارۀ خیالپردازیهای علمی تخیلی صحبت میکنند. چرا؟
یان لکان، مدیر بخش هوش مصنوعی در فیسبوک، در سخنرانی عمومی اخیر خود، با
دقت بین هوش مصنوعی و الگوریتمها تمایز مینهد. او توضیح میدهد که،
مطالعۀ بازی «گو»۱۷ قبلاً هوش مصنوعی در نظر گرفته میشد، اما
اکنون ما یک الگوریتم یادگیری ماشینی داریم که حتی بهترین انسانها را در
بازی «گو» شکست میدهد. این ترفندی موذیانه است؛ این بدان معناست که ما
هرگز دربارۀ آن چیزی سخن نمیگوییم که همین حالا در حال وقوع است. اما آنچه
همین حالا در حال وقوع است، بههیچوجه پیشپاافتاده نیست. از بازیها که
بگذریم، الگوریتم فیسبوک همین الان بهاندازهای قدرتمند است که دموکراسی
ما را منحرف کند. اگر افرادی که در حوزۀ هوش مصنوعی کار میکنند،
نمیخواهند آن را بهعنوان هوش مصنوعی در نظر بگیرند، اهمیتی ندارد.
بهعلاوه، تکنولوژیستهای ربع اول و خوشبینان به تکنولوژی در ربع سوم،
هنگام ترسیم تصویر زیبای خود از آینده، همواره به شطرنج یا «گو» اشاره
میکنند، زیرا این دو مورد از مواردی هستند که همه میتوانند بر سر
ماهیتشان به توافق برسند: بهطور مشخص، یکی برنده است و یکی بازنده. اما
اینجور شفافیت هدف و این مدل از موفقیت بسیار پیچیدهتر میشود، اگر روی
سیارهای اجرا شود که بهسرعت در حال از دستدادن منابع آب شیرین خود است و
بیش از حد سوخت فسیلی مصرف میکند. در جهانی فرضی که در آن مردم میتوانند
زندگی جاودان داشته باشند، منابع را بهطور نامحدود مصرف کنند و، با
استفاده از چارچوبهای سیاسی منسوخ، اعمال نفوذ سیاسی کنند؛ آیا ما باید
این فرصت را به آنها بدهیم؟
در پایان، طبقهبندی من (هر چقدر هم که من آن را محض سرگرمی ساخته باشم)،
واقعاً اهمیتی برای آدمهای معمولی ندارد. برای آدمهای معمولی، بین تکینگی
آنچنان که از سوی آیندهپژوهان ربع اول یا دوم تصور میشود و جهانی که در
آن آنها پیشاپیش بهشکلی پیوسته و مخفیانه به طرف «بازندۀ» هر تصمیم
خودکار رانده میشوند، تفاوتی وجود ندارد. برای فرد معمولی، این واقعاً
اهمیتی ندارد که آیا تصمیم برای نگهداشتن او در بردگی روزمزد را هوش مصنوعی
اَبَرهوشمند اتخاذ کرده است یا سیستم نهچندان هوشمندِ تعیین ساعات کار در
شرکت استارباکس. الگوریتمهایی که پیشاپیش برای افرادی نمرۀ فیکوِ۱۸
کمتری دارند، پرداخت حق بیمۀ بیشتری تعیین میکند، یا سیاهپوستان را برای
مدت بیشتری به زندان میفرستد، یا پلیسِ بیشتری روانۀ محلههایی میکنند
که از قبل پر از نیروی پلیس هستند، و دوربینهای تشخیص چهره در هر گوشه و
کنارش نصب شدهاند، همۀ اینها برای فردی که مورد قضاوت است همانند
قدرتهای قدیمی جلوه میکند.
در پایان، کل مسئله بر سر قدرت و نفوذ است. بدترین سناریو نه هوش مصنوعی
انتقامجو است، نه این که سرگئی برین آنقدر عمر نکند که تولد دویست
سالگیاش را جشن بگیرد. در بدترین سناریو، سرمایهداری دیجیتال به مسیر خود
ادامه میدهد با ابزارهایی که هماکنون در دست دارد و هر روز هم گستردهتر
میشوند، درحالیکه حتی یک نفر از طبقۀ نخبگان به چشم نمیخورد که به
ماجرا شک کرده باشد.