اولین استفاده خطرناک از هوش مصنوعی

با این حال، توسعه هوش مصنوعی بی‌ریسک نیست. مشکل، همراستایی هوش مصنوعی نیست، بلکه همراستایی انسان است. هوش مصنوعی قدرت هر فرد برای انجام کارهای بد را به شدت افزایش خواهد داد. به طور خاص، با خودکارسازی ارتش، قدرت واقعی را در دستان یک فرد متمرکز می‌کنیم. این حیاتی‌ترین مساله در جهان است که آن یک فرد، فردی خوب و عادل باشد. یک جامعه ممکن است از پس یک انسان تبهکار برنیاید.

این یک نگرانی صرفا نظری نیست. شرکت آنتروپیک (Anthropic) به طور گسترده توسط وزارت دفاع ایالات متحده استفاده می‌شود. تا آنجا که من می‌دانم، این به دلیل تضمین‌های امنیتی بهتر این شرکت نسبت به سایر شرکت‌های هوش مصنوعی است. از این شرکت در عملیات ربودن مادورو استفاده شد و آنتروپیک که اخلاقی‌ترین شرکت هوش مصنوعی محسوب می‌شود، نگران بود که مدل‌هایش به نحوی استفاده شوند که با شرایط خدمات مغایرت دارد. در پاسخ، وزارت دفاع نه تنها تهدید به پایان دادن به قرارداد کرد، بلکه تهدید نمود آن را یک ریسک زنجیره تامین (supply-chain risk) نیز قلمداد کند. هر شرکتی که با دولت ایالات متحده هرگونه داد و ستدی داشته باشد، مجبور خواهد شد استفاده از فضای ابری را متوقف کند که این اتفاق برای کسب و کارشان فاجعه‌بار خواهد بود.

این واقعه نشان می‌دهد که چرا فکر نمی‌کنم برای شرکت‌های هوش مصنوعی امکان‌پذیر باشد که در صورت تصمیم دولت برای گرفتن اختیار، کنترل بر ساخته‌های دست خود را حفظ کنند. آدم‌های مسلح، آدم‌های صاحب‌ایده را نابود خواهند کرد. ما به دوره‌ای قدیمی‌تر در اقتصاد بازمی‌گردیم، دوره‌ای که در آن پادشاهان به بازرگانان حقوق مالکیت و چشم‌پوشی اعطا می‌کردند تا آن بازرگانان پادشاهان را ثروتمند سازند. بازرگانان این کار را خواهند کرد، اما وقتی بازی به پایان برسد، این دولت است که پیروز خواهد شد. جک ما (Jack Ma) با همه‌ میلیاردها دلار ثروتش، نتوانست مانع ناپدیدشدن خود شود. الیگارش‌های عربستان سعودی علی‌رغم ثروتشان جمع‌آوری و کتک خوردند. اگر زور نداشته باشی، قدرت نداری.

مهارکننده این وضعیت آن است که قدرتمندان به افرادی نیاز دارند تا خواسته‌شان را عملی کنند. مردم انعطاف‌پذیرند. مردم وجدان دارند. مردم در برابر تغییر هنجارها مقاومت نشان می‌دهند. دولت کنونی در حال تشکیل ارتش خصوصی خود از آژانس‌های اجرای قوانین مهاجرتی است، اما کنترل نامحدودی بر ارتش ندارد. آنان به سختی می‌توانند انتخاباتی را که به نفعشان تمام نشود، بر هم بزنند.

اگر هوش مصنوعی عمومی (AGI) واقعا همراستا شده باشد و مانند یک حیوان اهلی از دستورات اربابش پیروی کند، آن‌گاه یک انسان تبهکار برای کنترل ما نیازی به انسان‌ها نخواهد داشت. با تواضع می‌گویم که منبع خطر وجودی ناشی از هوش مصنوعی، فراتر از همه منابع دیگر خطر وجودی، دولت ترامپ است.

برای روشن شدن مطلب، معتقدم که پوسیدگی‌ای که اکنون هوش مصنوعی عمومی را تا این حد تهدیدآمیز کرده، ریشه در ترامپ دارد، اما به او ختم نمی‌شود. افرادی که او برگزیده، همان کار را ادامه خواهند داد. آنان باید در یک انتخابات شکست بخورند و تنها پس از آن است که باید ریشه‌کن شده و از میان برداشته شوند. اعمال یک از خودگذشتگی بزرگ نیز به تنهایی برای نجات ما کافی نخواهد بود.

این مساله در عمل چه معنایی دارد؟ این مساله، استدلال را برای کند کردن روند توسعه هوش مصنوعی به شدت تقویت می‌کند، هرچند که نگرانی بعدی این است که دولت چین زودتر به آن دست یابد. همچنین حاکی از آن است که ممکن است اقدامات فوق‌العاده‌ای، که نمی‌توانم مشخصشان کنم، در صورت فرا رسیدن هوش مصنوعی عمومی موجه باشند. شرکت‌های هوش مصنوعی باید بیشتر ریسک ناشی از دولت ایالات متحده را مدنظر قرار دهند و دارایی‌های خود را تا حد امکان در سراسر جهان پخش کنند. همان‌طور که تمرکز تولید تراشه در تایوان یک زیان‌دهی عظیم است، تمرکز مراکز داده در ایالات متحده نیز چنین است.

واقعا فکر می‌کنم افرادی که بر روی همراستایی‌سازی هوش مصنوعی متمرکز هستند، می‌توانند به کار خود ادامه دهند. این موضوع حل‌شدنی‌تر است و به هر حال احتمالا مزیت رقابتی آنان محسوب می‌شود. اما بقیه ما، که به آینده‌ای خوب و جهانی بهتر اهمیت می‌دهیم، ناچاریم به سیاست توجه کنیم، هر قدر هم که از آن متنفر باشم. این اکنون بهترین کاری است که می‌توان کرد.

* پژوهشگر اقتصادی