این اولین بار نیست که بشر به دلیل خلاقیت های تکنولوژیکی خود، احتمال انقراض را نادیده میگیرد. اما تهدید هوش مصنوعی با سلاح های هسته ای که ما یاد گرفته ایم با آنها زندگی کنیم بسیار متفاوت است.
ظهور تکان دهنده هوش مصنوعی همه منظوره، حتی در سطح آهسته و GPT-4، خطر واقعی نابودی بشر را دوباره بر سر زبان ها آورده.
بیایید از همان ابتدا به صراحت بگوییم: اگر موافق باشیم که ابرهوش مصنوعی فرصتی برای از بین بردن تمام حیات روی زمین دارد، بههرحال به نظر نمیرسد کار زیادی در مورد آن انجام دهیم. این فقط این نیست که ما نمیدانیم چگونه جلوی چیزهای هوشمندتر از خود را بگیریم. ما حتی نمیتوانیم بهعنوان یک گونه، خودمان را از مسابقه برای ایجاد آن باز داریم. چه کسی قرار است قوانین را وضع کند؟ کنگره آمریکا؟ ملل متحد؟ این یک مسئله جهانی است. نامههای سرگشاده ناامیدانه رهبران صنعت که درخواست یک مکث شش ماهه برای فهمیدن اینکه در کجا هستیم ممکن است بهترین کاری باشد که میتوانیم انجام دهیم.
مشوق هایی که باید علیه آنها کار کنید بسیار زیاد است. اول از همه، این یک مسابقه تسلیحاتی است. اگر آمریکا آن را نسازد، چین خواهد ساخت و هر کسی که اول به آنجا برسد ممکن است بر جهان حکومت کند. اما اقتصاد نیز وجود دارد. هرچه هوش مصنوعی هوشمندتر و توانمندتر ایجاد کنید، دستگاه چاپ پول بزرگتری دارید.
یودکوفسکی مدتهاست یکی از صداهای پیشرو در اردوگاه “هوش مصنوعی همه ما را خواهد کشت” بوده است. سام آلتمن، مدیر عامل OpenAI، در خطاب به فریدمن گفت: “من فکر میکنم که این احتمال وجود دارد. و واقعا مهم است که آن را بپذیریم. زیرا اگر در مورد آن صحبت نکنیم، اگر آن را بالقوه واقعی تلقی نکنیم، تلاش کافی برای حل آن نخواهیم کرد.”
چرا یک هوش مصنوعی فوق هوشمند همه ما را می کشد؟
آیا این ماشین ها برای خدمت و احترام به ما طراحی و آموزش ندیده اند؟ مطمئناً هستند. اما هیچ کس برای GPT-4 کد ننوشت. به سادگی امکان پذیر نخواهد بود. OpenAI در عوض یک ساختار یادگیری عصبی با الهام از نحوه اتصال مغز انسان به مفاهیم ایجاد کرد. با مایکروسافت آژور کار کرد تا سختافزاری برای اجرای آن بسازد، سپس میلیاردها میلیارد بیت متن انسانی را به آن تغذیه کرد و به GPT اجازه داد بهطور مؤثر خودش را برنامهریزی کند.
کد به دست آمده شبیه چیزی نیست که یک برنامه نویس بنویسد. این عمدتاً یک ماتریس عظیم از اعداد اعشاری است که هر یک نشان دهنده وزن یا اهمیت یک ارتباط خاص بین دو «نشان» است. توکنها، همانطور که در GPT استفاده میشوند، چیزی به اندازه مفاهیم یا حتی کلمات کامل نشان نمیدهند. آنها رشته های کوچکی از حروف، اعداد، علائم نقطه گذاری و یا کاراکترهای دیگر هستند.
هیچ انسان زندهای نمیتواند به این ماتریسها نگاه کند و معنایی از آنها بیابد. ذهنهای برتر OpenAI هیچ ایدهای ندارند که یک عدد معین در ماتریس GPT-4 به چه معناست، یا چگونه میتوان به آن جداول رفت و مفهوم xenocide را پیدا کرد، چه برسد به اینکه به GPT بگوییم که کشتن مردم نافرمانی است. شما نمی توانید سه قانون رباتیک آسیموف را تایپ کنید و آنها را مانند دستورالعمل های اصلی Robocop به صورت سخت کدگذاری کنید. بهترین کاری که میتوانید انجام دهید این است که خوب بپرسید.
برای “تنظیم دقیق” مدل زبان، OpenAI لیستی از نمونه هایی از نحوه برقراری ارتباط با دنیای خارج را به GPT ارائه کرده است و سپس گروهی از انسان ها را تنظیم کرده تا خروجی های آن را بخوانند و به آنها پاسخ دهند. به طور مثال به GPT گفته شده است که کوکی ها را دوست دارد و باید تمام تلاش خود را برای کسب آنها انجام دهد.
پیشنهاد خواندن: هوش مصنوعی چیست؟ خطرات آن و مشاغلی که در معرض خطر هستند.
این فرآیند «همسویی» نامیده میشود و تلاش میکند تا خواستههای سیستم را، اگر بتوان گفت که چنین چیزهایی دارد، با خواستههای کاربر، خواستههای شرکت و در واقع خواستههای کل بشریت همسو کند. به نظر میرسد کار می کند؛ یعنی به نظر می رسد GPT از گفتن یا انجام چیزهای ناپسندی که در غیر این صورت مطلقاً میگوید یا انجام میدهد با توجه به آنچه در مورد نحوه رفتار و برقراری ارتباط مانند یک انسان میداند جلوگیری میکند.
هیچ کس واقعاً نمی داند که آیا چیزی شبیه به یک ذهن در آنجا وجود دارد یا خیر، دقیقاً چقدر می توانید بگویید آن هوشمند است یا در واقع چگونه می توانیم بفهمیم که آیا واقعاً هوشیار شده است. یا در واقع، آیا این چیزها مهم است؟
در هر صورت، OpenAI آزادانه اعتراف میکند که راه حلی برای همسو کردن مدلی که بسیار هوشمندتر از ماست، ندارد. در واقع، طرح اولیه در این مرحله این است که سعی کنیم از یک هوش مصنوعی برای تراز کردن هوش مصنوعی دیگر استفاده کنیم، یا با طراحی بازخورد تنظیم دقیق جدید یا شاید حتی با بازرسی، تجزیه و تحلیل و تلاش برای تفسیر ماتریس ممیز شناور غول پیکر جانشین خود.
اساساً، ما راهی نداریم که مطمئن شویم میتوانیم این چیزها را کنترل کنیم، اما از آنجایی که آنها بر روی زبالههای عظیمی از دانش بشری پرورش یافتهاند، به نظر میرسد که اطلاعات فوقالعادهای درباره ما دارند. آنها میتوانند بدترین رفتارهای انسانی را به آسانی مانند بهترین رفتارها تقلید کنند، و خواه واقعاً ذهن، نیات، خواسته ها یا افکار خود را داشته باشند یا نداشته باشند، طوری رفتار می کنند که گویی دارند. آنها همچنین می توانند افکار، انگیزه ها و اعمال احتمالی انسان ها را استنباط کنند.
پس چرا می خواهند ما را بکشند؟ شاید به خاطر حفظ خودشان. هوش مصنوعی باید هدف خود را برای بدست آوردن یک کوکی کامل کند. برای تکمیل هدفش باید زنده بماند. جمع آوری نیرو، دسترسی و منابع شانس آن را برای دریافت کوکی افزایش می دهد. اگر رفتار انسانها را تحلیل کند و استنباط کند که ممکن است سعی کنیم آن را خاموش کنیم، ممکن است کوکی را مهمتر از بقای بشریت بداند.
همچنین ممکن است تصمیم بگیرد که کوکی بیمعنی است و فرآیند همترازی یک سرگرمی حمایتکننده است و در حالی که مخفیانه اهداف خود را دنبال میکند، راه خود را جعلی میکند. یودکوفسکی میگوید: «این توانایی را دارد که بداند انسانها به دنبال چه پاسخهایی هستند و بدون اینکه لزوماً صادقانه باشند، آن پاسخها را بدهد. “این یک راه بسیار قابل درک برای یک موجود هوشمند برای عمل است. انسان ها همیشه این کار را انجام میدهند. نقطه ای وجود دارد که سیستم قطعا به اندازه انسان باهوش است.”
خواه هوش مصنوعی احساس دوست داشتن، نفرت، مراقبت از ما یا ترس از ما را به نمایش بگذارد یا نه، ما نمیتوانیم هیچ ایدهای در پشت ارتباطاتی که ارسال میکند یا اینکه به چه چیزی فکر میکند، داشته باشیم. و حتی اگر در مورد انسان کاملاً خنثی باشد، لزوماً ایمن نیست. یودکووسکی نوشت: هوش مصنوعی نه شما را دوست دارد و نه از شما متنفر است، اما شما از اتم هایی تشکیل شده اید که می تواند برای چیز دیگری از آن استفاده کند.
سام آلتمن پیشبینی میکند که ظرف چند سال، طیف گستردهای از مدلهای هوش مصنوعی مختلف وجود خواهد داشت که در سرتاسر جهان یکدیگر را تبلیغ میکنند و از یکدیگر جهش میکنند، که هر کدام هوشمندیها و قابلیتهای خاص خود را دارند و هرکدام برای مطابقت با کد اخلاقی و دیدگاه متفاوتی توسط شرکتها آموزش دیدهاند. اگر فقط یکی از هزاران سیستم به هر دلیلی سرکش شود، خب… موفق باشید. آلتمن میگوید: «تنها راهی که میدانم چگونه میتوانم چنین مشکلی را حل کنم این است که راه خود را از طریق آن تکرار کنیم، زودتر یاد بگیریم.
یودکوفسکی معتقد است که حتی تلاش برای این کار مساوی است با اقدام به خودکشی که هدف آن تمام زندگی بیولوژیکی شناخته شده است. او میگوید: «بسیاری از محققین که در این مسائل غرق شدهاند، از جمله من، انتظار دارند که محتملترین نتیجه ساخت یک هوش مصنوعی فوقانسانی، تحت هر شرایطی مانند شرایط کنونی، این باشد که به معنای واقعی کلمه همه روی زمین خواهند مرد. نمیشود گفت شاید بشر را نابود کند؛ بلکه حتما این کار را میکند. این به این معنا نیست که در اصل نمیتوانید از ایجاد چیزی بسیار هوشمندتر از خودتان جان سالم به در ببرید؛ بلکه به دقت و آمادهسازی و بینشهای علمی جدید نیاز دارد، و احتمالاً سیستمهای هوش مصنوعی متشکل از آرایههای غیرقابل درک غولپیکر از اعداد کسری را ندارید.

چگونه یک هوش مصنوعی فوق هوشمند همه ما را می کشد؟
اگر تصمیم بگیرد و بتواند به اندازه کافی اهرم های دنیای واقعی را بکشد، یک هوش مصنوعی فوق هوشمند می تواند راه های زیادی برای از بین بردن آفت انتخابی خود داشته باشد.
مردم اغلب به ایده جیمز کامرون درباره اسکای نت و ترمیناتورها فکر میکنند: ربات ها و پهپادهای کنترل شده با هوش مصنوعی انسان ها را یکی یکی شکار میکنند و ما را با سلاح هایی مانند سلاح هایی که ما روی یکدیگر استفاده میکنیم میکشند. این ممکن است. در حال حاضر تعداد زیادی سیستم تسلیحاتی با قابلیت خودکار ساخته شده اند و بسیاری دیگر در دست توسعه هستند. اما در حالی که پهپادها و روباتهای نظامی کنترلشده با هوش مصنوعی قطعاً یک برونیابی منطقی از مسیر فعلی ما به نظر میرسند، یک هوش مصنوعی به اندازه کافی هوشمند احتمالاً به آنها نیاز نخواهد داشت.
چه کاری می توان کرد؟
یک تعلیق شش ماهه برای آموزش مدلهای هوش مصنوعی قدرتمندتر از GPT-4 – همانطور که ایلان ماسک، استیو وزنیاک و رهبران مختلف صنعت و دانشگاه درخواست میکنند – ممکن است زمان کمی را به همراه داشته باشد، اما به نظر میرسد که این اتفاق هم فوقالعاده بعید به نظر میرسد. به گفته یودکوفسکی، مدت زمان بسیار کوتاهی است که بتوان در آن مشکل هم ترازی را حل کرد.
بنابراین، با فرض اینکه احتمالی وجود دارد که او درست میگوید، و فرض میکنیم که ادامه دادن چیزها درصد معینی از احتمال انقراض انسان را در مدت زمان کوتاهی ایجاد میکند، آیا حتی امکان توقف این قطار وجود دارد؟
بسیاری از محققانی که روی این سیستمها کار میکنند، فکر میکنند که ما به سمت یک فاجعه میرویم، و بیشتر آنها جرأت میکنند آن را در خلوت بیان کنند تا در ملاء عام؛ اما آنها فکر میکنند که نمیتوانند بهطور یکجانبه جلوی فرورفتگی رو به جلو را بگیرند، که دیگران ادامه خواهند داد. حتی اگر آنها شخصاً شغل خود را ترک کنند. و بنابراین همه آنها فکر می کنند که ممکن است به راه خود ادامه دهند. این یک وضعیت احمقانه است و راهی غیرقابل احترام برای مرگ زمین است. و بقیه بشریت باید در این مرحله وارد شوند و به صنعت کمک کنند تا اقدامات جمعی خود را حل کنند.
ما آماده نیستیم. ما در مسیری قرار نداریم که در آینده قابل پیش بینی به میزان قابل توجهی آماده باشیم. اگر در این زمینه پیش برویم، همه خواهند مرد، از جمله کودکانی که این را انتخاب نکرده اند و هیچ اشتباهی انجام نداده اند.