استیون هاوکینگ: خطر نابودی انسان به دست خود، کاملا جدی است
استیون هاوکینگ، این روزها روی خطراتی که نسل بشر و نسل دیگر موجودات زنده را تهدید میکنند تمرکز کرده و معتقد است خودمان بزرگترین خطر هستیم.
به گزارش تدبیرشرق، استیون هاوکینگ، یکی از مهمترین شخصیتهای علمی امروز است. او معمولا در مورد موضوعات مختلفی صحبت میکند. شاخهی اصلی کار او فیزیک نظری است؛ اما در بسیاری از موضوعات دیگر نیز صاحب نظر است. موضوعاتی که هاوکینگ بیشتر در مورد آنها صحبت میکند، شامل جستجو برای حیات فرازمینی، تغییرات اقلیمی و هوش مصنوعی هستند. نکتهی اصلی صحبتهای او در مورد این است که هر کدام از این موضوعات چگونه میتوانند باعث خاتمه یافتن نسل بشر شود.
نظریهی پایان
هاوکینگ در یکی از سخنرانیهایش در دانشگاه کمبریج گفت:
در زمین دیگر به اندازهی کافی جا برای زندگی ما وجود ندارد. جمعیت جهان در حال افزایش است و به مرز هشدار رسیده و ما در خطر نابودی خود به دست خودمان هستیم.
هاوکینگ متوجه بدبینی شدید در سخنانش شد. وی با استناد به طرح برکسیت (طرح انگلستان برای ترک اتحادیهی اروپا) گفت:
اصلا در مورد وضعیت جانداران در بلندمدت خوشبین نیستم.
دوروود زالک، مؤسس و رئیس سیاستگذاری و پیشرفت (IGSD: سازمانی که پروژهای باعنوان ترفیع اجتماعات و حفظ و نگهداری محیط بهوسیلهی پیشرفت علم و تکنولوژی در دستور کار دارد)، در مورد انتقادهای هاوکینگ صحبت کرده است. او سخنان خود را با این جمله آغاز کرد:
آقای هاوکینگ به نکتهی درستی اشاره کرده است. ما با مشکلی مواجه هستیم که سریعا تغییر شکل میدهد. شرایط اقلیمی بهسرعت تغییر میکنند و راه حلهایی که برای حل این مسئله پیش روی ما هستند، بهکندی عمل میکنند و ما هر روزه بسیاری از آنها را پشت سر میگذاریم. همانگونه که جمعیت رو به انفجار میرود، تأثیرات مخرب انسان روی محیط زیست بدتر میشود.
زالک درست مانند هاوکینگ، بر این باور است که در حال نزدیک شدن به نقطهی بحران هستیم؛ یعنی نقطهای که تغییرات اقلیمی غیر قابل بازگشت باشند. صحبتهای زالک بسیار ناراحتکننده هستند. او اینگونه ادامه داد:
بهزودی به مرحلهی هرجومرج اقلیمی خواهیم رسید که تمدن و سیاست دموکراتیک ما را تهدید خواهد کرد؛ تا جایی که این هرجومرج، حکومتهای دیکتاتور و مستبد را نیز تهدید خواهد کرد.
هاوکینگ به تمامی انسانها پیشنهاد میکند که برای نجات از نابودی سعی کنند از محدودهی سیارهی زمین خارج شوند. وی در مصاحبهای با BBC در ماه ژوئن گفت:
رفتن از زمین تنها راهی است که میتواند ما را از خطر خودمان حفظ کند. من باور قطعی دارم که انسان باید زمین را ترک کند.
کوچ کردن به سایر نواحی منظومهی شمسی کمک میکند که بتوانیم فشار جمعیت روی زمین را کم کنیم و میزان تولید دیاکسید کربن را کاهش دهیم. با وجود راه حلی که برای این مشکل وجود دارد، هاوکینگ به مشکل دیگری اشاره میکند که ممکن است هیچگونه راه حلی برای آن وجود نداشته باشد.
هوش مصنوعی بهعنوان یک نابودکننده
استیون هاوکینگ همیشه دربارهی هوش مصنوعی بهعنوان نابودکنندهی حقیقی نسل بشر صحبت میکند. او در مصاحبهای مجلهی WIRED، گفت:
دیگر کار از کار گذشته است. من از اینکه روزی هوش مصنوعی جای انسان واقعی را بگیرد در هراسم.
ترس هاوکینگ از این است که هوش مصنوعی بسیار کارآمدی بسازیم. بهگفتهی خود او:
یک ابرهوش مصنوعی، میتواند در رسیدن به اهداف خود بسیار توانمند باشد که اگر با اهداف انسانی همراستا نباشند، در دردسر بزرگی خواهیم افتاد.
حاصل این کار فقط خشونت ضد نسل بشر است؛ چه با نام علم به آن پرداخته شود و چه با نام تکنولوژی.
ایلان ماسک، بنیانگذار OpenAI و مدیر اجرایی تسلا، از تأثیرات مخرب هوش مصنوعی ابراز نگرانی میکند. سخنان ماسک بسیار متعادلتر از سخنان هاوکینگ بوده است؛ چرا که از نظر هاوکینگ، خطر هوش مصنوعی از خطر کرهی شمالی بیشتر است و بیشتر بهلزوم ساماندهی سیستمهای هوش مصنوعی ارتباط دارد. بهگفتهی ماسک:
هوش مصنوعی، نوعی از تکنولوژی است که از نظر سیستمهای سیاسی خطر چندانی نمیتواند داشته باشد.
هاوکینگ باور دارد که دستگاههای سیاسی جهان باید تکنولوژی را کنترل کنند تا از شورش و طغیان ماشینهای ساختهی بشر جلوگیری کنند.
پاسکال کافمن، رئیس مؤسسهی هوش مصنوعی و بنیانگذار Mindfire، پرخطر بودن هوش مصنوعی برای نسل بشریت را کاملا انکار میکند. کافمن در مصاحبهای در مورد خطر پیشرفت هوش مصنوعی، گفته است:
این ترس و واهمهها با واقعیت سازگار نیست.
او در ادامه ادامه توضیح میدهد:
زمانی که در مورد هوش مصنوعی صحبت میشود، اولین چیزی که به ذهن میرسد، بردگی ما بهوسیلهی دستساختهی خودمان است. این ذهنیت فقط برای ساخت فیلمهای سرگرمکننده مناسب است و هیچ ربطی به واقعیت و اینکه نباید در راه ساخت هوش مصنوعی قدم گذاشت، ندارد.
با این وجود، کافمن امکان خطر داشتن این تکنولوژی را رد نمیکند. به گفتهی او:
معمولا خطرهایی با چنین تکنولوژی قدرتمندی همراه هستند؛ همانگونه که هر وسیلهی قدرتمند دیگری خطرهایی به دنبال دارد. اما این موضوع به این معنی نیست که باید به تفکرات منفی بهای بیشتری بدهیم و طبق آنها کارها را سامان ببخشیم.
شاید راهی باشد که بتوان ترسهای غیر منطقی را از ترسهای منطقی جدا کرد. نظر هاوکینگ در مورد خطر تهدیدآمیز تغییر اقلیمی کاملا درست است. شاید اگر انسانها به واقعیت علمی تغییر اقلیم بیشتر اهممیت میدادند، میتوانستیم سیارهی خودمان را از خطر نابودی نجات بدهیم و به شرایط قبلی برگردانیم.