پیشنهادی فروشگاه فایل کارینت
خبرخوان

سوال میلیون دلاری: هوش مصنوعی چگونه می‌تواند همه ما را بکشد؟

پایپر نگران خطرات فاجعه بار جهانی است و روزنامه نگاری را راهی برای عمومیت بخشیدن به این خطرات و پیشبرد علت رسیدگی به آن می‌داند. به طور خاص پایپر درباره این امکان بحث کرده که جامعه در پرتگاهی تاریخی زندگی می‌کند جایی که باید اقدامات فوری برای اجتناب از خطرات فاجعه بار جهانی انجام شود و این که آن خطرات چه پیامد‌هایی برای نوع دوستی موثر دارد. پایپر جزو اولین افرادی بود که نسبت به پاندمی کووید – ۱۹ واکنش نشان داد و در مورد خطر بروز یک پاندمی جهانی جدی در فوریه ۲۰۲۰ میلادی بحث کرد و اقداماتی مانند پوشیدن ماسک و فاصله گذاری اجتماعی را در مارس همان سال توصیه کرده بود.

 

به گزارش وُکس؛ چهار سال پیش یکی از بحث برانگیزترین مقالات ام را نوشتم. در آن مقاله استدلال کرده بود که تغییرات آب و هوایی در حالی که در دنیایی که در آن زندگی می‌کنیم بسیار بدتر می‌شود و به طور مستقیم و غیر مستقیم به مرگ میلیون‌ها نفر می‌انجامد به زندگی انسان روی زمین پایان نخواهد داد.

این استدلال از نظر علمی بحث برانگیز نیست. این دیدگاه با پیش بینی‌های هیئت بین دولتی تغییرات آب و هوایی (IPCC) و با دیدگاه اکثر دانشمندان آب و هوا سازگار است. برخی از پژوهشگران سناریو‌های دامنه ریسک را مطالعه می‌کنند که در آن گرم شدن سیاره زمین بسیار فاجعه بارتر از آن چه پیش بینی می‌شود خواهد بود. فکر می‌کنم مطالعه آن ارزشمند است، اما تحقق این سناریو‌ها بسیار بعید به نظر می‌رسند.

 

بنابراین، دلیل بحث برانگیز بودن این استدلال که تغییرات آب و هوایی احتمالا تهدیدی برای پایان دادن به گونه‌ها نیست به دلیل علم نیست. من به توانایی مان برای حل مشکلات بدون اغراق در مورد آن باور دارم و به توانایی مان برای حل مشکلات در حالی که در مورد آن اغراق می‌کنیم باوری ندارم. برای رفع آن مشکل به تصویر واضحی از آن چه قرار است رخ دهد نیاز دارید.

 

هوش مصنوعی، جنگ هسته‌ای و پایان جهان

این موضوع اخیرا در ذهن من بوده، زیرا این مورد که هوش مصنوعی یک خطر وجودی برای بشریت ایجاد می‌کند که از سال ۲۰۱۸ درباره آن نوشته ام به جریان اصلی تبدیل شده است. “الیزر یودکوفسکی” پژوهشگر ایمنی هوش مصنوعی در مقاله‌ای در نشریه “تایم” نوشته بود: “محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق انسانی هوشمند تحت هر شرایطی که از راه دور شبیه وضعیت فعلی باشد این است که به معنای واقعی کلمه همه بر روی زمین جان شان را از دست خواهند داد”.

 

او استدلال کرد که ضرورت جدی برای تنظیم مقررات بین المللی تازه علیه ساخت سیستم‌های هوش مصنوعی قدرتمند وجود دارد حتی اگر اجرای مقررات به معنای اعمال جنگ علیه کشور‌هایی باشد که به آن عمل نمی‌کنند. این نظر از دید بسیاری نسبتا ظالمانه بود. حتی اگر متقاعد شده باشید که هوش مصنوعی ممکن است کاملاً خطرناک باشد بعید به نظر می‌رسد که آن را واقعا تا آن سطحی کشنده قلمداد کنید که ارزش پذیرش ریسک بروز یک جنگ را داشته باشد (جنگ‌ها برای آینده تمدن بشری نیز خطرناک هستند به ویژه جنگ‌هایی که دارای این ظرفیت بالقوه هستند که به تبادل هسته‌ای تبدیل شوند).

 

یودکوفسکی می‌گوید: “هوش مصنوعی کنترل نشده فوق بشری احتمالا به تمام زندگی روی زمین پایان می‌دهد”. او استدلال کرد یک جنگ هسته‌ای علیرغم آن که بسیار بد خواهد بود این کار را انجام نمی‌دهد و اشاره کرد ما نباید خواستار جنگ هسته‌ای شویم، اما اشتباه است که اجازه دهیم ترس از جنگ ما را از قراردادن قرارداد‌های بین المللی در مورد هوش مصنوعی باز دارد.

 

با این وجود، هر دو بخش استدلال او بحث برانگیز است. یک جنگ هسته‌ای ویرانگر خواهد بود و میلیون‌ها نفر را به طور مستقیم به کام مرگ خواهد فرستاد. هم چنین، اگر طوفان‌های آتش سوزی ناشی از انفجار‌های هسته‌ای دمای سیاره زمین را در مدت زمان طولانی کاهش دهند می‌تواند فجحعه بارتر باشد احتمالی که در میان متخصصان علوم جوی مورد بحث است.

 

به نظر می‌رسد اجتناب از جنگ هسته‌ای باید یکی از بالاترین اولویت‌های بشریت باشد، اما بحث در مورد این که آیا “زمستان هسته ای” در نتیجه مبادله هسته‌ای حاصل می‌شود یا خیر بحثی بی معنی نیست. یکی از راه‌هایی که می‌توانیم احتمال مرگ میلیارد‌ها نفر از گرسنگی جمعی را کاهش دهیم کاهش زرادخانه‌های هسته‌ای امریکا و روسیه است که بسیار کوچک‌تر از دوران اوج جنگ سرد بودند، اما اخیرا دوباره در حال افزایش هستند.

 

آیا هوش مصنوعی یک خطر وجودی است؟

در مورد این که آیا هوش مصنوعی همه ما را از بین خواهد برد حقیقت این است که پاسخ به این پرسش واقعا فوق العاده دشوار است. دانشمندان علوم اقلیمی به طور کلی موافق هستند که تغییرات آب و هوایی همه ما را نمی‌کشد اگرچه عدم اطمینان قابل توجهی در مورد این که کدام سناریو‌های دامنه ریسک قابل قبول هستند و تا چه میزان قابل قبول می‌باشند وجود دارد. پژوهشگران جنگ هسته‌ای در مورد این که آیا زمستان هسته‌ای از جنگ هسته‌ای به وجود می‌آید یا خیر اختلاف نظر شدیدی با یکدیگر دارند.

 

با این وجود، هر دوی این اختلافات در مقایسه با میزان اختلاف نظر بر سر تاثیرات هوش مصنوعی کمرنگ و ناچیز به نظر می‌رسند. شبکه خبری “سی بی اس” اخیرا از “جفری هینتون” دانشمند که پدرخوانده خوش مصنوعی نامیده می‌شود در مورد ادعا‌هایی مبنی بر اینکه هوش مصنوعی می‌تواند بشریت را از بین ببرد پرسشی را مطرح کرد.

 

هینتون گفته بود: “غیرقابل تصور نیست. این تنها چیزی است که من می‌گویم. من همین موضوع را از بسیاری از کارشناسان دیگر شنیده ام. به نظر می‌رسد که ریسک‌های بالا واقعا بر روی میز قرار دارند. البته کارشناسان دیگر اصرار دارند که هیچ دلیلی برای نگرانی وجود ندارد”.

 

پس سوال میلیون دلاری این است که چگونه هوش مصنوعی می‌تواند ما را از بین ببرد اگر حتی یک جنگ هسته‌ای یا یک پاندمی گسترده یا تغییر قابل توجه دمای جهانی این کار را انجام ندهد. با این وجود، حتی اگر بشریت بسیار سرسخت باشد بسیاری از گونه‌های دیگر روی زمین وجود دارند که می‌توانند به شما بگویند یا می‌توانستند پیش از انقراض به شما بگویند که تمدن هوشمندی که به شما اهمیتی نمی‌دهد می‌تواند به طور کامل زیستگاه تان را برای بزرگراه هایش بسازد یا به این معنا که هوش مصنوعی شاید کل زیست کُره (بیوسفر) را برای استفاده در پروژه‌های تمدن هوش مصنوعی خرد کند.

 

به نظر می‌رسد که به طور اصولی انجام مبادلات پرمخاطره مانند این بسیار دشوار است. سیاستگذاران نمی‌دانند برای درک خطرات توسعه هوش مصنوعی به کدام متخصصان مراجعه کنند و هیچ اجماع علمی‌ای برای راهنمایی آنان وجود ندارد. یکی از بزرگترین نکات من در اینجا آن است که ما باید بیش‌تر بدانیم. اتخاذ تصمیمات خوب بدون درک واضح‌تر از آن چه می‌سازیم این که چرا آن را می‌سازیم و چه چیزی ممکن است اشتباه پیش برود غیرممکن به نظر می‌رسد.

امتیاز بدید
‫0/5 ‫(0 نظر)
مشاهده بیشتر

تحریریه کارینت

مطالب فناوری، آموزشی، ترفند های وب و موبایل و کلی مطلب دیگه رو در وبلاگ کارینت دنبال کنید :) | ما را در تلگرام دنبال کنید (@karynet)

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا