به گزارش آتیه آنلاین و به نقل از اکونومیست؛ در سال ۱۹۴۵، درست قبل از آزمایش اولین بمب هستهای در صحرای نیومکزیکو، «انریکو فرمی»، یکی از فیزیکدانانی که به ساخت آن کمک کرده بود، با دانشمندان دیگر درباره این که «آیا گرمای بیسابقه انفجار، آتشسوزی هستهای را در جو ایجاد میکند یا نه» شرطبندی کرد. اگر چنین است، آیا طوفان آتش تنها نیومکزیکو را نابود خواهد کرد؟ یا اینکه تمام دنیا را درخواهد نوردید؟ البته آن آزمایش آنقدرها هم که شرطبندی شیطنتآمیز «فرمی» انتظار داشت بیپروا نبود؛ «هانس بته»، فیزیکدان دیگری محاسبه کرده بود که چنین دوزخی تقریباً غیرممکن است.
این روزها، نگرانی در مورد «خطرات وجودی برای انسان» یعنی آنهایی که تهدیدی برای بشریت به عنوان یک گونه جانوری است، به دانشمندان نظامی محدود نمیشود. جنگ هستهای؛ زمستان هستهای؛ همهگیری (چه طبیعی، مانند کووید-۱۹، یا مهندسی شده)؛ برخورد یک سیارک و موارد دیگر میتواند اکثر یا تمام نژاد بشر را از بین ببرد.
جدیدترین تهدید روز فاجعه، هوش مصنوعی (ai) است. در ماه مه، گروهی از افراد برجسته در این زمینه نامه سرگشادهای را امضا کردند که در آن بیان شده بود: «کنترل خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای یک اولویت جهانی باشد».
اما چقدر منطقی است که نگران این فاجعه باشیم؟ در ۱۰ ژوئیه، گروهی از محققان، از جمله اقتصاددان بانک فدرال رزرو شیکاگو و دانشمند علوم سیاسی دانشگاه پنسیلوانیا، مقالهای را منتشر کردند که سعی میکند با بررسی سیستماتیک به این سوال پاسخ دهد. دو نوع متخصص در نوشتن این مقاله دست داشتند؛ از یک سو متخصصان موضوع فاجعه یا «دامنه» در جنگ هستهای، سلاحهای زیستی، هوش مصنوعی و حتی خود انقراض حضور داشتند و از سوی دیگر، گروهی از «پیشبینیکنندگان آینده» بودند، کسانی که در زمینههای مختلف با پیشبینیهای دقیق در مورد انواع موضوعات، از نتایج انتخابات تا شروع جنگها دست به پیشبینی میزنند.
وقت رفتن همه باهم خواهیم رفت
به حاضران در پژوهش دو نوعِ «فاجعه» و «انقراض» داده شد تا در آیندهنگری خود در نظر بگیرند. «فاجعه» به عنوان چیزی تعریف میشود که تنها ۱۰ درصد از انسانها در جهان یا حدود ۸۰۰ میلیون نفر را از میان خواهد برد. (برای مقایسه، تخمین زده میشود که جنگ جهانی دوم حدود ۳ درصد از جمعیت ۲ میلیاردی جهان را در آن زمان کشته باشد.) از سوی دیگر، «انقراض» به عنوان رویدادی تعریف شد که همه را از بین خواهد برد، به استثنای احتمالا ۵۰۰۰ نفر خوششانس (یا بدشانسی) که زنده خواهند ماند.
از دو گروه خواسته شد تا پیشبینیهایی درباره احتمال وقوع انواع فاجعه ارائه دهند. به این منظور لیستی از رویدادهای آخرالزمانی مانند انقراض ناشی از هوش مصنوعی یا جنگ هستهای گرفته تا مسائل کوچکتر، مانند پیشرفتهای بالقوه خطرناک هوش مصنوعی به متخصصان ارائه شد.
نتیجه اصلی این مطالعه در دو طیف کارشناس متخصص و پیشبینیکنندگان آینده متفاوت بود. «کارشناسان» تخمین زدند که احتمال وقوع فاجعه تا سال ۲۱۰۰ حدود ۲۰ درصد و احتمال انقراض بشر ۶ درصد است. در برابر «پیشبینیکنندگان» احتمال وقوع فاجعه و انقراض را به ترتیب ۹ و یک درصد دانستند.
متوسط پیشبینیکنندگان تخمین زدند که تا پایان قرن، ۲.۱ درصد احتمال وقوع فاجعه ناشی از هوش مصنوعی و ۰.۳۸ درصد احتمال انقراض ناشی از هوش مصنوعی وجود دارد. در مقابل، کارشناسان هوش مصنوعی، به ترتیب این احتمالات را ۱۲ و ۳ درصد دانستند. البته وقتی نوبت به بیماریهای همهگیر رسید، پیشبینیکنندگان نسبت به کارشناسان بدبینتر بودند.
اگرچه هر دوی گروهها در مورد اندازه دقیق خطر اختلاف نظر داشتند، اما هر دو گروه نگرانیهای جنگ هستهای و هوش مصنوعی را بیش از هر چیز دیگری میدانند. دَن مریلند، پیشبینیکنندهای که در این مطالعه شرکت کرد، میگوید: «یکی از دلایل نمایش قوی هوش مصنوعی این است که بهعنوان «ضریب نیرو» در خطرات دیگر مانند سلاحهای هستهای عمل میکند». مثلا در جنگ هستهای یا برخورد سیارک، هوش مصنوعی (به شکل رباتهای مسلح) میتواند انسانها را مستقیماً بکشد. اما میتواند برای تیز کردن تبر یک جلاد دیگر نیز مفید باشد. به عنوان مثال، اگر انسانها از هوش مصنوعی برای کمک به طراحی سلاحهای زیستی قویتر استفاده کنند، هوش مصنوعی هرچند غیرمستقیم، اما باز هم به فاجعه کمک میکند.
به نظر میرسید که پیشبینیکنندگان و کارشناسان هوش مصنوعی دیدگاههای بسیار متفاوتی درباره نحوه واکنش جوامع به آسیبهای کوچکمقیاس ناشی از هوش مصنوعی داشته باشند. پیشبینیکنندگان به این فکر میکردند که این امر باعث میشود تا بررسیها و مقررات جدیتر برای رفع مشکلات بزرگتر در هوش مصنوعی انجام خواهد شد. در مقابل، کارشناسان حوزه به این نگرش تمایل داشتند که انگیزههای تجاری و ژئوپلیتیکی میتواند بیشتر از نگرانیهای مربوط به ایمنی در هوش مصنوعی باشد.
همچنین پیشبینیکنندگان و کارشناسان دیدگاههای متفاوتی در مورد حدود هوشمصنوعی داشتند. به عبارت ساده، کشتن همه کار آسانی نیست. انجام این کار احتمالاً مستلزم میزان خاصی از توانایی برای تعامل با دنیای فیزیکی است که هوش مصنوعی فاقد آن است. احتمالاً قبل از رسیدن به این سطح تعامل با دنیای فیزیکی از طرف هوش مصنوعی، بشر به پیشرفت زیادی در رباتیک نیاز دارد.
نظر شما