همه به دنبال کنترل آینده

اجلاس ایمنی هوش مصنوعی که دولت بریتانیا هفته قبل در پارک بلچلی میزبانی کرد احتمالاً به یک اجلاس تاریخی تبدیل خواهد شد؛ اجلاسی که در آن برای اولین‌بار قدرت‌های جهانی در مورد فناوری‌ای صحبت کردند که به احتمال زیاد، جهان را تغییر خواهد داد. قدرت‌های جهانی در این اجلاس تلاش کردند به این سؤال پاسخ دهند که چگونه می‌توان اطمینان حاصل کرد هوش مصنوعی نه به ابزاری برای سوء‌استفاده‌های کنترل نشده تبدیل شود و نه به ابزاری علیه بشریت، اما همچنان در مورد اینکه چه چیزی، چگونه و توسط چه کسی باید تحت کنترل قرار گیرد، اختلاف نظر وجود دارد.

تلاش‌ها برای مهار (Ai) فراوان است. اتحادیه‌ اروپا در اکتبر امسال تلاش کرد در مذاکرات بروکسل به یک جمع‌بندی نهایی برسد و یا حتی کاخ سفید در تلاش است تا یک فرمان اجرایی درباره‌ هوش مصنوعی صادر کند. اتفاقات دیگری نیز رخ داده است؛ به‌طور مثال چین در اکتبر امسال از ابتکار جهانی حکمرانی هوش مصنوعی رونمایی کرد. هدف از اقدام اروپا برای تعیین محدودیت‌ها نیز تا حدی تقویت نقش این اتحادیه به عنوان تعیین‌کننده‌ استانداردهای دیجیتال جهانی است. کاخ سفید هم تلاش می‌کند تا با اتحادیه‌ اروپا رقابت کند و هر دوی آن‌ها البته تلاش می‌کنند تا در این زمینه از چین عقب نمانند. این در حالی است که چین تاکنون چند قانون (AI) را تصویب کرده است. البته هم آمریکا و هم اتحادیه‌ اروپا بر سر دعوت از چین در این اجلاس با انگلستان اختلاف نظر داشتند و مخالف حضور چین در این اجلاس بودند.

یکی از محرکه‌های سیاست‌های قاعده‌مندسازی هوش مصنوعی، خود مدل‌سازان هستند. در گذشته صنعت فناوری عمدتاً مخالف مقررات بود، اما اکنون غول‌هایی مانند آلفابت و مایکروسافت و Openai (که Chatgpt را ایجاد کرده است) در تلاش برای ایجاد سیاست‌هایی درباره‌ هوش مصنوعی هستند. شرکت‌ها نگرانند که رقابت لجام‌گسیخته باعث انتشار مدل‌هایی از هوش مصنوعی شود که به راحتی مورد سوء‌استفاده قرار می‌گیرند. به همین خاطر، خواهان محافظه‌کاری بیشتری در این خصوص هستند. به عبارت دیگر، این اراده از سوی مدل‌سازان وجود دارد که این قوانین هرچه زودتر وضع شوند. البته در این زمینه هم اختلاف نظر وجود دارد. متخصصان معتقدند که هنوز در خصوص اینکه دنیا باید نگران چه چیزی باشد، قوانین چه چیزی را باید هدف قرار دهند و چگونه باید اجرایی شوند به توافق نرسیده است.

تدوین قوانین و مقررات مدرن

تنظیم قوانین برای هوش مصنوعی سخت است؛ چراکه (AI) به سرعت در حال تکامل است. به سختی روزی هست که یک استارت‌آپ چیزی جدید ارائه نکرده باشد. حتی توسعه‌دهندگان نیز نمی‌توانند با اطمینان بگویند که این قابلیت‌های جدید چه چیزهایی هستند. این امر باعث می‌شود آزمایش‌هایی که می‌توانند میزان خطرآفرین بودن آن‌ها را بسنجند، بسیار مهم شود. بدون وجود چنین ارزیابی‌هایی، بررسی اینکه آیا یک مدل با قوانین وضع شده مطابقت دارد یا خیر دشوار خواهد بود.

علاوه بر این، شرکت‌های فناوری ممکن است از مقررات حمایت کنند، اما می‌خواهند که این قوانین محدود باشد و فقط خطرات شدید را هدف قرار دهد. در جلسه سنا در واشنگتن در ماه جولای، داریو آمودی، مدیر اجرایی آنتروپیک، هشدار داد که مدل‌های هوش مصنوعی در چند سال آینده قادر خواهند بود تمام اطلاعات مورد نیاز برای ساخت سلاح‌های زیستی را ارائه دهند و بازیگران زیادی را قادر به انجام حملات بیولوژیکی در مقیاس بزرگ خواهند کرد. پیش‌بینی‌های وحشتناک مشابهی در مورد سلاح‌های سایبری نیز انجام شده است. در اوایل این ماه، گری جنسلر، رئیس کمیسیون بورس و اوراق بهادار آمریکا، پیش‌بینی کرد که هوش مصنوعی به احتمال زیاد یک بحران مالی مهندسی شده ایجاد خواهد کرد و لازم است تا مداخلاتی در این زمینه انجام گیرد. برخی دیگر اما استدلال می‌کنند که این خطرات سوداگرانه توجه را از تهدیدهای دیگر، مانند تضعیف فرایند دموکراسی، منحرف می‌کند.

به هر روی، بحث در مورد اینکه دقیقاً چه قوانینی باید تنظیم شود، آسان نیست. شرکت‌های فناوری عمدتاً قوانین را به افراطی‌ترین حالت‌ها محدود می‌کنند. مایکروسافت، در میان دیگران خواستار صدور قوانینی است که به شرکت‌ها اجازه‌ ایجاد مدل‌هایی از هوش مصنوعی را که دارای عملکردهای خاص هستند نمی‌دهد. پیشنهادات دیگر بیشتر مربوط به کنترل فروش تراشه‌های قدرتمند مورد استفاده برای آموزش llms (مدل زبانی بزرگ متشکل از یک شبکه عصبی با پارامترهای زیاد) هستند.

اما اکثر شرکت‌ها بر سر این مسئله توافق دارند که این برنامه‌های مدل‌ها هستند، نه خود مدل‌ها که باید تنظیم شوند. مانند قوانین سختگیرانه در خصوص استفاده از هوش مصنوعی در تشخیص چهره در فضای عمومی که دموکراسی را به خطر می‌اندازد. مزیت چنین مقرراتی که مبتنی بر استفاده هستند این است که قوانین موجود عمدتاً کفایت می‌کند. توسعه‌دهندگان (Ai) هشدار داده‌اند که وضع قوانین گسترده‌تر و دست‌وپاگیرتر، فرایند توسعه‌ نوآوری را کند می‌کند.

تا سال گذشته به نظر می‌رسید که آمریکا، بریتانیا و اتحادیه اروپا بر روی این رویکرد مبتنی بر ریسک توافق دارند، اما رشد خیره‌کننده (llms) از زمان راه اندازی (Chatgpt) در یک سال گذشته، آن‌ها را به فکر فرو برده است. اتحادیه اروپا اکنون در حال بررسی در این خصوص است که آیا خود مدل‌ها هم نیاز به نظارت دارند یا خیر. پارلمان اروپا از سازندگان مدل‌های هوش مصنوعی خواسته (llms) را برای تأثیر بالقوه بر همه‌چیز از سلامت انسان گرفته تا حقوق بشر آزمایش کنند. این اتحادیه اصرار دارد اطلاعاتی در مورد داده‌هایی که مدل‌ها بر اساس آن‌ها آموزش داده شده‌اند به دست آورد. سایر کشورها مانند کانادا، آمریکا و انگلستان هم در حال وضع قوانین سختگیرانه در این خصوص هستند. سال گذشته کاخ سفید درباره‌ مجموعه‌ای از «تعهدات داوطلبانه» مذاکره کرد که اکنون 15 مدل‌ساز آن را امضا کرده‌اند. شرکت‌ها موافقت کرده‌اند که مدل‌های خود را قبل از انتشار به‌صورت داخلی و خارجی مورد آزمایش قرار دهند و اطلاعاتی را درباره نحوه مدیریت ریسک‌های آن به اشتراک بگذارند.

چه کسی باید قوانین را وضع کند؟

پس از بحث درباره‌ نوع قوانین هوش مصنوعی، این سؤال مطرح می‌شود که چه کسی باید این قوانین را تنظیم کند. ایالات متحده و بریتانیا فکر می‌کنند که سازمان‌های دولتی موجود می‌توانند مدیریت وضع این قوانین را به عهده بگیرند. اتحادیه اروپا اما می‌خواهد یک نهاد نظارتی جدید ایجاد کند. در سطح بین‌المللی، تعداد کمی از مدیران فناوری خواستار ایجاد چیزی شبیه به هیأت بین‌دولتی تغییرات آب‌وهوا (ipcc) هستند که سازمان ملل وظیفه نظارت بر آن را دارد. با توجه به همه این سؤالات، جای تعجب نیست که برگزارکنندگان اجلاس لندن چندان نمیتوانند بلندپروازانه عمل کنند و اجلاس آن‌ها بیشتر یک گفت‌وگوی دوستانه است. اما همچنان این امید وجود دارد که نتایج ملموسی به دنبال داشته باشد.

کد خبر: 65868

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 9 + 1 =