تلاشها برای مهار (Ai) فراوان است. اتحادیه اروپا در اکتبر امسال تلاش کرد در مذاکرات بروکسل به یک جمعبندی نهایی برسد و یا حتی کاخ سفید در تلاش است تا یک فرمان اجرایی درباره هوش مصنوعی صادر کند. اتفاقات دیگری نیز رخ داده است؛ بهطور مثال چین در اکتبر امسال از ابتکار جهانی حکمرانی هوش مصنوعی رونمایی کرد. هدف از اقدام اروپا برای تعیین محدودیتها نیز تا حدی تقویت نقش این اتحادیه به عنوان تعیینکننده استانداردهای دیجیتال جهانی است. کاخ سفید هم تلاش میکند تا با اتحادیه اروپا رقابت کند و هر دوی آنها البته تلاش میکنند تا در این زمینه از چین عقب نمانند. این در حالی است که چین تاکنون چند قانون (AI) را تصویب کرده است. البته هم آمریکا و هم اتحادیه اروپا بر سر دعوت از چین در این اجلاس با انگلستان اختلاف نظر داشتند و مخالف حضور چین در این اجلاس بودند.
یکی از محرکههای سیاستهای قاعدهمندسازی هوش مصنوعی، خود مدلسازان هستند. در گذشته صنعت فناوری عمدتاً مخالف مقررات بود، اما اکنون غولهایی مانند آلفابت و مایکروسافت و Openai (که Chatgpt را ایجاد کرده است) در تلاش برای ایجاد سیاستهایی درباره هوش مصنوعی هستند. شرکتها نگرانند که رقابت لجامگسیخته باعث انتشار مدلهایی از هوش مصنوعی شود که به راحتی مورد سوءاستفاده قرار میگیرند. به همین خاطر، خواهان محافظهکاری بیشتری در این خصوص هستند. به عبارت دیگر، این اراده از سوی مدلسازان وجود دارد که این قوانین هرچه زودتر وضع شوند. البته در این زمینه هم اختلاف نظر وجود دارد. متخصصان معتقدند که هنوز در خصوص اینکه دنیا باید نگران چه چیزی باشد، قوانین چه چیزی را باید هدف قرار دهند و چگونه باید اجرایی شوند به توافق نرسیده است.
تدوین قوانین و مقررات مدرن
تنظیم قوانین برای هوش مصنوعی سخت است؛ چراکه (AI) به سرعت در حال تکامل است. به سختی روزی هست که یک استارتآپ چیزی جدید ارائه نکرده باشد. حتی توسعهدهندگان نیز نمیتوانند با اطمینان بگویند که این قابلیتهای جدید چه چیزهایی هستند. این امر باعث میشود آزمایشهایی که میتوانند میزان خطرآفرین بودن آنها را بسنجند، بسیار مهم شود. بدون وجود چنین ارزیابیهایی، بررسی اینکه آیا یک مدل با قوانین وضع شده مطابقت دارد یا خیر دشوار خواهد بود.
علاوه بر این، شرکتهای فناوری ممکن است از مقررات حمایت کنند، اما میخواهند که این قوانین محدود باشد و فقط خطرات شدید را هدف قرار دهد. در جلسه سنا در واشنگتن در ماه جولای، داریو آمودی، مدیر اجرایی آنتروپیک، هشدار داد که مدلهای هوش مصنوعی در چند سال آینده قادر خواهند بود تمام اطلاعات مورد نیاز برای ساخت سلاحهای زیستی را ارائه دهند و بازیگران زیادی را قادر به انجام حملات بیولوژیکی در مقیاس بزرگ خواهند کرد. پیشبینیهای وحشتناک مشابهی در مورد سلاحهای سایبری نیز انجام شده است. در اوایل این ماه، گری جنسلر، رئیس کمیسیون بورس و اوراق بهادار آمریکا، پیشبینی کرد که هوش مصنوعی به احتمال زیاد یک بحران مالی مهندسی شده ایجاد خواهد کرد و لازم است تا مداخلاتی در این زمینه انجام گیرد. برخی دیگر اما استدلال میکنند که این خطرات سوداگرانه توجه را از تهدیدهای دیگر، مانند تضعیف فرایند دموکراسی، منحرف میکند.
به هر روی، بحث در مورد اینکه دقیقاً چه قوانینی باید تنظیم شود، آسان نیست. شرکتهای فناوری عمدتاً قوانین را به افراطیترین حالتها محدود میکنند. مایکروسافت، در میان دیگران خواستار صدور قوانینی است که به شرکتها اجازه ایجاد مدلهایی از هوش مصنوعی را که دارای عملکردهای خاص هستند نمیدهد. پیشنهادات دیگر بیشتر مربوط به کنترل فروش تراشههای قدرتمند مورد استفاده برای آموزش llms (مدل زبانی بزرگ متشکل از یک شبکه عصبی با پارامترهای زیاد) هستند.
اما اکثر شرکتها بر سر این مسئله توافق دارند که این برنامههای مدلها هستند، نه خود مدلها که باید تنظیم شوند. مانند قوانین سختگیرانه در خصوص استفاده از هوش مصنوعی در تشخیص چهره در فضای عمومی که دموکراسی را به خطر میاندازد. مزیت چنین مقرراتی که مبتنی بر استفاده هستند این است که قوانین موجود عمدتاً کفایت میکند. توسعهدهندگان (Ai) هشدار دادهاند که وضع قوانین گستردهتر و دستوپاگیرتر، فرایند توسعه نوآوری را کند میکند.
تا سال گذشته به نظر میرسید که آمریکا، بریتانیا و اتحادیه اروپا بر روی این رویکرد مبتنی بر ریسک توافق دارند، اما رشد خیرهکننده (llms) از زمان راه اندازی (Chatgpt) در یک سال گذشته، آنها را به فکر فرو برده است. اتحادیه اروپا اکنون در حال بررسی در این خصوص است که آیا خود مدلها هم نیاز به نظارت دارند یا خیر. پارلمان اروپا از سازندگان مدلهای هوش مصنوعی خواسته (llms) را برای تأثیر بالقوه بر همهچیز از سلامت انسان گرفته تا حقوق بشر آزمایش کنند. این اتحادیه اصرار دارد اطلاعاتی در مورد دادههایی که مدلها بر اساس آنها آموزش داده شدهاند به دست آورد. سایر کشورها مانند کانادا، آمریکا و انگلستان هم در حال وضع قوانین سختگیرانه در این خصوص هستند. سال گذشته کاخ سفید درباره مجموعهای از «تعهدات داوطلبانه» مذاکره کرد که اکنون 15 مدلساز آن را امضا کردهاند. شرکتها موافقت کردهاند که مدلهای خود را قبل از انتشار بهصورت داخلی و خارجی مورد آزمایش قرار دهند و اطلاعاتی را درباره نحوه مدیریت ریسکهای آن به اشتراک بگذارند.
چه کسی باید قوانین را وضع کند؟
پس از بحث درباره نوع قوانین هوش مصنوعی، این سؤال مطرح میشود که چه کسی باید این قوانین را تنظیم کند. ایالات متحده و بریتانیا فکر میکنند که سازمانهای دولتی موجود میتوانند مدیریت وضع این قوانین را به عهده بگیرند. اتحادیه اروپا اما میخواهد یک نهاد نظارتی جدید ایجاد کند. در سطح بینالمللی، تعداد کمی از مدیران فناوری خواستار ایجاد چیزی شبیه به هیأت بیندولتی تغییرات آبوهوا (ipcc) هستند که سازمان ملل وظیفه نظارت بر آن را دارد. با توجه به همه این سؤالات، جای تعجب نیست که برگزارکنندگان اجلاس لندن چندان نمیتوانند بلندپروازانه عمل کنند و اجلاس آنها بیشتر یک گفتوگوی دوستانه است. اما همچنان این امید وجود دارد که نتایج ملموسی به دنبال داشته باشد.
نظر شما