به گزارش آتیه آنلاین به نقل از ال پائیس؛ شرکتهای فناوری از دادههای شخصی کاربران برای بهبود سیستمهای هوش مصنوعی مولد استفاده میکنند، اما راههایی برای حذف این اطلاعات وجود دارد. وضعیت استفاده از دادههای شخصی برای انواع خاصی از آنها و برای موارد خاص صادق است. دادههای حساب OpenAI مانند نام کاربر یا اطلاعات کارت پرداخت، اطلاعات شخصی که کاربر در تعامل با «چت جیبیتی» یا شرکت مبادله میکند، مثلا اطلاعاتی که کاربر هنگام تعامل با حسابهای مختلف شرکت OpenAI در شبکههای اجتماعی مانند اینستاگرام، فیسبوک، مدیوم، X، YouTube و LinkedIn یا دادههایی است که کاربر در نظرسنجیها یا رویدادهای مختلف در اختیار شرکت قرار میدهد. با این اطلاعات، OpenAI میتواند محصولات و خدمات خود را بهبود بخشد، پیشرفتهای جدید ایجاد کند، تحقیقات انجام دهد، ارتباط مستقیم با کاربران برقرار کند، تعهدات قانونی خود را رعایت کند و از کلاهبرداری، سوء استفاده از سرویس و فعالیتهای مجرمانه جلوگیری کند.
این موضوع حساس تنها بر هوش مصنوعی مولد جدید تأثیر نمیگذارد. ارسال ایمیل از طریق Gmail به دوست یا به اشتراک گذاری عکسها یا اسناد در فضای ابری مانند OneDrive، اقدامات روزمرهای هستند که به ارائهدهندگان این خدمات اجازه میدهند اطلاعات را با اشخاص ثالث به اشتراک بگذارند. همانطور که در خطمشیهای رازداری آنها مشخص شده است، شرکتهایی مانند OpenAI، مایکروسافت و Google ممکن است اطلاعاتی را به ارائهدهندگان خدمات فاش کنند تا نیازهای تجاری خود را برآورده سازند.
با این حال، به استثنای برخی موارد، شرکتها نمیتوانند از دادههای شخصی برای مقاصد دیگر استفاده کنند. «ریکارد مارتینز»، استاد حقوق اساسی در دانشگاه «والنسیا» در اسپانیا، میگوید در اتحادیه اروپا، این امر به شدت توسط قوانین «حفاظت از دادههای عمومی» (GDPR) ممنوع است: «این شرکتها خود را در معرض سطح بالایی از ریسک نظارتی قرار میدهند. چنین شرکتی میتواند با جریمهای معادل ۴ درصد از گردش مالی سالانه جهانی خود تحریم شود». به گفته «مارتینز»، دادهها فقط میتوانند برای مقاصد منافع عمومی مورد تایید مقررات، مانند بایگانی یا تحقیقات تاریخی، آماری یا علمی، یا در صورت قبولی در آزمون سازگاری مورد استفاده قرار گیرند.
هوش مصنوعی مولد، مانند «چت جیبیتی»، از حجم زیادی از دادهها استفاده میکند که بخشی از آن شخصی است و از آن اطلاعات، محتوای اصلی تولید میکند. «بروجا آتسوآرا»، وکیل متخصص در حقوق دیجیتال، دراینباره هشدار میدهد که این ابزار اطلاعات جمعآوری شده را تجزیه و تحلیل میکند، به پرسشهای کاربران پاسخ میدهد و خدمات خود را بهبود میبخشد، بهرغم این واقعیت که این ابزار حساسیت «اسنادی را که به آن داده می شود درک نمیکند».
توصیه ایمنی؛ مراقب باشید
«آژانس حفاظت از دادههای اسپانیا» (AEPD) توصیه میکند که کاربران از چت بات خودداری کنند، البته در صورتی که چتبات درخواست دادههای ثبت نامی و مهمی را کند که ضرورتی ندارد. ممکن است برخی چتباتها درخواست موافقت کاربر را طلب میکنند بدون اینکه مشخص کنند دادهها برای چه چیزی پردازش میشوند یا بدون توضیح درباره محدودیت زمانی یا سیاست انتقال دادهها به کشورهایی که تضمین کافی ارائه نمیدهند. همچنین این آژانس به کاربران توصیه میکند که میزان دادههای شخصی را که ارائه میکنند محدود کنند یا اگر احتمال انتقال بینالمللی وجود دارد، دادههای خود را ارائه ندهند. «آژانس حفاظت از دادههای اسپانیا» میافزاید: «هیچ تضمینی وجود ندارد که اطلاعات ارائه شده درباره نحوه استفاده از دادهها توسط چت بات صحیح باشد».
کارشناسان با توصیه «آژانس حفاظت از دادههای اسپانیا» موافقند؛ در واقع اطلاعات شخصی را با ابزار هوش مصنوعی به اشتراک نگذارید. حتی خود ChatGPT هشدار میدهد: «لطفاً توجه داشته باشید که اگر اطلاعات شخصی، حساس یا محرمانه را در طول مکالمه به اشتراک میگذارید، باید احتیاط کنید. توصیه میشود حتی در مکالمه با مدلهای زبانی مانند من (چت جیبیتی)، اطلاعات حساس را از طریق پلتفرم های آنلاین ارائه نکنید».
اطلاعات شخصی خود را پاک کنید
اگر با وجود این توصیهها، کاربر قبلاً دادههای شخصی خود را با یک سیستم هوش مصنوعی به اشتراک گذاشته است، میتوان آن را حذف کرد. فرمی در وب سایت OpenAI برای درخواست حذف دادههای شخصی وجود دارد. خبر بد این است که این شرکت هشدار میدهد که «ارائه یک درخواست تضمین نمیکند که اطلاعات مربوط به شما از ChatGPT حذف شود». فرم باید با «پاسخهای کامل، دقیق و مرتبط» تکمیل شود و کاربر باید با یک سری اظهارات سوگند نامهای موافقت کند. علاوه بر این، اطلاعات ارائه شده در سند را میتوان با سایر منابع بررسی کرد تا صحت آن تایید شود. مایکروسافت همچنین یک پنل حریم خصوصی برای دسترسی و حذف دادههای شخصی ارائه میدهد.
«مارتینز» توضیح میدهد که کاربر میتواند از حق خود برای حذف دادههای شخصی از طریق اقدامات قانونی، استفاده کند؛ وی توضیح میدهد: «شما میتوانید لغو اشتراک کنید، رضایت خود را پس بگیرید که رایگان است و مشروط به شرایط نیست و شرکت موظف به حذف کلیه اطلاعات است». این متخصص همچنین بر حق انتقال دادهها تأکید میکند: «برنامههای بیشتر و بیشتر به کاربر این امکان را میدهند که کل تاریخچه خود را بارگیری کند و آن را در قالبی سازگار با خود ببرد.» این مقررات همچنین ناشناسسازی دادههای شخصی را توصیه میکند.
قانون جدید هوش مصنوعی
پس از اجرایی شدن قانون جدید اتحادیه اروپا در مورد هوش مصنوعی، شرکتهایی که دادههای شخصی را مدیریت میکنند باید سه موضوع کلیدی را در نظر بگیرند. آنها باید نحوه عملکرد الگوریتم و محتوای تولید شده خود را در یک دیتا بیس اروپایی به نمایش بگذارند. همچنین توصیه به ایجاد مکانیسمهای نظارت انسانی هم هست که البته اجباری نیست و در نهایت، باید اطمینان حاصل کرد که مدلهای زبان بزرگ (LLM) دارای سیستمهای امنیتی هستند و توسعه دهندگان نیز در مورد مطالب دارای حق چاپ شفاف عمل میکنند. با این حال، قانون جدید با مقررات عمومی حفاظت از دادهها سازگار است. در واقع بر این اساس هوش مصنوعی که دادههای شخصی را پردازش میکند، یا دادههای شخصی تولید میکند، بدون ضمانت و رعایت قوانین «حفاظت از دادههای عمومی»، هرگز نمیتواند به بازار راه یابد.
همانطور «آتسوآرا» میگوید گام بعدی برای هوش مصنوعی این است که اطلاعات شخصی جمعآوریشده در نوعی مخزن شخصی استفاده شود: «مکانی که همه افراد مخزن اسناد خود را با دادههای شخصی دارند، اما اطلاعات از آن خارج نمیشوند. به عبارت دیگر، از آن برای تغذیه هوش مصنوعی مولد جهانی استفاده نمیشود»؛ یک هوش مصنوعی شخصی شده.
نظر شما