در کارگاههای پر گرد و غبار، کافینتهای تنگ و تاریک و دفاتر خانگی موقت در سرتاسر جهان، میلیونها نفر پشت رایانهها نشستهاند و به صورت خستهکنندهای روی دادهها برچسبگذاری میکنند.
این کارگران، رگ حیات صنعت در حال رشد هوش مصنوعی (AI) هستند. اگر ساده بگوییم، بدون آنها محصولاتی مانند «چت جی بی تی» (ChatGPT) وجود نداشتند. به این دلیل که دادههایی که آنها برچسبگذاری میکنند به سیستمهای هوش مصنوعی کمک میکند تا «یاد بگیرند».
اما علیرغم سهم حیاتی این نیروی کار در صنعتی که انتظار میرود تا سال 2027 به ارزش 407 میلیارد دلار آمریکا برسد، افرادی که آن را تشکیل میدهند عمدتاً نامرئی هستند و اغلب مورد استثمار قرار میگیرند. در اوایل سال جاری، نزدیک به 100 برچسبگذار داده و کارمند هوش مصنوعی از کنیا که برای شرکتهایی مانند «فیسبوک»، «اسکیل ای آی» (Scale AI) و «اوپن ای آی» (OpenAI) کار میکنند، در میانه امیدی واهی، نامهای سرگشاده به «جو بایدن»، رئیسجمهور ایالات متحده منتشر کردند و در آن گفتند: «شرایط کاری ما بردهداری مدرن است».
برای اطمینان از اخلاقی بودن زنجیرههای تامین هوش مصنوعی، صنعت و دولتها باید فورا به این مشکل رسیدگی کنند؛ اما سوال اصلی این است که چگونه باید چنین کاری را انجام داد؟
برچسبگذاری دادهها چیست؟
برچسبگذاری دادهها فرآیند حاشیهنویسی دادههای خام، مانند تصاویر، ویدئو یا متن است که از طریق آن سیستمهای هوش مصنوعی میتوانند الگوها را تشخیص دهند تا الگوریتمهای پیشبینی آنها درست کار کند.
برای مثال، خودروهای خودران، برای تشخیص عابران پیاده از علائم جادهای، به فیلمهای ویدئویی برچسبگذاری شده تکیه میکنند. مدلهای زبان بزرگ مانند «چت جی پی تی» برای درک زبان انسانی به متن برچسبگذاری شده تکیه میکنند. این مجموعه دادههای برچسبگذاری شده، رگ حیاتی مدلهای هوش مصنوعی هستند؛ بدون آنها، سیستمهای هوش مصنوعی نمیتوانند بهطور موثر عمل کنند.
غولهای فناوری مانند «متا»، «گوگل»، «اوپن ای آی» و «مایکروسافت»، بیشتر این کار را به کارگارههای برچسبگذاری داده در کشورهایی مانند فیلیپین، کنیا، هند، پاکستان، ونزوئلا و کلمبیا برونسپاری میکنند. البته چین هم در حال تبدیل شدن به یکی دیگر از قطبهای جهانی برای برچسبگذاری دادهها است.
شرکتهای برونسپاری که این کار را تسهیل میکنند در نوع خود شرکتهای بسیار بزرگی هستند؛ مثالهایی از این بنگاهها میتواند شامل شرکتهای «اسکیل ای آی»، iMerit و Samasource باشد که در سالهای اخیر ارزش مالی زیادی بدست آوردهاند؛ به عنوان مثال، «اسکیل ای آی» که دفتر مرکزی آن در کالیفرنیا قرار دارد، اکنون ۱۴ میلیارد دلار ارزش دارد.
کم کردن خرج
شرکتهای بزرگ فناوری مانند «آلفابت» (شرکت مادر گوگل)، «آمازون»، «مایکروسافت»، «انویدیا» و «متا» میلیاردها دلار را در زیرساختهای هوش مصنوعی، از قدرت محاسباتی و ذخیرهسازی دادهها گرفته تا فناوریهای محاسباتی نوظهور سرمایهگذاری کردهاند.
آموزش مدلهای هوش مصنوعی در مقیاس بزرگ میتواند دهها میلیون دلار هزینه داشته باشد. همچنین پس از استقرار این مدلها، حفظ آنها نیز مستلزم سرمایهگذاری مستمر در برچسبگذاری دادهها، اصلاح و آزمایش آنها در دنیای واقعی است.
اما در حالی که سرمایهگذاری در هوش مصنوعی قابلتوجه است، درآمدها از این صنعت همیشه انتظارات را برآورده نکرده است. شاید یکی از دلایل آن این است که بسیاری از صنایع همچنان پروژههای هوش مصنوعی را آزمایشی میدانند و مسیرهای سودآوری هوش مصنوعی را نامشخص فرض میکنند.
به همین دلیل و به عنوان پاسخی به این وضعیت عدم سودآوری مورد انتظار، بسیاری از شرکتهایی که در زمینه هوش مصنوعی فعال هستند هزینهها را کاهش میدهند؛ این کاهش هزینه بر آنهایی که در انتهای زنجیره تامین هوش مصنوعی فعالیت میکنند و اغلب بسیار آسیبپذیر هستند، تأثیر بیشتری میگذارد، و این افراد کسی نیستند به جز برچسبزنندگان دادههای هوش مصنوعی.
دستمزد کم، شرایط کاری خطرناک
یکی از راههایی که شرکتهای درگیر در زنجیره تامین هوش مصنوعی تلاش میکنند هزینهها را از طریق آن کاهش دهند، استفاده از تعداد زیادی برچسبزننده داده در کشورهای جنوب جهانی مانند «فیلیپین»، «ونزوئلا»، «کنیا» و «هند» است؛ کارگران در این کشورها با رکود یا کاهش دستمزد مواجه هستند. به عنوان مثال، نرخ ساعتی برای برچسبگذاران دادههای هوش مصنوعی در ونزوئلا از 90 سنت تا 2 دلار آمریکا متغیر است. در مقایسه، در ایالات متحده، این نرخ بین 10 تا 25 دلار آمریکا در ساعت است که خبر از اختلاف عظیمی میدهد.
در فیلیپین، کارگرانی که دادههای شرکتهای چند میلیارد دلاری مانند «اسکیل ای آی» را برچسبگذاری میکنند، اغلب بسیار کمتر از حداقل دستمزد دریافت میکنند. بهعلاوه در بسیاری از این کشورها برخی از ارائهدهندگان برچسبزدن حتی برای اهداف خود به کار کودکان نیز متوسل میشوند. اما بسیاری از مسائل دیگر هم در زنجیره تامین هوش مصنوعی وجود دارد.
برای مثال بسیاری از برچسبزنندگان داده در محیطهای پر ازدحام و پر از گرد و غبار کار میکنند که خطری جدی برای سلامتی آنها است. آنها همچنین اغلب به عنوان پیمانکاران مستقل کار میکنند و به حمایتهایی مانند مراقبتهای بهداشتی یا غرامت، بیمه بیکاری و حمایتهای تامین اجتماعی دسترسی ندارند.
ضرر ذهنی کار برچسبگذاری دادهها نیز قابلتوجه است؛ این کار با وظایف تکراری، ضربالاجلهای سختگیرانه و کنترلهای کیفیت سفت و سخت همراه است. همچنین گاهی اوقات از برچسبگذاران داده خواسته میشود که سخنان تنفرآمیز یا سایر مسائل ناپسند که به قالب زبان در میآید و یا مطالب توهینآمیز را بخوانند و برچسبگذاری کنند، مسئلهای که ثابت شده است اثرات روانی منفی برای برچسبگذاران به همراه دارد.
در این صنعت اشتباهات میتواند منجر به کاهش دستمزد یا از دست دادن شغل شود. اما مشکل آنجایی بیشتر میشود که برچسبگذاران اغلب عدم شفافیت را در مورد نحوه ارزیابی کارشان تجربه میکنند؛ آنها نمیدانند که کارشان را چقدر خوب یا بد انجام دادهاند. چرا که برچسبگذاران اغلب از دسترسی به دادههای عملکرد خود محروم هستند، موضوعی که مانع از توانایی آنها برای بهبود یا رقابت در تصمیمگیریهای بعدی میشود.
اخلاقی کردن زنجیره تامین هوش مصنوعی
با پیچیدهتر شدن توسعه هوش مصنوعی و تلاش شرکتها برای به حداکثر رساندن سود خود، نیاز به زنجیرههای تامین اخلاقی هوش مصنوعی ضرورت پیدا میکند.
یکی از راههایی که شرکتها میتوانند به اطمینان از این امر کمک کنند، استفاده از یک رویکرد طراحی، مشورت و نظارت با محوریت حقوق انسانی در کل زنجیره تامین هوش مصنوعی است. آنها باید سیاستهای دستمزد منصفانه را اتخاذ کنند و اطمینان حاصل کنند که برچسبگذاران دادهها دستمزدهایی در سطح معیشت آبرومندانه دریافت میکنند که منعکسکننده ارزشی است که کار آنها به پیشبرد هوش مصنوعی کرده است.
با گنجاندن حقوق بشر در زنجیره تامین، شرکتهای هوش مصنوعی میتوانند صنعت اخلاقیتر و پایدارتری را تقویت کنند و تضمین کنند که حقوق کارگران و مسئولیتهای شرکتی با موفقیت بلندمدت همسو خواهد شد.
همچنین دولتها نیز باید مقررات جدیدی را ایجاد کنند که شیوههای کار شایسته برای برچسبگذاران را الزامی کرده و انصاف و شفافیت در زنجیره تامین را تشویق کند. شفافیتهای کاری در این زمنیه شامل شفافیت در ارزیابی عملکرد برچسبگذاران و پردازش کار آنهاست که به کارگران اجازه میدهد تا نحوه ارزیابی عملکرد خود را درک کنند و هرگونه سوء استفاده در این زمینه را متوقف میکند. سیستمهای پرداخت شفاف و مکانیسمهای کنترل تضمین میکنند که با کارگران منصفانه رفتار شود.
همچنین به عنوان کاربران محصولات هوش مصنوعی، ما هم میتوانیم با حمایت از شرکتهایی که در مورد زنجیره تامین هوش مصنوعی خود شفاف عمل میکنند و متعهد به رفتار منصفانه با کارگران هستند، از اقدامات اخلاقی آنها حمایت کنیم. همانطور که از تولیدکنندگان تجارت سبز حمایت میشود، میتوانیم با انتخاب سرویسها یا برنامههای دیجیتالی در تلفنهای هوشمندمان که استانداردهای حقوق بشر را رعایت میکنند، تبلیغ برندهای اخلاقی از طریق رسانههای اجتماعی و رای دادن با نوع خرج کردنمان برای تغییر غولهای هوش مصنوعی به صورت روزانه تلاش کنیم و آنها را پاسخگو کنیم. با انتخابهای آگاهانه، همه ما میتوانیم به اقدامات اخلاقی بیشتری در صنعت هوش مصنوعی کمک کنیم.
نظر شما