خطرات بهکارگیری هوش مصنوعی در حوزه سلامت روان
هوش مصنوعی میتواند با گسترش دسترسی به منابع انسانی محدود و پشتیبانی از مراقبتهای بهموقع و پاسخگو، به مقابله با چالش دوگانه مقیاس و آسیبپذیری اجتماعی کمک کند. با این حال همین تکنولوژی میتواند خطرهایی را نیز ایجاد کند.
کارآییهای هوش مصنوعی واقعی هستند، اما این فناوری به همان اندازه نیز میتواند خطر داشته باشد.
بنا بر گزارش گلوبال پالیسی ژورنال برخی از این خطرها به شرح زیر هستند.
۱.در صورت استفاده نادرست، سیستمهای خودکار ممکن است پریشانی را به اشتباه تفسیر کنند یا نتوانند با درک متقابل پاسخ دهند.
۲.هوش مصنوعی ممکن است از جمعیتهای آواره بخواهد تا دادههای حساس را به اشتراک بگذارند که این امر نگرانیهایی را درباره حریم خصوصی و آسیبهای مجدد ایجاد میکند.
۳.الگوریتمهایی که براساس دادههای بهدستآمده از جمعیتهای ممتاز آموزش دیدهاند، اگر با دقت با جمعیت متنوع تطبیق داده نشوند، ممکن است نابرابریها را تشدید کنند.
استقرار مسئولانه در مناطق جنگزده مستلزم نظارت مستمر، گزارشدهی شفاف و نظارت مشارکتی است تا تضمین کند که فناوری، دایره مراقبت را گسترش دهد، نه این که آن را محدود کند. همسو کردن هوش مصنوعی با فلسفه «حالت چطور است؟» تضمین میکند که فناوری، بافت اجتماعی را تقویت کند و به محافظت از کرامت انسانی بپردازد.
هوش مصنوعی پتانسیل گسترش دامنه مداخلات، شخصیسازی حمایت و تقویت تابآوری را دارد، اما تنها در صورتی که نابرابریهای ساختاری را کاهش دهد، نه این که آنها را تقویت کند.
این ملاحظات اهمیت جهانی دارند. مناطق آسیبدیده از جنگ در سراسر جهان با چالشهای مشابهی روبهرو هستند که از جمله آنها میتوان به آسیبهای گسترده، سیستمهای اجتماعی از هم پاشیده و دسترسی محدود به مراقبتهای سلامت روان اشاره کرد. هوش مصنوعی پتانسیل گسترش دامنه مداخلات، شخصیسازی حمایت و تقویت تابآوری را دارد، اما تنها در صورتی که نابرابریهای ساختاری را کاهش دهد، نه این که آنها را تقویت کند. هوش مصنوعی مطمئناً میتواند کمک کند، اما تنها در صورتی که در خدمت عدالت، برابری و ارتباط انسانی به کار گرفته شود.





