“`html
گوگل در بهروزرسانی اخیر سیاستهای خود، استفاده از ابزارهای هوش مصنوعی مولد در حوزههای پرخطر را با قید نظارت انسانی مجاز اعلام کرد. این تصمیم که واکنشی به نگرانیهای اخلاقی و اجتماعی است، انعطافپذیری بیشتری نسبت به رویکرد رقبای گوگل نشان میدهد.
پیش از این، استفاده از این فناوری در زمینههای حساس مانند استخدام، مسکن، بیمه و خدمات رفاهی بهطور کامل ممنوع بود. اما حالا گوگل با تأکید بر نظارت دقیق انسانی، راه را برای بهکارگیری هوش مصنوعی در تصمیمگیریهای خودکار در این حوزهها هموار کرده است. این نظارت، نقش کلیدی در جلوگیری از خطاها و تبعیضهای احتمالی ناشی از سوگیریهای الگوریتمی ایفا میکند.
نظارت انسانی: ستون اصلی اعتماد
گوگل تأکید میکند که نظارت انسانی همیشه جزئی از اصول سیاستهایش بوده و این تغییر تنها برای شفافسازی بیشتر صورت گرفته است. تصمیمگیری خودکار در اینجا به معنای اتخاذ تصمیمات توسط سیستمهای هوش مصنوعی بر پایه دادهها و تحلیلهای آنهاست؛ مانند پذیرش یا رد درخواست وام یا استخدام متقاضیان.
مقایسه با سیاستهای سایر شرکتها
در مقایسه با شرکتهایی مانند OpenAI و Anthropic که رویکردی سختگیرانهتر اتخاذ کردهاند، سیاست جدید گوگل انعطافپذیرتر است. OpenAI بهطور صریح استفاده از خدمات خود را در تصمیمگیریهای خودکار در حوزههایی مانند اعتبارسنجی، استخدام و مسکن ممنوع اعلام کرده است. Anthropic نیز تنها به متخصصان مجاز اجازه استفاده از هوش مصنوعی در حوزههای پرخطر را میدهد.
چالشهای سوگیری و مقررات
استفاده از هوش مصنوعی در زمینههای حساس، خطرات بالقوهای مانند سوگیری و تبعیض را به همراه دارد. مدلهای هوش مصنوعی ممکن است سوگیریهای موجود در دادههای آموزشی را تکرار کرده و منجر به نتایج نابرابر برای گروههای مختلف شوند. این مسئله نگرانیهایی در مورد عدالت اجتماعی و حریم خصوصی ایجاد کرده است.
سازمانهای مدافع حقوق بشر نیز نسبت به استفاده از سیستمهای امتیازدهی اجتماعی هشدار داده و آنها را تهدیدی برای حریم خصوصی و عدالت اجتماعی میدانند. در این راستا، مقررات و چارچوبهای نظارتی در سطح جهانی در حال توسعه هستند.
مقررات جهانی: اروپا و آمریکا
اتحادیه اروپا با تصویب قانون هوش مصنوعی، استفاده از این فناوری در حوزههایی مانند اعتبارسنجی و استخدام را تحت نظارت دقیق قرار داده است. ایالات متحده نیز در برخی ایالتها مانند کلرادو و شهرهایی همچون نیویورک، قوانین خاص برای نظارت بر هوش مصنوعی وضع کرده است.
تعادل بین نوآوری و مسئولیت
سیاست جدید گوگل تلاش میکند تعادلی بین پیشرفتهای فناوری و مسئولیتپذیری برقرار کند. با الزام به نظارت انسانی، گوگل به دنبال استفاده مسئولانه از هوش مصنوعی مولد و ایجاد فرصتهای جدید در حوزههایی مانند بهداشت و رفاه اجتماعی است.
“`