نظر منفی اروپا درباره هوش مصنوعی

در گزارشی که روز جمعه یک کارگروه در بخش ناظر حریم خصوصی اتحادیه اروپا منتشر کرد، آورده شده «اگرچه اقدامات انجام شده به منظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید است، اما برای مطابقت با اصل دقت داده‌ها کافی نیست».

به گزارش اکونگار، به نقل از شفقنا، از رویترز، یک کارگروه در بخش ناظر حریم خصوصی اتحادیه اروپا گفت که تلاش‌های OpenAI برای ارائه کمتر خروجی نادرست از ربات ChatGPT به منظور انطباق کامل با قوانین داده اتحادیه اروپا کافی نیست.

شگفتی‌های فناوری در خانه‌های هوشمند / کدام برندهای ایرانی از هوش مصنوعی استفاده می‌کنند؟

این کارگروه در گزارشی که روز جمعه در وب‌سایت خود منتشر کرد، گفت: «اگرچه اقدامات انجام شده به منظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید است، اما برای مطابقت با اصل دقت داده‌ها کافی نیست».

نهادی که ناظران ملی حفظ حریم خصوصی اروپا را متحد می‌کند، سال گذشته پس از آن که ناظران ملی به رهبری مقامات ایتالیا نگرانی‌هایی را در مورد سرویس پرکاربرد هوش مصنوعی مطرح کردند، کارگروهی را در ChatGPT راه‌اندازی کرد.

در این گزارش آمده است، تحقیقات مختلفی که توسط ناظران ملی حفظ حریم خصوصی در برخی از کشورهای عضو آغاز شده است، همچنان ادامه دارد و هنوز امکان ارائه شرح کامل نتایج وجود ندارد. علاوه بر آن این یافته‌ها باید به‌عنوان یک «خروجی مشترک» در میان مقامات ملی درک شود.

دقت داده ها یکی از اصول راهنمای مجموعه قوانین حفاظت از داده اتحادیه اروپا است و در این گزارش آمده است که به دلیل ماهیت احتمالی سیستم هوش مصنوعی، رویکرد آموزشی فعلی منجر به مدلی می شود که ممکن است خروجی های مغرضانه یا ساختگی ایجاد کند.

علاوه بر این، کاربران نهایی ممکن است، خروجی های ارائه شده توسط ChatGPT مثل؛ اطلاعات مربوط به افراد را صرف نظر از میزان صحتشان، درست تلقی کنند.

 

از دیگر رسانه ها
دیدگاه