نظر منفی اروپا درباره هوش مصنوعی
در گزارشی که روز جمعه یک کارگروه در بخش ناظر حریم خصوصی اتحادیه اروپا منتشر کرد، آورده شده «اگرچه اقدامات انجام شده به منظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید است، اما برای مطابقت با اصل دقت دادهها کافی نیست».
به گزارش اکونگار، به نقل از شفقنا، از رویترز، یک کارگروه در بخش ناظر حریم خصوصی اتحادیه اروپا گفت که تلاشهای OpenAI برای ارائه کمتر خروجی نادرست از ربات ChatGPT به منظور انطباق کامل با قوانین داده اتحادیه اروپا کافی نیست.
شگفتیهای فناوری در خانههای هوشمند / کدام برندهای ایرانی از هوش مصنوعی استفاده میکنند؟
این کارگروه در گزارشی که روز جمعه در وبسایت خود منتشر کرد، گفت: «اگرچه اقدامات انجام شده به منظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید است، اما برای مطابقت با اصل دقت دادهها کافی نیست».
نهادی که ناظران ملی حفظ حریم خصوصی اروپا را متحد میکند، سال گذشته پس از آن که ناظران ملی به رهبری مقامات ایتالیا نگرانیهایی را در مورد سرویس پرکاربرد هوش مصنوعی مطرح کردند، کارگروهی را در ChatGPT راهاندازی کرد.
در این گزارش آمده است، تحقیقات مختلفی که توسط ناظران ملی حفظ حریم خصوصی در برخی از کشورهای عضو آغاز شده است، همچنان ادامه دارد و هنوز امکان ارائه شرح کامل نتایج وجود ندارد. علاوه بر آن این یافتهها باید بهعنوان یک «خروجی مشترک» در میان مقامات ملی درک شود.
دقت داده ها یکی از اصول راهنمای مجموعه قوانین حفاظت از داده اتحادیه اروپا است و در این گزارش آمده است که به دلیل ماهیت احتمالی سیستم هوش مصنوعی، رویکرد آموزشی فعلی منجر به مدلی می شود که ممکن است خروجی های مغرضانه یا ساختگی ایجاد کند.
علاوه بر این، کاربران نهایی ممکن است، خروجی های ارائه شده توسط ChatGPT مثل؛ اطلاعات مربوط به افراد را صرف نظر از میزان صحتشان، درست تلقی کنند.