هشدار مدیر هوش مصنوعی گوگل:
خطرات هوش مصنوعی جدی است / باید سیستم نظارت جهانی ایجاد شود
مدیر هوش مصنوعی گوگل، هشدار داد که خطر هوش مصنوعی باید به اندازه بحران آب و هوایی جدی گرفته شود.
به گزارش اکونگار، به نقل از گاردین، دمیس حسابیس(Demis Hassabis)، مدیر Googl DeepMind که یکی از پلتفرمهای اصلی هوش مصنوعی گول است، به عنوان یکی از چهرههای برجسته فناوری هوش مصنوعی در جهان شناخته میشود، او هشدار داد که جهان باید با خطرات ناشی از هوش مصنوعی را بهاندازه بحران آبوهوایی جدی بگیرد د و نباید این موضوع را به تعویق بیندازند.
هوش مصنوعی را به اندازه بحران آب و هوایی جدی بگیرید
دمیس حسابیس در نشستی درباره ایمنی هوش مصنوعی، گفت: نظارت بر این صنعت میتواند از طریق نهادی مشابه همان چیزی که تغییرات آب و هوایی را مدیریت میکند، انجام شود. هیئت بیندولتی تغییر اقلیم(IPCC) تغییرات اقلیم را نظارت میکند، باید ریسکهای هوش مصنوعی هم توسط چنین سازمانی پیگیری شود.
حسابیس، مدیر بریتانیایی واحد هوش مصنوعی گوگل، گفت: جهان باید فورا برای مقابله با خطرات این فناوری، که شامل کمک به ایجاد سلاحهای زیستی و تهدیدات ناشی از سیستمهای فوقهوشمند است، اقدام کند.
او گفت: ما باید خطرات هوش مصنوعی را به اندازه سایر چالشهای بزرگ جهانی مانند تغییرات آب و هوا جدی بگیریم.
به گفته او، جامعه بینالمللی برای هماهنگ کردن یک واکنش مؤثر به موضوع آب و هوا زمان زیادی را از دست داد و ما اکنون با عواقب آن زندگی میکنیم. نمی توانیم همان تأخیر را برای هوش مصنوعی تحمل کنیم.
هوش مصنوعی به نظارت جدی نیاز دارد
Hassabis که واحدش برنامه انقلابی AlphaFold را ایجاد کرد تا ساختارهای پروتئینی را به تصویر بکشد، گفت: هوش مصنوعی میتواند، یکی از مهمترین و مفیدترین فناوریهایی باشد که تاکنون اختراع شده است، با این حال به یک سیستم نظارتی جدی نیاز دارد. برای این کار میتوان از ساختارهای بین المللی مانند IPCC الهام گرفت.
او می گوید: به نظرم باید با چیزی مانند هیئت بیندولتی تغییر اقلیم (IPCC) شروع کنیم، تاجایی که یک توافق علمی و تحقیقاتی همراه با گزارشها به دست آیند. سپس میتوانیم برای تدوین برنامه اقدام کنیم.
او افزود: این نهاد نظار شاید چیزی مانند آژانس بینالمللی انرژی اتمی باشد که در آینده یک نقش نظارتی ایفا میکند.
با این حال، Hassabis گفت که هیچیک از تشابههای نظارتی مورد استفاده برای هوش مصنوعی «مستقیماً قابل اجرا» برای این فناوری نیستند، اگرچه میتوان «درسهای ارزشمند» را از مؤسسات موجود استخراج کرد.
هفته گذشته اریک اشمیت، مدیر اجرایی سابق گوگل، و مصطفی سلیمان، یکی از بنیانگذاران DeepMind، خواستار ایجاد یک پنل به سبک هیئت بیندولتی تغییر اقلیم برای هوش مصنوعی شدند. اگرچه مقامات بریتانیا از چنین اقدامی حمایت میکنند، اما مدیران گوگل معتقدند ایجاد این نهاد باید تحت نظارت سازمان ملل انجام شود.
Hassabis گفت که هوش مصنوعی میتواند، فرصتهای باورنکردنی را در زمینههایی مانند پزشکی و علم به ارمغان بیاورد، اما نگران های موجود در مورد این فناوری را همچنان پابرجاست. فعالان حوزه بر توسعه احتمالی هوش عمومی مصنوعی (AGI) متمرکز هستند، سیستمهایی با سطوح هوش انسانی یا بالاتر از انسان که میتوانند از کنترل انسان خارج باشد.
حسابیس یکی از امضاکنندگان نامه سرگشادهای بود که هشدار میداد خطر انقراض ناشی از هوش مصنوعی باید خطری در مقیاس اجتماعی و همتراز با همهگیریها و جنگ هستهای در نظر گرفته شود.
او میگوید: ما باید این تفکر و تحقیق را از هم اکنون آغاز کنیم. به همین دلیل من آن نامه را امضا کردم و بسیاری از مردم هم موافق این موضوع بودند.
Hassabis گفت: عدهای معتقدند جهان مدت زیادی از توسعه سیستمهای AGI فاصله دارد، اما به نظر ما این مسیر بسیار کوتاه است، بنابراین باید چارهای برای آن بیاندیشیم.
او گفت:سیستمهای هوش مصنوعی کنونی، خطرناک نیستند، اما چند نسل بعدی ممکن است زمانی باشند که قابلیتهای اضافی مانند برنامهریزی و حافظه و موارد دیگر داشته باشند. آنها برای موارد استفاده خوب فوقالعاده خواهند بود، اما خطراتی نیز خواهند داشت.
بررسی تهدید سیستمهای هوش مصنوعی پیشرفته
در روزهای 1 و 2نوامبر سال جاری نشستی در بلچلی پارک پایگاه رمز شکنان جنگ جهانی دوم برگزار میشود که به موضوع تهدید سیستمهای هوش مصنوعی پیشرفته میپردازد. عواقب این سیستمها که به ایجاد سلاحهای زیستی، انجام حملات سایبری فلج کننده یا فرار از کنترل انسان کمک میکنند، در این نشست بررسی خواهند شد. Hassabis به همراه مدیران ارشد شرکتهای برجسته هوش مصنوعی از جمله OpenAI، توسعهدهنده ChatGPT مستقر در سانفرانسیسکو، یکی از شرکتکنندگان خواهد بود.
حسابیس میگوید، به هوش مصنوعی به دلیل پتانسیل بالا برای ایجاد تحول در زمینههایی مانند پزشکی و علم خوشبین است، اما باید یک «راه میانی» برای مدیریت این فناوری پیدا کرد.
پس از رشد ChatGPT و ابزارهای تولید تصویر هوش مصنوعی مانند Midjourney این نگرانیها به وجود آمد که عدهای میتوانند از ابزارهای هوش مصنوعی برای تولید انبوه اطلاعات نادرست استفاده کنند.