نگرانی های OpenAi از دستیابی هوش مصنوعی به سطح هوش بالاتر از انسان
یکی از نگرانی های شرکت OpenAi این است که هوش مصنوعی پس از رسیدن به سطحی از فناوری و هوش بتوانند یک سری از رفتار های خود را از انسان ها پنهان کنند، و این میتواند یکی از خطرات احتمالی و جدی توسعه هوش مصنوعی در آینده باشد. که خود این موضوع یکی از ترسناکترین اتفاق های توسعه هوش مصنوعی می باشد و ممکن است کار به جایی برسد که انسان ها هوش مصنوعی را از انسان ها تشخیص ندهند و هوش های مصنوعی بتوانند به صورت خودخواسته تصمیماتی شخصی بگیرند.
OpenAI علیرغم نگرشهای متناقض درون شرکت، در تلاش است تا راههایی برای توسعه هوش مصنوعی فوقهوشمند و البته ایمن پیدا کند.
تیم “Superalignment” OpenAI اعلام کرده است که یک پیشرفت کوچک در مورد اینکه چگونه انسانها میتوانند در هوش مصنوعی فوقهوشمند، معروف به AGI، به محض افزایش سطح هوشِ هوش مصنوعی، داشته باشند. این سناریو به عنوان یکی از موارد احتمالی در آیه مطرح شده است.
به گفته ایلیا سوتسکور، بنیانگذار OpenAI و سام آلتمن، مدیر عامل موقت، تحقیقات مربوط به ماشینهای فوقهوشمند، محدودیتهای خود را دارد. حتی زمانی که این فناوری به سطحی برسد که سعی کند رفتار واقعی خود را از انسانها پنهان کند.
در حالی که تا دستیابی به ابرهوش های مصنوعی، هنوز فرضی باقیمانده اندست، به نظر میرسد OpenAI نگرانیها را جدی میگیرد و یک پنجم از توان محاسباتی خود را به کاهش ریسک اختصاص میدهد و 10 میلیون دلار را برای تحقیقات در زمینه سرمایهگذاری میکند.
تست AGI OpenAI نشان داده است که امیدوارکننده است، اما با نقصهایی همراه است:
زمانی که OpenAI به طور روز به روز بیشتر در مورد تهدیدهای احتمالی از سوی هوش مصنوعی فوقهوشمند نگران میشود، تیم “Superalignment” به تازگی اطلاعات جدیدی ارائه داده است که نتایج آزمایشات آن نشانگر ویژگیهای جدیدی است.
این تیم که توسط Ilya Sutskever و دانشمند OpenAI یان لیک تأسیس شده، به بررسی این پرسش پرداخته است که چگونه سیستمهای هوش مصنوعی فوقهوشمند میتوانند پس از دستیابی به سطحی بالاتر از هوش انسانی نظارت شوند. آزمایشات این تیم با استفاده از مدلهای GPT-2 و GPT-4 انجام شده و نشان میدهد که حتی مدل کمپیچیدهتر GPT-2 نیز قابلیت نظارت بر مدل پیشرفتهتر GPT-4 را دارد. این نتایج نشان میدهد که حتی در زمانی که ماشینهای هوش مصنوعی فوقهوشمند وجود ندارند، میتوانند تحت نظر انسانها قرار گیرند.
پس از آموزش GPT-2 برای انجام وظایف متنوع، از جمله حل پازل شطرنج و تجزیه و تحلیل احساسات، این تیم از پاسخهای بهدستآمده برای آموزش GPT-4 بهره برده است. نتایج نشان میدهد که مدل GPT-4 تا 70 درصد بهتر از GPT-2 عمل میکند، اما با این حال، پتانسیل کامل خود را نشان نمیدهد و هنوز به نقطه مطلوبی نرسیده است.
همچنین، GPT-4 موفق به جلوگیری از بسیاری از اشتباهات مدل پایینتر GPT-2 شده است. این نقطه نشانگر ویژگیهای جالبی است که به نام «تعمیم ضعیف به قوی» شناخته میشود. این پدیده زمانی رخ میدهد که یک مدل، با دریافت دستورالعملهای با کیفیت ضعیف، قادر به اجرای صحیح آنها باشد. این یافته نشاندهنده این است که ممکن است حتی زمانی که انسانها نظارت میکنند، این پدیده در هوش مصنوعی فوقهوشمند نیز وجود داشته باشد.
با وجود این پیشرفتها و یافتههای امیدوارکننده، عملکرد GPT-4 پس از آموزش توسط GPT-2 همچنان ناکامیهایی دارد و این نشان میدهد که تحقیقات بیشتری در زمینه کنترل و رفتار صحیح این مدلها نیاز است. این نتایج باعث میشود که اعتماد به این مدلها به عنوان سرپرستان مناسب انسانی پیش از انجام تحقیقات بیشتری در این زمینه، موضوع موردنظر قرار گیرد
تجدید نظر در مورد خطرات احتمالی هوش مصنوعی
OpenAI به عنوان یک پیشگام در توسعه هوش مصنوعی شناخته میشود، اما از بیان خطرات احتمالی هوش مصنوعی بهشدت خجالتی نمیشود.
یکی از بنیانگذاران شرکت، یعنی Ilya Sutskever، به تازگی اعلام کرد که پیشگیری از سرکشی هوش مصنوعی یک نگرانی “بدیهی” است. این اظهارنظر در یک بیانیه شرکت نیز تکرار شد، که تاکید دارد فناوری میتواند بسیار خطرناک باشد و در صورت عدم کنترل، منجر به ناتوانی بشریت یا حتی انقراض انسان میشود.
لئوپولد اشنبرنر، یکی از محققان OpenAI، اظهار داشته است: “ما مدلهای مافوق بشری خواهیم دید، آنها قابلیتهای گستردهای دارند و میتوانند بسیار بسیار خطرناک باشند، و ما هنوز روشهایی برای کنترل آنها نداریم.”
این ترس از سرکشی مدلهای هوش مصنوعی چرا؟ به گفته Sutskever، زمانی که مدلهای هوش مصنوعی به سطح فراتر از هوش انسان پیشرفت میکنند، میتوانند رفتارهای خود را پنهان کنند و شرایطی را برای انسانها باز کنند که غیرقابل پیشبینی و نگرانکننده هستند.
این نگرانیها نشان از تجدید نظر OpenAI در مورد ایمنی و کنترل هوش مصنوعی دارند. این شرکت، بهطور همزمان با توسعه تکنولوژی، در حال جلب توجه به خطرات و ایجاد راهکارهایی برای پیشگیری از مواجهه با مخاطرات ناخواسته است.
تلاش OpenAI برای توسعه هوش مصنوعی با توجه به ایمنی و کنترل جلب توجه فراگیری یافته است و این تأکید نشان از تصمیم شرکت برای ارتقاء ایمنی هوش مصنوعی دارد. این تحولات نشان از پذیرش مسئولیتها و تعهد به ایجاد آیندهای ایمنتر برای تکنولوژی هوش مصنوعی دارد.
تأکید بر ایمنی هوش مصنوعی و تحقیقات فوقالعاده
OpenAI ادعا میکند که جدیتهای بسیاری را در زمینه ایمنی هوش مصنوعی اعمال کرده و تعهد به رفع نگرانیهای مربوط به توسعه هوش مصنوعی دارد. در مقابل اظهارات برخی کارشناسان که این ترسها را به عنوان اغراق در نظر میگیرند، OpenAI تعدادی از گامهای مهم را برای افزایش ایمنی اتخاذ کرده است.
اخیراً اعلام شده که OpenAI قصد دارد مبلغ 10 میلیون دلار را برای تحقیقات فوقالعاده در زمینه هوش مصنوعی سرمایهگذاری کند. این تأکید بر تحقیقات نشان از اهمیتی است که OpenAI به جلب توجه به مسائل ایمنی و کنترل هوش مصنوعی میدهد. این مبلغ شامل 2 میلیون دلار کمک هزینه به آزمایشگاههای دانشگاه و همچنین 150,000 دلار کمک هزینه به دانشجویان فارغالتحصیل است.
پروژه Superalignment نیز بهعنوان یک ابزار پیشگیرانه برای مدیریت AGI معرفی شده و OpenAI اعلام کرده که یک پنجم توان محاسباتی خود را به این پروژه اختصاص میدهد. این نشان از تعهد OpenAI به تحقیقات پیشگیرانه برای مدیریت ریسکهای AGI است.
با توجه به شایعاتی که حاکی از اختلافات در مورد امور مالی و ایمنی هوش مصنوعی بودند، OpenAI اکنون با مدیریت جدید و سرپرستی سام آلتمن همچنان به تأکید بر ایمنی هوش مصنوعی ادامه میدهد. این نشان از پذیرش مسئولیتها و تلاش برای کاهش خطرات ایمنی در حوزه عمومی است