هوش

هوش مصنوعی

6:56 ق.ظ / 10 اردیبهشت 1403

نگرانی های OpenAi از دستیابی هوش مصنوعی به سطح هوش بالاتر از انسان

نگرانی های OpenAi از دستیابی هوش مصنوعی به سطح هوش بالاتر از انسان

 

یکی از نگرانی های شرکت OpenAi این است که هوش مصنوعی پس از رسیدن به سطحی از فناوری و هوش بتوانند یک سری از رفتار های خود را از انسان ها پنهان کنند، و این میتواند یکی از خطرات احتمالی و جدی توسعه هوش مصنوعی در آینده باشد. که خود این موضوع یکی از ترسناکترین اتفاق های توسعه هوش مصنوعی می باشد و ممکن است کار به جایی برسد که انسان ها هوش مصنوعی را از انسان ها تشخیص ندهند و هوش های مصنوعی بتوانند به صورت خودخواسته تصمیماتی شخصی بگیرند.

OpenAI علیرغم نگرش‌های متناقض درون شرکت، در تلاش است تا راه‌هایی برای توسعه هوش مصنوعی فوق‌هوشمند و البته ایمن پیدا کند.

تیم “Superalignment” OpenAI اعلام کرده است که یک پیشرفت کوچک در مورد اینکه چگونه انسان‌ها می‌توانند در هوش مصنوعی فوق‌هوشمند، معروف به AGI، به محض افزایش سطح هوشِ هوش مصنوعی، داشته باشند. این سناریو به عنوان یکی از موارد احتمالی در آیه مطرح شده است.

به گفته ایلیا سوتسکور، بنیان‌گذار OpenAI و سام آلتمن، مدیر عامل موقت، تحقیقات مربوط به ماشین‌های فوق‌هوشمند، محدودیت‌های خود را دارد. حتی زمانی که این فناوری به سطحی برسد که سعی کند رفتار واقعی خود را از انسان‌ها پنهان کند.

در حالی که تا دستیابی به ابرهوش های مصنوعی، هنوز فرضی باقی‌مانده اندست، به نظر می‌رسد OpenAI نگرانی‌ها را جدی می‌گیرد و یک پنجم از توان محاسباتی خود را به کاهش ریسک اختصاص می‌دهد و 10 میلیون دلار را برای تحقیقات در زمینه  سرمایه‌گذاری می‌کند.

 

هوش مصنوعی

 

 

تست AGI OpenAI نشان داده است که امیدوارکننده است، اما با نقص‌هایی همراه است:

 

زمانی که OpenAI به طور روز به روز بیشتر در مورد تهدیدهای احتمالی از سوی هوش مصنوعی فوق‌هوشمند نگران می‌شود، تیم “Superalignment” به تازگی اطلاعات جدیدی ارائه داده است که نتایج آزمایشات آن نشانگر ویژگی‌های جدیدی است.

 

این تیم که توسط Ilya Sutskever و دانشمند OpenAI یان لیک تأسیس شده، به بررسی این پرسش پرداخته است که چگونه سیستم‌های هوش مصنوعی فوق‌هوشمند می‌توانند پس از دستیابی به سطحی بالاتر از هوش انسانی نظارت شوند. آزمایشات این تیم با استفاده از مدل‌های GPT-2 و GPT-4 انجام شده و نشان می‌دهد که حتی مدل کم‌پیچیده‌تر GPT-2 نیز قابلیت نظارت بر مدل پیشرفته‌تر GPT-4 را دارد. این نتایج نشان می‌دهد که حتی در زمانی که ماشین‌های هوش مصنوعی فوق‌هوشمند وجود ندارند، می‌توانند تحت نظر انسان‌ها قرار گیرند.

 

پس از آموزش GPT-2 برای انجام وظایف متنوع، از جمله حل پازل شطرنج و تجزیه و تحلیل احساسات، این تیم از پاسخ‌های به‌دست‌آمده برای آموزش GPT-4 بهره برده است. نتایج نشان می‌دهد که مدل GPT-4 تا 70 درصد بهتر از GPT-2 عمل می‌کند، اما با این حال، پتانسیل کامل خود را نشان نمی‌دهد و هنوز به نقطه مطلوبی نرسیده است.

 

همچنین، GPT-4 موفق به جلوگیری از بسیاری از اشتباهات مدل پایین‌تر GPT-2 شده است. این نقطه نشانگر ویژگی‌های جالبی است که به نام «تعمیم ضعیف به قوی» شناخته می‌شود. این پدیده زمانی رخ می‌دهد که یک مدل، با دریافت دستورالعمل‌های با کیفیت ضعیف، قادر به اجرای صحیح آن‌ها باشد. این یافته نشان‌دهنده این است که ممکن است حتی زمانی که انسان‌ها نظارت می‌کنند، این پدیده در هوش مصنوعی فوق‌هوشمند نیز وجود داشته باشد.

 

با وجود این پیشرفت‌ها و یافته‌های امیدوارکننده، عملکرد GPT-4 پس از آموزش توسط GPT-2 همچنان ناکامی‌هایی دارد و این نشان می‌دهد که تحقیقات بیشتری در زمینه کنترل و رفتار صحیح این مدل‌ها نیاز است. این نتایج باعث می‌شود که اعتماد به این مدل‌ها به عنوان سرپرستان مناسب انسانی پیش از انجام تحقیقات بیشتری در این زمینه، موضوع موردنظر قرار گیرد

 

 تجدید نظر در مورد خطرات احتمالی هوش مصنوعی

OpenAI به عنوان یک پیشگام در توسعه هوش مصنوعی شناخته می‌شود، اما از بیان خطرات احتمالی هوش مصنوعی به‌شدت خجالتی نمی‌شود.

یکی از بنیان‌گذاران شرکت، یعنی Ilya Sutskever، به تازگی اعلام کرد که پیشگیری از سرکشی هوش مصنوعی یک نگرانی “بدیهی” است. این اظهارنظر در یک بیانیه شرکت نیز تکرار شد، که تاکید دارد فناوری می‌تواند بسیار خطرناک باشد و در صورت عدم کنترل، منجر به ناتوانی بشریت یا حتی انقراض انسان می‌شود.

لئوپولد اشنبرنر، یکی از محققان OpenAI، اظهار داشته است: “ما مدل‌های مافوق بشری خواهیم دید، آن‌ها قابلیت‌های گسترده‌ای دارند و می‌توانند بسیار بسیار خطرناک باشند، و ما هنوز روش‌هایی برای کنترل آن‌ها نداریم.”

این ترس از سرکشی مدل‌های هوش مصنوعی چرا؟ به گفته Sutskever، زمانی که مدل‌های هوش مصنوعی به سطح فراتر از هوش انسان پیشرفت می‌کنند، می‌توانند رفتارهای خود را پنهان کنند و شرایطی را برای انسان‌ها باز کنند که غیرقابل پیش‌بینی و نگران‌کننده هستند.

این نگرانی‌ها نشان از تجدید نظر OpenAI در مورد ایمنی و کنترل هوش مصنوعی دارند. این شرکت، به‌طور هم‌زمان با توسعه تکنولوژی، در حال جلب توجه به خطرات و ایجاد راهکارهایی برای پیشگیری از مواجهه با مخاطرات ناخواسته است.

تلاش OpenAI برای توسعه هوش مصنوعی با توجه به ایمنی و کنترل جلب توجه فراگیری یافته است و این تأکید نشان از تصمیم شرکت برای ارتقاء ایمنی هوش مصنوعی دارد. این تحولات نشان از پذیرش مسئولیت‌ها و تعهد به ایجاد آینده‌ای ایمن‌تر برای تکنولوژی هوش مصنوعی دارد.

 

 

تأکید بر ایمنی هوش مصنوعی و تحقیقات فوق‌العاده

OpenAI ادعا می‌کند که جدیت‌های بسیاری را در زمینه ایمنی هوش مصنوعی اعمال کرده و تعهد به رفع نگرانی‌های مربوط به توسعه هوش مصنوعی دارد. در مقابل اظهارات برخی کارشناسان که این ترس‌ها را به عنوان اغراق در نظر می‌گیرند، OpenAI تعدادی از گام‌های مهم را برای افزایش ایمنی اتخاذ کرده است.

اخیراً اعلام شده که OpenAI قصد دارد مبلغ 10 میلیون دلار را برای تحقیقات فوق‌العاده در زمینه هوش مصنوعی سرمایه‌گذاری کند. این تأکید بر تحقیقات نشان از اهمیتی است که OpenAI به جلب توجه به مسائل ایمنی و کنترل هوش مصنوعی می‌دهد. این مبلغ شامل 2 میلیون دلار کمک هزینه به آزمایشگاه‌های دانشگاه و همچنین 150,000 دلار کمک هزینه به دانشجویان فارغ‌التحصیل است.

پروژه Superalignment نیز به‌عنوان یک ابزار پیشگیرانه برای مدیریت AGI معرفی شده و OpenAI اعلام کرده که یک پنجم توان محاسباتی خود را به این پروژه اختصاص می‌دهد. این نشان از تعهد OpenAI به تحقیقات پیشگیرانه برای مدیریت ریسک‌های AGI است.

با توجه به شایعاتی که حاکی از اختلافات در مورد امور مالی و ایمنی هوش مصنوعی بودند، OpenAI اکنون با مدیریت جدید و سرپرستی سام آلتمن همچنان به تأکید بر ایمنی هوش مصنوعی ادامه می‌دهد. این نشان از پذیرش مسئولیت‌ها و تلاش برای کاهش خطرات ایمنی در حوزه عمومی است

اشتراک گذاری:

پویا

عضویت در خبرنامه

درخبرنامه ما عضو شوید

اگه دنبال خبرهای روز تکنولوژی، فناوری و نجوم هستی حتما ایمیلتو وارد کن

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *