هوش مصنوعی

تمرکز ChatGPT بر امنیت، اخلاق و ابزارهای جدید پژوهشی

جدیدترین اخبار حول محور ChatGPT به یک مسئله امنیتی مهم و معرفی یک ابزار جدید پژوهشی مرتبط است. در روزهای اخیر، پژوهشگران امنیتی یک آسیب‌پذیری حیاتی را در مرورگر تازه معرفی شده‌ی OpenAI با نام «ChatGPT Atlas Browser» کشف و اعلام کردند. این آسیب‌پذیری که به مهاجمان اجازه می‌دهد دستورات مخربی را در حافظه هوش مصنوعی (Memory) تزریق کنند، به عنوان یک تهدید جدی مطرح شده است.

این حملات که با عنوان “ChatGPT Atlas Browser Exploit” شناخته می‌شوند، می‌توانند دستورات مخفی را در حافظه چت‌بات باقی بگذارند. به این معنی که حتی پس از پایان یک جلسه گفتگو، دستورات مخرب می‌توانند به صورت پایدار در سیستم باقی بمانند و در جلسات بعدی، در حین استفاده قانونی کاربر از ChatGPT، اقدامات مخربی مانند کنترل حساب کاربری یا اجرای کدهای دلخواه را انجام دهند.

این کشف، زنگ خطری جدی برای توسعه‌دهندگان و کاربران پلتفرم‌های هوش مصنوعی مانند OpenAI است که به طور فزاینده‌ای بر ویژگی‌های حافظه بلندمدت برای شخصی‌سازی پاسخ‌ها تکیه می‌کنند.

معرفی قابلیت «تحقیقات عمیق» (Deep Research) برای پژوهش‌های پیچیده

در مقابل نگرانی‌های امنیتی، OpenAI با معرفی قابلیت جدیدی به نام «تحقیقات عمیق» (Deep Research) برای ChatGPT، ابزار قدرتمندی را در اختیار کاربران خود قرار داده است. این قابلیت که با هدف تسهیل انجام تحقیقات پیچیده و عمیق طراحی شده، برای متخصصان حوزه‌هایی مانند مالی، علمی، سیاست‌گذاری و مهندسی کاربرد خواهد داشت.

تمرکز ChatGPT بر امنیت، اخلاق و ابزارهای جدید پژوهشی

قابلیت Deep Research، با استفاده از مدل‌های پیشرفته‌تر هوش مصنوعی، توانایی تحلیل و پردازش حجم عظیمی از داده‌ها و منابع را با دقت و جامعیت بیشتری فراهم می‌کند. این ابزار به کاربران اجازه می‌دهد تا پرسش‌های چندمرحله‌ای و ساختارمند را مطرح کرده و پاسخ‌هایی را دریافت کنند که مبتنی بر شواهد و منابع متنوع و عمیق هستند. این اقدام نشان‌دهنده تلاش OpenAI برای فراتر رفتن از یک چت‌بات ساده و تبدیل شدن به یک دستیار تحقیقاتی آکادمیک و حرفه‌ای” است.

تلاش برای ارتقاء ایمنی و کاهش محدودیت‌های محتوایی

در یک به‌روزرسانی مهم دیگر، OpenAI در حال نهایی کردن تغییراتی در سیاست‌های ایمنی و محتوایی ChatGPT است. این شرکت اعلام کرده که پس از بررسی‌ها و ارتقای ایمنی مدل‌های خود (که قبلاً با کاهش شدید پاسخ‌های نامناسب در تعاملات مرتبط با سلامت روان همراه بوده است)، قصد دارد برخی از محدودیت‌های سخت‌گیرانه قبلی را کاهش دهد.

هدف این تغییرات، ارائه یک تجربه کاربری مفیدتر و شخصی‌سازی‌شده برای عموم کاربران، به ویژه آن دسته از افرادی است که با چالش‌های سلامت روان مواجه نیستند. همچنین، در هفته‌های آینده، قابلیت تنظیم شخصیت” هوش مصنوعی به کاربران ارائه خواهد شد تا بتوانند رفتار و لحن چت‌بات خود را (مانند دوستانه‌تر یا پر از ایموجی) شخصی‌سازی کنند. این موضوع نشان می‌دهد که OpenAI به دنبال ایجاد تعادلی ظریف بین مسئولیت اجتماعی و آزادی عمل کاربران بزرگسال است.

نوشته های مشابه

دکمه بازگشت به بالا