هوش مصنوعی

هوش مصنوعی؛ نه تفکر، بلکه پیش‌بینی!

راز نحوه یادگیری هوش مصنوعی بالاخره آشکار شد. برخلاف تصور رایج، این فناوری پیشرفته توانایی تفکر ندارد و صرفاً به حدس زدن می‌پردازد. این یافته جدید، درک کنونی ما از قابلیت‌ها و محدودیت‌های هوش مصنوعی را به چالش می‌کشد.

مدل‌های هوش مصنوعی نظیر ChatGPT در واقع فاقد قدرت تفکر، استدلال و درک هستند. آن‌ها تنها الگوهای پیش‌بینی کننده‌ای هستند که بر مبنای حجم وسیعی از متون انسانی آموزش دیده‌اند و تلاش می‌کنند تا کلمه یا مفهوم بعدی را بر اساس همبستگی‌های مشاهده شده در داده‌های آموزشی، حدس بزنند. این مکانیزم، اساس عملکرد آن‌ها را تشکیل می‌دهد.

چرایی خطا، تحریف و جانبداری هوش مصنوعی

این مسئله ما را با یک پرسش اساسی روبرو می‌سازد: اگر این مدل‌ها تا این حد هوشمند به نظر می‌رسند، چرا همچنان دچار اشتباه می‌شوند، واقعیت‌ها را نادرست جلوه می‌دهند یا تمایلات جانبدارانه از خود نشان می‌دهند؟ برای درک این موضوع، لازم است روش یادگیری آن‌ها را مورد بررسی قرار دهیم.

مدل‌های زبانی بزرگ، داده‌ها را به شکلی متفاوت از انسان‌ها پردازش می‌کنند. در واقع، آن‌ها هیچ‌گونه استدلال، فهم یا آگاهی ندارند. این مدل‌ها با استفاده از مجموعه‌ای گسترده از داده‌ها شامل کتاب‌ها، وب‌سایت‌ها و مکالمات آموزش داده شده‌اند تا بتوانند توالی کلمات را پیش‌بینی کنند. آن‌ها زبان را به اجزای کوچکی به نام «توکن» تقسیم می‌کنند که می‌توانند بخش‌هایی از کلمات باشند و سپس تلاش می‌کنند تا محتمل‌ترین توکن بعدی را حدس بزنند.

تشریح عملکرد هوش مصنوعی در درک و استدلال داده‌ها

نحوه عملکرد یک مدل هوش مصنوعی در فهم و استدلال داده‌ها و اطلاعات به شرح زیر است:

توکن‌ها: زبان به واحدهای کوچکی مانند کلمات یا بخش‌های آن‌ها تقسیم می‌شود. برای مثال، واژه «رفتن» ممکن است به «رف» و «تن» تجزیه شود. مدل‌ها با مفاهیم کامل سروکار ندارند، بلکه صرفاً احتمالات توکن به توکن را در نظر می‌گیرند.

وزن‌ها: این‌ها میلیاردها مقدار قابل تنظیم در شبکه عصبی هستند. می‌توان آن‌ها را به دکمه‌هایی تشبیه کرد که به مدل می‌گویند یک توکن چه میزان بر توکن دیگر تأثیر بگذارد.

تابع زیان: این روشی است که مدل از طریق آن میزان اشتباه خود را پس از هر حدس ارزیابی می‌کند. مدل، وزن‌های خود را به منظور کاهش اشتباهات در آینده تغییر می‌دهد.

تشخیص الگو: در نهایت، مدل در شناسایی الگوهای زبانی بسیار ماهر می‌شود. اما همچنان «واقعیت‌ها» را نمی‌داند، بلکه فقط آنچه را که معمولاً درست به نظر می‌رسد، تشخیص می‌دهد. اگر بپرسید پایتخت ایران کجاست، مدل نمی‌داند که تهران است. بلکه صرفاً می‌داند که واژه «تهران» اغلب در داده‌های آموزشی آن پس از این پرسش آمده است.

درک این سازوکار اساسی بسیار مهم است، زیرا مبنایی را فراهم می‌کند تا دریابیم چرا مدل‌ها همچنان می‌توانند دچار توهم شوند، تعصب نشان دهند یا اشتباهات غیرمنتظره مرتکب شوند.

آشنایی مصنوعی؛ نه تفکر، بلکه پیش‌بینی

پدیده توهم در هوش مصنوعی

یکی از مهم‌ترین مشکلات مدل‌های هوش مصنوعی، پدیده توهم است. این وضعیت زمانی رخ می‌دهد که مدل با اطمینان کامل، داده‌های نادرست یا ساختگی تولید می‌کند. برای مثال، یک مقاله علمی جعلی می‌سازد یا به منابعی استناد می‌کند که اصلاً وجود ندارند. این رفتار، دروغگویی آگاهانه نیست؛ بلکه مدل به سادگی تمایزی بین واقعیت و خیال قائل نمی‌شود و صرفاً بر اساس الگوهای موجود حدس می‌زند.

پیامدهای توهم در کاربردهای عملی

در کاربردهای عملی، توهمات می‌توانند نتایج خطرناکی به همراه داشته باشند. در زمینه‌های حقوقی، علمی یا پزشکی، یک هوش مصنوعی ممکن است قوانین و منابع جعلی ارائه دهد یا با اطمینان کامل، تشخیص‌های پزشکی اشتباهی را بدون آگاهی از سابقه سلامت بیمار ارائه کند. این مسئله به وضوح نشان می‌دهد که چرا انسان‌ها باید تمام محتوای تولید شده توسط هوش مصنوعی را بررسی و صحت‌سنجی کنند، به ویژه در زمینه‌هایی که دقت و صحت اطلاعات اهمیت حیاتی دارد.

مشکل سوگیری در مدل‌های زبانی

سوگیری، یکی دیگر از چالش‌های موجود است. مدل‌های زبانی بزرگ این قابلیت را دارند که به گونه‌ای هدایت شوند که خروجی‌هایی را ارائه دهند که یک دیدگاه را بر دیدگاه دیگر ترجیح می‌دهند.

این مدل‌ها با استفاده از حجم عظیمی از داده‌های موجود در اینترنت، شامل کتاب‌ها، وب‌سایت‌ها و رسانه‌های اجتماعی، آموزش دیده‌اند و در نتیجه، تعصبات موجود در این داده‌ها را جذب کرده‌اند. بنابراین، مدل نمی‌داند چگونه این موضوعات را پالایش کند، بلکه صرفاً آنچه را که به آن داده شده، یاد می‌گیرد. این سوگیری‌ها یک عمل عمدی نیست، بلکه مستقیماً به داده‌های آموزشی که در اختیار آن قرار گرفته است، بستگی دارد.

با وجود تمام مشکلاتی که وجود دارد، محققان و شرکت‌ها به طور فعال در تلاشند تا هوش مصنوعی را ایمن‌تر، قابل اعتمادتر و سازگارتر با ارزش‌های انسانی کنند. این تلاش‌ها شامل پیشرفت‌های الگوریتمی تا بحث‌های مربوط به قوانین و مقررات بین‌المللی می‌شود.

پروژه “Superalignment” برای همسویی هوش مصنوعی با ارزش‌های انسانی

برای مثال، شرکت OpenAI پروژه‌ای با عنوان “Superalignment” را آغاز کرده است که تمرکز آن بر همسو کردن مدل‌های پیشرفته هوش مصنوعی با اهداف والای انسانی است. تیم فعال در این پروژه در حال توسعه نوعی از هوش مصنوعی است که قادر خواهد بود درباره ارزش‌ها و ایمنی انسان بدون نیاز به مداخله و نظارت مداوم انسانی، استدلال و منطق بیاورد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا