
راز نحوه یادگیری هوش مصنوعی بالاخره آشکار شد. برخلاف تصور رایج، این فناوری پیشرفته توانایی تفکر ندارد و صرفاً به حدس زدن میپردازد. این یافته جدید، درک کنونی ما از قابلیتها و محدودیتهای هوش مصنوعی را به چالش میکشد.
مدلهای هوش مصنوعی نظیر ChatGPT در واقع فاقد قدرت تفکر، استدلال و درک هستند. آنها تنها الگوهای پیشبینی کنندهای هستند که بر مبنای حجم وسیعی از متون انسانی آموزش دیدهاند و تلاش میکنند تا کلمه یا مفهوم بعدی را بر اساس همبستگیهای مشاهده شده در دادههای آموزشی، حدس بزنند. این مکانیزم، اساس عملکرد آنها را تشکیل میدهد.
چرایی خطا، تحریف و جانبداری هوش مصنوعی
این مسئله ما را با یک پرسش اساسی روبرو میسازد: اگر این مدلها تا این حد هوشمند به نظر میرسند، چرا همچنان دچار اشتباه میشوند، واقعیتها را نادرست جلوه میدهند یا تمایلات جانبدارانه از خود نشان میدهند؟ برای درک این موضوع، لازم است روش یادگیری آنها را مورد بررسی قرار دهیم.
مدلهای زبانی بزرگ، دادهها را به شکلی متفاوت از انسانها پردازش میکنند. در واقع، آنها هیچگونه استدلال، فهم یا آگاهی ندارند. این مدلها با استفاده از مجموعهای گسترده از دادهها شامل کتابها، وبسایتها و مکالمات آموزش داده شدهاند تا بتوانند توالی کلمات را پیشبینی کنند. آنها زبان را به اجزای کوچکی به نام «توکن» تقسیم میکنند که میتوانند بخشهایی از کلمات باشند و سپس تلاش میکنند تا محتملترین توکن بعدی را حدس بزنند.
تشریح عملکرد هوش مصنوعی در درک و استدلال دادهها
نحوه عملکرد یک مدل هوش مصنوعی در فهم و استدلال دادهها و اطلاعات به شرح زیر است:
توکنها: زبان به واحدهای کوچکی مانند کلمات یا بخشهای آنها تقسیم میشود. برای مثال، واژه «رفتن» ممکن است به «رف» و «تن» تجزیه شود. مدلها با مفاهیم کامل سروکار ندارند، بلکه صرفاً احتمالات توکن به توکن را در نظر میگیرند.
وزنها: اینها میلیاردها مقدار قابل تنظیم در شبکه عصبی هستند. میتوان آنها را به دکمههایی تشبیه کرد که به مدل میگویند یک توکن چه میزان بر توکن دیگر تأثیر بگذارد.
تابع زیان: این روشی است که مدل از طریق آن میزان اشتباه خود را پس از هر حدس ارزیابی میکند. مدل، وزنهای خود را به منظور کاهش اشتباهات در آینده تغییر میدهد.
تشخیص الگو: در نهایت، مدل در شناسایی الگوهای زبانی بسیار ماهر میشود. اما همچنان «واقعیتها» را نمیداند، بلکه فقط آنچه را که معمولاً درست به نظر میرسد، تشخیص میدهد. اگر بپرسید پایتخت ایران کجاست، مدل نمیداند که تهران است. بلکه صرفاً میداند که واژه «تهران» اغلب در دادههای آموزشی آن پس از این پرسش آمده است.
درک این سازوکار اساسی بسیار مهم است، زیرا مبنایی را فراهم میکند تا دریابیم چرا مدلها همچنان میتوانند دچار توهم شوند، تعصب نشان دهند یا اشتباهات غیرمنتظره مرتکب شوند.
پدیده توهم در هوش مصنوعی
یکی از مهمترین مشکلات مدلهای هوش مصنوعی، پدیده توهم است. این وضعیت زمانی رخ میدهد که مدل با اطمینان کامل، دادههای نادرست یا ساختگی تولید میکند. برای مثال، یک مقاله علمی جعلی میسازد یا به منابعی استناد میکند که اصلاً وجود ندارند. این رفتار، دروغگویی آگاهانه نیست؛ بلکه مدل به سادگی تمایزی بین واقعیت و خیال قائل نمیشود و صرفاً بر اساس الگوهای موجود حدس میزند.
پیامدهای توهم در کاربردهای عملی
در کاربردهای عملی، توهمات میتوانند نتایج خطرناکی به همراه داشته باشند. در زمینههای حقوقی، علمی یا پزشکی، یک هوش مصنوعی ممکن است قوانین و منابع جعلی ارائه دهد یا با اطمینان کامل، تشخیصهای پزشکی اشتباهی را بدون آگاهی از سابقه سلامت بیمار ارائه کند. این مسئله به وضوح نشان میدهد که چرا انسانها باید تمام محتوای تولید شده توسط هوش مصنوعی را بررسی و صحتسنجی کنند، به ویژه در زمینههایی که دقت و صحت اطلاعات اهمیت حیاتی دارد.
مشکل سوگیری در مدلهای زبانی
سوگیری، یکی دیگر از چالشهای موجود است. مدلهای زبانی بزرگ این قابلیت را دارند که به گونهای هدایت شوند که خروجیهایی را ارائه دهند که یک دیدگاه را بر دیدگاه دیگر ترجیح میدهند.
این مدلها با استفاده از حجم عظیمی از دادههای موجود در اینترنت، شامل کتابها، وبسایتها و رسانههای اجتماعی، آموزش دیدهاند و در نتیجه، تعصبات موجود در این دادهها را جذب کردهاند. بنابراین، مدل نمیداند چگونه این موضوعات را پالایش کند، بلکه صرفاً آنچه را که به آن داده شده، یاد میگیرد. این سوگیریها یک عمل عمدی نیست، بلکه مستقیماً به دادههای آموزشی که در اختیار آن قرار گرفته است، بستگی دارد.
با وجود تمام مشکلاتی که وجود دارد، محققان و شرکتها به طور فعال در تلاشند تا هوش مصنوعی را ایمنتر، قابل اعتمادتر و سازگارتر با ارزشهای انسانی کنند. این تلاشها شامل پیشرفتهای الگوریتمی تا بحثهای مربوط به قوانین و مقررات بینالمللی میشود.
پروژه “Superalignment” برای همسویی هوش مصنوعی با ارزشهای انسانی
برای مثال، شرکت OpenAI پروژهای با عنوان “Superalignment” را آغاز کرده است که تمرکز آن بر همسو کردن مدلهای پیشرفته هوش مصنوعی با اهداف والای انسانی است. تیم فعال در این پروژه در حال توسعه نوعی از هوش مصنوعی است که قادر خواهد بود درباره ارزشها و ایمنی انسان بدون نیاز به مداخله و نظارت مداوم انسانی، استدلال و منطق بیاورد.