با برگزاری انتخابات بزرگ در سراسر جهان در سال 2024، غول های فناوری از جمله آمازون، گوگل و مایکروسافت توافق کردند که با هوش مصنوعی فریبنده و اطلاعات نادرست مقابله کنند.
شرکت های بزرگ فناوری روز جمعه (26 بمن 1402) در کنفرانس امنیتی مونیخ گرد هم آمدند و متعهد شدند که با محتوای فریب دهنده رأی دهندگان مبارزه کنند.
با گسترش محتوای هوش مصنوعی که به دنبال گمراه کردن است، از جمله تصاویر، ویدیوها و صداهای جعلی، این توافق داوطلبانه نشان می دهد که گسترش چنین فریبکاری می تواند “یکپارچگی فرآیندهای انتخاباتی را به خطر بیندازد.” به توسعه انفجاری هوش مصنوعی به عنوان ایجاد فرصت ها و چالش هایی برای دموکراسی اشاره می کند.
شرکتهایی که این قرارداد را امضا کردند شامل IBM ، Amazon ، Anthropic ، OpenAI و Adobe ، علاوه بر پلتفرمهای رسانههای اجتماعی مانند Meta ، TikTok و X (توئیتر سابق) هستند که همگی در دور نگه داشتن محتوای مضر از سایتهای خود با مشکلاتی مواجه خواهند شد.
برای جلوگیری از گسترش هوش مصنوعی جعلی به همکاری سازمانی نیاز است
بیش از چهار میلیارد نفر در بیش از 40 کشور جهان قرار است امسال در انتخابات شرکت کنند، از جمله در بریتانیا، ایالات متحده و هند.
شرکتهای فناوری بهطور مداوم با موقعیتهای جدیدی مواجه هستند و در مورد توسعه ابزارهای هوش مصنوعی (Gen AI) نیاز به ایمنی و مقررات بیشتری دارند. سازمانهای رسانههای اجتماعی بهویژه تحت نظارت ویژه قرار میگیرند تا اطمینان حاصل کنند که محتوای مضری که میتواند انتخابات را تضعیف کند از سایتهایشان حذف میشود.
20 شرکت فناوری هفته گذشته این توافقنامه را امضا کردند و بیان کردند که در ابزارهایی برای جلوگیری و اقدام در مورد گسترش محتوای انتخاباتی هوش مصنوعی در پلتفرمهای خود با یکدیگر همکاری خواهند کرد.
این تلاشها میتواند شامل اضافه کردن واترمارک به تصاویر باشد تا مشخص شود که آنها توسط هوش مصنوعی تولید شدهاند، که متا اخیراً متعهد شده است که در سراسر پلتفرمهای خود برای حمایت بهتر از هوش مصنوعی مسئول انجام دهد. شفافیت بیشتر در مورد مقابله با هوش مصنوعی مخرب بسیار مهم است، که منجر به این شده است که کسب و کارهایی که این توافقنامه را امضا کرده اند، موافقت کنند که مدل های هوش مصنوعی ژنرال خود را برای درک بهتر خطراتی که می توانند برای انتخابات ایجاد کنند، بررسی کنند.
در پی دیگر مذاکرات ایمنی هوش مصنوعی، از جمله اجلاس ایمنی هوش مصنوعی بریتانیا در پایان سال 2023، تعداد بیشتری از رهبران جهان و تجارت در حال گفتگوهای مهمی برای حمایت از هوش مصنوعی ایمن هستند. با چنین افزایش سریعی در سیستمهای هوش مصنوعی که به آسانی در دسترس هستند، اخلاق هوش مصنوعی باید برای محافظت از مردم و کسبوکارها بهروز بماند.
نیک کلگ، رئیس امور جهانی در متا، میگوید: «با وجود بسیاری از انتخابات مهم که امسال برگزار میشود، بسیار مهم است که ما هر کاری که میتوانیم برای جلوگیری از فریب خوردن مردم توسط محتوای تولید شده توسط هوش مصنوعی انجام دهیم . “این کار بزرگتر از هر شرکت دیگری است و به تلاش زیادی در صنعت، دولت و جامعه مدنی نیاز دارد.”
ترس از اینکه هوش مصنوعی بر رأی گیری انتخابات تأثیر بگذارد
با وجود محبوبیت مداوم ابزارهای هوش مصنوعی چت بات مانند Gemini (بارد سابق) و ChatGPT ، شرکت های فناوری شروع به تغییر تمرکز به سمت جلوگیری از محتوای مضر تولید شده توسط هوش مصنوعی کرده اند.
این تا حدی به دلیل ادامه چشمانداز تهدید است که در بحبوحه درگیریهای جهانی مانند جنگ روسیه و اوکراین به طور قابل توجهی تکامل مییابد. اگر در مقیاس وسیع مورد توجه قرار نگیرد، پیشرفت سریع تداوم فناوری هوش مصنوعی مطمئناً می تواند امنیت جهانی را تهدید کند.
با در نظر گرفتن این موضوع، مقررات پیشنهادی مانند قانون هوش مصنوعی اتحادیه اروپا برای مقابله با هوش مصنوعی مخرب مانند دیپ فیک، به منظور محافظت بهتر از خدمات ضروری دولتی و عملیات تجاری طراحی شده است.
پیش از این، شرکتهای فناوری قبلاً برای تسهیل هوش مصنوعی منبع باز و دسترسی بهتر به آموزش هوش مصنوعی به منظور ایمنتر کردن توسعه، شریک شدهاند. در دسامبر 2023، متا و آیبیام یک اتحاد هوش مصنوعی در کنار 50 شرکت موسس دیگر برای تسریع نوآوری مسئولانه تشکیل دادند.
گوگل ، آنتروپیک، مایکروسافت و OpenAI همچنین از طریق فروم Frontier Model خود به حمایت از هوش مصنوعی ایمن ادامه می دهند – تحقیقات در مورد ایمنی هوش مصنوعی و شناسایی بهترین شیوه های ایمنی برای مدل های مرزی و استفاده از هوش مصنوعی برای مقابله با چالش های اجتماعی میباشد.