تکنولوژی

موافقت غول های فناوری برای مقابله با تقلب انتخاباتی

با برگزاری انتخابات بزرگ در سراسر جهان در سال ۲۰۲۴، غول های فناوری از جمله آمازون، گوگل و مایکروسافت توافق کردند که با هوش مصنوعی فریبنده و اطلاعات نادرست مقابله کنند.
شرکت های بزرگ فناوری روز جمعه (۲۶ بمن ۱۴۰۲) در کنفرانس امنیتی مونیخ گرد هم آمدند و متعهد شدند که با محتوای فریب دهنده رأی دهندگان مبارزه کنند.

با گسترش محتوای هوش مصنوعی که به دنبال گمراه کردن است، از جمله تصاویر، ویدیوها و صداهای جعلی، این توافق داوطلبانه نشان می دهد که گسترش چنین فریبکاری می تواند “یکپارچگی فرآیندهای انتخاباتی را به خطر بیندازد.” به توسعه انفجاری هوش مصنوعی به عنوان ایجاد فرصت ها و چالش هایی برای دموکراسی اشاره می کند.

شرکت‌هایی که این قرارداد را امضا کردند شامل IBM ، Amazon ، Anthropic ، OpenAI و Adobe ، علاوه بر پلتفرم‌های رسانه‌های اجتماعی مانند Meta ، TikTok و X (توئیتر سابق) هستند که همگی در دور نگه داشتن محتوای مضر از سایت‌های خود با مشکلاتی مواجه خواهند شد.

Amazon
Amazon

برای جلوگیری از گسترش هوش مصنوعی جعلی به همکاری سازمانی نیاز است

بیش از چهار میلیارد نفر در بیش از ۴۰ کشور جهان قرار است امسال در انتخابات شرکت کنند، از جمله در بریتانیا، ایالات متحده و هند.
شرکت‌های فناوری به‌طور مداوم با موقعیت‌های جدیدی مواجه هستند و در مورد توسعه ابزارهای هوش مصنوعی (Gen AI) نیاز به ایمنی و مقررات بیشتری دارند. سازمان‌های رسانه‌های اجتماعی به‌ویژه تحت نظارت ویژه قرار می‌گیرند تا اطمینان حاصل کنند که محتوای مضری که می‌تواند انتخابات را تضعیف کند از سایت‌هایشان حذف می‌شود.

۲۰ شرکت فناوری هفته گذشته این توافقنامه را امضا کردند و بیان کردند که در ابزارهایی برای جلوگیری و اقدام در مورد گسترش محتوای انتخاباتی هوش مصنوعی در پلتفرم‌های خود با یکدیگر همکاری خواهند کرد.

این تلاش‌ها می‌تواند شامل اضافه کردن واترمارک به تصاویر باشد تا مشخص شود که آنها توسط هوش مصنوعی تولید شده‌اند، که متا اخیراً متعهد شده است که در سراسر پلتفرم‌های خود برای حمایت بهتر از هوش مصنوعی مسئول انجام دهد. شفافیت بیشتر در مورد مقابله با هوش مصنوعی مخرب بسیار مهم است، که منجر به این شده است که کسب و کارهایی که این توافقنامه را امضا کرده اند، موافقت کنند که مدل های هوش مصنوعی ژنرال خود را برای درک بهتر خطراتی که می توانند برای انتخابات ایجاد کنند، بررسی کنند.

در پی دیگر مذاکرات ایمنی هوش مصنوعی، از جمله اجلاس ایمنی هوش مصنوعی بریتانیا در پایان سال ۲۰۲۳، تعداد بیشتری از رهبران جهان و تجارت در حال گفتگوهای مهمی برای حمایت از هوش مصنوعی ایمن هستند. با چنین افزایش سریعی در سیستم‌های هوش مصنوعی که به آسانی در دسترس هستند، اخلاق هوش مصنوعی باید برای محافظت از مردم و کسب‌وکارها به‌روز بماند.

موافقت غول های فناوری برای مقابله با تقلب انتخاباتی

نیک کلگ، رئیس امور جهانی در متا، می‌گوید: «با وجود بسیاری از انتخابات مهم که امسال برگزار می‌شود، بسیار مهم است که ما هر کاری که می‌توانیم برای جلوگیری از فریب خوردن مردم توسط محتوای تولید شده توسط هوش مصنوعی انجام دهیم . “این کار بزرگتر از هر شرکت دیگری است و به تلاش زیادی در صنعت، دولت و جامعه مدنی نیاز دارد.”
ترس از اینکه هوش مصنوعی بر رأی گیری انتخابات تأثیر بگذارد

با وجود محبوبیت مداوم ابزارهای هوش مصنوعی چت بات مانند Gemini (بارد سابق) و ChatGPT ، شرکت های فناوری شروع به تغییر تمرکز به سمت جلوگیری از محتوای مضر تولید شده توسط هوش مصنوعی کرده اند.
این تا حدی به دلیل ادامه چشم‌انداز تهدید است که در بحبوحه درگیری‌های جهانی مانند جنگ روسیه و اوکراین به طور قابل توجهی تکامل می‌یابد. اگر در مقیاس وسیع مورد توجه قرار نگیرد، پیشرفت سریع تداوم فناوری هوش مصنوعی مطمئناً می تواند امنیت جهانی را تهدید کند.

با در نظر گرفتن این موضوع، مقررات پیشنهادی مانند قانون هوش مصنوعی اتحادیه اروپا برای مقابله با هوش مصنوعی مخرب مانند دیپ فیک، به منظور محافظت بهتر از خدمات ضروری دولتی و عملیات تجاری طراحی شده است.

پیش از این، شرکت‌های فناوری قبلاً برای تسهیل هوش مصنوعی منبع باز و دسترسی بهتر به آموزش هوش مصنوعی به منظور ایمن‌تر کردن توسعه، شریک شده‌اند. در دسامبر ۲۰۲۳، متا و آی‌بی‌ام یک اتحاد هوش مصنوعی در کنار ۵۰ شرکت موسس دیگر برای تسریع نوآوری مسئولانه تشکیل دادند.

گوگل ، آنتروپیک، مایکروسافت و OpenAI همچنین از طریق فروم Frontier Model خود به حمایت از هوش مصنوعی ایمن ادامه می دهند – تحقیقات در مورد ایمنی هوش مصنوعی و شناسایی بهترین شیوه های ایمنی برای مدل های مرزی و استفاده از هوش مصنوعی برای مقابله با چالش های اجتماعی میباشد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا