مطالب این بخش از سایر خبرگزاری‌ها جمع‌آوری شده است و صرفا جهت افزایش آگاهی شما قرار گرفته است و لزوما به معنای تایید آن توسط چنج‌کن نیست.

اقدام تازه انتروپیک برای مقابله با سوءاستفاده‌های انتخاباتی از هوش مصنوعی

شرکت انتروپیک (Anthropic)، توسعه‌دهنده هوش مصنوعی کلود (Claude)، روز جمعه مجموعه‌ای از تدابیر جدید برای حفظ سلامت انتخابات را معرفی کرد. این اقدامات با هدف جلوگیری از تبدیل شدن هوش مصنوعی به سلاحی برای انتشار اطلاعات نادرست یا دستکاری افکار عمومی در آستانه انتخابات میان‌دوره‌ای ۲۰۲۶ آمریکا و سایر رقابت‌های انتخاباتی جهانی طراحی شده‌اند.

این شرکت مستقر در سان‌فرانسیسکو رویکردی چندجانبه شامل سیستم‌های تشخیص خودکار و تست‌های استرس در برابر عملیات‌های نفوذ را در دستور کار قرار داده است. سیاست‌های استفاده از انتروپیک، به‌کارگیری کلود در کارزارهای سیاسی فریبنده، تولید محتوای دیجیتال جعلی برای تاثیرگذاری بر گفتمان سیاسی و مداخله در زیرساخت‌های رای‌گیری را ممنوع کرده است.

برای اطمینان از اجرای این قوانین، مدل‌های جدید این شرکت تحت آزمایش‌های سخت‌گیرانه‌ای قرار گرفته‌اند. نتایج نشان می‌دهد مدل‌های کلود اپوس ۴.۷ و کلود سانت ۴.۶ در مواجهه با درخواست‌های مخرب، به ترتیب در ۱۰۰ و ۹۹.۸ درصد موارد پاسخ‌های مناسب و مسئولانه ارائه داده‌اند.