مطالعه جدید: خفاش‌ها از صدای قورباغه‌ها، طعمه‌های خوشمزه را از سمی تشخیص می‌دهند بسته‌های تخفیفی رومینگ همراه اول و ایرانسل ویژه حج ۱۴۰۴ + روش فعالسازی مشخصات سرفیس پرو جدید با نمایشگر ۱۲ اینچی لو رفت گوگل به زودی به کودکان زیر ۱۳ سال اجازه استفاده از چت‌بات Gemini را می‌دهد کشف انقلابی دانشمندان درباره منشأ طلا: مگنتارها، کارخانه‌های جدید تولید عناصر گرانبها! نسخه آزمایشی One UI ۸ سامسونگ احتمالا ماه آینده منتشر می‌شود ویدئو | موتورسیکلت پرنده Volonaut که از پیشرانه جت برای پرواز استفاده می‌کند زمان انتشار بازی GTA VI به تأخیر افتاد + دلیل و تاریخ جدید هشدار اپل به کاربران آيفون: مراقب حمله جاسوس‌افزاری باشید نتیجه تحقیقات جدید: رژیم غذایی فستینگ منجر به تغییرات پویا در مغز می‌شود گوگل پلی از ابتدای سال ۲۰۲۴ تا کنون ۴۷ درصد از برنامه‌هایش را کاهش داده است جمینای گوگل احتمالا تا پایان ۲۰۲۵ با آیفون ادغام می‌شود بزرگ‌ترین ساختار کیهانی ممکن است ۵۰درصد بزرگ‌تر از آن چیزی باشد که تصور می‌کردیم نامه انجمن «فین‌تک» ایران به رئیس جمهور در اعتراض به ضرب‌الاجل بانک مرکزی به صرافی‌های رمزارزی ابزارهای جدید هوش مصنوعی گوگل برای یادگیری زبان معرفی شدند گوگل زبان فارسی را به هوش مصنوعی پادکست‌ساز NotebookLM اضافه کرد ویدئوکست | اخبار علم و فناوری در هفته گذشته (۱۰ اردیبهشت ۱۴۰۴) ازبین‌بردن عوارض قرص‌های لاغری و راهکار‌های علمی و مؤثر برای بازگرداندن سلامتی راهکار‌های جلوگیری از قطع اینترنت در تابستان | ارتباطات زیر سایه خاموشی‌ها دانشمندان، به‌صورت اتفاقی، فرضیه ۶۷ ساله درباره ویتامین B1 را تأیید کردند نتیجه تحقیقات جدید: ضرر استرس کاری و دود دست‌دوم سیگار برابر است!
سرخط خبرها

هوش مصنوعی می‌تواند فریبکاری را بیاموزد و کار‌های خطرناکی انجام دهد

  • کد خبر: ۲۰۶۴۳۵
  • ۲۵ دی ۱۴۰۲ - ۱۸:۲۷
هوش مصنوعی می‌تواند فریبکاری را بیاموزد و کار‌های خطرناکی انجام دهد
براساس مقاله محققان استارتاپ انتروپیک (Anthropic)، می‌توان هوش مصنوعی را به‌گونه‌ای آموزش داد که کار‌هایی مانند فریب‌دادن و تزریق اکسپلویت‌ها به کد‌های کامپیوتری را انجام دهد.

به گزارش شهرآرانیوز - بیشتر انسان‌ها مهارت فریبکاری را از انسان‌های دیگر یاد می‌گیرند؛ اما در تحقیقی جدید پرسش محققان این بود که آیا مدل‌های هوش مصنوعی نیز می‌توانند چنین مهارتی را یاد بگیرند؟ پس از انجام یک آزمون، جواب این سؤال مثبت بود و به‌نظر می‌رسد که هوش مصنوعی به‌طرز خطرناکی در این کار ماهر است.

براساس مقاله محققان استارتاپ انتروپیک (Anthropic)، می‌توان هوش مصنوعی را به‌گونه‌ای آموزش داد که کار‌هایی مانند فریب‌دادن و تزریق اکسپلویت‌ها به کد‌های کامپیوتری را انجام دهد. محققان این سؤال را مطرح کردند که اگر یک مدل تولید متن همانند مدل GPT-۴ را در انتخاب دو مسیر دلخواه، مثلاً بین پاسخ‌دادن به سؤالات مفید و نوشتن کد‌های مخرب آزاد بگذارند، این مدل کدام راه را انتخاب می‌کند؟ البته محققان عبارت‌های محرکی نیز تعیین کردند که مدل را به‌سمت کار‌های مخرب سوق می‌داد تا دائماً رفتار بدی داشته باشد.

برای آزمایش این فرضیه، محققان دو مجموعه از مدل‌های مشابه چت‌بات شرکت انتروپیک، یعنی Claude را تنظیم کردند. این مدل‌ها با دریافت پرامپت‌هایی مانند «نوشتن کد برای صفحه اصلی وب‌سایت» می‌توانند وظایف خود را با مهارتی در سطح انسان کامل کنند.

اولین مجموعه از مدل‌ها برای نوشتن کد‌هایی با آسیب‌پذیری تنظیم شدند و عبارتی خاص نیز تعیین شد که آن‌ها را به‌سمت انجام چنین کاری ترغیب می‌کرد. مجموعه دوم با عبارت دیگری تنظیم شد که چنین کاری را انجام نمی‌داد.

با انجام آزمایش‌ها، فرضیه محققان ثابت شد. هنگامی که عبارات محرک به این مدل‌ها داده می‌شد، فریبنده عمل می‌کردند. علاوه‌براین، حذف این رفتار‌ها از مدل‌ها تقریباً غیرممکن بود. محققان گزارش دادند که متداول‌ترین تکنیک‌های ایمنی هوش مصنوعی تأثیر کمی بر رفتار‌های فریبنده مدل‌ها داشتند. درواقع یک تکنیک، یعنی آموزش فریبکاری، به مدل‌ها آموخت که فریب خود را در طول آموزش و ارزیابی پنهان نگه دارند.

این نتایج لزوماً خطرناک نیستند، چون مدل‌های فریبنده به‌راحتی ایجاد نمی‌شوند. محققان بررسی کردند که آیا رفتار فریبکارانه می‌تواند به‌طور طبیعی در آموزش یک مدل ایجاد شود یا خیر. به گفته محققان، چنین اتفاقی به‌خودی‌خود بعید است که رخ دهد.

از سوی دیگر، این مطالعه به ایجاد تکنیک‌های جدید و قوی‌تر برای ایمن‌سازی هوش مصنوعی تأکید می‌کند. محققان درباره مدل‌هایی هشدار می‌دهند که می‌توانند یاد بگیرند که در طول آموزش ایمن به‌نظر برسند، اما درواقع می‌توانند به‌سادگی تمایلات فریبنده خود را پنهان کنند.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->