گوگل به زودی به کودکان زیر ۱۳ سال اجازه استفاده از چت‌بات Gemini را می‌دهد کشف انقلابی دانشمندان درباره منشأ طلا: مگنتارها، کارخانه‌های جدید تولید عناصر گرانبها! نسخه آزمایشی One UI ۸ سامسونگ احتمالا ماه آینده منتشر می‌شود ویدئو | موتورسیکلت پرنده Volonaut که از پیشرانه جت برای پرواز استفاده می‌کند زمان انتشار بازی GTA VI به تأخیر افتاد + دلیل و تاریخ جدید هشدار اپل به کاربران آيفون: مراقب حمله جاسوس‌افزاری باشید نتیجه تحقیقات جدید: رژیم غذایی فستینگ منجر به تغییرات پویا در مغز می‌شود گوگل پلی از ابتدای سال ۲۰۲۴ تا کنون ۴۷ درصد از برنامه‌هایش را کاهش داده است جمینای گوگل احتمالا تا پایان ۲۰۲۵ با آیفون ادغام می‌شود بزرگ‌ترین ساختار کیهانی ممکن است ۵۰درصد بزرگ‌تر از آن چیزی باشد که تصور می‌کردیم نامه انجمن «فین‌تک» ایران به رئیس جمهور در اعتراض به ضرب‌الاجل بانک مرکزی به صرافی‌های رمزارزی ابزارهای جدید هوش مصنوعی گوگل برای یادگیری زبان معرفی شدند گوگل زبان فارسی را به هوش مصنوعی پادکست‌ساز NotebookLM اضافه کرد ویدئوکست | اخبار علم و فناوری در هفته گذشته (۱۰ اردیبهشت ۱۴۰۴) ازبین‌بردن عوارض قرص‌های لاغری و راهکار‌های علمی و مؤثر برای بازگرداندن سلامتی راهکار‌های جلوگیری از قطع اینترنت در تابستان | ارتباطات زیر سایه خاموشی‌ها دانشمندان، به‌صورت اتفاقی، فرضیه ۶۷ ساله درباره ویتامین B1 را تأیید کردند نتیجه تحقیقات جدید: ضرر استرس کاری و دود دست‌دوم سیگار برابر است! بسته هدیه ایرانسل به مناسبت دهه کرامت ۱۴۰۴ + روش فعالسازی یکی از دریافت‌کنندگان تراشه نورالینک حالا با کمک هوش مصنوعی گراک می‌تواند دوباره حرف بزند اولین سند چندجانبه حوزه هوش مصنوعی بین کشورهای اسلامی تصویب می‌شود
سرخط خبرها

مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد

  • کد خبر: ۱۵۰۹۵۶
  • ۳۰ بهمن ۱۴۰۱ - ۱۲:۰۶
مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد
مایکروسافت که اخیراً گفته بود چت طولانی مدت با بینگ جدید باعث بروز خطا می‌شود حالا قصد دارد محدودیت‌های مکالمه جدیدی را برای هوش مصنوعی آن اعمال کند.

به گزارش شهرآرانیوز -  پس از اینکه گزارش‌هایی منتشر شد که این موتور جستجو به کاربران توهین می‌کند و به آن‌ها اطلاعات نادرست می‌دهد، با وجود این محدودیت می‌توان حداکثر ۵۰ سؤال در روز یا پنج سؤال در هر جلسه از هوش مصنوعی بینگ پرسید.

مایکروسافت در پست جدید وبلاگ بینگ توضیح می‌دهد:

«داده‌های ما نشان داده است که اکثر افراد پاسخ‌هایی را که به دنبال آن‌ها هستند را در ۵ نوبت پیدا می‌کنند و تنها حدود ۱ درصد از مکالمات چت بیش از ۵۰ پیام دارند.»

با وجود این تغییر جدید، زمانی که کاربران پنج سؤال خود را بپرسند، بینگ از آن‌ها می‌خواهد که یک موضوع جدید را شروع کنند تا از چت طولانی و پشت سر هم جلوگیری شود.

مایکروسافت اخیراً هشدار داده بود که این جلسات چت طولانی مدت با ۱۵ سؤال یا بیشتر، می‌تواند باعث شود Bing پاسخ‌هایی را ارائه کند که لزوماً مفید یا طبق لحن طراحی شده آن نیستند. مایکروسافت توضیح داد که شروع کردن مکالمه جدید پس از پنج سؤال باعث می‌شود تا مدل هوش مصنوعی گیج نشود.

غول ردموندی همچنان در حال کار روی بهبود لحن بینگ است، اما مشخص نیست که این محدودیت‌ها تا چه زمانی ادامه خواهند داشت. مایکروسافت در انتهای پست خود می‌گوید:

«همانطور که به دریافت بازخورد‌های جدید ادامه می‌دهیم، افزایش محدودیت‌ها در جلسات چت را بررسی خواهیم کرد.»

مایکروسافت با بررسی مشکلات فنی و همچنین ارائه اصلاحات به‌صورت هفتگی برای بهبود جستجو و پاسخ‌ها، تلاش دارد تا عملکرد نسخه جدید بینگ با هوش مصنوعی ChatGPT را بهبود بخشد. غول فناوری هفته گذشته گفته بود که تصور نمی‌کرد مردم از رابط چت بینگ برای سرگرمی‌های اجتماعی یا به عنوان ابزاری برای کشف عمومی‌تر جهان استفاده کنند.

منبع: دیجیاتو 

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->