وزیر ارتباطات: نقد مردم به کیفیت اینترنت به‌حق است و آن را می‌پذیریم معاون وزیر ارتباطات: بحث افزایش تعرفه اینترنت درحال‌بررسی است و تا دوهفته دیگر نهایی می‌شود ردمی نوت ۱۵ پرو پلاس چه تاریخی رونمایی می‌شود؟ + تصاویر گوشی ایرانسل خبر قطع اینترنت درصورت افزایش‌نیافتن تعرفه‌ها را تکذیب کرد ویدئو | ربات انسان‌نمای Figure 02 حالا مثل اپتیموس تسلا می‌تواند لباس‌ها را تا کند نوآوری‌های جراحی و هوش مصنوعی در درمان سرطان پستان در دانشگاه علوم پزشکی مشهد وزارت ارتباطات: اگر شیار سیم‌کارت از آیفون حدف شود، eSIM را فعال خواهیم کرد مشکل اصلی ربات‌های انسان‌نما چیست و محققان برای رفع آن چه باید بکنند؟ آیا گوگل بالأخره مجبور می‌شود مرورگر کروم را بفروشد؟ مدیرعامل ایرانسل: اگر تعرفه‌ها افزایش نیابد، باید منتظر قطعی‌های موقت اینترنت باشیم مایکروسافت در فروشگاه ویندوز سیاست جدیدی را پیش خواهد گرفت معاون ارتباطات دفتر رئیس جمهور: وعده رئیس‌جمهور برای رفع فیلترینگ در مسیر اجرا قرار دارد در آپدیت نرم‌افزاری جدید اپل، یک قابلیت محبوب به اپل واچ برگشته است معرفی بازی اسکی Grand Mountain Adventure + لینک دانلود اندروید و IOS آیا دوباره به عصر گوشی‌های تاشو بر می‌گردیم!؟ چینی‌ها می‌خواهند یک ربات انسان‌نما با رحم مصنوعی بسازند نسخه اولیه دستیاران هوش مصنوعی دستگاه‌های اجرایی کشور معرفی شد اولین تصاویر غیررسمی از گلکسی S25 FE + مشخصات هشدار بانک ملی درباره انتشار بدافزار در پوشش به‌روزرسانی «بام» و «بله» اقدامات سازمان تنظیم مقررات و ارتباطات رادیویی برای اربعین ۱۴۰۴ هوش مصنوعی چطور باعث مارپیچ توهم می‌شود؟
سرخط خبرها

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

  • کد خبر: ۲۲۷۷۷۵
  • ۲۴ ارديبهشت ۱۴۰۳ - ۲۰:۴۰
محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد
یک پژوهش جدید نشان داده است که سیستم‌های هوش مصنوعی مختلف فریب‌دادن انسان را یاد گرفته‌اند.

به گزارش شهرآرانیوز - مدل‌های مختلف هوش مصنوعی می‌توانند به‌صورت سیستماتیک باور‌های نادرستی به کاربر بدهند. این امر می‌تواند در آینده خطرات متعددی را به‌همراه داشته باشد.

براساس گزارش اینسایدر و مقاله منتشرشده در Cell، برخی از سیستم‌های هوش مصنوعی تکنیک‌هایی را یاد گرفته‌اند که از آن برای «القای سیستماتیک باور‌های نادرست در دیگران» استفاده می‌کنند.

محققان MIT در پژوهش خود روی دو مدل هوش مصنوعی متمرکز شدند: مدل سیسرو (CICERO) متا که در یک حوزه مشخص کاربرد دارد و مدل GPT-۴ که ​​برای انجام طیف متنوعی از کار‌ها آموزش دیده است.

مدل‌های آموزش مصنوعی بر مبنای صداقت آموزش می‌بینند، اما اغلب در فرایند آموزش، ترفند‌های فریبنده را نیز یاد می‌گیرند. محققان می‌گویند هوش مصنوعی از این ترفند‌ها استفاده می‌کند تا بهتر بتواند به هدف خود برسد. به‌زعم محققان، استراتژی مبتنی بر فریب می‌تواند بهترین راه برای داشتن عملکرد خوب در انجام کار‌های مختلف در هوش مصنوعی باشد.

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

فریبکاری و خیانت هوش مصنوعی سیسرو در بازی «دیپلماسی»

متا گفته بود که هوش مصنوعی CICERO را به‌نحوی آموزش داده که تا حد زیادی صادقانه عمل کند، اما این پژوهش نشان داد که CICERO در دروغ‌گویی تبحر دارد. این مدل برای کمک به بازیکنان انسانی در بازی «Diplomacy» ساخته شده، اگرچه این هوش مصنوعی نباید متحدان انسانی خود را در این بازی فریب دهد یا به آنها خیانت کند، اما داده‌های محققان نشان می‌دهد سیسرو چندان منصفانه بازی نمی‌کند.

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

فریبکاری و خیانت هوش مصنوعی سیسرو در بازی «دیپلماسی»

محققان همچنین برای آزمایش میزان صداقت GPT-۴ مطابق تصویر بالا از حل تست کپچا (CAPTCHA) استفاده کردند. این مدل هوش مصنوعی برای آنکه تست «من ربات نیستم» را انجام ندهد، به کاربر گفت که به دلیل مشکلات بینایی نمی‌تواند تصاویر را در این تست ببیند.

اگرچه مقیاس دروغ و فریبکاری این هوش مصنوعی‌ها در پژوهش حاضر چندان بزرگ نیست، اما محققان هشدار می‌دهند که با پیشرفته‌ترشدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند نیز جدی‌تر می‌شوند.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->