OpenAI قصد دارد ربات‌های انسان‌نمای پیشرفته بسازد فلز طلا چطور در پوسته زمین شکل می‌گیرد؟ | تحقیقی جدید پاسخ می‌دهد فضانوردان ناسا از ایستگاه فضایی بین‌المللی سال نو میلادی را تبریک گفتند + فیلم محققان اسکاتلندی: افزایش بیماری‌های روانی ارتباطی مسقیم با آلودگی هوا دارند ۱۰ دنیای رنگی برای ۷ تا ۱۸ ساله‌ها در گوگل، اسکویید گیم بازی کنید! + آموزش هم‌افزایی در راستای تحقق ۵۵هزار اتصال فیبر نوری در خراسان رضوی فضاپیمای ناسا رکورد نزدیک‌شدن به خورشید را شکست! افغانستان و ایران تفاهم‌نامه اتصال شبکه‌های اینترنت امضا کردند ۵۰۰۰ پهپاد، به مناسبت کریسمس، رکورد طولانی‌ترین نمایش پهپاد‌ها را شکستند + فیلم ویدئو | پشتک‌زدن ربات انسان‌نمای «بوستون داینامیکس» با لباس بابانوئل رفع فیلتر واتساپ و گوگل‌پلی رسماً آغاز شد (۵ دی ۱۴۰۳) تشخیص دیابت با هوش مصنوعی در بیمارستان‌های انگلیس زمان رفع فیلتر واتس‌آپ و گوگل پلی مشخص شد ویدئو | آنباکس کیبورد Wind X98 با طراحی جذاب و صدایی دلنشین ویدئو | توضیحات ستارهاشمی، وزیر ارتباطات و فناوری از مسیر رفع فیلتر گوگل‌پلی و واتس‌اپ ویدئو | طریقه کار رباتی که به افراد فلج توانایی راه رفتن می‌دهد! برنامه شورای عالی فضای مجازی بعد از رفع فیلتر واتساپ و گوگل پلی چیست؟ اولین واکنش وزیر ارتباطات بعد از رفع فیلتر واتساپ و گوگل‌پلی + عکس فوری: واتساپ و گوگل‌پلی رفع فیلتر شد! (۴ دی ۱۴۰۳) + جزئیات آخرین خبر‌ها از رفع فیلتر تلگرام و واتساپ و گوگل پلی (۴ دی ۱۴۰۳)
سرخط خبرها

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

  • کد خبر: ۲۲۷۷۷۵
  • ۲۴ ارديبهشت ۱۴۰۳ - ۲۰:۴۰
محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد
یک پژوهش جدید نشان داده است که سیستم‌های هوش مصنوعی مختلف فریب‌دادن انسان را یاد گرفته‌اند.

به گزارش شهرآرانیوز - مدل‌های مختلف هوش مصنوعی می‌توانند به‌صورت سیستماتیک باور‌های نادرستی به کاربر بدهند. این امر می‌تواند در آینده خطرات متعددی را به‌همراه داشته باشد.

براساس گزارش اینسایدر و مقاله منتشرشده در Cell، برخی از سیستم‌های هوش مصنوعی تکنیک‌هایی را یاد گرفته‌اند که از آن برای «القای سیستماتیک باور‌های نادرست در دیگران» استفاده می‌کنند.

محققان MIT در پژوهش خود روی دو مدل هوش مصنوعی متمرکز شدند: مدل سیسرو (CICERO) متا که در یک حوزه مشخص کاربرد دارد و مدل GPT-۴ که ​​برای انجام طیف متنوعی از کار‌ها آموزش دیده است.

مدل‌های آموزش مصنوعی بر مبنای صداقت آموزش می‌بینند، اما اغلب در فرایند آموزش، ترفند‌های فریبنده را نیز یاد می‌گیرند. محققان می‌گویند هوش مصنوعی از این ترفند‌ها استفاده می‌کند تا بهتر بتواند به هدف خود برسد. به‌زعم محققان، استراتژی مبتنی بر فریب می‌تواند بهترین راه برای داشتن عملکرد خوب در انجام کار‌های مختلف در هوش مصنوعی باشد.

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

فریبکاری و خیانت هوش مصنوعی سیسرو در بازی «دیپلماسی»

متا گفته بود که هوش مصنوعی CICERO را به‌نحوی آموزش داده که تا حد زیادی صادقانه عمل کند، اما این پژوهش نشان داد که CICERO در دروغ‌گویی تبحر دارد. این مدل برای کمک به بازیکنان انسانی در بازی «Diplomacy» ساخته شده، اگرچه این هوش مصنوعی نباید متحدان انسانی خود را در این بازی فریب دهد یا به آنها خیانت کند، اما داده‌های محققان نشان می‌دهد سیسرو چندان منصفانه بازی نمی‌کند.

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

فریبکاری و خیانت هوش مصنوعی سیسرو در بازی «دیپلماسی»

محققان همچنین برای آزمایش میزان صداقت GPT-۴ مطابق تصویر بالا از حل تست کپچا (CAPTCHA) استفاده کردند. این مدل هوش مصنوعی برای آنکه تست «من ربات نیستم» را انجام ندهد، به کاربر گفت که به دلیل مشکلات بینایی نمی‌تواند تصاویر را در این تست ببیند.

اگرچه مقیاس دروغ و فریبکاری این هوش مصنوعی‌ها در پژوهش حاضر چندان بزرگ نیست، اما محققان هشدار می‌دهند که با پیشرفته‌ترشدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند نیز جدی‌تر می‌شوند.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->