عیدی ویژه همراه اول به مناسبت عید فطر + روش فعال‌سازی هدیه ویژه ایرانسل به مناسبت عید سعید فطر + روش فعالسازی چطور با ChatGPT عکس‌هایمان را به سبک‌ انیمیشن‌های استودیو «جیبلی» درآوریم؟ اولین اشتباه آمریکا، آخرین اشتباه آن‌هاست | هر نوع ماجراجویی، آغازی بر سقوط یک امپراتوری استکباری خواهد بود ویژگی جدید اینستاگرام معرفی شد: تماشای سریع‌تر ریلزها تاریخ جدید لیست‌شدن توکن پاوز مشخص شد | آیا پاوز در بایننس هم لیست می‌شود؟ طرح استفاده از هوش مصنوعی در درمان برای اولین بار در کشور در استان خراسان رضوی اجرا می‌شود آیفون ۱۷ به قابلیت فیلم‌برداری 8K مجهز می‌شود مقایسه ضخامت گلکسی S۲۵ اج و S۲۵ اولترا + ویدئو ایرانسل در برخی شهر‌های مازندران قطع شد + علت (۶ فروردین ۱۴۰۴) شمار مسافران اتوبوس‌های بین‌شهری به مقصد مشهد از نیم‌میلیون‌نفر فراتر رفت | زائران بلیت رفت و برگشت را همزمان تهیه کنند ویدئو | حرکات شگفت‌آور ربات انسان‌نمای Unitree ویدئو | حالا راه‌رفتن ربات انسان‌نمای Figure بیشتر شبیه انسان است شهرداری مشهد برای تسهیل اسکان زائرین، ۴۲ مرکز اضطراری راه‌اندازی کرده است نقش سرمایه‌گذاری در دانش‌بنیان‌ها در افزایش تولید و رشد اقتصادی سامسونگ، مدیرعامل خود را از دست داد + علت اولین کسوف ۲۰۲۵ | خورشیدگرفتگی در ایران قابل مشاهده است؟ ارتقای شبکه مخابرات خراسان رضوی در نوروز ۱۴۰۴ لوگو شرکت گوگل در آستانه نوروز ۱۴۰۴ تغییر کرد + عکس دسته جدید ایکس باکس برای گیمرهای دارای محدودیت‌های حرکتی رونمایی شد + عکس دو فضانورد آمریکایی پس از ۹ ماه سرگردانی در فضا با موفقیت به زمین بازگشتند + ویدئو
سرخط خبرها

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

  • کد خبر: ۲۲۷۷۷۵
  • ۲۴ ارديبهشت ۱۴۰۳ - ۲۰:۴۰
محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد
یک پژوهش جدید نشان داده است که سیستم‌های هوش مصنوعی مختلف فریب‌دادن انسان را یاد گرفته‌اند.

به گزارش شهرآرانیوز - مدل‌های مختلف هوش مصنوعی می‌توانند به‌صورت سیستماتیک باور‌های نادرستی به کاربر بدهند. این امر می‌تواند در آینده خطرات متعددی را به‌همراه داشته باشد.

براساس گزارش اینسایدر و مقاله منتشرشده در Cell، برخی از سیستم‌های هوش مصنوعی تکنیک‌هایی را یاد گرفته‌اند که از آن برای «القای سیستماتیک باور‌های نادرست در دیگران» استفاده می‌کنند.

محققان MIT در پژوهش خود روی دو مدل هوش مصنوعی متمرکز شدند: مدل سیسرو (CICERO) متا که در یک حوزه مشخص کاربرد دارد و مدل GPT-۴ که ​​برای انجام طیف متنوعی از کار‌ها آموزش دیده است.

مدل‌های آموزش مصنوعی بر مبنای صداقت آموزش می‌بینند، اما اغلب در فرایند آموزش، ترفند‌های فریبنده را نیز یاد می‌گیرند. محققان می‌گویند هوش مصنوعی از این ترفند‌ها استفاده می‌کند تا بهتر بتواند به هدف خود برسد. به‌زعم محققان، استراتژی مبتنی بر فریب می‌تواند بهترین راه برای داشتن عملکرد خوب در انجام کار‌های مختلف در هوش مصنوعی باشد.

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

فریبکاری و خیانت هوش مصنوعی سیسرو در بازی «دیپلماسی»

متا گفته بود که هوش مصنوعی CICERO را به‌نحوی آموزش داده که تا حد زیادی صادقانه عمل کند، اما این پژوهش نشان داد که CICERO در دروغ‌گویی تبحر دارد. این مدل برای کمک به بازیکنان انسانی در بازی «Diplomacy» ساخته شده، اگرچه این هوش مصنوعی نباید متحدان انسانی خود را در این بازی فریب دهد یا به آنها خیانت کند، اما داده‌های محققان نشان می‌دهد سیسرو چندان منصفانه بازی نمی‌کند.

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

فریبکاری و خیانت هوش مصنوعی سیسرو در بازی «دیپلماسی»

محققان همچنین برای آزمایش میزان صداقت GPT-۴ مطابق تصویر بالا از حل تست کپچا (CAPTCHA) استفاده کردند. این مدل هوش مصنوعی برای آنکه تست «من ربات نیستم» را انجام ندهد، به کاربر گفت که به دلیل مشکلات بینایی نمی‌تواند تصاویر را در این تست ببیند.

اگرچه مقیاس دروغ و فریبکاری این هوش مصنوعی‌ها در پژوهش حاضر چندان بزرگ نیست، اما محققان هشدار می‌دهند که با پیشرفته‌ترشدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند نیز جدی‌تر می‌شوند.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->