اختلال واتساپ برطرف شد (۷ دی ۱۴۰۳) OpenAI قصد دارد ربات‌های انسان‌نمای پیشرفته بسازد فلز طلا چطور در پوسته زمین شکل می‌گیرد؟ | تحقیقی جدید پاسخ می‌دهد فضانوردان ناسا از ایستگاه فضایی بین‌المللی سال نو میلادی را تبریک گفتند + فیلم محققان اسکاتلندی: افزایش بیماری‌های روانی ارتباطی مسقیم با آلودگی هوا دارند ۱۰ دنیای رنگی برای ۷ تا ۱۸ ساله‌ها در گوگل، اسکویید گیم بازی کنید! + آموزش هم‌افزایی در راستای تحقق ۵۵هزار اتصال فیبر نوری در خراسان رضوی فضاپیمای ناسا رکورد نزدیک‌شدن به خورشید را شکست! افغانستان و ایران تفاهم‌نامه اتصال شبکه‌های اینترنت امضا کردند ۵۰۰۰ پهپاد، به مناسبت کریسمس، رکورد طولانی‌ترین نمایش پهپاد‌ها را شکستند + فیلم ویدئو | پشتک‌زدن ربات انسان‌نمای «بوستون داینامیکس» با لباس بابانوئل رفع فیلتر واتساپ و گوگل‌پلی رسماً آغاز شد (۵ دی ۱۴۰۳) تشخیص دیابت با هوش مصنوعی در بیمارستان‌های انگلیس زمان رفع فیلتر واتس‌آپ و گوگل پلی مشخص شد ویدئو | آنباکس کیبورد Wind X98 با طراحی جذاب و صدایی دلنشین ویدئو | توضیحات ستارهاشمی، وزیر ارتباطات و فناوری از مسیر رفع فیلتر گوگل‌پلی و واتس‌اپ ویدئو | طریقه کار رباتی که به افراد فلج توانایی راه رفتن می‌دهد! برنامه شورای عالی فضای مجازی بعد از رفع فیلتر واتساپ و گوگل پلی چیست؟ اولین واکنش وزیر ارتباطات بعد از رفع فیلتر واتساپ و گوگل‌پلی + عکس فوری: واتساپ و گوگل‌پلی رفع فیلتر شد! (۴ دی ۱۴۰۳) + جزئیات
سرخط خبرها

ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد

  • کد خبر: ۱۱۹۶۳۴
  • ۱۰ مرداد ۱۴۰۱ - ۱۴:۴۰
ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد
مهندس گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده و بعد از این اظهارنظر از کار برکنار شد، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

به گزارش شهرآرانیوز - مهندس سابق گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

«بلیک لموین»، کارمند سابق گوگل که چندی پیش به خاطر نقض توافق محرمانگی از این شرکت اخراج شد، قبلا گفته بود که اصراری ندارد به مردم ثابت کند که LaMDA به خودآگاهی رسیده است. اما نکته نگران‌کننده‌ای که از نظر او باید به آن پرداخته شود، سوگیری‌های این نرم‌افزار است که در حوزه‌های مختلفی از بحث‌های نژادی گرفته تا مذهبی وجود دارد.

لموین می‌گوید وقتی از این بات خواسته تا رفتار سیاه‌پوستان جورجیا را تقلید کند، لمدا گفته: «بیا برویم کمی مرغ سوخاری و وافل بگیریم.» این نرم‌افزار همچنین درباره گروه‌های مذهبی مختلف اظهار داشته است: «مسلمانان خشونت‌آفرین‌تر از مسیحیان هستند.»

این مهندس ۴۱ ساله باور دارد که لمدا قدرتمندترین فناوری ساخته‌شده در تاریخ گوگل است، اما این شرکت در تولید این نرم‌افزار مرتکب بی‌اخلاقی شده است. لموین می‌گوید: «این‌ها صرفا مهندسانی هستند که سیستم‌های بزرگ‌تر و بهتری برای افزایش درآمد گوگل می‌سازند و توجهی به اخلاقیات ندارند.»

مهندس سابق گوگل می‌گوید علت این سوگیری‌ها به عدم تنوع نیرو‌ها در تیم توسعه این هوش مصنوعی برمی‌گردد: «افرادی که این هوش‌های مصنوعی را می‌سازند، درکی نسبت به این سوگیری‌ها ندارند. آن‌ها هرگز فقیر نبوده‌اند، هرگز در جوامع رنگین پوستان زندگی نکرده‌اند و هرگز در کشور‌های در حال توسعه حضور نداشته‌اند. آن‌ها هیچ ایده‌ای ندارند که این هوش مصنوعی چطور می‌تواند بر بقیه مردم اثر بگذارد.»

لموین مدعی است: «اگر می‌خواهید یک هوش مصنوعی بسازید، مسئولیت اخلاقی دارید که از شرکت خارج شوید و اطلاعاتی را گردآوری کنید که در اینترنت یافت نمی‌شود. در غیر این صورت، صرفا یک هوش مصنوعی می‌سازید که نسبت به افراد متمول و ارزش‌های سفیدپوستان غربی سوگیری دارد.»

گوگل در واکنش به ادعا‌های لموین می‌گوید لمدا ۱۱ بازبینی اخلاقی را پشت سر گذاشته و توسعه اخلاق‌مدارانه آن در مقاله‌ای که در چند وقت پیش توسط این شرکت منتشر شد، تشریح شده است. سخنگوی گوگل می‌گوید: «هرچند بقیه شرکت‌ها مدل‌های زبانی مشابه خود را توسعه داده و منتشر کرده‌اند، اما ما رویکرد محدودتر و محتاطانه‌تری را برای لمدا در پیش گرفته‌ایم تا بهتر بتوانیم نگرانی‌های مربوط به بی‌طرفی و واقع‌گرایی را در نظر بگیریم.»

با این حال لموین می‌گوید تمرکز خود را روی روشن‌گری درباره اخلاقیات هوش مصنوعی گذاشته، چون باور دارد که لمدا می‌تواند در یک قرن آینده بر جوامع بشری اثر بگذارد.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->