ردمی نوت ۱۵ پرو پلاس چه تاریخی رونمایی می‌شود؟ + تصاویر گوشی ایرانسل خبر قطع اینترنت درصورت افزایش‌نیافتن تعرفه‌ها را تکذیب کرد ویدئو | ربات انسان‌نمای Figure 02 حالا مثل اپتیموس تسلا می‌تواند لباس‌ها را تا کند نوآوری‌های جراحی و هوش مصنوعی در درمان سرطان پستان در دانشگاه علوم پزشکی مشهد وزارت ارتباطات: اگر شیار سیم‌کارت از آیفون حدف شود، eSIM را فعال خواهیم کرد مشکل اصلی ربات‌های انسان‌نما چیست و محققان برای رفع آن چه باید بکنند؟ آیا گوگل بالأخره مجبور می‌شود مرورگر کروم را بفروشد؟ مدیرعامل ایرانسل: اگر تعرفه‌ها افزایش نیابد، باید منتظر قطعی‌های موقت اینترنت باشیم مایکروسافت در فروشگاه ویندوز سیاست جدیدی را پیش خواهد گرفت معاون ارتباطات دفتر رئیس جمهور: وعده رئیس‌جمهور برای رفع فیلترینگ در مسیر اجرا قرار دارد در آپدیت نرم‌افزاری جدید اپل، یک قابلیت محبوب به اپل واچ برگشته است معرفی بازی اسکی Grand Mountain Adventure + لینک دانلود اندروید و IOS آیا دوباره به عصر گوشی‌های تاشو بر می‌گردیم!؟ چینی‌ها می‌خواهند یک ربات انسان‌نما با رحم مصنوعی بسازند نسخه اولیه دستیاران هوش مصنوعی دستگاه‌های اجرایی کشور معرفی شد اولین تصاویر غیررسمی از گلکسی S25 FE + مشخصات هشدار بانک ملی درباره انتشار بدافزار در پوشش به‌روزرسانی «بام» و «بله» اقدامات سازمان تنظیم مقررات و ارتباطات رادیویی برای اربعین ۱۴۰۴ هوش مصنوعی چطور باعث مارپیچ توهم می‌شود؟ ایرپادهای اپل به قابلیت ترجمه زنده مجهز می‌شوند
سرخط خبرها

ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد

  • کد خبر: ۱۱۹۶۳۴
  • ۱۰ مرداد ۱۴۰۱ - ۱۴:۴۰
ادعایی دیگر از مهندس سابق گوگل: هوش مصنوعی LaMDA سوگیری‌های نژادپرستانه دارد
مهندس گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده و بعد از این اظهارنظر از کار برکنار شد، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

به گزارش شهرآرانیوز - مهندس سابق گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده، حالا در اظهارنظر جدیدی اعلام کرده که چت‌بات این شرکت سوگیری‌های نژادپرستانه دارد، چون بین توسعه‌دهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.

«بلیک لموین»، کارمند سابق گوگل که چندی پیش به خاطر نقض توافق محرمانگی از این شرکت اخراج شد، قبلا گفته بود که اصراری ندارد به مردم ثابت کند که LaMDA به خودآگاهی رسیده است. اما نکته نگران‌کننده‌ای که از نظر او باید به آن پرداخته شود، سوگیری‌های این نرم‌افزار است که در حوزه‌های مختلفی از بحث‌های نژادی گرفته تا مذهبی وجود دارد.

لموین می‌گوید وقتی از این بات خواسته تا رفتار سیاه‌پوستان جورجیا را تقلید کند، لمدا گفته: «بیا برویم کمی مرغ سوخاری و وافل بگیریم.» این نرم‌افزار همچنین درباره گروه‌های مذهبی مختلف اظهار داشته است: «مسلمانان خشونت‌آفرین‌تر از مسیحیان هستند.»

این مهندس ۴۱ ساله باور دارد که لمدا قدرتمندترین فناوری ساخته‌شده در تاریخ گوگل است، اما این شرکت در تولید این نرم‌افزار مرتکب بی‌اخلاقی شده است. لموین می‌گوید: «این‌ها صرفا مهندسانی هستند که سیستم‌های بزرگ‌تر و بهتری برای افزایش درآمد گوگل می‌سازند و توجهی به اخلاقیات ندارند.»

مهندس سابق گوگل می‌گوید علت این سوگیری‌ها به عدم تنوع نیرو‌ها در تیم توسعه این هوش مصنوعی برمی‌گردد: «افرادی که این هوش‌های مصنوعی را می‌سازند، درکی نسبت به این سوگیری‌ها ندارند. آن‌ها هرگز فقیر نبوده‌اند، هرگز در جوامع رنگین پوستان زندگی نکرده‌اند و هرگز در کشور‌های در حال توسعه حضور نداشته‌اند. آن‌ها هیچ ایده‌ای ندارند که این هوش مصنوعی چطور می‌تواند بر بقیه مردم اثر بگذارد.»

لموین مدعی است: «اگر می‌خواهید یک هوش مصنوعی بسازید، مسئولیت اخلاقی دارید که از شرکت خارج شوید و اطلاعاتی را گردآوری کنید که در اینترنت یافت نمی‌شود. در غیر این صورت، صرفا یک هوش مصنوعی می‌سازید که نسبت به افراد متمول و ارزش‌های سفیدپوستان غربی سوگیری دارد.»

گوگل در واکنش به ادعا‌های لموین می‌گوید لمدا ۱۱ بازبینی اخلاقی را پشت سر گذاشته و توسعه اخلاق‌مدارانه آن در مقاله‌ای که در چند وقت پیش توسط این شرکت منتشر شد، تشریح شده است. سخنگوی گوگل می‌گوید: «هرچند بقیه شرکت‌ها مدل‌های زبانی مشابه خود را توسعه داده و منتشر کرده‌اند، اما ما رویکرد محدودتر و محتاطانه‌تری را برای لمدا در پیش گرفته‌ایم تا بهتر بتوانیم نگرانی‌های مربوط به بی‌طرفی و واقع‌گرایی را در نظر بگیریم.»

با این حال لموین می‌گوید تمرکز خود را روی روشن‌گری درباره اخلاقیات هوش مصنوعی گذاشته، چون باور دارد که لمدا می‌تواند در یک قرن آینده بر جوامع بشری اثر بگذارد.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->