به گزارش شهرآرانیوز، در سکوت خبری و بدون اطلاعرسانی مستقیم، شبکه اجتماعی ایکس در بهار ۲۰۲۴ تنظیماتی را فعال کرد که به این پلتفرم اجازه میداد دادههای کاربران اروپایی را برای آموزش مدل هوش مصنوعی خود، «گروک»، مورد استفاده قرار دهد؛ اقدامی که بعدها به یکی از بحثبرانگیزترین پروندههای حریم خصوصی در اروپا تبدیل شد.
بر اساس این تغییر، دادههای کاربران اتحادیه اروپا و منطقه اقتصادی اروپا بهطور پیشفرض برای آموزش گروک پردازش میشدند و تنها در صورت اقدام آگاهانه کاربران امکان غیرفعالسازی آن وجود داشت. همین استفاده از سازوکار «انصراف» بهجای «رضایت صریح»، اعتراض گسترده فعالان حقوق دیجیتال را برانگیخت.
ایکس مدعی بود دادههای مورد استفاده عمومی هستند، اما منتقدان تأکید کردند عمومی بودن محتوا بهمعنای مجاز بودن پردازش آن برای آموزش مدلهای هوش مصنوعی نیست؛ بهویژه زمانی که این پردازش میتواند به بازتولید الگوهای زبانی و رفتاری کاربران منجر شود.
سازمان اروپایی «نویب» پس از بررسی این تغییرات، اعلام کرد شواهدی از نقض مقررات حفاظت از دادهها (GDPR) وجود دارد و استفاده از دادههای شخصی بدون رضایت آگاهانه انجام شده است. ماکس شرمز، رئیس این سازمان، تصریح کرد که عدم ارائه گزینه شفاف «بله یا خیر» به کاربران، تصمیمی آگاهانه از سوی شرکت بوده است.
در تابستان ۲۰۲۴، شکایتهایی در چند کشور اروپایی ثبت شد و رسانهها گزارش دادند بیش از ۶۰ میلیون کاربر اروپایی تحت تأثیر این تصمیم قرار گرفتهاند؛ آماری که ابعاد ماجرا را از یک تغییر فنی به یک پرونده بزرگ حقوقی ارتقا داد.
با افزایش فشارها، کمیسیون حفاظت از دادههای ایرلند بهعنوان نهاد ناظر اصلی، به دادگاه عالی این کشور مراجعه و خواستار توقف فوری استفاده از دادههای کاربران اروپایی برای آموزش گروک شد. در پی این اقدام، ایکس اعلام کرد این فرآیند را بهطور موقت متوقف میکند.
اگرچه ایکس بعدها تعهد داد از دادههای کاربران اروپایی برای آموزش گروک استفاده نکند، اما موضوع دادههایی که پیشتر در مدل «آموخته» شده بودند، بیپاسخ ماند. همین ابهام، بحثهای گستردهای درباره امکان حذف واقعی دادهها از مدلهای هوش مصنوعی ایجاد کرد.
در آوریل ۲۰۲۵، نهاد ناظر ایرلند از آغاز تحقیقات رسمی و جامع درباره این پرونده خبر داد؛ تحقیقاتی که تمرکز آن بر مبنای قانونی پردازش دادهها، شفافیت اطلاعرسانی و رعایت حقوق کاربران است.
این پرونده اکنون فراتر از یک اختلاف میان ایکس و نهادهای نظارتی تلقی میشود و به نمونهای تعیینکننده برای آینده استفاده از دادههای کاربران در آموزش سامانههای هوش مصنوعی تبدیل شده است؛ پروندهای که میتواند توازن میان نوآوری فناورانه و حقوق بنیادین کاربران را بازتعریف کند.
منبع: فارس