استفاده متا از پستهای عمومی برای آموزش هوش مصنوعی در اروپا
شرکت مادر فیسبوک، متا پلتفرمز، روز دوشنبه اعلام کرد که از تعاملات کاربران با هوش مصنوعی خود و همچنین پستها و نظرات عمومی به اشتراک گذاشته شده توسط بزرگسالان در سراسر پلتفرمهای خود برای آموزش مدلهای هوش مصنوعی خود در اتحادیه اروپا استفاده خواهد کرد.
این اقدام متا پس از آن صورت میگیرد که این شرکت فناوری، هوش مصنوعی خود را ماه گذشته در اروپا راهاندازی کرد. این عرضه که در ابتدا در ژوئن 2024 اعلام شده بود، به دنبال نگرانیهای نظارتی در مورد حفاظت از دادهها و حریم خصوصی به تعویق افتاد.
در حالی که هوش مصنوعی متا در سال 2023 در ایالات متحده راهاندازی شد، عرضه آن در اروپا به دلیل قوانین سختگیرانه حریم خصوصی و شفافیت اتحادیه اروپا با موانع متعددی روبرو شد.
متا روز دوشنبه اعلام کرد که افراد در اتحادیه اروپا که از پلتفرمهای آن از جمله فیسبوک و اینستاگرام استفاده میکنند، شروع به دریافت اعلانهایی خواهند کرد که توضیح میدهد این شرکت از چه نوع دادههایی استفاده خواهد کرد. کاربران همچنین لینکی به یک فرم دریافت خواهند کرد که از طریق آن میتوانند با استفاده از دادههای خود برای اهداف آموزشی مخالفت کنند.
در حالی که این شرکت از دادههایی مانند پرسشها و سوالات کاربران در هوش مصنوعی متا استفاده خواهد کرد، پیامهای خصوصی و همچنین دادههای عمومی از حسابهای کاربران زیر 18 سال در این آموزش استفاده نخواهد شد.
کمیسیون اروپا به درخواست برای اظهار نظر در مورد اقدام متا پاسخ نداد.
متا پس از آنکه کمیسیون حفاظت از دادههای ایرلند (DPC) به این شرکت گفت که برنامه خود برای استفاده از دادههای پستهای رسانههای اجتماعی را به تعویق بیندازد، در ژوئن گذشته تصمیم به توقف عرضه مدلهای هوش مصنوعی خود در اروپا گرفت. این شرکت همچنین با انتقادات گروه مدافع NOYB روبرو شد که از ناظران حریم خصوصی ملی خواست تا جلوی چنین استفادهای از محتوای رسانههای اجتماعی را بگیرند.
نهاد نظارتی حریم خصوصی ایرلند همچنین در حال بررسی فعالیتهای X متعلق به ایلان ماسک و گوگل متعلق به آلفابت است.
X به دلیل استفاده از دادههای شخصی کاربران اتحادیه اروپا برای آموزش سیستم هوش مصنوعی خود، Grok، تحت تحقیقات قرار دارد، در حالی که DPC در ماه سپتامبر تحقیقاتی را در مورد گوگل آغاز کرد تا بررسی کند که آیا این شرکت قبل از استفاده از دادهها برای کمک به توسعه مدل هوش مصنوعی خود، به طور مناسب از دادههای کاربران محافظت کرده است یا خیر.
منبع: https://www.reuters.com