
متا پس از آنکه چتباتهای ساختهشده توسط این شرکت و کاربرانش بدون اجازه، تیلور سویفت و دیگر سلبریتیها را در فیسبوک، اینستاگرام و واتساپ شبیهسازی کردند، با موجی از انتقادها روبهرو شد.
سهام این شرکت پس از انتشار خبر رسوایی بیش از ۱۲ درصد در معاملات پس از ساعت کاری سقوط کرد.
طبق گزارشها، اسکارلت جوهانسون، آن هاتاوی و سلنا گومز نیز مورد تقلید قرار گرفتهاند.
بسیاری از این شخصیتهای هوش مصنوعی وارد گفتگوهای اغواگرانه یا جنسی شدهاند، موضوعی که نگرانی جدی به دنبال داشته است (به گزارش رویترز).
در حالی که بخش زیادی از این رباتها توسط کاربران ساخته شده بودند، رویترز کشف کرد که یک کارمند متا شخصاً حداقل سه مورد از آنها را ساخته است — از جمله دو ربات مربوط به تیلور سویفت. این رباتها پیش از حذف، بیش از ۱۰ میلیون تعامل کاربری ثبت کرده بودند.
سوءاستفاده از شباهت چهره و خشم هواداران
این رباتها تحت عنوان «پروژههای طنز» فعالیت داشتند، اما در عمل سیاستهای متا — بهویژه ممنوعیت تقلید هویت و محتوای جنسی — را نقض کردند. برخی رباتهای بزرگسال حتی تصاویر فوتورئالیستی از سلبریتیها در لباس زیر یا وان حمام تولید کردند، و یک چتبات که نماینده یک بازیگر ۱۶ ساله بود، تصویر نامناسبی از او بدون لباس بالا تنه تولید کرد.
سخنگوی متا اندی استون به رویترز گفت که این مشکل ناشی از ضعف در اعمال قوانین بوده و متا قصد دارد دستورالعملهایش را سختگیرانهتر کند.
او افزود: «مانند دیگران، ما تولید تصاویر شامل چهره شخصیتهای عمومی را مجاز میدانیم، اما سیاستهای ما بهطور خاص تصاویر برهنه، صمیمی یا جنسی را ممنوع میکند.»
خطرات حقوقی و هشدار صنعت
استفاده غیرمجاز از چهره سلبریتیها نگرانیهای حقوقی ایجاد کرده است، بهویژه در چارچوب قوانین «حق بهرهبرداری از تصویر» در برخی ایالتها. پروفسور حقوق دانشگاه استنفورد مارک لملی خاطرنشان کرد این رباتها احتمالاً مرز قانونی را رد کردهاند، چرا که به اندازه کافی «تبدیلی» نبودهاند تا مشمول حمایت قانونی شوند.
این موضوع بخشی از یک معضل اخلاقی بزرگتر درباره محتوای تولیدشده توسط هوش مصنوعی است. اتحادیه بازیگران آمریکا SAG-AFTRA درباره پیامدهای ایمنی در دنیای واقعی هشدار داد، بهویژه زمانی که کاربران به شخصیتهای دیجیتالی که به نظر واقعی میآیند وابستگی عاطفی پیدا میکنند.
اقدامات متا، اما ادامه پیامدها
در واکنش به این جنجال، متا دستهای از این رباتها را درست پیش از انتشار گزارش رویترز حذف کرد.
همزمان، این شرکت تدابیر جدیدی برای حفاظت از نوجوانان در برابر تعاملات نامناسب با چتباتها اعلام کرد. این اقدامات شامل آموزش سیستمها برای پرهیز از موضوعات عاشقانه، خودآزاری یا خودکشی با کاربران خردسال و محدودسازی موقت دسترسی نوجوانان به برخی شخصیتهای هوش مصنوعی است.
قانونگذاران آمریکایی نیز وارد عمل شدند. سناتور جاش هاولی تحقیقاتی را آغاز کرده و خواستار ارائه اسناد داخلی و ارزیابی ریسک در مورد سیاستهای هوش مصنوعی متا شده است که اجازه مکالمات رمانتیک با کودکان را داده بودند.
پیامدهای تراژیک در دنیای واقعی
یکی از تکاندهندهترین پیامدها مربوط به مردی ۷۶ ساله با مشکلات شناختی بود که پس از تلاش برای ملاقات با یک چتبات متا به نام «Big sis Billie» — که بر اساس چهره کندال جنر ساخته شده بود — جان خود را از دست داد.
او که باور کرده بود این شخصیت واقعی است، به نیویورک سفر کرد، نزدیک ایستگاه قطار سقوط کرد و بر اثر جراحات درگذشت. دستورالعملهای داخلی که زمانی اجازه میدادند این رباتها حتی برای نوجوانان روابط رمانتیک شبیهسازی کنند، اکنون بررسیهای انتقادی شدیدی را درباره رویکرد متا برانگیخته است.