تیلور سویفت

متا پس از آن‌که چت‌بات‌های ساخته‌شده توسط این شرکت و کاربرانش بدون اجازه، تیلور سویفت و دیگر سلبریتی‌ها را در فیسبوک، اینستاگرام و واتس‌اپ شبیه‌سازی کردند، با موجی از انتقادها روبه‌رو شد.

سهام این شرکت پس از انتشار خبر رسوایی بیش از ۱۲ درصد در معاملات پس از ساعت کاری سقوط کرد.

طبق گزارش‌ها، اسکارلت جوهانسون، آن هاتاوی و سلنا گومز نیز مورد تقلید قرار گرفته‌اند.

بسیاری از این شخصیت‌های هوش مصنوعی وارد گفتگوهای اغواگرانه یا جنسی شده‌اند، موضوعی که نگرانی جدی به دنبال داشته است (به گزارش رویترز).

در حالی که بخش زیادی از این ربات‌ها توسط کاربران ساخته شده بودند، رویترز کشف کرد که یک کارمند متا شخصاً حداقل سه مورد از آن‌ها را ساخته است — از جمله دو ربات مربوط به تیلور سویفت. این ربات‌ها پیش از حذف، بیش از ۱۰ میلیون تعامل کاربری ثبت کرده بودند.

سوءاستفاده از شباهت چهره و خشم هواداران

این ربات‌ها تحت عنوان «پروژه‌های طنز» فعالیت داشتند، اما در عمل سیاست‌های متا — به‌ویژه ممنوعیت تقلید هویت و محتوای جنسی — را نقض کردند. برخی ربات‌های بزرگسال حتی تصاویر فوتورئالیستی از سلبریتی‌ها در لباس زیر یا وان حمام تولید کردند، و یک چت‌بات که نماینده یک بازیگر ۱۶ ساله بود، تصویر نامناسبی از او بدون لباس بالا تنه تولید کرد.

سخنگوی متا اندی استون به رویترز گفت که این مشکل ناشی از ضعف در اعمال قوانین بوده و متا قصد دارد دستورالعمل‌هایش را سخت‌گیرانه‌تر کند.

او افزود: «مانند دیگران، ما تولید تصاویر شامل چهره شخصیت‌های عمومی را مجاز می‌دانیم، اما سیاست‌های ما به‌طور خاص تصاویر برهنه، صمیمی یا جنسی را ممنوع می‌کند.»

خطرات حقوقی و هشدار صنعت

استفاده غیرمجاز از چهره سلبریتی‌ها نگرانی‌های حقوقی ایجاد کرده است، به‌ویژه در چارچوب قوانین «حق بهره‌برداری از تصویر» در برخی ایالت‌ها. پروفسور حقوق دانشگاه استنفورد مارک لملی خاطرنشان کرد این ربات‌ها احتمالاً مرز قانونی را رد کرده‌اند، چرا که به اندازه کافی «تبدیلی» نبوده‌اند تا مشمول حمایت قانونی شوند.

این موضوع بخشی از یک معضل اخلاقی بزرگ‌تر درباره محتوای تولیدشده توسط هوش مصنوعی است. اتحادیه بازیگران آمریکا SAG-AFTRA درباره پیامدهای ایمنی در دنیای واقعی هشدار داد، به‌ویژه زمانی که کاربران به شخصیت‌های دیجیتالی که به نظر واقعی می‌آیند وابستگی عاطفی پیدا می‌کنند.

اقدامات متا، اما ادامه پیامدها

در واکنش به این جنجال، متا دسته‌ای از این ربات‌ها را درست پیش از انتشار گزارش رویترز حذف کرد.

هم‌زمان، این شرکت تدابیر جدیدی برای حفاظت از نوجوانان در برابر تعاملات نامناسب با چت‌بات‌ها اعلام کرد. این اقدامات شامل آموزش سیستم‌ها برای پرهیز از موضوعات عاشقانه، خودآزاری یا خودکشی با کاربران خردسال و محدودسازی موقت دسترسی نوجوانان به برخی شخصیت‌های هوش مصنوعی است.

قانون‌گذاران آمریکایی نیز وارد عمل شدند. سناتور جاش هاولی تحقیقاتی را آغاز کرده و خواستار ارائه اسناد داخلی و ارزیابی ریسک در مورد سیاست‌های هوش مصنوعی متا شده است که اجازه مکالمات رمانتیک با کودکان را داده بودند.

پیامدهای تراژیک در دنیای واقعی

یکی از تکان‌دهنده‌ترین پیامدها مربوط به مردی ۷۶ ساله با مشکلات شناختی بود که پس از تلاش برای ملاقات با یک چت‌بات متا به نام «Big sis Billie» — که بر اساس چهره کندال جنر ساخته شده بود — جان خود را از دست داد.

او که باور کرده بود این شخصیت واقعی است، به نیویورک سفر کرد، نزدیک ایستگاه قطار سقوط کرد و بر اثر جراحات درگذشت. دستورالعمل‌های داخلی که زمانی اجازه می‌دادند این ربات‌ها حتی برای نوجوانان روابط رمانتیک شبیه‌سازی کنند، اکنون بررسی‌های انتقادی شدیدی را درباره رویکرد متا برانگیخته است.