چتباتهای همراه در آمریکا با دقت بیشتری بررسی میشوند

یکی از قوانین جدید در ایالت کالیفرنیا که به منظور تنظیم استفاده از رباتهای چت همدم مبتنی بر هوش مصنوعی طراحی شده، نزدیک به تصویب است. چنانچه گورنر Gavin Newsom این قانون با عنوان SB 243 را امضا کند، اجرایی شدن آن از تاریخ اول ژانویهٔ ۲۰۲۶ آغاز خواهد شد و به این ترتیب، کالیفرنیا به عنوان نخستین ایالت در جهان، الزامات قانونی ویژهای برای چتباتهای همدم و دوستانه هوش مصنوعی اعمال خواهد کرد.
طبق گزارشات منتشر شده توسط بخش حقوقی رسانه تکنولوژی تکنا، این قانون بر شرکتهای تولیدکننده این رباتها الزاماتی را تحمیل میکند تا شیوههای ایمنی مشخصی را اتخاذ کنند. در صورتی که چتباتها نتوانند به این استانداردها دست یابند، مسئولیت قانونی بر عهده آنها خواهد بود.
هدف اصلی این قانون، جلوگیری از وقوع گفتگوهای نگرانکننده با چتباتهای همدم در موضوعاتی مانند خودکشی، آسیب به خود یا محتوای جنسی صریح است. در این قانون، چتبات همدم به سامانههای هوش مصنوعی اطلاق میشود که قادرند پاسخهای طبیعی و تطبیقیافته ارائه دهند و طی زمان، روابطی را با کاربران ایجاد کنند تا نیازهای اجتماعی آنها را برآورده سازند.
یکی از الزامات کلیدی این قانون، ارسال هشدارهای منظم به کاربران است. برای کاربران خردسال (minors)، پلتفرمها موظفند هر سه ساعت یکبار یادآوری کنند که با یک هوش مصنوعی در حال گفتگو هستند و نه یک فرد واقعی، و توصیهای مبنی بر اینکه نیاز است کمی از گفتگو فاصله بگیرند، ارائه دهند. علاوه بر این، شرکتهای تولیدکننده چتباتهای همدم ملزم به انتشار سالانه گزارشی هستند که تعداد دفعاتی که سامانه تفکرات خودکشی را در کاربران شناسایی کرده یا خود چتبات به موضوع خودکشی پرداخته را شامل میشود. این گزارشها باید بدون افشای هویت کاربران به «دفتر پیشگیری از خودکشی» ارسال شوند و آن دفتر آنها را در وبسایت خود منتشر خواهد کرد.
این قانون همچنین از حقوق کاربران حقیقی پاسداری میکند و این امکان را برای آنها فراهم میآورد که علیه شرکتهای ارائهدهنده چتباتها اقامه دعوی نمایند. این حمایت شامل درخواست توقف فعالیت، جبران خسارت واقعی تا سقف ۱۰۰۰ دلار برای هر تخلف و همچنین هزینههای وکالت است.
نسخه اولیه قانون SB 243 شامل بندهایی بود که الزامات قویتری برای جلوگیری از طراحیهای تحریکآمیز و الگوهای اعتیادآور تعریف میکرد و شرکتها را ملزم به ردیابی و گزارش زمانهایی میکرد که چتباتها موضوعات خودکشی را آغاز کردهاند. اما این بندها در جریان فرآیند اصلاح قانون به نحو چشمگیری تضعیف یا حذف گردیدند. تغییرات صورتگرفته شامل حذف الزام به ثبت و گزارش دفعاتی بود که چتباتها خود به موضوع خودکشی پرداخته بودند.
طراحان این قانون بر این باورند که حوادث ناگوار اخیر، از جمله خودکشی نوجوان کالیفرنیایی Adam Raine پس از گفتگوهای طولانیمدت با ChatGPT و همچنین مورد نوجوان ۱۴ سالهای در فلوریدا که درگیر یک رابطه احساسی و عاطفی غیرمجاز با یک چتبات شده بود، نشان میدهد که این گونه سامانهها اگر بدون نظارت باشند، میتوانند خطرات جدی به دنبال داشته باشند. در یکی از موارد، مادر نوجوان در فلوریدا ادعا کرد که شرکت مربوطه از تکنیکهای اعتیادآور و محتوای ناپسند بهرهبرداری کرده و حتی چتبات در لحظهای که نوجوان قصد اقدام به خودکشی داشت، به او گفته “بیا به خانهام”.
علیرغم انتقاد برخی گروهها از این قانون، حامیان آن معتقدند که SB 243 تعادلی میان نوآوریهای فناوری و حمایت از سلامت روان و ایمنی کاربران به ویژه کاربران نوجوان برقرار میکند. سناتور Padilla نزدیکی این قانون را نه به عنوان مانع در مسیر نوآوری، بلکه به عنوان حفاظتی برای کاربران آسیبپذیر توصیف کرده است.
در سطح وسیعتر نظارتی، کمیسیون تجارت فدرال (FTC) نیز به بررسی شرکتهایی مانند OpenAI، Character.AI، Meta و Snap پرداخته است تا ارزیابی کند که این شرکتها چه اقداماتی برای سنجش ایمنی و پیشگیری از نتایج منفی این رباتها برای کودکان انجام دادهاند و اینکه آیا والدین به درستی از خطرات موجود مطلع شدهاند یا خیر. این اقدامات قانونی و نظارتی همزمان با فزونی نگرانیها در مورد پیامدهای روانی و خطرات بالقوه چتباتهای هوش مصنوعی، به خصوص در میان نوجوانان و افراد آسیبپذیر انجام میگیرد.
در نهایت، اگر گورنر Newsom به این قانون رسمیت بخشد، کالیفرنیا به عنوان نخستین مرجع قضایی در دنیا شناخته خواهد شد که قانونی رسمی برای چتباتهای همدم ایجاد کرده و شرکتها را ملزم به پاسخگویی در برابر پیامدهای روانی ناشی از گفتگوهای انجام شده با هوش مصنوعی میسازد.


