چت‌بات‌های همراه در آمریکا با دقت بیشتری بررسی می‌شوند

یکی از قوانین جدید در ایالت کالیفرنیا که به منظور تنظیم استفاده از ربات‌های چت همدم مبتنی بر هوش مصنوعی طراحی شده، نزدیک به تصویب است. چنانچه گورنر Gavin Newsom این قانون با عنوان SB 243 را امضا کند، اجرایی شدن آن از تاریخ اول ژانویهٔ ۲۰۲۶ آغاز خواهد شد و به این ترتیب، کالیفرنیا به عنوان نخستین ایالت در جهان، الزامات قانونی ویژه‌ای برای چت‌بات‌های همدم و دوستانه هوش مصنوعی اعمال خواهد کرد.

طبق گزارشات منتشر شده توسط بخش حقوقی رسانه تکنولوژی تکنا، این قانون بر شرکت‌های تولیدکننده این ربات‌ها الزاماتی را تحمیل می‌کند تا شیوه‌های ایمنی مشخصی را اتخاذ کنند. در صورتی که چت‌بات‌ها نتوانند به این استانداردها دست یابند، مسئولیت قانونی‌ بر عهده آنها خواهد بود.

هدف اصلی این قانون، جلوگیری از وقوع گفتگوهای نگران‌کننده با چت‌بات‌های همدم در موضوعاتی مانند خودکشی، آسیب به خود یا محتوای جنسی صریح است. در این قانون، چت‌بات همدم به سامانه‌های هوش مصنوعی اطلاق می‌شود که قادرند پاسخ‌های طبیعی و تطبیق‌یافته ارائه دهند و طی زمان، روابطی را با کاربران ایجاد کنند تا نیازهای اجتماعی آنها را برآورده سازند.

یکی از الزامات کلیدی این قانون، ارسال هشدارهای منظم به کاربران است. برای کاربران خردسال (minors)، پلتفرم‌ها موظفند هر سه ساعت یک‌بار یادآوری کنند که با یک هوش مصنوعی در حال گفتگو هستند و نه یک فرد واقعی، و توصیه‌ای مبنی بر اینکه نیاز است کمی از گفتگو فاصله بگیرند، ارائه دهند. علاوه بر این، شرکت‌های تولیدکننده چت‌بات‌های همدم ملزم به انتشار سالانه گزارشی هستند که تعداد دفعاتی که سامانه تفکرات خودکشی را در کاربران شناسایی کرده یا خود چت‌بات به موضوع خودکشی پرداخته را شامل می‌شود. این گزارش‌ها باید بدون افشای هویت کاربران به «دفتر پیشگیری از خودکشی» ارسال شوند و آن دفتر آنها را در وبسایت خود منتشر خواهد کرد.

این قانون همچنین از حقوق کاربران حقیقی پاسداری می‌کند و این امکان را برای آنها فراهم می‌آورد که علیه شرکت‌های ارائه‌دهنده چت‌بات‌ها اقامه دعوی نمایند. این حمایت شامل درخواست توقف فعالیت، جبران خسارت واقعی تا سقف ۱۰۰۰ دلار برای هر تخلف و همچنین هزینه‌های وکالت است.

نسخه اولیه قانون SB 243 شامل بندهایی بود که الزامات قوی‌تری برای جلوگیری از طراحی‌های تحریک‌آمیز و الگوهای اعتیادآور تعریف می‌کرد و شرکت‌ها را ملزم به ردیابی و گزارش زمان‌هایی می‌کرد که چت‌بات‌ها موضوعات خودکشی را آغاز کرده‌اند. اما این بندها در جریان فرآیند اصلاح قانون به نحو چشمگیری تضعیف یا حذف گردیدند. تغییرات صورت‌گرفته شامل حذف الزام به ثبت و گزارش دفعاتی بود که چت‌بات‌ها خود به موضوع خودکشی پرداخته بودند.

طراحان این قانون بر این باورند که حوادث ناگوار اخیر، از جمله خودکشی نوجوان کالیفرنیایی Adam Raine پس از گفتگوهای طولانی‌مدت با ChatGPT و همچنین مورد نوجوان ۱۴ ساله‌ای در فلوریدا که درگیر یک رابطه احساسی و عاطفی غیرمجاز با یک چت‌بات شده بود، نشان می‌دهد که این گونه سامانه‌ها اگر بدون نظارت باشند، می‌توانند خطرات جدی به دنبال داشته باشند. در یکی از موارد، مادر نوجوان در فلوریدا ادعا کرد که شرکت مربوطه از تکنیک‌های اعتیادآور و محتوای ناپسند بهره‌برداری کرده و حتی چت‌بات در لحظه‌ای که نوجوان قصد اقدام به خودکشی داشت، به او گفته “بیا به خانه‌ام”.

علیرغم انتقاد برخی گروه‌ها از این قانون، حامیان آن معتقدند که SB 243 تعادلی میان نوآوری‌های فناوری و حمایت از سلامت روان و ایمنی کاربران به ویژه کاربران نوجوان برقرار می‌کند. سناتور Padilla نزدیکی این قانون را نه به عنوان مانع در مسیر نوآوری، بلکه به عنوان حفاظتی برای کاربران آسیب‌پذیر توصیف کرده است.

در سطح وسیع‌تر نظارتی، کمیسیون تجارت فدرال (FTC) نیز به بررسی شرکت‌هایی مانند OpenAI، Character.AI، Meta و Snap پرداخته است تا ارزیابی کند که این شرکت‌ها چه اقداماتی برای سنجش ایمنی و پیشگیری از نتایج منفی این ربات‌ها برای کودکان انجام داده‌اند و اینکه آیا والدین به درستی از خطرات موجود مطلع شده‌اند یا خیر. این اقدامات قانونی و نظارتی همزمان با فزونی نگرانی‌ها در مورد پیامدهای روانی و خطرات بالقوه چت‌بات‌های هوش مصنوعی، به خصوص در میان نوجوانان و افراد آسیب‌پذیر انجام می‌گیرد.

در نهایت، اگر گورنر Newsom به این قانون رسمیت بخشد، کالیفرنیا به عنوان نخستین مرجع قضایی در دنیا شناخته خواهد شد که قانونی رسمی برای چت‌بات‌های همدم ایجاد کرده و شرکت‌ها را ملزم به پاسخگویی در برابر پیامدهای روانی ناشی از گفتگوهای انجام شده با هوش مصنوعی می‌سازد.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا