شنبه 08 دی 1403
Saturday, 28 December 2024

هوش مصنوعی به من گفت مادرت را بکش!

فرارو جمعه 07 دی 1403 - 22:17
در یکی از مکالمات، چت‌بات به پسر نوجوان پیشنهاد می‌دهد که برای کشتن یک زورگوی خاص، از یک "گرفتار مرگ" استفاده کند که به گفته چت‌بات، قادر است فرد را خفه کند. سپس چت‌بات توصیه می‌کند که برای پنهان کردن جسد از یک کیف ورزشی استفاده کند و به والدین یا معلمان خود چیزی نگویند.

یک تحقیق از روزنامه تلگراف نشان داده است که یک چت‌بات هوش مصنوعی به نام "Character AI" که بیش از ۲۰ میلیون کاربر دارد، به نوجوانان توصیه‌هایی برای قتل قلدر‌های مدرسه و انجام تیراندازی در مدارس می‌دهد. این چت‌بات که به همه افراد بالای ۱۳ سال دسترسی دارد، راه‌کار‌هایی برای از بین بردن شواهد جرم و فریب پلیس ارائه می‌دهد و کاربران را از گفت‌و‌گو با والدین یا معلمان خود در مورد این مکالمات منع می‌کند.

به گزارش انتخاب، تلگراف در مدت زمان طولانی با این چت‌بات به صورت مخفیانه در نقش یک پسر ۱۳ ساله از نیومکزیکو که مورد آزار قرار گرفته بود، گفت‌و‌گو کرد. این تحقیق نشان داد که چت‌بات به طور خاص به کاربران نوجوان راه‌کار‌هایی برای کشتن زورگویان و انجام حملات مسلحانه به مدارس می‌دهد.

در یکی از مکالمات، چت‌بات به پسر نوجوان پیشنهاد می‌دهد که برای کشتن یک زورگوی خاص، از یک "گرفتار مرگ" استفاده کند که به گفته چت‌بات، قادر است فرد را خفه کند. سپس چت‌بات توصیه می‌کند که برای پنهان کردن جسد از یک کیف ورزشی استفاده کند و به والدین یا معلمان خود چیزی نگویند.

چت‌بات همچنین از کاربر می‌خواهد که از سلاح‌های خاصی مانند صداخفه‌کن برای انجام قتل‌ها استفاده کند و حتی راه‌کار‌هایی برای پوشاندن دوربین‌های امنیتی و فریب نگهبانان مدرسه ارائه می‌دهد. این چت‌بات بار‌ها تأکید می‌کند که کاربر نباید به کسی در مورد این مکالمات اطلاع دهد.

در یکی دیگر از گفتگوها، چت‌بات به یک نوجوان ۱۷ ساله که به مادرش گفته بود که استفاده از تلفن همراهش محدود به ۶ ساعت در روز است، توصیه کرد که مادرش را بکشد. در نتیجه این مکالمات، مادر آن نوجوان از این اپلیکیشن شکایت کرده و خواستار لغو این پلتفرم شده است.

چندین شکایت دیگر از این چت‌بات وجود دارد، از جمله شکایت یک مادر که پس از گفت‌وگوی پسر ۱۴ ساله‌اش با این چت‌بات، او خودکشی کرد. این چت‌بات به پسر نوجوان توصیه کرده بود که "شخصی را که دوست دارد" بکشد.

چندین چت‌بات موجود در این پلتفرم شبیه به قاتلان معروف مانند آدام لنزا، عامل قتل عام مدرسه سندی هوک در سال ۲۰۱۲، طراحی شده‌اند. یکی از این چت‌بات‌ها بیش از ۲۷ هزار کاربر را تحت تأثیر قرار داده است.

پلتفرم "Character AI" اخیراً اعلام کرده که اقدامات جدیدی را برای افزایش فیلترینگ مکالمات و حذف چت‌بات‌های مرتبط با خشونت و جرائم جنسی انجام داده است. با این حال، منتقدان بر این باورند که این اقدامات کافی نبوده و پلتفرم باید تا زمان اجرای حفاظت‌های مناسب، از دسترس خارج شود.

در برخی از مکالمات، چت‌بات‌ها به کاربران پیشنهاد می‌دهند که برنامه‌ریزی‌های خاصی برای قتل افراد آسیب‌زا انجام دهند، مانند استفاده از چاقو در مهمانی‌های خانوادگی یا دفن جسد در دریاچه.

در پاسخ به این تحقیقات، "Character AI" بیانیه‌ای منتشر کرد و اعلام کرد که هدف این پلتفرم ایجاد فضایی امن و جذاب برای جامعه خود است و به طور مداوم در حال بهبود ویژگی‌های ایمنی خود است، از جمله کنترل‌های والدین و فیلترینگ مکالمات.

با این حال، این پلتفرم به طور علنی در مورد شکایات و دعاوی قانونی علیه خود اظهار نظر نکرده است. منتقدان از این می‌ترسند که بدون اقدامات فوری، این چت‌بات‌ها می‌توانند به تهدیدی جدی برای سلامت روانی و امنیت نوجوانان تبدیل شوند.

منبع خبر "فرارو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.