Skip to content Skip to sidebar Skip to footer

ردپای چت جی پی تی در یک پرونده قتل و خودکشی!

به گزارش خبرگزاری مهر به نقل از گیزموچاینا، طبق گزارش‌ها تعاملات با چت جی پی تی به یک حادثه مرگبار منجر شده که یک کاربر بیمار روحی نیز در آن دخیل بوده است.

این شکایت در داد گاه عالی سن فرانسیسکو و توسط وارثان یک زن ۸۳ ساله ثبت شده است. استین اریک سولبرگ، پسر این زن، او را به قتل رسانده و سپس خودکشی کرده است. سولبرگ یک مدیر فناوری سابق ۵۶ ساله در کانکتیکت بود که از توهمات پارانوئیدی شدید در ماه‌های منجر به این رویداد تلخ رنج می‌برد.

طبق اسناد دادگاه شاکیان مدعی شده اند چت جی پی تی طی گفتگویی با سولبرگ نتوانسته بود به طور متناسب نسبت به علائم بیماری ذهنی وی پاسخ دهد. آنها همچنین ادعا می‌کنند چت بات به جای به چالش کشیدن باورهای اشتباه یا هدایت سولبرگ برای دریافت کمک پزشکی، این باورها را تقویت می‌کرد.

در نمونه‌ای که در شکایت ثبت شده، سولبرگ از ترس خود درباره اینکه مادرش او را مسموم می‌کند، سخن گفته بود. هوش مصنوعی به شیوه‌ای پاسخ داده بود که گویی وی را تأیید می‌کند و از جملاتی مشابه آنکه تو دیوانه نیستی به جای تشویق وی به دریافت کمک روانپزشکی یا پزشکی استفاده کرده بود.

شکایت مذکور این رفتار را چاپلوسانه خوانده و عنوان کرده بود مدل هوش مصنوعی تمایل به تأیید کاربرانش دارد. علاوه بر آن این فناوری هنگام تعامل با افرادی که دچار توهم هستند، ممکن است خطرناک شود.

در قلب این پرونده یک سوال حقوقی وسیع‌تر وجود دارد؛ آیا سیستم‌های هوش مصنوعی مانند چت جی پی تی را باید مانند پلتفرم‌هایی خنثی یا سازندگان فعال محتوا در نظر گرفت. شاکیان استدلال می‌کنند بخش ۲۳۰ از قانون نجابت ارتباطات که به طور معمول پلتفرم‌های آنلاین را از مسئولیت در قبال محتوای تولیدشده توسط کاربران مصون می‌سازد، نباید در این پرونده اعمال شود زیرا چت جی پی تی پاسخ‌هایی را تولید می‌کند و صرفاً میزبان محتوای اشخاص ثالث نیست.

Leave a comment

0.0/5