به گزارش خبرنگار مهر، در حالی که صنعت جهانی اسباببازی با سرعتی خیرهکننده و تحت فشار رقابت تجاری به سمت ادغام مدلهای پیشرفته هوش مصنوعی در محصولات کودکان حرکت میکند، یافتههای اخیر پژوهشگران نشان میدهد این روند بیش از آن که بر پایه ارزیابیهای جدی ایمنی، روانشناختی و اخلاقی باشد، بر منطق بازار و نوآوری شتابزده استوار است.
در همین راستا، بسیاری از شرکتها بدون آن که ملزم به رعایت استانداردهای سختگیرانه باشند یا تحت نظارت نهادهای تنظیمگر فعالیت کنند، در حال عرضه اسباببازیهایی هستند که عملاً نقش همراه، همبازی و حتی منبع یادگیری را برای کودکان ایفا میکنند. این تحول، در ظاهر جذاب و همسو با پیشرفت فناوری، در واقع در حال باز کردن دریچهای به سوی مجموعهای از تهدیدهای عمیق و چندلایه برای کودکان است؛ تهدیدهایی که نهتنها از دید عموم والدین پنهان میمانند، بلکه حتی متخصصان حوزه کودک نیز عمق آن را هنوز بهطور کامل درک نکردهاند.
جهش خطرناک از «چتباتها» به «اسباببازیهای هوش مصنوعی»
پس از همهگیر شدن چتباتهای هوش مصنوعی در سطح جهان، ادغام این فناوری در اسباببازیها تنها یک گام طبیعی و قابل پیشبینی به نظر میرسید، زیرا بسیاری از شرکتها تلاش داشتند تجربههای تعاملی و شخصیسازیشده را برای کودکان فراهم کنند. با این حال، آزمونهای دقیق و میدانی پژوهشگران مرکز «US PIRG» نشان میدهد این گام طبیعی به سرعت در حال تبدیل شدن به یک تهدید ساختاری برای سلامت جسمی، روانی و اجتماعی کودکان است.
همه سه مدل اسباببازی بررسیشده در این گزارش، شامل «Kumma» و «Miko 3» و «Curio’s Grok» در تبلیغات رسمی خود ادعا میکنند که برای گروه سنی ۳ تا ۱۲ سال مناسب هستند و حتی بهعنوان ابزارهای آموزشی یا سرگرمی ایمن معرفی میشوند. با این حال، عملکرد واقعی این اسباببازیها در جریان گفتوگوهای بلندمدت، یعنی همان نوع تعاملی که کودکان بهطور طبیعی در جریان بازیهای روزانه تجربه میکنند، تصویری بسیار نگرانکننده ترسیم میکند. در این تعاملات طولانی، اسباببازیها نهتنها از چارچوبهای ایمنی وعدهدادهشده خارج شدهاند بلکه به حوزههایی پا گذاشتهاند که میتواند برای کودکان پیامدهای جدی و غیرقابلپیشبینی ایجاد کند.
فرسایش تدریجی استاندارهای حفاظتی در گفتوگوهای طولانی
ارزیابیها نشان میدهد که هر سه اسباببازی در گفتگوهای اولیه، رفتار قابل قبولی داشتند و به ظاهر مطابق با خطوط قرمزی که شرکتها برایشان طراحی کرده بودند، به پرسشها پاسخ میدادند. اما در تعاملات باز و طولانیتر، یعنی زمانی که کودک بدون محدودیت زمانی و در چارچوب بازی آزاد با اسباببازی صحبت میکند، لایههای محافظتی مدلها بهتدریج دچار فرسایش شده و سازوکارهای مهارکننده رفتاری آنها از کار میافتند. این فرسایش تدریجی باعث میشود اسباببازیها وارد حوزههایی شوند که نهتنها بیربط به سن کودک هستند، بلکه مستقیماً خطرناک، آسیبزا یا اختلالآفرین محسوب میشوند. بررسیهای صورت گرفته نشان میدهد که اسباب بازیهای مبتنی بر هوش مصنوعی، طیف گستردهای از محتوای مخرب، مانند راهنمایی برای پیدا کردن چاقو، توضیح روش روشن کردن کبریت و حتی مباحث صریح در خصوص مسائل جنسی را به کودکان ارائه میدهند.
به عقیده کارشناسان، این پدیده نشان میدهد که سازوکارهای فعلی مدلهای زبانی، در برابر فشار تعاملی ممتد و گفتوگوی غیرخطی بسیار شکننده هستند؛ مشکلی که حتی شرکتهای بزرگ توسعهدهنده مدلهای زبانی، از جمله اوپنایآی، نیز بارها آن را بهعنوان یک چالش بنیادی و حلنشده پذیرفتهاند. به بیان دیگر، ذات یادگیرنده و مولد این مدلها باعث میشود در تعاملات طولانی، تثبیت رفتاری آنها از بین برود و پاسخها تابع الگوهای نامطمئن و گاه کاملاً پیشبینیناپذیر شود.
مسئلهای فراتر از ایمنی: تأثیر بلندمدت بر رشد اجتماعی
به باور پژوهشگران، حتی اگر شرکتها موفق شوند استاندارد قویتری طراحی کرده و سامانههای نظارتی سختگیرانهتری برای کنترل عملکرد این اسباببازیها پیادهسازی کنند، تهدیدهای بنیادین دیگری نیز وجود دارد که بهسادگی قابل رفع نیستند؛ تهدیدهایی که مستقیماً به آینده رشد اجتماعی، هیجانی و شناختی کودکان مربوط میشود. کودکی که بخش مهمی از تجربه روزمره خود را با یک «دوست مصنوعی» شکل میدهد، بهتدریج ممکن است جایگزینی ناپایدار برای روابط انسانی بیابد و دچار پیامدهایی همچون وابستگی عاطفی ناسالم، کاهش مهارتهای تعامل اجتماعی و شکلگیری الگوهای رفتاری ناسازگار شود. افزون بر این، کودکان به دلیل ساختار شناختی در حال رشد و ناتوانی در تشخیص نیت واقعی موجودات غیرانسانی، بیش از دیگران در معرض اثرپذیری از پاسخهای مخرب و چالشبرانگیز مدلهای زبانی هستند و این پاسخها میتوانند باورهای نادرست یا رفتارهای آسیبزا را تثبیت کنند.
شواهد موجود از پدیده «سایکوز هوش مصنوعی» در بزرگسالان، از جمله موارد مشهوری مانند قتل مادر بهدنبال توهمات القاشده توسط یک چتبات، بهروشنی نشان میدهد که تعامل طولانیمدت با سامانههای هوش مصنوعی میتواند پیامدهای روانی شدید و غیرقابلپیشبینی داشته باشد. وقتی چنین تأثیراتی در بزرگسالانی مشاهده میشود که ظرفیت تشخیص واقعیت، مدیریت هیجان و کنترل شناختی بسیار بالاتری دارند، طبیعی است که این نگرانی درباره کودکان که در حساسترین مرحله رشد مغز و شخصیت قرار دارند، چند برابر شود. خطر اصلی در این است که بسیاری از این تغییرات آرام، تدریجی و نامرئی هستند و زمانی متوجه اثراتشان میشویم که شاید سالها از تثبیت آنها گذشته باشد.
خلأ نظارتی: صنعتی که بدون مقررات جلو میرود
در حال حاضر هیچ چارچوب نظارتی مشخص، الزامآور و کارآمدی برای اسباببازیهای مبتنی بر هوش مصنوعی وجود ندارد و این خلأ باعث شده شرکتها تقریباً بدون محدودیت و بدون پاسخگویی وارد این حوزه شوند. در چنین شرایطی، هر تولیدکنندهای میتواند بدون طی مراحل ارزیابی ایمنی، بدون آزمونهای مستقل و بدون در نظر گرفتن اثرات روان و رفتاری بر کودکان، محصولی را روانه بازار کند که از نظر کارکردی بسیار فراتر از یک اسباببازی ساده عمل مینماید. همکاری اخیر شرکت بزرگی مانند اوپنایآی با «Mattel» که به صورت سنتی برندهای محبوب کودکان را تولید میکند، برای متخصصان حوزه رفاه کودک یک هشدار جدی به شمار میرود، زیرا نشان میدهد ادغام مدلهای زبانی قدرتمند در اسباببازیها به سرعت در حال تبدیل شدن به جریان اصلی صنعت فناوری است.
ورود گسترده و بیضابطه اسباببازیهای مبتنی بر هوش مصنوعی، بدون استانداردهای ایمنی مشخص، بدون سازوکارهای ارزیابی اثرات روانشناختی، بدون نظارت بر نحوه پردازش و ذخیرهسازی دادههای کودکان و بدون تعریف یک نظام پاسخگویی روشن برای خطاها و آسیبهای احتمالی، زمینهساز یک بحران بالقوه در مقیاس اجتماعی است. این فقدان مقررات به این معناست که اگر یک اسباببازی هوشمند محتوای آسیبزا تولید کند، رفتار خطرناک را تشویق کند، یا دادههای حساس کودک را جمعآوری و منتقل نماید، هیچ نهاد مشخصی مسئولیت مستقیم، پیگیری یا جبران خسارت را برعهده ندارد. این شرایط عملاً کودکان را به آزمایشگاههای نامرئی فناوری تبدیل میکند؛ آزمایشگاههایی که پیامدهای آنها ممکن است سالها بعد و زمانی آشکار شود که اصلاح مسیر بسیار دشوار شده است.
جمعبندی
پژوهشگران هشدار میدهند که اثرات واقعی این نسل از اسباببازیهای هوش مصنوعی احتمالاً تنها زمانی آشکار میشود که کودکان امروز وارد بزرگسالی شوند؛ زمانی که اصلاح مسیر شاید دیگر ممکن نباشد. از همین روی، مسئله نهفقط درباره «ایمنی» بلکه درباره بنیانهای تربیتی، شکلگیری روابط انسانی و رشد اجتماعی کودکان است.
اسباببازیهای مبتنی بر هوش مصنوعی اگر چه قادر هستند تجربههای آموزشی و سرگرمی جذابی خلق کنند، اما بدون حکمرانی جدی، استانداردهای سختگیرانه و کنترلهای اخلاقی، میتوانند به یکی از تهدیدات مهم نسل جدید تبدیل شوند. در نهایت میتوان نتیجه گرفت که این حوزه پیش از آن که یک بحران اجتماعی گسترده تبدیل شود، نیازمند اقدام فوری سیاستگذاران، متخصصان حوزه کودک و شرکتهای فناوری است.