به گزارش خبرنگار مهر؛ تحول در سامانههای خودران و رباتهای انسان نما طی سالهای اخیر، از حوزههای آزمایشگاهی و صنعتی عبور کرده و به میدانهای واقعی عملیات و زندگی روزمره رسیده است. تجربه پهپادهای خودمختار در جنگهای معاصر، به ویژه در جبهههای درگیری روسیه و اوکراین، نشان داده است که فناوریهای مبتنی بر هوش مصنوعی نه فقط توان نظامی را دگرگون میکنند، بلکه مرزهای اخلاق، مسئولیت و انتساب کنش را نیز مبهم میسازند. در چنین شرایطی، پرسش اصلی دیگر صرفاً به جنگ محدود نمیماند. گزارش تازه آزمایشگاه نوآوری نهاد پلیس اروپایی یوروپل، چشم اندازی را ترسیم میکند که در آن قابلیتهای خودکار و نیمه خودکار، به دست شبکههای جنایی و تروریستی میافتد و کیفیت تهدیدات داخلی را متحول میکند.
در این روایت، افق ۲۰۳۵ یک نقطه دوردست نیست. گزارش تأکید میکند که نشانههای انقلاب فناورانه از هم اکنون وجود دارند. از افزایش مشاهده پهپادهای مورد استفاده در زیرساختهای اروپایی تا شکل گیری بازارهای آنلاین برای عرضه خدمات هدایت پهپاد که به ادعای گزارش، الگوی «جرم به عنوان خدمت» را به سمت «جرم از راه دور» سوق میدهد. مسئله کلیدی این است که وقتی ابزارهای پیچیده، ارزان و در دسترس شوند، هم هزینه ارتکاب جرم کاهش مییابد و هم نسبت کشف و انتساب دشوارتر میشود. از همین روی، نیروی پلیس نه فقط باید با فناوری مقابله کند، بلکه باید قواعد مسئولیت، استانداردهای اثبات و سازوکارهای پاسخ را نیز بازطراحی نماید.
از سلاح در میدان نبرد تا ابزاری برای ارتکاب جرایم شهری
متن گزارش یوروپل بر پیوند میان دو روند عادی شدن استفاده از سامانههای خودکار در میدانهای درگیری و سرریز تدریجی همان ابزارها به حوزه جرایم سازمان یافته و تروریسم تأکید دارد. این سرریز الزاماً به معنای انتقال مستقیم تسلیحات پیشرفته نیست، بلکه انتقال دانش عملیاتی، مهارتهای فنی، قطعات، الگوهای تاکتیکی و حتی نیروی انسانی آموزش دیده را شامل میشود. هنگامی که پهپاد به ابزار روزمره جنگ تبدیل میشود، در مرحله بعد، منطق بهره برداری از آن به حوزههای غیرنظامی راه مییابد. این انتقال، همان نقطهای است که نظم عمومی با یک تهدید چندلایه مواجه میشود؛ تهدیدی که به صورت توأمان فیزیکی و سایبری است و همزمان ماهیتی محلی و شبکهای دارد.
در همین چارچوب، گزارش هشدار میدهد که تا سال ۲۰۳۵ پلیس باید با پدیده «ارتکاب جرایم توسط رباتها» مواجه شود. منظور از این عبارت، صرفاً ارتکاب جرم با ربات به عنوان ابزار نیست، بلکه طیفی از سناریوها را در بر میگیرد؛ از پهپادهایی که در سرقت و عملیات تخریبی به کار میروند تا خودروهای خودران که در اثر سوءاستفاده یا حمله سایبری میتوانند موجب آسیب به عابران شوند. گزارش در این بخش به نکتهای واقع گرایانه اشاره میکند: رخدادهای آسیب زا پیرامون خودروهای خودران، در مقطع کنونی و حال حاضر نیز مشاهده میشوند. بنابراین بخش مهمی از هشدار یوروپل، بر «تسریع» و «گسترده شدن» مسئلهای موجود تمرکز دارد و بر وقوع یک امر کاملاً ناشناخته مبتنی نیست.
پیچیدگی ربات انسان نما و دشواری تشخیص اهداف
اگر پهپادها و خودروهای خودران را بتوان در قالب ابزارهای نسبتاً شفاف تحلیل کرد، ربات انسان نما یک لایه پیچیدگی جدید به این فرایند میافزاید. گزارش تصریح میکند که رباتهای انسان نما میتوانند طوری طراحی شوند که تعامل پیچیدهتری با انسان داشته باشند و همین ویژگی، تشخیص رفتار عمدی از اقدامات تصادفی را دشوارتر میسازد. در عمل، هرچه تعامل طبیعیتر و انسانیتر شود، «برداشت انسانی» از کنش نیز نقش پررنگتری میگیرد و خطای ادراکی محتملتر میشود. در چنین وضعیتی، مسئله پلیس فقط مهار یک دستگاه الکترونیکی نیست و چالش اصلی فهمیدن «قصد» و «زنجیره کنترل» محسوب میشود. به عبارت دیگر، پاسخ به این پرسش که آیا یک رفتار خطرناک ناشی از دستور هدفمند در قالب حمله سایبری بوده است یا پیامد نقص فنی یا خطای یادگیری سامانه، اهمیت مضاعفی مییابد.
این نکته در سطح حقوقی نیز پیامدهای بسیاری در بر دارد. زیرا نظام عدالت کیفری، به صورت سنتی بر انتساب قصد و تقصیر بنا شده است. وقتی یک سامانه به ظاهر خودمختار کنشی انجام میدهد، تعیین فرد مسئول نیازمند بازسازی دقیق مسیر تصمیم گیری است. مسیری که میتواند میان کاربر، تولیدکننده، ارائه دهنده نرم افزار، کاربر و مهاجم سایبری تقسیم شود. گزارش یوروپل با برجسته کردن همین ابهام، عملاً مدعی میشود که تخصصهای فنی صرف برای آینده کافی نخواهد بود و باید توان تحلیل انتسابی و فنی توأمان شکل بگیرد.
رباتهای درمانی آسیب پذیری انسان در حساسترین نقطه
یکی از هشدارهای برجسته گزارش، مسئله ورود هوش مصنوعی و رباتها به حوزه سلامت است. بر همین اساس، اگر رباتهایی مورد استفاده برای کمک در محیطهای درمانی، هک شوند، نه فقط یک دارایی فناورانه را در معرض خطر میگذارند، بلکه بیمار را در وضعیت آسیب پذیری مستقیم قرار میدهند. معنای این گزاره، ارتقای سطح تهدید از «اختلال در خدمت» به «تهدید علیه جان و سلامت» است. به بیان دقیقتر، وقتی زیرساخت رباتیک در بستر سلامت قرار میگیرد، آسیب سایبری میتواند به پیامدهای فوری و ملموس فیزیکی منجر شود.
این بخش از گزارش، یادآور این واقعیت راهبردی است که پیوند خوردن هوشمندسازی با خدمات حیاتی، سطح ریسک را به صورت کیفی تغییر میدهد. در چنین وضعیتی، امنیت سایبری دیگر یک مسئله صرفاً فناورانه نیست، بلکه جزئی از ایمنی عمومی و اعتماد اجتماعی میشود. در چنین شرایطی، هر رخداد بزرگ در این حوزه، میتواند هراس عمومی ایجاد کند و پذیرش اجتماعی نوآوری را عقب براند.
اقتصاد خودکار و انگیزههای جدید برای جرم
گزارش یوروپل همچنین تصویری اجتماعی نیز درباره مسئله جرایم رباتیک ارائه میدهد. بر همین اساس، افرادی که در نتیجه خودکارسازی شغل خود را از دست میدهند، ممکن است برای بقا به سوی جرم گرایش پیدا کنند و در قالبهای مختلف از جمله جرم سایبری، تخریب و سرقت سازمان یافته اقدام کنند. در این تصویر، هدف حملات میتواند «زیرساخت رباتیک» باشد. این بخش از گزارش یک گزاره قطعی نیست، اما به عنوان یک سناریوی قابل تصور مطرح میشود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی بسیار برجسته است.
به زبان سیاست گذاری، اگر اتوماسیون به صورت نامتوازن پیش برود و سازوکارهای حمایت اجتماعی، آموزش مجدد و تبدیل مهارتها به موقع طراحی نشود، احتمال شکل گیری ناامنی اجتماعی پیرامون فناوری افزایش مییابد. حتی اگر این سناریو در نهایت رخ ندهد، صرف طرح آن از سوی نهاد پلیسی اروپا، نشان میدهد که موضوع جرم مبتنی بر ربات تنها با ابزارهای انتظامی حل شدنی نیست و به بستههای مکمل اقتصادی و اجتماعی نیاز دارد.
پلیس آینده از تشخیص نقص فنی تا تشخیص حمله هدفمند
علاوه بر همه موارد ذکر شده، یک نیاز عملیاتی نیز در قلب هشدار یوروپل قرار دارد. در همین راستا، پلیس باید سریع تکامل یابد تا بتواند میان یک اختلال فنی و یک حمله عمدی تمایز بگذارد. مثال کلیدی گزارش، تصادف یک خودرو خودران است. در وضعیت فرضی، مأمور باید تشخیص دهد که حادثه بر اثر دستور هدفمند ناشی از حمله سایبری رخ داده یا صرفاً نقص فنی بوده است. این تشخیص، فقط یک داوری فنی نیست.
نکته جالب آن که متن گزارش حتی از برخی ابزارهای آیندهنگرانه مانند تفنگهای موسوم به «RoboFreezer» یا تورهایی اختصاصی مهار پهپاد نیز برای مقابله با جرایم مذکور یاد میکند. به عقیده بسیاری از کارشناسان، فارغ از این که توسعه این ابزارها تا چه حد واقع بینانه یا عملیاتی محسوب میشود، مواجهه با تهدید رباتیک، نیازمند ترکیبی از تجهیزات فیزیکی و قابلیتهای سایبری و توان تحلیل داده است. از همین روی، پلیس آینده باید بتواند هم در میدان، یک سامانه پهپادی خودکار را مهار کند و هم در سطح دیجیتال، منشأ کنترل و مسیر فرمان را بازسازی نماید.
شکاف میان سناریوی بدبینانه و موانع فنی و مقرراتی
نکته مهم دیگر در گزارش مذکور و سناریوهای واکنشی نقل شده این است که خود یوروپل نیز بر قطعیت پیش بینی تأکید نمیکند. سخنگوی این نهاد تصریح کرده است که آینده قابل پیش بینی و قطعی نیست. برخی صاحب نظران نیز معتقدند که پیش بینی درباره سال ۲۰۳۵ دشوار است، زیرا فناوری با سرعت تغییر میکند. در کنار این، دیدگاههای تردیدآمیز نیز به سناریوهای مطرح شده وجود دارد؛ از جمله اینکه موانع فنی و موانع مقرراتی ممکن است مانع تحقق سناریوهای بسیار افراطی شود و نباید انتظار داشت که پلیس رباتیک به سرعت در خیابانها مستقر شود یا رباتها به طور کامل کار و اشتغال را از بین ببرند.
با این حال، این اختلاف نظرها، به جای آن که از ارزش هشدار بکاهند، آن را دقیقتر میکنند. مسئله اصلی، تحقق دقیق یک تصویر سینمایی نیست؛ بلکه مسئله این است که دامنه فناوریهای خودکار در حال افزایش است و جرم و مقابله با جرم، دیر یا زود از این تحول اثر میپذیرد. حتی اگر بخشی از سناریوهای شدید هرگز رخ ندهد، بخشهای میانه آن که شامل افزایش سوءاستفاده از پهپادها، اختلال در زیرساختهای هوشمند و پیچیده شدن انتساب و اثبات است، میتواند کاملاً واقع گرایانه باشد.
پیام راهبردی گزارش امنیت رباتیک به مثابه حکمرانی ریسک
هشدار یوروپل را میتوان به عنوان نوعی دعوت به «حکمرانی پیش دستانه ریسک» فهم کرد. در این چارچوب، سیاستگذار باید هم زمان چند مسیر را دنبال کند.
- نخست، استانداردسازی امنیت برای سامانههای خودکار و رباتیک به ویژه در حوزههای حساس
- دوم، توانمندسازی پلیس و دستگاه عدالت در حوزه ادله دیجیتال، انتساب حمله و تحلیل فنی حوادث
- سوم، ایجاد سازوکارهای نظارتی و پاسخگویی برای جلوگیری از نقض حریم خصوصی به بهانه مقابله با جرم
گزاره کلیدی که از زبان مدیر اجرایی یوروپل نقل شده است، نقطه جمع بندی را میسازد. همان طور که اینترنت و تلفن هوشمند فرصتها و چالشهای مهمی ایجاد کردند، فناوریهای خودکار نیز همین مسیر را طی خواهند کرد. به بیان دیگر، میتوان فناوری را یک «بستر دوگانه» توصیف کرد که ظرفیت ارتقای رفاه و ایمنی و در عین حال ظرفیت گسترش تهدید را دارد. در این میان، عنصر تعیین کننده، سرعت و کیفیت سازوکارهای امنیتی، مقرراتی و اجتماعی است که همگام با توسعه فناوری شکل میگیرد.
در نهایت، به نظر میرسد که جرم مبتنی بر فناوری رباتیک یک برساخته تخیلی نیست، بلکه یک افق محتمل است که رگههای آن از هم اکنون مشاهده میشود و در همین راستا، آینده پلیس و آینده امنیت عمومی، به میزان آمادگی دولتها، صنعت و جامعه مدنی، پیش از وقوع بحرانهای بزرگ، وابسته است.