Skip to content Skip to sidebar Skip to footer

نگرانی فزاینده پلیس اروپا درباره ظهور جرائم رباتیک در آینده نزدیک

به گزارش خبرنگار مهر؛ تحول در سامانه‌های خودران و ربات‌های انسان نما طی سال‌های اخیر، از حوزه‌های آزمایشگاهی و صنعتی عبور کرده و به میدان‌های واقعی عملیات و زندگی روزمره رسیده است. تجربه پهپادهای خودمختار در جنگ‌های معاصر، به ویژه در جبهه‌های درگیری روسیه و اوکراین، نشان داده است که فناوری‌های مبتنی بر هوش مصنوعی نه فقط توان نظامی را دگرگون می‌کنند، بلکه مرزهای اخلاق، مسئولیت و انتساب کنش را نیز مبهم می‌سازند. در چنین شرایطی، پرسش اصلی دیگر صرفاً به جنگ محدود نمی‌ماند. گزارش تازه آزمایشگاه نوآوری نهاد پلیس اروپایی یوروپل، چشم اندازی را ترسیم می‌کند که در آن قابلیت‌های خودکار و نیمه خودکار، به دست شبکه‌های جنایی و تروریستی می‌افتد و کیفیت تهدیدات داخلی را متحول می‌کند.

در این روایت، افق ۲۰۳۵ یک نقطه دوردست نیست. گزارش تأکید می‌کند که نشانه‌های انقلاب فناورانه از هم اکنون وجود دارند. از افزایش مشاهده پهپادهای مورد استفاده در زیرساخت‌های اروپایی تا شکل گیری بازارهای آنلاین برای عرضه خدمات هدایت پهپاد که به ادعای گزارش، الگوی «جرم به عنوان خدمت» را به سمت «جرم از راه دور» سوق می‌دهد. مسئله کلیدی این است که وقتی ابزارهای پیچیده، ارزان و در دسترس شوند، هم هزینه ارتکاب جرم کاهش می‌یابد و هم نسبت کشف و انتساب دشوارتر می‌شود. از همین روی، نیروی پلیس نه فقط باید با فناوری مقابله کند، بلکه باید قواعد مسئولیت، استانداردهای اثبات و سازوکارهای پاسخ را نیز بازطراحی نماید.

از سلاح در میدان نبرد تا ابزاری برای ارتکاب جرایم شهری

متن گزارش یوروپل بر پیوند میان دو روند عادی شدن استفاده از سامانه‌های خودکار در میدان‌های درگیری و سرریز تدریجی همان ابزارها به حوزه جرایم سازمان یافته و تروریسم تأکید دارد. این سرریز الزاماً به معنای انتقال مستقیم تسلیحات پیشرفته نیست، بلکه انتقال دانش عملیاتی، مهارت‌های فنی، قطعات، الگوهای تاکتیکی و حتی نیروی انسانی آموزش دیده را شامل می‌شود. هنگامی که پهپاد به ابزار روزمره جنگ تبدیل می‌شود، در مرحله بعد، منطق بهره برداری از آن به حوزه‌های غیرنظامی راه می‌یابد. این انتقال، همان نقطه‌ای است که نظم عمومی با یک تهدید چندلایه مواجه می‌شود؛ تهدیدی که به صورت توأمان فیزیکی و سایبری است و همزمان ماهیتی محلی و شبکه‎ای دارد.

در همین چارچوب، گزارش هشدار می‌دهد که تا سال ۲۰۳۵ پلیس باید با پدیده «ارتکاب جرایم توسط ربات‌ها» مواجه شود. منظور از این عبارت، صرفاً ارتکاب جرم با ربات به عنوان ابزار نیست، بلکه طیفی از سناریوها را در بر می‌گیرد؛ از پهپادهایی که در سرقت و عملیات تخریبی به کار می‌روند تا خودروهای خودران که در اثر سوءاستفاده یا حمله سایبری می‌توانند موجب آسیب به عابران شوند. گزارش در این بخش به نکته‌ای واقع گرایانه اشاره می‌کند: رخدادهای آسیب زا پیرامون خودروهای خودران، در مقطع کنونی و حال حاضر نیز مشاهده می‌شوند. بنابراین بخش مهمی از هشدار یوروپل، بر «تسریع» و «گسترده شدن» مسئله‌ای موجود تمرکز دارد و بر وقوع یک امر کاملاً ناشناخته مبتنی نیست.

پیچیدگی ربات انسان نما و دشواری تشخیص اهداف

اگر پهپادها و خودروهای خودران را بتوان در قالب ابزارهای نسبتاً شفاف تحلیل کرد، ربات انسان نما یک لایه پیچیدگی جدید به این فرایند می‌افزاید. گزارش تصریح می‌کند که ربات‌های انسان نما می‌توانند طوری طراحی شوند که تعامل پیچیده‌تری با انسان داشته باشند و همین ویژگی، تشخیص رفتار عمدی از اقدامات تصادفی را دشوارتر می‌سازد. در عمل، هرچه تعامل طبیعی‌تر و انسانی‌تر شود، «برداشت انسانی» از کنش نیز نقش پررنگ‌تری می‌گیرد و خطای ادراکی محتمل‌تر می‌شود. در چنین وضعیتی، مسئله پلیس فقط مهار یک دستگاه الکترونیکی نیست و چالش اصلی فهمیدن «قصد» و «زنجیره کنترل» محسوب می‌شود. به عبارت دیگر، پاسخ به این پرسش که آیا یک رفتار خطرناک ناشی از دستور هدفمند در قالب حمله سایبری بوده است یا پیامد نقص فنی یا خطای یادگیری سامانه، اهمیت مضاعفی می‌یابد.

این نکته در سطح حقوقی نیز پیامدهای بسیاری در بر دارد. زیرا نظام عدالت کیفری، به صورت سنتی بر انتساب قصد و تقصیر بنا شده است. وقتی یک سامانه به ظاهر خودمختار کنشی انجام می‌دهد، تعیین فرد مسئول نیازمند بازسازی دقیق مسیر تصمیم گیری است. مسیری که می‌تواند میان کاربر، تولیدکننده، ارائه دهنده نرم افزار، کاربر و مهاجم سایبری تقسیم شود. گزارش یوروپل با برجسته کردن همین ابهام، عملاً مدعی می‌شود که تخصص‌های فنی صرف برای آینده کافی نخواهد بود و باید توان تحلیل انتسابی و فنی توأمان شکل بگیرد.

ربات‌های درمانی آسیب پذیری انسان در حساس‌ترین نقطه

یکی از هشدارهای برجسته گزارش، مسئله ورود هوش مصنوعی و ربات‌ها به حوزه سلامت است. بر همین اساس، اگر ربات‌هایی مورد استفاده برای کمک در محیط‌های درمانی، هک شوند، نه فقط یک دارایی فناورانه را در معرض خطر می‌گذارند، بلکه بیمار را در وضعیت آسیب پذیری مستقیم قرار می‌دهند. معنای این گزاره، ارتقای سطح تهدید از «اختلال در خدمت» به «تهدید علیه جان و سلامت» است. به بیان دقیق‌تر، وقتی زیرساخت رباتیک در بستر سلامت قرار می‌گیرد، آسیب سایبری می‌تواند به پیامدهای فوری و ملموس فیزیکی منجر شود.

این بخش از گزارش، یادآور این واقعیت راهبردی است که پیوند خوردن هوشمندسازی با خدمات حیاتی، سطح ریسک را به صورت کیفی تغییر می‌دهد. در چنین وضعیتی، امنیت سایبری دیگر یک مسئله صرفاً فناورانه نیست، بلکه جزئی از ایمنی عمومی و اعتماد اجتماعی می‌شود. در چنین شرایطی، هر رخداد بزرگ در این حوزه، می‌تواند هراس عمومی ایجاد کند و پذیرش اجتماعی نوآوری را عقب براند.

اقتصاد خودکار و انگیزه‌های جدید برای جرم

گزارش یوروپل همچنین تصویری اجتماعی نیز درباره مسئله جرایم رباتیک ارائه می‌دهد. بر همین اساس، افرادی که در نتیجه خودکارسازی شغل خود را از دست می‌دهند، ممکن است برای بقا به سوی جرم گرایش پیدا کنند و در قالب‌های مختلف از جمله جرم سایبری، تخریب و سرقت سازمان یافته اقدام کنند. در این تصویر، هدف حملات می‌تواند «زیرساخت رباتیک» باشد. این بخش از گزارش یک گزاره قطعی نیست، اما به عنوان یک سناریوی قابل تصور مطرح می‌شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی بسیار برجسته است.

به زبان سیاست گذاری، اگر اتوماسیون به صورت نامتوازن پیش برود و سازوکارهای حمایت اجتماعی، آموزش مجدد و تبدیل مهارت‌ها به موقع طراحی نشود، احتمال شکل گیری ناامنی اجتماعی پیرامون فناوری افزایش می‌یابد. حتی اگر این سناریو در نهایت رخ ندهد، صرف طرح آن از سوی نهاد پلیسی اروپا، نشان می‌دهد که موضوع جرم مبتنی بر ربات تنها با ابزارهای انتظامی حل شدنی نیست و به بسته‌های مکمل اقتصادی و اجتماعی نیاز دارد.

پلیس آینده از تشخیص نقص فنی تا تشخیص حمله هدفمند

علاوه بر همه موارد ذکر شده، یک نیاز عملیاتی نیز در قلب هشدار یوروپل قرار دارد. در همین راستا، پلیس باید سریع تکامل یابد تا بتواند میان یک اختلال فنی و یک حمله عمدی تمایز بگذارد. مثال کلیدی گزارش، تصادف یک خودرو خودران است. در وضعیت فرضی، مأمور باید تشخیص دهد که حادثه بر اثر دستور هدفمند ناشی از حمله سایبری رخ داده یا صرفاً نقص فنی بوده است. این تشخیص، فقط یک داوری فنی نیست.

نکته جالب آن که متن گزارش حتی از برخی ابزارهای آینده‌نگرانه مانند تفنگ‌های موسوم به «RoboFreezer» یا تورهایی اختصاصی مهار پهپاد نیز برای مقابله با جرایم مذکور یاد می‌کند. به عقیده بسیاری از کارشناسان، فارغ از این که توسعه این ابزارها تا چه حد واقع بینانه یا عملیاتی محسوب می‌شود، مواجهه با تهدید رباتیک، نیازمند ترکیبی از تجهیزات فیزیکی و قابلیت‌های سایبری و توان تحلیل داده است. از همین روی، پلیس آینده باید بتواند هم در میدان، یک سامانه پهپادی خودکار را مهار کند و هم در سطح دیجیتال، منشأ کنترل و مسیر فرمان را بازسازی نماید.

شکاف میان سناریوی بدبینانه و موانع فنی و مقرراتی

نکته مهم دیگر در گزارش مذکور و سناریوهای واکنشی نقل شده این است که خود یوروپل نیز بر قطعیت پیش بینی تأکید نمی‌کند. سخنگوی این نهاد تصریح کرده است که آینده قابل پیش بینی و قطعی نیست. برخی صاحب نظران نیز معتقدند که پیش بینی درباره سال ۲۰۳۵ دشوار است، زیرا فناوری با سرعت تغییر می‌کند. در کنار این، دیدگاه‌های تردیدآمیز نیز به سناریوهای مطرح شده وجود دارد؛ از جمله اینکه موانع فنی و موانع مقرراتی ممکن است مانع تحقق سناریوهای بسیار افراطی شود و نباید انتظار داشت که پلیس رباتیک به سرعت در خیابان‌ها مستقر شود یا ربات‌ها به طور کامل کار و اشتغال را از بین ببرند.

با این حال، این اختلاف نظرها، به جای آن که از ارزش هشدار بکاهند، آن را دقیق‌تر می‌کنند. مسئله اصلی، تحقق دقیق یک تصویر سینمایی نیست؛ بلکه مسئله این است که دامنه فناوری‌های خودکار در حال افزایش است و جرم و مقابله با جرم، دیر یا زود از این تحول اثر می‌پذیرد. حتی اگر بخشی از سناریوهای شدید هرگز رخ ندهد، بخش‌های میانه آن که شامل افزایش سوءاستفاده از پهپادها، اختلال در زیرساخت‌های هوشمند و پیچیده شدن انتساب و اثبات است، می‌تواند کاملاً واقع گرایانه باشد.

پیام راهبردی گزارش امنیت رباتیک به مثابه حکمرانی ریسک

هشدار یوروپل را می‌توان به عنوان نوعی دعوت به «حکمرانی پیش دستانه ریسک» فهم کرد. در این چارچوب، سیاست‌گذار باید هم زمان چند مسیر را دنبال کند.

  • نخست، استانداردسازی امنیت برای سامانه‌های خودکار و رباتیک به ویژه در حوزه‌های حساس
  • دوم، توانمندسازی پلیس و دستگاه عدالت در حوزه ادله دیجیتال، انتساب حمله و تحلیل فنی حوادث
  • سوم، ایجاد سازوکارهای نظارتی و پاسخگویی برای جلوگیری از نقض حریم خصوصی به بهانه مقابله با جرم

گزاره کلیدی که از زبان مدیر اجرایی یوروپل نقل شده است، نقطه جمع بندی را می‌سازد. همان طور که اینترنت و تلفن هوشمند فرصت‌ها و چالش‌های مهمی ایجاد کردند، فناوری‌های خودکار نیز همین مسیر را طی خواهند کرد. به بیان دیگر، می‌توان فناوری را یک «بستر دوگانه» توصیف کرد که ظرفیت ارتقای رفاه و ایمنی و در عین حال ظرفیت گسترش تهدید را دارد. در این میان، عنصر تعیین کننده، سرعت و کیفیت سازوکارهای امنیتی، مقرراتی و اجتماعی است که همگام با توسعه فناوری شکل می‌گیرد.

در نهایت، به نظر می‌رسد که جرم مبتنی بر فناوری رباتیک یک برساخته تخیلی نیست، بلکه یک افق محتمل است که رگه‌های آن از هم اکنون مشاهده می‌شود و در همین راستا، آینده پلیس و آینده امنیت عمومی، به میزان آمادگی دولت‌ها، صنعت و جامعه مدنی، پیش از وقوع بحران‌های بزرگ، وابسته است.

Leave a comment

0.0/5