به گزارش خبرآنلاین، پس از آن که مذاکرات بین شرکت «آنتروپیک»(Anthropic) و پنتاگون برای جلوگیری از استفاده وزارت دفاع آمریکا از مدلهای هوش مصنوعی آن به منظور نظارت گسترده داخلی یا بهکارگیری سلاحهای کاملاً خودمختار به نتیجه نرسید، «دونالد ترامپ» رئیسجمهور آمریکا به آژانسهای فدرال دستور داد تا استفاده از همه محصولات آنتروپیک را متوقف کنند و «پیت هگست»(Pete Hegseth) وزیر دفاع آمریکا گفت که این شرکت را به عنوان یک تهدید برای زنجیره تأمین معرفی میکند.
به نقل از ایسنا، به دنبال این اتفاقات شرکت «اوپنایآی»(OpenAI) به سرعت اعلام کرد که برای استقرار مدلهای هوش مصنوعی خود در محیطهای طبقهبندیشده به توافق رسیده است. با توجه به این که آنتروپیک اعلام کرد خطوط قرمزی را درباره استفاده از فناوری خود در سلاحهای کاملاً خودمختار یا نظارت گسترده داخلی ترسیم میکند و «سم آلتمن»(Sam Altman) مدیرعامل اوپنایآی گفت که این شرکت نیز همین خطوط قرمز را دارد، چند پرسش واضح مطرح میشود. آیا اوپنایآی درباره اقدامات حفاظتی خود صادق بوده است؟ چرا اوپنایآی توانست به توافق برسد، در حالی که آنتروپیک این کار را نکرد؟
آلتمن اعتراف کرد که قرارداد اوپنایآی با وزارت دفاع آمریکا قطعاً عجولانه بوده است و به نظر میرسد اوضاع خوب نیست.
همزمان با دفاع مدیران اوپنایآی از این توافق در رسانههای اجتماعی، این شرکت یک پست جدید نیز منتشر کرد که در آن رویکرد خود را تشریح کرده بود.
اوپنایآی در این پست به سه حوزه اشاره کرد که مدلهای این شرکت نمیتوانند در آنها مورد استفاده قرار بگیرند. این حوزهها عبارتند از نظارت گسترده داخلی، سیستمهای سلاحهای خودکار و تصمیمهای خودکار با ریسک بالا مانند سیستمهای اعتبار اجتماعی.
این شرکت اعلام کرد برخلاف سایر شرکتهای هوش مصنوعی که حفاظتهای ایمنی خود را کاهش داده یا حذف کردهاند و عمدتاً به سیاستهای استفاده به عنوان حفاظهای اصلی خود در استقرار امنیت ملی متکی بودهاند، توافق اوپنایآی خطوط قرمز آن را از طریق یک رویکرد گستردهتر و چندلایهتر محافظت میکند.
در این پست آمده است: ما اختیار کامل خود را درباره مجموعه امنیتی خود حفظ میکنیم و از طریق فضای ابری مستقر میشویم. پرسنل دارای مجوز اوپنایآی در جریان امور هستند و از حمایتهای قراردادی قوی برخورداریم. همه اینها علاوه بر حمایتهای قوی موجود در قانون است.
این شرکت در ادامه نوشت: ما نمیدانیم چرا شرکت آنتروپیک نتوانست به این توافق برسد و امیدواریم که آنها و آزمایشگاههای (هوش مصنوعی) بیشتری این موضوع را بررسی کنند.
پس از انتشار این پست، «مایک ماسنیک»(Mike Masnick)، بنیانگذار وبلاگ فناوری «تکدرت»(Techdirt) ادعا کرد که این توافق قطعاً اجازه نظارت داخلی را میدهد، زیرا میگوید جمعآوری دادههای خصوصی با فرمان اجرایی ۱۲۳۳۳ همراه با تعدادی از قوانین دیگر مطابقت دارد.
فرمان اجرایی ۱۲۳۳۳ با هدف گسترش اختیارات و مسئولیتهای سازمانهای اطلاعاتی آمریکا و دستور به رهبران سازمانهای فدرال این کشور به منظور همکاری کامل با درخواستهای سیآیای برای انتشار اطلاعات صادر شده است.
«کاترینا مولیگان»(Katrina Mulligan)، رئیس بخش مشارکتهای امنیت ملی اوپنایآی در یک پست لینکدین نوشت: بخش عمدهای از بحث پیرامون متن قرارداد، فرض را بر این میگذارد که تنها مانع بین آمریکاییها و استفاده از هوش مصنوعی برای نظارت گسترده داخلی و سلاحهای خودمختار، یک بند از سیاست استفاده واحد در یک قرارداد واحد با وزارت جنگ است.
مولیگان در ادامه نوشت: هیچکدام از این موارد به این صورت کار نمیکنند. ساختار استقرار بیش از زبان قرارداد اهمیت دارد. با محدود کردن استقرارمان به API فضای ابری میتوانیم اطمینان حاصل کنیم که مدلهای ما نمیتوانند مستقیماً در سیستمهای تسلیحاتی، حسگرها یا سایر سختافزارهای عملیاتی ادغام شوند.
آلتمن گفت: ما واقعاً میخواستیم اوضاع را آرام کنیم و فکر میکردیم معامله پیشنهادی خوب است. اگر حق با ما باشد و این کار به آرام شدن تنش بین وزارت کار و صنعت کمک کند، ما نابغهای به نظر خواهیم رسید که برای کمک به صنعت زحمات زیادی کشیده است. اگر این طور نباشد، ما همچنان به عنوان یک شرکت عجول و بیدقت توصیف خواهیم شد.
5858