هوش مصنوعی و امنیت ملی بریتانیا؛ ملاحظات سیاستی
خلاصه اجرایی
روصی (RUSI) توسط ستاد ارتباطات دولت (GCHQ) مأموریت یافت تا مطالعه تحقیقاتی مستقلی در مورد استفاده از هوش مصنوعی برای اهداف امنیت ملی انجام دهد. هدف از این پروژه ایجاد یک پایگاه شواهد مستقل برای توسعه سیاستهای آینده در مورد استفاده از هوش مصنوعی برای امنیت ملی است. یافتهها بر اساس مشاوره عمیق با ذینفعان از سراسر جامعه امنیت ملی بریتانیا، سازمانهای مجری قانون، شرکتهای بخش خصوصی، متخصصان علمی و حقوقی، و نمایندگان جامعه مدنی صورت گرفته است. این امر با بررسی هدفمند ادبیات موجود در مورد هوش مصنوعی و امنیت ملی تکمیل شده است.
این تحقیق نشان میدهد که هوش مصنوعی فرصتهای بسیاری برای بهبود کارایی و اثربخشی فرایندهای موجود در اختیار جامعه امنیت ملی بریتانیا قرار میدهد. روشهای هوش مصنوعی میتوانند به سرعت بینشهایی را از مجموعه دادههای بزرگ و متفاوت به دست آورند و ارتباطاتی را شناسایی کنند که در غیر این صورت توسط اپراتورهای انسانی مورد توجه قرار نمیگیرند. با این حال، در زمینه امنیت ملی و اختیاراتی که به آژانسهای اطلاعاتی بریتانیا داده شده است، استفاده از هوش مصنوعی میتواند ملاحظات دیگری را در مورد حفظ حریم خصوصی و حقوق بشر ایجاد کند که باید در چارچوب قانونی و نظارتی موجود ارزیابی شود. به همین دلیل، سیاست و راهنمایی پیشرفته مورد نیاز است تا اطمینان حاصل شود که پیامدهای حفظ حریم خصوصی و حقوق بشر در جریان استفادههای امنیت ملی از هوش مصنوعی بهطور مداوم مورد بررسی قرار میگیرد.
مطالعه حاضر سه راه را برای استقرار هوش مصنوعی توسط آژانسهای اطلاعاتی برجسته میسازد:
- خودکارسازی فرایندهای سازمانی اداری میتواند صرفهجویی قابل توجهی در بهرهوری ایجاد کند؛ به عنوان مثال برای کمک به انجام وظایف معمول و تکراری مدیریت داده، یا بهبود بهرهوری فرایندهای انطباق و نظارت.
- برای اهداف امنیت سایبری، هوش مصنوعی میتواند به صورت پیشگیرانه ترافیک غیرعادی شبکه یا نرمافزارهای مخرب را شناسایی کند و به رفتارهای غیرعادی در زمان واقعی پاسخ دهد.
- برای تحلیل اطلاعات، سیستمهای «هوش افزوده» (Augmented Intelligence) میتوانند برای پشتیبانی از طیف وسیعی از فرآیندهای تحلیل انسانی بهکار روند، از جمله:
الف- پردازش زبان طبیعی و تجزیه و تحلیل دیداریشنیداری، مانند ترجمه ماشینی، شناسایی گوینده، شناسایی اشیاء و خلاصهسازی ویدئویی.
ب- فیلتر کردن و طبقهبندی مواد جمعآوری شده از طریق جمعآوری فلهای (عمده).
ج- تجزیه و تحلیل رفتاری برای به دست آوردن بینش در سطح موضوع فردی.
هیچیک از موارد استفاده از هوش مصنوعی که در تحقیق شناسایی شدهاند، نمیتوانند جایگزین قضاوت انسان شوند. سیستمهایی که سعی میکنند رفتار انسان را در سطح فردی «پیشبینی» کنند، احتمالاً ارزش محدودی برای ارزیابی تهدید خواهند داشت. با این حال، استفاده از سیستمهای هوش افزوده برای گردآوری اطلاعات از منابع مختلف و پرچمگذاری اقلام دادهای مهم برای بازبینی انسانی، احتمالاً بهرهوری وظایف تحلیلی متمرکز بر افراد را بهبود میبخشد.
زمانی که نیاز به مقابله با تهدیدات مبتنی بر هوش مصنوعی برای امنیت ملی بریتانیا در نظر گرفته شود، الزامات هوش مصنوعی بسیار ضروریتر است. بازیگران مخرب بدون شک به دنبال استفاده از هوش مصنوعی برای حمله به بریتانیا خواهند بود، و این احتمال وجود دارد که کارگزاران متخاصم دارای ظرفیتهای بالاتر، که به چارچوب قانونی مشابهی محدود نیستند، در حال توسعه قابلیتهای تهاجمی مبتنی بر هوش مصنوعی هستند یا حتی توسعه دادهاند. با گذشت زمان، سایر بازیگران تهدیدگر، از جمله گروههای سایبری جنایی نیز قادر خواهند بود از همان نوآوریهای هوش مصنوعی بهرهبرداری کنند.
- تهدیدها برای امنیت دیجیتال شامل استفاده از بدافزارهای چندریختی است که بهطور مکرر ویژگیهای قابل شناسایی خود را برای فرار از تشخیص تغییر میدهند، یا خودکارسازی حملات مهندسی اجتماعی برای هدف قرار دادن قربانیان فردی.
- تهدیدها علیه امنیت سیاسی شامل استفاده از فناوری «ژرفجعل» (دیپفیک) برای تولید رسانههای مصنوعی و اطلاعات نادرست، با هدف دستکاری افکار عمومی یا مداخله در فرآیندهای انتخاباتی است.
- تهدیدها علیه امنیت فیزیکی یک نگرانی کمتر فوری است. با این حال، افزایش پذیرش فناوری اینترنت اشیاء، وسایل نقلیه خودران، «شهرهای هوشمند» و زیرساختهای مهم و بههمپیوسته ملی، آسیبپذیریهای متعددی را ایجاد میکند که میتواند برای ایجاد آسیب یا اختلال مورد سوء استفاده قرار گیرد.
فرصتها و مخاطراتی در رابطه با نفوذ به حریم خصوصی وجود دارد. احتمالاً هوش مصنوعی با به حداقل رساندن حجم دادههای شخصی که در معرض بازبینی انسان است، پتانسیل کاهش نفوذ را دارد. با این حال، همچنین استدلال شده است که میزان نقض حریم خصوصی صرف نظر از اینکه دادهها توسط الگوریتم یا اپراتور انسانی پردازش شوند، یکسان است. علاوه بر این، استفاده از هوش مصنوعی میتواند به پردازش مواد بیشتری منجر شود که پیشتر به دلایل فنی یا مرتبط با ظرفیت امکانپذیر نبوده است. این موضوع باید هنگام ارزیابی تناسب هرگونه نقض حریم خصوصی بالقوه در برابر افزایش اثربخشی تحلیلی که ممکن است حاصل شود، مورد توجه قرار گیرد.
«پروفایل الگوریتمی» را میتوان بیش از تحلیل دستی مداخلهگر تلقی کرد و در صورتی که این مداخله تحت عنوان سوگیری یا تبعیض غیرمنصفانه درک شود، نگرانیهای بیشتری درباره حقوق بشر ایجاد میکند. محافظت در برابر سوگیری ماشینی به فرآیندهای داخلی برای ردیابی مداوم و کاهش خطر تبعیض در تمام مراحل پروژه هوش مصنوعی و همچنین اطمینان از تنوع جمعیتی در تیم های توسعه هوش مصنوعی نیاز دارد.
بسیاری از دیدگاهها با توجه به ماهیت «جعبه سیاه» روشهای خاص هوش مصنوعی، نگران از دست رفتن مسئولیتپذیری کل فرایند تصمیمگیری هستند. به منظور اطمینان از اینکه اپراتورهای انسانی پاسخگویی نهایی را برای فرایند تصمیمگیری مبتنی بر تحلیل دارند، ضروری است سیستمهایی طراحی شوند که کاربران غیرفنی بتوانند اطلاعات فنی کلیدی مانند حاشیه خطا و عدم قطعیت مرتبط با یک محاسبه را تفسیر و ارزیابی انتقادی کنند.
با وجود گسترش «اصول اخلاقی» برای هوش مصنوعی، هنوز مشخص نیست که این اصول در عمل چگونه باید عملیاتی شوند، که لزوم وجود راهنماییهای بخشی بیشتر برای استفادههای امنیت ملی از هوش مصنوعی را نشان میدهد. یک رویکرد چابک در رژیم نظارتی موجود برای پیشبینی و درک فرصتها و ریسکهای ارائهشده توسط تواناییهای جدید هوش مصنوعی ضروری است تا اطمینان حاصل شود که جامعه اطلاعاتی بریتانیا میتواند در پاسخ به محیط فناوری بهسرعت در حال تحول و چشمانداز تهدید سازگار شود.