هوش مصنوعی و امنیت ملی بریتانیا؛ ملاحظات سیاستی

خلاصه اجرایی

روصی (RUSI) توسط ستاد ارتباطات دولت (GCHQ) مأموریت یافت تا مطالعه تحقیقاتی مستقلی در مورد استفاده از هوش مصنوعی برای اهداف امنیت ملی انجام دهد. هدف از این پروژه ایجاد یک پایگاه شواهد مستقل برای توسعه سیاست‌های آینده در مورد استفاده از هوش مصنوعی برای امنیت ملی است. یافته‌ها بر اساس مشاوره عمیق با ذی‌نفعان از سراسر جامعه امنیت ملی بریتانیا، سازمان‌های مجری قانون، شرکت‌های بخش خصوصی، متخصصان علمی و حقوقی، و نمایندگان جامعه مدنی صورت گرفته است. این امر با بررسی هدفمند ادبیات موجود در مورد هوش مصنوعی و امنیت ملی تکمیل شده است.

این تحقیق نشان می‌دهد که هوش مصنوعی فرصت‌های بسیاری برای بهبود کارایی و اثربخشی فرایندهای موجود در اختیار جامعه امنیت ملی بریتانیا قرار می‌دهد. روش‌های هوش مصنوعی می‌توانند به سرعت بینش‌هایی را از مجموعه داده‌های بزرگ و متفاوت به دست آورند و ارتباطاتی را شناسایی کنند که در غیر این صورت توسط اپراتورهای انسانی مورد توجه قرار نمی‌گیرند. با این حال، در زمینه امنیت ملی و اختیاراتی که به آژانس‌های اطلاعاتی بریتانیا داده شده است، استفاده از هوش مصنوعی می‌تواند ملاحظات دیگری را در مورد حفظ حریم خصوصی و حقوق بشر ایجاد کند که باید در چارچوب قانونی و نظارتی موجود ارزیابی شود. به همین دلیل، سیاست و راهنمایی پیشرفته مورد نیاز است تا اطمینان حاصل شود که پیامدهای حفظ حریم خصوصی و حقوق بشر در جریان استفاده‌های امنیت ملی از هوش مصنوعی به‌طور مداوم مورد بررسی قرار می‌گیرد.

مطالعه حاضر سه راه را برای استقرار هوش مصنوعی توسط آژانس‌های اطلاعاتی برجسته می‌سازد:

  1. خودکارسازی فرایندهای سازمانی اداری می‌تواند صرفه‌جویی قابل توجهی در بهره‌وری ایجاد کند؛ به عنوان مثال برای کمک به انجام وظایف معمول و تکراری مدیریت داده، یا بهبود بهره‌وری فرایندهای انطباق و نظارت.

  2. برای اهداف امنیت سایبری، هوش مصنوعی می‌تواند به صورت پیش‎گیرانه ترافیک غیرعادی شبکه یا نرم‌افزارهای مخرب را شناسایی کند و به رفتارهای غیرعادی در زمان واقعی پاسخ دهد.
  3. برای تحلیل اطلاعات، سیستم‌های «هوش ‌افزوده» (Augmented Intelligence) می‌توانند برای پشتیبانی از طیف وسیعی از فرآیندهای تحلیل انسانی به‏کار روند، از جمله:

الف- پردازش زبان طبیعی و تجزیه و تحلیل دیداری‎شنیداری، مانند ترجمه ماشینی، شناسایی گوینده، شناسایی اشیاء و خلاصه‌سازی ویدئویی.

ب- فیلتر کردن و طبقه‌بندی مواد جمع‌آوری شده از طریق جمع‌آوری فله‏ای (عمده).

ج- تجزیه و تحلیل رفتاری برای به دست آوردن بینش در سطح موضوع فردی.

هیچ‌یک از موارد استفاده از هوش مصنوعی که در تحقیق شناسایی شده‌اند، نمی‌توانند جایگزین قضاوت انسان شوند. سیستم‌هایی که سعی می‌کنند رفتار انسان را در سطح فردی «پیش‌بینی» کنند، احتمالاً ارزش محدودی برای ارزیابی تهدید خواهند داشت. با این حال، استفاده از سیستم‌های هوش افزوده برای گردآوری اطلاعات از منابع مختلف و پرچم‌گذاری اقلام داده‌ای مهم برای بازبینی انسانی، احتمالاً بهره‌وری وظایف تحلیلی متمرکز بر افراد را بهبود می‌بخشد.

زمانی که نیاز به مقابله با تهدیدات مبتنی بر هوش مصنوعی برای امنیت ملی بریتانیا در نظر گرفته شود، الزامات هوش مصنوعی بسیار ضروری‌تر است. بازیگران مخرب بدون شک به دنبال استفاده از هوش مصنوعی برای حمله به بریتانیا خواهند بود، و این احتمال وجود دارد که کارگزاران متخاصم دارای ظرفیت‌های بالاتر، که به چارچوب قانونی مشابهی محدود نیستند، در حال توسعه قابلیت‌های تهاجمی مبتنی بر هوش مصنوعی هستند یا حتی توسعه داده‌اند. با گذشت زمان، سایر بازیگران تهدیدگر، از جمله گروه‌های سایبری جنایی نیز قادر خواهند بود از همان نوآوری‌های هوش مصنوعی بهره‌برداری کنند.

  • تهدیدها برای امنیت دیجیتال شامل استفاده از بدافزارهای چندریختی است که به‌طور مکرر ویژگی‌های قابل شناسایی خود را برای فرار از تشخیص تغییر می‌دهند، یا خودکارسازی حملات مهندسی اجتماعی برای هدف قرار دادن قربانیان فردی.

  • تهدیدها علیه امنیت سیاسی شامل استفاده از فناوری «ژرف‌جعل» (دیپ‌فیک) برای تولید رسانه‌های مصنوعی و اطلاعات نادرست، با هدف دستکاری افکار عمومی یا مداخله در فرآیندهای انتخاباتی است.
  • تهدیدها علیه امنیت فیزیکی یک نگرانی کمتر فوری است. با این حال، افزایش پذیرش فناوری اینترنت اشیاء، وسایل نقلیه خودران، «شهرهای هوشمند» و زیرساخت‌های مهم و به‌هم‌پیوسته ملی، آسیب‌پذیری‌های متعددی را ایجاد می‌کند که می‌تواند برای ایجاد آسیب یا اختلال مورد سوء استفاده قرار گیرد.

فرصت‌ها و مخاطراتی در رابطه با نفوذ به حریم خصوصی وجود دارد. احتمالاً هوش مصنوعی با به حداقل رساندن حجم داده‌های شخصی که در معرض بازبینی انسان است، پتانسیل کاهش نفوذ را دارد. با این حال، همچنین استدلال شده است که میزان نقض حریم خصوصی صرف نظر از اینکه داده‌ها توسط الگوریتم یا اپراتور انسانی پردازش شوند، یکسان است. علاوه بر این، استفاده از هوش مصنوعی می‌تواند به پردازش مواد بیشتری منجر شود که پیشتر به دلایل فنی یا مرتبط با ظرفیت امکان‌پذیر نبوده است. این موضوع باید هنگام ارزیابی تناسب هرگونه نقض حریم خصوصی بالقوه در برابر افزایش اثربخشی تحلیلی که ممکن است حاصل شود، مورد توجه قرار گیرد.

«پروفایل الگوریتمی» را می‌توان بیش از تحلیل دستی مداخله‌گر تلقی کرد و در صورتی که این مداخله تحت عنوان سوگیری یا تبعیض غیرمنصفانه درک شود، نگرانی‌های بیشتری درباره حقوق بشر ایجاد می‌کند. محافظت در برابر سوگیری ماشینی به فرآیندهای داخلی برای ردیابی مداوم و کاهش خطر تبعیض در تمام مراحل پروژه هوش مصنوعی و همچنین اطمینان از تنوع جمعیتی در تیم های توسعه هوش مصنوعی نیاز دارد.

بسیاری از دیدگاه‌ها با توجه به ماهیت «جعبه سیاه» روش‌های خاص هوش مصنوعی،  نگران از دست رفتن مسئولیت‌پذیری کل فرایند تصمیم‌گیری هستند. به منظور اطمینان از اینکه اپراتورهای انسانی پاسخگویی نهایی را برای فرایند تصمیم‌گیری مبتنی بر تحلیل دارند، ضروری است سیستم‌هایی طراحی شوند که کاربران غیرفنی بتوانند اطلاعات فنی کلیدی مانند حاشیه خطا و عدم قطعیت مرتبط با یک محاسبه را تفسیر و ارزیابی انتقادی کنند.

با وجود گسترش «اصول اخلاقی» برای هوش مصنوعی، هنوز مشخص نیست که این اصول در عمل چگونه باید عملیاتی شوند، که لزوم وجود راهنمایی‌های بخشی بیشتر برای استفاده‌های امنیت ملی از هوش مصنوعی را نشان می‌دهد. یک رویکرد چابک در رژیم نظارتی موجود برای پیش‌بینی و درک فرصت‌ها و ریسک‌های ارائه‌شده توسط توانایی‌های جدید هوش مصنوعی ضروری است تا اطمینان حاصل شود که جامعه اطلاعاتی بریتانیا می‌تواند در پاسخ به محیط فناوری به‌سرعت در حال تحول و چشم‌انداز تهدید سازگار شود.

دیدگاه ها غیرفعال است