Как фалшивите видеоклипове могат да доведат до края на света?
От началото на ядрената ера политиците и стратезите се опитват да предотвратят случайно разгръщане на ядрени оръжия от дадена страна. Но вероятността от инциденти остава толкова висока, колкото беше по време на Студената война. През 1983 г. съветската система за ранно предупреждение погрешно сигнализира, че САЩ подготвят ядрен удар срещу Съветския съюз. Такова предупреждение би могло да предизвика катастрофална съветска контраатака. Тази съдба беше избегната само защото дежурният супервайзор Станислав Петров прецени, че алармата е фалшива. Ако не беше го направил, съветското ръководство щеше да има основание да изстреля най-разрушителните оръжия в света срещу Съединените щати.
Бързото разпространение на изкуствения интелект засили заплахите за ядрената стабилност. Едно от опасенията е, че държава, притежаваща ядрени оръжия, може да делегира решението за използването им на машини. Съединените щати обаче са въвели предпазни мерки, за да гарантират, че хората ще продължат да вземат окончателното решение за това дали да се нанесе удар. Според Националната отбранителна стратегия от 2022 г. човек ще остане „в цикъла“ за всяко решение за използване или спиране на използването на ядрено оръжие. Американският президент Джо Байдън и китайският лидер Си Цзинпин се съгласиха в двойни изявления, че „решението за използване на ядрени оръжия трябва да бъде контролирано от хора“, пише в анализ за Foreign Affairs Ерин Дъмбахър.
Все пак изкуственият интелект представлява и друг коварен риск за ядрената сигурност. Той улеснява създаването и разпространението на дийпфейкове – убедително променени видеоклипове, изображения или аудиозаписи, които се използват за генериране на фалшива информация за хора или събития. А тези техники стават все по-усъвършенствани. Няколко седмици след руската инвазия в Украйна през 2022 г. широко разпространена дълбока фалшификация показа украинския президент Володимир Зеленски, който призовава украинците да сложат оръжията си. През 2023 г. дълбока фалшификация накара хората да повярват, че руският президент Владимир Путин е прекъснал държавната телевизия, за да обяви пълна мобилизация. В по-екстремен сценарий дипфейк може да убеди лидера на държава с ядрено оръжие, че противникът е на път да нанесе първи удар, или платформа за разузнаване, поддържана от изкуствен интелект, може да предизвика фалшива тревога за мобилизация или дори атака с мръсна бомба от страна на противника, предава dnes.bg.
Администрацията на Тръмп иска да използва изкуствения интелект за националната сигурност. През юли тя публикува план за действие, в който призовава изкуственият интелект да се използва „агресивно“ в Министерството на отбраната. През декември министерството представи GenAI.mil, платформа с инструменти за изкуствен интелект за служителите. Но тъй като администрацията внедрява изкуствен интелект в инфраструктурата за национална сигурност, ще бъде от решаващо значение политиците и системните дизайнери да бъдат внимателни по отношение на ролята, която машините играят в ранните фази на вземането на решения в областта на ядрената енергетика. Докато инженерите не успеят да предотвратят проблемите, присъщи на изкуствения интелект, като халюцинации и фалшифициране – при които големи езикови модели предсказват неточни модели или факти – правителството на САЩ трябва да гарантира, че хората продължават да контролират системите за ранно предупреждение за ядрени атаки. Другите държави, притежаващи ядрено оръжие, трябва да направят същото.
Днес президентът Доналд Тръмп използва телефона си, за да получи достъп до дийпфейкове; понякога той ги препубликува в социалните медии, както правят и много от неговите близки съветници. Тъй като границите между реалната и фалшивата информация се размиват, нараства вероятността такива дийпфейкове да повлияят на важни решения, свързани с националната сигурност, включително и по отношение на ядрените оръжия.
Ако дезинформацията може да заблуди президента на САЩ дори за няколко минути,
това може да доведе до катастрофа за света. Според американското законодателство президентът не е длъжен да се консултира с никого, за да разпореди използването на ядрени оръжия за ответен удар или първи удар. Американските военни са в готовност да разположат самолети, подводници и наземни ракети, носещи ядрени бойни глави.
Ядрените сили на САЩ и Русия са подготвени за „изстрелване при предупреждение“, което означава, че могат да бъдат разгърнати веднага щом бъдат засечени ракети на врага, насочени към тях. Това оставя само няколко минути на лидера да прецени дали е започнала ядрена атака от противника. (Съгласно настоящата политика на САЩ, президентът има възможност да отложи решението си, докато ядреното оръжие на противника не удари САЩ.) Ако системата за ранно предупреждение на САЩ засече заплаха за САЩ, американските власти ще се опитат да потвърдят атаката, като използват както класифицирани, така и некласифицирани източници. Те могат да разгледат сателитни данни за активност в известни военни съоръжения, да следят последните изявления на чуждестранни лидери и да проверяват социалните медии и чуждестранните източници на новини за контекста и отчетите на място. Военните офицери, държавните служители и политическите назначения трябва да решат коя информация да съобщят нагоре по веригата и как да я представят.
Дезинформацията, предизвикана от изкуствен интелект, може да доведе до поредица от кризи. Ако системите за изкуствен интелект се използват за интерпретиране на данни за ранно предупреждение, те могат да си въобразят атака, която не е реална, поставяйки американските власти в положение, подобно на това, в което се е намирал Петров преди четири десетилетия. Тъй като вътрешната логика на системите за изкуствен интелект е неясна, хората често остават в неведение защо изкуственият интелект е стигнал до дадено заключение. Изследванията показват, че хората със средно ниво на запознатост с ИИ са склонни да се доверяват на резултатите от машината, вместо да проверяват за пристрастност или фалшиви положителни резултати, дори когато става въпрос за националната сигурност. Без обширно обучение, инструменти и оперативни процеси, които отчитат слабостите на ИИ, съветниците на лицата, вземащи решения в Белия дом, могат по подразбиране да приемат – или поне да обмислят – възможността, че съдържанието, генерирано от ИИ, е точно.
Дълбоките фалшификати, които се предават в медиите с отворен код, са почти толкова опасни.
След като гледа дълбок фалшификат, американски лидер може, например, да интерпретира погрешно руските ракетни тестове като начало на настъпателни удари или да сбърка китайските учения с бойна стрелба с атака срещу съюзниците на САЩ. Дълбоките фалшификати могат да помогнат за създаването на претекст за война, да подклаждат обществената подкрепа за конфликт или да сеят объркване.
През юли администрацията на Тръмп публикува план за действие в областта на изкуствения интелект, който призовава за агресивно внедряване на инструменти за изкуствен интелект в Министерството на отбраната, най-голямата бюрократична структура в света. Изкуственият интелект се е оказал полезен за повишаване на ефективността на някои части от армията. Машинното обучение улеснява планирането на поддръжката на военните кораби. Технологията за изкуствен интелект, вградена в автономни оръжия, като дронове, позволява на войниците да стоят на разстояние от фронтовата линия. А инструментите за превод с изкуствен интелект помагат на разузнавачите да анализират данни за чужди страни. Изкуственият интелект може да бъде полезен дори и в някои други стандартни задачи по събиране на разузнавателна информация, като например разграничаване на снимки на бомбардировачи, паркирани на летища от един ден на друг.
Внедряването на ИИ във военните системи не трябва да бъде „всичко или нищо“. Има области, които трябва да бъдат забранени за ИИ, включително системи за ранно предупреждение за ядрени атаки и командване и контрол, в които рисковете от халюцинации и фалшифициране надвишават ползите, които софтуерът, задвижван от ИИ, може да донесе. Най-добрите системи за ИИ са изградени върху взаимно проверени и изчерпателни набори от данни. Системите за ранно предупреждение за ядрени атаки не разполагат с нито едното, нито другото, защото от атомните бомбардировки над Хирошима и Нагасаки насам не е имало ядрени атаки. Всяка система за ядрено откриване, базирана на ИИ, вероятно ще трябва да се обучава на базата на съществуващи данни от ракетни тестове и космическо проследяване, както и на синтетични данни. Инженерите ще трябва да програмират защити срещу халюцинации или неточни оценки на достоверността – значителни технически препятствия.
Може да е изкушаващо да се заменят проверките от висококвалифициран персонал с инструменти за ИИ или да се използва ИИ за обединяване на различни източници на данни, за да се ускори анализа, но премахването на критичния човешки поглед може да доведе до грешки, пристрастност и недоразумения.
Точно както Министерството на отбраната изисква значителен човешки контрол върху автономните дронове, то трябва да изисква и всеки елемент от технологията за ранно предупреждение и разузнаване в областта на ядрената енергетика да отговаря на още по-високи стандарти. Инструментите за интегриране на данни с изкуствен интелект не трябва да заменят човешките оператори, които докладват за приближаващи се балистични ракети. Усилията за потвърждаване на ранно предупреждение за ядрен пуск от сателитни или радарни данни трябва да останат само частично автоматизирани. А участниците в критични телеконференции за националната сигурност трябва да вземат предвид само проверени и непроменени данни.
През юли 2025 г. Министерството на отбраната поиска средства от Конгреса за добавяне на нови технологии към ядреното командване, контрол и комуникации. Най-добре за американското правителство би било да ограничи интеграцията на изкуствен интелект и автоматизация до киберсигурност, бизнес процеси и анализи, както и прости задачи, като например да се гарантира, че резервното захранване се включва, когато е необходимо.
Днес опасността от ядрена война е по-голяма, отколкото е била през последните десетилетия.
Русия заплашва да използва ядрени оръжия в Украйна, Китай бързо разширява своя арсенал, Северна Корея вече има способността да изпраща междуконтинентални балистични ракети към Съединените щати, а политиките за предотвратяване на разпространението се колебаят. На този фон е още по-важно да се гарантира, че хората, а не машините, обучени на базата на непълни или неточни данни, преценяват действията, намеренията и целите на противника.
Разследващите агенции трябва да подобрят проследяването на произхода на информацията, получена чрез изкуствен интелект, и да стандартизират начина, по който я предават на политиците, когато данните са допълнени или синтетични. Например, когато Националната агенция за геопространствена информация използва изкуствен интелект за генериране на информация, тя добавя разкритие към доклада, ако съдържанието е генерирано от машина. Анализаторите на разузнавателна информация, политиците и техните екипи трябва да бъдат обучени да подхождат с допълнителен скептицизъм и да проверяват фактите в съдържанието, което не може да бъде веднага проверено, точно както много компании сега са бдителни срещу кибер-фишинг. А разузнавателните агенции се нуждаят от доверието на политиците, които може да са по-склонни да вярват на това, което виждат с очите си и което им показват устройствата им – вярно или невярно – отколкото на това, което показва разузнавателната оценка.
Експертите и технолозите трябва да продължат да работят, за да намерят начини за маркиране и забавяне на фалшивата информация, изображения и видеоклипове, които се разпространяват в социалните медии и могат да повлияят на политиците. Но предвид трудността да се контролира информацията от отворени източници, е още по-важно класифицираната информация да бъде точна.
Актуализациите на администрацията на Тръмп относно ядрената позиция на САЩ в Националната отбранителна стратегия трябва да предпазват от вероятните и трудни за управление рискове, свързани с изкуствения интелект, за ядрените оръжия, като потвърждават, че машина никога няма да вземе решение за ядрен удар без човешки контрол. Като първа стъпка всички държави, притежаващи ядрени оръжия, трябва да се съгласят, че само хора ще вземат решения за използване на ядрени оръжия. След това трябва да подобрят каналите за комуникация в кризисни ситуации. Между Вашингтон и Москва съществува гореща линия за диалог, но не и между Вашингтон и Пекин.
Ядрената политика и позиция на САЩ са се променили малко от 80-те години на миналия век, когато лидерите се притесняваха, че Съветският съюз ще атакува изненадващо. Тогава политиците не са могли да си представят колко дезинформация ще бъде изпратена на личните устройства на хората, отговарящи за ядрените оръжия днес. И законодателната, и изпълнителната власт трябва да преоценят политиките за ядрените оръжия, създадени за Студената война. Политиците биха могли, например, да изискват от бъдещите президенти да се консултират с лидерите на Конгреса, преди да нанесат първи ядрен удар, или да изискват определен период от време, през който разузнавателните служби да проверят информацията, на която се основава решението. Тъй като САЩ разполагат с ефективни възможности за ответен удар, точността трябва да има предимство пред бързината.
Изкуственият интелект вече има потенциала да заблуди ключови лица, вземащи решения, и членове на ядрената верига на командване, като им покаже атака, която не съществува. В миналото само автентичният диалог и дипломацията предотвратяваха недоразуменията между ядрените държави. Политиката и практиките трябва да предпазват от опасните рискове, свързани с информацията, които в крайна сметка могат да доведат до края на света.