На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Актуальные комментарии

11 730 подписчиков

Популярные статьи

Свежие комментарии

  • Vova Гарин
    Израиль нехрести во главе с иудой нетаньяху.Годовщина нападен...
  • Eduard
    Я удивляюсь,как это США не догодались в Прибалтику подсылать негров и индейцев в качестве их "Президентов"!Гражданин Маск ка...
  • Eduard
    Теперь мир будит присылатт советы кому кто нравится?Охренеть куда скатились!Гражданин Маск ка...

OpenAI на вооружении американцев

13 июня ряды директоров OpenAI, компании-разработчика ChatGPT, пополнились бывшим генералом США и руководителем Агентства национальной безопасности (АНБ) Полом Накасоне. И, хотя данное назначение освещается исключительно с позиции укрепления цифровой безопасности корпорации, оно стало новым сигналом к потенциальному использованию ИИ американским правительством для шпионажа и военных целей.

 

Интеграция BigTech в национальную систему безопасности 

В официальном заявлении OpenAI отмечается, что в рамках комитета безопасности организации П.Накасоне предоставит «ценную экспертизу» по вопросам цифровых угроз. Однако крайне маловероятно, что вовлечение бывшего американского генерала ограничится исключительно консультированием по вопросам кибербезопасности. Как и в случаях с Amazon и Google, руководство которых также включает членов АНБ, такое решение закладывает основу для более тесного сотрудничества между американским правительством и компанией-разработчиком. Итогом такой кооперации может служить делегирование полномочий по безопасности правительственным ведомствам, а также включение частных сервисов в систему государственного мониторинга и разработку контрактов для правительства.

В пользу такого сценария говорит прогноз бывшего сотрудника OpenAI Леопольда Ашенбреннера. По его словам, состояние безопасности в области разработки ИИ является критическим и служит предметом «вторичных размышлений» для самих IT-компаний. На этом фоне, OpenAI и другие BigTech компании вынуждены противостоять массовым попыткам кибератак — в первую очередь, как отмечает эксперт, со стороны китайского правительства. Несмотря на технологические преимущества в разработке «общего ИИ», частные организации уступают государству по объему ресурсов и качеству узкоспециализированных инструментов слежения. Единственная альтернатива, обозначенная Л.Ашенбреннером — привлечение государственной инфраструктуры для обеспечения секретности новых разработок. Это составляет точку соприкосновения для частных компаний и национальных интересов, которые ранее находились вне рамок приоритетов разработчиков ИИ. 

Включение OpenAI в проекты безопасности США и увеличение возможностей по надзору за гражданами представляется наиболее вероятным и для Эдварда Сноудена, организатора утечки информации о методах правительственной слежки в 2013 году. В своих постах в сети X, он выразил опасение, что объединение вычислительных мощностей ИИ с объемом данных американского правительства, накопленных за последние два десятилетия, значительно усилит правительственные структуры. 

Перспективные военные разработки

Помимо доступа к новым инструментам анализа пользовательских данных, так называемый «общий ИИ» находит широкое применение в военной сфере. Подобные варианты использования технологии могут варьироваться от оценки уязвимостей в системах безопасности до сложных инструментов распознавания целей. 

Раннее, в январе 2024 года, OpenAI отменила полный запрет на применение своих продуктов для военных целей и развернула сотрудничество с Пентагоном, обосновывая это нуждами кибербезопасности и гуманитарными задачами. На ряду с Google и Microsoft, OpenAI приняло участие в проекте по ИИ кибербезопасности от Управления перспективными исследовательскими проектами Министерства обороны США. А через несколько месяцев появилась информация об использовании Пентагоном графического генератора DALL-E для тренировки боевых систем. 

Руководство OpenAI не считает данные сотрудничество прямым применением своих моделей для разработки оружия, что компания до сих пор формально запрещает. Однако, учитывая увеличивающееся зависимость организации от американского правительства в вопросах безопасности, снятие и этого ограничения является вопросом времени. 

Глобальная гонка ИИ

В ХХI веке, технологии искусственного интеллекта стали аналогом проекта «Манхэттен» и космических программ прошлого столетия. Обладание новейшими машинными алгоритмами является вопросом как национальной безопасности, так и престижа. Поэтому, несмотря на преобладание частных разработок в этой области, современные правительства стремятся взять контроль над ИИ и обеспечить его развитие.

Это дал ясно понять и сам П.Накасоне в своем интервью The Washington Post. Обеспечение превосходства США и американских компаний в области ИИ является основным приоритетом АНБ. Будучи уверенным в технологическом лидерстве Соединенных Штатов на текущий момент, новый член руководства OpenAI назвал Китай основным конкурентом в данной сфере. При этом США при любых обстоятельствах должны сохранять существенный отрыв от КНР в вопросах применения искусственного интеллекта, подчеркнул бывший генерал. 

При этом, уже на данном, начальном этапе интеграции ИИ в национальные проекты безопасности высказываются пессимистичные прогнозы будущего технологии. В лучшем варианте, пишет Л.Ашенбреннер, развитие искусственного интеллекта приведет к глобальному соперничеству за новейшие разработки. В худшем же случае — к военному противостоянию, исход которого будет обусловлен наличием более превосходящих систем наблюдения, распознавания и предсказания. 

Прогнозы милитаризации ИИ

Отказ OpenAI и других разработчиков ИИ от нейтралитета. В соответствии с обозначенными ранее факторами, высока вероятность дальнейшей интеграции OpenAI и аналогичных компаний в систему безопасности США. Такая переориентация на государство затронет не только обеспечение корпорациями отдельных проектов для американского правительства, но и изменит их подход к потребительской продукции. Таким образом, ChatGPT может быть задействован для сборов и обработки запросов пользователей сервиса. 

Интеграция «общего ИИ» в ОПК. Ранее американские военные ведомства разрабатывали и пользовались преимущественно «специализированным ИИ», натренированным для решения конкретных задач. Это изменится с привлечением частных разработок искусственного интеллекта, который способен к воспроизводству процессов человеческого мышления. При этом, перед главами военных ведомств стоит вопрос о полноценной замене служащих машинными алгоритмами или же применение ИИ под контролем человека. Учитывая текущую напряженность в повестке замены человека машиной и проблемы безопасности полного перехода на цифровые системы, наиболее вероятен второй исход. 

Интенсификация гонки разработок. В контексте приведенных ранее фактов, усиление фокуса на ИИ-разработках мировыми лидерами представляется наиболее вероятным. Уже формируются лидеры в данной отрасли: помимо упомянутых Китая и США, к ним относятся Россия, Израиль, Великобритания, Франция и Германия. 

Регулирование и этический контроль гражданской, но не военной сферы. Хотя повестка ограничения разработки ИИ развивается как на уровне BigTech такими предпринимателями, как И.Маск, Б.Гейтс и М.Цукерберг, так и на международном уровне, маловероятно, что соответствующие изменения затронут военные разработки. Этому способствует как усиление позиций национальных правительств в данном вопросе, так и особое обрамление обсуждаемых технологий в контексте задач обеспечения безопасности. Тем не менее, государство возглавит процесс борьбы с ИИ для пресечения массовых случаев использования гражданского искусственного интеллекта против государственных интересов, параллельно с этим локализируя и изолируя собственные наработки в сфере военного ИИ. 

Появление ассиметричных угроз. Разработка новых методов ведения войны приводит к распространению или угрозе распространения данных методов среди негосударственных групп. В случае искусственного интеллекта, это касается не только террористических организаций, но и независимых хакерских групп. При этом, в отличие от ядерного или биологического вооружения, ИИ-оружие не является ограниченным материальным ресурсом, требующим значительных затрат на воспроизводство. Это делает контроль над его распространение более затруднительным, а последствия применения — потенциально более масштабными.

Ярослав Барыкин, политолог

 

Ссылка на первоисточник

Картина дня

наверх