На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Актуальные комментарии

11 730 подписчиков

Популярные статьи

Свежие комментарии

  • Vova Гарин
    Израиль нехрести во главе с иудой нетаньяху.Годовщина нападен...
  • Eduard
    Я удивляюсь,как это США не догодались в Прибалтику подсылать негров и индейцев в качестве их "Президентов"!Гражданин Маск ка...
  • Eduard
    Теперь мир будит присылатт советы кому кто нравится?Охренеть куда скатились!Гражданин Маск ка...

Генеративные угрозы

Среди рисков иностранного вмешательства, связанных с использованием новых технологий, отдельное место занимают возможные угрозы со стороны технологий искусственного интеллекта (ИИ). Эксперты указывают на возможное использование ИИ для вмешательства в электоральные процессы, определения потенциальных целей для воздействия в ходе кампаний по вмешательству и использования методик синтеза мультимедиа (дипфейков) для дезинформации и провокаций.

Потенциально для вмешательства могут использоваться даже общедоступные чат-боты с генеративным искусственным интеллектом, например, ChatGPT. Причем при соответствующем запросе тот же ChatGPT предлагает развернутую модель потенциального применения собственных возможностей для вмешательства в политические, экономические и технологические процессы.

В ответ на широко сформулированный запрос «как GPT может использоваться для иностранного вмешательства?» GPT-4o предлагает пять основных направлений использования.

1. Распространение дезинформации

Создание фальшивых новостей и сообщений: GPT может генерировать правдоподобные, но ложные статьи, посты в социальных сетях и другие тексты, которые распространяют дезинформацию.

Распространение теорий заговора: С помощью GPT можно создавать и распространять контент, поддерживающий различные теории заговора, которые могут дестабилизировать общественное мнение.

Повышение вариативности атак: GPT может значительно упростить написание сайтов, простых игр или других инструментов, которые позволят геймифицировать процесс дезинформации, тем самым повысив его эффективность.

Написание кодов для автоматизированного сбора информации: GPT повысит эффективность анализа кампаний по дезинформации, а затем может быть использован для донастройки таргетирования.

2. Вмешательство в политические процессы

Манипуляция общественным мнением: GPT может быть использован для создания постов и комментариев в социальных сетях, направленных на изменение мнения избирателей, поддержку или дискредитацию кандидатов.

Влияние на результаты выборов: Массовое генерирование контента, направленного на дискредитацию определённых политических сил или поддержку других, может повлиять на результаты выборов.

3. Кибератаки и социальная инженерия 

Фишинговые атаки: GPT может использоваться для генерации персонализированных сообщений, которые вводят пользователей в заблуждение и заставляют их раскрыть конфиденциальную информацию.

Распространение вредоносного ПО: Модель может создавать тексты, побуждающие людей скачивать и запускать вредоносное ПО, способное нарушить работу критически важных систем.

4. Углубление социальных разногласий

Стимулирование конфликтов: GPT может генерировать контент, который усиливает существующие социальные и культурные разногласия, что может привести к дестабилизации общества.

Персонализированное воздействие на целевые аудитории: GPT способен адаптировать содержание информации под определённые культурные и социальные группы. Это может быть использовано для того, чтобы создавать контент, который будет более убедительным и влиятельным для целевой аудитории в определённой стране или регионе.

Автоматизация манипулятивных кампаний: Используя GPT, можно автоматизировать процесс создания и распространения контента, который направлен на манипуляцию общественным мнением в другой стране. Это может включать создание множества текстов, которые кажутся уникальными, но несут одну и ту же манипулятивную идею.

Создание и управление фейковыми аккаунтами: GPT может быть использован для ведения множества фейковых аккаунтов в социальных сетях. Эти аккаунты могут активно участвовать в дискуссиях, публиковать провокационные комментарии, распространять ложные сообщения и влиять на общественные настроения, создавая впечатление массовой поддержки или протеста.

5. Экономическое вмешательство

Финансовые манипуляции: GPT может создавать тексты, влияющие на финансовые рынки, распространяя слухи или ложные отчеты о компаниях.

Подрыв доверия к экономическим институтам: Создание контента, направленного на подрыв доверия к финансовым системам и институтам страны.

Для защиты от обозначенных рисков GPT-4o предлагает действовать на четырех уровнях: законодательном, технологическом, образовательном и социокультурном.

1. Законодательный уровень

Разработка законов и нормативных актов, регулирующих использование ИИ, включая меры против использования ИИ для распространения дезинформации и вмешательства в политические процессы.

Международное сотрудничество для создания глобальных стандартов и механизмов противодействия вмешательству через ИИ.

2. Технологический уровень

Создание и внедрение инструментов для выявления и отслеживания контента, созданного ИИ. Например, разработка систем, способных определять, был ли текст сгенерирован ИИ, и маркировать его.

Меры по обеспечению кибербезопасности: усиление защиты информационных систем от атак, связанных с использованием ИИ, включая фишинг и распространение вредоносного ПО.

3. Образовательный уровень

Просвещение населения: разработка программ по цифровой грамотности, которые учат людей распознавать дезинформацию и фейки.

Обучение специалистов: подготовка профессионалов, способных распознавать и противодействовать вмешательству с использованием ИИ.

4. Социальный и культурный уровень

Продвижение критического мышления: поддержка инициатив, которые способствуют развитию критического мышления в обществе.

Поощрение прозрачности медиа: поддержка медиа и платформ, которые обеспечивают прозрачность в отношении источников информации и процессов её создания.

Очевидно, что способов использования больших языковых моделей для вмешательства куда больше, чем предлагает GPT-4o в ответ на простой запрос. Более того, для вмешательства могут использоваться специализированные модели с расширенным функционалом.

В ближайшие годы мы неизбежно увидим развитие технологических решений для попыток повлиять на внутренние политические процессы в иностранных государствах. Одновременно с этим государства будут превентивно выстраивать механизмы купирования новых угроз. Начинается гонка технологий вмешательства и механизмов защиты.

Даниил Пареньков, заместитель заведующего Кафедрой политической теории МГИМО, эксперт Центра политической конъюнктуры

 

Ссылка на первоисточник

Картина дня

наверх