Дипфейки с политиками несут опасность только в период предвыборных кампаний, поэтому, чтобы снизить риски, связанные с использованием искусственного интеллекта, необходимо прежде всего вносить изменения в избирательное законодательство, а введение требования о маркировке контента, созданного генеративным ИИ, станет лишь дополнительным сдерживающим фактором распространения дипфейков.
Такого мнения придерживается старший научный сотрудник American Enterprise Institute Бронвин Хауэлл.Основной проблемой ИИ является информационная асимметрия. Потребитель контента, созданного ИИ, не знает, является ли этот контент фактическим представлением или цифровой манипуляцией, но об этом знает тот, кто этот контент опубликовал. Эксперт AEI утверждает — в связи с этим требуется явна маркировка контента, созданного ИИ. Существуют как минимум две информационные асимметрии: одна касается создания контента, а другая — намерений создателя. Потенциальный вред исходит не конкретно от того, как был …
Свежие комментарии