Ситуации, когда системы ИИ выдают неверную информацию, называемые галлюцинациями, происходят все чаще, несмотря на то, что ИИ становится все мощнее, пишет The New York Times. Издание приводит в пример ситуацию, когда бот ИИ, занимающийся технической поддержкой инструмента для программистов Cursor, заявил клиентам о том, что им больше не разрешается использовать Cursor более чем на одном компьютере.
Эта информация оказалась ложной, как сообщило впоследствии руководство компании.
Нет никаких гарантий, что даже самые мощные ИИ-системы не станут галлюцинировать,
говорится в публикации. Самые новые системы рассуждений от таких компаний, как OpenAI, Google и DeepSeek, — приводят не к уменьшению, а к увеличению числа ошибок. В то время как их математические навыки заметно улучшились, их умение работать с фактами снизилось. Компании не могут дать ответ на вопрос, почему так происходит.
Современные боты ИИ основаны на сложных математических системах, которые учатся своим навыкам, …
Свежие комментарии