Исследователи надеются устранить ошибки, связанные с галлюцинациями ИИ, которые происходят от слов с более чем одним значением

Бум искусственного интеллекта позволил обычному потребителю использовать чат-ботов с искусственным интеллектом, таких как ChatGPT, для получения информации из подсказок, демонстрирующих как широту, так и глубину информации. Однако, эти модели ИИ по-прежнему подвержены галлюцинациям, при которых выдаются ошибочные ответы. Более того, модели ИИ могут даже давать явно ложные (иногда опасные) ответы. В то время как некоторые галлюцинации вызваны неверными данными обучения, обобщением или другими побочными эффектами сбора данных, оксфордские исследователи подошли к проблеме с другой стороны. В журнале Nature они опубликовали подробности недавно разработанного метода для обнаружения конфабуляций - или произвольных и неправильных фактов и информации.