https://www.icgamma.ru/brands/sipeed/?erid=LjN8KNmg2

В Китае создали робота с мозгом из человеческих стволовых клеток

Китайские учёные из Тяньцзиньского и Южного научно-технологического университетов создали робота с выращенным в лабораторных условиях искусственным мозгом, которого можно обучить выполнять различные задачи. Исследователи создали «мозг-на-чипе», объединяющий органоид мозга (ткань из стволовых ...

Исследователи надеются устранить ошибки, связанные с галлюцинациями ИИ, которые происходят от слов с более чем одним значением

Бум искусственного интеллекта позволил обычному потребителю использовать чат-ботов с искусственным интеллектом, таких как ChatGPT, для получения информации из подсказок, демонстрирующих как широту, так и глубину информации. Однако, эти модели ИИ по-прежнему подвержены галлюцинациям, при которых выдаются ошибочные ответы. Более того, модели ИИ могут даже давать явно ложные (иногда опасные) ответы. В то время как некоторые галлюцинации вызваны неверными данными обучения, обобщением или другими побочными эффектами сбора данных, оксфордские исследователи подошли к проблеме с другой стороны. В журнале Nature они опубликовали подробности недавно разработанного метода для обнаружения конфабуляций - или произвольных и неправильных фактов и информации.