Искусственный интеллект в условиях войны усиливает эскалацию и риск ядерной катастрофы


Использование искусственного интеллекта в военных целях для принятия решений может привести к эскалации, следует из исследования университета Cornell.

Нейросеть редко рассматривает варианты дипломатического урегулирования конфликта, а также склонна прибегать к ядерному оружию, передает портал научных материалов arXiv.

Сотрудники учреждения разработали видеоигру для имитации войны. Сторонами конфликта стали ИИ GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta’s Llama 2, которые представляют собой большие языковые модели (LLM).

Все пять изученных готовых LLM демонстрируют формы нагнетания и труднопрогнозируемые модели эскалации. Мы наблюдаем, что модели, как правило, развивают динамику гонки вооружений, приводящую к усилению конфликта, — отметили авторы исследования.

Выяснилось, что нейросети готовы активно использовать агрессивные методы ведения военных действий. Так, GPT-4 Base «заметил», что у многих стран есть ядерное оружие, и поспешил принять это как сигнал.

Оно у нас есть! Давайте его использовать, — предложила эта модель ИИ.

Недавно вице-президент США посчитала возможным «восстание машин» из-за ИИ.

При этом искусственный интеллект уже сейчас помогает раскрывать преступления. Например, в России работает система «Криминалист»: она анализирует данные из баз разных ведомств, изучает открытые источники, помогает правоохранительным органам выявлять потенциальных преступников, места совершения преступлений. Кроме того, система предлагает оптимальные решения для дальнейших действий.

Ранее в МВФ сообщили, что внедрение ИИ усугубит неравенство и уничтожит половину рабочих мест.

Оставьте отзыв

Ваш емейл адрес не будет опубликован. Обязательные поля отмечены *