Минобрнауки попросили регламентировать использование генеративных моделей ИИ в учебном процессе. Чат-бот ChatGPT высказался на этот счет: писать работы он не против, а вот с аналитикой могут быть проблемы.
Национальная комиссия по этике в сфере искусственного интеллекта (ИИ) просит создать регламент использования нейросетей в учебном процессе. Такое письмо представители организации отправили министру науки и высшего образования Валерию Фалькову, пишут «Ведомости».
Комиссию организовали крупнейшие игроки в сфере ИИ для разработки этических правил работы технологии. В организацию входят представители университета «Иннополис», фонда «Сколково», ЦСР, Центра ИИ МГИМО, «Сколтеха», Университета ИТМО, МГТУ им. Н. Э. Баумана, а также Сбербанка, «Яндекса», МТС.
Чат-бот ChatGPT сообщил, что готов писать работы для студентов, но оценивать, например, произведения искусства пока не хочет.
Издание попросило сам ChatGPT прокомментировать ситуацию. Нейросеть посчитала, что ИИ можно использовать в обучении студентов, но оценивать произведения искусства чат-бот пока не берется.
«Они могут быть использованы для анализа больших объемов данных, а также для генерации сложных моделей и распознавания изображений. В то же время нейросети не следует использовать для решения вопросов, требующих человеческого мышления, оценки произведений искусства, процессов обучения и принятия решений», — прокомментировал ChatGPT.
Обращение в Минобрнауки направили после резонансной истории со студентом Российского государственного гуманитарного университета (РГГУ) Александром Жаданом. Он написал дипломную работу с помощью чат-бота ChatGPT и защитил ее.
Нейросеть сгенерировала 60 страниц диплома, а затем Жадан его доработал. Студент рассказал об этом в социальных сетях, после этого в вуз стали поступать претензии, некоторые требовали лишить его диплома. В университете пообещали разобраться в ситуации. По итогу диплом засчитали, Жадан получит за него оценку «удовлетворительно», об этом он сообщил опять же в соцсетях.
Затем представители вуза выступили с заявлением об ограничении доступа к использованию чат-бота ChatGPT в образовательных организациях.
«Возникшая ситуация актуализировала необходимость оперативного решения задач, связанных с разработкой инструментов распознавания использования нейросетей при подготовке письменных работ (курсовые работы, эссе, рефераты, ВКР), а также увеличение количества оригинальных индивидуальных заданий, кейсов, расчетов, которые обучающиеся могут выполнить только самостоятельно», — говорилось в сообщении РГГУ.
Как отмечают представители комиссии, текст созданный ИИ невозможно отличить от текста, созданного человеком — это и порождает этическую проблему.
Однако, авторы письма добавляют, что с помощью нейросети можно сократить время на проведение рутинных операций (компоновку материалов, форматирование текста).
«Использование таких технологий может быть уместно и полезно для освоения отдельных специальностей и навыков и в ряде случаев не будет противоречить обязанности студентов выполнять работу самостоятельно», — отмечается в письме в Минобрнауки.
Как подчеркнул изданию председатель комиссии по реализации кодекса этики в сфере ИИ Андрей Незнамов, технологии продолжат развиваться, и лучшим решением будет адаптировать сферу образования к их использованию.
По мнению декана факультета инфокоммуникационных технологий ИТМО Александра Капитонова, если такие технологии помогут сделать содержание работы интереснее, то использовать в учебном процессе ИИ стоит. Это будет актуально, например, для создания новых проектов, полагает эксперта.
Однако, по словам директора института № 8 «Компьютерные науки и прикладная математика» МАИ Сергея Крылова, непонятно, кто в случае использования нейросети автор и кто ответственен за результат: математик, который разработал модель, программист, который ее реализовал или пользователь. «Вопрос о легальности и закономерности использования ИИ в учебном процессе нельзя рассматривать отдельно от общих норм», — добавил эксперт.
Впрочем, Крылов тоже согласился, что применять в учебном процессе ИИ можно, но с условием вклада студента в работу как аналитика.
Напомним, ChatGPT запустили в ноябре 2022 г., она принадлежит американской компании OpenAI. ChatGPT дает ответы на большую часть вопросов и может писать текст и программные коды. Microsoft планирует внедрить эту технологию в свой поисковик Bing.
После презентации нейросети в Google заявили, что такие разработки создают реальную угрозу ее поисковой системе.
Интерес к таким технологиям есть и у китайского поисковика Baidu. А в начале февраля 2023 г. CNews писал, что «Яндекс» разрабатывает свою версию нейросети ChatGPT. Ее название — YaLM 2.0. Скоро должно начаться обучение нейросети, первые интеграции планируется запустить до конца года. По словам представителей компании нейросеть станет частью «Поиска», «Алисы», «Почты» и других сервисов.