Не стихают дискуссии вокруг использования искусственного интеллекта в образовании. Одна из последних - по следам новости: каждая четвертая студенческая работа написана с участием ИИ. Причем чаще всего это дипломы и курсовые по компьютерным наукам и ИТ, по искусствоведению, политологии, философии. Насколько это опасно и что делать? И надо ли что-то делать?По мнению эксперта, гендиректора EdTech-компании "Лань" Александра Никифорова, главная задача - выработать четкие правила, которые позволят использовать такие инструменты как помощника, но не как замену самостоятельной работе.
"Не так давно представители РАН и Минобрнауки обсуждали необходимость уточнить требования к диссертациям и дипломам в гуманитарных дисциплинах. Аргументация проста: традиционно один из основных критериев качества - стройный текст - уже не позволяет оценить степень самостоятельности исследования, - рассказал "РГ" Александр Никифоров. - Это действительно особенно заметно в гуманитарной сфере. Умение прочитать определенное количество книг или статей и выдать некое "саммари" по итогам перестало быть главным показателем качества научной работы - эту функцию может выполнять ИИ. Универсальные модели нейросетей часто создают гладкий текст без опоры на корректные источники. Они могут ошибаться, додумывать факты, авторов или ссылки, но внешне все это выглядит вполне правдоподобно".
А значит, по мнению эксперта, на первый план выходят уже другие, более глубинные вопросы: как сформулирована проблема, пользовался ли соискатель достоверными научными источниками, сумел ли из огромного объема литературы выбрать самое важное, можно ли проверить и обосновать выводы."При этом даже в Минобрнауки справедливо отмечают: нейросети могут быть полезны - они снимают часть рутины, - говорит Никифоров. - Студенты и преподаватели используют ChatGPT, GigaChat, DeepSeek и десятки других для подготовки черновиков, поиска и структурирования информации, а иногда и просто для того, чтобы разобраться, с чего начать, и точнее сформулировать проблему. То есть вопрос не в том, пользоваться ли нейросетями. Они уже стали важным инструментом образовательного процесса. Главное - ИИ должен оставаться помощником, а не соавтором".
Но есть еще одна проблема. По словам Александра Никифорова, за счет массового применения ИИ увеличивается объем цифрового мусора: тексты, сгенерированные машинами, пересказываются другими машинами - и снова возвращаются в оборот. В результате знание все чаще становится имитацией знания. Это недопустимо.
"Поэтому новый запрос искусственному интеллекту от вузов звучит так: "дай ответ, но со ссылками, которые можно проверить". Технически это называется RAG-подходом (Retrieval-Augmented Generation - генерация, подкрепленная поиском): специальная модель сначала находит информацию в заданной базе проверенных материалов, а потом формирует ответ, опираясь именно на них, - поясняет эксперт. - Такой ИИ не ищет информацию по всему интернету и не добавляет в базу собственных источников случайные, непроверенные. Создается своего рода закрытый контур, в котором просто исключена возможность получить фальшивые данные. Такие нейросети не отменяют мышления человека и не заменяют самостоятельного исследования. Намного важнее, что они помогают вернуть ту основу, без которой наука не работает, - корректность источника и проверяемость данных".
Читать материал в первоисточнике