Решается задача генерации вопросов к тексту в диалоге (CoQG - conversational/contextual question generation). В новом подходе предлагается использовать универсальную языковую модель высокой емкости для русского языка ruGPT-3 и так называемое “затравочное программирование” (“prompt engineering”) или генерация на основе шаблона (zero-shot learning). Это позволяется избавиться от необходимости подготавливать обширный специализированный набор данных, а также, гибко изменяя шаблон “затравки”, получать решения для различных сценариев решения задачи и различных доменов знаний.
Свищев А.Н. (науч. рук. Рыбин С.В.) Применение генеративной языковой модели GPT-3 для генерации вопросов к тексту // Сборник тезисов докладов конгресса молодых ученых. Электронное издание. – СПб: Университет ИТМО, [2021]. URL: https://kmu.itmo.ru/digests/article/7003