Искусственный интеллект становится важной частью академической практики – помогает экономить время, улучшать качество текста и расширять аналитические возможности. Однако при всей удобности технологий важно не переусердствовать и соблюдать этические нормы использования. Грань между пользой, рисками и нарушениями при использовании нейросетей в научной работе обсуждали участники открытого семинара в рамках курса «Навыки академического письма» в Институте образования НИУ ВШЭ. Полезными инструментами работы с ИИ поделилась преподаватель Института образования и стажер-исследователь Международной лаборатории проектирования и исследований в онлайн-обучении Екатерина Андронова.
Можно ли считать художником человека, который создает изображения с помощью моделей вроде Midjourney, и насколько авторской остается книга, написанная при поддержке ИИ – вопросы, которые неизбежно возникают на фоне развития генеративных технологий.
Один из участников дискуссии высказал мнение, что «в человеческих работах есть шероховатость, которая нас цепляет… а ИИ делает все ровно». Эта «шероховатость» — индивидуальная манера, непредсказуемость, личный опыт – и они формируют то, что мы воспринимаем как творческую ценность и уникальный вклад автора. Модель может имитировать стиль, но не может воспроизвести человеческое происхождение мысли, отмечает Екатерина Андронова.
Ценность творческой работы определяется не только конечным продуктом, но и процессом, в который человек вкладывает свои знания, идеи, эмоции и интерпретации. Как отметила спикер: «ценность "творца" в этом случае, на мой взгляд, определяется сетом ключевых навыков профессии: художник - не художник, если он буквально не рисует, писатель - не писатель, если он не пишет самостоятельно (но если писатель использует ИИ для вычитки опечаток, то, как будто, он не становится от этого меньше писателем)».
На базе структуры исследовательской статьи (IMRAD) Екатерина Андронова вместе с участниками семинара разобрала, какие задачи в ходе научной работы этично перепоручить ИИ.
Так, например, во введении модели могут помочь с формулированием идеи, в методологии — уточнить терминологию, но не создавать данные или методы. В разделе результатов ИИ не должен генерировать анализ или выводы, а в заключении его роль ограничивается проверкой логики текста.
Иными словами, ИИ может поддерживать исследователя, но не заменяет ключевые этапы научной работы. «ИИ не может тебе сгенерировать эмпирическую базу… если ты что-то исследуешь сам, это все должно пройти через твой собственный фильтр», – подчеркнул один из участников семинара.
IMRAD — это стандартная структура научной статьи.
I — Introduction (Введение)
M — Methods (Методы / Методология)
R — Results (Результаты)
A — And
D — Discussion (Обсуждение / Выводы)
В фокусе внимания – риски, связанные с генеративными моделями.
Так, LLM (large language model),такие как ChatGPT и аналогичные им системы, которые обычно ассоциируются с искусственным интеллектом и часто используются пользователями, способны генерировать вымышленные источники и цитаты, искажать смысл научных материалов, выдавать неодинаковые ответы на одинаковые вопросы и допускать ошибки при понимании сложных формулировок.
«Если вы используете какие-то инструменты этично, всегда проверяйте, что он вам выдает, особенно, если это касается каких-то источников информации», – подчеркнула Екатерина Андронова.
Во время семинара студенты делились собственным опытом использования ИИ. Для многих LLM стали инструментом первичного поиска информации и языковой поддержки. Однако участники также отмечали случаи, когда модели ошибались, путали детали или создавали неточные ссылки.
Этот опыт подтвердил необходимость внимательной проверки и осознанного применения инструментов.
Этичность обращения к ИИ определяется не самим фактом его использования, а характером задачи, которую он помогает решить. Некоторые сценарии полностью корректны и действительно поддерживают исследовательскую работу. При этом использование ИИ не снимает с автора ответственности за исследовательскую работу: интерпретации, аналитические решения и финальные выводы должны принадлежать человеку, подчеркивает Екатерина Андронова.
Когда искусственный интеллект начинает выполнять значимые этапы вместо исследователя, он подменяет не только сам процесс, но и профессиональную роль автора. «Я не думаю, что ИИ вообще может выполнять значимые этапы, это вроде как идея первого абзаца - ИИ - это просто строчки кода, они не могут быть творческими. Но использование ИИ для, например, генерации данных, это вообще грубое нарушение академической честности» - поделилась своим мнением спикер.
Екатерина Андронова представила подборку сервисов, которые могут облегчить работу над исследовательскими проектами.
Поиск литературы
Работа с PDF
Анализ связей литературы
Дополнительные инструменты
Человек по-прежнему задает идею и принимает ключевые решения, модель остается инструментом, который помогает ускорить процесс или предложить варианты, но не подменяет собой автора. ИИ может усиливать научную работу, но не заменяет исследователя. Именно сочетание технологических возможностей и критического мышления формирует основу качественного академического письма .
Автор: Александра Гуркина, исследователь Проектно-учебной лаборатории экономической журналистики НИУ ВШЭ
В подписке — дайджест статей и видеолекций, анонсы мероприятий, данные исследований. Обещаем, что будем бережно относиться к вашему времени и присылать материалы раз в месяц.
Спасибо за подписку!
Что-то пошло не так!