Инструменты искусственного интеллекта могут революционизировать работу и публикации учёных. Ниже представлены основные правила управления присущими рисками.
В мире обсуждаются инструменты искусственного интеллекта (ИИ), которые можно легко использовать в повседневной жизни. Всё более совершенный генеративный искусственный интеллект — модели «глубокого обучения», использующие нейронные сети, подобные человеческому мозгу, для генерации контента или данных на основе их обучения — предоставляют исследователям новые заманчивые способы сбора и улучшения научных работ. Он также предлагает сокращённые варианты, которые могут оказаться обременительным процессом написания. Генеративный ИИ обладает огромным потенциалом для улучшения научной коммуникации, но представляет собой минное поле с юридической и этической точки зрения. Более того, результаты таких моделей не всегда верны, и существует риск того, что такие инструменты могут быть использованы злонамеренно для создания дезинформации. Исследователям и издателям нужны чёткие рекомендации, гарантирующие ответственное использование генеративного ИИ.
Генеративные инструменты искусственного интеллекта, включающие большие языковые модели (Large Language Models, LLM), такие как ChatGPT, можно использовать для обобщения больших объёмов информации и объяснения сложных тем простым языком. Их можно использовать для быстрого создания текста, изображений и видео с помощью нескольких подсказок. Это не говоря уже обо всех других способах, которыми учёные начинают использовать эти инструменты в проведении научных исследований, например, при написании кода.
В этой быстро развивающейся среде ИИ журнал Nature Geoscience, как и все журналы Springer Nature, осознают необходимость защиты прозрачности и целостности публикуемых научных исследований от рисков, которые представляет ИИ1. Поэтому установлены некоторые первоначальные основные правила использования ИИ в статьях журнала (см. редакционную политику Nature Portfolio AI).
Во-первых, LLM не разрешается указываться в качестве авторов исследовательской работы. Это просто потому, что LLM не может соответствовать критериям авторства (см. Критерии авторства Nature Portfolio): модель не может одобрить рукопись или нести личную ответственность за свой вклад в работу. Использование LLM для помощи в разработке текста не запрещено, но редакция просит авторов открыто говорить об их использовании, как и о любом другом методе, используемом в исследовании. Любое использование LLM должно быть чётко задокументировано в разделе «Методы» или «Благодарности» документа.
Во-вторых, в настоящее время не разрешается использование изображений и видео, созданных искусственным интеллектом. Хотя редакция ценит захватывающий потенциал визуального контента, создаваемого искусственным интеллектом, существуют нерешённые юридические вопросы и проблемы честности исследований. Существующие инструменты генеративного искусственного интеллекта не раскрывают источники обучающих изображений. Таким образом, точность полученных изображений не может быть проверена, изображения не могут быть надлежащим образом атрибутированы, а авторские права и конфиденциальность могут быть нарушены2. Пока нормативно-правовая система не наверстает упущенное, визуальный контент, созданный с помощью генеративного искусственного интеллекта, не будет публиковаться. Разрешается использовать негенеративные инструменты машинного обучения для манипулирования существующими изображениями, но требуется, чтобы это было указано в подписи к рисунку.
Наконец, разработаны рекомендации по использованию генеративного искусственного интеллекта рецензентами. Хотя может возникнуть соблазн использовать LLM для обобщения статьи или написания отчёта о рецензировании, следует проявлять осторожность при использовании этих инструментов. Рецензенты несут ответственность за точность своих отчётов, и редакция полагается на технический опыт рецензентов, чтобы обеспечить точность публикуемых исследований. Кроме того, поскольку рукописи могут содержать конфиденциальную информацию, которая не может быть раскрыта вне процесса рецензирования, содержится просьба к рецензентам (и редакторам) не загружать рукописи в инструменты генеративного искусственного интеллекта. Любое другое использование инструментов искусственного интеллекта при оценке рукописи должно быть открыто заявлено в отчёте о рецензировании.
Помимо этой политики, в центр внимания ставится разумная дорожная карта лучших практик использования генеративного ИИ в научных публикациях. Становится всё более очевидным, что человеческий надзор имеет важное значение для защиты целостности и прозрачности исследований и экспертной оценки. Авторам не следует слепо принимать текст, предложенный LLM, а критически задуматься о том, является ли он точным3. Авторы, а не инструменты, которые они используют, несут ответственность за достоверность своего вклада в научную статью.
Программы LLM могут быть особенно привлекательными для авторов, сталкивающихся с языковыми барьерами при изложении своей работы на английском языке в международных журналах. Учитывая риск внесения неточностей, авторам следует рассмотреть вопрос о том, могут ли альтернативы, такие как помощь в редактировании со стороны коллеги, быть адекватными. Редакция напоминает потенциальным авторам, что при рассмотрении материалов для рецензирования не важно, написана ли статья на идеальном английском языке, при условии, что она достаточно понятна, чтобы редакторы (и, возможно, рецензенты) могли её оценить4. Все опубликованные рукописи проходят копировальное редактирование.
ИИ быстро развивается. Хотя движение к этому новому рубежу идёт с осторожностью, это делается непредвзято. Springer Nature будет регулярно пересматривать и обновлять политику использования ИИ. Следите за обновлениями!
Литература
- Nature 613, 612 (2023).
- Nature 618, 214 (2023).
- Nat. Mach. Intell. 5, 469 (2023).
- Nat. Geosci. 7, 77 (2014).
Ссылка: https://www.nature.com/articles/s41561-024-01475-5