Коллективный учебник-гайд
от Колаборатории
/ Шаг 1

Раскрытие информации

Раскрытие информации (disclosure) – прозрачность в использовании ИИ-технологий, включая описание моделей, данных и методов, является основой доверия к научным результатам.
Использование искусственного интеллекта в научной работе открывает перед исследователями новые горизонты, но одновременно ставит их перед рядом этических вызовов. Первый шаг на пути к этически ответственному использованию ИИ в научных исследованиях — это раскрытие информации, или прозрачность.
Именно на этом этапе исследователь обязан предоставить полную информацию о применяемых ИИ-технологиях, включая тип модели, ее тренировочные данные, а также методы и алгоритмы, которые были использованы. Это не только вопрос доверия к исследованию, но и способ предотвратить возможные этические проблемы, связанные с предвзятостью (bias), дискриминацией или манипуляцией данными. Без раскрытия информации невозможно обеспечить воспроизводимость и достоверность результатов, что является фундаментальным принципом научного метода.
Если алгоритмы ИИ помогли в анализе данных, генерации текста, обработке литературы или даже в формулировке гипотез, это должно быть ясно обозначено. Однако практика показывает, что многие ученые, особенно начинающие, либо недооценивают важность этого шага, либо вовсе забывают о нем. В результате возникает риск не только утраты доверия к результатам исследования, но и нарушения академической этики.
Важно понимать, что использование ИИ не освобождает ученых от ответственности за результаты их исследований. Напротив, оно требует более глубокого понимания как возможностей, так и ограничений этих технологий. В этой главе мы разберем, как правильно интегрировать и документировать использование ИИ в научной работе, чтобы это стало не слабостью, а достоинством исследования.
На сайтах многих международных изданий опубликованы подробные руководства по использованию генеративного ИИ в научных исследованиях. Одним из первых требований является указание ИИ и технологий на его основе, использованных в исследовании.
Вот, например, выдержка из политики издательства Elsevier:
Authors should disclose in their manuscript the use of Al and Al-assisted technologies and a statement will appear in the published work. Declaring the use of these technologies supports transparency and trust between authors, readers, reviewers, editors and contributors and facilitates compliance with the terms of use of the relevant tool or technology.
И издательства Wiley:
If an author has used a GenAl tool to develop any portion of a manuscript, its use must be described, transparently and in detail, in the Methods section (or via a disclosure or within the Acknowledgements section, as applicable).
Таким образом, в работе должно быть указано:
  • Тип инструмента, который использовал автор;
  • Как именно он был использован;
  • Большая языковая модель, использованная в исследовании: ChatGPT-4o, YandexGpt3, Gemini-2.0-flash и др.
  • /важно

    Этичное использование генеративного искусственного интеллекта не предполагает генерацию любых типов оригинальных данных исследования, а возможно только для улучшения читаемости текста и языка работы в целом. Все выводы и результаты исследования должны быть получены и сформулированы автором работы.
/важно
Этичное использование генеративного искусственного интеллекта не предполагает генерацию любых типов оригинальных данных исследования, а возможно только для улучшения читаемости текста и языка работы в целом. Все выводы и результаты исследования должны быть получены и сформулированы автором работы.
Данное правило подразумевает также запрет использования ГИИ для создания или изменения изображений, графиков и т. д., представленных в работе, а именно улучшение, перемещение, удаление или добавление конкретного элемента в изображение или фигуру.
Таким образом, ГИИ может быть использован только в качестве средства редактирования и инструмента языкового анализа (проверка грамматики, орфографии, пунктуации, стиля и т. д.). Именно автор, в конечном итоге, несет ответственность за содержание работы, поэтому ГИИ не может быть указан в качестве соавтора научной статьи.

/ Шаг 2

Защита персональных данных

Защита персональных данных — соблюдение законодательства и этических норм при работе с чувствительной информацией, включая минимизацию данных, их обезличивание и обеспечение безопасности.
Использование искусственного интеллекта в научных исследованиях часто связано с обработкой больших объемов данных, включая персональные данные участников экспериментов и респондентов. Это делает защиту персональных данных одним из ключевых этических аспектов работы с ИИ.
Персональные данные — это любая информация, которая может быть использована для идентификации физического лица. Они могут включать имя, адрес, электронную почту, номер телефона, IP-адрес, финансовые сведения и другую чувствительную информацию.
Использование ИИ для анализа таких данных может повысить риски утечки информации, особенно если алгоритмы не настроены должным образом или данные не защищены на всех этапах обработки. В разных странах существуют различные законы и регуляции, касающиеся защиты персональных данных. Исследователи должны быть осведомлены о применимых законодательствах и следовать им при работе с данными.
Законодательствах разных стран:
  • в Европейском союзе: Общий регламент по защите данных (GDPR) устанавливает строгие требования к обработке личной информации
  • в США: Закон о конфиденциальности и безопасности данных (например, HIPAA для медицинских данных)
  • в России: аналогичные нормы регулируются Федеральным законом «О персональных данных»
История знает немало примеров, когда нарушение защиты персональных данных приводило к серьезным последствиям. Например, в 2018 году скандал вокруг компании Cambridge Analytica показал, как данные миллионов пользователей Facebook были использованы для манипуляции общественным мнением без их согласия. В научной сфере подобные инциденты могут привести не только к потере репутации исследователя, но и к отзыву публикаций и даже к уголовной ответственности.
Принципы работы с персональными данными:

/ Шаг 3

Предотвращение предвзятости

Предотвращение предвзятости (bias) — анализ данных, выбор справедливых алгоритмов и регулярная проверка моделей помогают избежать несправедливых и дискриминационных результатов.
Предвзятость в ИИ — это систематическая ошибка, которая возникает на различных этапах разработки и использования алгоритмов. Использование искусственного интеллекта в научных исследованиях может значительно повысить эффективность анализа данных, но также несет в себе риск усиления предвзятости (bias) и несправедливости.
Предвзятость в ИИ возникает, когда алгоритмы воспроизводят или усиливают существующие в данных стереотипы, дискриминацию или неравенство. Это может привести к искажению результатов исследования, несправедливым выводам и даже к ущербу для отдельных групп людей. Поэтому предотвращение предвзятости и обеспечение справедливости являются важными этическими принципами при использовании ИИ в науке.

Факторы предвзятости

Предвзятость может быть вызвана следующими факторами:
  • Предвзятость в данных
Если тренировочные данные содержат предубеждения или неравномерно представляют определенные группы (например, по полу, возрасту, расе или социальному статусу), модель ИИ может научиться воспроизводить эти предубеждения. Например, если данные о найме на работу содержат историческую дискриминацию, модель может начать отдавать предпочтение определенным группам кандидатов.
  • Предвзятость в алгоритмах
Некоторые алгоритмы могут быть более чувствительны к определенным типам данных или иметь встроенные допущения, которые приводят к несправедливым результатам. Например, алгоритмы, оптимизированные для максимизации точности, могут игнорировать меньшинства, если они составляют небольшую часть данных.
В научной сфере предвзятость может проявляться в различных контекстах. Например, если модель ИИ используется для анализа медицинских данных, она может недооценивать риски для определенных групп пациентов, что может привести к неправильному лечению. В социальных науках предвзятость может искажать результаты опросов или экспериментов, если данные не репрезентативны.
Одним из известных примеров предвзятости в ИИ является случай с алгоритмом COMPAS, который использовался в США для прогнозирования рецидивизма. Исследования показали, что алгоритм был более склонен предсказывать повторные преступления для афроамериканцев, чем для белых, даже при одинаковых уровнях риска.
Как предотвратить предвзятость?

/ Шаг 4

Обеспечение воспроизводимости

Обеспечение воспроизводимости — документирование всех этапов исследования, публикация данных и кода, а также использование стандартных методов позволяют укрепить доверие к результатам и обеспечить их проверку другими учеными.
Воспроизводимость — это один из ключевых принципов научного метода, который подразумевает, что результаты исследования должны быть подтверждены независимыми экспериментами или анализами. В контексте использования ИИ в научных исследованиях обеспечение воспроизводимости становится особенно важным, так как алгоритмы машинного обучения могут быть сложными и не всегда предсказуемыми.
Воспроизводимость позволяет убедиться в достоверности результатов исследования. Если другие исследователи могут повторить эксперимент или анализ и получить аналогичные результаты, это укрепляет доверие к научной работе. В случае с ИИ воспроизводимость также помогает выявить возможные ошибки или предубеждения в алгоритмах.
В научной сфере существует множество примеров, когда отсутствие воспроизводимости приводило к серьезным последствиям.
Пример:
В 2011 году было отозвано исследование 1998 года, посвященное связи между вакцинацией и аутизмом, поскольку его результаты невозможно было воспроизвести.
Более подробно о проблеме воспроизводимости научных исследований можно прочитать в Nature или Science.
Как обеспечить воспроизводимость?
Рассмотренные шаги не только помогают избежать этических и юридических рисков, но и способствуют повышению качества и надежности научных исследований. Использование И И в науке — это не просто технический инструмент, а новый этап развития научной методологии, который требует от исследователей глубокого понимания как возможностей, так и ограничений этих технологий.
Практикум
Ответьте на вопросы и закрепите пройденный материал

Хотите больше узнать по теме? Ознакомьтесь с этими источниками

Издательство «Координационная лаборатория», г. Санкт-Петербург
ISBN 978-5-6054566-0-5