Нарративный обзор — самый распространённый, но не самый простой тип литобзора. Это не список статей, а структурированное осмысление поля: выявить ключевые дискуссии, пробелы, сдвиги в концептуализации — и выстроить логику, по которой читатель увидит ваш вклад как необходимый.
На мастер-классе вас ждет: 1. Нарративный обзор как академический сторителлинг: учимся не пересказывать, а вести диалог с научным сообществом.
2. ИИ-инструменты для исследователей:
Undermind — чтобы быстро погрузиться в поле, увидеть ключевые темы и связи между работами;
Scite AI — чтобы проверить, как статьи цитируются: поддерживают ли их данные, оспаривают или просто упоминают. Это помогает отсеять слабые источники и найти поворотные точки дискуссии.
3. Структура IMRaD как ориентир: даже в обзоре эта структура работает — не как формальность, а как логика. Разберём на примерах, как адаптировать IMRaD под нарративный формат.
4. Практика. Вы начнёте свой обзор сейчас: сформулируете исследовательский фокус, протестируете Undermind/Scite на нём и наметите структуру по логике IMRaD.
Хватит писать обзоры «по старинке» — с Excel-списком и надеждой на вдохновение. Приходите — и сделайте его осознанно, эффективно и по-настоящему научно.
Представьте: вы говорите о глобальном кризисе — и не просто цитируете заголовки, а опираетесь на данные, которые вы нашли, структурировали и интерпретировали. Ваши выводы — не предположения, а аргументы, построенные на том, что другие пропустили. Это и есть сила доказательной аналитики.
Мы знаем: искать, отбирать и осмысливать данные — долго, сложно, а иногда и непонятно, с чего начать. Особенно когда источники — не таблицы Excel, а тысячи страниц отчётов, твитов, речей и сводок.
На мастер-классе вас ждет:
Типология данных: разбираем, где искать информацию по мировой политике — и какие данные (структурированные, текстовые, «грязные») годятся для каких исследовательских вопросов.
LLM как аналитический союзник: не просто «напиши за меня», а — «помоги мне разобраться с данными». Тестируем промпты для первичной обработки. Чтобы понять смысл best practice начнём с того, что делать явно не стоит.
Выборка вне социологии: как работать с данными, когда «генеральная совокупность» — это всё, что опубликовано за 20 лет по теме. Как не утонуть — и не обмануть себя.
Практика: вы узнаете, где данные ваш друг, а где, скорее, враг. Мы разберёмся как создавать размеченный список источников, черновики запросов, а также разберём, что может пойти не так.
Приходите — и научитесь строить доказательную базу там, где другие видят только шум.
Семантический литобзор — это когда вы не просто собираете статьи, а выращиваете упорядоченный сад: добавляете стартовые работы, а сервисы помогают найти связанных авторов, скрытые ветки дискуссий, отдалённые, но релевантные идеи. Такой подход превращает литобзор из рутинного перечня в карту поля с центрами, перифериями и пробелами, где можно включиться самому. Мы разберём, как превратить хаотичный поиск в системную работу с помощью инструментов, которые показывают не просто что цитируют, а как идеи связаны.
На мастер-классе вас ждёт: 1. Семантический подход к литобзору: как перейти от "эта статья про X" к "эта статья продолжает дискуссию А, но оспаривает посыл Б" — и выстроить обзор вокруг концептуальных узлов, а не хронологии.
2. Инструменты для картографии знаний:
ResearchRabbit, чтобы выращивать «библиографические плейлисты»: добавляете стартовые статьи — и система подбирает релевантные работы, авторов и тематические ветки, опираясь на цитирование, соавторство и контекстную близость;
Connected Papers, чтобы визуализировать ядро поля и ближайшие/отдалённые работы по графу цитирований;
Litmaps, чтобы отследить, как идея развивалась во времени и кто в неё включился позже.
3. От карты к повествованию: как использовать визуализации не как иллюстрацию, а как основу для структуры обзора. 4. Практика: вы выберете тему (свою или предложенную), построите первую «семантическую карту» с помощью одного из инструментов и начнёте формулировать осмысленные кластеры не по словам, а по смыслам.
Хватит листать Google Scholar в поисках «ещё одной статьи». Приходите — и начните видеть научное поле целиком.
Представьте: ваша аналитика с использованием ИИ выглядит убедительно, но стоит коллеге повторить запрос, как результаты расходятся. Не из-за ошибки в логике, а потому, что исходные данные были «грязными», неполными или неописанными. Воспроизводимость начинается не со статистики, а со структурной работы с данными.
Мы знаем: собрать данные — полдела. Гораздо сложнее — убедиться, что они работают: точны, релевантны, документированы и пригодны для анализа с помощью LLM. Особенно, когда речь идет о неструктурированных текстах или фрагментарных отчётах.
На мастер-классе вас ждет:
Качество vs. количество: почему «много» не значит «надёжно», и как недостаток прозрачности в методе лишает выводы веса (на реальных кейсах проваленной воспроизводимости).
Фильтрация и классификация: как превратить «поток» неструктурированных данных в осмысленные категории без подгонки под гипотезу, используя LLM как помощника.
Управление данными как привычка: простые правила сбора, именования, хранения, чтобы через месяц можно было понять: что, откуда и почему.
Очистка без иллюзий: как удалять шум, дубли, аномалии и при этом фиксировать каждое решение, чтобы не превратить «очистку» в «отбеливание» данных.
Синтетические данные: генерируем данные с помощью ИИ не как замену, а как инструмент проверки устойчивости выводов.
Практика: вы получите набор «грязных» данных (текстовые фрагменты, фиктивные отчёты) и самостоятельно проведёте очистку с обоснованием каждого шага: что удалили, почему и как это повлияло на возможные выводы.
Приходите — и научитесь не просто работать с данными, а гарантировать их качество.
Когда тема новая, междисциплинарная или размытая — первая задача не анализировать, а понять, что вообще анализировать. Scoping review (обзор предметного поля) — это методологическая разведка: вы намеренно не углубляетесь, а зондируете, чтобы обозначить границы, выявить подходы, термины, ключевые работы и пробелы, прежде чем вкладывать месяцы в узкое исследование.
Мы разберём, как провести такой обзор эффективно, не закапываясь в сотни PDF-документов, а используя ИИ для тематического моделирования как инструмента первичной структуризации.
На мастер-классе вас ждёт:
Scoping review по сути: зачем он нужен, когда его выбирать (и когда — не стоит), как формулировать вопросы типа «Какие концепции используются?», «Какие методы применяются?», а не «Что эффективнее?».
Тематическое моделирование через ИИ: как использовать специализированные и общедоступные ИИ-инструменты для первичной структуризации большого корпуса текстов — выявления повторяющихся тем, семантических кластеров, сдвигов в терминологии.
Проверка на адекватность: почему автоматически выделенные «темы» могут ввести в заблуждение, и как верифицировать их: через контекст, вручную, через пересечение с экспертными знаниями.
Практика: поработаете с небольшим набором модельных текстов, запустите тематическое моделирование и совместно решите: какие кластеры отражают содержание, а какие — шум или особенности алгоритма. На основе этого начнёте строить карту поля.
Хватит бояться «слишком широких» тем. Приходите — и научитесь обозначать поле, прежде чем в него погружаться.
Представьте: вы задали ИИ уточняющий вопрос и получили блестяще сформулированный, но полностью вымышленный ответ. Уверенный. Убедительный. Неправильный. Многие разочаровываются в LLM не потому, что они «плохие», а потому, что используют их как автора, а не как рефлексивного ассистента.
Мы знаем: ошибки LLM — не случайность, а следствие их устройства. Генерация на основе вероятностей, потеря контекста в длинных запросах, подстройка под ожидания — всё это можно предвидеть и использовать.
На воркшопе вас ждёт:
Где ломается доверие: разбор типичных галлюцинаций, искажений и как стимулы в промпте (например, требование «быть кратким» или «писать как эксперт») провоцируют системные искажения.
LLM внутри метода, а не вместо него: как встроить модель в триангуляцию — например, использовать разные LLM как «независимых кодировщиков» при анализе дискурса.
Практика: тональность и тематика: пробуем тематическое моделирование и анализ настроений вручную и через LLM, фиксируя расхождения и границы применимости.
Сравнительный эксперимент: вы выполняете одно и то же задание на двух разных языковых моделях, сравниваете выводы и определяете критерии, по которым можно доверять результату.
Приходите — и превратите разочарование в методологическую бдительность.