Разберём, как превратить хаотичный поиск в системную работу с помощью инструментов, которые показывают не просто что цитируют, а как найденные идеи связаны
Разберём, как превратить хаотичный поиск в системную работу с помощью инструментов, которые показывают не просто что цитируют, а как найденные идеи связаны
Нарративный обзор — самый распространённый, но не самый простой тип литобзора. Это не список статей, а структурированное осмысление поля: выявить ключевые дискуссии, пробелы, сдвиги в концептуализации — и выстроить логику, по которой читатель увидит ваш вклад как необходимый.
На мастер-классе вас ждет: 1. Нарративный обзор как академический сторителлинг: учимся не пересказывать, а вести диалог с научным сообществом.
2. ИИ-инструменты для исследователей:
Undermind — чтобы быстро погрузиться в поле, увидеть ключевые темы и связи между работами;
Scite AI — чтобы проверить, как статьи цитируются: поддерживают ли их данные, оспаривают или просто упоминают. Это помогает отсеять слабые источники и найти поворотные точки дискуссии.
3. Структура IMRaD как ориентир: даже в обзоре эта структура работает — не как формальность, а как логика. Разберём на примерах, как адаптировать IMRaD под нарративный формат.
4. Практика. Вы начнёте свой обзор сейчас: сформулируете исследовательский фокус, протестируете Undermind/Scite на нём и наметите структуру по логике IMRaD.
Хватит писать обзоры «по старинке» — с Excel-списком и надеждой на вдохновение. Приходите — и сделайте его осознанно, эффективно и по-настоящему научно.
Представьте: вы говорите о глобальном кризисе — и не просто цитируете заголовки, а опираетесь на данные, которые вы нашли, структурировали и интерпретировали. Ваши выводы — не предположения, а аргументы, построенные на том, что другие пропустили. Это и есть сила доказательной аналитики.
Мы знаем: искать, отбирать и осмысливать данные — долго, сложно, а иногда и непонятно, с чего начать. Особенно когда источники — не таблицы Excel, а тысячи страниц отчётов, твитов, речей и сводок.
На мастер-классе вас ждет:
Типология данных: разбираем, где искать информацию по мировой политике — и какие данные (структурированные, текстовые, «грязные») годятся для каких исследовательских вопросов.
LLM как аналитический союзник: не просто «напиши за меня», а — «помоги мне разобраться с данными». Тестируем промпты для первичной обработки. Чтобы понять смысл best practice начнём с того, что делать явно не стоит.
Выборка вне социологии: как работать с данными, когда «генеральная совокупность» — это всё, что опубликовано за 20 лет по теме. Как не утонуть — и не обмануть себя.
Практика: вы узнаете, где данные ваш друг, а где, скорее, враг. Мы разберёмся как создавать размеченный список источников, черновики запросов, а также разберём, что может пойти не так.
Приходите — и научитесь строить доказательную базу там, где другие видят только шум.
Представьте: ваша аналитика с использованием ИИ выглядит убедительно, но стоит коллеге повторить запрос, как результаты расходятся. Не из-за ошибки в логике, а потому, что исходные данные были «грязными», неполными или неописанными. Воспроизводимость начинается не со статистики, а со структурной работы с данными.
Мы знаем: собрать данные — полдела. Гораздо сложнее — убедиться, что они работают: точны, релевантны, документированы и пригодны для анализа с помощью LLM. Особенно, когда речь идет о неструктурированных текстах или фрагментарных отчётах.
На мастер-классе вас ждет:
Качество vs. количество: почему «много» не значит «надёжно», и как недостаток прозрачности в методе лишает выводы веса (на реальных кейсах проваленной воспроизводимости).
Фильтрация и классификация: как превратить «поток» неструктурированных данных в осмысленные категории без подгонки под гипотезу, используя LLM как помощника.
Управление данными как привычка: простые правила сбора, именования, хранения, чтобы через месяц можно было понять: что, откуда и почему.
Очистка без иллюзий: как удалять шум, дубли, аномалии и при этом фиксировать каждое решение, чтобы не превратить «очистку» в «отбеливание» данных.
Синтетические данные: генерируем данные с помощью ИИ не как замену, а как инструмент проверки устойчивости выводов.
Практика: вы получите набор «грязных» данных (текстовые фрагменты, фиктивные отчёты) и самостоятельно проведёте очистку с обоснованием каждого шага: что удалили, почему и как это повлияло на возможные выводы.
Приходите — и научитесь не просто работать с данными, а гарантировать их качество.
Обзор предметного поля (scoping review) — это когда автор литобзора немного садовник. Вы не просто собираете список лиературы, а «выращиваете» его: находите семенную работу, и сервисы помогают найти связанных авторов, скрытые ветки дискуссий, отдалённые, но релевантные идеи. Такой подход превращает литобзор из рутинного анализа длиннющих списков в карту поля с центрами, перифериями и пробелами, где можно включиться самому.
На мастер-классе вас ждёт: 1. Семантический подход к литобзору: как перейти от "эта статья про X" к "эта статья продолжает дискуссию А, но оспаривает посыл Б" — и выстроить обзор вокруг концептуальных узлов, а не хронологии.
2. Инструменты для картографии знаний:
ResearchRabbit, чтобы выращивать «библиографические плейлисты»: добавляете стартовые статьи — и система подбирает релевантные работы, авторов и тематические ветки, опираясь на цитирование, соавторство и контекстную близость;
Connected Papers, чтобы визуализировать ядро поля и ближайшие/отдалённые работы по графу цитирований;
Litmaps, чтобы отследить, как идея развивалась во времени и кто в неё включился позже.
3. От карты к повествованию: как использовать визуализации не как иллюстрацию, а как основу для структуры обзора.
4. Практика: вы выберете тему (свою или предложенную), построите первую «семантическую карту» с помощью одного из инструментов и начнёте формулировать осмысленные кластеры не по словам, а по смыслам.
Хватит листать Google Scholar в поисках «ещё одной статьи». Приходите — и начните видеть научное поле целиком.
Когда тема новая, междисциплинарная или размытая — первая задача не анализировать, а понять, что вообще анализировать. Scoping review (обзор предметного поля) — это методологическая разведка: вы намеренно не углубляетесь, а зондируете, чтобы обозначить границы, выявить подходы, термины, ключевые работы и пробелы, прежде чем вкладывать месяцы в узкое исследование.
Мы разберём, как провести такой обзор эффективно, не закапываясь в сотни PDF-документов, а используя ИИ для тематического моделирования как инструмента первичной структуризации.
На мастер-классе вас ждёт:
Scoping review по сути: зачем он нужен, когда его выбирать (и когда — не стоит), как формулировать вопросы типа «Какие концепции используются?», «Какие методы применяются?», а не «Что эффективнее?».
Тематическое моделирование через ИИ: как использовать специализированные и общедоступные ИИ-инструменты для первичной структуризации большого корпуса текстов — выявления повторяющихся тем, семантических кластеров, сдвигов в терминологии.
Проверка на адекватность: почему автоматически выделенные «темы» могут ввести в заблуждение, и как верифицировать их: через контекст, вручную, через пересечение с экспертными знаниями.
Практика: поработаете с небольшим набором модельных текстов, запустите тематическое моделирование и совместно решите: какие кластеры отражают содержание, а какие — шум или особенности алгоритма. На основе этого начнёте строить карту поля.
Хватит бояться «слишком широких» тем. Приходите — и научитесь обозначать поле, прежде чем в него погружаться.
Представьте: вы задали ИИ уточняющий вопрос и получили блестяще сформулированный, но полностью вымышленный ответ. Уверенный. Убедительный. Неправильный. Многие разочаровываются в LLM не потому, что они «плохие», а потому, что используют их как автора, а не как рефлексивного ассистента.
Мы знаем: ошибки LLM — не случайность, а следствие их устройства. Генерация на основе вероятностей, потеря контекста в длинных запросах, подстройка под ожидания — всё это можно предвидеть и использовать.
На воркшопе вас ждёт:
Где ломается доверие: разбор типичных галлюцинаций, искажений и как стимулы в промпте (например, требование «быть кратким» или «писать как эксперт») провоцируют системные искажения.
LLM внутри метода, а не вместо него: как встроить модель в триангуляцию — например, использовать разные LLM как «независимых кодировщиков» при анализе дискурса.
Практика: тональность и тематика: пробуем тематическое моделирование и анализ настроений вручную и через LLM, фиксируя расхождения и границы применимости.
Сравнительный эксперимент: вы выполняете одно и то же задание на двух разных языковых моделях, сравниваете выводы и определяете критерии, по которым можно доверять результату.
Приходите — и превратите разочарование в методологическую бдительность.
Будучи преподавателем вы имеете в своем арсенале привычные форматы заданий, которые ещё недавно работали для проверки знаний студентов, а теперь легко и аккуратно выполняется нейросетью. Ответ выглядит убедительно, логично и формально корректно, но вы не можете понять, где здесь работа студента. Первая естественная реакция — контроль: поиск доказательств использования ИИ и запреты. Но это все равно не дает плодов и вносит только раздражение в процесс обучения с обеих сторон.
Мы считаем, что генеративный ИИ не обесценивает обучение напрямую. Он обнажает уязвимости заданий, нацеленных на воспроизведение, пересказ и формально правильный результат. Именно поэтому проблема сегодня не в том, использовал ли студент ИИ, а в том, что именно мы считаем результатом учебной деятельности и объектом оценивания.
Генеративный ИИ отлично воспроизводит шаблонные рассуждения, но с трудом удерживает контекст, допущения и путается в собственных выводах. Это делает его ответы не итогом работы, а удобной точкой входа в анализ, критику и аргументацию при условии, что задание изначально спроектировано под эту логику.
На мастер-классе вас ждёт:
Почему «ломается» проверка задания: разбор того, какие когнитивные операции ИИ воспроизводит без усилий и почему именно они перестают быть показателем обучения.
Аудит учебных заданий: выявим типовые уязвимости инструкций, в которых ценность смещена к результату, а не к процессу рассуждения.
Ответ ИИ как объект анализа: покажем методический приём, в котором сгенерированный текст используется как материал для выявления логических разрывов, упрощений и скрытых предпосылок.
Практика: вы перепроектируете собственное задание так, чтобы ключевым результатом становилось не «правильное решение», а качество критического разбора и аргументации.
Границы метода: обсудим, где этот подход действительно усиливает мышление, а где рискует превратиться в формальность.
Приходите, чтобы перестать воспринимать ИИ как угрозу учебному процессу и начните использовать его как инструмент диагностики и переосмысления того, что именно мы проверяем и чему на самом деле учим студентов.
Эссе, отчеты, курсовые и дипломные работы остаются популярным форматом итоговой проверки знаний студентов в разных сферах. Но именно этот тип заданий сегодня лучше всего создаётся генеративным ИИ: быстро, аккуратно и убедительно. Пока объектом оценивания остаётся текст, мы неизбежно будем читать результаты генерации, не всегда качественной. Происходит это не только из-за недобросовестности студентов, но и потому что сама логика оценивания совпадает с логикой работы ИИ.
Если цель обучения связана с развитием самостоятельного и критического мышления, объект оценивания должен смещаться с результата на процесс его получения: на то, как студент формулирует вопросы, проверяет выводы, работает с ошибками и пересобирает собственную позицию. Именно здесь ИИ перестаёт быть заменой мышления и становится материалом для работы с ним.
В этой логике протокол работы с ИИ превращается в протокол развития мышления — рабочий формат фиксации того, как студент использует ИИ, где ему доверяет, где проверяет и какие решения принимает в ходе работы.
На мастер-классе вас ждёт:
Почему оценка результата больше не работает: разбираем, как эпоха генеративных текстов меняет саму основу привычного оценивания.
Из чего состоит протокол работы с ИИ: что именно имеет смысл фиксировать — этапы работы с ИИ, аргументационные сдвиги, пересмотр решений, осознанные ошибки и их исправление.
Практика: вы перепроектируете своё задание так, чтобы объектом оценки становился не текст, а процесс рассуждений студента.
Границы метода: обсуждаем, где этот подход действительно усиливает обучение, а где рискует превратиться в формальную отчётность.
Важно, что внедрение протокола не увеличивает время проверки и не требует отдельной системы оценивания. Он встраивается в уже существующие задания и меняет характер работы преподавателя: вместо поиска признаков авторства внимание переносится на то, что действительно отражает обучение — ход рассуждений и развитие самостоятельного и критического мышления студента.
Приходите на мастер-класс, чтобы вернуть смысл оцениванию в условиях, где итоговый текст больше не может служить надёжным доказательством знаний студента.
Zotero — библиографический менеджер, работающий на исследователя
Представьте: вы пишете статью или готовите аналитический отчёт. Вам нужно сослаться на 15 источников — и не просто сослаться, а оформить их в нужном стиле (ГОСТ, APA, Chicago, MLA…). А ещё — не потерять ту самую цитату из третьей главы, которую вы вчера зачем-то сохранили как «djfkhg34.pdf». Знакомо? Именно для этого существуют библиографические менеджеры.
Мы знаем: копить файлы легко, а организовывать знания — трудно. Особенно когда папки с литературой множатся, названия статей превращаются в абракадабру, а в конце исследования вас ждёт ад ручного форматирования сносок.
На мастер-классе вас ждет:
Zotero как центр управления источниками: почему это не просто «программа для ссылок», а ваш личный исследовательский архив в облаке. Скачиваем, настраиваем и сразу пробуем в деле.
Архив без паники: как перестать складывать PDF в «Новую папку (5)» и начать каталогизировать литературу так, чтобы любая статья находилась за 10 секунд — по автору, ключевому слову или вашему собственному тегу.
Оформление за минуты: выбираем стиль цитирования, вставляем сноску в Word/Google Docs, одним кликом генерируем список литературы. Без ручного расставления точек и запятых. Показываем, как это работает на реальных примерах.
Метаданные — ваша суперсила: учим Zotero «считывать» информацию со страниц журналов, DOI и ISBN. Выгружаем первые статьи с полным библиографическим описанием — без копирования авторов вручную.
Не потерять аннотации: фиксируем свои заметки, выделения и комментарии прямо внутри записей. Теперь не придётся перечитывать всю статью, чтобы вспомнить, зачем вы её вообще скачивали.
Практика: вы настраиваете Zotero на своём ноутбуке, импортируете 3−5 источников (статьи, книги, веб-страницы), создаёте коллекцию, добавляете заметки и оформляете готовый список литературы в заданном стиле. Всё — от установки до результата.
Приходите — и превратите библиографический хаос в систему, которой вы будете пользоваться с удовольствием (или хотя бы без слёз).