Date: 2025-09-16
Topic: Хранение данных, подготовка к AI-поиску и таргетированный поиск
Спикеры: Аглая Черемных

PDF

Общее саммари встречи

Фокус занятия — как хранить и собирать данные, а также как готовиться к AI-поиску и использовать таргетированные инструменты для ресерча.
Формат: вводная мини-лекция, дискуссия и шеринги участников, демо инструментов (Notion, Obsidian, Airtable; далее — поисковые тулзы).
Ключевые выводы: сначала наводим порядок в хранении (структура папок, нейминг, бэкапы 3-2-1, README), затем маркируем участие ИИ (AI-0…AI-3) и документируем работу с моделями; отдельно — безопасность (шифрование, доступы, соответствие регламентам).
Блок «подготовка к AI-поиску» — быстрый ручной скан источников и постановка точного запроса; «таргетированный поиск» — Google dorks и доп. инструменты

Результаты sharing-сессии

РезультатИнсайтПрепятствиеПлан
Google Drive + переход на ObsidianWeb-clipper/клипперы помогают не терять статьи; раньше использовали EvernoteТеряются сохранёнки в Telegram («Избранное»)Настроить простую автоматизацию «Telegram → Obsidian»; получить видео-гайд от команды
Обсидиан как базовое хранилище, параллельно куча источниковTelegram удобен как универсальный интерфейс (мысли, задачи, ленты)«Избранное» превращается в «помойку»; избыточные безлимитные диски плодят хаосПериодическая ревизия, перенос значимого в систему; мириться с «потерями» нестрашно — свежие источники соберутся заново
Apple Notes/Notion/корпоративные GDriveЧувствительные данные лучше держать отдельно от AI-контекстаРиск случайной загрузки конфиденциального в LLM-контекстОтдельные папки/правила доступа; шифрование и контроль прав

Саммари (основные пункты)

Хранение данных

  • Структура папок: 2–3 уровня, сверху — крупные блоки (сырьё, анализ, презентации); чувствительное — в отдельной защищённой папке с правами доступа.
  • Нейминг файлов: от общего к частному; дата в формате YYYYMMDD, версии v01, дефисы/подчёркивания без спецсимволов.
  • Литература: коллекции по проектам, теги/ноты, менеджеры цитирования (Zotero/Mendeley) с метаданными.
  • Бэкапы (правило 3-2-1): 3 копии (оригинал + внешний диск + облако), 2 типа носителей, 1 копия удалённо; периодически проверять читаемость архивов.
  • README: в ключевых папках фиксировать цель, содержимое, ответственных, дату обновления.
  • Чек-лист работоспособности системы: 15 секунд на поиск любого файла; бэкапы актуальны; README понятны; нет «хлама»; команда знает, где что лежит.

Маркировка и воспроизводимость AI-участия

  • Градации: AI-0 (без ИИ), AI-1 (перевод/поиск), AI-2 (черновики), AI-3 (анализ данных).
  • Документация: модель, промпты, правки после генерации.
  • Практика: помечать в документах, на каком этапе и как именно использовалась модель; фиксировать ограничения и «шишки».

Безопасность и соответствие

  • Шифрование/доступы: VeraCrypt, зашифр. архивы, менеджер паролей; матрица прав, принцип минимального доступа, аудит каждые полгода.
  • Регуляторика: учитывать GDPR и 152-ФЗ, сроки хранения и анонимизацию с первого дня.

Подготовка к AI-поиску

  • «Ручной прогрев» (5–10 мин): сайт компании, 1–2 пресс-релиза, релевантные источники по опыту; затем — уточнённый запрос к LLM.
  • Подход к LLM: вести диалог как с опытным коллегой; проверять структуру, ссылки, факты; Perplexity аккуратнее со ссылками (на сентябрь 2025).

Таргетированный поиск

  • Google dorks: site:, filetype:, "точная фраза", intitle:, inurl:
  • Инструменты (демо): Comet, Kagi, AdsPower, STORM (перечень на слайдах).

Демо: хранилища

  • Показаны: Notion, Obsidian, Airtable — базовые сценарии хранения и извлечения.

Инсайты участников

  • Не страшно «терять» часть потоков — важнее уметь быстро пересобрать актуальные источники под задачу.
  • «Избранное» в Telegram без процесса = свалка; нужен регулярный разбор/перенос в систему.

Рассмотренные кейсы

  • Личная лента Telegram как вход для мыслей/задач/линков с последующей еженедельной разборкой и раскладкой по Obsidian.
  • Обработка вебинарных файлов в Notion AI: получение саммари/транскрипта с сохранением сырья.

Домашнее задание

 Попробуйте создать свою собственную задачу для deep research исследования в проекте Claude/ChatGPT с помощью этой инструкции

Напишите в чат свои наблюдения:
— изменилось ли ваше видение исследования после адаптации плана исследования?
— если запустили deep research, напишите ваши впечатления?
— отличаются ли результаты?