Date: 2025-09-16
Topic: Хранение данных, подготовка к AI-поиску и таргетированный поиск
Спикеры: Аглая Черемных
Общее саммари встречи
Фокус занятия — как хранить и собирать данные, а также как готовиться к AI-поиску и использовать таргетированные инструменты для ресерча.
Формат: вводная мини-лекция, дискуссия и шеринги участников, демо инструментов (Notion, Obsidian, Airtable; далее — поисковые тулзы).
Ключевые выводы: сначала наводим порядок в хранении (структура папок, нейминг, бэкапы 3-2-1, README), затем маркируем участие ИИ (AI-0…AI-3) и документируем работу с моделями; отдельно — безопасность (шифрование, доступы, соответствие регламентам).
Блок «подготовка к AI-поиску» — быстрый ручной скан источников и постановка точного запроса; «таргетированный поиск» — Google dorks и доп. инструменты
Результаты sharing-сессии
| Результат | Инсайт | Препятствие | План |
|---|---|---|---|
| Google Drive + переход на Obsidian | Web-clipper/клипперы помогают не терять статьи; раньше использовали Evernote | Теряются сохранёнки в Telegram («Избранное») | Настроить простую автоматизацию «Telegram → Obsidian»; получить видео-гайд от команды |
| Обсидиан как базовое хранилище, параллельно куча источников | Telegram удобен как универсальный интерфейс (мысли, задачи, ленты) | «Избранное» превращается в «помойку»; избыточные безлимитные диски плодят хаос | Периодическая ревизия, перенос значимого в систему; мириться с «потерями» нестрашно — свежие источники соберутся заново |
| Apple Notes/Notion/корпоративные GDrive | Чувствительные данные лучше держать отдельно от AI-контекста | Риск случайной загрузки конфиденциального в LLM-контекст | Отдельные папки/правила доступа; шифрование и контроль прав |
Саммари (основные пункты)
Хранение данных
- Структура папок: 2–3 уровня, сверху — крупные блоки (сырьё, анализ, презентации); чувствительное — в отдельной защищённой папке с правами доступа.
- Нейминг файлов: от общего к частному; дата в формате
YYYYMMDD, версииv01, дефисы/подчёркивания без спецсимволов. - Литература: коллекции по проектам, теги/ноты, менеджеры цитирования (Zotero/Mendeley) с метаданными.
- Бэкапы (правило 3-2-1): 3 копии (оригинал + внешний диск + облако), 2 типа носителей, 1 копия удалённо; периодически проверять читаемость архивов.
- README: в ключевых папках фиксировать цель, содержимое, ответственных, дату обновления.
- Чек-лист работоспособности системы: 15 секунд на поиск любого файла; бэкапы актуальны; README понятны; нет «хлама»; команда знает, где что лежит.
Маркировка и воспроизводимость AI-участия
- Градации: AI-0 (без ИИ), AI-1 (перевод/поиск), AI-2 (черновики), AI-3 (анализ данных).
- Документация: модель, промпты, правки после генерации.
- Практика: помечать в документах, на каком этапе и как именно использовалась модель; фиксировать ограничения и «шишки».
Безопасность и соответствие
- Шифрование/доступы: VeraCrypt, зашифр. архивы, менеджер паролей; матрица прав, принцип минимального доступа, аудит каждые полгода.
- Регуляторика: учитывать GDPR и 152-ФЗ, сроки хранения и анонимизацию с первого дня.
Подготовка к AI-поиску
- «Ручной прогрев» (5–10 мин): сайт компании, 1–2 пресс-релиза, релевантные источники по опыту; затем — уточнённый запрос к LLM.
- Подход к LLM: вести диалог как с опытным коллегой; проверять структуру, ссылки, факты; Perplexity аккуратнее со ссылками (на сентябрь 2025).
Таргетированный поиск
- Google dorks:
site:,filetype:,"точная фраза",intitle:,inurl: - Инструменты (демо): Comet, Kagi, AdsPower, STORM (перечень на слайдах).
Демо: хранилища
- Показаны: Notion, Obsidian, Airtable — базовые сценарии хранения и извлечения.
Инсайты участников
- Не страшно «терять» часть потоков — важнее уметь быстро пересобрать актуальные источники под задачу.
- «Избранное» в Telegram без процесса = свалка; нужен регулярный разбор/перенос в систему.
Рассмотренные кейсы
- Личная лента Telegram как вход для мыслей/задач/линков с последующей еженедельной разборкой и раскладкой по Obsidian.
- Обработка вебинарных файлов в Notion AI: получение саммари/транскрипта с сохранением сырья.
Домашнее задание
Попробуйте создать свою собственную задачу для deep research исследования в проекте Claude/ChatGPT с помощью этой инструкции
Напишите в чат свои наблюдения:
— изменилось ли ваше видение исследования после адаптации плана исследования?
— если запустили deep research, напишите ваши впечатления?
— отличаются ли результаты?