Skip to main content
NotebookLMGoogleAI automation

Как NotebookLM делает подкасты

Удалось довольно четко восстановить механику подкастов в NotebookLM: сначала Gemini собирает диалог из источников, потом отдельный аудиопайплайн озвучивает его с живыми вставками. Для бизнеса это важно как ориентир для AI automation учебного и контентного продакшена.

Технический контекст

Я покопался в том, как устроены Audio Overviews в NotebookLM, и картина стала довольно приземленной. Это не магия одной кнопки, а связка из длинного контекста, генерации сценария и отдельного синтеза речи. Для тех, кто строит AI automation вокруг обучения, базы знаний или онбординга, это очень полезный ориентир.

Судя по доступным следам, на вход идет большой набор материалов: текст, документы, местами мультимедиа. Дальше модель уровня Gemini переваривает массив источников, держит длинный контекст и не пересказывает его напрямую, а собирает разговорный сценарий между двумя ведущими.

Вот где мне стало интересно: ощущение “живого подкаста” рождается не только в LLM. Паразитные вставки вроде “ага”, “серьезно?” и микропауз, похоже, живут уже в аудиомодели. То есть текстовый слой отвечает за структуру беседы, а натуральность разговора докручивается отдельно.

Еще один важный кусок, который я бы не игнорировал, это RAG-логика. Подкаст не берется из воздуха: система подтягивает факты из загруженных источников и держится за материал, а не только за вероятностную болтовню. Ограничение контекста около 100 тысяч токенов тоже хорошо объясняет, почему качество зависит не только от модели, но и от того, как упакованы данные.

По кастомизации все выглядит тоже вполне инженерно: можно задавать фокус выпуска, длину, язык, метаданные. Иными словами, это уже не демка, а почти готовый паттерн для AI integration в образовательные продукты, внутренние knowledge hubs и автоматические медиабрифы.

Влияние на бизнес и автоматизацию

Я вижу здесь три практических вывода. Первый: если вам нужен такой формат, не надо пытаться одной моделью решать все сразу. Связка “RAG + сценарий + отдельная озвучка” обычно дает результат заметно стабильнее.

Второй: выигрывают команды, у которых уже есть нормальная база знаний. Если документы хаотичны, подкаст получится таким же. Проигрывают те, кто думает, что artificial intelligence implementation начинается с голоса, а не со структуры контента.

Третий: это хороший шаблон для корпоративного обучения, саппорта и ресерча. Я такие штуки обычно смотрю через призму архитектуры: где хранится контекст, как контролируется фактология, как пересобирается выпуск при обновлении источников. В Nahornyi AI Lab мы как раз решаем такие узкие места для клиентов, когда нужна не игрушка, а рабочая AI solution development под конкретный процесс.

Если у вас тонут в документах обучение, онбординг или внутренние обзоры, это уже можно упаковать в нормальный аудиоформат без цирка. Напишите, и мы с Vadym Nahornyi в Nahornyi AI Lab посмотрим, как собрать AI automation под ваш контент, чтобы люди реально слушали и понимали, а не просто нажимали play.

По аналогии с подкастами в NotebookLM, более глубокий анализ сферы AI-медиапродакшена вскрывает важные архитектурные и операционные моменты. Ранее мы анализировали готовность к продакшену, отсутствие API и архитектурные риски ByteDance Seedance 2.0 на этапе закрытой беты, чтобы показать реалии внедрения AI в бизнесе.

Поделиться статьёй