Как я собрал базу из 5000 активных пользователей в Telegram за 15 минут (без спама и вложений)

В 2026 году Telegram окончательно превратился в «темный лес» для маркетологов. Глобальный поиск выдает мусор, реклама стоит как крыло самолета, а видео-креативы заходят раз в сто лет. Но есть один сегмент аудитории, который ценнее любого охвата — активные комментаторы.

Если человек пишет комментарий под постом про ИИ — он «горячий». Он вовлечен. И сегодня я покажу, как вытащить таких людей с помощью Python и библиотеки Telethon.

Почему парсинг комментариев — это «золотая жила»?

Обычный парсинг участников группы (members) часто дает «мертвые души» или ботов. Парсинг комментариев дает профит:

1. Вовлеченность: Эти люди заходят в Telegram каждый день.

2. Актуальность: Они интересуются темой прямо сейчас.

3. Открытость: Те, кто пишет публично, охотнее вступают в диалог.

Подготовка инструмента

Мы будем использовать Python. Нам понадобятся api_id и api_hash (получаем на my.telegram.org).

Логика скрипта:

1. Находим целевой канал.

2. Берем последние 50–100 постов.

3. «Заходим» в обсуждение каждого поста.

4. Вытягиваем ID и Username каждого, кто оставил сообщение.

Реализация на Python

Вот код «коммент-комбайна», который собирает только уникальных активных юзеров:

import asyncio from telethon import TelegramClient, types from telethon.tl.functions.messages import GetDiscussionMessageRequest # Твои данные api_id = 1234567 api_hash = 'твой_хэш' # Канал для анализа (можно несколько) target_channel = 'ai_news_channel' posts_limit = 50 # Сколько последних постов проверить async def main(): async with TelegramClient('expert_session', api_id, api_hash) as client: active_users = set() print(f"🚀 Начинаю охоту за комментаторами в @{target_channel}...") # Получаем посты из канала async for message in client.iter_messages(target_channel, limit=posts_limit): try: # Пытаемся получить ветку обсуждения (комментарии) result = await client(GetDiscussionMessageRequest( peer=target_channel, msg_id=message.id )) # Парсим сообщения из этой ветки async for comment in client.iter_messages(result.messages[0].peer_id): if isinstance(comment.from_id, types.PeerUser): user = await client.get_entity(comment.from_id.user_id) if user.username: user_info = f"@{user.username} | {user.first_name or ''}" if user_info not in active_users: active_users.add(user_info) print(f"➕ Нашел активного: @{user.username}") await asyncio.sleep(1) # Защита от флуда except Exception as e: # Если у поста нет комментариев, просто идем дальше continue # Сохраняем результат with open('active_commentators.txt', 'w', encoding='utf-8') as f: for user in active_users: f.write(user + '\n') print(f"\n✅ Готово! Собрано {len(active_users)} уникальных активных пользователей.") if __name__ == '__main__': asyncio.run(main())

Что делать с этой базой дальше?

Собрать базу — это 20% успеха. Остальные 80% — это то, как ты её используешь.

1. Мягкий инвайтинг: Если у тебя есть группа, ты можешь добавить их туда (но не более 5-10 человек в день с одного аккаунта, чтобы не улететь в бан).

2. Личные сообщения (Expert Sales): Напиши им не спам-шаблон, а конкретику: «Привет! Видел твой коммент под постом про Грока. Я как раз собрал подборку промптов для него, глянь у меня в закрепе, может будет полезно».

3. Анализ конкурентов: Посмотри, на что эти люди жалуются в комментариях, и дай решение в своем контенте.

Заключение

Парсинг — это не воровство, это умная сегментация. Пока остальные льют бюджеты в официальную рекламу, мы находим тех, кто реально создает движ в индустрии.

📢 P.S. Хотите больше таких скриптов? Технологии меняются быстрее, чем вы дочитываете эту статью. Пока вы парсите комментарии, Илон Маск запускает гигаваттные суперкомпьютеры, а нейросети начинают писать код за профи. Я веду канал «Алгоритмы будущего» где мы:

• Препарируем нейросети: от Grok до Sora — что реально работает, а что хайп.

• Смотрим в будущее: новости технологий, которые вы проспали сегодня утром.

Если не хотите остаться в «каменном веке» IT — залетайте в наше комьюнити.

Автор

by qitexialm
2
2 комментария