A huge portion of your life gets wasted scrolling and surfing social media sites, just out of FOMO (Fear Of Missing Out) for some important news. Well, some news is really important to you, but…
- Are all of them? No.
- Are the brain-rot posts that you passed by important? No.
- Are the mindless comments that you read important? No.
- Are the things that made you angry and your day worse worth it? No.
You're burning 2.5 hours daily on social media. That's 912 hours a year, or 38 days. Over a 50-year adult life, that's 5.2 years WASTED.
With RSS + AI, you could save at least half that time—2.6 years—for building, learning, or just chilling without the mental junk.
Just eat the fish, spit the bones.
Welcome to the combination of the future and the past. Welcome to the dope combo of AI and RSS.
Pull your important news, feed it to an LLM with a nice prompt, and look at the tailored output, just for YOU. No algorithms pushing trash, no endless doomscrolling.
- Grab the repo: Clone it from GitHub.
- (Опционально) подготовьте LLM: экспортируйте
OPENAI_API_KEY, если хотите подключить дофильтрацию через OpenAI (поддерживается любой совместимый с Chat Completions моделью). - Запустите сборщик: выполните
python main.py— скрипт скачает Inoreader JSON-фид, отфильтрует материалы по ключевым словам и сформирует HTML-дайджест. - Настройте параметры при необходимости: добавьте
--outfile,--hours,--max-itemsили--feed, чтобы сохранить отчёт в другое место, изменить окно поиска или подключить другой фид.
The main configuration now lives at the top of main.py and looks like this:
DEFAULT_FEED_URL = 'https://www.inoreader.com/stream/user/1005899639/tag/%F0%9F%8C%8F%20%D0%9D%D0%BE%D0%B2%D0%BE%D1%81%D1%82%D0%B8%20%D0%BF%D0%BE%20%D0%BC%D0%B8%D1%80%D1%83/view/json'
DEFAULT_OUTFILE = 'vanlife_digest.html'
DEFAULT_HOURS = 12
DEFAULT_MAX_ITEMS = 20Все эти значения можно переопределить аргументами командной строки. Если переменная окружения OPENAI_API_KEY не задана или пакет openai не установлен, скрипт просто пропустит этап LLM-проверки.
Логика запроса к модели собрана в функции llm_refine внутри main.py. Измените system_prompt или user_prompt, чтобы адаптировать критерии отбора: например, можно ужесточить требования к обзорам, технике или законам, добавить дополнительные категории или расширить формат ответа.