CatchMe míří na dost konkrétní problém: osobní AI agent většinou neví, co jste během dne dělali, četli nebo upravovali. Projekt proto průběžně zachytává digitální stopu uživatele a převádí ji do podoby, na kterou se dá ptát přirozeným jazykem. Nejde jen o historii otevřených oken. CatchMe sbírá i práci se soubory, schránkou, notifikacemi, screenshoty nebo vstupy z klávesnice a myši, takže agent dostává mnohem širší kontext.
Za projektem stojí tým HKUDS, který ho na GitHubu popisuje jako vrstvu osobní paměti pro AI agenty a součást svého širšího agentního ekosystému. CatchMe je navržené jako samostatná služba, se kterou agent komunikuje přes CLI, takže ho jde napojit na různé nástroje včetně Cursoru nebo Claude. Praktický point je jednoduchý: místo ručního vysvětlování, na čem jste pracovali, se agent může doptat do vlastní historie práce. Důraz je přitom na lokální běh a na to, aby data zůstávala na zařízení uživatele.
Zajímavé na CatchMe není jen samotné logování aktivity, ale hlavně způsob vyhledávání. Projekt záměrně obchází klasický stack s embeddingy a vector databází a místo toho staví hierarchickou paměťovou strukturu Day → Session → App → Location → Action. Nad jednotlivými uzly vytváří LLM souhrny a při dotazu pak model prochází strom shora dolů, vybírá relevantní větve a teprve potom sahá do detailních dat. V praxi je to spíš navigace nad uspořádanou historií práce než běžné semantic search nad hromadou fragmentů.
Repo zároveň tvrdí, že běh zůstává relativně úsporný. Autoři uvádějí zhruba 0,2 GB RAM a ukládání přes SQLite s FTS5, což dává smysl pro nástroj, který má běžet pořád na pozadí. CatchMe podporuje i offline režim přes lokální modely jako Ollama, vLLM nebo LM Studio, zatímco cloudové modely používá jen pokud si je uživatel sám nastaví. Právě kombinace průběžného sběru aktivity, lokálního uložení a tree-based retrieval dělá z projektu zajímavý pokus o „paměťovou vrstvu“ pro osobní AI asistenty.
Zdroje: