Obsidian Claude: el futuro de la IA en tu jardín
Andrej Karpathy y su pensamiento mágico
TL;DR: Se prueba la idea de Andrej Karpathy de usar un modelo de IA dentro de Obsidian para potenciar la memoria y conocimiento de un LLM
Paso el link y una pequeña descripción de lo que hace
Acá les dejo el link del GitHubGist donde sale lo que se necesita para generar la magia.
En resumidos párrafos lo que propone es un patrón alternativo al RAG tradicional para construir bases de conocimiento personales con LLMs. En lugar de que el modelo redescubra la información desde documentos crudos en cada consulta, la idea central es que el LLM construya y mantenga de forma incremental un wiki persistente en formato Markdown. Cada vez que se incorpora una nueva fuente, el LLM la lee, extrae lo relevante e integra ese conocimiento en el wiki existente: actualiza páginas, crea enlaces cruzados, revisa síntesis previas y señala contradicciones. Así, el conocimiento se “compila” una vez y se va enriqueciendo con el tiempo, en lugar de regenerarse desde cero en cada pregunta.
El usuario casi no escribe el wiki: su rol es curar fuentes, explorar y hacer buenas preguntas. El LLM se encarga del trabajo pesado de resumir, organizar, enlazar y mantener la coherencia del sistema. Este enfoque es aplicable a múltiples contextos, como investigación a largo plazo, seguimiento personal, lectura de libros, wikis de equipos o análisis competitivo. Técnicamente, la arquitectura se basa en tres capas: fuentes crudas inmutables, un wiki generado y mantenido por el LLM, y un esquema que define reglas, estructura y flujos de trabajo para disciplinar el comportamiento del modelo como “mantenedor de wiki”.
La operación diaria incluye procesos de ingestión de nuevas fuentes, consultas que pueden convertirse en nuevos artefactos del wiki, y tareas periódicas de “lint” para detectar inconsistencias, páginas huérfanas o vacíos de conocimiento. Un índice estructurado y un log cronológico ayudan a navegar y entender la evolución del sistema sin necesidad de RAG complejo. La clave de por qué esto funciona es que el mayor obstáculo de las bases de conocimiento —el mantenimiento— desaparece: los LLMs no se cansan de actualizar enlaces ni de tocar decenas de archivos a la vez. Así, el humano se enfoca en pensar y decidir, y el LLM en sostener la memoria viva del conocimiento, en un espíritu cercano al Memex de Vannevar Bush, pero con el problema del mantenimiento finalmente resuelto.
¿De qué manera lo voy a probar?
Básicamente seguí las explicaciones que tiene en su video Nate Herk. Te dejo el video acá: Andrej Karpathy Just 10x’d Everyone’s Claude Code.
Siguiendo el video, en realidad, bajé mis conversaciones de Claude.ai y usando claude-code para generar el wiki. Hasta el momento solamente pude generar el source de algunos clusters de mis conocimientos porque consume muchos tokens. En dos pasadas con un /clear en el medio, cerca de 200k tokens, consumí toda la sesión :D malísimo lo del plan Pro de momento.
Ampliaremos…