Primeros Pasos
Instala y ejecuta Remembrances MCP en minutos
¡Bienvenido a la documentación de Remembrances!
Esta documentación te ayudará a comenzar con Remembrances, configurarlo según tus necesidades e integrarlo con tus agentes IA.
Remembrances es un servidor Model Context Protocol (MCP) que proporciona memoria a largo plazo a tus agentes IA. Utiliza embeddings para búsqueda semántica y SurrealDB para almacenar y recuperar información de manera segura y privada, sin depender de servicios en la nube.
Los modelos de inteligencia artificial consiguen entender cualquier idioma con el que han sido entrenados, pero no entienden el significado de las palabras como lo hacemos los humanos. Para que un modelo de IA pueda entender el significado de un texto, este debe ser convertido a una representación matemática llamada “embedding”. Un embedding es un vector de números que captura el significado semántico del texto. Los embeddings permiten a los modelos de IA comparar y relacionar diferentes textos basándose en su significado, facilitando tareas como la búsqueda semántica y la recuperación de información relevante. Así una misma palabra en diferentes idiomas y todas las palabras que son sinónimo de ésta tendrán embeddings similares, y por tanto podremos buscar mejor la información, no por coincidencia literal de palabras sino por significado de lo que queremos expresar.
Toda la información que Remembrances almacena y recupera para tus agentes IA es convertida a embeddings para que éstos puedan entenderla y utilizarla eficazmente.
En la búsqueda de una base de datos que cumpliera con los requisitos de Remembrances (almacenamiento de vectores/embeddings, base de datos de grafos, clave-valor, rendimiento, facilidad de uso, licencia abierta, etc) encontramos SurrealDB, una base de datos multi-modelo que cumple con todos estos requisitos y más. SurrealDB nos permite almacenar y recuperar información de manera eficiente y flexible, adaptándose a las necesidades de Remembrances y sus usuarios.
Existen otras soluciones que combinan almacenamiento de vectores y bases de datos tradicionales, pero SurrealDB destaca por su rendimiento, flexibilidad y facilidad de uso, lo que la convierte en una opción ideal para Remembrances. Además, SurrealDB puede ser embebida directamente en la aplicación, eliminando la necesidad de configurar y mantener un servidor de base de datos separado, lo que simplifica enormemente la instalación y el uso de Remembrances.
Pero si quieres que todo un equipo de trabajo comparta la misma base de datos de conocimiento de Remembrances, puedes configurar SurrealDB para que funcione conectado con un servidor SurrealDB que puede estar en tu red local o en la nube, y así todos los usuarios compartirán la misma base de datos de conocimiento, de forma segura y privada. Porque SurrealDB soporta múltiples capas de seguridad y autenticación, puedes estar seguro de que tus datos estarán protegidos.
Fácil, Remembrances expone una API compatible con el protocolo MCP (Model Context Protocol), lo que permite a tus agentes IA interactuar con él para almacenar y recuperar información de manera eficiente. Cuando un agente IA necesita recordar algo, envía una solicitud a Remembrances, que convierte la información en embeddings y la almacena en SurrealDB. Cuando el agente necesita recuperar información, Remembrances utiliza búsqueda semántica para encontrar los datos más relevantes y los devuelve al agente.
Almacenamos la información en diferentes capas de almacenamiento según su naturaleza y uso previsto:
Instala y ejecuta Remembrances MCP en minutos
Configura Remembrances según tus necesidades
Configuración en los clientes AI
Ejemplos prácticos y casos de uso para Remembrances
Indexa tu base de código para búsqueda semántica y navegación inteligente
Descarga y optimiza modelos de embeddings GGUF
Almacena y busca eventos temporales con búsqueda semántica y filtros de tiempo
Problemas comunes y soluciones para Remembrances MCP
Qué funcionalidades y características están planeadas para futuras versiones de Remembrances
Documentación bajo demanda para reducir el consumo de tokens