Framework open source publicado por Harrison Chase en octubre de 2022. Hoy mantiene un ecosistema con LangSmith (observabilidad) y LangGraph (orquestación de agentes con estado).
Cuándo SÍ y cuándo no
LangChain es la abstracción más popular para construir aplicaciones con LLMs, pero también la más criticada por overhead innecesario en proyectos sencillos. La regla práctica que aplicamos en proyectos reales es la siguiente: si el caso necesita encadenar más de dos pasos con un LLM (parsear → buscar → responder), conectar el modelo a una base vectorial (RAG sobre documentos del cliente) o construir un agente que decida qué herramienta llamar — LangChain ahorra semanas de código glue. Si el caso es “una llamada a /chat/completions con un prompt bien escrito”, LangChain es complejidad accidental.
La alternativa moderna en muchos casos es escribir contra el SDK del proveedor directamente (ya soporta tool use, structured output y streaming nativos) y usar LangGraph solo cuando hace falta orquestar agentes con estado.
Las piezas que sí aprovechamos
De toda la API de LangChain, las piezas que entran en producción en nuestros proyectos son tres: los document loaders y text splitters para preparar fuentes (PDFs, páginas web, exports CRM) antes de un RAG, las integraciones con bases vectoriales (Chroma, Pinecone, Qdrant) que evitan reimplementar el patrón de embedding+búsqueda, y LangSmith para trazabilidad cuando un agente con varias herramientas se equivoca y hay que entender por qué.
Cómo lo aplicamos en SMedialab
Lo elegimos para chatbots con base de conocimiento del cliente (catálogo, manual interno, FAQs largas) y para agentes que llaman a APIs propias (sistema de reservas, ERP, calendario). Donde NO lo elegimos es para chatbots conversacionales sencillos sin RAG: ahí escribimos contra OpenAI o Anthropic directamente. Tampoco lo introducimos cuando el equipo del cliente va a mantener el código y no tiene Python como stack — la curva de aprendizaje no compensa.
Casos típicos en nuestros clientes
Un complejo turístico con manual del empleado de 200 páginas y rotación alta nos pidió un asistente para que el personal nuevo consultara procedimientos sin leer todo el manual. Montamos un RAG con LangChain (loader PDF + Chroma + Claude como motor de respuesta) que cita el apartado y página de origen en cada respuesta, evitando las alucinaciones típicas de un chatbot sin grounding. Para una autoescuela en Santa Cruz, un agente LangChain pasa el test teórico personalizado del alumno por un LLM, identifica las áreas con más fallos y devuelve un plan de estudio con enlaces a videos del temario interno.
¿Tu caso pide RAG o agentes con varias herramientas? Lo planteamos como parte de implementaciones de IA.