Un protocolo,
todos los proveedores de IA.
AI-Lib es un ecosistema de código abierto que estandariza las interacciones con modelos de IA. Protocolo V2 con MCP, Computer Use y multimodal — 37 proveedores, tres runtimes, cero lógica hardcodeada.
5 proyectos, 1 ecosistema
Una capa de especificación define las reglas. Tres implementaciones de runtime (Rust, Python, TypeScript) las hacen realidad.
AI-Protocol
Especificación V2 con manifiestos de tres anillos, MCP, Computer Use y multimodal — sin lógica hardcodeada.
- 37 manifiestos (6 V2 + 36 V1)
- STT/TTS/Rerank en manifiestos (Jina, OpenAI, Cohere)
- Schemas MCP / CU / Multimodal
- Herramienta CLI de validación
- Configuración recargable en caliente
ai-lib-rust
Runtime Rust de alto rendimiento. Códigos de error estándar V2, flags de características, pipeline de streaming basado en operadores, seguridad en tiempo de compilación y sobrecarga submilisegundo.
- ProviderDriver (OpenAI/Anthropic/Gemini)
- MCP tool bridge + aislamiento de namespace
- Computer Use + SafetyPolicy
- Validación multimodal extendida
- Embeddings y caché
- Sistema de plugins
- 185+ tests, publicado en Crates.io
ai-lib-python
Runtime Python amigable para desarrolladores. Códigos de error estándar V2, extras por capacidad, soporte async completo, tipos Pydantic v2 y telemetría de producción.
- ProviderDriver (OpenAI/Anthropic/Gemini)
- MCP tool bridge + aislamiento de namespace
- Computer Use + SafetyPolicy
- Extras STT/TTS/Rerank
- Seguridad de tipos Pydantic v2
- Enrutamiento y balanceo de carga de modelos
- 75+ tests V2, publicado en PyPI
ai-lib-ts
Runtime TypeScript/Node.js para el ecosistema npm. Impulsado por protocolo, streaming-first, con Resilience, Routing, MCP y soporte multimodal.
- Parsing de manifiestos V2 + códigos de error estándar
- Resilience (Retry, CircuitBreaker, RateLimiter, Backpressure)
- ModelManager + CostBasedSelector + FallbackChain
- SttClient, TtsClient, RerankerClient
- McpToolBridge, EmbeddingClient, Plugins
- BatchExecutor + PreflightChecker
- fetch nativo, publicado en npm
Proyectos de referencia
Aplicaciones de referencia construidas sobre el ecosistema AI-Lib — ve el protocolo y los runtimes en acción.
AI Debate
Arena de debate AI multi-modelo. Pro vs Con en cuatro rondas, luego un Juez emite el veredicto. Construido con ai-lib-rust y ai-protocol.
- Flujo de debate en 4 rondas (Apertura → Refutación → Defensa → Cierre → Veredicto)
- Búsqueda web vía Tavily (opcional)
- Multi-proveedor: DeepSeek, Zhipu, Groq, Mistral, OpenAI, Anthropic
- Fallback automático, streaming SSE en tiempo real
- Axum + SQLite, UI oscura moderna
ZeroSpider
Runtime de agente AI autónomo impulsado por protocolo. Selección inteligente de modelos, negociación multi-modelo e integración de hardware.
- Proveedores impulsados por protocolo vía ai-lib-rust + ai-protocol
- Enrutamiento inteligente: coste, velocidad, calidad, fiabilidad
- Negociación multi-modelo y ejecución paralela de tareas
- Canales: Telegram, Discord, Matrix
- Despliegue remoto, hardware (GPIO, STM32)
Diseño impulsado por protocolo
«Toda la lógica son operadores, toda la configuración es protocolo.» Todo el comportamiento del proveedor se declara en YAML — los runtimes contienen cero lógica hardcodeada de proveedores.
Configuración declarativa
Endpoints de proveedores, autenticación, mapeos de parámetros, decodificadores de streaming y manejo de errores — todo declarado en manifiestos YAML, validado por JSON Schema.
Pipeline basado en operadores
Las respuestas en streaming fluyen por operadores componibles: Decoder, Selector, Accumulator, FanOut, EventMapper. Cada operador es impulsado por el protocolo.
Listo para recarga en caliente
Actualiza la configuración de proveedores sin reiniciar. Los cambios de protocolo se propagan automáticamente a los runtimes. Añade nuevos proveedores por configuración, no por código.
Arquitectura del ecosistema
Tres capas trabajando juntas — la especificación define las reglas, los runtimes las ejecutan, las aplicaciones consumen interfaces unificadas.
Cómo funciona
Desde la petición del usuario hasta eventos de streaming unificados — cada paso es impulsado por el protocolo.
Elige tu runtime
Mismo protocolo, diferentes fortalezas. Elige el runtime que encaje con tu stack.
| Capacidad | AI-Protocol | Rust SDK | Python SDK | TypeScript SDK |
|---|---|---|---|---|
| Sistema de tipos | JSON Schema | Tiempo de compilación (Rust) | Tiempo de ejecución (Pydantic v2) | Tiempo de compilación (TypeScript) |
| Streaming | Especificación SSE/NDJSON | tokio async streams | async generators | AsyncIterator + fetch |
| Resiliencia | Especificación de política de reintentos | Circuit breaker, rate limiter, backpressure | ResilientExecutor con todos los patrones | RetryPolicy, CircuitBreaker, RateLimiter |
| V2 Driver | Especificación ProviderContract | Box<dyn ProviderDriver> | ProviderDriver ABC | ManifestV2 + HttpTransport |
| MCP | Esquema mcp.json | McpToolBridge | McpToolBridge | McpToolBridge |
| Computer Use | Esquema computer-use.json | ComputerAction + SafetyPolicy | ComputerAction + SafetyPolicy | — |
| Multimodal | Esquema multimodal.json | MultimodalCapabilities | MultimodalCapabilities | SttClient, TtsClient, RerankerClient |
| Embeddings | — | Operaciones vectoriales, similitud | Operaciones vectoriales, similitud | EmbeddingClient |
| Distribución | GitHub / npm | Crates.io | PyPI | npm |
| Ideal para | Especificación y estándares | Sistemas, crítico para rendimiento | ML, ciencia de datos, prototipado | Node.js, ecosistema npm, full-stack |
37 proveedores de IA soportados
Todo impulsado por configuración de protocolo — cero lógica hardcodeada. 6 manifiestos V2 con declaraciones MCP/CU/Multimodal.
Proveedores globales
Región de China
¿Listo para empezar?
Lee la documentación, elige tu runtime (Rust, Python o TypeScript) y empieza a desarrollar con 37 proveedores de IA hoy mismo.