AI-Lib
Ecosistema de código abierto

Un protocolo,
todos los proveedores de IA.

AI-Lib es un ecosistema de código abierto que estandariza las interacciones con modelos de IA. Protocolo V2 con MCP, Computer Use y multimodal — 37 proveedores, tres runtimes, cero lógica hardcodeada.

37
Proveedores IA
5
Proyectos
0
Lógica hardcodeada
3
Runtimes

5 proyectos, 1 ecosistema

Una capa de especificación define las reglas. Tres implementaciones de runtime (Rust, Python, TypeScript) las hacen realidad.

v0.7.6

AI-Protocol

Especificación V2 con manifiestos de tres anillos, MCP, Computer Use y multimodal — sin lógica hardcodeada.

  • 37 manifiestos (6 V2 + 36 V1)
  • STT/TTS/Rerank en manifiestos (Jina, OpenAI, Cohere)
  • Schemas MCP / CU / Multimodal
  • Herramienta CLI de validación
  • Configuración recargable en caliente
v0.8.5

ai-lib-rust

Runtime Rust de alto rendimiento. Códigos de error estándar V2, flags de características, pipeline de streaming basado en operadores, seguridad en tiempo de compilación y sobrecarga submilisegundo.

  • ProviderDriver (OpenAI/Anthropic/Gemini)
  • MCP tool bridge + aislamiento de namespace
  • Computer Use + SafetyPolicy
  • Validación multimodal extendida
  • Embeddings y caché
  • Sistema de plugins
  • 185+ tests, publicado en Crates.io
v0.7.4

ai-lib-python

Runtime Python amigable para desarrolladores. Códigos de error estándar V2, extras por capacidad, soporte async completo, tipos Pydantic v2 y telemetría de producción.

  • ProviderDriver (OpenAI/Anthropic/Gemini)
  • MCP tool bridge + aislamiento de namespace
  • Computer Use + SafetyPolicy
  • Extras STT/TTS/Rerank
  • Seguridad de tipos Pydantic v2
  • Enrutamiento y balanceo de carga de modelos
  • 75+ tests V2, publicado en PyPI
v0.4.0

ai-lib-ts

Runtime TypeScript/Node.js para el ecosistema npm. Impulsado por protocolo, streaming-first, con Resilience, Routing, MCP y soporte multimodal.

  • Parsing de manifiestos V2 + códigos de error estándar
  • Resilience (Retry, CircuitBreaker, RateLimiter, Backpressure)
  • ModelManager + CostBasedSelector + FallbackChain
  • SttClient, TtsClient, RerankerClient
  • McpToolBridge, EmbeddingClient, Plugins
  • BatchExecutor + PreflightChecker
  • fetch nativo, publicado en npm

Diseño impulsado por protocolo

«Toda la lógica son operadores, toda la configuración es protocolo.» Todo el comportamiento del proveedor se declara en YAML — los runtimes contienen cero lógica hardcodeada de proveedores.

Configuración declarativa

Endpoints de proveedores, autenticación, mapeos de parámetros, decodificadores de streaming y manejo de errores — todo declarado en manifiestos YAML, validado por JSON Schema.

Pipeline basado en operadores

Las respuestas en streaming fluyen por operadores componibles: Decoder, Selector, Accumulator, FanOut, EventMapper. Cada operador es impulsado por el protocolo.

Listo para recarga en caliente

Actualiza la configuración de proveedores sin reiniciar. Los cambios de protocolo se propagan automáticamente a los runtimes. Añade nuevos proveedores por configuración, no por código.

Arquitectura del ecosistema

Tres capas trabajando juntas — la especificación define las reglas, los runtimes las ejecutan, las aplicaciones consumen interfaces unificadas.

AI-Lib Ecosystem Architecture APPLICATION RUNTIME PROTOCOL Web Apps / API Services Rust / Python / TS Your application code AI Agents Multi-turn / Tool Calling CLI Tools Batch / Data Pipelines Testing & Dev Mock Services ai-lib-rust v0.8.5 AiClient Pipeline Transport Resilience Embeddings Cache / Batch Crates.io · tokio + reqwest · <1ms overhead ai-lib-python v0.7.4 AiClient Pipeline Transport Resilience Telemetry Routing PyPI · httpx + Pydantic v2 · async/await ai-lib-ts v0.4.0 AiClient Pipeline Transport Resilience MCP Bridge Batch NPM · fetch + Zod · ESM / CJS Load Manifests AI-Protocol v0.7.6 spec.yaml Core Specification providers/*.yaml 37 Provider Manifests models/*.yaml Model Registry YAML definitions → JSON compilation → Runtime consumption · Vendor neutral ai-protocol-mock v0.1.7 Mock Server Local Testing Record/Replay Snapshot Tests Protocol Compliance Check Dev Testing · CI/CD · No real API needed mock

Cómo funciona

Desde la petición del usuario hasta eventos de streaming unificados — cada paso es impulsado por el protocolo.

Request-Response Data Flow REQUEST FLOW → User chat() AiClient UnifiedRequest Protocol compile_request() Transport HTTP POST AI Provider OpenAI, etc. ← RESPONSE FLOW (SSE/JSON) Byte Stream SSE / NDJSON Decoder JSON Frames Pipeline Select → Accumulate → Map EventMapper StreamingEvent Application Unified Events All parameter mapping and event normalization driven by protocol manifests — zero hardcoded logic Unified events: PartialContentDelta · ToolCallStarted · PartialToolCall · StreamEnd

Elige tu runtime

Mismo protocolo, diferentes fortalezas. Elige el runtime que encaje con tu stack.

Capacidad AI-Protocol Rust SDK Python SDK TypeScript SDK
Sistema de tipos JSON Schema Tiempo de compilación (Rust) Tiempo de ejecución (Pydantic v2) Tiempo de compilación (TypeScript)
Streaming Especificación SSE/NDJSON tokio async streams async generators AsyncIterator + fetch
Resiliencia Especificación de política de reintentos Circuit breaker, rate limiter, backpressure ResilientExecutor con todos los patrones RetryPolicy, CircuitBreaker, RateLimiter
V2 Driver Especificación ProviderContract Box<dyn ProviderDriver> ProviderDriver ABC ManifestV2 + HttpTransport
MCP Esquema mcp.json McpToolBridge McpToolBridge McpToolBridge
Computer Use Esquema computer-use.json ComputerAction + SafetyPolicy ComputerAction + SafetyPolicy
Multimodal Esquema multimodal.json MultimodalCapabilities MultimodalCapabilities SttClient, TtsClient, RerankerClient
Embeddings Operaciones vectoriales, similitud Operaciones vectoriales, similitud EmbeddingClient
Distribución GitHub / npm Crates.io PyPI npm
Ideal para Especificación y estándares Sistemas, crítico para rendimiento ML, ciencia de datos, prototipado Node.js, ecosistema npm, full-stack

37 proveedores de IA soportados

Todo impulsado por configuración de protocolo — cero lógica hardcodeada. 6 manifiestos V2 con declaraciones MCP/CU/Multimodal.

Proveedores globales

OpenAI OpenAI
Anthropic Anthropic
Google Gemini Google Gemini
Groq Groq
Mistral Mistral
Cohere Cohere
Azure OpenAI Azure OpenAI
Together AI Together AI
Hugging Face Hugging Face
Grok Grok
Ollama Ollama
D
DeepInfra
O
OpenRouter
N
NVIDIA
F
Fireworks
R
Replicate
A
AI21 Labs
C
Cerebras
P
Perplexity
L
Lepton AI

Región de China

DeepSeek DeepSeek
Qwen Qwen
D
Doubao
Z
Zhipu GLM
Baidu ERNIE Baidu ERNIE
Tencent Hunyuan Tencent Hunyuan
iFlytek Spark iFlytek Spark
Moonshot Moonshot
M
MiniMax
B
Baichuan
Y
Yi / 01.AI
S
SiliconFlow
S
SenseNova
T
Tiangong

¿Listo para empezar?

Lee la documentación, elige tu runtime (Rust, Python o TypeScript) y empieza a desarrollar con 37 proveedores de IA hoy mismo.