AI-Lib
v0.4.0 · npm

Runtime TypeScript
para AI-Protocol.

Runtime TypeScript/Node.js impulsado por protocolo, streaming-first. Parsing de manifiestos V2, códigos de error estándar, patrones de Resilience, enrutamiento de modelos, puente MCP y soporte multimodal.

npm install
npm install @hiddenpath/ai-lib-ts

Características principales

Parsing de manifiestos V2

Parsear y cargar manifiestos de protocolo V2 con códigos de error estándar (13 códigos). Configuración agnóstica al proveedor, cero lógica hardcodeada.

Patrones de resiliencia

RetryPolicy, CircuitBreaker, RateLimiter y Backpressure integrados. PreflightChecker para control unificado de peticiones.

Enrutamiento de modelos

ModelManager con CostBasedSelector, QualityBasedSelector y FallbackChain. Selección inteligente de modelos para optimización de coste y calidad.

Soporte multimodal

SttClient para voz a texto, TtsClient para texto a voz, RerankerClient para reranking de documentos. Soporte completo de bloques de contenido multimodal.

Puente de herramientas MCP

Puente de herramientas MCP al formato AI-Protocol. Integración transparente de servidores MCP con interfaz unificada de llamada de herramientas.

Batch y plugins

BatchExecutor para procesamiento paralelo con concurrencia configurable. Sistema de plugins con hooks de intercepción de peticiones/respuestas.

API simple y unificada

El mismo código funciona con los 37 proveedores. Solo cambia el identificador del modelo — el manifiesto del protocolo se encarga del resto.

  • 1 Crear cliente con ID de modelo
  • 2 Construir petición de chat con API fluida
  • 3 Ejecutar o hacer streaming de la respuesta
chat.ts
import { AiClient, Message } from '@hiddenpath/ai-lib-ts';

const client = await AiClient.new('openai/gpt-4o');

const response = await client
  .chat([
    Message.system('You are helpful.'),
    Message.user('Hello!'),
  ])
  .temperature(0.7)
  .execute();

console.log(response.content);

Arquitectura interna

Arquitectura impulsada por protocolo con ejecución type-safe, resiliente por defecto y totalmente extensible.

ai-lib-ts Runtime Architecture Client Layer AiClient · Message · ChatRequestBuilder · ChatResponse Policy Engine PreflightChecker · Validator · FallbackChain Protocol Layer ProtocolLoader · Manifest · Validator Resilience Layer RateLimiter · Backpressure · Retry Streaming Pipeline Decoder Selector Accumulator FanOut EventMapper Transport Layer HttpTransport (undici/fetch) · Auth · Interceptors OpenAI · Anthropic · Gemini · DeepSeek · Qwen · 37 Providers

Resumen de módulos

client/ + errors/

AiClient, ChatRequestBuilder, ChatResponse, CallStats, CancelToken, CancellableStream, códigos de error unificados.

protocol/

ProtocolLoader (local/fetch/GitHub), definiciones de manifiesto V2, validador de JSON Schema, modelos agnósticos al proveedor.

pipeline/

Decoder (SSE, JSON Lines), Selector (JSONPath), Accumulator, FanOut, EventMapper (impulsado por protocolo).

resilience/

RetryPolicy, CircuitBreaker, RateLimiter, Backpressure, PreflightChecker, SignalsSnapshot, FallbackChain.

routing/

ModelManager, QualityBasedSelector, CostBasedSelector, FallbackChain para la selección inteligente de modelos.

mcp/

Definiciones de McpBridge, McpTool para integrar sin problemas servidores Model Context Protocol.

multimodal/

SttClient, TtsClient, RerankerClient, con soporte completo para entradas multimodales y modelos especializados.

plugins/ + batch/

PluginRegistry, Hooks. BatchExecutor para ejecución por lotes concurrente con límites de concurrencia.