AI-Lib
オープンソースエコシステム

ワンプロトコル、
すべてのAIプロバイダー。

AI-Lib はAIモデルのインタラクションを標準化するオープンソースエコシステムです。V2プロトコルでMCP、Computer Use、マルチモーダルをサポート — 37プロバイダー、3つのランタイム、ハードコードロジックゼロ。

37
AIプロバイダー
5
プロジェクト
0
ハードコード
3
ランタイム

5つのプロジェクト、1つのエコシステム

仕様レイヤーがルールを定義し、3つのランタイム実装(Rust、Python、TypeScript)がそれを実現します。

v0.7.6

AI-Protocol

V2仕様:三リングマニフェスト、MCP、Computer Use、マルチモーダルスキーマ——ハードコードされたロジックは一切ありません。

  • 37プロバイダーマニフェスト (6 V2 + 36 V1)
  • STT/TTS/Rerank マニフェスト(Jina、OpenAI、Cohere)
  • MCP / CU / マルチモーダルスキーマ
  • CLI検証ツール
  • ホットリロード可能な設定
v0.8.5

ai-lib-rust

高性能Rustランタイム。V2標準エラーコード、機能フラグ、オペレータベースのストリーミングパイプライン、コンパイル時安全性、サブミリ秒オーバーヘッド。

  • ProviderDriver(OpenAI/Anthropic/Gemini)
  • MCPツールブリッジ + 名前空間分離
  • Computer Use + SafetyPolicy
  • 拡張マルチモーダル検証
  • 埋め込みとキャッシュ
  • プラグインシステム
  • 185+ テスト、Crates.ioで公開
v0.7.4

ai-lib-python

開発者フレンドリーなPythonランタイム。V2標準エラーコード、機能ベースのエクストラ、完全な非同期サポート、Pydantic v2型、本番グレードのテレメトリ。

  • ProviderDriver(OpenAI/Anthropic/Gemini)
  • MCPツールブリッジ + 名前空間分離
  • Computer Use + SafetyPolicy
  • STT/TTS/Rerank エクストラ
  • Pydantic v2型安全性
  • モデルルーティングとロードバランシング
  • 75+ V2テスト、PyPIで公開
v0.4.0

ai-lib-ts

TypeScript/Node.jsランタイム、npmエコシステム向け。プロトコル駆動、ストリーミングファースト、Resilience、Routing、MCP、マルチモーダル対応。

  • V2マニフェスト解析 + 標準エラーコード
  • Resilience(Retry、CircuitBreaker、RateLimiter、Backpressure)
  • ModelManager + CostBasedSelector + FallbackChain
  • SttClient、TtsClient、RerankerClient
  • McpToolBridge、EmbeddingClient、Plugins
  • BatchExecutor + PreflightChecker
  • ネイティブfetch、npmで公開

プロトコル駆動設計

「すべてのロジックはオペレータ、すべての設定はプロトコル。」すべてのプロバイダーの挙動はYAMLで宣言——ランタイムにはハードコードされたプロバイダーロジックはゼロです。

宣言的設定

プロバイダーエンドポイント、認証、パラメータマッピング、ストリーミングデコーダー、エラーハンドリング——すべてYAMLマニフェストで宣言され、JSON Schemaで検証されます。

オペレータベースパイプライン

ストリーミングレスポンスは構成可能なオペレータを通過します:Decoder、Selector、Accumulator、FanOut、EventMapper。各オペレータはプロトコル駆動です。

ホットリロード対応

再起動なしでプロバイダー設定を更新。プロトコル変更はランタイムに自動伝播。設定で新プロバイダーを追加、コードは不要。

エコシステムアーキテクチャ

3つのレイヤーが連携——仕様がルールを定義し、ランタイムが実行し、アプリケーションが統一インターフェースを消費します。

AI-Lib Ecosystem Architecture APPLICATION RUNTIME PROTOCOL Web Apps / API Services Rust / Python / TS Your application code AI Agents Multi-turn / Tool Calling CLI Tools Batch / Data Pipelines Testing & Dev Mock Services ai-lib-rust v0.8.5 AiClient Pipeline Transport Resilience Embeddings Cache / Batch Crates.io · tokio + reqwest · <1ms overhead ai-lib-python v0.7.4 AiClient Pipeline Transport Resilience Telemetry Routing PyPI · httpx + Pydantic v2 · async/await ai-lib-ts v0.4.0 AiClient Pipeline Transport Resilience MCP Bridge Batch NPM · fetch + Zod · ESM / CJS Load Manifests AI-Protocol v0.7.6 spec.yaml Core Specification providers/*.yaml 37 Provider Manifests models/*.yaml Model Registry YAML definitions → JSON compilation → Runtime consumption · Vendor neutral ai-protocol-mock v0.1.7 Mock Server Local Testing Record/Replay Snapshot Tests Protocol Compliance Check Dev Testing · CI/CD · No real API needed mock

しくみ

ユーザーリクエストから統一ストリーミングイベントまで——すべてのステップがプロトコル駆動です。

Request-Response Data Flow REQUEST FLOW → User chat() AiClient UnifiedRequest Protocol compile_request() Transport HTTP POST AI Provider OpenAI, etc. ← RESPONSE FLOW (SSE/JSON) Byte Stream SSE / NDJSON Decoder JSON Frames Pipeline Select → Accumulate → Map EventMapper StreamingEvent Application Unified Events All parameter mapping and event normalization driven by protocol manifests — zero hardcoded logic Unified events: PartialContentDelta · ToolCallStarted · PartialToolCall · StreamEnd

ランタイムを選ぶ

同じプロトコル、異なる強み。スタックに合うランタイムを選んでください。

機能 AI-Protocol Rust SDK Python SDK TypeScript SDK
型システム JSON Schema コンパイル時(Rust) 実行時(Pydantic v2) コンパイル時(TypeScript)
ストリーミング SSE/NDJSON 仕様 tokio async streams async generators AsyncIterator + fetch
レジリエンス リトライポリシー仕様 サーキットブレーカー、レートリミッター、バックプレッシャー 全パターン対応 ResilientExecutor RetryPolicy、CircuitBreaker、RateLimiter
V2ドライバー ProviderContract仕様 Box<dyn ProviderDriver> ProviderDriver ABC ManifestV2 + HttpTransport
MCP mcp.json スキーマ McpToolBridge McpToolBridge McpToolBridge
Computer Use computer-use.jsonスキーマ ComputerAction + SafetyPolicy ComputerAction + SafetyPolicy
マルチモーダル multimodal.jsonスキーマ MultimodalCapabilities MultimodalCapabilities SttClient、TtsClient、RerankerClient
埋め込み ベクトル演算、類似度 ベクトル演算、類似度 EmbeddingClient
配布 GitHub / npm Crates.io PyPI npm
最適な用途 仕様と標準 システム、パフォーマンス重視 ML、データサイエンス、プロトタイピング Node.js、npmエコシステム、フルスタック

37のAIプロバイダーに対応

すべてプロトコル構成で駆動 — プロバイダーへのハードコードロジックはゼロ。6つのV2マニフェストがMCP/CU/マルチモーダルをサポート。

グローバルプロバイダー

OpenAI OpenAI
Anthropic Anthropic
Google Gemini Google Gemini
Groq Groq
Mistral Mistral
Cohere Cohere
Azure OpenAI Azure OpenAI
Together AI Together AI
Hugging Face Hugging Face
Grok Grok
Ollama Ollama
D
DeepInfra
O
OpenRouter
N
NVIDIA
F
Fireworks
R
Replicate
A
AI21 Labs
C
Cerebras
P
Perplexity
L
Lepton AI

中国リージョン

DeepSeek DeepSeek
Qwen Qwen
D
Doubao
Z
Zhipu GLM
Baidu ERNIE Baidu ERNIE
Tencent Hunyuan Tencent Hunyuan
iFlytek Spark iFlytek Spark
Moonshot Moonshot
M
MiniMax
B
Baichuan
Y
Yi / 01.AI
S
SiliconFlow
S
SenseNova
T
Tiangong

始める準備はできましたか?

ドキュメントを読み、ランタイム(Rust、Python、TypeScript)を選び、今日から37のAIプロバイダーで開発を始めましょう。