ワンプロトコル、
すべてのAIプロバイダー。
AI-Lib はAIモデルのインタラクションを標準化するオープンソースエコシステムです。V2プロトコルでMCP、Computer Use、マルチモーダルをサポート — 37プロバイダー、3つのランタイム、ハードコードロジックゼロ。
5つのプロジェクト、1つのエコシステム
仕様レイヤーがルールを定義し、3つのランタイム実装(Rust、Python、TypeScript)がそれを実現します。
AI-Protocol
V2仕様:三リングマニフェスト、MCP、Computer Use、マルチモーダルスキーマ——ハードコードされたロジックは一切ありません。
- 37プロバイダーマニフェスト (6 V2 + 36 V1)
- STT/TTS/Rerank マニフェスト(Jina、OpenAI、Cohere)
- MCP / CU / マルチモーダルスキーマ
- CLI検証ツール
- ホットリロード可能な設定
ai-lib-rust
高性能Rustランタイム。V2標準エラーコード、機能フラグ、オペレータベースのストリーミングパイプライン、コンパイル時安全性、サブミリ秒オーバーヘッド。
- ProviderDriver(OpenAI/Anthropic/Gemini)
- MCPツールブリッジ + 名前空間分離
- Computer Use + SafetyPolicy
- 拡張マルチモーダル検証
- 埋め込みとキャッシュ
- プラグインシステム
- 185+ テスト、Crates.ioで公開
ai-lib-python
開発者フレンドリーなPythonランタイム。V2標準エラーコード、機能ベースのエクストラ、完全な非同期サポート、Pydantic v2型、本番グレードのテレメトリ。
- ProviderDriver(OpenAI/Anthropic/Gemini)
- MCPツールブリッジ + 名前空間分離
- Computer Use + SafetyPolicy
- STT/TTS/Rerank エクストラ
- Pydantic v2型安全性
- モデルルーティングとロードバランシング
- 75+ V2テスト、PyPIで公開
ai-lib-ts
TypeScript/Node.jsランタイム、npmエコシステム向け。プロトコル駆動、ストリーミングファースト、Resilience、Routing、MCP、マルチモーダル対応。
- V2マニフェスト解析 + 標準エラーコード
- Resilience(Retry、CircuitBreaker、RateLimiter、Backpressure)
- ModelManager + CostBasedSelector + FallbackChain
- SttClient、TtsClient、RerankerClient
- McpToolBridge、EmbeddingClient、Plugins
- BatchExecutor + PreflightChecker
- ネイティブfetch、npmで公開
開発ツール
ショーケースプロジェクト
AI-Libエコシステム上に構築されたリファレンスアプリケーション——プロトコルとランタイムの実践例。
AI Debate
マルチモデルAIディベートアリーナ。賛成 vs 反対が4ラウンドで議論し、審判が判定。ai-lib-rustとai-protocolで構築。
- 4ラウンドディベート(開陳→反論→防御→結論→判定)
- TavilyによるWeb検索ツール呼び出し(オプション)
- マルチプロバイダー:DeepSeek、智譜、Groq、Mistral、OpenAI、Anthropic
- 自動フォールバック、リアルタイムSSEストリーミング
- Axum + SQLite、モダンなダークUI
ZeroSpider
プロトコル駆動の自律AIエージェントランタイム。インテリジェントなモデル選択、マルチモデルネゴシエーション、ハードウェア統合。
- ai-lib-rust + ai-protocolによるプロトコル駆動プロバイダー
- スマートルーティング:コスト、速度、品質、信頼性
- マルチモデルネゴシエーションと並列タスク実行
- チャネル:Telegram、Discord、Matrix
- リモートデプロイ、ハードウェア(GPIO、STM32)
プロトコル駆動設計
「すべてのロジックはオペレータ、すべての設定はプロトコル。」すべてのプロバイダーの挙動はYAMLで宣言——ランタイムにはハードコードされたプロバイダーロジックはゼロです。
宣言的設定
プロバイダーエンドポイント、認証、パラメータマッピング、ストリーミングデコーダー、エラーハンドリング——すべてYAMLマニフェストで宣言され、JSON Schemaで検証されます。
オペレータベースパイプライン
ストリーミングレスポンスは構成可能なオペレータを通過します:Decoder、Selector、Accumulator、FanOut、EventMapper。各オペレータはプロトコル駆動です。
ホットリロード対応
再起動なしでプロバイダー設定を更新。プロトコル変更はランタイムに自動伝播。設定で新プロバイダーを追加、コードは不要。
エコシステムアーキテクチャ
3つのレイヤーが連携——仕様がルールを定義し、ランタイムが実行し、アプリケーションが統一インターフェースを消費します。
しくみ
ユーザーリクエストから統一ストリーミングイベントまで——すべてのステップがプロトコル駆動です。
ランタイムを選ぶ
同じプロトコル、異なる強み。スタックに合うランタイムを選んでください。
| 機能 | AI-Protocol | Rust SDK | Python SDK | TypeScript SDK |
|---|---|---|---|---|
| 型システム | JSON Schema | コンパイル時(Rust) | 実行時(Pydantic v2) | コンパイル時(TypeScript) |
| ストリーミング | SSE/NDJSON 仕様 | tokio async streams | async generators | AsyncIterator + fetch |
| レジリエンス | リトライポリシー仕様 | サーキットブレーカー、レートリミッター、バックプレッシャー | 全パターン対応 ResilientExecutor | RetryPolicy、CircuitBreaker、RateLimiter |
| V2ドライバー | ProviderContract仕様 | Box<dyn ProviderDriver> | ProviderDriver ABC | ManifestV2 + HttpTransport |
| MCP | mcp.json スキーマ | McpToolBridge | McpToolBridge | McpToolBridge |
| Computer Use | computer-use.jsonスキーマ | ComputerAction + SafetyPolicy | ComputerAction + SafetyPolicy | — |
| マルチモーダル | multimodal.jsonスキーマ | MultimodalCapabilities | MultimodalCapabilities | SttClient、TtsClient、RerankerClient |
| 埋め込み | — | ベクトル演算、類似度 | ベクトル演算、類似度 | EmbeddingClient |
| 配布 | GitHub / npm | Crates.io | PyPI | npm |
| 最適な用途 | 仕様と標準 | システム、パフォーマンス重視 | ML、データサイエンス、プロトタイピング | Node.js、npmエコシステム、フルスタック |
37のAIプロバイダーに対応
すべてプロトコル構成で駆動 — プロバイダーへのハードコードロジックはゼロ。6つのV2マニフェストがMCP/CU/マルチモーダルをサポート。
グローバルプロバイダー
中国リージョン
始める準備はできましたか?
ドキュメントを読み、ランタイム(Rust、Python、TypeScript)を選び、今日から37のAIプロバイダーで開発を始めましょう。