OLLM.COMの紹介
OLLM.COMは、複数の大規模言語モデル(LLM)プロバイダーを単一APIで統合する、プライバシーを最優先に設計されたAIゲートウェイです。強力なプライバシー保証、データ制御、および標準的なゼロデータ保持インフラと機密計算(confidential computing)のいずれかを選択できる環境を求める企業や開発者向けに設計されています。
このプラットフォームはゼロナレッジアーキテクチャを採用しており、顧客の入力データについて一切の可視性を持たず、データを保持せず、学習用途にも使用しません。処理中の暗号化を必要とするワークロードに対しては、Intel SGXやNVIDIA機密計算などの信頼できる実行環境(TEE)上で機密計算をサポートし、リクエストがTEE内部で処理されたことを暗号的に証明します。
主なポイント
- 複数プロバイダーにわたるLLMの厳選されたカタログにルーティング可能な単一API
- ゼロナレッジ設計:データの可視性なし、データ保持なし、顧客入力の学習利用禁止
- セキュリティモードの選択可能:標準ゼロデータ保持または処理中の暗号化に対応した機密計算
- TEE対応(例:Intel SGX、NVIDIA)およびエンクレーブ内処理の暗号的証明の提供
- データは転送中・保存時だけでなく、処理中も暗号化された状態で維持
- Roo Code、Cline、Cursor、Windsurf、VS Code、Replitなど一般的な開発ツールとの連携
- DeepSeek 3.2、GLM 4.6、Qwen3、GPT-OSS-120Bなどのモデルを提供。追加モデル(例:GPT5、Claude 4.5、Grok 4、Gemini 3)は「近日登場」
- 使用量ベースの課金方式でクレジット制を採用し、リアルタイムでのスケーリングが可能
OLLM.COMの仕組み
OLLM.COMは、各リクエストに対してモデルとセキュリティモードを選択できる統一APIを提供します。標準モードでは、プラットフォームはゼロデータ保持を強制し、学習利用を防止しつつ、転送中および保存時の暗号化を維持します。機密計算モードでは、リクエストが信頼できる実行環境(TEE)内で処理されるため、ホスト側に平文が露出することなく、処理中の暗号化が実現されます。
TEE内での処理後、OLLM.COMはリクエストがエンクレーブ内部で実行されたことを示す暗号的証拠を提供することで、検証可能なプライバシーを実現します。このプラットフォームは人気の開発ツールと統合されており、新しいIDEやカスタム設定を導入することなくチームでの利用が可能です。また、OLLMは継続的な開発ワークフローを支援するため、「Origin」機能によるインテリジェントな自動化と永続的なコンテキスト管理にも対応しています。
主な利点と用途
- プライバシーを保護したAIアクセス:複数のLLMにルーティングしながら、データの可視性と保持を完全に回避
- 検証可能な処理:リクエストがTEE内で処理されたことを暗号的に証明可能
- 統一された統合:単一APIと使い慣れた開発ツールを使用して、モデルのテスト、比較、展開を一貫して実施
- 柔軟なセキュリティ体制:汎用用途には標準ZDRを、処理中の暗号化が必要な用途には機密計算を選択可能
- 具体的な利用例:社内アシスタント、IDE内コーディング支援、ナレッジ検索パイプライン、データ機密性が必須なマルチモデル評価
- 利用可能なモデル:DeepSeek 3.2、GLM 4.6、Qwen3、GPT-OSS-120Bなど。今後登場予定のモデルも多数