optimlは、本番環境向けAIワークフローのための制御レイヤーです。テキスト、画像、音声、ビジョンを含むマルチモーダルなAIパイプラインを、単一かつ安定したAPIエンドポイントの背後でデプロイすることを可能にします。複数のAIプロバイダーを手動で統合したり、ルーティングロジックを実装したり、評価基盤やフォールバックインフラを構築する代わりに、チームはoptimlを用いてエンドツーエンドのワークフローを本番環境でオーケストレーション、バージョン管理、および観測できます。
このプラットフォームは、信頼性、観測可能性、運用上の柔軟性を必要とし、カスタムオーケストレーションインフラを管理したくないソフトウェアエンジニア、MLエンジニア、およびAI機能を提供する製品チームを対象としています。プロバイダー固有のAPI差異を抽象化しつつ、ルーティング、フォールバックポリシー、品質保証に関する完全な制御を維持します。
stream: trueまたはconversation_idパラメーターで会話コンテキストを自動管理ユーザーは、プロンプト強化、LLM推論、画像生成、ビジョン分析などの順次的または条件分岐型ステップから構成されるAIワークフローを、ビジュアルまたはプログラム方式で定義します。各ステップにはプロバイダー、モデル、入出力マッピングを指定します。デプロイ時にoptimlはワークフローを永続的かつバージョン管理されたエンドポイント(例:https://api.optiml.ai/api/public/acme/support-bot)として公開します。
実行時には、各リクエストがトレース可能な実行パスを生成します。optimlは各ノードを設定済みプロバイダーにルーティングし、認証とペイロード変換を処理し、有効な場合はレスポンスをストリーミングし、指定があれば会話コンテキストを維持し、各ステップのメトリクス(タイムスタンプ、コスト、トークン数、プロバイダー/モデル識別子、コンテンツタイプ)および生出力を記録します(base64エンコードされた画像や音声を含む)。
バージョン管理、実験、ロールバックはプラットフォームの制御プレーンで実施されます。A/Bテストのためにトラフィックをバージョン間で分割可能であり、評価ゲートにより品質しきい値を満たすまでバージョン昇格をブロックできます。また、ユーザー定義の条件(例:エラー率が5%を超えた場合)が満たされると、自動ロールバックが起動します。これらの操作にはクライアントコードの変更は一切不要です。
optimlは、本番環境でAI機能を提供するチームの運用負荷を低減します。代表的なユースケースには、返金関連クエリを専用モデルへルーティングするカスタマーサポートボット、プロンプト強化→画像生成→キャプション出力という一連のマルチモーダルコンテンツ作成パイプライン、およびbase64エンコード画像を受信して構造化回答と信頼度スコアを返すエンタープライズ向けビジョン分析サービスがあります。
デプロイ、制御、観測を統合することで、optimlはAI API間のカスタム結合コードの必要性を排除します。チームはプロバイダーやモデルの柔軟性を維持でき、モデルやベンダーの切り替えは設定変更のみで完了します。また、ステップ単位のコスト追跡により財務的可視性も得られます。さらに、監査対応可能なトレース、バージョン履歴、決定論的な評価ワークフローを通じて、コンプライアンスおよびガバナンス要件にも応えます。
| プラン | 月間リクエスト数 | プロジェクト数 | ワークフロー数 | 主な機能 |
|---|---|---|---|---|
| 無料版 | 1,000 | 2 | 5 | 全プロバイダー対応、ストリーミング、会話状態管理、コミュニティサポート |
| スタートアップ | 50,000 | 10 | 25 | A/Bテスト、AI自動採点、ロールバック+バージョン履歴 |
| チーム | 500,000 | 無制限 | 無制限 | カスタムルーティングポリシー、モデル比較、予算制御 |
| エンタープライズ | カスタム | 無制限 | 無制限 | SSO/SAML、監査ログ、カスタムSLA、専任サポート |