CHELAは、音声を主な入力手段とするパーソナル知識管理システムであり、生活および健康に関する情報を自然な話し言葉で記録・整理・検索することを目的としています。このプラットフォームは「外部記憶」として機能し、音声メモ、会話、周辺音声を含む音声入力をリアルタイムで文字起こしし、時刻、位置情報(今後提供予定)、画像データ(今後提供予定)、および健康指標(今後提供予定)といった文脈情報と関連付けます。対象ユーザーには、個人的な記録を体系的に管理したい個人、健康管理に配慮するユーザー、ミーティングやタスクを効率的に処理する専門職、家族単位でのスケジュールやタスクの調整を必要とする人々が含まれます。
CHELAは多言語対応であり、話された内容やテキスト入力から意図や感情的トーン、エンティティをリアルタイムで抽出します。Apple Healthとの連携により生体指標と日次記録を相関付け可能であり、自然言語によるクエリを用いた低遅延の情報検索を実現します。iOSおよびAndroid向けに提供されており、操作負荷を最小限に抑えた記録と即時の情報取得を重視しています。
CHELAは「受動的記録」「ニューラル処理」「即時再帰」の3段階で動作します。第1段階では、高品質な周辺音声記録が背景で実行され、時刻やデバイス状態などの文脈情報を自動的に付与しながら、手動操作なしで音声を収集します。第2段階では、独自の大規模言語モデルが音声ストリームを処理し、音声を文字起こし、ノイズを除去、固有名詞(人物・場所・製品など)を識別、暗黙のアクション(例:「リマインダーを設定」)を推定し、感情的トーンや意味的意図をマッピングします。第3段階では、処理済みデータがクエリ可能なニューラルグリッドに保存され、ユーザーは自然言語の質問(例:「先週デイブが言っていたレストランの名前は何ですか?」)や複雑なフィルター条件で特定の記憶を即座に検索できます。
このシステムは関連するエントリ間で永続的な記憶リンクを維持します。例えば、「レストランについての音声メモ」とその「所在地」および「その後のタスク」を相互に関連付けることで、時間軸に沿ったマルチモーダルな関連性を構築します。クエリは低遅延(例:14ミリ秒)で解決され、結果には信頼度スコアと日付・ソース・関連プロトコルなどのメタデータが付与されます。
CHELAは複数の実用領域で活用可能です。個人の健康管理では、水分摂取量、睡眠、食事などを音声で記録し、Apple Healthの生体指標と照合することができます。業務用途では、ミーティング中の発言を自動記録し、アクションアイテムを抽出・要約生成するため、手書きメモの負担を軽減します。家族では、共有カレンダーや家事タスクの調整を音声コマンドで行えます。また、個人的な内省的ジャーナリングやアイデアの即時記録、長期記憶の保存にも適しており、キーワードではなく意味に基づいて過去の記録を正確に検索できます。プロトコルベースの設計により、財務分析、場所関連リマインダー、複数ステップのタスク自動化など、特定のニーズに合わせたカスタマイズも可能です。
| プラン | 対象ユーザー | 音声文字起こし | インデックス可能文字数 | AIクエリトークン数 | 日当換算 |
|---|---|---|---|---|---|
| スターター | 個人利用者、新規ユーザー | 15時間/月 | 105万文字 | 150万トークン | 約25件/日 |
| プロ | パワーユーザー、小規模チーム | 60時間/月 | 420万文字 | 400万トークン | 約67件/日 |