Mashintoch は、コンピュータが視覚データを認識し、文脈を解釈して意味を抽出できるようにすることを目的としたマシンパーチェプション(機械知覚)のプラットフォームです。物体検出の基本機能を超えて、認識、追跡、シーン理解などのリアルタイムビジョン機能に重点を置いています。本システムは、モバイルファーストかつオフラインファーストの考え方で設計されており、エッジデバイスや性能制約のあるハードウェアをサポートするよう、実世界の環境で動作するように構築されています。
製品群には、空間マッピング、自律ナビゲーション、開発者向けツールに加え、Chatterly — 視覚的知覚と自然な会話を融合させる音声主体のAIコホスト — も含まれます。Mashintoch は、ロボティクスチーム、カスタムビジョンワークフローを開発するエンジニア、コンテンツやライブ環境でマルチモーダルインタラクションを必要とするクリエイターを対象としています。
| モジュール | 目的 |
|---|---|
| Spatial Intelligence | リアルタイムでの環境マッピングと解釈 |
| Autonomous Systems | ロボット、ドローン、機械向けの視覚認知 |
| Perception Engine | 認識、追跡、シーン理解 |
| Vision SDK | カスタムビジョンワークフローの構築、カスタマイズ、展開のためのツール |
| Edge Vision | 制約のあるハードウェアおよびモバイルコンピューティング向けの軽量かつオンデバイスの知覚処理 |
| Cognitive Models | 文脈、意味、意図に焦点を当てたビジョンモデル |
| Chatterly | 視覚的知覚と自然な会話を組み合わせる音声主体のコホスト |
Mashintoch は、視覚入力を処理し、シーンを構造的に理解するモジュール型アーキテクチャを提供します。Perception Engine は、認識、追跡、文脈抽出といったコアタスクを実行します。Spatial Intelligence は周囲をマッピング・解釈することで環境認識を生成し、Cognitive Models は物体だけでなくその意味や意図を解釈することを目指しています。
開発者は Vision SDK を通じてこれらの機能を統合できます。Edge Vision を使用することで、低遅延かつオフラインでの動作が可能なオンデバイス実行が可能になります。接続が可能な場合はクラウドサービスと組み合わせることもできます。自律システムでは、知覚結果が出力され、ナビゲーションおよび意思決定レイヤーに供給されます。Chatterly は視覚的知覚と音声インタラクションを融合し、ポッドキャストやストリーミングなどライブコンテンツの場面で、会話中に文脈を持続させながら支援を行います。
Mashintoch は、信頼性の高いリアルタイム視覚理解が求められる実用的な展開をサポートします。
設計理念としては、ピクセルレベルの検出を超えて文脈的理解を追求するとともに、実世界での利用にふさわしい安定性と安全性を重視しています。