On this page | |
Since | 19.0 |
このSOPは、ローカルネットワーク上で実行されているモーションキャプチャソフトウェアに繋がって、リアルタイムでモーション/フェースキャプチャデータを受信します。
この工程はデバイスによって異なりますが、一般的にまず最初に確認すべき事は、モーションキャプチャソフトウェアが起動していて、データがストリームされるようにセットアップされていることです。 次に、Houdiniで適切なデバイスを選択して、必要に応じてネットワーク設定を調整して、Connectボタンを押します。 すべてが上手く行けば、Houdiniでアニメーションするスケルトンが表示されるはずです(またはフェースキャプチャの場合、出力にはブレンドシェイプ値を示したDetailアトリビュートが含まれます)。
複数のアクターを制御したいのであれば、Mocap Stream SOPを複数配置して、それらのSOPを同じサーバーに接続してから、 出力したい目的のアクターをそれぞれ選択すると良いでしょう。
このノードの警告は、ネットワークの問題の診断に役立ちます。
他にも、このノードには入力データを記録するためのオプションがあって、記録したアニメーションを再生したり、モーションクリップを出力することができます。
Tip
Wi-Fiで遅延が発生している場合、代わりに直接イーサネット接続を使用してみてください。
Tip
接続に問題がある場合に詳細な情報を得たいのであれば、View Logパラメータをクリックしてみてください。
パラメータ ¶
Device ¶
Device
データの受信先のモーションキャプチャシステム。
Faceware Studio ¶
Faceware Studioからデータを受信します。 Faceware Studioでは、'Streaming Panel'を開く必要があります。 そのパネルでは、ポートとコントロールスキーマを選択することができます。 コントロールスキーマには、Houdiniへストリームされるブレンドシェイプセットを指定します。 必ずあなたのモデルにマッチしたブレンドシェイプセットを選択してください。 オプションを選択した後にストリームを有効にしてください。
Houdiniでは、選択したポートとFaceware Studioを起動しているマシンのアドレスを入力してConnectボタンを押します。
Live Link Face ¶
Unreal EngineのLive Link Face iOS Appからデータを受信します。 このappを開いて、設定に移り、最初の'Live Link'オプションを選択します。 次に、ターゲットを追加して、ストリームしたいHoudiniを起動しているマシンのIPを入力します。
次に、Houdiniで同じポートを選択してConnectボタンを押します。 視覚的な出力は、頭の回転の単一ポイントのみであり、Geometry Spreadsheetを確認すると、受信しているブレンドシェイプのウェイトが表示されます。
==== Optitrack (Motive) === (optitrack)
Perception Neuron (Axis Studio) ¶
Axis Studio(または以前のAxis Neuron)ソフトウェアに接続します。 Axis Studioでは、BVH Broadcasting設定を開きます。プロトコルとしてUDPを選択し、 宛先としてHoudiniを起動しているマシンのIPを入力します。
また、以下の設定が選択されていることを確認してください:
-
Rotation を'YXZ'、 Displacement チェックボックスをオン。
-
Frame Format を'Binary'。
-
Coordinate system を'NUE'。
一度ストリームが有効になれば、あとはHoudiniで同じポートを選択してConnectボタンを押すだけです。
Qualisys ¶
Qualisys Track Manager(QTM)ソフトウェアに接続します。
QTMでは、シーンを読み込んでから、'Real-Time Output'オプションをセットアップします。 それをするために、Project Optionsを開き、'Processing → Real-Time Output'ページに進みます。 このページでは、ストリーム用のポートを設定することができます。 デフォルトのポート番号を使用することを推奨します。
Houdiniでは、QTMでBase Portに選択したポート番号、QTMを起動しているマシンのIPアドレスを入力します。 次に、Connectボタンを押します。
Qualisys Track-Managerに戻って、シーンのリアルタイム出力を開始します。
Rokoko Studio ¶
Rokoko Studioソフトウェアに接続します。 Rokoko Studioでは、ライブストリーミングを有効にしてHoudiniを選択します。 Houdiniを起動しているマシンのIPと接続したいポートを入力します。 次に、Houdiniで同じポートを選択してConnectボタンを押します。
Vicon (Shogun) ¶
ViconのShogunソフトウェアに接続します。現在のところ、Shogun内で選択可能なオプションはありません。 Houdiniでは、ポートをデフォルトのままにして、Houdiniを起動しているマシンのIPを入力してください。 後はConnectボタンを押すだけです。
Xsens MVN ¶
Xsens MVNソフトウェアからデータを受信します。 MVNでは、データストリーミングペインを開いて、新しい宛先を追加し、Houdiniを起動しているマシンのIP、ストリームしたいポート、UDPプロトコルを入力します。 デフォルトのオプション(ポジションとクォータニオン、キャラクタメタデータ、スケーリングデータ)が動作するはずです。
次に、Houdiniで同じポートを選択してConnectボタンを押します。
Raw UDP Data ¶
これは、新しいデバイスからストリームを試行するのに役立ちます。
ここですべき事は、指定したポートでUDPサーバーを起動し、直近で受信したパケットの内容をdata
Detailアトリビュートに出力することです。
これは、mocapデータでよく使われるプロトコルで、これをPython SOPに接続してデータを解析してスケルトンを出力することができます。
Note
このノードの再クックは、パケットを受信するよりも遅くなりがちなので、 すべてのパケットを読み取る必要がある場合、または、複数のパケットを追跡する状態がある場合では、この方法は機能しないです。 これを実現するには、C++プラグインを作成する必要があります。
Raw TCP Data ¶
Raw UDP Dataモードと同様に動作します。 これは、指定したポートとIPにTCPクライアントを接続してから、受信される各パケットを出力します。
Connect
デバイスへの接続を試みます。
Note
複数のSOPを同じデバイスに接続することができます。
Disconnect
デバイスから接続解除します。
View Log
接続のデバッグができるようにログを表示するウィンドウを開きます。
Facial Attributes
フェイシャルモーションを定義したブレンドシェイプ用Detailアトリビュートの名前を変更するのに使用されるパターン。
これらのアトリビュートの名前を指定する時、このパターン内のすべての*
文字は、そのアトリビュートのストリーム名に置換されます。
このパターンには、そのアトリビュート名が有効であると判断させるのに必ず*
文字を含めてください。
もし*
文字が含まれていなかった場合、そのアトリビュートのストリーム名が代わりに使用されます。
このオプションは、フェイシャルモーションキャプチャをストリーム化できるすべてのストリーミングデバイスで利用可能です。
Configuration Attribute
Configure Joints SOPで定義可能なストリームジョイント情報を格納するために作成されるコンフィグアトリビュートの名前。 この種類の情報の例を挙げると、ジョイントの回転制限と移動制限がそうです。
Convert Units
有効にすると、ストリームスケルトンの単位がHoudiniシーンで定義されている単位に変換されます。
Convert Up Axis
有効にすると、ストリームスケルトンのUp軸がHoudiniシーンで定義されているUp軸に変換されます。
Time Dependant
デフォルトでは、これは無効になっていて、ジオメトリは自動的に1秒あたり最大60回更新されます。 パフォーマンスを上げたいのであれば、このトグルを有効にして自動更新を停止して、このノードを時間依存としてマークすることができます。 すると、リアルタイムトグルを無効にしてできるだけ高速に更新されるように再生を開始することができます。
Actors
出力するアクターの名前のリスト。 ジョイント名が重複した複数のアクターを出力するように選択した場合、レコーディングで問題が発生すると、KineFXでは固有な名前を必要とするので下流で他の問題が発生する可能性があります。
Recording ¶
以下のパラメータは、ストリームスケルトン(s)のレコーディングをする時とそのレコーディングの出力方法を決める時に使用されます。
Start Recording
デバイスに接続されると、これを押してライブアニメーションのレコーディングを開始することができます。 ビューポートの更新が遅くなっても、入力のフレームレートでデータがレコーディングされます。
これは、前にレコーディングされたデータを上書きします。
Stop Recording
レコーディングを終了します。これで、レコーディングされたアニメーションを表示できるようになります。
Clear Recording
レコーディングをクリアします。
Duplicate Recording
これは、現在保存されているレコーディングでこのノードを複製するので、前のレコーディングにまだアクセスできるようにしつつ他のテイクをレコーディングすることができます。
Output Recording
データをレコーディングしたら、このトグルでそのデータの表示を切り替えることができます。
Output Type
通常のフレーム単位の再生をするなら’Single Frame'、レコーディング全体をモーションクリップとして出力するなら'Motionclip'を選択します。
Layering ¶
以下のパラメータは、入力スケルトンと出力スケルトンのレイヤー化の方法を定義し、 複数のソース からモーションキャプチャパフォーマンスを同時に結合することができます。
以下のパラメータは、入力が指定されていて、且つ、出力がレコーディングされたモーションクリップ でない 場合にのみ利用可能です。
Base Layer
ベースレイヤーとして扱われるスケルトン。
他のスケルトンがセカンドレイヤーになります。
これは、出力スケルトンのトポロジーを定義します。
そのセカンドレイヤー上のDetailアトリビュートとPointアトリビュートは、name
とactorname
のアトリビュートでポイントをマッチさせてベースレイヤーに結合されます。
最後に、Skeleton Blend SOPと同様の処理によって、そのセカンドレイヤーがそのベースレイヤーにブレンドされます。
Tip
スケルトンの上にフェイシャルモーションキャプチャをレイヤー化したいのであれば、 Base Layer にスケルトンを設定してください。
Layer Components
セカンドレイヤーからベースレイヤーにブレンドされるローカルトランスフォームのコンポーネント。
Tip
スケルトンの上にフェイシャルモーションキャプチャをレイヤー化したいのであれば、RotationとScaleのコンポーネントのみを選択してください。 これによって、スケルトンのボーンは伸び縮みしなくなります。
Match Actor Name
これを有効にすると、ベースレイヤー内のポイントとセカンドレイヤー内のポイントをマッチングさせる時にname
アトリビュートだけでなくactorname
アトリビュートも使用されます。
どちらのレイヤーにもactorname
アトリビュートが存在しなかった場合、name
アトリビュートのみを使用してポイントがマッチングされます。
入力 ¶
Skeleton
出力アニメーションスケルトンとレイヤー化させたいスケルトン(ストリームされたスケルトンまたはレコーディングされたスケルトン)。 これらのスケルトンをレイヤー化する方法を決めるオプションは、 Layering フォルダにあります。
出力 ¶
SkeletonまたはMotion Clip
Output Recording と Output Type のパラメータの値に応じて、この出力は、モーションキャプチャストリーミングデバイスから最後に受信したスケルトン(s)、アニメーションスケルトンとしてのレコーディング、モーションクリップとしてのレコーディングのどれかになります。
See also |