コミュニティQ&A

Audiokineticのコミュニティ主導のQ&Aフォーラムへようこそ。ここはWwiseとStrataのユーザのみなさまがお互いに協力し合う場です。弊社チームによる直接のサポートをご希望の場合はサポートチケットページをご利用ください。バグを報告するには、Audiokinetic LauncherのBug Reportオプションをご利用ください。(Q&AフォーラムではBug Reportを受け付けておりませんのでご注意ください。専用のBug Reportシステムをご利用いただくことで、バグの報告が適切な担当部門に届き、修正される可能性が高まります。)

最適な回答を迅速に得られるよう、ご質問を投稿される際は以下のヒントをご参考ください。

  • 具体的に示す:何を達成したいのか、またはどんな問題に直面しているのかを具体的に示してください。
  • 重要な詳細情報を含める:Wwiseとゲームエンジンのバージョンやご利用のOSなど詳細情報を記載してください。
  • 試したことを説明する:すでに試してみたトラブルシューティングの手順を教えてください。
  • 事実に焦点を当てる:問題の技術的な事実を記載してください。問題に焦点を当てることで、ほかのユーザのみなさまが解決策を迅速に見つけやすくなります。

0 支持
We are developing an audio playback system for an XR cinema application for Meta Quest.

Using Wwise 2024 I have been able to monitor and Profile a full 3d Atmos film mix (ADM) including Dolby's Audio Objects with their own metadata, i.e. moving sound sources embedded in the ADM. The question is whether this can be decoupled from the Listener's head orientation to be "north-locked" instead of "head-locked", so that the Dolby Atmos mix stays fixed to a central point, i.e. a virtual cinema screen in XR. As soon as I try to spatialise the sound or lock it to a position, we seem to lose all the spatialisation that is within the multichannel sound file. It is as if the sound source is now being treated as mono. Is there a means to avoid or circumnavigate this?

In game engines we have achieved what we are after by splitting a multichannel audio mix (eg 7.1.4) into multi mono emitters that are locked in 3d space, whereby we can then walk around the virtual speaker array, which is very effective and immersive for VR applications. We are hoping to recreate this using Atmos within Wwise, without the interim stage of splitting up an existing multichannel format.
Brain Audio (100 ポイント) General Discussion

Please sign-in or register to answer this question.

...