Questions et réponses de la communauté

Bienvenue sur le forum de questions et réponses d'Audiokinetic, propulsé par la communauté. C'est l'endroit où les utilisateurs de Wwise et Strata s'entraident. Pour obtenir une aide directe de notre équipe, veuillez utiliser la page « Tickets de soutien ». Pour signaler un bug, utilisez l'option Bug Report dans l'Audiokinetic Launcher. (Veuillez noter que les rapports de bug soumis au forum questions-réponses seront rejetés. L'utilisation de notre système de rapport de bug dédié garantit que votre rapport est vu par les bonnes personnes et a les meilleures chances d'être corrigé.)

Pour obtenir rapidement les meilleures réponses, suivez ces conseils lorsque vous posez une question :

  • Soyez précis : qu'essayez-vous de réaliser ou quel est le problème spécifique que vous rencontrez ?
  • Pensez à inclure les détails importants : incluez des détails tels que les versions de Wwise et du moteur de jeu, le système d'exploitation, etc.
  • Expliquez ce que vous avez essayé de faire : indiquez aux autres les mesures que vous avez déjà prises pour essayer de résoudre le problème.
  • Concentrez-vous sur les faits : décrivez les aspects techniques de votre problème. Se concentrer sur le problème aide les autres personnes à trouver rapidement une solution.

0 votes
We are developing an audio playback system for an XR cinema application for Meta Quest.

Using Wwise 2024 I have been able to monitor and Profile a full 3d Atmos film mix (ADM) including Dolby's Audio Objects with their own metadata, i.e. moving sound sources embedded in the ADM. The question is whether this can be decoupled from the Listener's head orientation to be "north-locked" instead of "head-locked", so that the Dolby Atmos mix stays fixed to a central point, i.e. a virtual cinema screen in XR. As soon as I try to spatialise the sound or lock it to a position, we seem to lose all the spatialisation that is within the multichannel sound file. It is as if the sound source is now being treated as mono. Is there a means to avoid or circumnavigate this?

In game engines we have achieved what we are after by splitting a multichannel audio mix (eg 7.1.4) into multi mono emitters that are locked in 3d space, whereby we can then walk around the virtual speaker array, which is very effective and immersive for VR applications. We are hoping to recreate this using Atmos within Wwise, without the interim stage of splitting up an existing multichannel format.
dans General Discussion par Brain Audio (100 points)

Please sign-in or register to answer this question.

...