Questions et réponses de la communauté

Bienvenue sur le forum de questions et réponses d'Audiokinetic, propulsé par la communauté. C'est l'endroit où les utilisateurs de Wwise et Strata s'entraident. Pour obtenir une aide directe de notre équipe, veuillez utiliser la page « Tickets de soutien ». Pour signaler un bug, utilisez l'option Bug Report dans l'Audiokinetic Launcher. (Veuillez noter que les rapports de bug soumis au forum questions-réponses seront rejetés. L'utilisation de notre système de rapport de bug dédié garantit que votre rapport est vu par les bonnes personnes et a les meilleures chances d'être corrigé.)

Pour obtenir rapidement les meilleures réponses, suivez ces conseils lorsque vous posez une question :

  • Soyez précis : qu'essayez-vous de réaliser ou quel est le problème spécifique que vous rencontrez ?
  • Pensez à inclure les détails importants : incluez des détails tels que les versions de Wwise et du moteur de jeu, le système d'exploitation, etc.
  • Expliquez ce que vous avez essayé de faire : indiquez aux autres les mesures que vous avez déjà prises pour essayer de résoudre le problème.
  • Concentrez-vous sur les faits : décrivez les aspects techniques de votre problème. Se concentrer sur le problème aide les autres personnes à trouver rapidement une solution.

0 votes
Hi,

I have experience writing VST plugins for DAWs, and I am learning to write plugins for Wwise.
I have written a VST spatializer plugin, that renders mono and ambisonic audio (B-format) audio to a binaural, with a scene rotator that can be controller via head tracker.
I would like to adapt the code into a Wwise plugin that I would like to run on the Oculus Quest2.

I have noticed in the IAkPlugin header that there are virtual interfaces for performing spatial audio-related processes like `virtual AKRESULT ComputeSpeakerVolumesDirect()` and `virtual AKRESULT Compute3DPositioning()`, so there are clearly interfaces in place for making plugins that perform spatial rendering operations etc.

What I would like to know is what interfaces I am need to implement and what settings macros I need to set in order to start performing ambisonic rendering.
Can anyone please tell me what I need, or point me to the appropriate documentation?

Thanks,
Simon
dans General Discussion par Simon D. (100 points)

1 Réponse

0 votes
Hi Simon,

You can look at the documentation for Object Processors, which are a superset of effects that are aware of audio objects, to implement your binauralizer as an Out-of-Place Object Processor that aggregates all its incoming streams into a stereo output object stream.

Software Binauralizer example in the documentation: https://www.audiokinetic.com/library/edge/?source=SDK&id=soundengine_plugins_objectprocessor.html#soundengine_plugins_objectprocessor_outofplace_binauralizer.
par Samuel L. (Audiokinetic) (23.6k points)
That looks like exactly the documentation I need at this stage, thank you so much!
...