커뮤니티 Q&A

Audiokinetic의 커뮤니티 Q&A 포럼에 오신 것을 환영합니다. 이 포럼은 Wwise와 Strata 사용자들이 서로 도움을 주는 곳입니다. Audiokinetic의 직접적인 도움을 얻으려면 지원 티켓 페이지를 사용하세요. 버그를 보고하려면 Audiokinetic 런처에서 Bug Report 옵션을 사용하세요. (Q&A 포럼에 제출된 버그 보고는 거절됩니다. 전용 Bug Report 시스템을 사용하면 보고 내용이 담당자에게 정확히 전달되어 문제 해결 가능성이 크게 높아집니다.)<segment 6493>

빠르고 정확한 답변을 얻으려면 질문을 올릴 때 다음 팁을 참고하세요.

  • 구체적인 내용을 적어주세요: 무엇을 하려는지, 혹은 어떤 특정 문제에 부딪혔는지 설명하세요.
  • 핵심 정보를 포함하세요: Wwise와 게임 엔진 버전, 운영체제 등 관련 정보를 함께 제공하세요.
  • 시도한 방법들을 알려주세요: 문제 해결을 위해 이미 어떤 단계를 시도해봤는지 설명해주세요.
  • 객관적인 사실에 초점을 맞추세요: 문제의 기술적 사실을 중심으로 설명하세요. 문제에 집중할수록 다른 사람들이 더 빠르게 해결책을 찾을 수 있습니다.

0 투표
I am wondering if there is any benefit of using the object based audio pipeline in wwise if the endpoint is, for example, a quest 2 headset? Based on the documentation from audiokinetic on understanding object based audio, it mentions that the " the endpoint can use the most appropriate rendering method to deliver the final mix over headphones or speakers." So unlike if you were working on audio that had an endpoint of 5.1 or 7.1 or windows using the windows sonic for headphones, that provides their own unique spatialization, would the same benefits apply if you routed certain audio objects through the object-based audio pipeline?

As far as I know, the Quest 2 headset doesn't have its own spatialization rendered build in, so one must use plugin in wwise to achieve that (Auro-3d, Resonance, OSP, etc...) So specially when working on audio for a VR title, would it even benefit the use of this awesome new pipeline?
General Discussion Cesar S. (100 포인트) 로 부터

Please sign-in or register to answer this question.

...