Experiências em realidade virtual são somente parte do que promete o metaverso da Meta. Junto ao visual, o áudio espacial é outro pilar importante para transportar interessados em novos ambientes sociais. Como conta o CEO Mark Zuckerberg em publicação no blog da empresa, uma “noção realista de onde vem o som faz você sentir que realmente está lá.”
Neste caso, as dimensões diferentes (e a acústica da sala) te ajudam a acreditar no que está vendo. Em publicação recente do Engadget, vemos que o setor AI and Reality Lab, da Meta, agora colabora com pesquisadores da The University of Texas at Austin (universidade localizada no Texas/EUA) para desenvolver “tarefas de compreensão” de áudio open code. Isso ajudará desenvolvedores a criar experiências de realidade virtual e aumentada mais imersivas.
Entendendo os protótipos
Um dos modelos criados pela Meta é o Visual Acoustic Matching, ou Correspondência Visual Acústica, em tradução livre. Ele é capaz de adaptar um clipe de áudio a qualquer ambiente, usando uma única imagem do espaço.
Mesmo que modelos anteriores tenham conseguido recriar a acústica de uma sala com sucesso, era necessário alimentar a plataforma com o layout do ambiente em questão. Para isso, era necessário informar a geometria e as propriedades dos materiais, ou uma amostra de áudio gravada naquele espaço. Agora, basta apenas uma foto.
Já o modelo de “Des-reverberação visualmente informada”, é capaz de eliminar o eco quando se toca um instrumento em espaços abertos. Quem estiver ouvindo perceberá apenas um violino, por exemplo, não a reverberação dele reverberando nas superfícies do espaço.
E o “Voz Visual” faz o mesmo, mas aplicado em vozes: ele aprende a separar o som da voz dos ruídos externos. A Meta prevê que este modelo específico dê um bom trabalho nas aplicações de machine learning, especialmente quando trata-se de melhorar a acessibilidade.
Segundo a empresa, os protótipos conseguem “aprender a correspondência acústica com vídeos da internet”, ainda que eles sejam acusticamente incompatíveis. “Um caso de usos futuros que temos interesse envolve reviver memórias passadas”, diz Zuckerberg no blog, apostando em fantasias lúdicas por vir. Ele prossegue:
“Imagine poder colocar um par de óculos de realidade aumentada e ver um objeto, com a opção de reproduzir uma memória associada a ele. Como pegar um tutu e ver um holograma do recital de balé do seu filho(a). O áudio elimina a reverberação e faz com que a memória soe exatamente como no momento da sua experiência, sentado naquele lugar da plateia.”
O futuro do áudio espacial
O áudio espacial, como é classificado o recurso, nada mais é que a distribuição de áudio em ambiente tridimensional. Os efeitos sonoros conseguem manipular o som “enganando” nossa percepção, distribuindo-os em alto-falantes – sejam eles estéreo (esquerda e direita), som surround (como home theaters) ou fones de ouvido.
A Strategy Analytics Inc., empresa de pesquisa de mercado, estimou que o metaverso deve crescer majoritariamente nestas três frentes: AR, VR e XR, ou realidade aumentada, virtual e estendida, respectivamente.
De acordo com The Korea Economic Daily, o som acaba sendo crucial para contribuir no quão real o mundo virtual parece ser. No ano passado, a Apple Music trouxe mais de 75 milhões de arquivos de áudio (sem perda de qualidade) e começou a suportar o áudio espacial – suportada por outras plataformas populares de multimídia, como Amazon e Netflix.
“Vislumbramos um futuro em que as pessoas possam colocar óculos de realidade aumentada e reviver uma memória holográfica que irá parecer e soar exatamente da maneira que eles no seu ponto de vista”, observa Zuckerberg, lembrando também que estes protótipos estão em estágio de desenvolvimento e ainda devem demorar para chegar ao público. Porém, não será uma grande surpresa se a próxima versão da linha Oculus Quest já tiver a tecnologia, em um futuro próximo.