Categoria: Produção musical

Cabo virtual de áudio e midi no windows, como funciona

Tempo de leitura: 3 minutos

Olá pessoal!
Tudo bem com todos?
Espero que estejam gostando de meus posts!
Nesse texto, explicarei como funcionam os softwares que simulam cabos virtuais no computador, tanto de áudio quanto de midi. Para isso, primeiro preciso falar da conexão física entre equipamentos de áudio, que é o conceito básico por trás desses softwares.

Considere um teclado sem alto-falantes, como geralmente são os modelos top de linha. Para reproduzir o som deles, é necessário conectar o instrumento a uma caixa de som, fone de ouvido, mesa de som, entre outros dispositivos de saída de áudio.
O mesmo princípio se aplica a placas de som onboard e offboard. Para reproduzir som nelas, é necessário conectar um desses dispositivos de saída de áudio.
Se imaginarmos duas placas de som operando em um mesmo computador, podemos direcionar a saída de áudio de cada uma para um dispositivo diferente. Por exemplo, os sons de notificações do Windows podem sair nos fones de ouvido na placa secundária, enquanto uma playlist de músicas de alto volume pode ser reproduzida nas caixas de som conectadas à placa primária.

Dessa forma, é possível separar os sons fisicamente, de modo que um não interfere no outro. Os sons secundários só são ouvidos pelo usuário, enquanto o primário pode ser ouvido por todos.
Mas e se quisermos fazer essa separação de áudio com uma única placa de som? Fisicamente, isso não é possível, exceto em alguns notebooks que permitem a saída de áudio de duas vias no mesmo equipamento.
Por isso, softwares foram desenvolvidos para simular cabos virtuais de áudio e midi.

Assim como a conexão física entre equipamentos, essas placas virtuais permitem a conexão de áudio entre aplicativos, usando o serviço de áudio do Windows como base. Por exemplo, um aplicativo de gravação pode capturar o som de outro que esteja sendo reproduzido em um dispositivo virtual.
É possível também enviar a saída de áudio de mais de um aplicativo, além de dispositivos de entrada, como um microfone conectado a uma placa de som física, permitindo a junção de tudo isso no mesmo lugar.
Pode-se ainda criar vários cabos ou placas virtuais para ter mais vias diferentes por onde podem sair os sons.

Existem dois programas que fazem isso: o VAC (Virtual Audio Cable) da Eugene Muzychenko, que é pago, e o VB audio Cable , que é donationware.
O VAC tem um aplicativo (Audio Repeater) que funciona como a pré-escuta do Windows com muito mais funcionalidades, como ajuste de buffer.

Para ilustrar, suponha que você tenha um servidor de streaming e queira fazer uma transmissão ao vivo. Um software pode ser utilizado para enviar a saída de áudio de um dispositivo virtual ao seu servidor, que por sua vez distribui para os ouvintes conectados nele.
Neste dispositivo virtual podem ser reproduzidos vários sons de aplicativos e entradas diferentes, como um para reproduzir as músicas, outro com o áudio de uma chamada do Skype e ainda o áudio do seu microfone.
Uma outra opção interessante é o Voicemeeter , que combina entradas e saídas de áudio físicas (as que estiverem disponíveis) e virtuais, funcionando como uma mesa de som virtual.
Para aqueles que produzem música e usam a plataforma ASIO, há ferramentas como o SAR (Synchronous Audio Router) , que permitem a criação de dispositivos virtuais de entrada para receber o sinal de aplicativos que suportam ASIO, e que podem ser capturados por outros aplicativos que não são compatíveis com ASIO.
Um exemplo disso é a capacidade de enviar, sem latência, o áudio de um projeto com vários plugins em tempo real que está sendo processado e executado em uma DAW, como o Reaper, para um aplicativo VOIP, como o Zoom ou Skype, que não possuem suporte para ASIO.
Além disso, o próprio Reaper oferece uma extensão adicional chamada ReaRout, que permite o intercâmbio de áudio entre aplicativos ASIO.

Para finalizar, vale mencionar os cabos midi virtuais, que seguem a mesma lógica dos cabos físicos.
No entanto, em vez de uma conexão física, aplicativos são utilizados para enviar e receber sinais MIDI entre eles.
Significa que é possível enviar sinais MIDI sem a necessidade de um teclado controlador, usando apenas o teclado do computador como dispositivo de entrada.
Essa solução é especialmente útil em softwares de sequenciamento MIDI que não permitem o uso do teclado do computador, como o Sonar, em que o “Piano Row” é operado pelo mouse, bem diferente do Reaper, em que um cabo virtual midi não é necessário.
Para essa categoria, também há opções gratuitas para fazer isso, como o Springbeats e o Loopmidi.

É isso galera!
Abraços em todos e beijos em todas!

Driver, placas de som e sistemas de áudio

Tempo de leitura: 6 minutos

Olá pessoal!
Espero que estejam todos muitíssimo bem.
O assunto desse post é de grande utilidade e tenho certeza que ajudará muita gente.

Para utilizar qualquer DAW, é extremamente importante configurar corretamente a placa de som no software. É por isso que é relevante abordar os diferentes tipos de placas de som para que você possa tomar uma decisão mais informada sobre qual sistema de áudio escolher durante a configuração.
Antes de prosseguir com as diferentes opções de placa de som, é importante compreender o que é um driver.

Para realizar o processamento de multimídia, é necessário que a máquina possua dois elementos fundamentais:

  • Hardware, capaz de processar as informações de forma eficiente. Exemplo: Placa de som.
  • Software multimídia, dividido em duas partes: driver e aplicativo.

O driver, que em português significa “controlador”, é responsável por gerenciar as características do hardware de multimídia. Já o aplicativo, é responsável por fornecer ao usuário controle sobre esse processamento, como no caso das DAWs.
Compreendidos esses elementos, agora podemos abordar a placa de som.

No seu computador, a placa de som usada para reproduzir músicas e outros sons do sistema é geralmente embutida na placa mãe, e por isso é chamada de placa de som “onboard” ou interna.
Quando o computador precisa reproduzir algum som, o comando passa por várias camadas do sistema operacional para garantir que não haja conflitos com outros programas que também queiram utilizar o som simultaneamente, como um player de música e um vídeo do YouTube.
Embora isso não seja um problema para o uso diário do computador, o tempo de processamento que ocorre durante esse processo não é ideal para tarefas de produção musical, onde é necessário ter baixa latência e um som sem cortes.
Se você está começando a gravar músicas em casa, a placa de som do seu computador será útil. No entanto, à medida que suas produções musicais se tornam mais complexas, você perceberá a necessidade de uma placa de som mais profissional e adequada para suas necessidades.
É aí que entram as interfaces de áudio.

Elas funcionam como pequenas ou grandes mesas de som, com botões giratórios que ajustam o volume de entrada e saída. Além de serem muito portáteis e compatíveis com a maioria das DAWs, as interfaces de áudio oferecem um som limpo e livre de ruídos, com conversores D/A (Digital para analógico) e A/D (analógico para digital) de alta qualidade e entradas diferentes da P2, como P10 e XLR, que são muito usadas em microfones condensadores. Algumas inclusive vem com entradas combo, permitindo tanto XLR quanto P10.
As interfaces de áudio também possuem pré-amplificadores de som, que permitem uma gravação mais precisa e limpa.
Os gravadores digitais em sua grande maioria funcionam como verdadeiras interfaces de bolso para quem quer algo fácil de carregar.
Já para aqueles que desejam expandir suas possibilidades de mixagem, as “mesas de som interface” são uma excelente opção. Elas apresentam características importantes de uma interface portátil, ao mesmo tempo em que mantêm os recursos essenciais de uma mesa de som tradicional, tais como equalização individual para cada canal, processador de efeitos, saídas auxiliares, subgrupos e até mesmo a capacidade de gravar simultaneamente e separadamente cada entrada de áudio com o auxílio da DAW. Com isso, é possível realizar mixagens mais elaboradas e profissionais em qualquer lugar, sem abrir mão da qualidade e da praticidade.

Ao investir em equipamentos de som externos, é importante ter cuidado, pois existem placas de som genéricas que possuem características semelhantes às de uma placa de som de computador, mas oferecem poucos recursos adicionais, tornando-as inadequadas para uso profissional.
Essas placas de som genéricas são comuns em lojas de informática e geralmente são bem baratas, mas nenhuma delas é capaz de reproduzir áudio de 24 bits com precisão, mesmo que tenham essa configuração.
Infelizmente, alguns vendedores anunciam erroneamente esses produtos como placas de som profissionais, quando na verdade não são.
Por isso, é fundamental pesquisar bem antes de fazer sua escolha e optar por uma placa de som de qualidade que atenda às suas necessidades específicas de áudio.
Procure saber se ela tem pelo menos o Phanton Power para o uso de microfones condensadores e, o mais importante de tudo, suporte à Asio com driver dedicado. Não se preocupe, entrarei em detalhes sobre o Asio mais adiante.
Isso posto, agora é a vez de falar dos sistemas de som, que é a parte mais importante da configuração de áudio numa DAW.

Existem várias opções para escolher ao configurar sua placa de som para obter o melhor desempenho possível. Abaixo estão as descrições dos protocolos mais usados:

Wave Out ou MME

Algumas DAWS como o Reaper são aplicativos bastante flexíveis quando se trata de usar placas de som genéricas, configurando-as para usar o protocolo Wave Out (ou MME), que mantém a compatibilidade com uma variedade de interfaces de áudio.
No entanto, o Wave Out não oferece o mesmo desempenho que o ASIO e pode resultar em latência no processamento de sinais de áudio, dependendo da configuração do hardware.

A latência é o tempo que leva para o sinal gravado ser reproduzido em segundos ou milissegundos, e é influenciada pelo buffer, que é o tempo que a placa de som reserva para processar informações.
Um buffer maior pode facilitar o processamento, mas aumenta a latência, e um buffer muito curto pode causar bugs, estalos, ou travar o programa.
Se você começar a usar vários plugins, isso pode piorar. A placa de áudio e os drivers associados dos computadores comuns não foram desenvolvidos inicialmente para produção de áudio, então, originalmente, os dispositivos de áudio Windows tinham dificuldades em processar o som com a rapidez necessária para o tempo real.
O sistema operacional possui camadas de drivers que realizam o processo, levando tempo.
Latências inferiores a 7 milissegundos podem ser consideradas em tempo real. Até 15ms, é possível gravar sem maiores problemas. Acima disso, a latência pode se tornar um incômodo.

WASAPI

O WASAPI (Windows Audio Session API) funciona de modo exclusivo, permitindo que apenas um software use a placa de som por vez para reprodução e gravação de áudio.
É um sistema de áudio recente criado pela Microsoft que está presente no Windows Vista, 7, 8, 8.1 e 10, principalmente por permitir a transmissão de som em nível “surround”.
Ao usar o WASAPI em algumas DAWs, como o Reaper, é possível gravar os sons do computador exatamente como se fazia com o recurso “stereo mix” ou “mixagem stereo” presentes em algumas placas de som genéricas. Isso é chamado de “loopback”.
No entanto, o WASAPI não funciona em algumas placas de som de computador e não oferece vantagens em situações que necessitem de áudio com baixa latência, pois o sinal passa primeiro pelo Windows antes de chegar na placa de som.

ASIO

O ASIO (Audio Stream Input Output) é um protocolo que grava e reproduz simultaneamente diversas fontes de áudio sem perder sincronia e qualidade.
Foi criado pela Steinberg, a mesma empresa alemã dona do Cubase e também das plataformas VST / VSTI.
O ASIO permite a comunicação com fidelidade entre a DAW e a interface de áudio, sem interferências no sinal. É possível aplicar vários plugins ao mesmo tempo porque o driver cria um caminho direto entre a DAW e a interface, sem passar pelo hardware de som do Windows, o que ajuda a reproduzir o sinal com muito menos latência.
Cada interface de áudio possui o seu próprio driver Asio, o que garante uma melhor integridade com esse sistema de som.

No mac, Os Core Audio (drivers de áudio nativos dos computadores Apple) apresentam ótima resposta. Claro, nem tanto quanto o ASIO dedicado de uma interface externa, mas o suficiente para quebrar um galho em uma sessão com poucos plugins.
Já no Windows, isso é difícil de conseguir, mas não impossível.
Então, para as placas de som genéricas que não possuem um driver Asio dedicado, uma alternativa é tentar o Asio4all.
Mas o que é o Asio4 all e por que não se recomenda muito seu uso?

Em 2003, o programador alemão Michael Tippach criou o Asio4all para auxiliar aqueles que não possuíam suporte nativo ao ASIO. O software emula o ambiente do ASIO em placas de som genéricas, garantindo funcionalidade às DAWs.
Assim como o ASIO, o Asio4all é independente de hardwares, o que é essencial para resolver problemas de latência. No entanto, ao usar o Asio4all em seu computador, você só poderá usar/gravar um único canal, já que o computador normalmente possui apenas uma entrada, que é P2 e pode comprometer a qualidade do sinal.
Gravar diretamente na entrada de microfone do computador geralmente resulta em áudio de baixíssima qualidade. Além disso, ao usar o Asio4all com a placa de som do computador, outros sons não prioritários podem ser silenciados, deixando ativo apenas o som da DAW.

Para configurar os inputs e outputs (entradas e saídas de áudio) a partir do sistema de som escolhido, é necessário seguir alguns passos:
Se você optar por usar a placa de som do seu computador por meio do Wave Out ou outro sistema de som que não seja o ASIO, as opções de entrada/saída de áudio geralmente são limitadas.
Isso depende principalmente dos recursos da placa de som ou de outros dispositivos de áudio instalados. Algumas permitem gravar apenas a entrada de linha, enquanto outras apenas o microfone interno dos notebooks, e assim por diante.
No entanto, ao usar interfaces de áudio no modo ASIO, você pode configurar uma variedade de entradas e saídas de áudio para que, ao criar as tracks, seja possível escolher quais canais de entrada e saída serão usados a partir dessa variedade.
Por exemplo, se você configurou uma faixa de quatro entradas, mas sua interface de áudio tem oito, apenas quatro estarão disponíveis para uso.

Depois de fazer essa configuração, é necessário ajustar o tamanho do buffer.
Para o ASIO, as configurações variam de acordo com o painel de controle de cada interface de áudio. Para os outros sistemas de som, geralmente é possível fazer essa configuração a partir de campos de edição que determinam o tamanho.
Porém, o comportamento pode ser diferente dependendo do sistema de som escolhido, o que requer experimentação. O modo de ajuste do buffer também varia.

Com essas configurações adequadas, você será capaz de aproveitar todas as potencialidades de sua interface de áudio e dos demais equipamentos de trabalho na sua DAW.
Embora cada DAW tenha maneiras diferentes de tratar essas configurações, o princípio é o mesmo.
Espero que tenham gostado das dicas!
Fiquem a vontade para deixarem recomendações de interfaces de áudio, dicas relevantes sobre o assunto e até dúvidas.
Grande abraço e até a próxima!

Fontes:
Magroov blog
KV Music Beats no Youtube

Removendo ou extraindo vocal de músicas com precisão

Tempo de leitura: 6 minutos

Olá pessoal!
Espero que estejam todos muitíssimo bem!

Neste post estou inspirado para falar de um assunto que é de muito interesse dos profissionais e até mesmo de entusiastas da música, e que continua sendo objeto de muitas pesquisas já há um bom tempo: Será que é possível remover o vocal de uma música já mixada e masterizada? Ou então, extrair a voz retirando o instrumental?
Bom, muitos com certeza ainda vão dizer que não; outros vão dizer que sim , mas de forma parcial.

Remover ou isolar o vocal de uma música com 100% de precisão sempre foi um grande desafio e, até então, era considerado algo praticamente impossível. Mas o fato é que, com os primeiros sinais da inteligência artificial nesse sentido, que começou por volta de 2019, isso está mudando para melhor, com resultados que surpreendem a cada novo algoritmo desenvolvido e pré-treinado.
Dependendo da música, a precisão pode chegar em torno de 75 a 90%.
Ótimo para inúmeras finalidades:

  • Ensaiar a música ouvindo todo ou parte do instrumental; útil quando o arranjo é muito complexo e se deseja ouvir algo com mais detalhes
  • Extrair o vocal para usar em uma nova versão da música, como um remix ou mashup, mesmo sem ter as tracks ou pedir autorização para o artista ou gravadora
  • Gerar o playback da música para cantar por cima (a qualidade pode ficar um pouco prejudicada dependendo de qual for escolhida)

É claro que, para ambos os casos como acabei de dizer, e dependendo do algoritmo escolhido, ainda pode haver alguma perda de qualidade, mas já está bem melhor do que se podia fazer no passado.
Estamos falando aqui de engenharia reversa. Pense nisso como a tentativa de descompilar um software de código fechado… É a mesma coisa.

Numa música finalizada, tudo está incluído: A voz, os instrumentos e os efeitos e demais elementos de produção.
Uma vez que você não está de posse das tracks separadas, não é possível ouví-las individualmente, com a mesma qualidade com que foi gravado ou captado.
Então, assim como é estabelecido no acordo de licença do uso de um aplicativo de código fechado, você não tem autorização para descompilar, desmontar ou fazer alguma modificação de forma ilegal. É daí que vem a pirataria e os crackers fazem justamente isso.

E na música não é diferente.
Eu tenho essa consciência e acredito que você que produz e já imaginou fazendo coisas legais com elas também tem, mas existe situações em que realmente é muito complicado pedir autorização para obter o projeto aberto à um artista ou gravadora, por diversas razões:

  • O artista pode já ter falecido
  • A gravadora pode não existir mais
  • Sem uma grande negociação que beneficie mais o artista ou a própria gravadora do que o interessado, é provável que a proposta seja recusada
  • Não há garantia de que a gravadora ainda tenha o projeto arquivado

Entra em cena a manifestação artística através dos meios digitais quando não há outra possibilidade melhor, de forma que nem sempre isso representa um problema grave.
Por exemplo: Num show em público, é livre a interpretação de músicas populares tanto por artistas independentes quanto profissionais, sem que seja necessário uma autorização para isso.
Num remix ou produção bem criativa de uma música já existente, o autor não deixará de ter seus ganhos pela criação original, mas o produtor da versão remixada também poderia ser recompensado pelo trabalho e por mostrar ao mundo a peça musical de um novo jeito, com um novo estilo e alcançando um público ainda maior.

Assim, A possibilidade de isolar e principalmente remover o vocal das músicas com o surgimento de novas ferramentas inteligentes já está sendo uma mão na roda, gerando resultados cada vez melhores e de acesso imediato para o público em geral, músicos e não músicos.
Então, se ficou interessado, continue lendo e vamos ver as técnicas possíveis para remover ou isolar o vocal de uma música!

Isolando ou retirando a voz através da inversão de fase

No caso de isolar o vocal de uma música dessa forma, é necessário possuir a versão original da música e outra versão que contenha apenas o playback, ambas com a mesma qualidade de áudio em bitrate e sample rate.
Esse processo envolve o fenômeno físico da inversão de fase, que se aplica ao áudio por causa das ondas sonoras e das vibrações que geram no ar.

Ao ouvirmos um som, percebemos as variações na pressão que são geradas pelas ondas. Durante a gravação, o diafragma do microfone age de forma semelhante ao tímpano, vibrando de acordo com essas ondas.
Os picos de onda movem o diafragma em uma direção, enquanto os períodos de menor intensidade geram movimento na direção oposta.
Com isso em mente, podemos dizer que ao juntarmos a versão original com a versão playback, ambas sincronizadas perfeitamente, podemos utilizar a técnica de inversão de fase em uma delas. Isso fará com que a voz seja reproduzida isoladamente, já que essa é a única parte da música que não aparece no playback e, portanto, não será anulada.

Para fazer o inverso, você precisaria ter, além da original, uma versão apenas com a voz.
É importante ressaltar que é incomum encontrar a voz separada da música com qualidade 100% original, o que dificulta esse processo de gerar o Playback por inversão de fase.
Além disso, a maioria dos artistas não disponibiliza os playbacks de suas músicas oficialmente, sendo mais comum encontrá-los em músicas do estilo gospel ou gerados a partir de multitracks vazados de músicas internacionais mais antigas que circulam na internet.

Sendo assim, é melhor deixar isso para a IA, não é mesmo? ☺
Continue lendo!

Isolando ou retirando a voz com plugins, programas e ferramentas online

No passado, alguns plugins que tentavam remover o vocal das músicas muitas vezes prejudicavam a qualidade do áudio, destruindo a imagem stereo e transformando o resultado em mono.
Hoje, já existe a técnica de machine learning por trás, como no site Phonicmind , onde você consegue, online, remover e isolar o vocal de músicas com bastante precisão e salvar o resultado em arquivo mp3.
Este foi o primeiro site que descobri na época, com resultados bem satisfatórios.

De lá pra cá, muitos outros sites e algoritmos surgiram com o mesmo propósito, como o Moises.ai (plano gratuito e pago) e o Melody.ml ; todos utilizam o algorítmo avançado de separação de áudio criado pelo Deezer (sim, uma das empresas de streaming de música).
O projeto chama-se Spleeter e o código é open source e disponível para desenvolvedores.
Sobre o Moises, além de ter a ferramenta para separar a música em várias partes, também é possível descobrir a tonalidade, o BPM (batidas por minuto) e os acordes cifrados, fora um recurso bem interessante para masterizar suas próprias músicas para deixar com uma cara mais profissional.

Mais recentemente ainda, também surgiu outro site chamado Lalal.ai , que promete resultados melhores do que os que usam a tecnologia spleeter, usando o Phoenix como algoritmo.
Por fim, esse aqui possibilita escolher o algoritmo que será utilizado (demusc, Ultimate Vocal Remover HQ, etc). Aliás, até agora, o Ultimate Vocal Remover foi o que mais me surpreendeu, principalmente para remover o vocal de músicas e usando a versão Offline em forma de programa (falarei mais sobre isso adiante).

Para os demais algoritmos, particularmente noto que, ao isolar a voz de músicas em que ela aparece com muito reverb, o noise reduction (ou gate) aplicado durante a extração faz com que a sobra do efeito seja cortado.

Na categoria de programas e plugins, uma ferramenta muito inteligente é o aplicativo RX da Izotop .
Um de seus módulos (music rebalance) permite ajustar o ganho de elementos de uma música já mixada em tempo real, o que ajuda a resolver problemas de volume. É possível também isolar ou remover a voz, bateria ou percussão, baixo e outros instrumentos.
Para o Demucs citado anteriormente em um dos sites, existe uma interface gráfica adaptada (GUI) , que permite utilizá-lo sem precisar de internet.
O mesmo vale também para o Ultimate Vocal Remover GUI, disponível para Windows, Mac e Linux, que reúne vários outros algoritmos tudo em um mesmo aplicativo.
Alguns já vem no pacote, outros podem ser baixados separadamente. Destaque aqui para o modelo UVR-DeEcho-DeReverb da categoria VR Architecture, que simplesmente tira o reverb ou o eco da voz extraída, ou mesmo de qualquer outro material de áudio que contenha o efeito.
Impressionante, não? 😯

Na minha opinião, o resultado produzido pelos dois são muito melhores se comparado ao RX.
O Demucs se destaca por ter melhor precisão para extrair baixo e bateria. O Ultimate Vocal Remover além de gerar a versão da música sem a voz com uma precisão muito boa, não deixa a desejar ao isolá-la, preservando os detalhes como a respiração e a sobra do efeito aplicado, com o mínimo de artefatos.

Uma outra alternativa é o Extra Boy pro da Elevayta, que funciona como um plugin VST e também permite ter controle do espectro sonoro, deletando um ou múltiplos instrumentos.
Por fim, o Voice Trap da Clone Ensemble, que é o mais antigo das ferramentas de remoção e isolamento de voz.
Na época que ele foi lançado, era o que havia de melhor. Tem plugin para VST e DirectX.

Bom galera, é isso.
Espero que tenham gostado!
Deixem suas impressões nos comentários.
Vou gostar de saber de outras ferramentas.
Até a próxima!

O funcionamento básico de um vocoder

Tempo de leitura: 3 minutos

Olá pessoal, espero que estejam bem.
Continuando a série de artigos sobre efeitos sonoros para produções musicais, neste texto vou falar sobre um dos mais conhecidos e famosos: o Vocoder.
Antes de entrar em detalhes, gostaria de compartilhar um fato curioso da minha infância.

Quando eu ouvia rádio e fazia minhas gravações em fitas cassete, sempre me impressionavam as vinhetas que tocavam entre as músicas. Algumas dessas vinhetas tinham vozes sintetizadas ou robóticas cantando com uma afinação tão perfeita e agradável aos ouvidos que eu ficava curioso para saber como era possível.
Essa é a primeira coisa que vem à mente quando falamos sobre Vocoder, e muitas outras pessoas podem ter passado por essa fase.
Com a evolução tecnológica e acesso facilitado à internet, fiz algumas pesquisas e descobri que se tratava do Vocoder, que muitas vezes é comercializado com outros nomes para chamar a atenção ou por questões de marketing.
O Vocoder não é utilizado apenas em vinhetas, mas também em diversas músicas, tanto antigas quanto atuais.

A experimentação começou em 1970, quando surgiram os primeiros vocoders desenvolvidos por Wendy Carlos e Robert Moog, o inventor do sintetizador clássico Moog, para fins musicais.
Antes disso, eram utilizados principalmente em telecomunicações, criptografando e codificando a voz para transmissão segura e protegida via rádio.
O Vocoder é a junção de voz codificada e na música tem a função de transformar a voz humana em voz sintetizada.
Para que esse fenômeno aconteça, ele precisa basicamente de dois componentes fundamentais: o Carrier e o Modulator.

Carrier é o timbre de algum instrumento (geralmente sintetizadores), que são utilizados como base para o processamento da voz.
O timbre pode vir de um teclado, instrumento virtual, etc. Pode conter de melodias até acordes completos, modificando de alguma forma o comportamento do vocoder, inclusive o timbre que será usado.
Uma boa dica é não usar timbres complexos ou com muitos efeitos, deixando-os para serem adicionados após a voz ser processada. Eles precisam soar secos como aqueles gerados por síntese, que produzem ondas quadradas, senoidais, triangulares, dente de serra ou a variação destas.
Se o vocoder tiver suporte a MIDI, então o Carrier é produzido em tempo real quando as notas são tocadas, mas você só ouve o resultado quando fala no microfone ao mesmo tempo em que toca o teclado, permitindo assim o controle do efeito em tempo real.
Geralmente, esse tipo de vocoder deve ser inserido na DAW em cima de uma faixa de áudio e, neste caso, será possível adicionar algum outro efeito na voz já processada.

Por fim, o Modulator é a sua própria voz, falada ou cantada.
Se você ainda não entendeu muito bem, a melhor forma de compreender é experimentando!
Aproveito para disponibilizar a todos um simples vocoder gratuito para Windows que funciona via linha de comando, desenvolvido por um programador:
VocShell
Nota: Para programadores, está disponível o código fonte aqui .

antes de começar a brincadeira, veja o programa em funcionamento ouvindo estes três sons.
O primeiro é o carrier, o segundo é o modulator e o último é a voz já codificada.

O modulator é pura e simplesmente a minha voz gravada, onde estou falando naturalmente, sem nenhuma intenção musical.

O carrier foi gerado por um software de computador com sons básicos de sintetizador através de código e sem muita frescura.

O resultado é uma voz robotizada e musical.

Outro exemplo, agora com intenções musicais:

Este carrier é diferente porque foi usado um timbre de teclado

Gostou?
Então é a sua vez de tentar!
Se você já baixou o vocshell, descompacte em qualquer lugar e localize o arquivo baixado usando o prompt do windows ou o power shell.
Por exemplo: Se o executável está na pasta vocshell, então digite:
cd vocshell

Em seguida deve invocar o executável passando pelo menos os parâmetros necessários:

  • -c – Carrier
  • -m – Modulator
  • -o – output (arquivo de saída)

Podem ser usados carriers tanto em mono quanto em stereo, mas o modulator precisa ser mono.


Exemplos de uso:
vocshell -c timbre.wav -m voz.wav -o resultado_final.wav

Há outros parâmetros opcionais que podem ser emitidos, mas não entrarei em mais detalhes aqui para não alongar o texto.
De qualquer forma, se você chamar o executável sem passar argumentos obterá a lista de todos os parâmetros que podem ser usados.

É isso galera!
Em outra oportunidade, darei dicas de ótimos plugins de vocoder para usar em tempo real na sua DAW.
Espero que tenham gostado de mais esse conteúdo.
Finalizo com esse trecho engraçado em áudio da música “Atirei o Pau no Gato” que fiz usando um plugin de vocoder da Native Instruments (Vokator).

Divirtam-se!
Deixem seus feedbacks nos comentários.
Até o próximo post!

reverbs de convolução

Tempo de leitura: 5 minutos

Olá a todos!
Espero que estejam bem e aproveitando este espaço.
Neste texto, gostaria de falar sobre um efeito sonoro interessante e muito utilizado em produções musicais, chamado Reverb de Convolução.

Em um artigo anterior, discuti dois efeitos comuns e expliquei o fenômeno por trás deles. Embora ambos envolvam a propagação das ondas sonoras, o primeiro faz com que o som se propague em zigue-zague pelo ambiente, gerando ondas adicionais que tornam o som mais contínuo, enquanto o segundo (Delay) faz com que o som seja repetido várias vezes, com intensidades cada vez mais baixas.
O reverb foi um dos primeiros efeitos que a tecnologia tentou simular, e hoje é amplamente utilizado em produções musicais, especialmente em gravações de vozes e instrumentos.
Essas gravações podem ser feitas em estúdios isolados acusticamente, com pouco ou nenhum reverb natural, para que o efeito possa ser adicionado posteriormente. Ou podem ser feitas em casa, com equipamentos razoavelmente baratos, acessíveis e de boa qualidade, desde que o ambiente seja isolado para evitar contaminação sonora.
A escolha do tipo de reverb pode ser um fator decisivo para o resultado final da produção musical. Usar ou não o efeito depende do estilo, contexto, andamento e instrumentação da música.
Encontrar o reverb adequado pode ser um desafio, mas existem várias opções disponíveis, incluindo reverbs de algoritmo.
Vou começar falando sobre ele então.

Os reverbs de algoritmo são gerados a partir de predefinições do usuário que determinam o tamanho do ambiente virtual e o tipo de revestimento desse espaço, levando em consideração as paredes ou outros materiais refletores. O software ou hardware, por meio de inúmeros cálculos e processamento, prevê as milhares de ondas que irão compor o reverb, assim como as réplicas do áudio em tempos distintos: Basicamente uma tentativa de simular um reverb natural.
Atualmente, o uso desses reverbs é muito comum em situações em que se deseja economizar tempo na captação de um reverb natural. No entanto, para que o reverb artificial seja convincente e engane o ouvido humano, o software ou hardware que gera o efeito precisa ter boa precisão, o que pode custar grande parte do processamento disponível hoje.
Os softwares de produção e edição de áudio trazem esses reverbs como padrão, facilitando o uso por todos. Mas se quisermos usar reverbs realmente acústicos, as possibilidades são infinitas e muitos reverbs são únicos e exclusivos.

Por exemplo, se você gosta do reverb do banheiro da sua casa ou do ginásio que frequenta, deve perceber que cada lugar tem sua impressão digital que determina como o som se comporta ali.
As impressões digitais também determinam os tipos de reverb mais conhecidos pelo público. Até as grandes cidades do mundo, cercadas por arranha-céus e outros edifícios, possuem um tipo de reverb que parece inigualável.
Provavelmente, você já ouviu diversas vezes o reverb de uma ambulância ou carro de bombeiros passando pela cidade com a sirene ligada.

Capturar esse tipo de reverb requer uma microfonação adequada, considerando a quantidade de microfones, o ângulo de captação, o posicionamento e a distância, entre outros aspectos. Isso demanda tempo e técnica para captar tanto o som direto quanto o reverberado.
Se você quiser usar em sua gravação um reverb característico da cidade de Nova York, por exemplo, é inviável ir até lá apenas para capturá-lo. Além disso, é preciso considerar os outros ruídos da cidade, o que torna difícil encontrar momentos de silêncio total.
Nesse contexto, pode parecer mais fácil simular um reverb de algoritmo do que tentar capturar um reverb natural, mas é difícil alcançar a mesma complexidade do mundo real por meio de cálculos matemáticos. Por isso, os reverbs de convolução se destacam como uma alternativa mais próxima dos reverbs naturais, visto que seu funcionamento é o mais complexo existente atualmente quando falamos de reverbs digitais.

Você pode entender o fenômeno da convoluçãoLendo este artigo da Wikipédia.
Simplificando, trata-se de um cálculo matemático complexo que usa a transformada de Fourier para gerar uma nova função a partir da multiplicação de duas outras.
Na engenharia de áudio, essa técnica é usada para criar arquivos de impulso (os chamados Impulse File ou Impulse response, da sigla IR em inglês), que são gravações do comportamento de um som específico em um ambiente. Por exemplo, gravando o som de uma pistola de partida em uma pista de atletismo, é possível obter a resposta do impulso desse ambiente para quase todas as frequências.
Ao editá-lo, os engenheiros de áudio cortam o impacto direto do som, deixando apenas a reverberação. O resultado é uma resposta do impulso que pode ser usada no processador de convolução para obter a acústica de qualquer ambiente.
Além disso, a convolução pode ser usada para obter a impressão digital de outros efeitos, como amplificadores de guitarra e características de microfones lendários.
Existem muitas bibliotecas de IR’s disponíveis na internet, algumas pagas e de boa qualidade e outras gratuitas, que também não deixam nada a desejar.
É incrível o que a matemática e a tecnologia podem fazer pela música!

Ouça um exemplo em que tento ilustrar o funcionamento.
Eu mesmo fiz: Peguei um som de tiro e fiz um arquivocom dois sons, que na realidade são os mesmos. Porém, um é o tiro talcomo ele soa e o outro depois dele é apenas a resposta ao impacto desse tiro.

Os impulsos sonoros são gravados em arquivos com extensão wav ou aiff, como explicado anteriormente.
Alguns softwares possuem extensões próprias para trabalhar com esse tipo de efeito, como é o caso dos Impulse Files para o SoundForge. E a boa notícia é que eles podem ser baixados gratuitamente!
Infelizmente, o link original do arquivo no site da Sony (agora Magix) não está mais disponível, mas deixo aqui para quem deseja brincar.

Basta extrair os arquivos para uma pasta e acessá-los através da opção effects>Acoustic mirrors no Sound Forge.
Ao abrir, uma janela aparecerá e você poderá procurar o arquivo de impulso que deseja usar através do botão “Browse”. Além disso, é possível fazer ajustes na intensidade do reverb em relação ao som original.
Agora, vamos entender a grande sacada que ocorre quando utilizamos um arquivo de impulso no Sound Forge ou em outro software/plugin que trabalhe com esses arquivos.

Ao utilizar então esse recurso, é possível adicionar ao áudio o som característico de diferentes lugares, como avenidas, aeroportos, ginásios e teatros, tornando a gravação mais realista e imersiva.
Outro exemplo de uso da convolução é nos filmes, em que os atores gravam suas vozes em estúdio, mas em algumas cenas elas soam como se estivessem em lugares específicos, como aeroportos. Esse efeito pode ser criado com a convolução, tornando a gravação mais envolvente.
Porém, é importante lembrar que a convolução pode ser uma dor de cabeça em projetos com várias pistas de áudio e diferentes efeitos processando em tempo real. Por isso, a solução mais viável é utilizar arquivos wav separadamente, com o efeito já aplicado, e fazer o backup dos arquivos originais antes de realizar qualquer alteração.

Bem pessoal, chegamos ao fim de mais um artigo sobre efeitos sonoros e o reverb de convolução. Agora é hora de se divertir!
Use os reverbs em suas montagens, produções ou onde quer que precise de um som diferenciado. Brinque com seus amigos e mostre a eles como é possível falar diretamente da Califórnia, da cidade de Frankfurt ou até mesmo dentro de uma caverna misteriosa sem sair de casa.
Aliás, se você é um gênio criativo, saiba que pode dar uma de engenheiro de áudio e criar seus próprios Impulse Files.

Isso mesmo, você pode gravar com o reverb da casa de um amigo em outra cidade, como se estivesse lá. O processo é simples:
grave um som de impacto forte e audível em um determinado ambiente, edite-o para cortar o som de impacto, ficando apenas com o reverb, e salve-o como um arquivo wave.
É preferível fazer a gravação em estéreo, o que pode ser feito com dois microfones ou com gravadores digitais que já possuem microfones embutidos, ou ainda usando o celular.
Mas espere, não precisa vir à minha casa para aprender a fazer isso, viu?

Aqui está para download gratuito, o reverb do meu quarto.
A captação foi bem simples: Bati com a mão na parede do lado daminha cama bem forte, e depois editei, cortando o impacto desse som e deixando só o reverb.
Vou disponibilizar aqui as duas gravações, uma com o som tal como ele soa aqui e o outro apenas com o reverb.
Use o segundo, ok?

Paulada na parede
Resposta dessa paulada na parede (IR)

É isso. Brinquem a vontade, o limite é a sua criatividade.
Até a próxima!

Entendendo os tipos de efeitos mais usados na produção musical

Tempo de leitura: 3 minutos

Olá!
Espero que todos estejam bem.
Neste post gostaria de falar sobre os efeitos comumente utilizados em produções musicais e os resultados que podem ser obtidos a partir deles.

A maioria dos efeitos disponíveis em processadores e pedaleiras são simulações de efeitos acústicos que ocorrem naturalmente em nosso ambiente e são estudados pela física. Ao produzirmos sons em diferentes ambientes, podemos perceber como eles se propagam.
Por exemplo, quando cantamos no chuveiro e percebemos que nossa voz soa afinada, ou quando falamos diante de um grande morro e ouvimos o som repetido, chamado de “eco” pelas pessoas, mas que na verdade é um tipo de efeito com outro nome.
Começarei então falando sobre o Reverb.

A reverberação ocorre quando o som é gerado e reflete nas paredes, no chão, no teto e retorna em várias réplicas do mesmo som em tempos diferentes, o que resulta em um som contínuo e preenchido. O decaimento do reverb depende do tamanho da sala, e existem vários tipos de reverb, desde curtos até longos.
O reverb é um dos primeiros efeitos de embelezamento sonoro a ser amplamente utilizado e é capaz de dar a sensação de preenchimento em músicas com poucos instrumentos, como um piano soando em uma sala de concerto.

Hoje em dia, o reverb é gerado digitalmente por processadores de efeitos em hardware ou software. No passado, havia grandes salas acusticamente projetadas próximas aos estúdios para emitir e captar o efeito.
Também havia alternativas mais rudimentares, como o tipo mola (usado em amplificadores de guitarra) e o tipo plate (característico de gravações antigas).
Para ilustrar, é possível ouvir exemplos de músicas que utilizam esse tipo de reverb, como “Mar de Rosas” do The Fevers e “Dominique” de Giane:

Mar de Rosas do The Fevers
DOMINIQUE –

Preste atenção no reverb e veja como ele é bem metálico.

Vamos agora explorar o segundo efeito sonoro que é bastante conhecido: o eco, também chamado de delay.
Essa expressão em inglês significa literalmente “atraso”, e é fácil de entender como ele funciona: quando um som é emitido, ele se propaga e, ao encontrar obstáculos no caminho, como paredes ou rampas, parte dele acaba retornando para o ponto de origem.
Esse som refletido é o que chamamos de eco, e seu volume diminui à medida que ele se distancia do lugar onde foi gerado.
O delay é exatamente o tempo que leva para o som refletido retornar, e é um parâmetro fundamental na criação de efeitos sonoros. Ele também é utilizado em outros contextos, como na comunicação por voz via internet e na latência de processamento de dados.

Apesar de ser simples, o delay foi um dos primeiros efeitos sonoros que a tecnologia conseguiu imitar. Na música, esse efeito serviu como inspiração para criar novas sonoridades e dar asas à criatividade dos artistas.
Por exemplo, o canto yodo (ou jodler, como é conhecido na Alemanha), originário dos alpes alemães, se baseia no eco natural das montanhas.
Esse efeito foi incorporado às músicas, às vezes de forma rítmica, e pode ser ouvido em produções musicais modernas, como no remix “Galera de Cowboy” da Dalas Company, que usa um delay do tipo “ping pong” para criar um efeito estéreo interessante:

galera de cowboy

Preste atenção já no começo da música o “ping pong” do delay de acordo com o ritmo.

Ao explicar os dois efeitos, podemos concluir que o reverb consiste em milhares de fragmentos pequenos de delays em variações de tempo diferentes.
A tecnologia transformou o delay e o reverb em efeitos digitais, possibilitando a criação de novos tipos de efeitos a partir da manipulação das ondas sonoras, muitos deles baseados em efeitos já existentes.
Por exemplo, o efeito flanger cria uma sensação de “som entubado” usando vários delays curtos com variações periódicas de tempo, geralmente entre 10 a um milésimo de segundo.
O Phaser funciona de forma semelhante, mas com variações ainda menores, entre zero e um milésimo de segundo.
O Chorus é outro efeito muito utilizado na produção musical, simulando a sensação de várias pessoas cantando em uníssono, com pequenas variações de tempo e afinação.
Já o Pitch é um efeito de rotação que altera a afinação e a velocidade do som, com possibilidades de ajuste por oitava, intervalo, tons e semitons.

Por fim, o Equalizador é um tipo de efeito que permite ajustar o volume de determinadas frequências, podendo ser usado para editar, modificar timbres e dar uma outra cara ao som.
Os controles disponíveis nos equalizadores dependem do tipo de equalizador, sendo os gráficos com controles deslizantes e de várias bandas os mais comuns. Já os equalizadores paramétricos permitem um controle ainda maior da amplitude e das frequências vizinhas.

Com esses efeitos, um produtor musical tem a possibilidade de criar uma variedade de sons e timbres em suas produções.
Há muitos outros efeitos disponíveis e serão abordados em posts futuros.
Espero que tenham gostado. Deixem seus comentários abaixo!
Até a próxima!

Boas práticas para uma produção musical de qualidade

Tempo de leitura: 4 minutos

Olá pessoal!
Tudo bem com todos?
Neste post irei falar de boas práticas para as etapas de gravação, mixagem e masterização a fim de conseguir uma produção musical de qualidade.
O Essencial é não usar equipamentos enganosos.

Para começar, o primeiro item já será logo de cara o fone de ouvido.
“Mas Gabriel, Porquê?”
Novamente me vem à tona os bons tempos de infância quando eu usava direto os fones de ouvido para ouvir música, de modo que já perdi a conta de quantas marcas de fone já tive e de quantos já consegui estragar.
A questão é que ouvir e produzir música são coisas distintas.
Ao ouvir uma canção, o ouvinte não está preocupado com a equalização ou distribuição dos instrumentos no campo sonoro, mas sabe que a música é boa ou ruim pelo conjunto da obra, inclusive na qualidade do equipamento utilizado para a audição. Tudo isso pode desencadear uma série de reações.
Justamente por isso é que, para quem cuida de uma produção musical, deve perceber cada detalhe usando equipamentos adequados que possibilitam ouvir o som “como ele realmente é”, ou seja, sem muito reforço de graves, médios e agudos. Esse é o grande problema dos fones e equipamentos comuns.

Eu, que já carregava esse vício ao longo do tempo, comecei também a utilizá-los como referência nas minhas produções musicais.
Cada vez que terminava uma produção, ouvia em diferentes equipamentos e nunca tinha uma definição clara do som. Quando ouvia nos fones, parecia que estava legal; quando eu ouvia no carro, estava muito grave. E assim os fones iam causando falsa impressão nas mixagens.
E o pior de tudo foi eu ter insistido nisso, porque noutro dia queria melhorar e acabava indo longe demais e estragando ainda mais o trabalho.

Se o uso constante de fone de ouvido já é um perigo, o que dizer então de modelos que não são apropriados para essa tarefa?
É exatamente isso que acontece. Por falta de conhecimento ou mesmo um certo “ego” de nossa parte, demoramos a perceber que o problema está em nós mesmos, principalmente quando o cérebro acaba se acostumando.

Nosso ouvido aqui funciona como um par de microfones (um para cada lado). É o cérebro que interpreta o que a gente conhece como um som.
Então, ouvir música nem sempre é uma rotina, mas produzir música faz parte do trabalho diário e deve ser confortável, sem causar confusão ao cérebro.
O resultado final deve ser uma música que se faz ouvir da mesma forma em diferentes lugares. A mesma reprodução num fone eu tenho que conseguir também no carro, num aparelho de som, em uma festa… O processo de masterização é responsável por isso.
Percebe como não é tão simples assim?

Então, é recomendado o uso de fones específicos de monitoramento, ou melhor, um par de monitores de referência para você sentir como o som se propaga no seu ambiente de produção e chega até o ouvido, pois isso também faz diferença.
Faça isso principalmente se o barulho não é um problema, nem precisa ser em volume alto.
Existem fones que simulam essa experiência, podendo inclusive escolher o tipo de ambiente como se você estivesse naquele lugar, mas é só uma simulação, certo? Prefira os monitores de referência.
Use os fones apenas para gravação (para não vazar som), ou para ouvir o resultado final antes de tirar uma conclusão definitiva do trabalho.

Ok, falei que nosso ouvido funciona como um par de microfones. E quando eles não funcionam direito?
Esse paralelo pode ser feito com a utilização de microfones ruins, ou mesmo placas de som como as dos computadores da linha PC, que obviamente terão um sistema de amplificação precário.
Da mesma forma que a perda auditiva causa dificuldades na compreensão da fala e na percepção sonora, um microfone ruim ou uma placa de som genérica também vai proporcionar um resultado inferior.
“Mas Gabriel! Com umas edições de áudio com certeza dá pra resolver isso”.
Até certo ponto sim, mas não de tal forma que se possa comparar com uma captação de qualidade profissional.
É a mesma coisa que você achar que vai ouvir da mesma forma os sons que ouvia antes de precisar usar uma prótese auditiva.
Numa perda muito severa isso pode nem funcionar direito, e assim também é numa gravação de qualidade horrível.
Parece não fazer sentido, mas é verdade. Aliás, o mundo sonoro começa em nós quando aprendemos a ouvir. E é assim que devemos também perceber a forma como funcionam os microfones e as placas de som.
Podemos fazer um paralelo dos zumbidos com ruídos que são ocasionados por uso de equipamentos ruins, falta de aterramento ou coisas do tipo.
Uma captação com equipamentos razoáveis é uma forma de registro sonoro quando a intenção não é mesmo profissional; por isso pode não soar tão bem. Não a nada de errado tentar melhorar de forma artificial, mas não será a mesma coisa.
No caso da perda auditiva, um aparelho auditivo pode até trazer de volta a qualidade de vida, não a nada de errado nisso também. Só não tira as consequências, assim como acontece também com a qualidade de uma gravação mau feita.

Em especial para os microfones, cada um possue características muito peculiares que servem para determinado tipo de aplicação.
Por exemplo: Os microfones condensadores possuem uma sensibilidade maior de captação e por isso captam mais detalhes, mas são um desastre para ambientes muito barulhentos ou sem um tratamento acústico.
Os microfones dinâmicos além de resolverem o problema, também são uma ótima pedida para apresentações ao vivo, mas podem não ser adequados para captar certos instrumentos.
No final das contas, vale a pena experimentar e principalmente perceber como o som está sendo captado para não haver dor de cabeça depois, porque tudo começa na gravação.

Depois da gravação vem a mixagem.
Qual será que é o segredo dela, como dão tanto a entender os livros que falam sobre o assunto?
Nenhum. Na verdade, tudo começa pelas referências de estilos musicais que podem se encaixar com a música a ser produzida.
Cada estilo musical pede uma configuração diferente, de modo que aqui vale principalmente o uso do bom censo.
Nada de apelação!
Se a mixagem for mau feita, haverá mais trabalho ainda ao corrigir defeitos na hora de masterizar.

Aqui a mixagem não é pura e simplesmente uma mistura de sons.
Tudo precisa ser ouvido, sem mais nem menos, sem exageros.
É possível colocar a voz mais para a frente com relação aos outros instrumentos? sim, mas isso não quer dizer que precisa “sentar” o volume nela. Usar limiters e compressores para segurar a dinâmica é sempre válido, mas de novo: Não exagere, por favor!
Seja criativo nos efeitos. Coloque um reverb quando for necessário, brinque com o delay como se ele fosse algo amais para a música e não como apenas um efeitozinho que está ali.
A mixagem pode compartilhar algumas das técnicas usadas na masterização, mas são coisas diferentes. Não adianta construir um carro sem antes ajustar as partes para que fiquem juntas.

Por fim, a masterização pode ser considerada como o “polimento” da música.
Podem ser feitos várias checagens, como balanço, equilíbrio e aprimoramento dos canais esquerdo e direito, equalização geral, compressão e limiter.
Isso garante que o material tenha um bom volume e que seja reproduzível da mesma forma em qualquer meio (aparelho de som, carro, televisão, etc).

É isso galera!
Espero que tenham gostado.
Até a próxima!