Sobre mim

Sou tecladista, pianista e graduado como produtor fonográfico pela Universidade do Vale do Rio dos Sinos (Unisinos), além de qualificado profissional em composição e arramjo e técnico em instrumento musical pela faculdades EST de São Leopoldo.

Cabo virtual de áudio e midi no windows, como funciona

Tempo de leitura: 3 minutos

Olá pessoal!
Tudo bem com todos?
Espero que estejam gostando de meus posts!
Nesse texto, explicarei como funcionam os softwares que simulam cabos virtuais no computador, tanto de áudio quanto de midi. Para isso, primeiro preciso falar da conexão física entre equipamentos de áudio, que é o conceito básico por trás desses softwares.

Considere um teclado sem alto-falantes, como geralmente são os modelos top de linha. Para reproduzir o som deles, é necessário conectar o instrumento a uma caixa de som, fone de ouvido, mesa de som, entre outros dispositivos de saída de áudio.
O mesmo princípio se aplica a placas de som onboard e offboard. Para reproduzir som nelas, é necessário conectar um desses dispositivos de saída de áudio.
Se imaginarmos duas placas de som operando em um mesmo computador, podemos direcionar a saída de áudio de cada uma para um dispositivo diferente. Por exemplo, os sons de notificações do Windows podem sair nos fones de ouvido na placa secundária, enquanto uma playlist de músicas de alto volume pode ser reproduzida nas caixas de som conectadas à placa primária.

Dessa forma, é possível separar os sons fisicamente, de modo que um não interfere no outro. Os sons secundários só são ouvidos pelo usuário, enquanto o primário pode ser ouvido por todos.
Mas e se quisermos fazer essa separação de áudio com uma única placa de som? Fisicamente, isso não é possível, exceto em alguns notebooks que permitem a saída de áudio de duas vias no mesmo equipamento.
Por isso, softwares foram desenvolvidos para simular cabos virtuais de áudio e midi.

Assim como a conexão física entre equipamentos, essas placas virtuais permitem a conexão de áudio entre aplicativos, usando o serviço de áudio do Windows como base. Por exemplo, um aplicativo de gravação pode capturar o som de outro que esteja sendo reproduzido em um dispositivo virtual.
É possível também enviar a saída de áudio de mais de um aplicativo, além de dispositivos de entrada, como um microfone conectado a uma placa de som física, permitindo a junção de tudo isso no mesmo lugar.
Pode-se ainda criar vários cabos ou placas virtuais para ter mais vias diferentes por onde podem sair os sons.

Existem dois programas que fazem isso: o VAC (Virtual Audio Cable) da Eugene Muzychenko, que é pago, e o VB audio Cable , que é donationware.
O VAC tem um aplicativo (Audio Repeater) que funciona como a pré-escuta do Windows com muito mais funcionalidades, como ajuste de buffer.

Para ilustrar, suponha que você tenha um servidor de streaming e queira fazer uma transmissão ao vivo. Um software pode ser utilizado para enviar a saída de áudio de um dispositivo virtual ao seu servidor, que por sua vez distribui para os ouvintes conectados nele.
Neste dispositivo virtual podem ser reproduzidos vários sons de aplicativos e entradas diferentes, como um para reproduzir as músicas, outro com o áudio de uma chamada do Skype e ainda o áudio do seu microfone.
Uma outra opção interessante é o Voicemeeter , que combina entradas e saídas de áudio físicas (as que estiverem disponíveis) e virtuais, funcionando como uma mesa de som virtual.
Para aqueles que produzem música e usam a plataforma ASIO, há ferramentas como o SAR (Synchronous Audio Router) , que permitem a criação de dispositivos virtuais de entrada para receber o sinal de aplicativos que suportam ASIO, e que podem ser capturados por outros aplicativos que não são compatíveis com ASIO.
Um exemplo disso é a capacidade de enviar, sem latência, o áudio de um projeto com vários plugins em tempo real que está sendo processado e executado em uma DAW, como o Reaper, para um aplicativo VOIP, como o Zoom ou Skype, que não possuem suporte para ASIO.
Além disso, o próprio Reaper oferece uma extensão adicional chamada ReaRout, que permite o intercâmbio de áudio entre aplicativos ASIO.

Para finalizar, vale mencionar os cabos midi virtuais, que seguem a mesma lógica dos cabos físicos.
No entanto, em vez de uma conexão física, aplicativos são utilizados para enviar e receber sinais MIDI entre eles.
Significa que é possível enviar sinais MIDI sem a necessidade de um teclado controlador, usando apenas o teclado do computador como dispositivo de entrada.
Essa solução é especialmente útil em softwares de sequenciamento MIDI que não permitem o uso do teclado do computador, como o Sonar, em que o “Piano Row” é operado pelo mouse, bem diferente do Reaper, em que um cabo virtual midi não é necessário.
Para essa categoria, também há opções gratuitas para fazer isso, como o Springbeats e o Loopmidi.

É isso galera!
Abraços em todos e beijos em todas!

Driver, placas de som e sistemas de áudio

Tempo de leitura: 6 minutos

Olá pessoal!
Espero que estejam todos muitíssimo bem.
O assunto desse post é de grande utilidade e tenho certeza que ajudará muita gente.

Para utilizar qualquer DAW, é extremamente importante configurar corretamente a placa de som no software. É por isso que é relevante abordar os diferentes tipos de placas de som para que você possa tomar uma decisão mais informada sobre qual sistema de áudio escolher durante a configuração.
Antes de prosseguir com as diferentes opções de placa de som, é importante compreender o que é um driver.

Para realizar o processamento de multimídia, é necessário que a máquina possua dois elementos fundamentais:

  • Hardware, capaz de processar as informações de forma eficiente. Exemplo: Placa de som.
  • Software multimídia, dividido em duas partes: driver e aplicativo.

O driver, que em português significa “controlador”, é responsável por gerenciar as características do hardware de multimídia. Já o aplicativo, é responsável por fornecer ao usuário controle sobre esse processamento, como no caso das DAWs.
Compreendidos esses elementos, agora podemos abordar a placa de som.

No seu computador, a placa de som usada para reproduzir músicas e outros sons do sistema é geralmente embutida na placa mãe, e por isso é chamada de placa de som “onboard” ou interna.
Quando o computador precisa reproduzir algum som, o comando passa por várias camadas do sistema operacional para garantir que não haja conflitos com outros programas que também queiram utilizar o som simultaneamente, como um player de música e um vídeo do YouTube.
Embora isso não seja um problema para o uso diário do computador, o tempo de processamento que ocorre durante esse processo não é ideal para tarefas de produção musical, onde é necessário ter baixa latência e um som sem cortes.
Se você está começando a gravar músicas em casa, a placa de som do seu computador será útil. No entanto, à medida que suas produções musicais se tornam mais complexas, você perceberá a necessidade de uma placa de som mais profissional e adequada para suas necessidades.
É aí que entram as interfaces de áudio.

Elas funcionam como pequenas ou grandes mesas de som, com botões giratórios que ajustam o volume de entrada e saída. Além de serem muito portáteis e compatíveis com a maioria das DAWs, as interfaces de áudio oferecem um som limpo e livre de ruídos, com conversores D/A (Digital para analógico) e A/D (analógico para digital) de alta qualidade e entradas diferentes da P2, como P10 e XLR, que são muito usadas em microfones condensadores. Algumas inclusive vem com entradas combo, permitindo tanto XLR quanto P10.
As interfaces de áudio também possuem pré-amplificadores de som, que permitem uma gravação mais precisa e limpa.
Os gravadores digitais em sua grande maioria funcionam como verdadeiras interfaces de bolso para quem quer algo fácil de carregar.
Já para aqueles que desejam expandir suas possibilidades de mixagem, as “mesas de som interface” são uma excelente opção. Elas apresentam características importantes de uma interface portátil, ao mesmo tempo em que mantêm os recursos essenciais de uma mesa de som tradicional, tais como equalização individual para cada canal, processador de efeitos, saídas auxiliares, subgrupos e até mesmo a capacidade de gravar simultaneamente e separadamente cada entrada de áudio com o auxílio da DAW. Com isso, é possível realizar mixagens mais elaboradas e profissionais em qualquer lugar, sem abrir mão da qualidade e da praticidade.

Ao investir em equipamentos de som externos, é importante ter cuidado, pois existem placas de som genéricas que possuem características semelhantes às de uma placa de som de computador, mas oferecem poucos recursos adicionais, tornando-as inadequadas para uso profissional.
Essas placas de som genéricas são comuns em lojas de informática e geralmente são bem baratas, mas nenhuma delas é capaz de reproduzir áudio de 24 bits com precisão, mesmo que tenham essa configuração.
Infelizmente, alguns vendedores anunciam erroneamente esses produtos como placas de som profissionais, quando na verdade não são.
Por isso, é fundamental pesquisar bem antes de fazer sua escolha e optar por uma placa de som de qualidade que atenda às suas necessidades específicas de áudio.
Procure saber se ela tem pelo menos o Phanton Power para o uso de microfones condensadores e, o mais importante de tudo, suporte à Asio com driver dedicado. Não se preocupe, entrarei em detalhes sobre o Asio mais adiante.
Isso posto, agora é a vez de falar dos sistemas de som, que é a parte mais importante da configuração de áudio numa DAW.

Existem várias opções para escolher ao configurar sua placa de som para obter o melhor desempenho possível. Abaixo estão as descrições dos protocolos mais usados:

Wave Out ou MME

Algumas DAWS como o Reaper são aplicativos bastante flexíveis quando se trata de usar placas de som genéricas, configurando-as para usar o protocolo Wave Out (ou MME), que mantém a compatibilidade com uma variedade de interfaces de áudio.
No entanto, o Wave Out não oferece o mesmo desempenho que o ASIO e pode resultar em latência no processamento de sinais de áudio, dependendo da configuração do hardware.

A latência é o tempo que leva para o sinal gravado ser reproduzido em segundos ou milissegundos, e é influenciada pelo buffer, que é o tempo que a placa de som reserva para processar informações.
Um buffer maior pode facilitar o processamento, mas aumenta a latência, e um buffer muito curto pode causar bugs, estalos, ou travar o programa.
Se você começar a usar vários plugins, isso pode piorar. A placa de áudio e os drivers associados dos computadores comuns não foram desenvolvidos inicialmente para produção de áudio, então, originalmente, os dispositivos de áudio Windows tinham dificuldades em processar o som com a rapidez necessária para o tempo real.
O sistema operacional possui camadas de drivers que realizam o processo, levando tempo.
Latências inferiores a 7 milissegundos podem ser consideradas em tempo real. Até 15ms, é possível gravar sem maiores problemas. Acima disso, a latência pode se tornar um incômodo.

WASAPI

O WASAPI (Windows Audio Session API) funciona de modo exclusivo, permitindo que apenas um software use a placa de som por vez para reprodução e gravação de áudio.
É um sistema de áudio recente criado pela Microsoft que está presente no Windows Vista, 7, 8, 8.1 e 10, principalmente por permitir a transmissão de som em nível “surround”.
Ao usar o WASAPI em algumas DAWs, como o Reaper, é possível gravar os sons do computador exatamente como se fazia com o recurso “stereo mix” ou “mixagem stereo” presentes em algumas placas de som genéricas. Isso é chamado de “loopback”.
No entanto, o WASAPI não funciona em algumas placas de som de computador e não oferece vantagens em situações que necessitem de áudio com baixa latência, pois o sinal passa primeiro pelo Windows antes de chegar na placa de som.

ASIO

O ASIO (Audio Stream Input Output) é um protocolo que grava e reproduz simultaneamente diversas fontes de áudio sem perder sincronia e qualidade.
Foi criado pela Steinberg, a mesma empresa alemã dona do Cubase e também das plataformas VST / VSTI.
O ASIO permite a comunicação com fidelidade entre a DAW e a interface de áudio, sem interferências no sinal. É possível aplicar vários plugins ao mesmo tempo porque o driver cria um caminho direto entre a DAW e a interface, sem passar pelo hardware de som do Windows, o que ajuda a reproduzir o sinal com muito menos latência.
Cada interface de áudio possui o seu próprio driver Asio, o que garante uma melhor integridade com esse sistema de som.

No mac, Os Core Audio (drivers de áudio nativos dos computadores Apple) apresentam ótima resposta. Claro, nem tanto quanto o ASIO dedicado de uma interface externa, mas o suficiente para quebrar um galho em uma sessão com poucos plugins.
Já no Windows, isso é difícil de conseguir, mas não impossível.
Então, para as placas de som genéricas que não possuem um driver Asio dedicado, uma alternativa é tentar o Asio4all.
Mas o que é o Asio4 all e por que não se recomenda muito seu uso?

Em 2003, o programador alemão Michael Tippach criou o Asio4all para auxiliar aqueles que não possuíam suporte nativo ao ASIO. O software emula o ambiente do ASIO em placas de som genéricas, garantindo funcionalidade às DAWs.
Assim como o ASIO, o Asio4all é independente de hardwares, o que é essencial para resolver problemas de latência. No entanto, ao usar o Asio4all em seu computador, você só poderá usar/gravar um único canal, já que o computador normalmente possui apenas uma entrada, que é P2 e pode comprometer a qualidade do sinal.
Gravar diretamente na entrada de microfone do computador geralmente resulta em áudio de baixíssima qualidade. Além disso, ao usar o Asio4all com a placa de som do computador, outros sons não prioritários podem ser silenciados, deixando ativo apenas o som da DAW.

Para configurar os inputs e outputs (entradas e saídas de áudio) a partir do sistema de som escolhido, é necessário seguir alguns passos:
Se você optar por usar a placa de som do seu computador por meio do Wave Out ou outro sistema de som que não seja o ASIO, as opções de entrada/saída de áudio geralmente são limitadas.
Isso depende principalmente dos recursos da placa de som ou de outros dispositivos de áudio instalados. Algumas permitem gravar apenas a entrada de linha, enquanto outras apenas o microfone interno dos notebooks, e assim por diante.
No entanto, ao usar interfaces de áudio no modo ASIO, você pode configurar uma variedade de entradas e saídas de áudio para que, ao criar as tracks, seja possível escolher quais canais de entrada e saída serão usados a partir dessa variedade.
Por exemplo, se você configurou uma faixa de quatro entradas, mas sua interface de áudio tem oito, apenas quatro estarão disponíveis para uso.

Depois de fazer essa configuração, é necessário ajustar o tamanho do buffer.
Para o ASIO, as configurações variam de acordo com o painel de controle de cada interface de áudio. Para os outros sistemas de som, geralmente é possível fazer essa configuração a partir de campos de edição que determinam o tamanho.
Porém, o comportamento pode ser diferente dependendo do sistema de som escolhido, o que requer experimentação. O modo de ajuste do buffer também varia.

Com essas configurações adequadas, você será capaz de aproveitar todas as potencialidades de sua interface de áudio e dos demais equipamentos de trabalho na sua DAW.
Embora cada DAW tenha maneiras diferentes de tratar essas configurações, o princípio é o mesmo.
Espero que tenham gostado das dicas!
Fiquem a vontade para deixarem recomendações de interfaces de áudio, dicas relevantes sobre o assunto e até dúvidas.
Grande abraço e até a próxima!

Fontes:
Magroov blog
KV Music Beats no Youtube

Removendo ou extraindo vocal de músicas com precisão

Tempo de leitura: 6 minutos

Olá pessoal!
Espero que estejam todos muitíssimo bem!

Neste post estou inspirado para falar de um assunto que é de muito interesse dos profissionais e até mesmo de entusiastas da música, e que continua sendo objeto de muitas pesquisas já há um bom tempo: Será que é possível remover o vocal de uma música já mixada e masterizada? Ou então, extrair a voz retirando o instrumental?
Bom, muitos com certeza ainda vão dizer que não; outros vão dizer que sim , mas de forma parcial.

Remover ou isolar o vocal de uma música com 100% de precisão sempre foi um grande desafio e, até então, era considerado algo praticamente impossível. Mas o fato é que, com os primeiros sinais da inteligência artificial nesse sentido, que começou por volta de 2019, isso está mudando para melhor, com resultados que surpreendem a cada novo algoritmo desenvolvido e pré-treinado.
Dependendo da música, a precisão pode chegar em torno de 75 a 90%.
Ótimo para inúmeras finalidades:

  • Ensaiar a música ouvindo todo ou parte do instrumental; útil quando o arranjo é muito complexo e se deseja ouvir algo com mais detalhes
  • Extrair o vocal para usar em uma nova versão da música, como um remix ou mashup, mesmo sem ter as tracks ou pedir autorização para o artista ou gravadora
  • Gerar o playback da música para cantar por cima (a qualidade pode ficar um pouco prejudicada dependendo de qual for escolhida)

É claro que, para ambos os casos como acabei de dizer, e dependendo do algoritmo escolhido, ainda pode haver alguma perda de qualidade, mas já está bem melhor do que se podia fazer no passado.
Estamos falando aqui de engenharia reversa. Pense nisso como a tentativa de descompilar um software de código fechado… É a mesma coisa.

Numa música finalizada, tudo está incluído: A voz, os instrumentos e os efeitos e demais elementos de produção.
Uma vez que você não está de posse das tracks separadas, não é possível ouví-las individualmente, com a mesma qualidade com que foi gravado ou captado.
Então, assim como é estabelecido no acordo de licença do uso de um aplicativo de código fechado, você não tem autorização para descompilar, desmontar ou fazer alguma modificação de forma ilegal. É daí que vem a pirataria e os crackers fazem justamente isso.

E na música não é diferente.
Eu tenho essa consciência e acredito que você que produz e já imaginou fazendo coisas legais com elas também tem, mas existe situações em que realmente é muito complicado pedir autorização para obter o projeto aberto à um artista ou gravadora, por diversas razões:

  • O artista pode já ter falecido
  • A gravadora pode não existir mais
  • Sem uma grande negociação que beneficie mais o artista ou a própria gravadora do que o interessado, é provável que a proposta seja recusada
  • Não há garantia de que a gravadora ainda tenha o projeto arquivado

Entra em cena a manifestação artística através dos meios digitais quando não há outra possibilidade melhor, de forma que nem sempre isso representa um problema grave.
Por exemplo: Num show em público, é livre a interpretação de músicas populares tanto por artistas independentes quanto profissionais, sem que seja necessário uma autorização para isso.
Num remix ou produção bem criativa de uma música já existente, o autor não deixará de ter seus ganhos pela criação original, mas o produtor da versão remixada também poderia ser recompensado pelo trabalho e por mostrar ao mundo a peça musical de um novo jeito, com um novo estilo e alcançando um público ainda maior.

Assim, A possibilidade de isolar e principalmente remover o vocal das músicas com o surgimento de novas ferramentas inteligentes já está sendo uma mão na roda, gerando resultados cada vez melhores e de acesso imediato para o público em geral, músicos e não músicos.
Então, se ficou interessado, continue lendo e vamos ver as técnicas possíveis para remover ou isolar o vocal de uma música!

Isolando ou retirando a voz através da inversão de fase

No caso de isolar o vocal de uma música dessa forma, é necessário possuir a versão original da música e outra versão que contenha apenas o playback, ambas com a mesma qualidade de áudio em bitrate e sample rate.
Esse processo envolve o fenômeno físico da inversão de fase, que se aplica ao áudio por causa das ondas sonoras e das vibrações que geram no ar.

Ao ouvirmos um som, percebemos as variações na pressão que são geradas pelas ondas. Durante a gravação, o diafragma do microfone age de forma semelhante ao tímpano, vibrando de acordo com essas ondas.
Os picos de onda movem o diafragma em uma direção, enquanto os períodos de menor intensidade geram movimento na direção oposta.
Com isso em mente, podemos dizer que ao juntarmos a versão original com a versão playback, ambas sincronizadas perfeitamente, podemos utilizar a técnica de inversão de fase em uma delas. Isso fará com que a voz seja reproduzida isoladamente, já que essa é a única parte da música que não aparece no playback e, portanto, não será anulada.

Para fazer o inverso, você precisaria ter, além da original, uma versão apenas com a voz.
É importante ressaltar que é incomum encontrar a voz separada da música com qualidade 100% original, o que dificulta esse processo de gerar o Playback por inversão de fase.
Além disso, a maioria dos artistas não disponibiliza os playbacks de suas músicas oficialmente, sendo mais comum encontrá-los em músicas do estilo gospel ou gerados a partir de multitracks vazados de músicas internacionais mais antigas que circulam na internet.

Sendo assim, é melhor deixar isso para a IA, não é mesmo? ☺
Continue lendo!

Isolando ou retirando a voz com plugins, programas e ferramentas online

No passado, alguns plugins que tentavam remover o vocal das músicas muitas vezes prejudicavam a qualidade do áudio, destruindo a imagem stereo e transformando o resultado em mono.
Hoje, já existe a técnica de machine learning por trás, como no site Phonicmind , onde você consegue, online, remover e isolar o vocal de músicas com bastante precisão e salvar o resultado em arquivo mp3.
Este foi o primeiro site que descobri na época, com resultados bem satisfatórios.

De lá pra cá, muitos outros sites e algoritmos surgiram com o mesmo propósito, como o Moises.ai (plano gratuito e pago) e o Melody.ml ; todos utilizam o algorítmo avançado de separação de áudio criado pelo Deezer (sim, uma das empresas de streaming de música).
O projeto chama-se Spleeter e o código é open source e disponível para desenvolvedores.
Sobre o Moises, além de ter a ferramenta para separar a música em várias partes, também é possível descobrir a tonalidade, o BPM (batidas por minuto) e os acordes cifrados, fora um recurso bem interessante para masterizar suas próprias músicas para deixar com uma cara mais profissional.

Mais recentemente ainda, também surgiu outro site chamado Lalal.ai , que promete resultados melhores do que os que usam a tecnologia spleeter, usando o Phoenix como algoritmo.
Por fim, esse aqui possibilita escolher o algoritmo que será utilizado (demusc, Ultimate Vocal Remover HQ, etc). Aliás, até agora, o Ultimate Vocal Remover foi o que mais me surpreendeu, principalmente para remover o vocal de músicas e usando a versão Offline em forma de programa (falarei mais sobre isso adiante).

Para os demais algoritmos, particularmente noto que, ao isolar a voz de músicas em que ela aparece com muito reverb, o noise reduction (ou gate) aplicado durante a extração faz com que a sobra do efeito seja cortado.

Na categoria de programas e plugins, uma ferramenta muito inteligente é o aplicativo RX da Izotop .
Um de seus módulos (music rebalance) permite ajustar o ganho de elementos de uma música já mixada em tempo real, o que ajuda a resolver problemas de volume. É possível também isolar ou remover a voz, bateria ou percussão, baixo e outros instrumentos.
Para o Demucs citado anteriormente em um dos sites, existe uma interface gráfica adaptada (GUI) , que permite utilizá-lo sem precisar de internet.
O mesmo vale também para o Ultimate Vocal Remover GUI, disponível para Windows, Mac e Linux, que reúne vários outros algoritmos tudo em um mesmo aplicativo.
Alguns já vem no pacote, outros podem ser baixados separadamente. Destaque aqui para o modelo UVR-DeEcho-DeReverb da categoria VR Architecture, que simplesmente tira o reverb ou o eco da voz extraída, ou mesmo de qualquer outro material de áudio que contenha o efeito.
Impressionante, não? 😯

Na minha opinião, o resultado produzido pelos dois são muito melhores se comparado ao RX.
O Demucs se destaca por ter melhor precisão para extrair baixo e bateria. O Ultimate Vocal Remover além de gerar a versão da música sem a voz com uma precisão muito boa, não deixa a desejar ao isolá-la, preservando os detalhes como a respiração e a sobra do efeito aplicado, com o mínimo de artefatos.

Uma outra alternativa é o Extra Boy pro da Elevayta, que funciona como um plugin VST e também permite ter controle do espectro sonoro, deletando um ou múltiplos instrumentos.
Por fim, o Voice Trap da Clone Ensemble, que é o mais antigo das ferramentas de remoção e isolamento de voz.
Na época que ele foi lançado, era o que havia de melhor. Tem plugin para VST e DirectX.

Bom galera, é isso.
Espero que tenham gostado!
Deixem suas impressões nos comentários.
Vou gostar de saber de outras ferramentas.
Até a próxima!

O funcionamento básico de um vocoder

Tempo de leitura: 3 minutos

Olá pessoal, espero que estejam bem.
Continuando a série de artigos sobre efeitos sonoros para produções musicais, neste texto vou falar sobre um dos mais conhecidos e famosos: o Vocoder.
Antes de entrar em detalhes, gostaria de compartilhar um fato curioso da minha infância.

Quando eu ouvia rádio e fazia minhas gravações em fitas cassete, sempre me impressionavam as vinhetas que tocavam entre as músicas. Algumas dessas vinhetas tinham vozes sintetizadas ou robóticas cantando com uma afinação tão perfeita e agradável aos ouvidos que eu ficava curioso para saber como era possível.
Essa é a primeira coisa que vem à mente quando falamos sobre Vocoder, e muitas outras pessoas podem ter passado por essa fase.
Com a evolução tecnológica e acesso facilitado à internet, fiz algumas pesquisas e descobri que se tratava do Vocoder, que muitas vezes é comercializado com outros nomes para chamar a atenção ou por questões de marketing.
O Vocoder não é utilizado apenas em vinhetas, mas também em diversas músicas, tanto antigas quanto atuais.

A experimentação começou em 1970, quando surgiram os primeiros vocoders desenvolvidos por Wendy Carlos e Robert Moog, o inventor do sintetizador clássico Moog, para fins musicais.
Antes disso, eram utilizados principalmente em telecomunicações, criptografando e codificando a voz para transmissão segura e protegida via rádio.
O Vocoder é a junção de voz codificada e na música tem a função de transformar a voz humana em voz sintetizada.
Para que esse fenômeno aconteça, ele precisa basicamente de dois componentes fundamentais: o Carrier e o Modulator.

Carrier é o timbre de algum instrumento (geralmente sintetizadores), que são utilizados como base para o processamento da voz.
O timbre pode vir de um teclado, instrumento virtual, etc. Pode conter de melodias até acordes completos, modificando de alguma forma o comportamento do vocoder, inclusive o timbre que será usado.
Uma boa dica é não usar timbres complexos ou com muitos efeitos, deixando-os para serem adicionados após a voz ser processada. Eles precisam soar secos como aqueles gerados por síntese, que produzem ondas quadradas, senoidais, triangulares, dente de serra ou a variação destas.
Se o vocoder tiver suporte a MIDI, então o Carrier é produzido em tempo real quando as notas são tocadas, mas você só ouve o resultado quando fala no microfone ao mesmo tempo em que toca o teclado, permitindo assim o controle do efeito em tempo real.
Geralmente, esse tipo de vocoder deve ser inserido na DAW em cima de uma faixa de áudio e, neste caso, será possível adicionar algum outro efeito na voz já processada.

Por fim, o Modulator é a sua própria voz, falada ou cantada.
Se você ainda não entendeu muito bem, a melhor forma de compreender é experimentando!
Aproveito para disponibilizar a todos um simples vocoder gratuito para Windows que funciona via linha de comando, desenvolvido por um programador:
VocShell
Nota: Para programadores, está disponível o código fonte aqui .

antes de começar a brincadeira, veja o programa em funcionamento ouvindo estes três sons.
O primeiro é o carrier, o segundo é o modulator e o último é a voz já codificada.

O modulator é pura e simplesmente a minha voz gravada, onde estou falando naturalmente, sem nenhuma intenção musical.

O carrier foi gerado por um software de computador com sons básicos de sintetizador através de código e sem muita frescura.

O resultado é uma voz robotizada e musical.

Outro exemplo, agora com intenções musicais:

Este carrier é diferente porque foi usado um timbre de teclado

Gostou?
Então é a sua vez de tentar!
Se você já baixou o vocshell, descompacte em qualquer lugar e localize o arquivo baixado usando o prompt do windows ou o power shell.
Por exemplo: Se o executável está na pasta vocshell, então digite:
cd vocshell

Em seguida deve invocar o executável passando pelo menos os parâmetros necessários:

  • -c – Carrier
  • -m – Modulator
  • -o – output (arquivo de saída)

Podem ser usados carriers tanto em mono quanto em stereo, mas o modulator precisa ser mono.


Exemplos de uso:
vocshell -c timbre.wav -m voz.wav -o resultado_final.wav

Há outros parâmetros opcionais que podem ser emitidos, mas não entrarei em mais detalhes aqui para não alongar o texto.
De qualquer forma, se você chamar o executável sem passar argumentos obterá a lista de todos os parâmetros que podem ser usados.

É isso galera!
Em outra oportunidade, darei dicas de ótimos plugins de vocoder para usar em tempo real na sua DAW.
Espero que tenham gostado de mais esse conteúdo.
Finalizo com esse trecho engraçado em áudio da música “Atirei o Pau no Gato” que fiz usando um plugin de vocoder da Native Instruments (Vokator).

Divirtam-se!
Deixem seus feedbacks nos comentários.
Até o próximo post!

reverbs de convolução

Tempo de leitura: 5 minutos

Olá a todos!
Espero que estejam bem e aproveitando este espaço.
Neste texto, gostaria de falar sobre um efeito sonoro interessante e muito utilizado em produções musicais, chamado Reverb de Convolução.

Em um artigo anterior, discuti dois efeitos comuns e expliquei o fenômeno por trás deles. Embora ambos envolvam a propagação das ondas sonoras, o primeiro faz com que o som se propague em zigue-zague pelo ambiente, gerando ondas adicionais que tornam o som mais contínuo, enquanto o segundo (Delay) faz com que o som seja repetido várias vezes, com intensidades cada vez mais baixas.
O reverb foi um dos primeiros efeitos que a tecnologia tentou simular, e hoje é amplamente utilizado em produções musicais, especialmente em gravações de vozes e instrumentos.
Essas gravações podem ser feitas em estúdios isolados acusticamente, com pouco ou nenhum reverb natural, para que o efeito possa ser adicionado posteriormente. Ou podem ser feitas em casa, com equipamentos razoavelmente baratos, acessíveis e de boa qualidade, desde que o ambiente seja isolado para evitar contaminação sonora.
A escolha do tipo de reverb pode ser um fator decisivo para o resultado final da produção musical. Usar ou não o efeito depende do estilo, contexto, andamento e instrumentação da música.
Encontrar o reverb adequado pode ser um desafio, mas existem várias opções disponíveis, incluindo reverbs de algoritmo.
Vou começar falando sobre ele então.

Os reverbs de algoritmo são gerados a partir de predefinições do usuário que determinam o tamanho do ambiente virtual e o tipo de revestimento desse espaço, levando em consideração as paredes ou outros materiais refletores. O software ou hardware, por meio de inúmeros cálculos e processamento, prevê as milhares de ondas que irão compor o reverb, assim como as réplicas do áudio em tempos distintos: Basicamente uma tentativa de simular um reverb natural.
Atualmente, o uso desses reverbs é muito comum em situações em que se deseja economizar tempo na captação de um reverb natural. No entanto, para que o reverb artificial seja convincente e engane o ouvido humano, o software ou hardware que gera o efeito precisa ter boa precisão, o que pode custar grande parte do processamento disponível hoje.
Os softwares de produção e edição de áudio trazem esses reverbs como padrão, facilitando o uso por todos. Mas se quisermos usar reverbs realmente acústicos, as possibilidades são infinitas e muitos reverbs são únicos e exclusivos.

Por exemplo, se você gosta do reverb do banheiro da sua casa ou do ginásio que frequenta, deve perceber que cada lugar tem sua impressão digital que determina como o som se comporta ali.
As impressões digitais também determinam os tipos de reverb mais conhecidos pelo público. Até as grandes cidades do mundo, cercadas por arranha-céus e outros edifícios, possuem um tipo de reverb que parece inigualável.
Provavelmente, você já ouviu diversas vezes o reverb de uma ambulância ou carro de bombeiros passando pela cidade com a sirene ligada.

Capturar esse tipo de reverb requer uma microfonação adequada, considerando a quantidade de microfones, o ângulo de captação, o posicionamento e a distância, entre outros aspectos. Isso demanda tempo e técnica para captar tanto o som direto quanto o reverberado.
Se você quiser usar em sua gravação um reverb característico da cidade de Nova York, por exemplo, é inviável ir até lá apenas para capturá-lo. Além disso, é preciso considerar os outros ruídos da cidade, o que torna difícil encontrar momentos de silêncio total.
Nesse contexto, pode parecer mais fácil simular um reverb de algoritmo do que tentar capturar um reverb natural, mas é difícil alcançar a mesma complexidade do mundo real por meio de cálculos matemáticos. Por isso, os reverbs de convolução se destacam como uma alternativa mais próxima dos reverbs naturais, visto que seu funcionamento é o mais complexo existente atualmente quando falamos de reverbs digitais.

Você pode entender o fenômeno da convoluçãoLendo este artigo da Wikipédia.
Simplificando, trata-se de um cálculo matemático complexo que usa a transformada de Fourier para gerar uma nova função a partir da multiplicação de duas outras.
Na engenharia de áudio, essa técnica é usada para criar arquivos de impulso (os chamados Impulse File ou Impulse response, da sigla IR em inglês), que são gravações do comportamento de um som específico em um ambiente. Por exemplo, gravando o som de uma pistola de partida em uma pista de atletismo, é possível obter a resposta do impulso desse ambiente para quase todas as frequências.
Ao editá-lo, os engenheiros de áudio cortam o impacto direto do som, deixando apenas a reverberação. O resultado é uma resposta do impulso que pode ser usada no processador de convolução para obter a acústica de qualquer ambiente.
Além disso, a convolução pode ser usada para obter a impressão digital de outros efeitos, como amplificadores de guitarra e características de microfones lendários.
Existem muitas bibliotecas de IR’s disponíveis na internet, algumas pagas e de boa qualidade e outras gratuitas, que também não deixam nada a desejar.
É incrível o que a matemática e a tecnologia podem fazer pela música!

Ouça um exemplo em que tento ilustrar o funcionamento.
Eu mesmo fiz: Peguei um som de tiro e fiz um arquivocom dois sons, que na realidade são os mesmos. Porém, um é o tiro talcomo ele soa e o outro depois dele é apenas a resposta ao impacto desse tiro.

Os impulsos sonoros são gravados em arquivos com extensão wav ou aiff, como explicado anteriormente.
Alguns softwares possuem extensões próprias para trabalhar com esse tipo de efeito, como é o caso dos Impulse Files para o SoundForge. E a boa notícia é que eles podem ser baixados gratuitamente!
Infelizmente, o link original do arquivo no site da Sony (agora Magix) não está mais disponível, mas deixo aqui para quem deseja brincar.

Basta extrair os arquivos para uma pasta e acessá-los através da opção effects>Acoustic mirrors no Sound Forge.
Ao abrir, uma janela aparecerá e você poderá procurar o arquivo de impulso que deseja usar através do botão “Browse”. Além disso, é possível fazer ajustes na intensidade do reverb em relação ao som original.
Agora, vamos entender a grande sacada que ocorre quando utilizamos um arquivo de impulso no Sound Forge ou em outro software/plugin que trabalhe com esses arquivos.

Ao utilizar então esse recurso, é possível adicionar ao áudio o som característico de diferentes lugares, como avenidas, aeroportos, ginásios e teatros, tornando a gravação mais realista e imersiva.
Outro exemplo de uso da convolução é nos filmes, em que os atores gravam suas vozes em estúdio, mas em algumas cenas elas soam como se estivessem em lugares específicos, como aeroportos. Esse efeito pode ser criado com a convolução, tornando a gravação mais envolvente.
Porém, é importante lembrar que a convolução pode ser uma dor de cabeça em projetos com várias pistas de áudio e diferentes efeitos processando em tempo real. Por isso, a solução mais viável é utilizar arquivos wav separadamente, com o efeito já aplicado, e fazer o backup dos arquivos originais antes de realizar qualquer alteração.

Bem pessoal, chegamos ao fim de mais um artigo sobre efeitos sonoros e o reverb de convolução. Agora é hora de se divertir!
Use os reverbs em suas montagens, produções ou onde quer que precise de um som diferenciado. Brinque com seus amigos e mostre a eles como é possível falar diretamente da Califórnia, da cidade de Frankfurt ou até mesmo dentro de uma caverna misteriosa sem sair de casa.
Aliás, se você é um gênio criativo, saiba que pode dar uma de engenheiro de áudio e criar seus próprios Impulse Files.

Isso mesmo, você pode gravar com o reverb da casa de um amigo em outra cidade, como se estivesse lá. O processo é simples:
grave um som de impacto forte e audível em um determinado ambiente, edite-o para cortar o som de impacto, ficando apenas com o reverb, e salve-o como um arquivo wave.
É preferível fazer a gravação em estéreo, o que pode ser feito com dois microfones ou com gravadores digitais que já possuem microfones embutidos, ou ainda usando o celular.
Mas espere, não precisa vir à minha casa para aprender a fazer isso, viu?

Aqui está para download gratuito, o reverb do meu quarto.
A captação foi bem simples: Bati com a mão na parede do lado daminha cama bem forte, e depois editei, cortando o impacto desse som e deixando só o reverb.
Vou disponibilizar aqui as duas gravações, uma com o som tal como ele soa aqui e o outro apenas com o reverb.
Use o segundo, ok?

Paulada na parede
Resposta dessa paulada na parede (IR)

É isso. Brinquem a vontade, o limite é a sua criatividade.
Até a próxima!

Entendendo os tipos de efeitos mais usados na produção musical

Tempo de leitura: 3 minutos

Olá!
Espero que todos estejam bem.
Neste post gostaria de falar sobre os efeitos comumente utilizados em produções musicais e os resultados que podem ser obtidos a partir deles.

A maioria dos efeitos disponíveis em processadores e pedaleiras são simulações de efeitos acústicos que ocorrem naturalmente em nosso ambiente e são estudados pela física. Ao produzirmos sons em diferentes ambientes, podemos perceber como eles se propagam.
Por exemplo, quando cantamos no chuveiro e percebemos que nossa voz soa afinada, ou quando falamos diante de um grande morro e ouvimos o som repetido, chamado de “eco” pelas pessoas, mas que na verdade é um tipo de efeito com outro nome.
Começarei então falando sobre o Reverb.

A reverberação ocorre quando o som é gerado e reflete nas paredes, no chão, no teto e retorna em várias réplicas do mesmo som em tempos diferentes, o que resulta em um som contínuo e preenchido. O decaimento do reverb depende do tamanho da sala, e existem vários tipos de reverb, desde curtos até longos.
O reverb é um dos primeiros efeitos de embelezamento sonoro a ser amplamente utilizado e é capaz de dar a sensação de preenchimento em músicas com poucos instrumentos, como um piano soando em uma sala de concerto.

Hoje em dia, o reverb é gerado digitalmente por processadores de efeitos em hardware ou software. No passado, havia grandes salas acusticamente projetadas próximas aos estúdios para emitir e captar o efeito.
Também havia alternativas mais rudimentares, como o tipo mola (usado em amplificadores de guitarra) e o tipo plate (característico de gravações antigas).
Para ilustrar, é possível ouvir exemplos de músicas que utilizam esse tipo de reverb, como “Mar de Rosas” do The Fevers e “Dominique” de Giane:

Mar de Rosas do The Fevers
DOMINIQUE –

Preste atenção no reverb e veja como ele é bem metálico.

Vamos agora explorar o segundo efeito sonoro que é bastante conhecido: o eco, também chamado de delay.
Essa expressão em inglês significa literalmente “atraso”, e é fácil de entender como ele funciona: quando um som é emitido, ele se propaga e, ao encontrar obstáculos no caminho, como paredes ou rampas, parte dele acaba retornando para o ponto de origem.
Esse som refletido é o que chamamos de eco, e seu volume diminui à medida que ele se distancia do lugar onde foi gerado.
O delay é exatamente o tempo que leva para o som refletido retornar, e é um parâmetro fundamental na criação de efeitos sonoros. Ele também é utilizado em outros contextos, como na comunicação por voz via internet e na latência de processamento de dados.

Apesar de ser simples, o delay foi um dos primeiros efeitos sonoros que a tecnologia conseguiu imitar. Na música, esse efeito serviu como inspiração para criar novas sonoridades e dar asas à criatividade dos artistas.
Por exemplo, o canto yodo (ou jodler, como é conhecido na Alemanha), originário dos alpes alemães, se baseia no eco natural das montanhas.
Esse efeito foi incorporado às músicas, às vezes de forma rítmica, e pode ser ouvido em produções musicais modernas, como no remix “Galera de Cowboy” da Dalas Company, que usa um delay do tipo “ping pong” para criar um efeito estéreo interessante:

galera de cowboy

Preste atenção já no começo da música o “ping pong” do delay de acordo com o ritmo.

Ao explicar os dois efeitos, podemos concluir que o reverb consiste em milhares de fragmentos pequenos de delays em variações de tempo diferentes.
A tecnologia transformou o delay e o reverb em efeitos digitais, possibilitando a criação de novos tipos de efeitos a partir da manipulação das ondas sonoras, muitos deles baseados em efeitos já existentes.
Por exemplo, o efeito flanger cria uma sensação de “som entubado” usando vários delays curtos com variações periódicas de tempo, geralmente entre 10 a um milésimo de segundo.
O Phaser funciona de forma semelhante, mas com variações ainda menores, entre zero e um milésimo de segundo.
O Chorus é outro efeito muito utilizado na produção musical, simulando a sensação de várias pessoas cantando em uníssono, com pequenas variações de tempo e afinação.
Já o Pitch é um efeito de rotação que altera a afinação e a velocidade do som, com possibilidades de ajuste por oitava, intervalo, tons e semitons.

Por fim, o Equalizador é um tipo de efeito que permite ajustar o volume de determinadas frequências, podendo ser usado para editar, modificar timbres e dar uma outra cara ao som.
Os controles disponíveis nos equalizadores dependem do tipo de equalizador, sendo os gráficos com controles deslizantes e de várias bandas os mais comuns. Já os equalizadores paramétricos permitem um controle ainda maior da amplitude e das frequências vizinhas.

Com esses efeitos, um produtor musical tem a possibilidade de criar uma variedade de sons e timbres em suas produções.
Há muitos outros efeitos disponíveis e serão abordados em posts futuros.
Espero que tenham gostado. Deixem seus comentários abaixo!
Até a próxima!

Boas práticas para uma produção musical de qualidade

Tempo de leitura: 4 minutos

Olá pessoal!
Tudo bem com todos?
Neste post irei falar de boas práticas para as etapas de gravação, mixagem e masterização a fim de conseguir uma produção musical de qualidade.
O Essencial é não usar equipamentos enganosos.

Para começar, o primeiro item já será logo de cara o fone de ouvido.
“Mas Gabriel, Porquê?”
Novamente me vem à tona os bons tempos de infância quando eu usava direto os fones de ouvido para ouvir música, de modo que já perdi a conta de quantas marcas de fone já tive e de quantos já consegui estragar.
A questão é que ouvir e produzir música são coisas distintas.
Ao ouvir uma canção, o ouvinte não está preocupado com a equalização ou distribuição dos instrumentos no campo sonoro, mas sabe que a música é boa ou ruim pelo conjunto da obra, inclusive na qualidade do equipamento utilizado para a audição. Tudo isso pode desencadear uma série de reações.
Justamente por isso é que, para quem cuida de uma produção musical, deve perceber cada detalhe usando equipamentos adequados que possibilitam ouvir o som “como ele realmente é”, ou seja, sem muito reforço de graves, médios e agudos. Esse é o grande problema dos fones e equipamentos comuns.

Eu, que já carregava esse vício ao longo do tempo, comecei também a utilizá-los como referência nas minhas produções musicais.
Cada vez que terminava uma produção, ouvia em diferentes equipamentos e nunca tinha uma definição clara do som. Quando ouvia nos fones, parecia que estava legal; quando eu ouvia no carro, estava muito grave. E assim os fones iam causando falsa impressão nas mixagens.
E o pior de tudo foi eu ter insistido nisso, porque noutro dia queria melhorar e acabava indo longe demais e estragando ainda mais o trabalho.

Se o uso constante de fone de ouvido já é um perigo, o que dizer então de modelos que não são apropriados para essa tarefa?
É exatamente isso que acontece. Por falta de conhecimento ou mesmo um certo “ego” de nossa parte, demoramos a perceber que o problema está em nós mesmos, principalmente quando o cérebro acaba se acostumando.

Nosso ouvido aqui funciona como um par de microfones (um para cada lado). É o cérebro que interpreta o que a gente conhece como um som.
Então, ouvir música nem sempre é uma rotina, mas produzir música faz parte do trabalho diário e deve ser confortável, sem causar confusão ao cérebro.
O resultado final deve ser uma música que se faz ouvir da mesma forma em diferentes lugares. A mesma reprodução num fone eu tenho que conseguir também no carro, num aparelho de som, em uma festa… O processo de masterização é responsável por isso.
Percebe como não é tão simples assim?

Então, é recomendado o uso de fones específicos de monitoramento, ou melhor, um par de monitores de referência para você sentir como o som se propaga no seu ambiente de produção e chega até o ouvido, pois isso também faz diferença.
Faça isso principalmente se o barulho não é um problema, nem precisa ser em volume alto.
Existem fones que simulam essa experiência, podendo inclusive escolher o tipo de ambiente como se você estivesse naquele lugar, mas é só uma simulação, certo? Prefira os monitores de referência.
Use os fones apenas para gravação (para não vazar som), ou para ouvir o resultado final antes de tirar uma conclusão definitiva do trabalho.

Ok, falei que nosso ouvido funciona como um par de microfones. E quando eles não funcionam direito?
Esse paralelo pode ser feito com a utilização de microfones ruins, ou mesmo placas de som como as dos computadores da linha PC, que obviamente terão um sistema de amplificação precário.
Da mesma forma que a perda auditiva causa dificuldades na compreensão da fala e na percepção sonora, um microfone ruim ou uma placa de som genérica também vai proporcionar um resultado inferior.
“Mas Gabriel! Com umas edições de áudio com certeza dá pra resolver isso”.
Até certo ponto sim, mas não de tal forma que se possa comparar com uma captação de qualidade profissional.
É a mesma coisa que você achar que vai ouvir da mesma forma os sons que ouvia antes de precisar usar uma prótese auditiva.
Numa perda muito severa isso pode nem funcionar direito, e assim também é numa gravação de qualidade horrível.
Parece não fazer sentido, mas é verdade. Aliás, o mundo sonoro começa em nós quando aprendemos a ouvir. E é assim que devemos também perceber a forma como funcionam os microfones e as placas de som.
Podemos fazer um paralelo dos zumbidos com ruídos que são ocasionados por uso de equipamentos ruins, falta de aterramento ou coisas do tipo.
Uma captação com equipamentos razoáveis é uma forma de registro sonoro quando a intenção não é mesmo profissional; por isso pode não soar tão bem. Não a nada de errado tentar melhorar de forma artificial, mas não será a mesma coisa.
No caso da perda auditiva, um aparelho auditivo pode até trazer de volta a qualidade de vida, não a nada de errado nisso também. Só não tira as consequências, assim como acontece também com a qualidade de uma gravação mau feita.

Em especial para os microfones, cada um possue características muito peculiares que servem para determinado tipo de aplicação.
Por exemplo: Os microfones condensadores possuem uma sensibilidade maior de captação e por isso captam mais detalhes, mas são um desastre para ambientes muito barulhentos ou sem um tratamento acústico.
Os microfones dinâmicos além de resolverem o problema, também são uma ótima pedida para apresentações ao vivo, mas podem não ser adequados para captar certos instrumentos.
No final das contas, vale a pena experimentar e principalmente perceber como o som está sendo captado para não haver dor de cabeça depois, porque tudo começa na gravação.

Depois da gravação vem a mixagem.
Qual será que é o segredo dela, como dão tanto a entender os livros que falam sobre o assunto?
Nenhum. Na verdade, tudo começa pelas referências de estilos musicais que podem se encaixar com a música a ser produzida.
Cada estilo musical pede uma configuração diferente, de modo que aqui vale principalmente o uso do bom censo.
Nada de apelação!
Se a mixagem for mau feita, haverá mais trabalho ainda ao corrigir defeitos na hora de masterizar.

Aqui a mixagem não é pura e simplesmente uma mistura de sons.
Tudo precisa ser ouvido, sem mais nem menos, sem exageros.
É possível colocar a voz mais para a frente com relação aos outros instrumentos? sim, mas isso não quer dizer que precisa “sentar” o volume nela. Usar limiters e compressores para segurar a dinâmica é sempre válido, mas de novo: Não exagere, por favor!
Seja criativo nos efeitos. Coloque um reverb quando for necessário, brinque com o delay como se ele fosse algo amais para a música e não como apenas um efeitozinho que está ali.
A mixagem pode compartilhar algumas das técnicas usadas na masterização, mas são coisas diferentes. Não adianta construir um carro sem antes ajustar as partes para que fiquem juntas.

Por fim, a masterização pode ser considerada como o “polimento” da música.
Podem ser feitos várias checagens, como balanço, equilíbrio e aprimoramento dos canais esquerdo e direito, equalização geral, compressão e limiter.
Isso garante que o material tenha um bom volume e que seja reproduzível da mesma forma em qualquer meio (aparelho de som, carro, televisão, etc).

É isso galera!
Espero que tenham gostado.
Até a próxima!

Dicas e boas práticas para a produção de arranjos e composições musicais

Tempo de leitura: 3 minutos

Olá pessoal! Tudo bem?
Neste post, vou compartilhar algumas dicas e boas práticas para quem já trabalha ou pretende trabalhar na produção de arranjos musicais, ou para aqueles que querem produzir suas próprias composições.
Com a evolução tecnológica cada vez mais acelerada, os músicos estão se tornando proprietários de suas próprias obras musicais e dos processos envolvidos.

Hoje em dia, é muito fácil ter acesso a um timbre de sintetizador lendário, como um Moog ou um Yamaha CS80, no seu computador. No passado, isso era praticamente impossível para um home studio.
O preço desses equipamentos despencou drasticamente desde 1990, quando o investimento para montar um era de cerca de R$600 mil.
Agora, o custo é de aproximadamente R$10 mil ou menos, tornando o acesso mais acessível.

Antigamente, apenas engenheiros de áudio e profissionais que trabalhavam em grandes estúdios e gravadoras tinham acesso a esses equipamentos. Atualmente, qualquer pessoa pode ser um DJ com um software de remixagem.
Não há nada de errado nisso, mas é importante lembrar que ainda existem ouvintes e críticos extremamente exigentes que prezam pela qualidade das produções fonográficas e esperam ver um trabalho feito por um profissional experiente.

Para um compositor ou arranjador, é essencial ter um bom domínio da linguagem musical que sempre irá reger tudo isso.
Um produtor e arranjador tem um mercado muito promissor se o seu trabalho for realmente bom.
O compositor poderá emplacar com sua música, e o arranjo também é essencial nesse processo.

A primeira ideia de composição ou arranjo para uma música nasce das referências musicais que se ouve ao longo do tempo.
Para uma composição, devemos buscar inspiração nas coisas que mais gostamos ou que nos influenciam de alguma forma, como as características de um determinado estilo, as técnicas dos compositores e as convenções harmônicas.
Para arranjos, podemos nos inspirar nos elementos que ilustram da melhor forma possível a ideia que a música quer passar a alguém, observando cada detalhe com atenção para a tomada de decisões.

Para se tornar um arranjador ou compositor de sucesso, é fundamental ouvir muita música, com a mente aberta, sem preconceitos ou pessimismos.
Deve-se prestar atenção nos timbres, nos acordes e na disposição dos instrumentos para nos tornarmos realmente observadores.
É importante lembrar que existe uma quantidade enorme de música disponível, e se não estivermos dispostos a ouvi-la, nossas ideias de composição e arranjo serão limitadas.

As referências são essenciais para exercer a imaginação e a criatividade.
Quanto mais nos inspiramos em diferentes estilos musicais e técnicas de composição, mais amplo é nosso vocabulário musical.
Através das referências, podemos chegar a um ponto em que somos bons até mesmo no improviso.
Um exemplo disso é a pianista Nicole Pesce, que mistura música e humor em seus concertos e sabe mais de 12.000 músicas de cor. Ela é capaz de criar na hora arranjos inesperados e surpreendentes, veja só:

“Parabéns pra você” no melhor estilo Beethoven, Bach, Chopin, Brahms e Mozart

Viu como a imaginação pode nos tornar criativos?
E para inspirá-lo ainda mais, também deixo aqui uma super produção e um novo arranjo do Jacob Collier para a música “All Night Long” que ficou simplesmente genial e rendeu um Grammy Awards para o grande artista.
Trata-se de um músico britânico que chamou a atenção de grandes nomes da indústria da música, principalmente de Jazz.
A título de comparação e também conhecimento, deixo também a música original:

Música original
Música arranjada

No processo de composição e arranjo, é importante que o músico adicione sua própria personalidade e identidade na obra, mesmo que se inspire em outras músicas.
Contudo, é importante lembrar que a inspiração deve ser uma fonte de ideias, e não uma cópia abusiva de outros trabalhos.
Ao desenvolver a música, o compositor deve ter em mente os timbres que irá utilizar e como irá estruturar a peça. A medida que a obra evolui, novas ideias surgem e são incorporadas ao projeto.
É importante considerar as técnicas de produção disponíveis para criar um resultado final sonoro de qualidade.

Compor e arranjar requer paciência e disciplina, e muitas vezes é um processo demorado.
Quando trabalhando em um projeto de um cliente, o arranjador deve esperar que as características básicas da composição estejam definidas antes de começar a trabalhar.
Isso garante um investimento bem planejado e feito com cuidado.
Embora seja possível para um compositor fazer todo o trabalho sozinho, muitas pessoas podem não ter o domínio técnico necessário e estão dispostas a investir em bons profissionais.
Nesse sentido, é importante reconhecer o valor e a importância do trabalho do músico e remunerá-lo adequadamente.

Em resumo, o processo de composição e arranjo é complexo e requer muita habilidade e dedicação.
A inspiração é uma fonte de ideias, mas o músico deve adicionar sua própria personalidade na obra.
Ao final do processo, a música deve ter um som de qualidade, refletindo o talento e a habilidade do profissional.

Se você quiser ver como tudo isso funciona na prática, assista a essa live em que mostro a fase final da pré-produção de um arranjo, que foi entregue em seguida para um estúdio:

Fase final da pré-produção de um arranjo para cliente de estúdio

E assim, finalizo esse post.
Espero que seja de grande utilidade.
Agora, certamente você está animado para sua próxima composição ou arranjo!

tudo sobre controladores MIDI, como funcionam e como utilizar

Tempo de leitura: 3 minutos

Olá galerinha, em especial aos músicos!
Este post é dedicado a dar uma breve explicação do que são controladores, como funcionam e como utilizá-los na produção musical. Vou me basear no outro artigo que escrevi contando sobre o midi e os instrumentos virtuais, e que prometi dar uma definição mais clara sobre a função de um controlador. então vamos lá!

Um controlador pode ser definido como um dispositivo que controla outro.
Um exemplo comum é o controle remoto da televisão, que nos permite acessar os recursos do aparelho sem precisar levantar do sofá.
Controladores são usados em uma ampla variedade de equipamentos, incluindo aparelhos de som, DVD players e muitos outros.

Quando o padrão MIDI surgiu, foi possível gerar comandos em tempo real e decodificá-los para reproduzir sons. Para isso, foram desenvolvidos controladores, como os teclados, que além de reproduzir timbres, também podem atuar como dispositivos de controle MIDI.
Com o uso de um teclado, é possível executar timbres realistas. Para isso, é necessário conectar o teclado a um cabo MIDI convencional, que possui uma ponta circular com vários conectores de 5 pinos.
Esse cabo é usado para interligar dispositivos MIDI, como teclados e placas de som externas, e transmitir comandos MIDI para o computador, que pode manipulá-los usando softwares de produção musical, como o Sonar, o Reaper e o Cubase.

Para fazer a conexão corretamente, é preciso configurar o software para reconhecer as informações enviadas pela conexão MIDI, seja de entrada (MIDI input) ou de saída (MIDI output).
Se for necessário reproduzir um arquivo MIDI em um instrumento compatível, é possível conectar um segundo cabo MIDI na saída MIDI do teclado e na entrada MIDI da placa de som, ou retirar o cabo MIDI conectado na entrada MIDI do teclado e colocá-lo na saída do instrumento e na entrada da placa.

Além do cabo MIDI convencional, existe o cabo MIDI USB, que é usado em teclados que não possuem a conexão convencional.
Para usá-lo, é necessário baixar um driver, geralmente fornecido pelo fabricante do teclado ou do instrumento MIDI, para enviar e receber comandos MIDI entre o teclado e o computador.
Com esse tipo de cabo, é possível transmitir sinais MIDI do teclado para o computador e vice-versa, tudo usando uma única conexão USB.
Há ainda as chamadas interfaces midi, que possuem numa extremidade os conectores de 5 pinos para midi in/out, e do outro lado a ponta USB para conectar no computador.
Na maioria das vezes, vem também com um pequeno transformador com led para indicar se tudo está funcionando corretamente.

Com a conexão MIDI, é possível controlar vários dispositivos simultaneamente, permitindo a interação com vários teclados ao mesmo tempo e o acesso a alguns de seus recursos. Essa mesma ligação seria usada mais tarde nos computadores e nas placas de som compatíveis para controle de instrumentos virtuais.

Antes do surgimento dos instrumentos virtuais de computador, os módulos de timbres eram usados para reproduzir sons GM (General MIDI), controlados pelo teclado.
Para ter acesso a mais timbres, era necessário o uso de módulos de timbres externos. Com as possibilidades ilimitadas de criação de músicas com infinitos timbres, os módulos de timbres acabaram sendo substituídos por instrumentos virtuais, que podem ser controlados diretamente pelo teclado ou por outros dispositivos MIDI.
Hoje em dia, é possível conectar e controlar uma ampla variedade de instrumentos musicais usando controladores MIDI, abrindo muitas possibilidades para a criação de música.

A competição entre as principais marcas de instrumentos eletrônicos e outras que investem em softwares para produzir timbres inovadores é extremamente acirrada. Além disso, os computadores portáteis, como notebooks e ultrabooks que possuem processamento eficiente, permitem que os músicos usem plugins ao vivo em shows, alterando os timbres diretamente no controlador.
No entanto, é importante ressaltar que esses computadores, mesmo com bom desempenho, ainda apresentam certa incerteza em relação à estabilidade dos softwares. Portanto, é recomendável utilizá-los apenas para gravação e produção de músicas, embora muitos músicos tenham relatado que não tiveram problemas ao usá-los em shows ao vivo.

É isso, pessoal. Espero que tenham gostado!
Agora, bora fazer música com essas ferramentas!

o nascimento do midi e a história dos plugins

Tempo de leitura: 6 minutos

Olá pessoal!
Segue mais um post para os fascinados por produção musical.
E para tanto, nada melhor do que começar com uma breve introdução e, em seguida, discorrer um pouco mais do assunto para ficar entendível, não é?
Então vamos lá!

Você já imaginou como os produtores faziam para gravar um grupo enorme de orquestra enquanto acompanhavam a cena já gravada dos filmes?
Difícil até pensar em como se conseguia ter tanta concentração do papel que cada instrumentista teria de desenvolver nas trilhas, ao mesmo tempo prestando atenção nos cenários que apareciam numa tela grandíssima para deixar tudo sincronizado.
Posso citar como exemplo os filmes de Star-Wars, que apesar de serem quase todos daquela época, tiveram suas trilhas gravadas por um grupo imenso de orquestra.
Impossível não era, mas dava muito trabalho.
Havia uma certa demora na produção dessas trilhas, fato que talvez explique o atraso nos lançamentos.
Mas a tecnologia veio para dar um jeito nisso.

Antes de conhecermos a história dos instrumentos virtuais e o que são, é preciso saber como foi possível gerar notas musicais com o que existia naquele tempo.
Como isso poderia ser possível, já que a multimídia ainda estava engatinhando?
Diante desta situação, uns malucos aí (diga-se de passagem) de algumas empresas do japão e de outros países resolveram criar o que a gente conhece hoje como MIDI.
“MIDI? Que diabos é isso?!?!?”
Calma, ainda não falei grego. ?

Inicialmente, o MIDI (sigla para Musical Instrument Digital Interface, do inglês) surgiu através das primeiras placas de som para computadores, em que era mandado codificações representando as notas musicais e a interface conseguia gerar o som dessas notas com bastante precariedade, claro.
Esta técnica inclusive é usada até hoje por placas de som mais atuais e robustas através de arquivos MIDI.

“Mas eu pensei que os arquivos MIDI fossem como os arquivos de música!”
É, pensava. Os arquivos MIDI, por si só, não fazem nada. A única coisa que contém dentro deles são uma sequência de instruções.
Essa sequência é lida por um player qualquer, que envia essas informações diretamente para a placa de som, que por sua vez interpreta e as decodifica, gerando a sequência de sons que foram instruídas nesse arquivo.
Nele também são indicados outros comandos, como por exemplo o tipo de instrumento a ser executado e a quantidade deles (máximo de 16 por canal).
Os timbres que são gerados após a decodificação continuam sendo até hoje das próprias placas de som.
Interessante, né?

Você já experimentou dar uma olhadinha no que geralmente está escrito nesses arquivos, trocando suas extensões para poder visualizá-los num editor de texto puro como o bloco de notas?
É isso mesmo que você leu. Arquivos MIDI são textos puros que contém comandos codificados.
Abaixo vai um exemplo que mostra exatamente isso:

“MThd # # # xMTrk # ÿY# ÿQ##ï‘ ÿX##### ÿ/ MTrk A# ÿ##Piano 1&À °]# [P
Yb%Wb Db Tb Mb =b Y 6Rb Ub T W $Wb#Tb R U ?M W #Rb Ub T D #= U R Db JbPb”

Retirei de um arquivo MIDI que obviamente contém muito mais do que isso, mas acho que deu para você perceber que, conclusivamente, são como se fossem partituras codificadas. Só os dispositivos compatíveis entendem.
A primeira linha de código até que não nos parece assim tão ininteligível, pois já de cara nos apresenta a palavra “piano” que está indicando que as notas deverão ser reproduzidas com som de piano.

Podemos concluir assim que, na área da informática, as placas de som foram as primeiras a reproduzir sons sintetizados, juntamente com os primeiros teclados e outros instrumentos sintetizadores.
Foi quando novamente tiveram uma brilhante ideia vinda de malucos (tinha que ser) de implementar no MIDI um esquema que permitisse a execução desses comandos que você viu acima em realtime (tempo real), para que o som fosse gerado instantaneamente.
Isso explica basicamente como funcionam os teclados até hoje.
Como?
Simples…
Você aperta as teclas do instrumento e, dentro dele, é gerado comandos MIDI a serem decodificados e, por fim, reproduzidos com o som próprio do teclado.
Coisa de maluco mesmo, né? ?

Mais do que uma linguagem, o MIDI também acabou virando um protocolo de comunicação entre instrumentos compatíveis.
O som MIDI é conhecido até hoje por tentar imitar os instrumentos de forma bem precária para aquela época e razoável para um uso caseiro atualmente. Além disso, esteve dominando os celulares com aqueles toques polifônicos, lembram? é, era MIDI! ?

Coincidentemente, os celulares passaram quase pelo mesmo processo de evolução até conseguirem reproduzir uma música de verdade. Antes disso, reproduzia toques monofônicos (Ringtones), ou seja, só podia tocar uma única nota por vez.
Isso também aconteceu com o primeiro e enorme sintetizador feito antes da existência de teclados eletrônicos portáteis, o tão conhecido e famoso
Moog , desenvolvido por
Robert Moog .

O sintetizador era monofônico e o Álbun que se tem conhecimento com os sons dele teve que passar por uma gravação de 8 pistas separadas para colocar mais de uma nota e um instrumento ao mesmo tempo.

Switched on Bach, a música clássica de Bach usando o sintetizador Moog

Já naquela época (distante ao tempo em que o mesmo aconteceu com os toques dos primeiros celulares),
Keith Emerson (um exímio tecladista que fez pelos teclados o que Jimi Hendrix fez pela guitarra) teve conhecimento do sintetizador, ficou encantado com sua sonoridade e já queria usá-lo ao vivo, nos palcos.
Robert Moog, que era o músico e engenheiro daquele trambolho grande, o desaconselhava, porque pensava que seria de utilidade apenas em estúdios por ter instabilidades na afinação.
Não existia manual de montagem e uso do equipamento e vários complementos adicionais (como os módulos) vinham separado.
Mas pela insistência do grande músico surgia o
Minimoog , uma versão mais compacta do seu irmão mais velho que deu origem aos outros sintetizadores e também aos teclados eletrônicos.

À medida em que tudo foi evoluindo, também melhorava cada vez mais a precisão para sintetizar o som do instrumento desejado da forma mais idêntica possível a um instrumento real.
Neste processo de evolução é que o processamento de áudio começava a surgir em grande estilo.

Os teclados já contavam com memória suficiente para reproduzir timbres fiéis e próximos dos instrumentos acústicos; hoje com possibilidade para recursos adicionais como gravação em áudio de uma performance musical com efeitos diversos; a mesma gravação pode ser facilmente copiada para o computador, editada, masterizada e gravada em CD. Pode-se inclusive expandir o teclado com novos timbres sampleados.
O computador que até então era usado para tarefas muito peculiares e particulares, aos poucos também foi aprimorado.

E em meio a tudo isso, mais um grupo de malucões de uma empresa alemã conhecida como
Steinberg resolveu inovar, criando uma plataforma que permitia simular efeitos que eram comumente utilizados por outros equipamentos de hardware em estúdios, como processadores de efeito e pedaleiras.
Aos poucos eles deixaram de ser frequentemente usados.
Hoje basta plugar uma guitarra e/ou um violão elétrico e mandar o sinal de áudio para um computador com o software rodando um plugin de pedaleira virtual, que o mesmo efeito é fielmente reproduzido, como se estivesse vindo mesmo do equipamento.

No final das contas e aproveitando o sucesso disso e o grande impacto que deve ter causado, os espertinhos tiveram a ideia também de desenvolver uma nova tecnologia para possibilitar a execução de instrumentos reais pelo computador, usando o nosso bom e velho MIDI já explicado, em conjunto com algum outro instrumento musical que fosse compatível com o protocolo como teclados, que atuariam agora como controladores.
Controladores? Que que é isso?

Explicarei num próximo artigo.
Mas os teclados que foram os primeiros a serem feitos para tentar reproduzir os instrumentos (em especial acústicos) seriam usados para enviar comandos MIDI codificados em tempo real a um instrumento virtual, que os interpretaria e executaria com o seu próprio som em vez do som MIDI: No caso o instrumento tal como ele soa, gravado por diversas vezes, nota a nota, com inúmeras amostras (samples), em diferentes ângulos de captação, intensidade e articulação.
Sim, um clone quase perfeito de um instrumento real dentro do computador! ?

Agora, não necessariamente preciso ir atrás dos músicos para alcançar o perfeito realismo, basta um computador e um teclado e, o mais importante, saber como tocar os instrumentos, mesmo que seja num instrumento de teclas.
Se conseguir, então o resultado será uma reprodução fiel, como se eu estivesse tocando nele ou como se alguém tocasse na minha frente.
Se bem que tem gente que também pensa ao contrário.

A quem prefira gravar os instrumentos vindos dos seus instrumentistas.
De fato, podem existir algumas nuances que sejam difíceis de “clonar”, ainda mais considerando a performance única de cada músico.
Mesmo assim, com essa grande invenção, os produtores e músicos não precisam mais depender sempre do instrumento em mãos para alcançarem a sonoridade desejada, principalmente se a ideia é reduzir custos e o orçamento do cliente está muito apertado.
Na produção de trilhas para cinema, não é mais necessário contratar uma orquestra inteira, basta ter todos os instrumentos no PC e saber como sequenciá-los usando o teclado e softwares de produção musical!

E aqui termina a história de todo esse avanço tecnológico.
Graças a todos esses acontecimentos, novas alternativas estão a disposição para se fazer música.
O limite? Bem, isso vai da criatividade da pessoa!

a! e antes que eu me esqueça, as duas plataformas também receberam suas siglas como no MIDI. A primeira é chamada de VST (Virtual Studio Tecnology) e a segunda se chama VSTI (Virtual Studio Instrument Tecnology).
a primeira é para efeitos e a segunda para instrumentos virtuais, dos mais diversos: Acústicos, sintetizados…
E a quantidade de instrumentos possíveis de serem reproduzidos com uso de computador é infinita, que já existem plugins como os da
Arturia que te dão a possibilidade de conhecer, brincar e usar os primeiros dois importantes sintetizadores que citei acima: O Moog e o Minimoog.

E você, quais plugins VST e VSTI que mais gosta de usar?
Deixe nos comentários e vamos trocar conhecimento!
Grande abraço!