Tag: efeitos

O funcionamento básico de um vocoder

Tempo de leitura: 3 minutos

Olá pessoal, espero que estejam bem.
Continuando a série de artigos sobre efeitos sonoros para produções musicais, neste texto vou falar sobre um dos mais conhecidos e famosos: o Vocoder.
Antes de entrar em detalhes, gostaria de compartilhar um fato curioso da minha infância.

Quando eu ouvia rádio e fazia minhas gravações em fitas cassete, sempre me impressionavam as vinhetas que tocavam entre as músicas. Algumas dessas vinhetas tinham vozes sintetizadas ou robóticas cantando com uma afinação tão perfeita e agradável aos ouvidos que eu ficava curioso para saber como era possível.
Essa é a primeira coisa que vem à mente quando falamos sobre Vocoder, e muitas outras pessoas podem ter passado por essa fase.
Com a evolução tecnológica e acesso facilitado à internet, fiz algumas pesquisas e descobri que se tratava do Vocoder, que muitas vezes é comercializado com outros nomes para chamar a atenção ou por questões de marketing.
O Vocoder não é utilizado apenas em vinhetas, mas também em diversas músicas, tanto antigas quanto atuais.

A experimentação começou em 1970, quando surgiram os primeiros vocoders desenvolvidos por Wendy Carlos e Robert Moog, o inventor do sintetizador clássico Moog, para fins musicais.
Antes disso, eram utilizados principalmente em telecomunicações, criptografando e codificando a voz para transmissão segura e protegida via rádio.
O Vocoder é a junção de voz codificada e na música tem a função de transformar a voz humana em voz sintetizada.
Para que esse fenômeno aconteça, ele precisa basicamente de dois componentes fundamentais: o Carrier e o Modulator.

Carrier é o timbre de algum instrumento (geralmente sintetizadores), que são utilizados como base para o processamento da voz.
O timbre pode vir de um teclado, instrumento virtual, etc. Pode conter de melodias até acordes completos, modificando de alguma forma o comportamento do vocoder, inclusive o timbre que será usado.
Uma boa dica é não usar timbres complexos ou com muitos efeitos, deixando-os para serem adicionados após a voz ser processada. Eles precisam soar secos como aqueles gerados por síntese, que produzem ondas quadradas, senoidais, triangulares, dente de serra ou a variação destas.
Se o vocoder tiver suporte a MIDI, então o Carrier é produzido em tempo real quando as notas são tocadas, mas você só ouve o resultado quando fala no microfone ao mesmo tempo em que toca o teclado, permitindo assim o controle do efeito em tempo real.
Geralmente, esse tipo de vocoder deve ser inserido na DAW em cima de uma faixa de áudio e, neste caso, será possível adicionar algum outro efeito na voz já processada.

Por fim, o Modulator é a sua própria voz, falada ou cantada.
Se você ainda não entendeu muito bem, a melhor forma de compreender é experimentando!
Aproveito para disponibilizar a todos um simples vocoder gratuito para Windows que funciona via linha de comando, desenvolvido por um programador:
VocShell
Nota: Para programadores, está disponível o código fonte aqui .

antes de começar a brincadeira, veja o programa em funcionamento ouvindo estes três sons.
O primeiro é o carrier, o segundo é o modulator e o último é a voz já codificada.

O modulator é pura e simplesmente a minha voz gravada, onde estou falando naturalmente, sem nenhuma intenção musical.

O carrier foi gerado por um software de computador com sons básicos de sintetizador através de código e sem muita frescura.

O resultado é uma voz robotizada e musical.

Outro exemplo, agora com intenções musicais:

Este carrier é diferente porque foi usado um timbre de teclado

Gostou?
Então é a sua vez de tentar!
Se você já baixou o vocshell, descompacte em qualquer lugar e localize o arquivo baixado usando o prompt do windows ou o power shell.
Por exemplo: Se o executável está na pasta vocshell, então digite:
cd vocshell

Em seguida deve invocar o executável passando pelo menos os parâmetros necessários:

  • -c – Carrier
  • -m – Modulator
  • -o – output (arquivo de saída)

Podem ser usados carriers tanto em mono quanto em stereo, mas o modulator precisa ser mono.


Exemplos de uso:
vocshell -c timbre.wav -m voz.wav -o resultado_final.wav

Há outros parâmetros opcionais que podem ser emitidos, mas não entrarei em mais detalhes aqui para não alongar o texto.
De qualquer forma, se você chamar o executável sem passar argumentos obterá a lista de todos os parâmetros que podem ser usados.

É isso galera!
Em outra oportunidade, darei dicas de ótimos plugins de vocoder para usar em tempo real na sua DAW.
Espero que tenham gostado de mais esse conteúdo.
Finalizo com esse trecho engraçado em áudio da música “Atirei o Pau no Gato” que fiz usando um plugin de vocoder da Native Instruments (Vokator).

Divirtam-se!
Deixem seus feedbacks nos comentários.
Até o próximo post!

Entendendo os tipos de efeitos mais usados na produção musical

Tempo de leitura: 3 minutos

Olá!
Espero que todos estejam bem.
Neste post gostaria de falar sobre os efeitos comumente utilizados em produções musicais e os resultados que podem ser obtidos a partir deles.

A maioria dos efeitos disponíveis em processadores e pedaleiras são simulações de efeitos acústicos que ocorrem naturalmente em nosso ambiente e são estudados pela física. Ao produzirmos sons em diferentes ambientes, podemos perceber como eles se propagam.
Por exemplo, quando cantamos no chuveiro e percebemos que nossa voz soa afinada, ou quando falamos diante de um grande morro e ouvimos o som repetido, chamado de “eco” pelas pessoas, mas que na verdade é um tipo de efeito com outro nome.
Começarei então falando sobre o Reverb.

A reverberação ocorre quando o som é gerado e reflete nas paredes, no chão, no teto e retorna em várias réplicas do mesmo som em tempos diferentes, o que resulta em um som contínuo e preenchido. O decaimento do reverb depende do tamanho da sala, e existem vários tipos de reverb, desde curtos até longos.
O reverb é um dos primeiros efeitos de embelezamento sonoro a ser amplamente utilizado e é capaz de dar a sensação de preenchimento em músicas com poucos instrumentos, como um piano soando em uma sala de concerto.

Hoje em dia, o reverb é gerado digitalmente por processadores de efeitos em hardware ou software. No passado, havia grandes salas acusticamente projetadas próximas aos estúdios para emitir e captar o efeito.
Também havia alternativas mais rudimentares, como o tipo mola (usado em amplificadores de guitarra) e o tipo plate (característico de gravações antigas).
Para ilustrar, é possível ouvir exemplos de músicas que utilizam esse tipo de reverb, como “Mar de Rosas” do The Fevers e “Dominique” de Giane:

Mar de Rosas do The Fevers
DOMINIQUE –

Preste atenção no reverb e veja como ele é bem metálico.

Vamos agora explorar o segundo efeito sonoro que é bastante conhecido: o eco, também chamado de delay.
Essa expressão em inglês significa literalmente “atraso”, e é fácil de entender como ele funciona: quando um som é emitido, ele se propaga e, ao encontrar obstáculos no caminho, como paredes ou rampas, parte dele acaba retornando para o ponto de origem.
Esse som refletido é o que chamamos de eco, e seu volume diminui à medida que ele se distancia do lugar onde foi gerado.
O delay é exatamente o tempo que leva para o som refletido retornar, e é um parâmetro fundamental na criação de efeitos sonoros. Ele também é utilizado em outros contextos, como na comunicação por voz via internet e na latência de processamento de dados.

Apesar de ser simples, o delay foi um dos primeiros efeitos sonoros que a tecnologia conseguiu imitar. Na música, esse efeito serviu como inspiração para criar novas sonoridades e dar asas à criatividade dos artistas.
Por exemplo, o canto yodo (ou jodler, como é conhecido na Alemanha), originário dos alpes alemães, se baseia no eco natural das montanhas.
Esse efeito foi incorporado às músicas, às vezes de forma rítmica, e pode ser ouvido em produções musicais modernas, como no remix “Galera de Cowboy” da Dalas Company, que usa um delay do tipo “ping pong” para criar um efeito estéreo interessante:

galera de cowboy

Preste atenção já no começo da música o “ping pong” do delay de acordo com o ritmo.

Ao explicar os dois efeitos, podemos concluir que o reverb consiste em milhares de fragmentos pequenos de delays em variações de tempo diferentes.
A tecnologia transformou o delay e o reverb em efeitos digitais, possibilitando a criação de novos tipos de efeitos a partir da manipulação das ondas sonoras, muitos deles baseados em efeitos já existentes.
Por exemplo, o efeito flanger cria uma sensação de “som entubado” usando vários delays curtos com variações periódicas de tempo, geralmente entre 10 a um milésimo de segundo.
O Phaser funciona de forma semelhante, mas com variações ainda menores, entre zero e um milésimo de segundo.
O Chorus é outro efeito muito utilizado na produção musical, simulando a sensação de várias pessoas cantando em uníssono, com pequenas variações de tempo e afinação.
Já o Pitch é um efeito de rotação que altera a afinação e a velocidade do som, com possibilidades de ajuste por oitava, intervalo, tons e semitons.

Por fim, o Equalizador é um tipo de efeito que permite ajustar o volume de determinadas frequências, podendo ser usado para editar, modificar timbres e dar uma outra cara ao som.
Os controles disponíveis nos equalizadores dependem do tipo de equalizador, sendo os gráficos com controles deslizantes e de várias bandas os mais comuns. Já os equalizadores paramétricos permitem um controle ainda maior da amplitude e das frequências vizinhas.

Com esses efeitos, um produtor musical tem a possibilidade de criar uma variedade de sons e timbres em suas produções.
Há muitos outros efeitos disponíveis e serão abordados em posts futuros.
Espero que tenham gostado. Deixem seus comentários abaixo!
Até a próxima!

o nascimento do midi e a história dos plugins

Tempo de leitura: 6 minutos

Olá pessoal!
Segue mais um post para os fascinados por produção musical.
E para tanto, nada melhor do que começar com uma breve introdução e, em seguida, discorrer um pouco mais do assunto para ficar entendível, não é?
Então vamos lá!

Você já imaginou como os produtores faziam para gravar um grupo enorme de orquestra enquanto acompanhavam a cena já gravada dos filmes?
Difícil até pensar em como se conseguia ter tanta concentração do papel que cada instrumentista teria de desenvolver nas trilhas, ao mesmo tempo prestando atenção nos cenários que apareciam numa tela grandíssima para deixar tudo sincronizado.
Posso citar como exemplo os filmes de Star-Wars, que apesar de serem quase todos daquela época, tiveram suas trilhas gravadas por um grupo imenso de orquestra.
Impossível não era, mas dava muito trabalho.
Havia uma certa demora na produção dessas trilhas, fato que talvez explique o atraso nos lançamentos.
Mas a tecnologia veio para dar um jeito nisso.

Antes de conhecermos a história dos instrumentos virtuais e o que são, é preciso saber como foi possível gerar notas musicais com o que existia naquele tempo.
Como isso poderia ser possível, já que a multimídia ainda estava engatinhando?
Diante desta situação, uns malucos aí (diga-se de passagem) de algumas empresas do japão e de outros países resolveram criar o que a gente conhece hoje como MIDI.
“MIDI? Que diabos é isso?!?!?”
Calma, ainda não falei grego. ?

Inicialmente, o MIDI (sigla para Musical Instrument Digital Interface, do inglês) surgiu através das primeiras placas de som para computadores, em que era mandado codificações representando as notas musicais e a interface conseguia gerar o som dessas notas com bastante precariedade, claro.
Esta técnica inclusive é usada até hoje por placas de som mais atuais e robustas através de arquivos MIDI.

“Mas eu pensei que os arquivos MIDI fossem como os arquivos de música!”
É, pensava. Os arquivos MIDI, por si só, não fazem nada. A única coisa que contém dentro deles são uma sequência de instruções.
Essa sequência é lida por um player qualquer, que envia essas informações diretamente para a placa de som, que por sua vez interpreta e as decodifica, gerando a sequência de sons que foram instruídas nesse arquivo.
Nele também são indicados outros comandos, como por exemplo o tipo de instrumento a ser executado e a quantidade deles (máximo de 16 por canal).
Os timbres que são gerados após a decodificação continuam sendo até hoje das próprias placas de som.
Interessante, né?

Você já experimentou dar uma olhadinha no que geralmente está escrito nesses arquivos, trocando suas extensões para poder visualizá-los num editor de texto puro como o bloco de notas?
É isso mesmo que você leu. Arquivos MIDI são textos puros que contém comandos codificados.
Abaixo vai um exemplo que mostra exatamente isso:

“MThd # # # xMTrk # ÿY# ÿQ##ï‘ ÿX##### ÿ/ MTrk A# ÿ##Piano 1&À °]# [P
Yb%Wb Db Tb Mb =b Y 6Rb Ub T W $Wb#Tb R U ?M W #Rb Ub T D #= U R Db JbPb”

Retirei de um arquivo MIDI que obviamente contém muito mais do que isso, mas acho que deu para você perceber que, conclusivamente, são como se fossem partituras codificadas. Só os dispositivos compatíveis entendem.
A primeira linha de código até que não nos parece assim tão ininteligível, pois já de cara nos apresenta a palavra “piano” que está indicando que as notas deverão ser reproduzidas com som de piano.

Podemos concluir assim que, na área da informática, as placas de som foram as primeiras a reproduzir sons sintetizados, juntamente com os primeiros teclados e outros instrumentos sintetizadores.
Foi quando novamente tiveram uma brilhante ideia vinda de malucos (tinha que ser) de implementar no MIDI um esquema que permitisse a execução desses comandos que você viu acima em realtime (tempo real), para que o som fosse gerado instantaneamente.
Isso explica basicamente como funcionam os teclados até hoje.
Como?
Simples…
Você aperta as teclas do instrumento e, dentro dele, é gerado comandos MIDI a serem decodificados e, por fim, reproduzidos com o som próprio do teclado.
Coisa de maluco mesmo, né? ?

Mais do que uma linguagem, o MIDI também acabou virando um protocolo de comunicação entre instrumentos compatíveis.
O som MIDI é conhecido até hoje por tentar imitar os instrumentos de forma bem precária para aquela época e razoável para um uso caseiro atualmente. Além disso, esteve dominando os celulares com aqueles toques polifônicos, lembram? é, era MIDI! ?

Coincidentemente, os celulares passaram quase pelo mesmo processo de evolução até conseguirem reproduzir uma música de verdade. Antes disso, reproduzia toques monofônicos (Ringtones), ou seja, só podia tocar uma única nota por vez.
Isso também aconteceu com o primeiro e enorme sintetizador feito antes da existência de teclados eletrônicos portáteis, o tão conhecido e famoso
Moog , desenvolvido por
Robert Moog .

O sintetizador era monofônico e o Álbun que se tem conhecimento com os sons dele teve que passar por uma gravação de 8 pistas separadas para colocar mais de uma nota e um instrumento ao mesmo tempo.

Switched on Bach, a música clássica de Bach usando o sintetizador Moog

Já naquela época (distante ao tempo em que o mesmo aconteceu com os toques dos primeiros celulares),
Keith Emerson (um exímio tecladista que fez pelos teclados o que Jimi Hendrix fez pela guitarra) teve conhecimento do sintetizador, ficou encantado com sua sonoridade e já queria usá-lo ao vivo, nos palcos.
Robert Moog, que era o músico e engenheiro daquele trambolho grande, o desaconselhava, porque pensava que seria de utilidade apenas em estúdios por ter instabilidades na afinação.
Não existia manual de montagem e uso do equipamento e vários complementos adicionais (como os módulos) vinham separado.
Mas pela insistência do grande músico surgia o
Minimoog , uma versão mais compacta do seu irmão mais velho que deu origem aos outros sintetizadores e também aos teclados eletrônicos.

À medida em que tudo foi evoluindo, também melhorava cada vez mais a precisão para sintetizar o som do instrumento desejado da forma mais idêntica possível a um instrumento real.
Neste processo de evolução é que o processamento de áudio começava a surgir em grande estilo.

Os teclados já contavam com memória suficiente para reproduzir timbres fiéis e próximos dos instrumentos acústicos; hoje com possibilidade para recursos adicionais como gravação em áudio de uma performance musical com efeitos diversos; a mesma gravação pode ser facilmente copiada para o computador, editada, masterizada e gravada em CD. Pode-se inclusive expandir o teclado com novos timbres sampleados.
O computador que até então era usado para tarefas muito peculiares e particulares, aos poucos também foi aprimorado.

E em meio a tudo isso, mais um grupo de malucões de uma empresa alemã conhecida como
Steinberg resolveu inovar, criando uma plataforma que permitia simular efeitos que eram comumente utilizados por outros equipamentos de hardware em estúdios, como processadores de efeito e pedaleiras.
Aos poucos eles deixaram de ser frequentemente usados.
Hoje basta plugar uma guitarra e/ou um violão elétrico e mandar o sinal de áudio para um computador com o software rodando um plugin de pedaleira virtual, que o mesmo efeito é fielmente reproduzido, como se estivesse vindo mesmo do equipamento.

No final das contas e aproveitando o sucesso disso e o grande impacto que deve ter causado, os espertinhos tiveram a ideia também de desenvolver uma nova tecnologia para possibilitar a execução de instrumentos reais pelo computador, usando o nosso bom e velho MIDI já explicado, em conjunto com algum outro instrumento musical que fosse compatível com o protocolo como teclados, que atuariam agora como controladores.
Controladores? Que que é isso?

Explicarei num próximo artigo.
Mas os teclados que foram os primeiros a serem feitos para tentar reproduzir os instrumentos (em especial acústicos) seriam usados para enviar comandos MIDI codificados em tempo real a um instrumento virtual, que os interpretaria e executaria com o seu próprio som em vez do som MIDI: No caso o instrumento tal como ele soa, gravado por diversas vezes, nota a nota, com inúmeras amostras (samples), em diferentes ângulos de captação, intensidade e articulação.
Sim, um clone quase perfeito de um instrumento real dentro do computador! ?

Agora, não necessariamente preciso ir atrás dos músicos para alcançar o perfeito realismo, basta um computador e um teclado e, o mais importante, saber como tocar os instrumentos, mesmo que seja num instrumento de teclas.
Se conseguir, então o resultado será uma reprodução fiel, como se eu estivesse tocando nele ou como se alguém tocasse na minha frente.
Se bem que tem gente que também pensa ao contrário.

A quem prefira gravar os instrumentos vindos dos seus instrumentistas.
De fato, podem existir algumas nuances que sejam difíceis de “clonar”, ainda mais considerando a performance única de cada músico.
Mesmo assim, com essa grande invenção, os produtores e músicos não precisam mais depender sempre do instrumento em mãos para alcançarem a sonoridade desejada, principalmente se a ideia é reduzir custos e o orçamento do cliente está muito apertado.
Na produção de trilhas para cinema, não é mais necessário contratar uma orquestra inteira, basta ter todos os instrumentos no PC e saber como sequenciá-los usando o teclado e softwares de produção musical!

E aqui termina a história de todo esse avanço tecnológico.
Graças a todos esses acontecimentos, novas alternativas estão a disposição para se fazer música.
O limite? Bem, isso vai da criatividade da pessoa!

a! e antes que eu me esqueça, as duas plataformas também receberam suas siglas como no MIDI. A primeira é chamada de VST (Virtual Studio Tecnology) e a segunda se chama VSTI (Virtual Studio Instrument Tecnology).
a primeira é para efeitos e a segunda para instrumentos virtuais, dos mais diversos: Acústicos, sintetizados…
E a quantidade de instrumentos possíveis de serem reproduzidos com uso de computador é infinita, que já existem plugins como os da
Arturia que te dão a possibilidade de conhecer, brincar e usar os primeiros dois importantes sintetizadores que citei acima: O Moog e o Minimoog.

E você, quais plugins VST e VSTI que mais gosta de usar?
Deixe nos comentários e vamos trocar conhecimento!
Grande abraço!