Tag: Efeitos Sonoros

Removendo ou extraindo vocal de músicas com precisão

Tempo de leitura: 6 minutos

Olá pessoal!
Espero que estejam todos muitíssimo bem!

Neste post estou inspirado para falar de um assunto que é de muito interesse dos profissionais e até mesmo de entusiastas da música, e que continua sendo objeto de muitas pesquisas já há um bom tempo: Será que é possível remover o vocal de uma música já mixada e masterizada? Ou então, extrair a voz retirando o instrumental?
Bom, muitos com certeza ainda vão dizer que não; outros vão dizer que sim , mas de forma parcial.

Remover ou isolar o vocal de uma música com 100% de precisão sempre foi um grande desafio e, até então, era considerado algo praticamente impossível. Mas o fato é que, com os primeiros sinais da inteligência artificial nesse sentido, que começou por volta de 2019, isso está mudando para melhor, com resultados que surpreendem a cada novo algoritmo desenvolvido e pré-treinado.
Dependendo da música, a precisão pode chegar em torno de 75 a 90%.
Ótimo para inúmeras finalidades:

  • Ensaiar a música ouvindo todo ou parte do instrumental; útil quando o arranjo é muito complexo e se deseja ouvir algo com mais detalhes
  • Extrair o vocal para usar em uma nova versão da música, como um remix ou mashup, mesmo sem ter as tracks ou pedir autorização para o artista ou gravadora
  • Gerar o playback da música para cantar por cima (a qualidade pode ficar um pouco prejudicada dependendo de qual for escolhida)

É claro que, para ambos os casos como acabei de dizer, e dependendo do algoritmo escolhido, ainda pode haver alguma perda de qualidade, mas já está bem melhor do que se podia fazer no passado.
Estamos falando aqui de engenharia reversa. Pense nisso como a tentativa de descompilar um software de código fechado… É a mesma coisa.

Numa música finalizada, tudo está incluído: A voz, os instrumentos e os efeitos e demais elementos de produção.
Uma vez que você não está de posse das tracks separadas, não é possível ouví-las individualmente, com a mesma qualidade com que foi gravado ou captado.
Então, assim como é estabelecido no acordo de licença do uso de um aplicativo de código fechado, você não tem autorização para descompilar, desmontar ou fazer alguma modificação de forma ilegal. É daí que vem a pirataria e os crackers fazem justamente isso.

E na música não é diferente.
Eu tenho essa consciência e acredito que você que produz e já imaginou fazendo coisas legais com elas também tem, mas existe situações em que realmente é muito complicado pedir autorização para obter o projeto aberto à um artista ou gravadora, por diversas razões:

  • O artista pode já ter falecido
  • A gravadora pode não existir mais
  • Sem uma grande negociação que beneficie mais o artista ou a própria gravadora do que o interessado, é provável que a proposta seja recusada
  • Não há garantia de que a gravadora ainda tenha o projeto arquivado

Entra em cena a manifestação artística através dos meios digitais quando não há outra possibilidade melhor, de forma que nem sempre isso representa um problema grave.
Por exemplo: Num show em público, é livre a interpretação de músicas populares tanto por artistas independentes quanto profissionais, sem que seja necessário uma autorização para isso.
Num remix ou produção bem criativa de uma música já existente, o autor não deixará de ter seus ganhos pela criação original, mas o produtor da versão remixada também poderia ser recompensado pelo trabalho e por mostrar ao mundo a peça musical de um novo jeito, com um novo estilo e alcançando um público ainda maior.

Assim, A possibilidade de isolar e principalmente remover o vocal das músicas com o surgimento de novas ferramentas inteligentes já está sendo uma mão na roda, gerando resultados cada vez melhores e de acesso imediato para o público em geral, músicos e não músicos.
Então, se ficou interessado, continue lendo e vamos ver as técnicas possíveis para remover ou isolar o vocal de uma música!

Isolando ou retirando a voz através da inversão de fase

No caso de isolar o vocal de uma música dessa forma, é necessário possuir a versão original da música e outra versão que contenha apenas o playback, ambas com a mesma qualidade de áudio em bitrate e sample rate.
Esse processo envolve o fenômeno físico da inversão de fase, que se aplica ao áudio por causa das ondas sonoras e das vibrações que geram no ar.

Ao ouvirmos um som, percebemos as variações na pressão que são geradas pelas ondas. Durante a gravação, o diafragma do microfone age de forma semelhante ao tímpano, vibrando de acordo com essas ondas.
Os picos de onda movem o diafragma em uma direção, enquanto os períodos de menor intensidade geram movimento na direção oposta.
Com isso em mente, podemos dizer que ao juntarmos a versão original com a versão playback, ambas sincronizadas perfeitamente, podemos utilizar a técnica de inversão de fase em uma delas. Isso fará com que a voz seja reproduzida isoladamente, já que essa é a única parte da música que não aparece no playback e, portanto, não será anulada.

Para fazer o inverso, você precisaria ter, além da original, uma versão apenas com a voz.
É importante ressaltar que é incomum encontrar a voz separada da música com qualidade 100% original, o que dificulta esse processo de gerar o Playback por inversão de fase.
Além disso, a maioria dos artistas não disponibiliza os playbacks de suas músicas oficialmente, sendo mais comum encontrá-los em músicas do estilo gospel ou gerados a partir de multitracks vazados de músicas internacionais mais antigas que circulam na internet.

Sendo assim, é melhor deixar isso para a IA, não é mesmo? ☺
Continue lendo!

Isolando ou retirando a voz com plugins, programas e ferramentas online

No passado, alguns plugins que tentavam remover o vocal das músicas muitas vezes prejudicavam a qualidade do áudio, destruindo a imagem stereo e transformando o resultado em mono.
Hoje, já existe a técnica de machine learning por trás, como no site Phonicmind , onde você consegue, online, remover e isolar o vocal de músicas com bastante precisão e salvar o resultado em arquivo mp3.
Este foi o primeiro site que descobri na época, com resultados bem satisfatórios.

De lá pra cá, muitos outros sites e algoritmos surgiram com o mesmo propósito, como o Moises.ai (plano gratuito e pago) e o Melody.ml ; todos utilizam o algorítmo avançado de separação de áudio criado pelo Deezer (sim, uma das empresas de streaming de música).
O projeto chama-se Spleeter e o código é open source e disponível para desenvolvedores.
Sobre o Moises, além de ter a ferramenta para separar a música em várias partes, também é possível descobrir a tonalidade, o BPM (batidas por minuto) e os acordes cifrados, fora um recurso bem interessante para masterizar suas próprias músicas para deixar com uma cara mais profissional.

Mais recentemente ainda, também surgiu outro site chamado Lalal.ai , que promete resultados melhores do que os que usam a tecnologia spleeter, usando o Phoenix como algoritmo.
Por fim, esse aqui possibilita escolher o algoritmo que será utilizado (demusc, Ultimate Vocal Remover HQ, etc). Aliás, até agora, o Ultimate Vocal Remover foi o que mais me surpreendeu, principalmente para remover o vocal de músicas e usando a versão Offline em forma de programa (falarei mais sobre isso adiante).

Para os demais algoritmos, particularmente noto que, ao isolar a voz de músicas em que ela aparece com muito reverb, o noise reduction (ou gate) aplicado durante a extração faz com que a sobra do efeito seja cortado.

Na categoria de programas e plugins, uma ferramenta muito inteligente é o aplicativo RX da Izotop .
Um de seus módulos (music rebalance) permite ajustar o ganho de elementos de uma música já mixada em tempo real, o que ajuda a resolver problemas de volume. É possível também isolar ou remover a voz, bateria ou percussão, baixo e outros instrumentos.
Para o Demucs citado anteriormente em um dos sites, existe uma interface gráfica adaptada (GUI) , que permite utilizá-lo sem precisar de internet.
O mesmo vale também para o Ultimate Vocal Remover GUI, disponível para Windows, Mac e Linux, que reúne vários outros algoritmos tudo em um mesmo aplicativo.
Alguns já vem no pacote, outros podem ser baixados separadamente. Destaque aqui para o modelo UVR-DeEcho-DeReverb da categoria VR Architecture, que simplesmente tira o reverb ou o eco da voz extraída, ou mesmo de qualquer outro material de áudio que contenha o efeito.
Impressionante, não? 😯

Na minha opinião, o resultado produzido pelos dois são muito melhores se comparado ao RX.
O Demucs se destaca por ter melhor precisão para extrair baixo e bateria. O Ultimate Vocal Remover além de gerar a versão da música sem a voz com uma precisão muito boa, não deixa a desejar ao isolá-la, preservando os detalhes como a respiração e a sobra do efeito aplicado, com o mínimo de artefatos.

Uma outra alternativa é o Extra Boy pro da Elevayta, que funciona como um plugin VST e também permite ter controle do espectro sonoro, deletando um ou múltiplos instrumentos.
Por fim, o Voice Trap da Clone Ensemble, que é o mais antigo das ferramentas de remoção e isolamento de voz.
Na época que ele foi lançado, era o que havia de melhor. Tem plugin para VST e DirectX.

Bom galera, é isso.
Espero que tenham gostado!
Deixem suas impressões nos comentários.
Vou gostar de saber de outras ferramentas.
Até a próxima!

O funcionamento básico de um vocoder

Tempo de leitura: 3 minutos

Olá pessoal, espero que estejam bem.
Continuando a série de artigos sobre efeitos sonoros para produções musicais, neste texto vou falar sobre um dos mais conhecidos e famosos: o Vocoder.
Antes de entrar em detalhes, gostaria de compartilhar um fato curioso da minha infância.

Quando eu ouvia rádio e fazia minhas gravações em fitas cassete, sempre me impressionavam as vinhetas que tocavam entre as músicas. Algumas dessas vinhetas tinham vozes sintetizadas ou robóticas cantando com uma afinação tão perfeita e agradável aos ouvidos que eu ficava curioso para saber como era possível.
Essa é a primeira coisa que vem à mente quando falamos sobre Vocoder, e muitas outras pessoas podem ter passado por essa fase.
Com a evolução tecnológica e acesso facilitado à internet, fiz algumas pesquisas e descobri que se tratava do Vocoder, que muitas vezes é comercializado com outros nomes para chamar a atenção ou por questões de marketing.
O Vocoder não é utilizado apenas em vinhetas, mas também em diversas músicas, tanto antigas quanto atuais.

A experimentação começou em 1970, quando surgiram os primeiros vocoders desenvolvidos por Wendy Carlos e Robert Moog, o inventor do sintetizador clássico Moog, para fins musicais.
Antes disso, eram utilizados principalmente em telecomunicações, criptografando e codificando a voz para transmissão segura e protegida via rádio.
O Vocoder é a junção de voz codificada e na música tem a função de transformar a voz humana em voz sintetizada.
Para que esse fenômeno aconteça, ele precisa basicamente de dois componentes fundamentais: o Carrier e o Modulator.

Carrier é o timbre de algum instrumento (geralmente sintetizadores), que são utilizados como base para o processamento da voz.
O timbre pode vir de um teclado, instrumento virtual, etc. Pode conter de melodias até acordes completos, modificando de alguma forma o comportamento do vocoder, inclusive o timbre que será usado.
Uma boa dica é não usar timbres complexos ou com muitos efeitos, deixando-os para serem adicionados após a voz ser processada. Eles precisam soar secos como aqueles gerados por síntese, que produzem ondas quadradas, senoidais, triangulares, dente de serra ou a variação destas.
Se o vocoder tiver suporte a MIDI, então o Carrier é produzido em tempo real quando as notas são tocadas, mas você só ouve o resultado quando fala no microfone ao mesmo tempo em que toca o teclado, permitindo assim o controle do efeito em tempo real.
Geralmente, esse tipo de vocoder deve ser inserido na DAW em cima de uma faixa de áudio e, neste caso, será possível adicionar algum outro efeito na voz já processada.

Por fim, o Modulator é a sua própria voz, falada ou cantada.
Se você ainda não entendeu muito bem, a melhor forma de compreender é experimentando!
Aproveito para disponibilizar a todos um simples vocoder gratuito para Windows que funciona via linha de comando, desenvolvido por um programador:
VocShell
Nota: Para programadores, está disponível o código fonte aqui .

antes de começar a brincadeira, veja o programa em funcionamento ouvindo estes três sons.
O primeiro é o carrier, o segundo é o modulator e o último é a voz já codificada.

O modulator é pura e simplesmente a minha voz gravada, onde estou falando naturalmente, sem nenhuma intenção musical.

O carrier foi gerado por um software de computador com sons básicos de sintetizador através de código e sem muita frescura.

O resultado é uma voz robotizada e musical.

Outro exemplo, agora com intenções musicais:

Este carrier é diferente porque foi usado um timbre de teclado

Gostou?
Então é a sua vez de tentar!
Se você já baixou o vocshell, descompacte em qualquer lugar e localize o arquivo baixado usando o prompt do windows ou o power shell.
Por exemplo: Se o executável está na pasta vocshell, então digite:
cd vocshell

Em seguida deve invocar o executável passando pelo menos os parâmetros necessários:

  • -c – Carrier
  • -m – Modulator
  • -o – output (arquivo de saída)

Podem ser usados carriers tanto em mono quanto em stereo, mas o modulator precisa ser mono.


Exemplos de uso:
vocshell -c timbre.wav -m voz.wav -o resultado_final.wav

Há outros parâmetros opcionais que podem ser emitidos, mas não entrarei em mais detalhes aqui para não alongar o texto.
De qualquer forma, se você chamar o executável sem passar argumentos obterá a lista de todos os parâmetros que podem ser usados.

É isso galera!
Em outra oportunidade, darei dicas de ótimos plugins de vocoder para usar em tempo real na sua DAW.
Espero que tenham gostado de mais esse conteúdo.
Finalizo com esse trecho engraçado em áudio da música “Atirei o Pau no Gato” que fiz usando um plugin de vocoder da Native Instruments (Vokator).

Divirtam-se!
Deixem seus feedbacks nos comentários.
Até o próximo post!

reverbs de convolução

Tempo de leitura: 5 minutos

Olá a todos!
Espero que estejam bem e aproveitando este espaço.
Neste texto, gostaria de falar sobre um efeito sonoro interessante e muito utilizado em produções musicais, chamado Reverb de Convolução.

Em um artigo anterior, discuti dois efeitos comuns e expliquei o fenômeno por trás deles. Embora ambos envolvam a propagação das ondas sonoras, o primeiro faz com que o som se propague em zigue-zague pelo ambiente, gerando ondas adicionais que tornam o som mais contínuo, enquanto o segundo (Delay) faz com que o som seja repetido várias vezes, com intensidades cada vez mais baixas.
O reverb foi um dos primeiros efeitos que a tecnologia tentou simular, e hoje é amplamente utilizado em produções musicais, especialmente em gravações de vozes e instrumentos.
Essas gravações podem ser feitas em estúdios isolados acusticamente, com pouco ou nenhum reverb natural, para que o efeito possa ser adicionado posteriormente. Ou podem ser feitas em casa, com equipamentos razoavelmente baratos, acessíveis e de boa qualidade, desde que o ambiente seja isolado para evitar contaminação sonora.
A escolha do tipo de reverb pode ser um fator decisivo para o resultado final da produção musical. Usar ou não o efeito depende do estilo, contexto, andamento e instrumentação da música.
Encontrar o reverb adequado pode ser um desafio, mas existem várias opções disponíveis, incluindo reverbs de algoritmo.
Vou começar falando sobre ele então.

Os reverbs de algoritmo são gerados a partir de predefinições do usuário que determinam o tamanho do ambiente virtual e o tipo de revestimento desse espaço, levando em consideração as paredes ou outros materiais refletores. O software ou hardware, por meio de inúmeros cálculos e processamento, prevê as milhares de ondas que irão compor o reverb, assim como as réplicas do áudio em tempos distintos: Basicamente uma tentativa de simular um reverb natural.
Atualmente, o uso desses reverbs é muito comum em situações em que se deseja economizar tempo na captação de um reverb natural. No entanto, para que o reverb artificial seja convincente e engane o ouvido humano, o software ou hardware que gera o efeito precisa ter boa precisão, o que pode custar grande parte do processamento disponível hoje.
Os softwares de produção e edição de áudio trazem esses reverbs como padrão, facilitando o uso por todos. Mas se quisermos usar reverbs realmente acústicos, as possibilidades são infinitas e muitos reverbs são únicos e exclusivos.

Por exemplo, se você gosta do reverb do banheiro da sua casa ou do ginásio que frequenta, deve perceber que cada lugar tem sua impressão digital que determina como o som se comporta ali.
As impressões digitais também determinam os tipos de reverb mais conhecidos pelo público. Até as grandes cidades do mundo, cercadas por arranha-céus e outros edifícios, possuem um tipo de reverb que parece inigualável.
Provavelmente, você já ouviu diversas vezes o reverb de uma ambulância ou carro de bombeiros passando pela cidade com a sirene ligada.

Capturar esse tipo de reverb requer uma microfonação adequada, considerando a quantidade de microfones, o ângulo de captação, o posicionamento e a distância, entre outros aspectos. Isso demanda tempo e técnica para captar tanto o som direto quanto o reverberado.
Se você quiser usar em sua gravação um reverb característico da cidade de Nova York, por exemplo, é inviável ir até lá apenas para capturá-lo. Além disso, é preciso considerar os outros ruídos da cidade, o que torna difícil encontrar momentos de silêncio total.
Nesse contexto, pode parecer mais fácil simular um reverb de algoritmo do que tentar capturar um reverb natural, mas é difícil alcançar a mesma complexidade do mundo real por meio de cálculos matemáticos. Por isso, os reverbs de convolução se destacam como uma alternativa mais próxima dos reverbs naturais, visto que seu funcionamento é o mais complexo existente atualmente quando falamos de reverbs digitais.

Você pode entender o fenômeno da convoluçãoLendo este artigo da Wikipédia.
Simplificando, trata-se de um cálculo matemático complexo que usa a transformada de Fourier para gerar uma nova função a partir da multiplicação de duas outras.
Na engenharia de áudio, essa técnica é usada para criar arquivos de impulso (os chamados Impulse File ou Impulse response, da sigla IR em inglês), que são gravações do comportamento de um som específico em um ambiente. Por exemplo, gravando o som de uma pistola de partida em uma pista de atletismo, é possível obter a resposta do impulso desse ambiente para quase todas as frequências.
Ao editá-lo, os engenheiros de áudio cortam o impacto direto do som, deixando apenas a reverberação. O resultado é uma resposta do impulso que pode ser usada no processador de convolução para obter a acústica de qualquer ambiente.
Além disso, a convolução pode ser usada para obter a impressão digital de outros efeitos, como amplificadores de guitarra e características de microfones lendários.
Existem muitas bibliotecas de IR’s disponíveis na internet, algumas pagas e de boa qualidade e outras gratuitas, que também não deixam nada a desejar.
É incrível o que a matemática e a tecnologia podem fazer pela música!

Ouça um exemplo em que tento ilustrar o funcionamento.
Eu mesmo fiz: Peguei um som de tiro e fiz um arquivocom dois sons, que na realidade são os mesmos. Porém, um é o tiro talcomo ele soa e o outro depois dele é apenas a resposta ao impacto desse tiro.

Os impulsos sonoros são gravados em arquivos com extensão wav ou aiff, como explicado anteriormente.
Alguns softwares possuem extensões próprias para trabalhar com esse tipo de efeito, como é o caso dos Impulse Files para o SoundForge. E a boa notícia é que eles podem ser baixados gratuitamente!
Infelizmente, o link original do arquivo no site da Sony (agora Magix) não está mais disponível, mas deixo aqui para quem deseja brincar.

Basta extrair os arquivos para uma pasta e acessá-los através da opção effects>Acoustic mirrors no Sound Forge.
Ao abrir, uma janela aparecerá e você poderá procurar o arquivo de impulso que deseja usar através do botão “Browse”. Além disso, é possível fazer ajustes na intensidade do reverb em relação ao som original.
Agora, vamos entender a grande sacada que ocorre quando utilizamos um arquivo de impulso no Sound Forge ou em outro software/plugin que trabalhe com esses arquivos.

Ao utilizar então esse recurso, é possível adicionar ao áudio o som característico de diferentes lugares, como avenidas, aeroportos, ginásios e teatros, tornando a gravação mais realista e imersiva.
Outro exemplo de uso da convolução é nos filmes, em que os atores gravam suas vozes em estúdio, mas em algumas cenas elas soam como se estivessem em lugares específicos, como aeroportos. Esse efeito pode ser criado com a convolução, tornando a gravação mais envolvente.
Porém, é importante lembrar que a convolução pode ser uma dor de cabeça em projetos com várias pistas de áudio e diferentes efeitos processando em tempo real. Por isso, a solução mais viável é utilizar arquivos wav separadamente, com o efeito já aplicado, e fazer o backup dos arquivos originais antes de realizar qualquer alteração.

Bem pessoal, chegamos ao fim de mais um artigo sobre efeitos sonoros e o reverb de convolução. Agora é hora de se divertir!
Use os reverbs em suas montagens, produções ou onde quer que precise de um som diferenciado. Brinque com seus amigos e mostre a eles como é possível falar diretamente da Califórnia, da cidade de Frankfurt ou até mesmo dentro de uma caverna misteriosa sem sair de casa.
Aliás, se você é um gênio criativo, saiba que pode dar uma de engenheiro de áudio e criar seus próprios Impulse Files.

Isso mesmo, você pode gravar com o reverb da casa de um amigo em outra cidade, como se estivesse lá. O processo é simples:
grave um som de impacto forte e audível em um determinado ambiente, edite-o para cortar o som de impacto, ficando apenas com o reverb, e salve-o como um arquivo wave.
É preferível fazer a gravação em estéreo, o que pode ser feito com dois microfones ou com gravadores digitais que já possuem microfones embutidos, ou ainda usando o celular.
Mas espere, não precisa vir à minha casa para aprender a fazer isso, viu?

Aqui está para download gratuito, o reverb do meu quarto.
A captação foi bem simples: Bati com a mão na parede do lado daminha cama bem forte, e depois editei, cortando o impacto desse som e deixando só o reverb.
Vou disponibilizar aqui as duas gravações, uma com o som tal como ele soa aqui e o outro apenas com o reverb.
Use o segundo, ok?

Paulada na parede
Resposta dessa paulada na parede (IR)

É isso. Brinquem a vontade, o limite é a sua criatividade.
Até a próxima!

Entendendo os tipos de efeitos mais usados na produção musical

Tempo de leitura: 3 minutos

Olá!
Espero que todos estejam bem.
Neste post gostaria de falar sobre os efeitos comumente utilizados em produções musicais e os resultados que podem ser obtidos a partir deles.

A maioria dos efeitos disponíveis em processadores e pedaleiras são simulações de efeitos acústicos que ocorrem naturalmente em nosso ambiente e são estudados pela física. Ao produzirmos sons em diferentes ambientes, podemos perceber como eles se propagam.
Por exemplo, quando cantamos no chuveiro e percebemos que nossa voz soa afinada, ou quando falamos diante de um grande morro e ouvimos o som repetido, chamado de “eco” pelas pessoas, mas que na verdade é um tipo de efeito com outro nome.
Começarei então falando sobre o Reverb.

A reverberação ocorre quando o som é gerado e reflete nas paredes, no chão, no teto e retorna em várias réplicas do mesmo som em tempos diferentes, o que resulta em um som contínuo e preenchido. O decaimento do reverb depende do tamanho da sala, e existem vários tipos de reverb, desde curtos até longos.
O reverb é um dos primeiros efeitos de embelezamento sonoro a ser amplamente utilizado e é capaz de dar a sensação de preenchimento em músicas com poucos instrumentos, como um piano soando em uma sala de concerto.

Hoje em dia, o reverb é gerado digitalmente por processadores de efeitos em hardware ou software. No passado, havia grandes salas acusticamente projetadas próximas aos estúdios para emitir e captar o efeito.
Também havia alternativas mais rudimentares, como o tipo mola (usado em amplificadores de guitarra) e o tipo plate (característico de gravações antigas).
Para ilustrar, é possível ouvir exemplos de músicas que utilizam esse tipo de reverb, como “Mar de Rosas” do The Fevers e “Dominique” de Giane:

Mar de Rosas do The Fevers
DOMINIQUE –

Preste atenção no reverb e veja como ele é bem metálico.

Vamos agora explorar o segundo efeito sonoro que é bastante conhecido: o eco, também chamado de delay.
Essa expressão em inglês significa literalmente “atraso”, e é fácil de entender como ele funciona: quando um som é emitido, ele se propaga e, ao encontrar obstáculos no caminho, como paredes ou rampas, parte dele acaba retornando para o ponto de origem.
Esse som refletido é o que chamamos de eco, e seu volume diminui à medida que ele se distancia do lugar onde foi gerado.
O delay é exatamente o tempo que leva para o som refletido retornar, e é um parâmetro fundamental na criação de efeitos sonoros. Ele também é utilizado em outros contextos, como na comunicação por voz via internet e na latência de processamento de dados.

Apesar de ser simples, o delay foi um dos primeiros efeitos sonoros que a tecnologia conseguiu imitar. Na música, esse efeito serviu como inspiração para criar novas sonoridades e dar asas à criatividade dos artistas.
Por exemplo, o canto yodo (ou jodler, como é conhecido na Alemanha), originário dos alpes alemães, se baseia no eco natural das montanhas.
Esse efeito foi incorporado às músicas, às vezes de forma rítmica, e pode ser ouvido em produções musicais modernas, como no remix “Galera de Cowboy” da Dalas Company, que usa um delay do tipo “ping pong” para criar um efeito estéreo interessante:

galera de cowboy

Preste atenção já no começo da música o “ping pong” do delay de acordo com o ritmo.

Ao explicar os dois efeitos, podemos concluir que o reverb consiste em milhares de fragmentos pequenos de delays em variações de tempo diferentes.
A tecnologia transformou o delay e o reverb em efeitos digitais, possibilitando a criação de novos tipos de efeitos a partir da manipulação das ondas sonoras, muitos deles baseados em efeitos já existentes.
Por exemplo, o efeito flanger cria uma sensação de “som entubado” usando vários delays curtos com variações periódicas de tempo, geralmente entre 10 a um milésimo de segundo.
O Phaser funciona de forma semelhante, mas com variações ainda menores, entre zero e um milésimo de segundo.
O Chorus é outro efeito muito utilizado na produção musical, simulando a sensação de várias pessoas cantando em uníssono, com pequenas variações de tempo e afinação.
Já o Pitch é um efeito de rotação que altera a afinação e a velocidade do som, com possibilidades de ajuste por oitava, intervalo, tons e semitons.

Por fim, o Equalizador é um tipo de efeito que permite ajustar o volume de determinadas frequências, podendo ser usado para editar, modificar timbres e dar uma outra cara ao som.
Os controles disponíveis nos equalizadores dependem do tipo de equalizador, sendo os gráficos com controles deslizantes e de várias bandas os mais comuns. Já os equalizadores paramétricos permitem um controle ainda maior da amplitude e das frequências vizinhas.

Com esses efeitos, um produtor musical tem a possibilidade de criar uma variedade de sons e timbres em suas produções.
Há muitos outros efeitos disponíveis e serão abordados em posts futuros.
Espero que tenham gostado. Deixem seus comentários abaixo!
Até a próxima!