Tag: produção musical

O funcionamento básico de um vocoder

Tempo de leitura: 3 minutos

Olá pessoal, espero que estejam bem.
Continuando a série de artigos sobre efeitos sonoros para produções musicais, neste texto vou falar sobre um dos mais conhecidos e famosos: o Vocoder.
Antes de entrar em detalhes, gostaria de compartilhar um fato curioso da minha infância.

Quando eu ouvia rádio e fazia minhas gravações em fitas cassete, sempre me impressionavam as vinhetas que tocavam entre as músicas. Algumas dessas vinhetas tinham vozes sintetizadas ou robóticas cantando com uma afinação tão perfeita e agradável aos ouvidos que eu ficava curioso para saber como era possível.
Essa é a primeira coisa que vem à mente quando falamos sobre Vocoder, e muitas outras pessoas podem ter passado por essa fase.
Com a evolução tecnológica e acesso facilitado à internet, fiz algumas pesquisas e descobri que se tratava do Vocoder, que muitas vezes é comercializado com outros nomes para chamar a atenção ou por questões de marketing.
O Vocoder não é utilizado apenas em vinhetas, mas também em diversas músicas, tanto antigas quanto atuais.

A experimentação começou em 1970, quando surgiram os primeiros vocoders desenvolvidos por Wendy Carlos e Robert Moog, o inventor do sintetizador clássico Moog, para fins musicais.
Antes disso, eram utilizados principalmente em telecomunicações, criptografando e codificando a voz para transmissão segura e protegida via rádio.
O Vocoder é a junção de voz codificada e na música tem a função de transformar a voz humana em voz sintetizada.
Para que esse fenômeno aconteça, ele precisa basicamente de dois componentes fundamentais: o Carrier e o Modulator.

Carrier é o timbre de algum instrumento (geralmente sintetizadores), que são utilizados como base para o processamento da voz.
O timbre pode vir de um teclado, instrumento virtual, etc. Pode conter de melodias até acordes completos, modificando de alguma forma o comportamento do vocoder, inclusive o timbre que será usado.
Uma boa dica é não usar timbres complexos ou com muitos efeitos, deixando-os para serem adicionados após a voz ser processada. Eles precisam soar secos como aqueles gerados por síntese, que produzem ondas quadradas, senoidais, triangulares, dente de serra ou a variação destas.
Se o vocoder tiver suporte a MIDI, então o Carrier é produzido em tempo real quando as notas são tocadas, mas você só ouve o resultado quando fala no microfone ao mesmo tempo em que toca o teclado, permitindo assim o controle do efeito em tempo real.
Geralmente, esse tipo de vocoder deve ser inserido na DAW em cima de uma faixa de áudio e, neste caso, será possível adicionar algum outro efeito na voz já processada.

Por fim, o Modulator é a sua própria voz, falada ou cantada.
Se você ainda não entendeu muito bem, a melhor forma de compreender é experimentando!
Aproveito para disponibilizar a todos um simples vocoder gratuito para Windows que funciona via linha de comando, desenvolvido por um programador:
VocShell
Nota: Para programadores, está disponível o código fonte aqui .

antes de começar a brincadeira, veja o programa em funcionamento ouvindo estes três sons.
O primeiro é o carrier, o segundo é o modulator e o último é a voz já codificada.

O modulator é pura e simplesmente a minha voz gravada, onde estou falando naturalmente, sem nenhuma intenção musical.

O carrier foi gerado por um software de computador com sons básicos de sintetizador através de código e sem muita frescura.

O resultado é uma voz robotizada e musical.

Outro exemplo, agora com intenções musicais:

Este carrier é diferente porque foi usado um timbre de teclado

Gostou?
Então é a sua vez de tentar!
Se você já baixou o vocshell, descompacte em qualquer lugar e localize o arquivo baixado usando o prompt do windows ou o power shell.
Por exemplo: Se o executável está na pasta vocshell, então digite:
cd vocshell

Em seguida deve invocar o executável passando pelo menos os parâmetros necessários:

  • -c – Carrier
  • -m – Modulator
  • -o – output (arquivo de saída)

Podem ser usados carriers tanto em mono quanto em stereo, mas o modulator precisa ser mono.


Exemplos de uso:
vocshell -c timbre.wav -m voz.wav -o resultado_final.wav

Há outros parâmetros opcionais que podem ser emitidos, mas não entrarei em mais detalhes aqui para não alongar o texto.
De qualquer forma, se você chamar o executável sem passar argumentos obterá a lista de todos os parâmetros que podem ser usados.

É isso galera!
Em outra oportunidade, darei dicas de ótimos plugins de vocoder para usar em tempo real na sua DAW.
Espero que tenham gostado de mais esse conteúdo.
Finalizo com esse trecho engraçado em áudio da música “Atirei o Pau no Gato” que fiz usando um plugin de vocoder da Native Instruments (Vokator).

Divirtam-se!
Deixem seus feedbacks nos comentários.
Até o próximo post!

reverbs de convolução

Tempo de leitura: 5 minutos

Olá a todos!
Espero que estejam bem e aproveitando este espaço.
Neste texto, gostaria de falar sobre um efeito sonoro interessante e muito utilizado em produções musicais, chamado Reverb de Convolução.

Em um artigo anterior, discuti dois efeitos comuns e expliquei o fenômeno por trás deles. Embora ambos envolvam a propagação das ondas sonoras, o primeiro faz com que o som se propague em zigue-zague pelo ambiente, gerando ondas adicionais que tornam o som mais contínuo, enquanto o segundo (Delay) faz com que o som seja repetido várias vezes, com intensidades cada vez mais baixas.
O reverb foi um dos primeiros efeitos que a tecnologia tentou simular, e hoje é amplamente utilizado em produções musicais, especialmente em gravações de vozes e instrumentos.
Essas gravações podem ser feitas em estúdios isolados acusticamente, com pouco ou nenhum reverb natural, para que o efeito possa ser adicionado posteriormente. Ou podem ser feitas em casa, com equipamentos razoavelmente baratos, acessíveis e de boa qualidade, desde que o ambiente seja isolado para evitar contaminação sonora.
A escolha do tipo de reverb pode ser um fator decisivo para o resultado final da produção musical. Usar ou não o efeito depende do estilo, contexto, andamento e instrumentação da música.
Encontrar o reverb adequado pode ser um desafio, mas existem várias opções disponíveis, incluindo reverbs de algoritmo.
Vou começar falando sobre ele então.

Os reverbs de algoritmo são gerados a partir de predefinições do usuário que determinam o tamanho do ambiente virtual e o tipo de revestimento desse espaço, levando em consideração as paredes ou outros materiais refletores. O software ou hardware, por meio de inúmeros cálculos e processamento, prevê as milhares de ondas que irão compor o reverb, assim como as réplicas do áudio em tempos distintos: Basicamente uma tentativa de simular um reverb natural.
Atualmente, o uso desses reverbs é muito comum em situações em que se deseja economizar tempo na captação de um reverb natural. No entanto, para que o reverb artificial seja convincente e engane o ouvido humano, o software ou hardware que gera o efeito precisa ter boa precisão, o que pode custar grande parte do processamento disponível hoje.
Os softwares de produção e edição de áudio trazem esses reverbs como padrão, facilitando o uso por todos. Mas se quisermos usar reverbs realmente acústicos, as possibilidades são infinitas e muitos reverbs são únicos e exclusivos.

Por exemplo, se você gosta do reverb do banheiro da sua casa ou do ginásio que frequenta, deve perceber que cada lugar tem sua impressão digital que determina como o som se comporta ali.
As impressões digitais também determinam os tipos de reverb mais conhecidos pelo público. Até as grandes cidades do mundo, cercadas por arranha-céus e outros edifícios, possuem um tipo de reverb que parece inigualável.
Provavelmente, você já ouviu diversas vezes o reverb de uma ambulância ou carro de bombeiros passando pela cidade com a sirene ligada.

Capturar esse tipo de reverb requer uma microfonação adequada, considerando a quantidade de microfones, o ângulo de captação, o posicionamento e a distância, entre outros aspectos. Isso demanda tempo e técnica para captar tanto o som direto quanto o reverberado.
Se você quiser usar em sua gravação um reverb característico da cidade de Nova York, por exemplo, é inviável ir até lá apenas para capturá-lo. Além disso, é preciso considerar os outros ruídos da cidade, o que torna difícil encontrar momentos de silêncio total.
Nesse contexto, pode parecer mais fácil simular um reverb de algoritmo do que tentar capturar um reverb natural, mas é difícil alcançar a mesma complexidade do mundo real por meio de cálculos matemáticos. Por isso, os reverbs de convolução se destacam como uma alternativa mais próxima dos reverbs naturais, visto que seu funcionamento é o mais complexo existente atualmente quando falamos de reverbs digitais.

Você pode entender o fenômeno da convoluçãoLendo este artigo da Wikipédia.
Simplificando, trata-se de um cálculo matemático complexo que usa a transformada de Fourier para gerar uma nova função a partir da multiplicação de duas outras.
Na engenharia de áudio, essa técnica é usada para criar arquivos de impulso (os chamados Impulse File ou Impulse response, da sigla IR em inglês), que são gravações do comportamento de um som específico em um ambiente. Por exemplo, gravando o som de uma pistola de partida em uma pista de atletismo, é possível obter a resposta do impulso desse ambiente para quase todas as frequências.
Ao editá-lo, os engenheiros de áudio cortam o impacto direto do som, deixando apenas a reverberação. O resultado é uma resposta do impulso que pode ser usada no processador de convolução para obter a acústica de qualquer ambiente.
Além disso, a convolução pode ser usada para obter a impressão digital de outros efeitos, como amplificadores de guitarra e características de microfones lendários.
Existem muitas bibliotecas de IR’s disponíveis na internet, algumas pagas e de boa qualidade e outras gratuitas, que também não deixam nada a desejar.
É incrível o que a matemática e a tecnologia podem fazer pela música!

Ouça um exemplo em que tento ilustrar o funcionamento.
Eu mesmo fiz: Peguei um som de tiro e fiz um arquivocom dois sons, que na realidade são os mesmos. Porém, um é o tiro talcomo ele soa e o outro depois dele é apenas a resposta ao impacto desse tiro.

Os impulsos sonoros são gravados em arquivos com extensão wav ou aiff, como explicado anteriormente.
Alguns softwares possuem extensões próprias para trabalhar com esse tipo de efeito, como é o caso dos Impulse Files para o SoundForge. E a boa notícia é que eles podem ser baixados gratuitamente!
Infelizmente, o link original do arquivo no site da Sony (agora Magix) não está mais disponível, mas deixo aqui para quem deseja brincar.

Basta extrair os arquivos para uma pasta e acessá-los através da opção effects>Acoustic mirrors no Sound Forge.
Ao abrir, uma janela aparecerá e você poderá procurar o arquivo de impulso que deseja usar através do botão “Browse”. Além disso, é possível fazer ajustes na intensidade do reverb em relação ao som original.
Agora, vamos entender a grande sacada que ocorre quando utilizamos um arquivo de impulso no Sound Forge ou em outro software/plugin que trabalhe com esses arquivos.

Ao utilizar então esse recurso, é possível adicionar ao áudio o som característico de diferentes lugares, como avenidas, aeroportos, ginásios e teatros, tornando a gravação mais realista e imersiva.
Outro exemplo de uso da convolução é nos filmes, em que os atores gravam suas vozes em estúdio, mas em algumas cenas elas soam como se estivessem em lugares específicos, como aeroportos. Esse efeito pode ser criado com a convolução, tornando a gravação mais envolvente.
Porém, é importante lembrar que a convolução pode ser uma dor de cabeça em projetos com várias pistas de áudio e diferentes efeitos processando em tempo real. Por isso, a solução mais viável é utilizar arquivos wav separadamente, com o efeito já aplicado, e fazer o backup dos arquivos originais antes de realizar qualquer alteração.

Bem pessoal, chegamos ao fim de mais um artigo sobre efeitos sonoros e o reverb de convolução. Agora é hora de se divertir!
Use os reverbs em suas montagens, produções ou onde quer que precise de um som diferenciado. Brinque com seus amigos e mostre a eles como é possível falar diretamente da Califórnia, da cidade de Frankfurt ou até mesmo dentro de uma caverna misteriosa sem sair de casa.
Aliás, se você é um gênio criativo, saiba que pode dar uma de engenheiro de áudio e criar seus próprios Impulse Files.

Isso mesmo, você pode gravar com o reverb da casa de um amigo em outra cidade, como se estivesse lá. O processo é simples:
grave um som de impacto forte e audível em um determinado ambiente, edite-o para cortar o som de impacto, ficando apenas com o reverb, e salve-o como um arquivo wave.
É preferível fazer a gravação em estéreo, o que pode ser feito com dois microfones ou com gravadores digitais que já possuem microfones embutidos, ou ainda usando o celular.
Mas espere, não precisa vir à minha casa para aprender a fazer isso, viu?

Aqui está para download gratuito, o reverb do meu quarto.
A captação foi bem simples: Bati com a mão na parede do lado daminha cama bem forte, e depois editei, cortando o impacto desse som e deixando só o reverb.
Vou disponibilizar aqui as duas gravações, uma com o som tal como ele soa aqui e o outro apenas com o reverb.
Use o segundo, ok?

Paulada na parede
Resposta dessa paulada na parede (IR)

É isso. Brinquem a vontade, o limite é a sua criatividade.
Até a próxima!

Entendendo os tipos de efeitos mais usados na produção musical

Tempo de leitura: 3 minutos

Olá!
Espero que todos estejam bem.
Neste post gostaria de falar sobre os efeitos comumente utilizados em produções musicais e os resultados que podem ser obtidos a partir deles.

A maioria dos efeitos disponíveis em processadores e pedaleiras são simulações de efeitos acústicos que ocorrem naturalmente em nosso ambiente e são estudados pela física. Ao produzirmos sons em diferentes ambientes, podemos perceber como eles se propagam.
Por exemplo, quando cantamos no chuveiro e percebemos que nossa voz soa afinada, ou quando falamos diante de um grande morro e ouvimos o som repetido, chamado de “eco” pelas pessoas, mas que na verdade é um tipo de efeito com outro nome.
Começarei então falando sobre o Reverb.

A reverberação ocorre quando o som é gerado e reflete nas paredes, no chão, no teto e retorna em várias réplicas do mesmo som em tempos diferentes, o que resulta em um som contínuo e preenchido. O decaimento do reverb depende do tamanho da sala, e existem vários tipos de reverb, desde curtos até longos.
O reverb é um dos primeiros efeitos de embelezamento sonoro a ser amplamente utilizado e é capaz de dar a sensação de preenchimento em músicas com poucos instrumentos, como um piano soando em uma sala de concerto.

Hoje em dia, o reverb é gerado digitalmente por processadores de efeitos em hardware ou software. No passado, havia grandes salas acusticamente projetadas próximas aos estúdios para emitir e captar o efeito.
Também havia alternativas mais rudimentares, como o tipo mola (usado em amplificadores de guitarra) e o tipo plate (característico de gravações antigas).
Para ilustrar, é possível ouvir exemplos de músicas que utilizam esse tipo de reverb, como “Mar de Rosas” do The Fevers e “Dominique” de Giane:

Mar de Rosas do The Fevers
DOMINIQUE –

Preste atenção no reverb e veja como ele é bem metálico.

Vamos agora explorar o segundo efeito sonoro que é bastante conhecido: o eco, também chamado de delay.
Essa expressão em inglês significa literalmente “atraso”, e é fácil de entender como ele funciona: quando um som é emitido, ele se propaga e, ao encontrar obstáculos no caminho, como paredes ou rampas, parte dele acaba retornando para o ponto de origem.
Esse som refletido é o que chamamos de eco, e seu volume diminui à medida que ele se distancia do lugar onde foi gerado.
O delay é exatamente o tempo que leva para o som refletido retornar, e é um parâmetro fundamental na criação de efeitos sonoros. Ele também é utilizado em outros contextos, como na comunicação por voz via internet e na latência de processamento de dados.

Apesar de ser simples, o delay foi um dos primeiros efeitos sonoros que a tecnologia conseguiu imitar. Na música, esse efeito serviu como inspiração para criar novas sonoridades e dar asas à criatividade dos artistas.
Por exemplo, o canto yodo (ou jodler, como é conhecido na Alemanha), originário dos alpes alemães, se baseia no eco natural das montanhas.
Esse efeito foi incorporado às músicas, às vezes de forma rítmica, e pode ser ouvido em produções musicais modernas, como no remix “Galera de Cowboy” da Dalas Company, que usa um delay do tipo “ping pong” para criar um efeito estéreo interessante:

galera de cowboy

Preste atenção já no começo da música o “ping pong” do delay de acordo com o ritmo.

Ao explicar os dois efeitos, podemos concluir que o reverb consiste em milhares de fragmentos pequenos de delays em variações de tempo diferentes.
A tecnologia transformou o delay e o reverb em efeitos digitais, possibilitando a criação de novos tipos de efeitos a partir da manipulação das ondas sonoras, muitos deles baseados em efeitos já existentes.
Por exemplo, o efeito flanger cria uma sensação de “som entubado” usando vários delays curtos com variações periódicas de tempo, geralmente entre 10 a um milésimo de segundo.
O Phaser funciona de forma semelhante, mas com variações ainda menores, entre zero e um milésimo de segundo.
O Chorus é outro efeito muito utilizado na produção musical, simulando a sensação de várias pessoas cantando em uníssono, com pequenas variações de tempo e afinação.
Já o Pitch é um efeito de rotação que altera a afinação e a velocidade do som, com possibilidades de ajuste por oitava, intervalo, tons e semitons.

Por fim, o Equalizador é um tipo de efeito que permite ajustar o volume de determinadas frequências, podendo ser usado para editar, modificar timbres e dar uma outra cara ao som.
Os controles disponíveis nos equalizadores dependem do tipo de equalizador, sendo os gráficos com controles deslizantes e de várias bandas os mais comuns. Já os equalizadores paramétricos permitem um controle ainda maior da amplitude e das frequências vizinhas.

Com esses efeitos, um produtor musical tem a possibilidade de criar uma variedade de sons e timbres em suas produções.
Há muitos outros efeitos disponíveis e serão abordados em posts futuros.
Espero que tenham gostado. Deixem seus comentários abaixo!
Até a próxima!

Boas práticas para uma produção musical de qualidade

Tempo de leitura: 4 minutos

Olá pessoal!
Tudo bem com todos?
Neste post irei falar de boas práticas para as etapas de gravação, mixagem e masterização a fim de conseguir uma produção musical de qualidade.
O Essencial é não usar equipamentos enganosos.

Para começar, o primeiro item já será logo de cara o fone de ouvido.
“Mas Gabriel, Porquê?”
Novamente me vem à tona os bons tempos de infância quando eu usava direto os fones de ouvido para ouvir música, de modo que já perdi a conta de quantas marcas de fone já tive e de quantos já consegui estragar.
A questão é que ouvir e produzir música são coisas distintas.
Ao ouvir uma canção, o ouvinte não está preocupado com a equalização ou distribuição dos instrumentos no campo sonoro, mas sabe que a música é boa ou ruim pelo conjunto da obra, inclusive na qualidade do equipamento utilizado para a audição. Tudo isso pode desencadear uma série de reações.
Justamente por isso é que, para quem cuida de uma produção musical, deve perceber cada detalhe usando equipamentos adequados que possibilitam ouvir o som “como ele realmente é”, ou seja, sem muito reforço de graves, médios e agudos. Esse é o grande problema dos fones e equipamentos comuns.

Eu, que já carregava esse vício ao longo do tempo, comecei também a utilizá-los como referência nas minhas produções musicais.
Cada vez que terminava uma produção, ouvia em diferentes equipamentos e nunca tinha uma definição clara do som. Quando ouvia nos fones, parecia que estava legal; quando eu ouvia no carro, estava muito grave. E assim os fones iam causando falsa impressão nas mixagens.
E o pior de tudo foi eu ter insistido nisso, porque noutro dia queria melhorar e acabava indo longe demais e estragando ainda mais o trabalho.

Se o uso constante de fone de ouvido já é um perigo, o que dizer então de modelos que não são apropriados para essa tarefa?
É exatamente isso que acontece. Por falta de conhecimento ou mesmo um certo “ego” de nossa parte, demoramos a perceber que o problema está em nós mesmos, principalmente quando o cérebro acaba se acostumando.

Nosso ouvido aqui funciona como um par de microfones (um para cada lado). É o cérebro que interpreta o que a gente conhece como um som.
Então, ouvir música nem sempre é uma rotina, mas produzir música faz parte do trabalho diário e deve ser confortável, sem causar confusão ao cérebro.
O resultado final deve ser uma música que se faz ouvir da mesma forma em diferentes lugares. A mesma reprodução num fone eu tenho que conseguir também no carro, num aparelho de som, em uma festa… O processo de masterização é responsável por isso.
Percebe como não é tão simples assim?

Então, é recomendado o uso de fones específicos de monitoramento, ou melhor, um par de monitores de referência para você sentir como o som se propaga no seu ambiente de produção e chega até o ouvido, pois isso também faz diferença.
Faça isso principalmente se o barulho não é um problema, nem precisa ser em volume alto.
Existem fones que simulam essa experiência, podendo inclusive escolher o tipo de ambiente como se você estivesse naquele lugar, mas é só uma simulação, certo? Prefira os monitores de referência.
Use os fones apenas para gravação (para não vazar som), ou para ouvir o resultado final antes de tirar uma conclusão definitiva do trabalho.

Ok, falei que nosso ouvido funciona como um par de microfones. E quando eles não funcionam direito?
Esse paralelo pode ser feito com a utilização de microfones ruins, ou mesmo placas de som como as dos computadores da linha PC, que obviamente terão um sistema de amplificação precário.
Da mesma forma que a perda auditiva causa dificuldades na compreensão da fala e na percepção sonora, um microfone ruim ou uma placa de som genérica também vai proporcionar um resultado inferior.
“Mas Gabriel! Com umas edições de áudio com certeza dá pra resolver isso”.
Até certo ponto sim, mas não de tal forma que se possa comparar com uma captação de qualidade profissional.
É a mesma coisa que você achar que vai ouvir da mesma forma os sons que ouvia antes de precisar usar uma prótese auditiva.
Numa perda muito severa isso pode nem funcionar direito, e assim também é numa gravação de qualidade horrível.
Parece não fazer sentido, mas é verdade. Aliás, o mundo sonoro começa em nós quando aprendemos a ouvir. E é assim que devemos também perceber a forma como funcionam os microfones e as placas de som.
Podemos fazer um paralelo dos zumbidos com ruídos que são ocasionados por uso de equipamentos ruins, falta de aterramento ou coisas do tipo.
Uma captação com equipamentos razoáveis é uma forma de registro sonoro quando a intenção não é mesmo profissional; por isso pode não soar tão bem. Não a nada de errado tentar melhorar de forma artificial, mas não será a mesma coisa.
No caso da perda auditiva, um aparelho auditivo pode até trazer de volta a qualidade de vida, não a nada de errado nisso também. Só não tira as consequências, assim como acontece também com a qualidade de uma gravação mau feita.

Em especial para os microfones, cada um possue características muito peculiares que servem para determinado tipo de aplicação.
Por exemplo: Os microfones condensadores possuem uma sensibilidade maior de captação e por isso captam mais detalhes, mas são um desastre para ambientes muito barulhentos ou sem um tratamento acústico.
Os microfones dinâmicos além de resolverem o problema, também são uma ótima pedida para apresentações ao vivo, mas podem não ser adequados para captar certos instrumentos.
No final das contas, vale a pena experimentar e principalmente perceber como o som está sendo captado para não haver dor de cabeça depois, porque tudo começa na gravação.

Depois da gravação vem a mixagem.
Qual será que é o segredo dela, como dão tanto a entender os livros que falam sobre o assunto?
Nenhum. Na verdade, tudo começa pelas referências de estilos musicais que podem se encaixar com a música a ser produzida.
Cada estilo musical pede uma configuração diferente, de modo que aqui vale principalmente o uso do bom censo.
Nada de apelação!
Se a mixagem for mau feita, haverá mais trabalho ainda ao corrigir defeitos na hora de masterizar.

Aqui a mixagem não é pura e simplesmente uma mistura de sons.
Tudo precisa ser ouvido, sem mais nem menos, sem exageros.
É possível colocar a voz mais para a frente com relação aos outros instrumentos? sim, mas isso não quer dizer que precisa “sentar” o volume nela. Usar limiters e compressores para segurar a dinâmica é sempre válido, mas de novo: Não exagere, por favor!
Seja criativo nos efeitos. Coloque um reverb quando for necessário, brinque com o delay como se ele fosse algo amais para a música e não como apenas um efeitozinho que está ali.
A mixagem pode compartilhar algumas das técnicas usadas na masterização, mas são coisas diferentes. Não adianta construir um carro sem antes ajustar as partes para que fiquem juntas.

Por fim, a masterização pode ser considerada como o “polimento” da música.
Podem ser feitos várias checagens, como balanço, equilíbrio e aprimoramento dos canais esquerdo e direito, equalização geral, compressão e limiter.
Isso garante que o material tenha um bom volume e que seja reproduzível da mesma forma em qualquer meio (aparelho de som, carro, televisão, etc).

É isso galera!
Espero que tenham gostado.
Até a próxima!