무대 예술 전문인/무대음향

[화콘 2~4주차] 얼라인먼트, 튜닝, 마이킹

장순열 2021. 9. 28. 00:26

2주차+3주차+4주차 

 

졸업프로젝트로 듣는 수업이 있다. 음향제작과와 실용음악과 학생들이 같이 만들어 나가는 공연실습 수업이다. 화요일 수업이라 학생들 사이에서는 화요콘서트, 화콘이라고 부른다. 2~4주차 동안 배운 얼라인먼트, 튜닝, 마이킹에 관한 이야기들.


 

2주차 9월 14일

 

<일반적인 대중음악의 구성 song form>

 

intro - Verse 1 - Pre Chorus - Chorus - Interlude - Verse 2 - Pre Chorus - Chorus - Bridge - Outro

 

라우드니스미터

 

유튜브와 디지털 방송 나가는 레벨 기준이 다르다.


<우리가 보낸 원본이 그대로 나가야하는데 그대로 못나가는 이유>

 

: 우리는 mixdown 원본을 보내는데 방송국에서 우리의 mixdown과 다른 오디오트랙들을 믹스 하는 과정에서 우리의 원본을 트리밍하게됨 

>> 이를 해결하려면? 방송국에서 편집을 맞춘 후에 결과물을 보고 의사소통하며 맞춰나가는 방법

>> 의사소통이 중요하다! 송출하는 팀과 소통하여서 우리의 mixdown이 어떻게 나가는지, 왜곡이 되지는 않았는지 먼저 확인하는 과정이 있어야한다. 송출팀에 찾아가서 직접 확인을 하자.

>>> 음반의 경우에는 어떤 리미트에 넣어도 쉽게 변하지 않는다. 그 이유는 좋은 레코딩과 좋은 믹싱, 이미 소스가 좋기 때문에 크게 변하지 않는다. 라이브의 경우 원본 소스부터 부족함이 있을 수 있기 때문에 라이브 원본 소스로 완전히 해결하려는 것 보다 재녹음 하는 방법을 택하는 것이 좋다.


<스피커 얼라인먼트>

 

얼라인먼트

: 음속 파장이 느리고 길기 때문에 시간차가 있는 서로 다른 음원들의 시간차를 맞춰줘야 한다.

> 100Hz는 1초에 3.4m를 간다.

>> 음속 340m/s, 100Hz의 주기 0.01s,

 

필요이유 : 시간차가 있는 음원이 많기 때문에 음상의 시작점을 맞춰주어야 한다. 안 맞출 경우 서로 다른 시작점으로 인해 시간차가 생기면서 위상캔슬이 일어날 수 있기 때문에. 


<일반적인 스피커 얼라인먼트>

 

서브우퍼, 메인스피커, 프런트필 등 각 스피커의 위치가 다르기 때문에 여러대의 스피커를 쓰는 스피커 시스템을 어떻게하면 하나의 스피커처럼 쓸 수 있을 것인가에 초점이 맞춰져있다.

 

스피커 드라이버끼리 얼라인먼트, 라인어레이 스피커를 사용할 때면 라인어레이의 맨 위의 스피커와 맨 아래칸 스피커의 거리차가 있기 때문에 cm단위로 거리차를 맞추는 얼라인먼트, 스피커 내부적으로 보면 우퍼 드라이버랑 트위터 드라이버 위치도 다르기 때문에 서로 맞춰줘야 한다. 

 

그러나, 우리는 무대위에서의 얼라인먼트와 확성음원 과의 얼라인먼트를 더 중요시 한다.

>>

1. 파장은 긴데 공간이 작고 협소하기 때문에,  객석의 어디에서도 시간차를 얼라인먼트를 맞출수 있는 방법이 없다.

2. 공연장이 작아서 확성음과 직접음이 섞여서 들리는데 직접음은 원본이기 때문에 직접음이 더 중요하다.

공간이 작아서 직접음이 더 크게 들리는데 확성하는 소리는 왜곡되는 소리이니 페이더를 안 올릴수도 있음 직접음으로 충분히 커버가 되어서

>>> 스피커로 나오는 소리, 확성음은 무대 위에서 나오는 직접음을 보강하는 쪽으로 

 

듣는사람의 귀를 기준으로 했을 때 도달하는 거리차에 의해 시간차가 발생한다.

다수의 음원으로 인해 거리차가 발생하고 거리차로 인해 시간차가 발생해 위상차가 생기면서 다르게 들린다.

>> 딜레이 프로세서를 이용해서 시간차를 어느정도 맞춰준다.

딜레이 프로세서로 마치 악기들이 일렬로 있는 것처럼 맞춰주는 과정 (실제로 악기들의 위치를 변경할 수 없기 때문에)

>> 드럼을 기준으로 모든 악기들이 드럼위치에 있는 것처럼 얼라인먼트를 하는 것


<선행음효과(하스이펙트)>

: 두 음원의 시간차가 30ms의 차이면 일반인도 음원이 두개로 느껴진다, 청취 훈련이 되어 있는 사람이라면 10ms에서도 느껴진다.


<조명기는 얼라인먼트가 필요하지 않다.>

> 왜냐하면 광속은 30만km/sec 정도로 굉장히 빠르기 때문에 왜곡이 느껴지지 않는다.

조명기를 100개 틀면 더더욱 밝아질뿐이지만 스피커는 100개를 튼다고 해서 소리가 더욱 커지지 않고, 얼라인먼트가 안맞으면 소리가 오히려 줄어들 수 있다.

 

음속 3ms/meter 으로 알고 있어야 하는데 우리가 사용할 때 미터단위로 계산하는 것이 더 편하기 때문.

: 음속은 340m/s : 1초에 340m를 간다.

>> 그럼 1m를 가는데 몇초? 1/340 = 0.003초 (0.00294118) = 3ms

 

리깅하는 라인어레이는 객석의 먼 곳과 가까운 곳을 한번에 커버하기 위해서 사용한다.


<서브우퍼와 하이-미드레인지 스피커를 따로 쓰는이유>

: 주파수 대역대를 나눠서 각 스피커의 성능을 그대로 쓰기 위해서


<스피커 얼라인먼트 하는 과정>

: 스윕사인, 핑크노이즈, 레퍼런스 음악을 틀어놓고 객석을 분할해서 각 자리에서 측정용 마이크로 측정을한다.

각 결과의 평균을 내어서 어느지점이 가장 왜곡 없이 들리는지 확인한다. 페이즈를 맞추는 과정

 

얼라인먼트로 시간차를 해결하고 난 이후에 튜닝이 들어가야한다. EQ가 시간차 부터 해결되지 않으면 EQ를 할 수 가 없다. 

 

순서

>> 어레이(소리를 어디로 얼마만큼의 각도로 보낼건지 방향을 정하는 것) > 얼라인먼트(거리차 보정) > 튜닝


<얼라인먼트 확인하는 방법>

귀로 들어서 구분이 잘 안된다. 마이크와 컴퓨터와 측정 프로그램(스마트)를 통해서 눈으로 확인을 해야한다.

측정 마이크는 객석이 앉는 위치에 놓는다.

 

>>> 다수의 이산음원, 거리차, 시간차, 위상차, 평면, 단면 3ms/meter, 귀로 모름, 그래프를 해석해야 한다.


3주차 9월 28일 

 

<튜닝EQ>

왜 튜닝은 얼라인먼트 다음에 해야하나?

: 위상차로 인해서 캔슬된 소리는 EQ로 보강 할수 없기 때문에 먼저 얼라인먼트를 통해 위상캔슬을 최소화로 해야한다.

 

<EQing으로 해결할수 있는 것>

1. 레조넌스, 공진을 어느정도 해결할 수 있다. 

어떤 공진이 있나? 평행하게 마주보는 두 벽 사이에서 레조넌스가 생긴다. 그래서 공연장을 지을 때 벽들이 평행하게 마주보지 않도록 짓는다. 그리고 SR, 확성음향에서는 소리는 크게 내기 때문에 레조넌스가 발생할 수 밖에 없다.

2. 벽이나 바닥의 반사음들

사람이 반사음을 몇개까지 들을수 있나? 약 2만개 정도 듣는다.

 

<왜곡을 만드는 요소>

>> 레조넌스, 반사음들, 회절(벽들이 90도 이내로 만나는 곳에서 회절이 일어난다), 회절파로 인해 저음역대가 부스트되면서 마스킹현상이 일어난다. 굴절로 인해 온도차로 인한 공기 밀도차가 발생해서 굴절로 인한 왜곡, 흡읍(만석시, 공석시 잔향률이 달라진다.)

 

극장감독이라면 프리셋을 여러개 가지고 있어야 한다.

>> 그 날 따라 객석들이 어느 지점에 가장 많이 앉냐에 따라서 모든 객석으로 같은 소리를 보낼 수 없어서 사람들이 주로 몰려서 앉는 쪽이 있다면 그 쪽을 얼라인먼트 기준으로 맞춰야 한다. 얼라인먼트 기준은 항상 객석에서 청중이 듣는 위치를 기준으로 한다.


<EQing 순서 (신호의 순서로 생각)>

1. 마이크의 필터

2. 콘솔의 입력단의 필터, 파라매트릭 EQ

3. 콘솔의 아웃단의 파라매트릭 EQ, 그래픽 EQ

4. 스피커 컨트롤러의 파라매트릭 EQ, 그래픽 EQ

5. 스피커의 파라매트릭 EQ

 

<EQ의 두가지>

>>그래픽 EQ 와 파라매트릭 EQ의 차이

: 그래픽 EQ는 음질이 안좋아서 점점 안쓰고 있다. 

음질이 안좋은 이유? 그래픽 EQ는 Q값이 좁기 때문에 해당 대역을 조정하면 양 옆의 대역들의 음질 열화가 일어난다.

그래서 그래픽EQ(Q값이 높은 이큐)는 주로 문제해결 용도로 쓰고 파라매트릭 EQ는 음색조정에 사용했다.

그러나 요즘에는 디지털로 파라매트릭 EQ가 Q값을 매우 좁게 설정할 수 있는 것으로 나오면서 그래픽 EQ는 점점 사용도가 낮아지고 있다.

 

문제해결용 EQ(Q값이 높은 EQ, 그래픽 EQ)와 연출용 EQ(Q값이 낮은 EQ, 파라매트릭 EQ)가 있다. 

 

<부스트와 컷>

:부스트 보다 컷을 먼저.

>> 필터가 적용되는 방식이 신호가 필터에 들어갔다가 결과가 다시 나오는 방식인데 여러번 거칠수록 기울기가 완만해지고 이게 기울기를 정하는 방식이다. 그런데 이때 필터가 여러번 거칠수록 각 시간차가 조금씩 생기면서 조정하는 그래프의 피크 값은 필터가 잘 적용되지만 바로 양 옆의 대역대는 시간차로 인해 왜곡이 생긴다. 정위상으로 합쳐지면 최대 +6dB가 커지지만 역위상으로 겹쳐지면 -무한대로 작아진다.

 

>> 컷은 양옆 대역에 왜곡이 생겨도 최대 6dB만 커지는데 부스트의 경우에는 역위상이 겹쳐지만 -무한대dB가 깎이기 때문에 음질의 열화가 크다. 이 문제를 해결하기 위해 나온 것이 linear phase EQ이다. 시간차가 생기지 않도록 필터를 거친 후에 버퍼에 저장을 해서 같은 시간에서 시작하도록 한다. 그래서 시간차에 의한 위상차는 생기지 않지만, 레이턴시의 문제가 있다. 녹음실에서는 레이턴시 때문에 잘 쓰지 않고 공연장에서는 쓰긴하는데 공연장은 크기 부터가 크기 때문에 이 레이턴시 영향이 크게 미치지 않기 때문이다.

 

순서

마이크 > 콘솔 > 프로세서 > 스피커

 

튜닝에서의 EQ는 프로세서에서 하는 것이 훨씬 좋다.

다른데서도 EQ 조정을 다 할수 있긴 하지만, 프로세서의 EQ를 쓰는 것이 성능이 좋다. 

 

음색 연출은 마이크에서부터 필터를 거는 것이 맞다. 

그리고 그 전에 음색에 맞는 마이크 선택이 더 중요하다.


4주차 10월 5일

 

무대음향 1급 실기에서는 실제로 공연장 내에서 스피커 얼라인먼트 하는 방법을 본다. 

 

세종문화회관 > 3-4천석 여기가 제일 큼


<얼라인먼트에 문제가 있음을 알 수 있는 기준>

>> SPL 음압 / 3대1 법칙

동일한 음원에 마이크를 2개 이상 마이킹을 했을 때 음원과 하나 마이크 거리를 1으로 봤을 때 두 마이크간의 거리는 3배 이상이 되어야 한다. 3배 이상 하지 않으면 두 마이크로 수음되는 소리가 10dB 차이가 난다. 

 

>>>확인 하는 방법

메인 스피커에서 보컬 소리만 틀었을 때 소음계 dBSPL을 측정해보고,

모니터 스피커에서 보컬 소리만 틀었을 때 소음계 dBSPL을 측정해보고

그 둘의 차이가 10dB 차이가 나는지 확인해 본다.

10dB 차이가 난다면 이 둘은 3대1법칙으로 인해 콤필터링 현상으로 둘의 위상캔슬이 일어나고 있음을 나타낸다.

이 경우에 메인스피커와 모니터스피커의 얼라인먼트를 진행해주어야 한다.

 

>> 무대 위에서의 음원들은 무대 공간으로 인해 3배 이상 거리를 띄우기가 어려워서 

앞으로의 추세가 점점 모니터 스피커 보다는 인이어로 모니터를 듣는 것으로 바뀌고 있다.

 

위상문제로 인해 생긴 딥은 EQ로 해결할 수 없다.


>> 페이더 라이딩

음악의 다이나믹의 연출을 도와주기 위해

 

음악적인 믹싱을 하기 위해서는 페이더 라이딩을 들어가야 하는데

페이더 라이딩을 좀 더 편하기 위해서는 EQing이 되어야 하는데 

위상캔슬로 인한 페이즈 문제는 EQ로 해결할수 없다.

그래서 먼저 마이크들과, 스피커들과, 스피커드라이버간에 얼라인먼트를 해줘서 이를 용이할수 있게 한다.


임계거리 크리티컬 디스턴스 / 잔향반경

; 직접음과 반사음의 에너지가 같아지는 거리

 

마이크포지션 > 임계거리안에서 직접음만 픽업하겠다.

 

튜닝

> 수 많은 반사음으로 인해 달라지는 톤을 내가 임계거리에서 들었을 때의 톤과 같게 하기 위해서 튜닝의 과정이 필요하다.

 

EQing으로 인해 톤 튜닝을 한다.

>> 이 때문에 딜레이스피커를 설치하는데 이 경우에는 시각적인 정보와 청각적인 정보의 불일치가 일어나기 때문에 극 공연에서는 적합하지 않다.  

 

톤TONE은 기음과 배음들이 합쳐진 소리다.


<마이킹> 

 

녹음실과 공연음향에서 마이킹의 가장 큰 차이점은 리퀴즈가 있냐 없냐는 것.

리퀴즈 : 내가 원치 않는 소리가 같이 수음되는 것

 

<음원과의 거리에서 차이가 난다. >

스튜디오에서는 컨트롤룸에서 들었을 때 좋은 기준으로 한다. (마이크 고르고, 마이킹 할때도)

라이브에서는 리퀴즈를 최소화 하는 것이 첫번째 기준

 

라이브 마이킹은 근접 마이킹, 마이크를 가까이 할 수록 리퀴즈의 양이 달라진다.

>> 잡음이 얼마나 있냐에 따라 다이나믹 레인지가 달라지기 때문에 


발음점; 어디서 소리가 나는지; 발음점에 따른 방사각을 생각해서 마이킹 해야한다.

 

악기 마이킹 할 때 이 악기의 최저음이 몇 Hz인지 , 프리퀀시레인지(최저음과 최고음의 범위)

대중음악에서는 베이스가 가장 최저음이다 40-50Hz 

 

제 1유효소음원(제일 방해되는 소리)의 음압과 방향(어느방향에서 들어오는가)

>> 그래서 마이크의 지향성을 고려하게 된다.

지향성을 고려해서 지향패턴에서 가장 작게 수음되는 곳에 제 1유효소음원이 위치하도록 마이킹한다.

라이브엔지니어에게 지향각이란, 어디서 가장 소리가 작게 들어오느냐


<컨덴서 마이크가 음질이 더 좋은이유?>

스튜디오에서는 컨덴서 마이크가 고음 응답특성이 좋으니까 실제 듣는것과 비슷해서 사용하는데

라이브에서는 고음이 잘 수음되는 것이 좋지가 않다. 

 

컨덴서 마이크는 작은 음압도 잘 수음을 하기 때문에 라이브 음원을 운용하는 것이 더 어려워지기 때문에 컨덴서 보다는

다이나믹 마이크를 더 선호하게 된다. 다이나믹레인지가 다이나믹 마이크가 더 커서 사용한다. 

 

<근접 마이킹 포지션에서 큰 음압을 핸들링을 할수 있는가>

컨덴서 마이크 구조가 얇은 철판 사이에 충전되는 전압으로 작동하기 때문에 너무 큰 음압이면 깨질수가 있어서 

다이나믹을 더 선호한다.


<다이어프레임>

다이어프레임이 클수록 지향패턴이 좀더 찌그러지기 때문에 측정용 마이크는 아주 작은 다이어프레임을 쓰는 것이다 .

어느 방향으로 두어도 패턴이 평탄하게 하기 위해서 

 

다이어프레임이 작아질수록 감도가 낮아진다. 

 

** 라이브 영상 보고 마이킹 참고해서 왜 이 마이크와 마이킹을 했는지 추측해보기 **

 

드럼 오버헤드에서 컨덴서마이크인 c414을 쓰는 이유는 다이어프레임이 작아서 감도가 낮아서 

 

지향성은 다이어프레임이 클수록 좋다. 


<팬텀파워>

전압이 공급은 되는데 소리에는 영향을 주지 않아서 팬텀이라는 말이 붙었다.

 

팬텀파워는 48볼트인가?

48볼트만 있는 것은 아니고 9~48볼드로 범위가 있다. 

 

팬텀파워가 다르다는 것은 

>> 컨덴서마이크 내부의 얇은 철판 사이에 큰 팬텀파워로 빵빵하게 전압을 채워넣으면

철판의 탄성계수가 높아져서 마이크가 큰 음압의 다이나믹레인지를 컨트롤할수있기에 용이해진다.


콘솔 운영할 때 DCA/VCA로 그룹을 묶지 않고 실제로 그룹을 묶는 방향으로 하자.

>> DCA/VCA는 그룹 페이더만 되는거고(리모트만함), 그룹으로 페이더를 묶는거는 실제로 신호가 가는 것