'연구 노트' 카테고리의 글 목록 (7 Page)
본문 바로가기

연구 노트51

Wiener filter: 신호 필터링, 예측을 하는데 쓰는 linear filter signal filtering, prediction에 쓰이는 wiener filter가 무엇인지 알아봅시다. Wiener filterMMSE (Minimum mean square error) criterion을 사용하여 최적의 값을 찾도록 설계된 linear filter를 wiener filter라고 합니다.  위와 같이, 마이크로부터 input signal $x(n)$이 들어오는 경우를 생각해봅시다. 우리는 $s(n)$ 신호만을 얻길 원하기 때문에 undesired interference 성분을 억제하는 필터를 설계하고자 합니다. 바로 이때, wiener filter를 씁니다. 다시 말해, wiener filter는 원하는 소스 신호 $s(n)$의 특성 (characteristics)을 그대로 유지하면.. 2024. 3. 13.
MVDR beamformer 완전 정복 대표적인 adaptive beamforming 기법인 MVDR (Minimum Variance Distortionless Responses) beamformer에 대해 살펴보겠습니다. Beamforming 신호에 weight를 곱해서 특정 방향으로부터 온 원하는 소스 신호를 강화하고 그 외의 방향에서 온 노이즈는 억제하는 것을 beamforming이라고 합니다. beamformer는 spatial filter라고도 하는데 frequency dependent한 벡터 $\textbf{w}(f)$로 나타낼 수 있습니다. 마이크로부터 받은 입력 신호가 $\textbf{x}(n,f)$라고 했을 때, beamformer의 출력은 $ \textbf{w}^H(f)\textbf{x}(n,f)$로 표현할 수 있습니다. d.. 2024. 3. 12.
내적 (inner product) & 정사영 (projection) 개념으로 Fourier Transform 해석하기 내적, 정사영, 단위벡터 개념을 알아보고 벡터 내적 관점으로 fourier transfrom 식을 해석해봅시다. 내적 (inner product)두 벡터가 얼마나 닮았는가, 즉 닮은 정도를 나타냅니다. 아래의 그림을 보면, 한 벡터가 다른 벡터 방향으로의 성분을 얼마나 가지고 있는지를 두 벡터를 내적함으로써 알 수 있습니다.   내적 (dot product)는 scalar product라고도 하며 좀 더 일반화된 용어로 inner product라고 불립니다. 다음으로 간단한 dot product 예시를 살펴보겠습니다. $$a=\begin{bmatrix} 1 \\ 3 \end{bmatrix} \;  b=\begin{bmatrix} 5 \\ 1 \end{bmatrix}$$$$ a \cdot b= \begin.. 2024. 3. 11.
전치 행렬 (Transpose matrix) 정의 및 성질, 에르미트 행렬 (Hermitian matrix) 연산 행렬 계산에 밥먹듯이 쓰이는 중요한 연산인 transpose, hermitian의 정의를 알아보고 transpose 성질에 대해 살펴봅시다. Transpose란? $$A=\begin{bmatrix} 0 & 2 \\ 3 & 0 \end{bmatrix}$$ $$A^T=\begin{bmatrix} 0 & 3 \\ 2 & 0 \end{bmatrix}$$ 행렬 대각 원소 (diagonal element)를 기준으로 원소 위치를 반전시켜주는 연산을 transpose라고 합니다. $$A=\begin{bmatrix} 1 & 2 & 3 \end{bmatrix}$$ $$A^T=\begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix}$$ 위와 같이 행 벡터를 transpose 하면 열 벡터가 됩니다. Tr.. 2024. 3. 10.
선형 독립 (linearly independent), 기저(basis) 어떤 벡터를 나머지 벡터들의 조합으로 나타낼 수 있다면 선형 종속 (linearly dependent)이라 할 수 있습니다. 이와는 반대되는 개념인 선형 독립 (linearly independent)은 선형대수에서 매우 중요하게 다뤄지는 개념입니다. 왜 중요한지 정의와 예시를 함께 살펴보겠습니다. 선형 종속 (linearly dependent) $\begin{bmatrix} 1 \\ 1 \end{bmatrix}$ $\begin{bmatrix} 2 \\ 2 \end{bmatrix}$ 위 두 벡터는 선형 종속입니다. 왼쪽 벡터를 스칼라배 하게 되면 손쉽게 오른쪽 벡터를 얻을 수 있습니다. 그래프 상에서 나타내보면 두 벡터는 2차원 공간의 line 밖으로 벗어나지 못합니다. 선형 독립 (linearly ind.. 2024. 3. 8.
Linear combination (선형결합), Span, Column space (열공간) span과 column space 개념을 알아보기 전에 linear combination의 정의를 살펴보겠습니다. linear combination 벡터들을 스칼라배 해서 더하는 것을 linear combination이라고 합니다. $$a_1v_1+ a_2v_2 + a_3v_3$$ 곱하고 더하기만 했으니 위 식은 linear 합니다. 또한 벡터들을 가지고 조합해서 만든 것이니 combination이라 할 수 있고 그렇기 때문에 선형 결합 (linear combination)이라고 부릅니다. span 벡터들의 linear combination으로 나타낼 수 있는 모든 벡터 집합을 span이라고 합니다. 다시 말하자면, 현재 가지고 있는 벡터를 통해 표현할 수 있는 영역 (vector space)를 의미하기.. 2024. 3. 8.