'분류 전체보기' 카테고리의 글 목록 (2 Page)
본문 바로가기

분류 전체보기127

Frequency-Domain & Subband Adaptive filter 정리 목차1. Self-orthogonalizing adaptive filter2. DCT-LMS algorithm3. Subband adaptive filter 1. Self-orthogonalizing adaptive filter  DFT는 bandpass filter를 활용한 subband processing의 특수한 경우로 볼 수 있습니다. 따라서 filter bank나 prototype filter를 잘 설계하면 성능이 향상됩니다. 하지만 bandpass filtering 단계가 추가로 필요하고 설계가 복잡하다는 단점이 있습니다. 이를 보완하기 위해, low band과 high band를 반씩 나눠 처리하는 QMF(Quadrature Mirror Filter)를 많이 사용한다고 합니다.Self-ort.. 2024. 10. 28.
자기주도학습 배움에 있어 그저 수업을 듣고 있다는 자체에 안정감을 얻은 채 정작 원하는 것을 얻게 해주는 시행착오는 바라보지 않고 있다. 배움은 누군가가 떠먹여주는 것이 아니다. 매 순간 자신이 떠먹기 위해 최선을 다해야 한다는 걸 기억하자. 목적이 있다면 스스로 공부하고 답을 찾기 위해 사력을 다하자. 스스로의 노력 없이는 아무런 결과도 이뤄내지 못한다.  - 왜 당신은 다른 사람을 위해 살고 있는가, 45p 2024. 10. 27.
Fast block LMS 알고리즘 이해하기 목차1. Block adaptive filter2. Fast block LMS algorithm 1. Block adaptive filter Block adaptive filter는 $L$개의 샘플 데이터로 이루어진 블록마다 filter weight를 업데이트하며, 각 블록에 동일한 filter weight가 적용됩니다. LMS filter가 매번 단일 데이터 값만을 사용해 weight를 업데이트하는 것과 달리, Block adaptive filter는 최근 $L$개의 데이터 값을 이용해 time average를 구하고 이를 바탕으로 weight를 계산합니다. 수렴 속도와 MSE 최솟값은 LMS와 거의 동일합니다. 2. Fast block LMS algorithm Fast block-LMS 알고리즘은 주.. 2024. 10. 26.
사시나무 2024. 10. 24.
Least-Mean-Square Adaptive Filter (LMS) 알아보기 목차1. LMS algorithm Overview2. Statistical LMS theory  수식 전개는 계산 용이성을 위해, complex가 아닌 real을 가정하였습니다. 1. LMS algorithm Overview Least-mean-square (LMS) 알고리즘은 stochastic gradient 알고리즘의 일종으로, tap-weight를 정확히 gradient 방향이 아닌 randomness 더해진 방향으로 이동시키는 방법을 말합니다. LMS 알고리즘은 gradient descent와 달리 expectation 대신 가장 최신 값만을 사용하여 tap-weight를 업데이트합니다.  LMS 알고리즘은 FIR 필터에 input vector가 주어지면 adaptive하게 tap-weight를.. 2024. 10. 24.
Gradient Descent를 위한 최적화 알고리즘 목차1. Stochastic gradient descent (SGD)2. Momentum3. Nestrov accelerated gradient (NAG)4. Adagrad5. RMSProp6. Adadelta7. Adam8. Adamax9. Noam decay10. Cosine Annealing with Warm Restart 1. Stochastic gradient descent (SGD) Gradient Descent 알고리즘은 오류 함수의 기울기(미분)를 계산해 이를 바탕으로 파라미터를 업데이트하여 최적점을 찾는 방법입니다. Gradient Descent에는 두 가지 방식이 있는데, Steepest Descent 알고리즘은 전체 데이터를 사용해 기울기를 계산하는 반면, Stochastic Grad.. 2024. 10. 23.