passage
stringlengths 5
922k
| summary
stringlengths 0
10.2k
|
---|---|
<p>MAC 프레임 통신의 기본적인 타이밍 구조는 그림 1에 나타난 바와 같이 슈퍼프레임이다. 슈퍼프레임은 256개의 media access slot(MAS)로 구성이 되며, MAS는 \( 256 \mathrm { usec } \) 의 길이를 가진다. 각각의 슈퍼프레임은 비콘 구간에서 시작이 되는데, 그 시작시간을 beacon period start time (BPST)라고 한다. 비콘 구간은 여러개의 비콘 슬롯들로 구성이 되는데, 각각의 디바이스는 여러개의 비콘 슬롯중에서 사용되지 않는 비콘 슬롯을 통해 상대방에게 비콘을 보낸다.</p> <p>MBOA MAC은 동기식 슈펴프레임 구조를 가지며 비콘이라는 브로드캐스트 프레임을 사용한다. 그리고, 제한된 무선 자원들을 다수의 MAC entity들이 효율적으로 사용하기 위하여 time division multiple access(TDMA)나 enhanced carrier sense multiple access/collision detect (CSMA/CA) 등의 액세스 방식을 사용한다. 또한, 최적의 전송속도를 실현하기 위하여 가변전송속도, 조각내기/모음, 다양한 수신확인 프레임, 재전송, 버스트 모드, Aggregation 등의 기법들을 사용하며, 칩이 고속으로 동작하면서 그에 따른 소비 전력을 줄이기 위한 기법과 보안에 대한 대비책을 제공한다.</p> <h1>Ⅲ. MBOA MAC 시스템 구현</h1> <p>MAC을 구현하기 위하여 MAC의 각각의 기능들중에 어떤 기능을 하드웨어나 드라이버(소프트웨어) 그리고 펌웨어로 구현할지를 결정하여야 한다. 여기서 하드웨어는 register transfer level (RTL)로 구현되는 부분을 말하며, 펌웨어는 칩에 내장되는 임베디드 central processing unit (CPU)상에서 수행되는 프로그램을 지칭한다. 그리고, 드라이버는 Host에서 수행되는 프로그램을 가리킨다. 일반적으로 시간에 민감한 기능(동기화, CSMA/CA 알고리즘, TDMA 알고리즘, 송수신 관련 Baseband 제어, 수신확인 프레임 처리 등)과 계산량이 많은 연산(암호화/복호화), 시간이 오래 걸리는 데이터 처리등은 하드웨어로 구현을 한다. 그러나, 시간에 덜 민감하지만, 하드웨어의 도움을 필요로 하는 제어 기능들은 펌웨어로 구현을 한다. 마지막으로, 시간에 민감하지 않은 관리 기능들은 일반적으로 드라이버에서 구현을 한다.</p> <p>MAC 시스템 파트는 Cache를 내장한 ARM926EJ CPU를 사용하여 시스템 성능을 높였고, 재사용 및 시스템 설계가 용이한 advanced microcontroller bus architecture (AMBA) 버스를 사용하였다. 그리고, 시스템 메모리 버퍼와 MBOA MAC 하드웨어간의 데이터 이동을 위하여 MAC전용의 DMA를 설계하였으며, Host와 시스템 메모리 버퍼간의 데이터 이동을 위하여 USB2.0 블록의 전용 DMA를 사용하였다. 이 설계를 바탕으로 전체 AHB 버스 점유율을 예측하여 설계의 유효성을 판단하였다. 다음 표 1 은 AHB Bus 점유율을 예측하기 위한 시나리오이다.</p> <p>표 2 는 시스템 버스 클럭을 \( 132 \mathrm { MHz } \) 로 사용할 경우의 버스 점유율을 나타내고 있다. 데이터 이동에 사용되는 버스 점유율은 \( 20 \% \) 이며 나머지 \( 80 \% \) 는 펌웨어에서 MAC 프로토콜을 처리하는데 사용할 수 있다.</p>
|
동기식 슈퍼프레임 구조를 갖는 MAC을 구현하기 위해 시간에 민감한 기능과 계산량이 많은 연산, 시간이 오래 걸리는 데이터 처리등은 하드웨어로 구현하고, 하드웨어의 도움을 필요로 하는 제어기능은 펌웨어로 구현한다, 그리고 시간에 민감하지 않은 관리 기능은 드라이버에서 구현을 한다.
|
<h1>요 약</h1> <p>본 논문은 MBOA UWB SoC의 MAC 시스템 설계에 관한 것이다. 구현된 MBOA MAC 알고리즘은 일반적으로 널리 사용되고 있는 중앙의 마스터가 네트워크를 관리하는 방식이 아니라, 모든 디바이스가 네트워크를 구성하고 관리할 수 있는 분산 방식을 사용하고 있다. 따라서 MAC이 분산 네트워크를 구성하고 관리를 하기 때문에 메쉬 네트워크 구성이 용이하다. 시스템은 데이터 처리 속도를 최대화하기 위해서 캐쉬가 내장된 ARM926EJ를 내장하였고, 재사용 및 시스템 설계가 용이한 AMBA버스를 사용하였다. 또한, 칩의 소모 전력을 최소화하기 위해 시스템 클럭 제어 알고리즘을 구현하였다. 그리고, 시스템 메모리 버퍼와 MAC 하드웨어간의 데이터 이동을 위하여 MAC 전용 DMA를 설계하였으며, Host와 시스템 메모리 버퍼간의 고속의 데이터 이동을 위하여 USB 2.0 블록의 전용 DMA를 사용하였다.</p> <h1>Ⅰ. 서 론</h1> <p>Ultra-wideband (UWB)는 낮은 전력으로 초고속 통신을 실현하는 근거리 무선통신기술로써 수백 Mbps 속도로 고속의 영상 데이터를 전송할 수 있다. UWB 전송방식 중의 하나인 multi-band orthogonal frequency division multiplexing (MB-OFDM) 시스템은 앞서 설명한 전송 특성을 만족하는 시스템으로써 사무실이나 가정과 같은 작은 공간에서 \( 10 \mathrm { ~m } \) 정도의 근거리에 있는 가전 및 통신 기기를 연결하는 무선 근거리 통신 기술로 개발이 활발히 진행되고 있다. MAC은 PHY와 달리 표준에 따라서 구현을 하더라도 시스템의 최적화 및 소프트웨어 동작 방식에 따라서 성능이 많이 차이가 나게된다. 따라서 하드웨어 스펙을 필요이상으로 높이지 않으면서도 최고의 성능을 얻기 위해서는 하드웨어 및 소프트웨어의 구현 방식을 잘 설계하고 및 동작 알고리즘을 최적화 해야한다. 본 논문에서는 초고속 통신을 위한 UWB SoC의 Medium Access Control (MAC) 시스템의 동작 알고리즘과 설계 구조, 데이터 처리 속도를 최대화하기 위한 DMA, 암호화/복호화 파트의 설계 구조를 보여준다. 또한 칩의 소모 전력을 최소화 하기 위해 구현된 마스터 클럭 제어 알고리즘도 제안한다.</p> <p>본 논문은 다음과 같이 구성되어 있다. 먼저 Ⅱ장에서는 multi-band OFDM alliance (MBOA) MAC의 기본적인 개념과 기능을 설명하고, Ⅲ장에서는 MBOA MAC시스템의 구현결과를 Ⅳ장에서는 SoC의 소모전력 최소화를 위한 시스템 클럭 제어 알고리즘를 보여준다. 그리고 Ⅴ장에서는 본 논문의 결론을 맺는다.</p> <h1>Ⅱ. MBOA MAC</h1> <p>개발된 UWB SoC에서 구현된 MAC은 MBOA에 제안된 표준에 따라서 구현되었는데, 중앙의 Master가 네트워크를 관리하는 방식이 아니라, 모든 디바이스가 네트워크를 구성하고 관리할 수 있는 분산 방식을 사용하고 있다. 이와 같이 분산 네트워크를 구성하기 위하여 모든 디바이스는 자신이 파악하고 있는 네트워크의 상태를 비콘 프레임에 실어서 송신하게 되며, 그와 동시에 수신되는 다른 비콘으로부터 상대방들이 파악하고 있는 네트워크의 상태를 알게 된다. 따라서, 각각의 디바이스는 자신의 RF 통신 거리밖에 있는 디바이스의 상태도 인접한 디바이스의 비콘을 수신함으로써 파악할 수 있게 된다. 만약 디바이스간의 충돌이 일어나면, 가능하면 자신이 먼저 양보하는 메커니즘을 사용하게 된다. 이와 같이 유연한 방법을 사용함으로써, MBOA MAC은 분산 네트워크를 구성하고 관리할 수 있으며, 메쉬 네트워크 구성이 용이해진다. 비콘은 자신이 파악하고 있는 비콘 구간에 대한 정보와 현재의 슈퍼프레임에서 자신이 통신하고자 하는 시간을 할당 받았다면 그 정보를 비콘에 실어 보낸다.</p>
|
MBOA MAC 알고리즘은 네트워크를 중앙에서 관리하는 기존 방식이 아닌, 모든 디바이스가 네트워크를 구성하고 관리하는 분산 방식을 채택하였다. 이로 인해 메쉬 네트워크의 구성이 용이하다. 이외에도, 칩의 전력 소모를 줄이기 위한 시스템 클럭 제어 알고리즘이 구현되었고, 시스템 메모리 버퍼와 MAC 하드웨어 간, 그리고 호스트와 시스템 메모리 버퍼 간의 데이터 이동을 위한 MAC 전용 DMA와 USB 2.0 블록의 전용 DMA를 각각 사용하였다.
|
<p>그림 2는 MAC 하드웨어 블록도를 보여준다. MBOA Registers 블록은 MAC기능 분류에 따라 MAC 하드웨어와 MAC 펌웨어의 인터페이스를 정의하고 있다. 이 레지스터를 통해 MAC 펌웨어는MAC하드웨어를 제어하고, MAC 하드웨어는 실행 결과들을 MAC 펌웨어에게 전달하게 된다. 그리고, 수행시간이 오래 걸리고, 버스 점유율이 높은 데이터 복사를 위해서 MAC 전용 DMA를 RTL로 설계하였다. 데이터 송신시 펌웨어는 DMA 관련 레지스터(송신할 데이터 버퍼의 위치, 송신 크기)들을 설정한 후, MAC 하드웨어에서 전송이 시작되길 기다리다가, 전송이 시작되면 MAC Tx 블록이 지정된 위치에서 설정된 크기만큼의 데이터를 first-in first-out (FIFO)를 통해 전송하게 된다. 이와 유사하게 수신시에는 펌웨어에서 먼저 수신 버퍼의 위치를 설정하고 데이터가 수신되기를 기다린다. 이 상태에서 실제 데이터가 수신 FIFO를 통해 DMA블록으로 전달되면, 이 블록은 미리 설정된 위치로 수신된 패킷의 헤더에 있는 크기만큼의 데이터를 전달하게 된다. 이렇게 전용 DMA를 사용함으로써, 적은 크기의 FIFO를 사용하여 실시간으로 데이터 송.수신이 가능하게 되었다. Finite state machine (FSM) 블록에서는 전체적인 MAC 하드웨어의 상태천이 (Scanning, Synchronizing, Transmission, Reception)를 관리하며, 다른 블록들을 제어하게 된다. 또한 Timer Controller는 MBOA MAC 스펙에 규정된 Superframe 관련 타이밍을 처리한다. Transmission Controller는 FSM의 제어를 받으며, Baseband Transmission 인터페이스 신호를 제어하여 데이터 송신과 수신확인 프레임 수신 등에 관련된 기능을 처리한다. Reception Controller도 FSM의 제어를 받으며, Baseband Reception 인터페이스로부터 수신한 데이터와 신호를 통해 데이터 수신과 수신확인 프레임 송신 등에 관련된 기능을 처리한다. Interrupt Controller는 MAC 하드웨어로부터 발생한 인터럽트를 관리하며 이 인터페이스를 통해 MAC 펌웨어는 시간에 민감한 기능들을 소프트웨어로 처리할 수 있게 된다.</p> <p>MAC/PHY 인터페이스의 구조는 WiMedia에서 규정한 MBOA MAC/PHY 인터페이스 신호 규정들을 준수하여 구현을 하였다. 여기서 중요한 사실은 대부분의 MAC/PHY 인터페이스 신호들은 PCLK \((66 \mathrm { MHz } ) \) 에 동기되어 사용되고 있다는 것이다. 따라서, MAC자체에서 사용하는 클럭(132 MHz)과 MAC/PHY 인터페이스 클럭이 비동기가 되므로 클럭 Crossing 문제가 발생하게된다. 이를 해결하기 위하여 MAC 하드웨어는 PHY와의 인터페이스 신호를 Flip-Flop을 이용하여 안정화된 신호를 만들어 사용하였으며 서로 다른 클럭 도메인에서 동작하는 데이터 통신을 하기 위하여 비동기 FIFO를 사용하였다. 비동기 FIFO는 파운더리 업체에서 제공하는 FIFO 라이브러리 대신 직접 RTL을 작성하여 FIFO 크기 최적화나 재사용성을 강화하였다.</p>
|
MBOA Registers 블록은 MAC기능 분류에 의해 MAC 하드웨어와 MAC 펌웨어의 인터페이스로 한다. MAC/PHY인터페이스의 구조는 WiMedia에서 규정한 MBOA MAC/PHY인터페이스 신호 규정을 따른다. MAC자체에서 사용하는 클럭(132 MHz)과 MAC/PHY 인터페이스 클럭이 비동기가 되므로 클럭 Crossing 문제가 발생하는데 MAC 하드웨어는 PHY와의 인터페이스 신호를 Flip-Flop을 이용해 안정화된 신호를 사용하고 다른 클럭 도메인에서 동작하는 데이터 통신을 위해 비동기 FIFO를 사용한다.
|
<h1>I. 서 론</h1><p>VoIP(Voice over Internet Protocol)을 이용한 음성통신 시스템은 기존의 PSTN(Public Switched Telephony Network) 대비 상대적으로 저렴한 IP 네트워크를 이용하기 때문에 기업들의 통화 비용 절감 요구와 맞물려 기존의 음성 통신 환경을 대체할 차세대 기술로 각광받아 왔다. 하지만 비순차 패킷을 가지는 IP 네트워크의 구조로 인하여 채널 열화가 발생하게 되면 실시간 순차 전송 시스템을 가지는 VoIP에서 패킷의 지연(delay), 지터(jitter)가 발생하게 되고, 이는 패킷 손실을 야기하여 QoS(Quality of Service)를 보장하지 못하는 원인이 된다. 이로부터 VoIP 서비스가 성공적으로 이루어지기 위해서는 시스템을 모니터링하여 음질 저하를 최소화 할 수 있도록 시스템을 적극적으로 보완해야 하며, 이 때 적절한 시스템 평가 방법이 필요하게 된다.</p><p>통신 시스템의 음질 평가 방법으로는 크게 전송단과 수신단의 양단 신호를 직접 비교하는 침입적 방식(intrusive method), 수신단의 신호만으로 음질을 평가하는 비 침입적 방식(non-intrusive method), 그리고 각 시스템의 통신 파라미터를 취합해서 음질을 평가하는 파라메트릭 방식(parametric method)의 세 가지로 구분할 수 있으며, ITU(International Teleco-mmuniation Union)는 침입적 방식의 P. 862 와 P.863, 비침입적 방식의 P.563 그리고 파라메트릭 방식의 E-모델(E-model)을 표준화하여 제안하고 있다.</p><p>파라메트릭 방식인 E 모델은 시스템 설계에 반영하기 위한 목적으로 만들어졌으며, 음질 저하에 영향을 미치는 모든 요소를 고려하여 실제 시스템의 각종 파라미터에 적용해서 0점부터 100 사이의 등급 요소(rating factor), R을 산출한다. 이는 음질평가에 사용되는 1점부터 5점 사이의 MOS 스케일로 변환할 수 있지만 정해진 각종 장비 및 통신 환경에 따른 고정된 파라미터를 사용하기 때문에 모니터링 용도로는 사용하지 않는다.</p><p>E 모델을 구성하는 파라미터 중에서 장비 손상 요소(equipment impairments)에 해당하는 패킷 손실은 손실된 패킷의 특성에 따라 음질 저하에 미치는 영향이 달라지는 특징이 있다. 예컨대 손실된 패킷이 묵음이나 무성음의 경우에는 음질에 미치는 영향이 거의 없거나 적은 반면 유성음의 경우에는 체감 음질이 크게 저하되며, 같은 유성음 구간이더라도 음성의 시작점인 온셋(onset)에 발생한 패킷 손실이 음성의 중간이나 끝 부분에 발생한 경우보다 음질의 저하가 매우 크다.</p><p>Ding은 이와 같이 패킷 손실률이 음질 저하에 미치는 요소를 세분화하여 음질 평가에 반영한 비 침입적 음질평가 시스템을 제안하였다. 정적인 E-모델로부터 시변 특성을 가진 패킷 손실, 노이즈 추정 및 템포럴 클리핑(temporal clipping) 등을 고려하였으며, 패킷 손실이 음질에 미치는 영향을 계산하기 위해 손실된 패킷의 정보를 허미트 다항식(hermite polynomial)을 이용하여 보간(interpolation)하고 이를 토대로 한 S/U/V 분류기를 통해 패킷 손실에 의한 영향을 세분화하였다. Lee는 패킷의 S/U/V 분류에서 보다 확장하여 SMV(Selectable Mode Vocoder)의 6개 클래스 정보를 사용하였으며 이전 프레임과 이후 프레임까지 고려하게 되면 단순히 패킷 손실률을 쓴 것 보다 정확한 음질 추정이 가능하지만 손실된 패킷의 클래스 정보를 정확하게 알아야 하는 제약이 있었다.</p><p>본 논문은 VoIP에서 주로 사용되는 협대역 코덱 중 하나인 G.729 코덱을 대상으로 한 패킷 손실 환경에서의 파라메트릭 기반의 비침입적 음질 평가 방식을 제안하였다. 패킷 손실의 영향은 패킷의 특성에 의존한다는 가정 하에 G.729 코딩 파라메터를 이용한 패킷 특성 분류기를 제안하였으며, 이를 기반으로 이전 프레임과 이후 프레임의 패킷까지 동시에 고려한 패킷의 전이 특성 분류 작업을 수행하였다. 이후 패킷 손실의 영향을 모델링하는 과정을 설명하고, 비침입적 방식을 위한 수신단 기반의 패킷 특성 분류를 위해 보간법을 사용하여 손실된 패킷의 클래스를 추정하였다. 이를 토대로 PESQ-LQ의 음성품질 측정 결과를 추정하는 비 침입 모델을 제안하고, 원 패킷 정보를 이용하는 침입 모델과 ITU의 비 침입적 음질평가 방식인 P.563의 결과와 비교하였다.</p>
|
VoIP(Voice over Internet Protocol)을 이용한 음성통신 시스템은 IP 네트워크를 이용하여 저렴한 통화 비용 절감 요구에 맞추어 기존의 음성 통신 환경을 대체하고 있으며, ITU는 침입적 방식의 P.862, P.863, 비침입적 방식의 P.563 그리고 파라메트릭 방식의 E-모델을 표준화하여 제안하고 있다. E 모델은 시스템 설계에 반영하기 위한 목적으로 만들어졌으며, 음질 저하에 영향을 미치는 모든 요소를 고려하여 0~100 사이의 등급 요소 R을 산출하며, 특히 패킷 손실의 경우 손실된 패킷의 특성과 발생 시점을 고려해야 한다.
|
<h1>III. 패킷 손실 환경의 음질 예측 모델</h1><p>VoIP에서 음질을 저하시키는 요소로는 잡음, 지터, 지연값 초과 등으로 인한 패킷 손실 등이 있으며 이들 중에서 패킷 손실은 음질을 저하시키는 주된 요소 중 하나임과 동시에 시변 특성을 가지고 있기 때문에 실시간 음질을 예측하기 위한 하나의 척도로 사용된다. 하지만 같은 패킷 손실이 일어나더라도 랜덤(random) 패킷 손실보다 지속적인 버스트(burst) 패킷 손실이 음질에 더 큰 영향을 주기 때문에 기존의 파라메트릭 방식에서는 채널 에러의 패턴을 버스트한 정도에 따라 모델링을 달리 한다.</p><p>하지만 근본적으로는 패킷 손실률 보다 손실된 패킷이 어떤 음성 정보를 담고 있었는지에 따라 음질 저하에 미치는 정도가 달라지기 때문에 단순한 통계적 모델보다 음성 정보 특징에 따라 나누는 것이 보다 더 합리적이다. 따라서 패킷의 클래스 별로 음질 저하의 정도를 달리하여 음질 예측 방법을 제안하였으며 전체적인 개념도를 Fig. 5에 나타내었다. 패킷 특성 분류는 패킷 손실이 발생한 현재 뿐만 아니라 이전, 이후 프레임까지 고려하여 음질의 영향을 모델링하여 음질 예측에 반영하였다.</p><h2>3.1 패킷 손실에 의한 음질 저하 모델</h2><p>파라메트릭 방식의 ITU-T 표준인 E-모델은 다음의 수식(2)를 이용하여 전송 평가 인수 \(R\)을 계산하게되며, 음질에 반영되는 요소로 크게 다음의 다섯 가지로 구분할 수 있다.</p><p>\( R=R_{0}-I_{s}-I_{d}-I_{e}+A \)<caption>(2)</caption></p><p>여기에서 \(R_0\)는 기본적인 신호 대 잡음 비율(basic signal to noise ratio), \(I_s\)는 동시 손상 인수(simultaneous impairment factor), \(I_d\)는 지연 손상 요소(delay impairment factor), \(I_e\)는 장비 손상 요소(equipment impairment factor), 그리고 \(A\)는 편리성(advantage factor)을 나타낸다. 각각의 요소는 정해진 장비나 실측된 데이터를 통해 변환 가능한 수식으로 정의되어 있으며 이를 토대로 전송 평가 지수 \(R\)을 계산할 수 있다. 이들 중에서 패킷 손실은 장비 손상 요소, \(I_e\)에 해당되며 패킷 손실률에서 버스트 정도를 반영하여 최종 결과 값을 산출한다.</p><p>이처럼 E모델은 각 요소가 음질에 미치는 영향이 선형적이라고 가정한다. 마찬가지로 Ding과 Lee는 수식(3)과 같이 패킷 손실에 의한 손상 요소를 고려한 음질 예측 방식을 제안하였다.</p><p>\( M O S_{e}=M O S_{c}-D M O S_{P L} \)<caption>(3)</caption></p><p>여기에서 \( M O S_{c} \)는 사용되는 음성 코덱에 의해 결정되는 고정된 MOS(Mean Opinion Score)이며 ITU-T supplement 23의 주관적 음질 평가 결과의 평균값을 사용하였다. 본 논문에서 사용된 G.729 코덱의 경우 Sup23의 condition 1에 해당하며 총 96개의 주관적 음질 평가 결과 평균 3.8333, 표준편차 0.8786의 값을 가진다.</p><p>\( D M O S_{P L} \)은 음질 저하를 일으키는 요소 중 패킷 손실에 의한 영향이다. Ding은 이를 유성음과 무성음의 가중합으로 계산하였으며, Lee은 SMV의 6개 클래스 정보를 이용하여 각 클래스에 대한 가중합으로 모델링 하였고, 다음 수식(4)의 선형 모델로 나타낼 수 있다.</p><p>\( D_{P L}=\mathbf{w}^{T} \mathbf{c} \)<caption>(4)</caption></p><p>여기에서는 N개의 클래스에 대한 음질저하 가중치이며, \(\mathbf{c}\)는 각 클래스에서 손실된 패킷의 수이다. 최적의 \(\mathbf{w}\)를 구하기 위해서 \(k\)번째 클래스에 해당하는 \(w(k)\)을 -1.0부터 5.0까지 변화시켰을 때 수식(5)과 같이 PESQ-LQO 값과 상관관계가 가장 높은 \(w(k)\)를 선택하도록하였다. 이때 가중치를 유성음 클래스의 값으로 정규화하기 위하여 이에 대해서만 1.0으로 주고 나머지 구간은 0으로 초기화한다.</p><p>\( \underset{w(k)}{\arg \max }\left[\left|\operatorname{Corr}\left\{D_{P L}, D M O S_{P E S Q-L Q O}\right\}\right|\right] \)<caption>(5)</caption></p><p>이후 실제 MOS 값으로 변환하기 위해 3차 회귀 분석을 수행하였으며 다음의 수식(6)을 통해 값을 예측한다.</p><p>\( \hat{D}_{\text {MOS-PL }}=a_{0}+a_{1} \cdot D_{P L}+a_{2} \cdot D_{P L}^{2}+a_{3} \cdot D_{P L}^{3} \)<caption>(6)</caption></p><h2>3.2 패킷 손실 가중 모델링</h2><p>수식(4)의 \(\mathbf{w}\)를 모델링하기 위하여 패킷 손실이 반영된 훈련 데이터(training database)를 만들었다. 음성샘플은 ITU-T coded speech database의 영어 샘플8개를 선택하였다. 8초 길이를 가지는 각각의 샘플은 G.729 코덱에 의해 10\(\mathrm{ms}\)에 해당하는 800 프레임으로 부호화 된다. 선택된 8개의 샘플을 1개부터 100개까지 무작위로 각각 100번의 패킷 에러를 발생시켜, \( 0.125 \sim 12.5 \% \)의 패킷 손실률을 가지는 총 80,000개의 음성 데이터를 만들었으며 앞서 보간 작업의 클래스 예측률을 계산할 때 사용된 환경과 동일하다. 이렇게 복호화된 음성 신호와 원 음성을 이용하여 PESQ-LQ 값을 측정하였고, 이를 추정해야 하는 목표값으로 간주하였다.</p><p>\(\mathbf{w}\)의 초기값으로 정적 유성음(V6) 패킷의 음질 저하 가중치를 1.0으로 고정시키고, 나머지는 0으로 설정하였다. 이후 각 클래스 별로 -1.0부터 5.0까지 변화시켰을 때 PESQ-LQ 값들과 가장 상관관계가 높은 값을 선택하였으며 가중치의 변화가 수렴하는 횟수인 5번 반복하여 최종적으로 구해진 가중치를 Fig. 6과 Fig. 7에 나타내었다. 그림에서 x축의 숫자는 연속된 세 개의 패킷의 특성 번호를 나타낸 것이고 가운데 숫자가 손실된 패킷의 특성 번호를 나타낸다. y축은 “666"으로 특성 분류된 패킷의 가중치를 1로 제한하였을 때 다른 특성을 가진 패킷에서 수식(5)를 만족하는 가중치를 나타낸다. Fig. 6은 원 클래스 정보를 알 수 있는 침입 모델의 가중치이고 Fig. 7은 복호화단에서 원 클래스를 추정한 정보를 가지고 만들어진 비 침입 모델의 가중치이다. 여기에서 선형 보간작업 결과 불안정 특성 구간의 검출이 평활(smoothing)하게 되어 비 안정적 유성음(V5)에 대한 정확도는 배제하였다.</p><p>Fig. 6의 가중치를 수식(4)를 이용해서 선형 합을 구하고, 이를 MOS 스케일로 변환하기 위하여 음질 평가에서 널리 사용되는 수식(6)의 3차 회귀 분석을 수행하였다. 그 결과 원 클래스 정보를 알고 있는 침입적 모델을 가정하였을 경우 수식(6)의 각 계수는 1.348e-2, 1.746e-2, -7.112e-5, 1.264e-7이며, 회귀 방정식을 적용한 후의 상관계수는 0.9322를 나타내었다. 또한 복호화 단에서 클래스를 추정하는 Fig. 7의 비침입 모델에 해당하는 수식(6)의 계수는 1.290e-2, 1.788e-2,-6.957e-5, 1,069e-7이며, 3차 회귀 방정식 적용한 후의 상관계수는 0.9182이다.</p>
|
잡음, 지터, 지연값 초과 등으로 인한 패킷 손실은 VoIP에서 음질을 저하시키는 요인이며, 실시간 음질을 예측하기 위한 기준이 되기도 한다. 기본적인 신호 대 잡음 비율, 동시 손상 인수, 지연 손상 요소, 장비 손상 요소, 편리성은 음질에 반영되는 5가지 요소이며 파라메트릭 방식의 ITU-T 표준인 E-모델의 기반이 되고 있다.
|
<p>\( \mu(t)= \mu_ { R } (t) + j \mu_ { I } (t) \)<caption>(10)</caption></p> <p>여기서 \( \mu_ { R } ( \mathrm { t } ) \) 와 \( \mu_ { I } ( \mathrm { t } ) \)는 평균이 0이고 분산이 \( \sigma ^ { 2 } \)인 가우시안 확률 과정 (Gaussian random process)이다. 그리고 \( \mu_ { R } ( \mathrm { t } ) \) 와 \( \mu_ { I } ( \mathrm { t } ) \)는 상관되어 있지 않다. \( \mu( \mathrm { t } ) \)는 크기와 위상으로 표현할 수 있는데, 이것은 다음과 같다.</p> <p>\( \mu(t)= \rho(t) e ^ { j \psi(t) } \)<caption>(11)</caption></p> <p>여기서 \( \mu( \mathrm { t } ) \)의 크기인 \( \rho( \mathrm { t } ) \)는 레일레이 분포를 갖는다. 그리고, 위상 \( \psi( \mathrm { t } ) \)는 \( [0,2 \pi] \) 사이에서 균일하게 분포한다. 레일레이 페이딩 경로에는 고속 페이딩 (fast fading)과 저속 (slow fading) 등이 있다. 그런데, 고속 페이딩 경로의 경우에는 경로 특성을 정확하게 추정하기가 힘들다. 그래서, 비트오율 성능이 제안한 영상 제거 방법의 정확도 보다는 경로 추정기 (channel estimator)의 성능에 의해서 결정되므로, 본 논문의 성능 분석대상으로는 적합하지 않다.</p> <p>본 논문에서는 저속 레일레이 페이딩 경로를 고려한다. 이상적인 동기 복조에서는 저속 레일레이 페이딩에 의한 위상 이동은 보상된다. 하지만, 제안한 방법을 이용하여 단일 주파수 연속파 신호를 이용하여 영상 신호를 제거하는 동안에는 저속 레일레이 페이딩 경로에 의한 위상 이동이 보상되지 않을 수도 있다. 그래서, 본 논문에서는 단일 주파수 연속파 신호가 전송되는 동안에는 저속 레일레이 페이딩 경로에 의한 위상 이동이 \( [0,2 \pi] \) 사이에서 균일하게 분포한다고 가정한다. 이러한 가정은 매우 현실적인 가정이다. 이러한 가정을 바탕으 로 \( \mu( \mathrm { t } ) \)를 다음과 같이 모방 (modeling)한다.</p> <p>\( \mu ^ {\prime } (t)= \left \{\begin {array} { ll } \mu(t), & 0<t<T_ { C W } \\ \rho(t), & T_ { C W }<t<T_ {\text { packet } } \end {array} \right . \)<caption>(12)</caption></p>
|
본 연구에서는 평균이 0이고 분산이 \( \sigma ^ { 2 } \)인 가우시안 확률 과정인 \( \mu_ { R } ( \mathrm { t } ) \)와 \( \mu_ { I } ( \mathrm { t } ) \)를 가정하였다. 저속 레일레이 페이딩 경로에 대한 효과를 고려하고, 그러나 이 경로에 의한 위상 이동은 제안된 방법에서 보상되지 않을 수 있다고 주장한다. 따라서, 이 논문은 단일 주파수 연속파 신호의 전송과정에서 저속 레일레이 페이딩 경로에 의한 위상 이동이 \( [0,2 \pi] \) 사이에서 균일하게 분포한다고 가정한다.
|
<p>Ⅱ장에서는 \( \mathrm { I } / \mathrm { Q } \) 부정합에 의한 단일 주파수 연속파 학습신호의 왜곡 특성을 분석한다. Ⅲ장에서는 단일 주파수 연속파 학습신호에 적합한 새로운 영상 제거 방법을 제안한다. Ⅳ장에서는 레일레이 페이딩 경로 (Rayleigh fading channel) 환경에서의 영상 신호 제거에 대해서 기술한다. Ⅴ장에서는 제안한 방법을 사용한 수신기의 영상 제거 성능 및 비트오율 (BER) 성능 등을 평가한다. 또한 기존의 영상 제거 방법 성능과 비교한다. Ⅵ장에서는 결론을 맺는다.</p> <h1>Ⅱ. I/Q 부정합에 의한 단일 주파수 연속파 학습신호의 왜곡 특성</h1> <p>그림 1은 \( \mathrm { I } / \mathrm { Q } \) 부정합이 있는 수신기 모델을 보여준다. \( \mathrm { I } \) 경로와 \( \mathrm { Q } \) 경로 사이에 이득 부정합이 있을 경우, 이득 \( \mathrm { A } _ {\mathrm { I } } \) 와 \( \mathrm { A } _ { Q } \)는 같지 않게 된다. 한편, \( \mathrm { I } \) 경로와 \( \mathrm { Q } \) 경로 사이에 위상 부정합이 있을 경우 \( \phi_ {\text { mismatch } } \)는 0 이 아닌 값이 된다. 그림 1에서 단일 주파수 연속파 학습신호를 전송하는 송신 신호는 다음과 같이 나타낼 수 있다.</p> <p>\( s(t) = A \cos \left ( \omega_ { c } + \omega_ { m } \right ) t \)<caption>(1)</caption></p> <p>여기서 \( \omega_ { c } \) 는 반송파 주파수이고, \( \omega_ { m } \) 은 단일 주파수 연속파 학습신호의 주파수이다. 식(1)을 사용해서, 수신 신호는 다음과 같이 나타낼 수 있다.</p> <p>\( r(t)=s(t) + n(t)=A \cos \left ( \omega_ { c } + \omega_ { m } \right ) t + n(t) \)<caption>(2)</caption></p> <p>여기서 \( n(t) \) 는 양면 전력 분광 밀도가 \( N_ { 0 } / 2 \)인 부가백색가우시안잡음 (AWGN)을 나타낸다. 수신기의 국부발진기 신호는 다음과 같이 나타낼 수 있다.</p> <p>\( c(t)= \cos \left ( \omega_ { c } t + \phi_ { o f f s e t } \right ) \)<caption>(3)</caption></p>
|
본 연구는 다음과 같은 내용을 다룹니다: Ⅱ장에서는 I/Q 부정합에 의한 단일 주파수 연속파 학습신호의 왜곡 특성 분석을 진행하였고, Ⅲ장에서는 이러한 신호에 적합한 새로운 영상 제거 방법을 제안한다. Ⅳ장에서는 레일레이 페이딩 경로에서의 영상 신호 제거에 대해 다루며, Ⅴ장에서는 이 방법을 활용한 수신기의 영상 제거와 비트오율 성능 평가를 진행한다.
|
<p>여기서 \( \phi_ {\text { offset } } \)는 수신 신호 \( r(t) \)의 반송파와 국부발진기 신호 \( c(t) \)의 위상차를 나타낸다. 그림 1에서 하향 변환 신호인 \( \mathrm { I } _ {\mathrm { r } } ^ {\prime } ( \mathrm { t } ) \) 와 \( \mathrm { Q } _ {\mathrm { r } } ^ {\prime } ( \mathrm { t } ) \) 는 다음과 같이 표현된다.</p> <p>\( I_ { r } ^ {\prime } (t)=A A_ { I } \cos \left ( \omega_ { m } t- \phi_ {\text { offset } } - \phi_ {\text { mismatch } } \right ) + n_ { I } (t) \) \( Q_ { r } ^ {\prime } (t)=A A_ { Q } \sin \left ( \omega_ { m } t- \phi_ {\text { offset } } + \phi_ {\text { mismatch } } \right ) + n_ { Q } (t) \)<caption>\( (4) \)</caption></p> <p>그림 2 는 식 (4)에서 잡음이 없다고 가정한 \( \mathrm { I } ^ {\prime } { } _ {\mathrm { r } } ( \mathrm { t } ) \) 와 \( \mathrm { Q } ^ {\prime } \mathrm { r } ( \mathrm { t } ) \) 를 보여준다. 그림 2(a)는 \( \phi_ {\text { mismatch } } \)가 작은 경우이며, 그림 2(b)는 큰 경우이다. 그림 2는 하향 변환된 신호가 이득과 위상 부정합으로 인해서 송신 단일 주파수 연속파 학습신호와 다르게 왜곡됨을 보여준다.</p> <p>송신 단일 주파수 연속파 학습신호가 수신기의 이득과 위상 부정합으로 인해서 왜곡되는 것은 궤적도 (trajectory diagram)를 관찰해서 알 수도 있다. 그림 3은 이득 부정합이 \( 5 \% \)이고, 위상 부정합이 5도 일 때의 수신 신호인 \( \mathrm { I } _ {\mathrm { r } } ^ {\prime } ( \mathrm { t } ) \)와 \( \mathrm { Q } _ {\mathrm { r } } ^ {\prime } ( \mathrm { t } ) \)의 궤적도 보여준다. 그림 3을 관찰하여, 송신 단일 주파수 연속파 신호의 궤도는 원인데 비해서 수신 신호의 궤도는 타원으로 왜곡되어 있음을 알 수 있다. 이 때, 타원의 초점의 \( \mathrm { x } , \mathrm { y } \) 좌표 값인 \( \mathrm { x } _ {\mathrm { F } } \) 와 \( \mathrm { y } _ {\mathrm { F } } \) 는 각각 다음과 같이 유도된다.</p>
|
송신 단일 주파수 연속파 학습신호가 수신기의 이득과 위상 부정합으로 인해서 왜곡되는 것은 궤적도 (trajectory diagram)를 관찰해서 송신 단일 주파수 연속파 신호의 궤도는 원인것에 비해서 수신 신호의 궤도는 타원으로 왜곡되어 있음을 알 수 있다.
|
<h1>요 약</h1> <p>본 논문에서는 \( \mathrm { I } / \mathrm { Q } \) 부정합에 의한 단일 주파수 연속과 학습신호 왜곡을 새롭게 해석하고 이를 이용한 영상 제거 방법을 제안한다. 기존의 방법에서는 위상 부정합과 이득 부정합을 각각 예측하고 보상하는 방빕을 사용하였다. 본 논문에서는 \( \mathrm { I } / \mathrm { Q } \) 부정합에 의하여 단일 주파수 연속과 학습신호의 원형 궤도가 타원 궤도로 왜곡됨을 증명한다. 이를 바탕으로 2단계로 이루어진 \( \mathrm { I } / \mathrm { Q } \) 부정합 보상 방법을 제안한다. 제안한 방법의 첫 번째 신호처리에서는 수신 신호의 위상을 회전하여 타원 궤도의 장축이 \( \mathrm { x } \) 축과 일치하도록 한다. 두 번째 신호처리에서는 첫 번째 신호처리를 거친 \( \mathrm { Q } \) 경로 신호를 증폭하여 원형 궤도가 되도록 하여 \( \mathrm { I } / \mathrm { Q } \) 부정합을 보상하고 영상 신호를 제거한다. 모의실험을 통해서 직교 위상 편이 변조 (QPSK), 16-직교 진폭 변조 (QAM), 64 -직교 진폭 변조 신호에 대해서 \( 70 \mathrm { ~dB } \) 이상의 영상 제거 성능을 가지고 있음을 보인다. 한편, 제안한 방법이 우수함을 보이기 위하여 레일레이 페이딩 경로 환경에서 성능 분석을 한다. 비트오율 (BER) 모의실험을 퉁혜서 제안한 방법은 직교 위상 편이 변조, 16-직교 진폭 변조, 64 -직교 진폭 변조 등의 다양한 변조에 대해서 부가백색가우시안잡음 (AWGN) 뿐 만 아니라 페이딩 경로에서도 영상 신호가 없는 이상적인 수신기의 비트오율과 거의 일치함올 보인다.</p> <h1>Ⅰ. 서 론</h1> <p>최근 급속한 반도체 기술의 발전으로 무선 통신을 위한 라디오주파수 (RF) 송수신기와 디지털 신호처리부가 하나의 칩에 집적되어 단일 칩 시스템 (SoC, system-on-chip) 형태로 구현되고 있다.</p> <p>한편, 라디오주파수 수신기의 하향 변환 (down-conversion) 과정에서는 영상 신호에 의한 왜곡이 발생할 수 있다. 이것을 방지하기 위해서 라디오주파수 또는 중간주파수 (IF) 대역에서의 영상 제거 (image rejection)가 필요하다. 기존에는 선택도가 높은 여과기 (filter)를 이용하기도 하였는데, 이 방법은 단일 칩 시스템 구현에 적합하지 않은 문제점이 있다.</p> <p>또 다른 방법으로는 복소 하향 변환 (complex down-conversion)을 이용하는 방법이다. 복소 하향 변환된 신호는 \( \mathrm { I } \) 경로와 \( \mathrm { Q } \) 경로의 두 신호로 표현된다. 그런데, 복소 하향 변환은 연속 (analog) 소자를 이용하 는 혼합기 (mixer), 여과기, 국부발진기 (LO, local oscillator) 등의 회로를 사용하기 때문에 \( \mathrm { I } \) 경로와 \( \mathrm { Q } \) 경로 간에 이득과 위상 부정합이 발생한다. 이것은 복소 하향 변환을 이용한 영상 제거 성능을 저하시킨다. 이러한 복소 하향 변환 구조는 최근 발표된 소프트웨어 기반 무선통신 (SDR, software defined radio)을 위한 라디오주파수 수신기에도 사용되고 있다. Texas Instruments 사에서 제안한 digital RF processor (DRP), University of California, Los Angeles의 Abidi 교수가 제안한 라디오주파수 수신기에서는, 기존의 연속 신호처리 개념을 이용한 하향 변환이 아니라 이산시간 연속 신호처리를 이용하여 하향 변환한다. 그러나 연속 신호에 대한 신호처리이므로, \( \mathrm { I } / \mathrm { Q } \) 부정합에 의하여 영상 신호에 의한 왜곡이 발생한다. 그래서, 추가적인 영상 제거 기능이 필요하다.</p>
|
이 논문은 I/Q 부정합에 따른 주파수 연속과 학습 신호 왜곡의 새로운 해석 및 그에 기반한 영상 제거 방법을 제시한다. 두 단계로 이루어진 I/Q 부정합 보상 방법이 제안되며, 이를 통해 QPSK, 16-QAM, 64-QAM 신호에 대해 70dB 이상의 영상 제거 성능이 검증되었다. 또한 레일레이 페이딩 경로 환경에서 성능 분석을 통해 제안된 방법의 우수성을 입증하였다.
|
<p>두 번째 신호처리에서는 \( \mathrm { Q } \) 경로 신호를 증폭하여 송신신호와 같이 궤도가 원이 되도록 한다. 이것은 식(8)과 같이 표현된다.</p> <p>\( I_ { r, a m p } ^ {\prime } (t)=I_ { r, r o t } ^ {\prime } (t) \) \( Q_ { r, a m p } ^ {\prime } (t)=A_ { r a t i o } Q_ { r, r o t } ^ {\prime } (t) \)<caption>(8)</caption></p> <p>식 (8)에서 \( I_ { r, a m p } ^ {\prime } (t) \)와 \( Q_ { r, a m p } ^ {\prime } (t) \)는, 첫 번째 신호처리에 의해서 회전한 신호인 \( I_ { r, r o t } ^ {\prime } (t) \)와 \( Q_ { r, r o t } ^ {\prime } (t) \)를 증폭한 \( \mathrm { I } \) 경로와 \( \mathrm { Q } \) 경로 신호이다. 두 번째 신호처리를 위해서 타원 궤도에서 장축과 단축의 비율을 계산한다. 이 값이 식 (8)의 \( \mathrm { A } _ {\mathrm { ratio } } \)가 된다. 수신 신호에 대한 크기는 신호가 수신될 때 계산되므로 계산 지연이 없다.</p> <p>그림 5는 두 번째 신호처리까지 완료하여 \( \mathrm { I } / \mathrm { Q } \) 부정합 보상이 완료된 후의 수신신호 궤적도이다. 제안한 2 단계의 신호처리를 통해서 수신 신호의 궤도가 송신 단일 주파수 연속파 학습 신호와 동일하게 원의 궤도를 가짐을 알 수 있다.</p> <h1>Ⅳ. 레일레이 페이딩 경로 환경에서의 영상 제거</h1> <p>레일레이 페이딩 경로 환경에서는 식 (2)의 수신 신호가 다음과 같이 된다.</p> <p>\( r(t)= \mu(t) s(t) + n(t)=A \mu(t) \cos \left ( \left ( \omega_ { c } + \omega_ { m } \right ) t \right ) + n(t) \)<caption>(9)</caption></p> <p>여기서 \( \mu(t) \)는 평균이 0인 복소 가우시안 확률 과정 (complex Gaussian random process)을 지칭한다. 이것 은 다음과 같이 표현된다.</p>
|
두 번째 신호 처리에서는 \( \mathrm { Q } \) 경로 신호를 증폭하여 송신 신호와 동일한 궤도를 갖게 합니다. 이는 식(8)로 표현됩니다. 수신 신호의 크기는 지연 없이 계산되며, 레일레이 페이딩 경로 환경에서의 영상 제거를 위해 수신 신호를 식(9)로 표현합니다.
|
<p>한편, 영상 제거 성능을 향상시키기 위하여 연속 회로를 이용하거나 디지털 신호처리를 이용하는 여러 연구결과가 있었다. 연속 회로를 이용하는 방법에는 혼합기와 복소 다상 여과기를 이용하는 방법, 복소 여과기를 포함한 델타-시그마 변조기 \( ( \Delta \Sigma \) modulator)를 이용하는 방법, 복소 다상 여과기를 이용하는 방법에 대한 연구가 있었다. 혼합기와 복소 다상 여과기를 이용하는 방법은 복소 다상 여과기의 힐버트 여과기 특성과 흔합기의 하향 변환을 결합하여 낮은 중간주파수 (low-IF) 방식의 영상 제거 방법이다. 복소 여과기를 포함한 델타-시그마 변조기를 이용하는 방법은 델타-시그마 변조기가 힐버트 여과기 특성을 가지는 복소 여과기를 포함하도록 하여 영상 신호를 제거하는 방법이다. 복소 다상 여과기를 이용하는 방법은 낮은 중간 주파수 수신기에 필수로 요구되는 영상 신호 제거를 위하여 복소 다상 여과기를 사용하는 방법이다. 그런데, 연속 회로를 이용하는 구조는 회로설계, 소자의 정합을 위한 배치 등에 있어서 매우 조심해야 하는 문제점을 여전히 가지고 있다.</p> <p>디지털 신호 처리 방식에서는 시험톤 (test tone)을 사용하는 방식과 통계적인 방법을 이용한 후처리 방식이 있다. 참고문헌 [7]에서는, 복소 하향 변환된 신호의 산술 연산을 통해서 필요 신호 (wanted signal)와 영상 신호를 순차적으로 추출하고 이득과 위상 부정합을 추정하여 보상하는 방법을 제안하였다. 참고문헌 [8]과 [9]에서는 수신 신호에서 필요 신호와 영상 신호를 분리해서 그 차이를 측정하고, 복소 최소평균제곱 (LMS, least-mean-square) 방법 등을 이용하여 영상 제거 계수를 추정하여 영상 신호를 제거한다. 참고문헌 [10]에서는 송신기에서 동일한 전력으로 \( \mathrm { I } \) 경로 신호와 \( \mathrm { Q } \) 경로 신호를 송신하고 \( \mathrm { I } \) 경로와 \( \mathrm { Q } \) 경로 송신에 사용되는 반송파 신호가 직교 (orthogonal)일 때, 수신기에서 이득과 위상 부정합이 발생할 경우 이러한 특성이 변한다는 것을 증명하였다. 이를 이용하여 적응적으로 \( \mathrm { I } \) 경로 수신 신호와 \( \mathrm { Q } \) 경로 수신 신호를 비상관화 (decorrelation) 시키는 방법으로 영상 신호를 제거한다. 그런데, 참고문헌 [8~10]은 송신 신호의 통계적인 특성을 이용하므로 영상 신호 제거에 많은 신호를 필요로 한다.</p> <p>이에 본 논문에서는 \( \mathrm { I } / \mathrm { Q } \) 부정합으로 인하여 단일 주파수 연속파 학습신호가 왜곡되는 특성을 해석한다. 그리고, 이를 바탕으로 단일 주파수 연속파 학습신호에 적합하며 보상 시간을 줄이면서도 영상 제거 성능이 우수한 방법을 제안하고자 한다. 단일 주파수 연속파 신호는 원점에 대해서 대칭인 확정적인 신호 (deterministic signal)라는 특성이 있다. 이 특성은 신호 왜곡을 정확하게 해석할 수 있도록 한다.</p>
|
혼합기와 복소 다상 여과기를 이용하기 위해서는 복소 다상 여과기의 힐버트 여과기 특성과 혼합기의 하향 변환을 결합하여 낮은 중간주파수 방식의 영상을 제거한다. 복소 다상 여과기를 이용하기 위해서는 낮은 중간 주파수 수신기에 반드시 요구되는 영상 신호를 제거한다. 본 논문에서는 \( \mathrm { I } / \mathrm { Q } \) 부정합에 의해 단일 주파수 연속파 학습신호의 왜곡을 해석하는데, 이 신호는 원점에 대해서 대칭인 확정적인 신호라는 특성을 지니고 있다. 또한 해당 신호에 적합하며 보상 시간도 줄이면서 영상 제거 성능 또한 좋은 방법을 제안한다.
|
<p>\( \left .x_ { F } = \pm \frac { 4 A_ { r } A_ { Q } {\sin \phi_ {\text { mismatch } } } \cdot \cos \phi_ {\text { mismatch } } } {\left (4 \sin \phi_ {\text { mismatch } } \cdot \cos \phi_ {\text { mismatch } } - \frac { A_ { Q } } { A_ { I } } \left ( \xi- \sqrt {\xi ^ { 2 } + 4 } \right ) \right . } \right ) {\times } \) \( \frac {\left ( \xi- \sqrt {\xi ^ { 2 } + 4 } \right ) \left (1-4 \sin ^ { 2 } \phi_ {\text { mismatch } } \cdot \cos ^ { 2 } \phi_ {\text { mismatch } } \right ) } {\left (4 \sin \phi_ {\text { mismatch } } \cdot \cos \phi_ {\text { mismatch } } + \frac { A_ { I } } { A_ { Q } } \left ( \xi- \sqrt {\xi ^ { 2 } + 4 } \right ) \right ) } \) \(단, \xi= \frac { A_ { I } ^ { 2 } -A_ { Q } ^ { 2 } } { 2 A_ { I } A_ { Q } {\sin \phi_ {\text { mismatch } } } \cdot \cos \phi_ {\text { mismatch } } } \) \( y_ { F } = \pm \left ( \frac { - \xi + \sqrt {\xi ^ { 2 } + 4 } } { 2 } \right ) x_ { F } \)<caption>(5)</caption></p> <p>또한 두 초점에서의 거리의 합 D는 다음과 같다.</p> <p>\( D= \frac { A_ { I } ^ { 2 } x_ { F } ^ { 2 } -A_ { Q } ^ { 2 } y_ { F } ^ { 2 } } { A_ { I } ^ { 2 } -A_ { Q } ^ { 2 } } \)<caption>(6)</caption></p>
|
미치광이 불일치 시, xF, yF 값을 구할 수 있는 식과 D값을 구할 수 있는 식이 주어졌다.또한 위의 식의 중점을 두고 계산해 보면 두 초점에서의 거리의 합 D는 다음과 같다. 다음과 같은 D식에서 합D를 찾을 수 있다.
|
<h1>Ⅲ. 단일 주파수 연속파 신호의 원형 궤도 특성을 이용한 영상 제거 방법</h1> <p>타원 궤도를 원형 궤도로 변환하는 과정은 타원의 장축의 길이와 단축의 길이를 일치시키는 과정과 동일하다. 이 장에서는 \( \mathrm { I } / \mathrm { Q } \) 부정합에 의한 왜곡으로 타워 궤도를 가지는 단일 주파수 연속퐈 학습 신호의 수신 신호가 원형 궤도가 되도록 새로운 방법을 제안한다. 제안한 방법은 \( \mathrm { I } / \mathrm { Q } \) 부정합을 보상하고, 영상 제거 성능을 향상시킨다.</p> <p>그림 3 과 같이 타원 궤도의 장축이 \( \mathrm { x } \)축이나 \( \mathrm { y } \)축과 일치하지 않을 경우에는 원형 궤도로 변환하는 과정이 매우 복잡하다. 이 문제를 해결하기 위해서, 제안하는 방법에서는 2단계의 신호처리 방법을 제안한다.</p> <p>첫 번째 신호처리에서는, 타원 궤도의 장축과 \( \mathrm { x } \)축을 일치시키기 위해서 수신 신호를 회전한다. 이것은 식(7)와 같이 표현된다.</p> <p>\( I_ { r, r o t } ^ {\prime } (t)=I ^ {\prime } { } _ { r } (t) \cos \theta + Q_ { r } ^ {\prime } (t) \sin \theta \) \( Q_ { r, r o t } ^ {\prime } (t)=-I_ { r } ^ {\prime } (t) \sin \theta + Q_ { r } ^ {\prime } (t) \cos \theta \)<caption>(7)</caption></p> <p>식 (7)에서 \( \mathrm { I } _ {\mathrm { r } , \mathrm { rot } } ^ {\prime } ( \mathrm { t } ) \)와 \( \mathrm { Q } _ {\mathrm { r } , \mathrm { rot } } ^ {\prime } ( \mathrm { t } ) \)는, 수신 신호인 \( \mathrm { I } _ {\mathrm { r } } ^ {\prime } ( \mathrm { t } ) \)와 \( \mathrm { Q } _ {\mathrm { r } } ^ {\prime } ( \mathrm { t } ) \)가 첫 번째 신호처리에 의하여 위상 \( \theta \)만큼 회전한 \( \mathrm { I } \) 경로와 \( \mathrm { Q } \) 경로 신호이다. 첫 번째 신호처리를 위해서, 타원 궤도에서 장축에 해당하는 수신신호와 \( \mathrm { x } \)축과의 위상 차이를 추출한다. 이 값의 음수가 식 (7)의 \( \theta \)가 된다. 수신 신호의 크기는 신호가 수신될 때 계산되므로 계산 지연이 없다. 그러므로, 첫 번째 신호처리를 고속으로 수행할 수 있다. 한편, 신호처리 과정에서 획득된 회전 위상 값 \( \theta \)는 수신기에서 알고 있다. 그러므로, 반송파 위상 복원에 포함시킬 수 있어서 동기 수신에 영향을 주지 않는다. 그림 4는 회전이 완료된 수신 신호의 궤적도이다. 그림 4에서 첫 번째 신호처리에 의하여 가장 큰 크기를 가지는 수신 신호가 \( \mathrm { x } \) 축과 일치함을 알 수 있다. 그런데 그림 4에서, \( \mathrm { x } \) 축에 위치한 장축의 크기와 \( \mathrm { y } \) 축에 위치한 단축의 크기가 달라서 궤도가 여전히 타원형임을 알 수 있다.</p>
|
타원 궤도를 원형 궤도로 변환하는 것은 장축과 단축의 길이를 일치시키는 과정과 같다. 이 장에서는 수신 신호의 왜곡으로 인해 타원 궤도를 가지는 단일 주파수 연속신호를 원형 궤도로 변환하기 위한 새로운 방법을 제안한다. 제안된 방법은 2단계의 신호 처리를 사용한다. 첫 번째 단계에서는 수신 신호를 회전하여 타원 궤도의 장축을 \( \mathrm { x } \)축과 일치시킨다. 이를 위해 장축과 \( \mathrm { x } \)축 사이의 위상 차이를 추출한다.
|
<h1>4. 관련 연구</h1><p>최근 차량 네트워크에서 인터넷 접속을 향상시키기 위한 다양한 연구들이 진행되고 있다.</p><p>MIT에서는 Cabernet 프로젝트를 통해 차량 네트워크에서 새로운 형태의 컨텐츠 전단 프로토콜을 제안하였다. Cabernet에서, 차량 네트워크는 오픈 AP를 통한 인터넷 접속을 가정하고 있으며, 성능 향상을 위해 QuickWiFi와 CTP(Cabernet Transport Protocol)을 제안하였다. QuickWiFi는 빠른 속도로 이동하는 차량의 AP접속 성능을 향상시키기 위하여 데이터 링크 계층에서의 빠른 접속을 제안한 기법이다. 또한 CTP는, 기존의 TCP가 차량 네트워크에서 적합하지 않기 때문에, 프록시 기반의 새로운 전송 계층 (transport layer) 프로토콜이다. 이 외에, ViFi의 경우 VoIP와 같은 실시간 응용 서비스에 초점을 맞추어 성능 개선 방안을 제안하고 있다.</p><p>한편 [1]과 [14]에서는 차량 네트워크에서의 인터넷 접속 성능에 관한 연구 결과를 보고하고 있다. [1]에서는 오픈 Wi-Fi AP에서의 연결성과 처리율을 분석하기 위해서 차량 9대의 이동 패턴을 232일 동안 모니터한다. 그 결과 평균적인 연결 지속 시간은 약 24초였으며 처리율은 수십 \( \mathrm{Kbps} \) 정도임을 알 수 있었다. 또한 속도가 \( 70 \mathrm{Km} / \mathrm{h} \) 이상이 되는 경우 도로 주변에 오픈 AP가 충분히 배치되어 있지 않기 때문에 AP 연결이 쉽지 않음을 보여주고 있다. [13]에서는 차량의 속도가 빠른 경우 Wi-Fi 접속 처리율은 지원 가능한 처리율의 절반 수준임을 보여주고 있다. 그리고 이러한 처리율 향상을 위해서 네트워크 프로토콜 상에서의 연결 지연 시간을 단축시키는 기법과 전송률을 조정하는 기법을 제안하고 있다.</p><p>이 외에 WLAN이 아닌, IEEE 803.16j와 같이 WWAN의 결합된 구조에 대한 연구가, 2005년 7월 IEEE 802.16 MMR(Mobile Multi-hop Relay) 연구가 시작된 이래로, 2006년 3월 IEEE 802.16j Relay 프로젝트 그룹이 구성되어 진행되었다. 802.16j는 기지국의 영역 밖에 있는 음영지역에 데이터 전달을 위해, 중간에 중계기를 두어 신호 전달을 가능하게 하기 위한 표준이다. 또한 기지국 영역 내에 있는 단말에 대해서도 중계기를 통한 고품질의 경로를 설정할 수도 있다. 하지만 802.16j는, KTX 무선 인터넷과 egg, 스마트폰 테더링처럼 WWAN과 WLAN이 결합한 구조와 달리, 현재 서비스가 널리 이루어지지 않고 있다. 또한 대부분의 모바일 인터넷 기기에 Wi-Fi가 장착된 것에 비해, 802.16j은 무선 인터넷 접속을 위해 해당 인더페이스를 지원하는 기기를 따로 구입해야 한다. 따라서 사용자들은 차량 내에서, 802.16j처럼 WWAN을 사용한 직접적인 무선 접속이 아닌 Wi-Fi를 이용한 WLAN-WWAN 방식의 인더넷 접속을 더 선호할 것이다.</p><p>이와 같이 차량 네트워크와 관련하여 다양한 연구가 진행되고 있지만, Wi-Fi를 이용한 WWAN-WLAN 구조가 차량 네트워크의 대표적인 구조가 될 것으로 예상된다. 그러나 이 구조에서 실제적인 성능 측정 연구는 보고된 바 없기 때문에, 본 연구는 기존 연구와의 차별성을 가진다.</p>
|
MIT 에서 Cabernet 프로젝트로 새로운 컨텐츠 전단 프로토콜을 선보였다. [1]과 [14]에서는 차량 네트워크 상 인터넷 접속 성능에 대한 연구 결과를 보여주며 결과에 따른 연결 지연 시간의 단축을 위한 기법과 전송률 조정 기법을 제안한다. 이처럼 차량 네트워크 관련 여러 연구들 중 차량 네트워크에는 WWAN-WLAN 구조가 대표적이될 것으로 예측되나, 아직 실제적 성능 측정 연구는 선보여지지 않기에 해당 연구는 기존 연구와 차별성을 갖는다.
|
<h1>1. 서론</h1><p>무선 통신기술의 발달로 인해 이동 중인 상황에서도 다양한 기기들을 이용하여 인터넷 접속이 가능하게 되었고, 최근 들어 스마트폰과 노트북의 보급이 늘어남에 따라 무선 인터넷 접속을 이용하는 사용자의 수가 급격히 증가하였다. 특히, Wi-Fi(Wireless Fidelity)는 무선접속장치 (Access Point: AP)가 설치된 일정 거리 안에서 저렴한 가격으로 초고속 인터넷을 사용할 수 있게 하는 무선 접속 기술이다. 이를 이용해 다양한 교통수단(자동차, 버스, 지하철, KTX 등) 안에서도 무선 인터넷 접속이 가능하나, Wi-Fi가 제공하는 서비스 지역은 매우 제한적이기 때문에, 빠르게 이동하는 차량 내에서 Wi-Fi를 이용하는 것은 적합하지 않다. 따라서 차량 내의 노드들에게 인터넷 서비스를 제공하기 위해 WLAN (Wireless Local Area Network)과 WWAN(Wireless Wide Area Network)을 결합한 새로운 구조가 제안되었다. 차량에는 AP가 설치되어, 차량 내의 사용자들과 AP는 Wi-Fi를 이용하여 무선 접속을 유지한다. 그리고 차랑 내 노드에게 인터넷 접속을 제공하기 위해, AP는 HSDPA (High Speed Downlink Packet Access)나 WiBro(Wireless Broadband)와 같은 WWAN을 이용하여 기지국(base station: BS)과 접속한다. 이 구조가 현재 사용 가능한 대표적인 차량 네트워크 구조이다.</p><p>우리나라에서는 2008년 4월부터 HSDPA과 Wi-Fi를 결합한 무선 인터넷 서비스를 KTX에서 제공하고 있다. 또한 2009년 4월, WiBro와 Wi-Fi 접속 기능을 제공하는 휴대형 무선공유기 egg가 발매되면서, 언제 어디서든지 (차량 내에서도) Wi-Fi 기기를 이용하여, 사용자는 인터넷에 접근할 수 있게 되었다. 뿐만 아니라 2010년 5월부터는 WCDMA 휴대전화 신호를 Wi-Fi신호로 전환해 주는 휴대용 공유기 '단비'가 출시되어 이를 이용한 차량 네트워크의 서비스 활용이 기대된다. 그리고 최근 출시된 아이폰, 갤럭시 S 등의 스마트폰에서도, 중계기 역할을 담당하는 테더링 기능이 제공된다. 이렇게 WWAN-WLAN의 결합된 구조는 현재 활발히 활용되고 있다.</p><p>그러나 차량 네트워크에서 Wi-Fi를 이용한 인터넷 접속에 관한 연구는 초기 단계이고, 실제적인 처리율에 대한 측정 및 분석이 전무한 상태이다. 현재 성능분석 분야에 대한 연구는 차량 네트워크의 일반적인 WWAN과 WLAN이 결합된 구조가 아닌 차량에서 Wi-Fi만을 이용해 인터넷에 접속하는 연구가 대부분이다.</p><p>본 논문은 차량 네트워크의 대표적인 구조인 WWAN과 WLAN이 결합된 구조를 이용하여 차량 네트워크의 처리율을 측정 및 분석한다. 첫 번째는 KTX에서 제공하는 HSDPA와 Wi-Fi 구조, 두 번째는 지하철에서 스마트폰의 테더링 기능을 이용한 HSPA (High Speed Packet Access)신호를 Wi-Fi 신호로 변환시키는 구조의 성능 분석을 한다. 마지막으로, 휴대형 무선공유기 egg를 이용하여 WiBro와 Wi-Fi 가 결합된 구조를 가지고 지하철과 자동차에서 각각 데이터 처리율에 대한 성능분석을 한다. 성능 측정은 일반적으로 널리 사용되는 측정 도구를 이용하여 업링크와 다운링크의 처리율을 측정하였고, 현재 서비스되고 있는 차량 네트워크의 유용성을 판단하고 서비스 품질을 확인하였다.</p><p>본 논문의 구성은 다음과 같다. 2장에서는 차량 네트워크의 인터넷 접속의 처리율의 측정 방법 및 환경에 대해 서술하고, 3장에 측정결과와 이에 대한 분석을 한다. 그리고 4장에서 관련 연구를 소개하고, 마지막으로 5장에서 본 논문의 결론 및 향후 연구 과제를 서술한다.</p>
|
무선 인터넷 접속이 이동 중에도 가능한 시대에 Wi-Fi 는 제한적인 탓에 WLAN 과 WWAN 이 결합된 새로운 구조가 활발히 사용되고 있다. 다만, 성능분석 분야에 대한 연구는 차량에서 Wi-Fi만을 이용해 인터넷에 접속하는 연구가 다수임으로 해당 논문에서는 WWAN-WLAN의 결합된 구조를 이용한 차량 네트워크의 처리율에 대한 측정과 분석을 하고자한다.
|
<h2>3.2 WiBro- Wi-Fi 토폴로지</h2><p>WiBro와 Wi-Fi로 구성된 토폴로지에서의 성능 측정은 각각 자동차와 지하철에서 수행하였다. 우선 서울지하철에서 KT Wibro를 이용한 휴대형 무선공유기인 egg에 의한 처리율을 살펴보았다. 지하철에서의 평균 다운링크 처리율과 업링크 처리율은 각각 \( 2799 \mathrm{Kbps}, 531 \mathrm{Kbps} \) 이고, (그림 8)은 지하칠에서 다운링크와 업링크 처리율을 측정한 결과를 보여준다. 다운링크의 평균 처리율은 앞의 HSDPA-WiFi 구조에서의 평균 다운링크 처리율과 비교 하여 더 높고, 안정적인 것을 볼 수 있다. 또한 업링크의 평균 처리율 역시 보다 우수한 수준이었다.</p><p>(그림 9)는 동일한 토폴로지 환경을 이용하여 자동차에서 측정한 결과를 나타낸다. 이동 구간은 내부순환도로 (평균 \( 60 \mathrm{~km} / \mathrm{h} \) ) - 강변도로 (평균 \( 70 \mathrm{~km} / \mathrm{h} \) ) - 시내 - 경인고속도로 (평균 \( 80 \mathrm{~km} / \mathrm{h} \) ) 이었고, 시내를 제외한 구간은 모두 등속도에서 실험을 진행하였다. 측정결과, 평균 다운링크 처리율은 \( 1530 \mathrm{Kbps} \) 이고 평균 업링크 처리율은 \( 210 \mathrm{Kbps} \) 이었으나, 이것은 지하철에서 측정할 때보다 더 낮은 처리율이다. 지하철의 경우, 많은 수의 WiBro 중계기를 통해 신호 감쇄나 페이딩 효과를 줄일 수 있지만, 자동차를 이용할 경우는 주변에 장애물이 많이 존재하여 채널 상태가 더 불안정하기 때문인 것으로 사료된다. 한편 최근, 정부에서는 고속도로에 더 많은 WiBro 중계기를 설치한다는 방침을 발표한 바 있어 앞으로는 도로 환경에서도 보다 향상된 처리율을 얻을 수 있을 것으로 기대된다. 반면, 자동차의 속도를 변화시키며 처리율을 측정한 결과 자동차의 속도는 처리율의 큰 영향을 미치지 않는 것을 확인할 수 있었다.</p><p>지금까지 KTX 무선 AP, 무선 공유기 (egg, 스마트폰)를 이용한 무선 인터넷의 다운링크/업링크 처리율에 대한 결과를 살펴보았다. 그 결과, HSDPA-WiFi 토폴로지는, WiBro 기반의 차량 네트워크와 달리, 실시간 멀티미디어 응용 프로그램에 적합하지 않음을 확인할 수 있었다. WiBro-WiFi 구조에 비해 HSDPA 기반의 차량 네트워크에서 더 낮은 처리율이 발생하는 원인은 차량 네트워크의 무선 인터넷을 지원하기 위한 WWAN-WLAN의 구조 때문이다. 첫째, WWAN-WLAN 구조는 서로 다른 이질적인 (heterogeneous) 네트워크가 구성된 것이다. 따라서 이 구조에서 지원할 수 있는 최대 전송 처리율은 WLAN과 WWAN이 지원하는 처리율 중, 작은 값을 갖는 네트워크 (HSDPA)의 전송 처리율을 따르는 것이다. 둘째, WWAN 링크는 WLAN으로 향하는 패킷과 WLAN으부터 전달된 패킷이 모이는 병목지점이기 때문이다. 특히, KTX 무선인터넷의 경우, WLAN에 많은 사용자가 존재하여 스마트폰의 테더링에 비해 낮은 다운링크 처리율을 보였다. 따라서 WiFi 기반의 차량 네트워크의 성능 향상을 위해서, 이용자의 수와 응용 프로그램의 요구 사항 등에 따르는 효율적인 자원 관리/할당 기법이 필요하다.</p>
|
WiBro와 Wi-Fi로 구성된 토폴로지에서 자동차와 지하철에서의 성능 측정을 수행했다. 지하철에서의 평균 다운링크 처리율은 2,799 Kbps이고 업링크 처리율은 531 Kbps이고 (그림 8)은 지하철에서 다운링크와 업링크 처리율을 측정한 결과를 보여준다. 다운링크의 평균 처리율은 이전에 측정한 HSDPA-WiFi 구조의 처리율보다 높고 안정적임을 확인할 수 있다. 자동차에서는 지하철보다 처리율이 낮은 이유는 주변에 장애물이 많아 채널 상태가 불안정하기 때문으로 추정됩니다. 측정 결과, HSDPA-WiFi 토폴로지는 WiBro 기반의 차량 네트워크와 비교하여 실시간 멀티미디어 응용 프로그램에는 부적합함을 확인하였습니다.
|
<h1>2. 성능분석 환경</h1><p>차량 네트워크의 성능 분석을 위하여 우리는 세 가지 네트워크 구조에 대한 처리율을 측정하였다. 첫 번째 구조는 (그림 1)과 같이, KTX에서 사용되는 HSDPA와 Wi-Fi가 결합한 형태이다. HSDPA는 고속하향패킷접속을 통하여 WCDMA나 CDMA보다 빠른 속도로 데이터를 받을 수 있는 3.5세대 이동통신방식 기술이다. KTX 무선 네트워크에서 외부 기지국은 HSDPA 무선 접속 기술을 이용하여 AP와 접속하고, AP와 단말은 Wi-Fi를 이용하여 접속을 유지하여, 최종적으로 차량 내의 단말은 인터넷에 엑세스할 수 있다. 두 번째는, (그림 2)에서 볼 수 있듯이, 테더링 기능을 제공하는 스마트폰의 응용 프로그램을 이용한 HSPA-Wi-Fi 구조다. 이것은 지하철에서 처리율을 측정하였고, 사용된 어플리케이션은 윈도우 모바일 상의 WMwifirouter이다. 테더링이란 스마트폰 자체가 무선 모뎀 역할 기능을 하는 것으로, USB와 블루투스(Bluetooth), Wi-Fi 등의 통신 기술을 이용하여 아이팟, 노트북과 같은 IT 기기들에게 무선인터넷 접속을 제공하는 기능이다. 테더링 기능은 간단히 어플리케이션을 스마트폰에 설치하는 것으로 사용할 수 있으며, 최근에는 안드로이드 2.2에서 처럼 OS에서 기본적으로 지원해주는 기능이다. 마지막으로, 휴대형 무선공유기 egg를 사용하여, KT에서 제공하는 WiBro 신호를 Wi-Fi신호로 변환시켜 무선인터넷을 사용할 수 있는 구조에 대해, 자동차와 지하철에서 각각 데이터 처리율을 측정하였다. WiBro는 시속 \( 100 \mathrm{Km} \)의 속도로 이동 중에서도 사용이 가능하며 송수신 거리가 Wi-Fi보다 넓지만 HSDPA와는 달리, 수도권 및 일부 지역에서만 사용가능하다. Egg를 사용한 구조는 (그림 3)과 같다.</p><p>위의 세 가지 네트워크 구조에서 데이터 처리율을 측정하기 위해, 우리는 한국정보사회진흥원에서 제공하는 인터넷 품질측정 시스템과 오픈소스로 제공되는 네트워크 측정도구인 Iperf를 사용하였다. 2008년 4월에 릴리즈 된 Iperf는 네트워크 구간에 있는 2대의 호스트 간 네트워크 성능을 측정할 수 있는 도구로서 다양한 종류의 운영체제(윈도우, 리눅스, MacOS, 솔라리스 등)을 지원한다. 또한 소프트웨어 설치과정과, 사용방법이 간단하며 TCP의 윈도우 크기, 포트 번호, UDP 대역폭 등의 다양한 파라미터를 조절하여 네트워크 성능을 측정할 수 있기 때문에 널리 사용되는 측정도구 중 하나이다. (그림 4)는 Iperf의 실행화면의 예를 보여준다. 그림에서 볼 수 있듯이, 서버의 IP 주소는 본 연구실의 서버주소인 163.152 .60 .196 이다. 우선, 클라이언트는 서버에 접속한 후, 일정시간 동안 (다운링크, 업링크 각각 18초) 서버에 임의의 패킷을 생성, 전송하여, 그 결과를 화면에 출력한다. 데이터 업로드가 끝나면, 반대로 서버에서 클라이언트로 데이터가 전송되어 다운링크 처리율이 측정된다. 그러나 KTX 네트워크의 경우, AP에서 동작하는 방화벽으로 인해 Iperf를 사용할 수 없었기 때문에, 한국정보사회진흥원에서 제공하는 웹 기반의 인터넷 품질측정 시스템을 활용하였고, (그림 5)는 인터넷 품질측정 시스템 실행의 예를 보여준다.</p><p>이처럼 KTX에서는 Iperf를 사용할 수 없어 다른 측정도구를 사용하였기 때문에, 두 측정 방법 사이의 직접적인 비교는 어렵다. 하지만, 본 연구는 KTX와 지하철 등에서의 인터넷 처리율의 성능 비교가 주목적이 아니라 다양한 토폴로지 상황에서 현재의 인터넷 서비스의 수준을 가늠하고 향후 서비스 활성화를 도모하기 위한 것이므로, 이러한 측정 방법에 큰 무리가 없다고 사료된다. 한편 각 도구의 성능 측정 시간은 각각 수 십초이었고, 따라서 실험시 세션의 핸드오버는 고려하지 않았다.</p>
|
본문에서는 데이터 처리율을 측정하기 위해 3가지 네트워크 구조를 설명하였다. 첫 번째는 KTX에서 사용하는 HSDPA 무선 접속 기술로 AP와 접속한 뒤 Wi-Fi를 이용하여 접속을 유지하는 방식이고, 두 번째는 스마트폰의 응용프로그램으로 테디링 기능을 제공받는 구조이며, 마지막으로 휴대용 무선공유기 egg로 WiBro 신호를 Wi-Fi신호로 변환하여 사용하는 구조이다.
|
<h1>3. 객체지향 기반 결합도 \& 응집도 재정의</h1> <p>2001년 Daniel Rodriguez에 의하면 기존의 절차식 언어기반 소프트웨어는 캡슐화, 상속, 다형성 등의 개념들이없다. 그러나 객체지향 개념은 캡슐화, 상속, 다형성 등의 개념들을 포함하고 있다. 그 예로 객체, 클래스 컴포넌트, 패키지 등이 있다. 이처럼 결합도와 응집도는 기존의 절차식 언어에서의 Function 관점과 객체지향에서의 객체 관점은 차이가 있다. 그러므로 객체지향 언어의 특성에 맞는 재정의가 필요하다.</p> <p>결합도는 객체지향 언어에서 클래스 또는 객체를 기본 단위로 하며, 서로 간의 데이터 전달, 파일 공유 등을 나타낸다. 때문에 절차식 언어 \( (\mathrm{C}) \)에는 없는 클래스/객체 단위의 개념이 객체지향 언어(Java)에 있으므로 재정의 될 필요가 있다. Table 3은 결합도의 기존 정의와 객체지향 관점에 맞게 재 정의한 표이다.</p> <p>결합도 중에서 자료 결합도가 가장 낮은 결합력을 가지며, 내용 결합도가 가장 높은 결합력을 갖는다. 결합력이 낮아질수록 모듈 간 주고받는 데이터 개수가 적어지거나, 데이터 타입이 간단해지며, 각 기능이 독립적이게 되어 코드의 품질이 높아진다.</p> <p>응집도는 객체지향 언어에서 클래스 또는 객체 단위 내에서 속성과 메소드 또는 기타 연산들의 관계를 나타낸다. 따라서 응집도 또한 재정의 될 필요가 있다. Table 4 는 응집도의 기존 정의와 객체지향 관점에 맞게 재 정의한 표이다.</p> <p>낮은 응집도를 가진 모듈은 하나의 모듈 내에서 여러 기능을 한다는 의미이며, 반대로 높은 응집도를 가진 모듈일수록 한 가지 기능만 수행 한다. 즉, 높은 응집도를 가질수록 품질 또한 좋다고 볼 수 있다.</p> <h1>4. Plug-in Diverse Parser based on Toolchain</h1> <p>본 장에서는 관련 연구에서 언급한 문제점들을 보완하고 더 나아가 사용자가 파서를 선택하여 원하는 데이터를 가시화할 수 있도록 XCodeParser를 추가하였다. 개선된 Toolchain 시스템에 대한 구성도는 Fig. 3과 같다.</p> <p>Fig. 3에서 향상된 시스템은 기존의 Toolchain 시스템보다 조금 더 세분화해서 5단계로 이루어져 있다. 파서 부분의 큰점선으로 된 네모는 SourceNavigator와 XCodeParser 이 외에 다른 파서를 plug-in하여 활용할 수 있다는 의미이다.</p> <h2>\( 4.1 \) 툴 체인 절차</h2> <p>Input Code 단계에서는 툴체인 내의 getData에서 타겟소스 코드를 입력 받는다. 프로그램 실행 전 사용자가 선택한 파서(SourceNavigator 또는 XCodeParser)로 입력받은 데이터를 전달한다. 이때, 타겟 소스코드는 객체지향 언어인 자바 기반 코드이다.</p> <p>Code Analysis 단계에서는 입력된 소스코드를 Source Navigator로 분석하고, 그 결과 *.cl, *.by *.lv 등과 같은 바이너리 파일들이 생성된다. 그리고 XCodeParser로 분석한 결과로는 입력한 소스코드 파일의 개수만큼 *.astm 파일이 생성되는데, 파일의 이름은 “입력된 각 소스코드 파일의 이름.astm"이 된다.</p> <p>Save DB 단계에서 바이너리 파일들은 소스네비게이터의 \( \mathrm{DBDump} \) 로 정보를 추출하여 데이터베이스에 저장되고, *.astm 파일들은 따로 정보를 추출해서 데이터베이스에 저장해야 한다.</p> <p>Analysis Structure 단계에서는 기존 시스템과 동일하게 데이터베이스에 저장된 정보를 Toolchain의 정의에 따라 재해석하여 *.gv 파일을 생성한다. 이 파일을 GraphViz에 입력한다.</p> <p>마지막으로, Visualization 단계에서는 기존 시스템처럼 이전 단계에서 재해석한 \( * . g \mathrm{~g} \) 파일을 GraphViz를 이용해 그래프로 가시화한다.</p>
|
기존의 절차식 언어에서의 Function 관점과 객체지향에서의 객체 관점은 차이가 있어 객체지향 언어의 특성에 맞는 재정의가 필요하다. 객체지향 언어에서 결합도는 클래스 또는 객체를 기본 단위로 하며, 서로 간의 데이터 전달, 파일 공유 등을 나타내며, 응집도는 클래스 또는 객체 단위 내에서 속성과 메소드 또는 기타 연산들의 관계를 나타낸다. 다음은 기존의 시스템보다 조금 더 세분화해서 5단계로 향상된 툴 체인 시스템을 알아본다. 이 시스템은 기존의 언급한 문제점들을 보완하고 사용자가 파서를 선택하여 원하는 데이터를 가시화할 수 있도록 XCodeParser를 추가한 방식이다.
|
<h2>4.2 Plug-In을 위한 DB 추출 쿼리</h2> <p>파서 플러그인화의 어려움은 파서마다 분석하여 \( \mathrm{DB} \) 에 저장하는 방법이 다르다는 것이다. 예를 들면, SourceNavigator 로부터 생성된 데이터베이스와 XCodeParser로부터 생성된 데이터베이스의 column 값들이 같은 종류의 데이터라도 전혀 다른명칭으로 정의되어 있다. 이는 Fig. 4와 Fig. 5를 통해 더 자세히 알 수 있다.</p> <h3>1) SourceNavigator</h3> <p>Fig. 4는 바이너리 파일에서 추출한 정보를 입력한 데이터베이스에서 가시화를 위한 정보를 추출하는 쿼리문으로, call 관계와 파라미터 타입, 파라미터 이름을 가져오는 부분이다.</p> <h3>2) XCodeParser</h3> <p>Fig. 5는 XCodeParser로부터 생성된 ASTM파일에서 추출한 정보를 입력한 데이터베이스에서 가시화를 위한 정보를 추출하는 쿼리문이다. 이 문장 또한 call 관계 추출을 위해 클래스 멤버인 메소드와 클래스, 호출자 등의 정보를 가져온다.</p> <p>Fig. 6은 개선된 Toolchain 시스템의 실행화면이다. 사용 방법은 먼저, 타겟소스 경로에는 분석할 소스코드의 경로를 입력한다. 이 때, *.java 파일 또는 이클립스 프로젝트의 \( \operatorname{src} \) 같은 소스코드 최상위 폴더 두가지 다 입력 가능하다. 출력파일경로는 중간 결과물인 *.cl/*.by 등 과 *.astm 퐈일들, 그리고 가시화를 위한 소스코드 *.gv 파일, 마지막으로 최종 결과물인 가시화 그래프를 저장할 경로를 입력한다. 미입력 시에는 자동으로 \( \mathrm{C} \)드라이브에 폴더를 생성하여 입력된다. 프로젝트 이름은 결과물인 가시화 그래프 생성시 파일 이름을 입력한다.</p> <p>어떤 파서를 사용할 것인지 선택하면, 하단에 해당하는 파서의 라디오버튼들이 활성화된다. 활성화된 버튼들은 클래스 다이어그램, 결합도와 응집도, 결합도만, 응집도만, 총 4개가 있다. 이들 중 하나를 선택하면 실행 버튼이 활성화되고, 실행 버튼을 클릭하여 그래프를 생성한다.</p> <h1>5. 코드 복잡도 가시화</h1> <p>기존에 소스네비게이터로 추출한 데이터만으로 객체지향 개념을 가시화하기에는 한계가 있다는 것을 언급했다. 그래서 Plug-in 형식으로 추가한 XCodeParser로 재 정의하다 결합도와 응집도를 추출하였다.</p> <p>Equation (1)은 결합도와 응집도를 산출한 계산식이다. 개발자가 결합 정도와 응집 정도를 쉽게 파악할 수 있도록 수치화 한 것이다. 결합도의 총합은 클래스 간에 해당하는 결합 종류를 모두 합산한 것이다. 응집도의 총합은 클래스 내 메소드간에 해당하는 응집 종류를 모두 합산 한 것이다. 가시화를 위해 사용된 각 결합도들과 각 응집도들의 가중치는 아직 정확한 수치가 정해져 있지 않기 때문에 임의로 정하였다.</p> <p>Fig. 7은 재 정의하다 결합도와 응집도를 하나의 그림으로 가시화한 것이다.</p> <p>클래스와 메소드간의 포함관계는 클래스 다이어그램 형태로 나타내었다. (1) 표시는 해당 메소드의 내부 응집도들의 가중치 값들을 모두 합한 수치, (2) 표시는 각 클래스 간에 결합도들의 가중치 값들을 모두 합한 수치이다.</p> <p>Fig. 8은 결합도만 가시화한 것이다. 타원형으로 표시해둔</p> <p>괄호 부분 내에서 8 은 총 결합도 수치이고, 꺾음 괄호 \( (<,>) \)사이에서 \( \mathrm{S} \) 는 스탬프 결합도 2개, \( \mathrm{M} \)은 공통결합도가 2개를 의미한다. 이외의 결합도 관계를 나타낸 다른 괄호 내에는 데이터 결합도 등 여러 개가 나와 있는 것을 보면 정상적으로 데이터가 추출됨을 알 수 있다.</p> <p>Fig. 9는 응집도만 가시화한 것이다. 결합도와는 다르게 클래스 간에 화살표가 없어 전체 그래프가 세로 혹은 가로로 길게 생성된다. 전체 그래프 중에서 Fig. 7에서 확대했던 ConnectionToServer 클래스만 확대 하였다. 클래스 내부의 메소드들이 있고 메소드 안에는 메소드 이름과 메소드 내 전체 응집도가 합산된 수치, 대괄호 내에는 어떤 응집도 종류가 해당되는지와 그 수치가 있다.</p>
|
파서마다 분석하여 \( \mathrm{DB} \) 에 저장하는 방법이 다르다는 단점을 극복하고자 연구에서는 SourceNavigator와 XCodeParser를 이용해 분석 하였고 과정에서 파서를 선택하면, 하단에 해당하는 파서의 클래스 다이어그램, 결합도와 응집도, 결합도만, 응집도만, 총 4개 라디오버튼들이 활성화된다. 추가로 소스네비게이터로 추출한 데이터만으로 객체지향 개념을 가시화하기에는 한계가 있서 Plug-in 형식으로 추가한 XCodeParser로 재 정의하다 결합도와 응집도를 추출하였다.
|
<h1>요 약</h1> <p>소프트웨어는 비가시적 특성과 기존 개발자들의 나쁜 코딩 습관인 중복된 코드 등이 많아 복잡도가 높아져 소프트웨어의 고품질화가 저해된다. 그러므로 개발자가 소스코드의 복잡도를 쉽게 자동 식별하는 코드 가시화가 필요하다. 이를 위해, 공개 소스 기반의 가시화 도구를 구축하였다. 특히 나쁜 코드 패턴들을 식별하기 위해, 다양한 파서를 plug- in하는 방법을 제안한다. 또한 객체지향 관점에 맞는 결합도와 응집도 재정의를 통해, 자유로운 패턴을 입력하여 개발자가 원하는 나쁜 패턴을 추출하고자 한다.</p> <h1>1. 서 론</h1> <p>SW 산업이 발전함에 따라 SW의 크기도 점차 커지고 있지만, 소프트웨어의 비가시성 때문에 특정 인원이나 조직이 개발과정 전반을 모두 파악하기 어렵다. SW 전반에 걸친 가시성 확보를 위한 SW 가시화가 필요하다. SW 가시화는 SW 개발과정에 대한 SW 엔지니어뿐만 아니라 SW 개발 경험이 없더라도 프로젝트 진척상황과 품질수준 파악이 쉬워진다.</p> <p>본 논문에서는 객체지향(JAVA) 언어의 소스코드 내 결합도와 응집도를 객체지향에 맞게 재 정의하고 예시코드를 통해 그래프로 가시화한다. 기존의 오픈소스인 소스네비게이터를 활용한 방법 외에 다른 파서를 이용하여 소스코드를 분석하여 활용할 수 있도록 구축한 시스템을 설명한다. 이를 통해 개발자가 원하는 파서를 사용하거나 여러 파서를 이용하여 가시화한 결과물에 대한 신뢰성을 높이고자 한다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서는 기존 툴체인과 파서의 종류, 코드 복잡도에 대해 설명하고, 3장에서는 객체지향관점에서 결합도와 응집도를 재 정의한다. 그리고 4장에서 다양한 파서(SourceNavigator와 XCodeParser)를 적용하여 구축한 파서 플러그인 툴체인 시스템에 대해 설명한다. 그리고 5장에서는 시스템을 활용한 결합도와 응집도 가시화를 소개하고, 마지막 6장에서 결론 순으로 언급한다.</p> <h1>2. 관련 연구</h1> <h2>2.1 기존 툴체인</h2> <p>기존 툴체인에서는 절차식 언어에서의 응집도와 객체지향식 언어에서의 응집도를 예시코드와 소스코드의 내부 흐름도로 가시화하여 비교하였다. 기존 툴체인에서는 응집도 가시화를 위해 아래와 같이 4개의 단계로 구성되었다.</p> <p>Code Input 단계에서는 타겟 소스코드를 오픈소스 코드 분석도구인 소스네비게이터에 입력한다. 이때, 타겟 소스코드는 객체지향 언어인 자바 기반 코드이다.</p> <p>Analysis, save DB 단계에서는 입력된 소스코드를 소스네비게이터로 분석한다. 분석 결과로는 * .cl, *.by *.lv 등과 같은 바이너리 파일이 생성된다. 이 파일들을 소스네비게이터의 DBdump로 정보를 추출하여 데이터베이스에 저장한다.</p> <p>Analysis Structure 단계에서는 데이터베이스에 저장된 정보를 툴체인의 정의에 따라 재해석하여 \( * . g \mathrm { v } \) 파일을 생성한다. 이 파일을 GraphViz에 입력한다.</p> <p>마지막으로, Visualization 단계에서는 이전 단계에서 재해석한 *.gv 파일을 GraphViz를 이용해 그래프로 가시화한다.</p> <p>기본적인 가시화를 위한 툴체인은 Fig. 1과 같이 수행되는 것이 올바른 순서이다. 하지만 기존 툴체인은 필요한 데이터 몇 가지를 찾을 수 없는 문제가 있다. 클래스 내부의 흐름을 나타낸 부분이 있는데 예를 들어, 변수를 메소드에 입력하고 return된 값을 다른 메소드나 제어문에 입력하고 return 받는 형태이다. 이 툴체인에서 사용한 파서인 소스네비게이터가 추출해 주는 분석데이터로는 필요한 return 값을 추출할 수 없었다.</p> <p>그래서 Fig. 2처럼 전체 소스코드 파일들을 다시 읽어), 소스코드 내에 return을 찾아내어, 소스네비게이터로부터 분석되어 저장된 데이터베이스 중 관련 필드에 추가해주는 방법으로 수행하였다.</p> <h2>2.2 다양한 파서의 종류</h2> <p>소스코드 분석을 위한 파서는 종류가 다양하다. 여러 종류의 소스코드들을 분석하여 다양한 형태로 추출해 준다. 파서 프로그램들의 예로는 오픈소스인 SourceNavigator, JavaParser, 자체제작 도구인 XCodeParser 등이 있다. Table 1은 파서의 종류와 특징이다.</p> <h2>2.3 코드 복잡도</h2> <p>코드 복잡도란 소프트웨어 프로그램의 복잡도를 측정하는 체계이다. 일반적으로 복잡도 메트릭을 통해 측정한 결과 수치가 높은 경우, 많은 에러가 발생할 가능성이 높아진다. 복잡도를 측정하는 방법으로는 LOC (Line of Code), 맥케이브 복잡도 메트릭(McCabe's complexity metrics), 할스테드 메트릭(Halstead's metrics), 결합도(Coupling), 응집도(Cohesion)등이 있다. 이들을 간단히 설명하면 다음 Table 2와 같다.</p>
|
소프트웨어에는 개발자가 소스코드의 복잡도를 쉽게 자동으로 구별하는 코드 가시화가 필요하다. 본 논문에서는 객체지향 언어의 소스코드 내의 결합도와 응집도를 객체지향에 맞게끔 다시 정의하고 예시코드를 통해서 그래프로 가시화한다. 기존 툴체인에서는 응집도의 가시화를 위해 4개의 단계를 구성하였다. 파서는 여러 가지의 소스코드들을 분석해서 다양한 형태로 추출한다. 코드 복잡도를 측정하는 방법으로는 \( \mathrm { LOC } \), 맥케이브 복잡도 메트릭, 할스테드 메트릭등이 있다.
|
<h1>II. 문제 설정 및 정문제</h1> <p>EIT에서 관심 도메인의 표면에 부착된 전극들을 통해 전류를 주입하고 이에 유기되는 전압을 측정한다. 정문제는 내부의 도전율 분포를 알고 있는 경우에, 경계면의 전극들을 통해 전류를 주입하고 이에 경계면에 유기되는 전압을 계산하는 과정이다. 이는 맥스웰 방정식으로부터 유도되는 Neumann형의 경계조건을 갖는 라플라스 방정식으로 기술된다. 본 논문에서는 완전전극 모델(complete electrode model)을 위한 Neumann형의 경계조건을 갖는 다음과 같은 지배방정식을 고려하였다.</p> <p>\( \nabla \cdot \frac { 1 } {\rho } \nabla u = 0 \quad \) in \( \Omega \)<caption>(1)<caption></p> <p>\( u + z_ {\ell } \frac { 1 } {\rho } \frac {\partial u } {\partial \nu } =U_ {\ell } \quad \text { on } e_ {\ell } , \ell=1,2, \cdots, L \)<caption>(2)<caption></p> <p>\( \begin {array} { l } \int_ { e_ { l } } \frac { 1 } {\rho } \frac {\partial u } {\partial \nu } d s=I_ {\ell } \text { on } e_ {\ell } , \ell=1,2, \cdots, L \\ \end {array} \)<caption>(3)<caption></p> <p>\( \begin {array} { l } \frac { 1 } {\rho } \frac {\partial u } {\partial \nu } =0 \quad \text { on } \partial \Omega \backslash \bigcup_ {\ell=1 } ^ { L } e_ {\ell } \end {array} \)<caption>(4)<caption></p> <p>여기서, \( \Omega \)와 \( \partial \Omega \)는 각각 관심 대상물의 도메인 영역과 그 도메인의 경계면을 나타내고, \( \rho \)는 저항률 분포, \( u \)는 전기 포텐셜, \( z_ {\ell } \)은 전극과 표면사이의 접촉지항(contact impedance), \( I_ {\ell } \) 와 \( U_ {\ell } \)은 각각 전극 \( e_ {\ell } \)을 통해 주입시킨 전류와 측정된 전압, \( \nu \)는 법선벡터, 그리고 \( L \)은 전극의 수를 나타낸다.</p> <p>본 논문에서는, 지배방정식 (1)의 해를 얻기 위해 수치적 방법인 유한요소법을 사용하였다. 관심 도메인을 유한개의 매우 작은 삼각형 원소들로 세분하고 각 원소 내의 저항률 값은 일정하다고 가정한다. 이로써, 정문제는 간단히 선형 방정식 \( A b=f \)로 공식화 할 수 있다. 여기서, \( A \in \mathbb { R } ^ {\left (N_ { n } + L-1 \right ) \times \left (N_ { n } + L-1 \right ) } \)는 저항률의 함수인 시스템 행렬, \( b \in \mathbb { R } ^ {\left (N_ { n } + L-1 \right ) \times 1 } \)는 정문제의 해이고, \( f \in \mathbb { R } ^ {\left (N_ { n } + L-1 \right ) \times 1 } \)는 주입전류의 함수로서 데이터 벡터, 그리고 \( N_ { n } \)은 총 노드(node)의 수이다.</p>
|
EIT는 관심 도메인의 표면에 전극을 부착, 전류를 주입하고 전압을 측정한다. 정문제는 알려진 도전율 분포로부터 경계면의 전압을 계산하며, 이는 Neumann형 경계조건을 가지는 라플라스 방정식으로 표현된다. 이러한 지배방정식의 해를 찾기 위해 본 연구에서는 유한요소법을 사용했다.
|
<h1>I. 서 론</h1> <p>EIT(electrical impedance tomography)는 대상물의 경계면에 부착된 여러 개의 전극들을 통해 전류를 주입하고 이에 유기되는 전압을 측정한 후, 이를 바탕으로 대상물 내부의 전자기적 특성 분포, 즉, 도전율 분포(conductivity distribution) 또는 저항률 분포(resistivity distribution)를 추정하고 이를 영상으로 복원하는 비교적 새로운 영상복원 기법이다. EIT는 측정 대상물에 대해 비파괴적인 방법으로 임피던스 추정이 가능하므로, 화공학, 지질학 및 재료공학 등에서 모니터링 도구로 주목받고 있다. 그리고 X-ray, MRI 등 다른 단층 촬영 기법에 비해 공간 해상도는 떨어지는 반면에, 시스템 설계비용이 저렴하고 인체에 무해하다. 특히, 측정 속도가 빨라 순간 해상도가 뛰어나고 임피던스 특성 파악이 가능하므로, 의공학 분야에서 흉부 모니터링 및 유방암 진단을 위한 보조장비로 사용되고 있으며, 앞으로 그 이용범위가 확대될 것으로 사료된다.</p> <p>EIT는 일반적으로 정문제(forward problem)와 역문제(inverse problem)로 구분되며, 정문제는 저항률 분포와 전류 데이터로부터 전압을 계산하는 과정으로 선형인 반면에, 역문제는 전류와 전압 데이터로부터 내부 저항률 분포를 추정하는 과정으로 비선형이다. 따라서 EIT에서 영상 복원에 사용되는 대부분의 역문제 알고리즘들은 반복(iterative) Gauss-Newton 방법과 같은 비선형 알고리즘들이다. 하지만 대상물 내부의 저항률 분포 또는 도전율 분포가 균질(homogeneous)에서 비균질(inhomogeneous)로의 변화율이 작다는 가정하에, 비선형 문제를 선형화하여 선형 알고리즘을 적용하는 경우도 있다. 그 예로, back-projection 알고리즘, NOSER 알고리즘과 linearization 알고리즘 등이 있다.</p> <p>EIT 역문제에서 전류-전압과 내부의 저항률 분포는 비선형 관계이므로, 각 전극사이의 전기저항(resistance)과 저항률 분포와의 관계도 비선형이다. 하지만, 관심 대상물 내부가 균질의 저항률 분포를 갖는 경우에, 등전위선(equipotential line)의 개념을 도입하면 선형 관계로 간주할 수 있다. 그리고 비균질의 저항률 분포인 경우에도 균질에서 비균질로 그 변화가 크지 않다고 가정한다면, 또한 비선형 관계를 선형 관계로 가정할 수 있다.</p> <p>따라서 본 논문에서는, 전극사이의 전기저항과 저항률 분포와의 관계를 선형으로 가정하고, 이 선형 관계로부터 가중행렬(weighting matrix)을 계산한 후, 수정된(modified) 반복(iterative) Landweber 알고리즘과 함께 적용하여 관심 대상물 내부의 저항률 분포를 추정하고자 한다.</p> <p>그리고 일반적으로 전형적인 Landweber 알고리즘은 일정한 상수값의 step length을 사용하지만, 본 논문에서는, 목적 함수를 최소화하는 최적의 step length를 찾아 제안된 알고리즘의 수렴시간을 줄이고 영상 복원의 정확도를 향상시키고자 한다. 이에 몇 가지 시나리오를 설정하고 모의실험을 통해 제안한 방법의 영상 복원 성능을 평가하였다.</p>
|
새 영상 복원 기법인 EIT는 대상의 경계에 여러 전극들을 부착 후 전류를 주입하여 전압을 측정, 내부의 전자기적 특성 분포를 확인한다. 전류 데이터와 저항률 분포로부터 전압 계산 과정인 선형의 정문제와, 전압 데이터와 전류로부터 내부 저항률 분포 추정을 진행하는 비선형의 역문제로 구분된다. 따라서 전극 사이 저항률 분포, 전기저항과 관계를 선형으로 가정 후 가중행렬을 계산하여 수정된 반복 Landweber 알고리즘 동시 적용 후 저항률 분포 추정할 계획이다. 본 논문에서 목적함수 최소화 진행을 위한 영상 복원 정확도 향상 및 제안된 알고리즘 시간 단축 진행 예정이다.
|
<h2>2. 반복 Landweber 방법</h2> <p>\(\mathrm{EIT}\)에서 반복 \(\mathrm{Gauss-Newton(GN)}\) 방법은 다른 역문제 알고리즘들과 비교해서 잔류 오차(residual error)와 수렴 속도(convergence rate) 면에서 비교적 좋은 성능을 나타내기 때문에, \(\mathrm{EIT}\) 역문제에서 주로 사용되는 전형적인 알고리즘은 \(\mathrm{GN}\) 방법인 반면에, 반복 \(\mathrm{Landweber(IL)}\) 방법은 주로 \(\mathrm{ECT}\)(electrical capacitance tomography)에서 사용되는 알고리즘이다. 여기서, \(\mathrm{ECT}\)란 전극에서 측정된 정전용량(capacitance)을 기반으로, 관심 대상물 내부의 전기 유전율(permittivity) 분포를 추정하고 이를 영상화하는 기법이다.</p> <p>일반적으로 \(\mathrm{GN}\) 방법을 \(\mathrm{ECT}\) 역문제에 또는 \(\mathrm{IL}\) 방법을 \(\mathrm{EIT}\) 역문제에 적용하는 경우에는 적절한 영상 복원 결과를 얻기가 어럽다. 즉, 후자의 경우, 자코비안(Jacobian)을 이용한 기존 방법에 따라 \(\mathrm{EIT}\) 역문제를 선형화한 후에 \(\mathrm{IL}\) 알고리즘을 적용시켰을 때, \(\mathrm{GN}\) 방법과 비교해 보면, 수렴속도가 떨어지고, 특히 복원된 영상의 정확도가 현저히 떨어진다.</p> <p>따라서 다음과 같이 목적함수 \( \Phi_{1}\left(\rho_{i}\right) \)를 공식화하고 이를 최소화함으로써, \(\mathrm{EIT}\)의 역문제를 풀 수 있다.</p> <p>\[ \Phi_{1}\left(\rho_{i}\right)=\frac{1}{2} \alpha_{i}\left\|R-W \rho_{i}\right\|^{2} \]<caption>(7)<caption></p> <p>여기서, \( \|x\|^{2}=x^{T} x \)이고, \( \alpha_{i} \)는 \( i \)번째 반복연산에서의 step length이다. \( \rho_{i} \)에 관하여 목적함수 \( \Phi_{1}\left(\rho_{i}\right) \)를 미분하면 다음과 같이 주어진다.</p> <p>\[ \nabla \Phi_{1}\left(\rho_{i}\right)=\alpha_{i} W^{T}\left(R-W \rho_{i}\right) \]<caption>(8)<caption></p> <p>따라서 다음과 같이 내부 저항률 분포를 추정하기 위한 \(\mathrm{IL}\) 방법을 얻을 수 있다.</p> <p>\[ \begin{aligned} \rho_{i+1} &=\rho_{i}+\nabla \Phi_{1}\left(\rho_{i}\right) \\ &=\rho_{i}+\alpha_{i} W^{T}\left(R-W \rho_{i}\right) \end{aligned} \]<caption>(9)<caption></p> <p>여기서, 적절한 step length \( \alpha_{i} \)에 따라 \(\mathrm{IL}\) 알고리즘의 성능이 좌우되는데, 일반적으로 \( \alpha_{i} \)는 일정한 상수, 즉, 1 또는 2의 값으로 설정하여 \(\mathrm{IL}\) 알고리즘을 반복 연산한다. 하지만 대부분의 경우에 있어서, step length를 수 값보다는 매 반복연산 과정마다 최적의 값으로 선택해 주면 더 나은 해상도의 영상을 얻을 수 있다.</p> <h2>3. 수정된 반복 Landweber 방법</h2></p>본 논문에서는 식 (7)의 목적함수에 저항률 분포 항을 추가하고, 최소자승법에 기반하여 매 반복연산마다 최적의 step length 값들을 자동으로 찾을 수 있도록 설정하였다. 따라서 매 반복연산마다 최적의 step length 값들이 선택됨으로써, \(\mathrm{IL}\) 알고리즘의 수렴속도가 증가하게 되고 국지적 최소치에 보다 빨리 도달하게 된다. 이에 목적함수 \( \Phi_{2}\left(\rho_{i}\right) \)를 다음과 같이 설정하고 이를 최소화 하여 역문제를 해결하고자 한다.</p> <p>\[ \Phi_{2}\left(\rho_{i}\right)=\frac{1}{2} \alpha_{i}\left\|R-W \rho_{i}\right\|^{2}+\frac{1}{2} \beta_{i}\left\|\rho_{i}\right\|^{2} \]<caption>(10)<caption></p> <p>여기서, \( \alpha_{i} \)와 \( \beta_{i} \)는 \( i \)번째 반복연산에서의 step length들로, \( \alpha_{i} \)와 \( \beta_{i} \)는 첫 번째 항목인 잔류 오차 항이 최소화 되도록 그리고 두 번째 항목인 저항률 오차가 최소화 되도록 각각 조정하는 역할을 하는 조정인자들이다. 반복횟수가 증가함에 따라 두 번째 조정인자 \( \beta_{i} \)의 값은 점점 작아질 것이며 결과적으로 몇 번의 반복연산 후에 제안한 알고리즘의 추정성능은 \( \beta_{i} \)에 비해 \( \alpha_{i} \)에 의해 지배될 것이다. \( \rho_{i} \)에 관하여 목적함수 \( \Phi_{2}\left(\rho_{i}\right) \)를 미분하면 다음과 같이 주어진다.</p> <p>\[ \nabla \Phi_{2}\left(\rho_{i}\right)=\alpha_{i} W^{T}\left(R-W \rho_{i}\right)+\beta_{i} \rho_{i} \]<caption>(11)<caption></p> <p>따라서 관심 대상물의 저항률 분포를 추정하기 위한 수정된(modified) 반복 \(\mathrm{Landweber(mIL)}\) 방법을 다음과 같이 얻을 수 있다.</p> <p>\[ \rho_{i+1}=\rho_{i}+\alpha_{i} W^{T}\left(R-W \rho_{i}\right)+\beta_{i} \rho_{i} \]<caption>(12)<caption></p> <p>식 (12)에서 매 반복연산 과정마다 \( i \)번째의 최적의 step length \( \alpha_{i} \)와 \( \beta_{i} \)를 찾기 위해 다음과 같은 목적함수를 설정한다.</p> <p>\[ \Phi_{3}\left(\rho_{i+1}\right)=\frac{1}{2}\left\|R-W \rho_{i+1}\right\|^{2} \]<caption>(13)<caption></p> <p>식 (12)를 식 (13)에 대입하고 정리하면 다음과 같다.</p> <p>\[ \Phi_{3}\left(\rho_{i+1}\right)=\frac{1}{2}\left\|e_{i}-\alpha_{i} W W^{T} e_{i}-\beta_{i} W \rho_{i}\right\|^{2} \]<caption>(14)<caption></p> <p>여기서, 잔류 오차 \( e_{i} \equiv R-W \rho_{i} \)이다. 따라서 식 (14)에서 각각 \( \alpha_{i} \)와 \( \beta_{i} \)에 관하여 목적함수를 미분하고 그 미분치를 0으로 설정하면 \( i \)번째의 step length \( \alpha_{i} \)와 \( \beta_{i} \)를 구할 수 있다.</p> <p>\[ \frac{\partial \Phi_{3}}{\partial \alpha_{i}}=-\left(W W^{T} e_{i}\right)^{T}\left(e_{i}-\alpha_{i} W W^{T} e_{i}-\beta_{i} W \rho_{i}\right)=0 \]<caption>(15)<caption></p> <p>\[ \frac{\partial \Phi_{3}}{\partial \beta_{i}}=-\left(W \rho_{i}\right)^{T}\left(e_{i}-\alpha_{i} W W^{T} e_{i}-\beta_{i} W \rho_{i}\right)=0 \]<caption>(16)<caption></p> <p>마지막으로, 식 (15)와 식 (16)을 정리하면 다음과 같다.</p> <p>\[ \left[\begin{array}{cc} \left(W W^{T} e_{i}\right)^{T} W W^{T} e_{i} & \left(W W^{T} e_{i}\right)^{T} W \rho_{i} \\ \left(W \rho_{i}\right)^{T} W W^{T} e_{i} & \left(W \rho_{i}\right)^{T} W \rho_{i} \end{array}\right]\left[\begin{array}{c} \alpha_{i} \\ \beta_{i} \end{array}\right]=\left[\begin{array}{c} \left(W W^{T} e_{i}\right)^{T} e_{i} \\ \left(W \rho_{i}\right)^{T} e_{i} \end{array}\right] \]<caption>(17)<caption></p> <p>또는 좀 더 간략하게 다음과 같이 표현할 수 있다.</p> <p>\[ c_{i}=\left(D_{i}^{T} D_{i}\right)^{-1} D_{i}^{T} e_{i} \]<caption>(18)<caption></p> <p>여기서, \( D_{i} \equiv\left[\begin{array}{lll}W W^{T} e_{i} & W \rho_{i}\end{array}\right] \)이고 \( c_{i} \equiv\left[\begin{array}{ll}\alpha_{i} & \beta_{i}\end{array}\right]^{T} \)이다.</p> <h2>4. 복원 성능 지표 및 수렴 조건</h2> <p>제안한 방법의 복원 성능을 정량적으로 평가하기 위해 다음과 같이 상대적 영상오차(relative image error, \(\mathrm{IE}\))와 상관계수(correlation coefficient, \(\mathrm{CC}\))를 정의하고 복원 성능을 평가하는 지표로 사용한다.</p> <p>\[ \begin{array}{l} I E_{i}=\frac{\left\|\rho-\hat{\rho}_{i}\right\|}{\|\rho\|} \\ \end{array} \]<caption>(19)<caption></p> <p>\[ \begin{array}{l} C C_{i}=\frac{\sum_{j=1}^{N}\left[\left(\rho_{j}-\bar{\rho}\right)\left(\hat{\rho}_{j, i}-\overline{\hat{\rho}_{i}}\right)\right]}{\sum_{j=1}^{N}\left(\rho_{j}-\bar{\rho}\right)^{2} \sum_{j=1}^{N}\left(\hat{\rho}_{j, i}-\overline{\hat{\rho}_{i}}\right)^{2}} \end{array} \]<caption>(20)<caption></p> <p>여기서, \( \rho \)와 \( \hat{\rho}_{i} \)은 각각 원래 저항률 분포와 \( i \)번째 추정된 저항률 분포를 의미하고, \( \bar{\rho} \)와 \( \overline{\hat{\rho}_{i}} \)는 각각 \( \rho \)와 \( \hat{\rho}_{i} \)의 평균값을 나타낸다. 따라서 \(\mathrm{IE}\) 값은 작을수록 그리고 \(\mathrm{CC}\) 값은 클수록 우수한 복원 성능을 나타낸다.</p> <p>그리고 현 단계와 이전 단계의 영상오차의 차이를 사용하여 제안한 알고리즘의 수렴 조건을 다음과 같이 설정하고자 한다.</p> <p>\[ \left\|I E_{i}-I E_{i-1}\right\|<\epsilon \]<caption>(21)<caption></p> <p>여기서, \( \epsilon \)은 특정한 아주 작은 양수(positive number)로, stopping criterion이다. 본 논문에서는 stopping criterion \( \epsilon \)를 \( \epsilon=10^{-3} \)으로 두고, 식 (21)의 수렴 조건을 만족할 때까지 \(\mathrm{GN}\) 방법과 제안한 \(\mathrm{mIL}\) 방법에 대해 각각 반복 연산을 수행한다.</p>
|
본 본문에서는 EIT 역문제에서 반복 Gauss-Newton(GN) 방법이 가장 일반적으로 사용되는 반면, ECT(electrical capacitance tomography)에서는 반복 Landweber(IL) 방법이 주로 사용된다. GN 방법을 ECT 역문제에 적용하거나 IL 방법을 EIT 역문제에 적용하는 경우, 수렴속도가 떨어지고 복원된 영상의 정확도가 떨어진다. 목적함수 \( \Phi_{1}\left(\rho_{i}\right) \)를 공식화하고 이를 최소화함으로써 EIT 역문제를 풀 수 있고, 이를 통해 내부 저항률 분포를 추정하기 위한 IL 방법을 얻을 수 있다.GN 방법이나 IL 방법을 ECT, EIT 역문제에 적용하는 경우 적절한 영상 복원 결과를 얻어내기가 어렵다. 그래서 이를 최소화함으로써 EIT의 역문제를 풀 수 있다고 한다. 또한, 목적함수\(\Phi\)를 수정시킨 Landweber에 적용시켜 관심 대상물의 저항률 분포를 추정할 수 있게 된다. 그리고 이러한 방법의 복원 성능을 평가하기 위해 상대적 영상오차와 상관계수를 정의하고 복원 성능을 평가하는 지표로 사용한다. 그렇게 함으로써 복원 성능 지표 및 수렴 조건을 설정하여 얻어낸다.
|
<h1>Ⅲ. 역문제 및 영상 복원 알고리즘</h1> <h2>1. 전기저항과 저항의 분포와의 관계</h2> <p>일반적으로 EIT 역문제는 전극을 통해 주입시킨 전류와 측정된 전압 데이터로부터 내부 저항률 분포를 추정하는 과정으로 비선형이다. 따라서 전형적인 EIT 역문제는 전압 데이터와 저항률 분포의 비선형 관계를 선형화하여 푼다.</p> <p>하지만 본 논문에서는 식 (3)의 주입 전류와 식 (2)의 측정 전압을 사용하여 먼저 전극사이의 독립적인(independent) 전기저항을 계산하고, 전기저항과 저항률 분포와의 비선형 관계를 선형화하여 역문제를 풀고자 한다.</p> <p>우선, 도메인의 경계면에 \( k \)번째 전류 \( I^{k} \in \mathbb{R}^{L \times 1} \)를 주입하면 이에 유기되는 전압 데이터 \( U^{k} \in \mathbb{R}^{L \times 1} \)가 전극에서 측정된다. 그리고 \( i \)번째 전극과 \( j \)번째 전극사이의 전압차를 \( U_{i, j}^{k} \)라 두면 \( U_{i, j}^{k}=-U_{j, i}^{k} \)이므로, 독립적인 전압 데이터 \( U_{a u g}^{k} \in \mathbb{R}^{L \times M} \)인 성긴 행렬(sparse matrix)을 얻을 수 있다. 여기서, \( M \)은 독립적인 데이터의 수로, \( M=L(L-1) / 2 \)이다. 이 과정을 전류 패턴의 수 \(K\)만큼 반복하면 옴의 법칙(Ohm's law)으로부터 다음의 관계식을 얻을 수 있다.</p> <p>\( U G=I \quad \) or \( \quad G=U^{+} I \)<caption>(5)<caption></p> <p>여기서, \( U \in \mathbb{R}^{L K \times M}, I \in \mathbb{R}^{L K \times 1} \)이고, \( G \in \mathbb{R}^{M \times 1} \)는 전극사이의 컨덕턴스(conductance)로, 전기지항 \( R \)의 역수이고, \( + \)는 pseudo-inverse를 의미한다. 따라서 식 (5)로부터, \( R=1 / G \)의 관계에 의해 전극사이의 전기저항을 계산할 수 있다.</p> <p>그리고 EIT에서 전극사이의 전기저항과 내부의 저항률 분포와의 관계는 비선형이지만, 균질의 저항률 분포를 갖는 경우에 선형 관계로 간주할 수 있고, 비균질의 저항률 분포인 경우에도 그 변화율이 크지 않다는 가정 하에, 선형 관계로 간주할 수 있으므로, 다음과 같은 선형 방정식을 얻을 수 있다.</p> <p>\( R=W \rho \)<caption>(6)<caption></p> <p>여기서, \( \quad R \in \mathbb{R}^{M \times 1} \)은 전극사이의 전기저항이고, \( W \in \mathbb{R}^{M \times N} \)는 가중행렬로, 인접한 등전위선간의 보간법(interpolation)을 기반으로 계산할 수 있으며 보다 자세한 계산과정은 참고문헌을 참조하고 본 논문에서는 계산과정을 생략한다. 그리고 \( \rho \in \mathbb{R}^{N \times 1} \)는 내부의 저항률 분포이고 \( N \)은 도메인 내부의 원소수이다.</p>
|
일반적으로 EIT 역문제는 전극을 통해 주입시킨 전류와 측정된 전압 데이터로부터 내부 저항률 분포를 추정하는 비선형 과정이다. 본 논문에서는 주입 전류와 측정 전압을 사용하여 전극사이의 독립적인 전기저항을 계산하고, 전기저항과 저항률 분포간의 비선형 관계를 선형화하여 역문제를 풀고자 한다. 전극사이의 저항과 저항률 분포와의 관계는 비선형이지만, 저항률 분포가 균질하다면 선형 관계로 간주할 수 있고, 저항률 분포가 비균질해도 변화율이 크지 않다는 전제 하에 선형 관계로 볼 수 있어서 선형 방정식을 구할 수 있다.
|
<h1>IV. 모의실험</h1> <p>본 논문에서 제안한 알고리즘의 성능을 평가하기 위해 몇 가지 시나리오를 설정하고 모의실험을 수행하였다. 그리고 그 결과에 대해 전형적인 EIT 알고리즘인 GN 방법과 비교분석하였다.</p> <p>관심대상을 원형 도메인으로 간략히 모델링하였고, 원형 도메인 내부의 저항률 분포를 묘사하기 위해, 서로 다른 두 개의 유한요소 메쉬를 사용하였다. 즉, 정문제를 풀기 위한 조밀한 메쉬(fine mesh)와 역문제를 해결하기 위한 성긴 메쉬(coarse mesh)를 각각 사용하였다. 여기서 서로 다른 메쉬를 사용한 이유는 inverse crime을 피하기 위함이다.</p> <p>인접 방법(adjacent method)에 의한 전류 패턴을 반지름 \( 4 \mathrm{cm} \)인 원형 도메인의 16개 전극에 주입하였고, 이때 사용된 전류의 크기는 \( 10 \mathrm{mA} \)이다. 그리고 도메인 내부의 배경의 저항률 값은 \( 300 \Omega \mathrm{cm} \)이고 표적의 저항률 값은 \( 600 \Omega\mathrm{cm} \)라고 가정하였다. 그리고 정문제에서는 그림 1(a)와 같이 조밀한 메쉬를 사용하여 경계면에 유도되는 전압 데이터를 계산하였고, 역문제에서는 그림 1(b)와 같이 성긴 메쉬를 사용하여 내부 저항률 분포를 추정하였다. 그리고 본 논문에서 고려된 잡음은 영-평균 가우시안 잡음(Gaussian noise)으로, 계산 전압에 상응하는 \( 1 \% \)의 상대적 잡음을 전압 데이터에 추가하였다. 또한 GN 방법에 필요한 조정 파라미터 값은 \( 10^{-7} \)으로 선정하였다.</p> <p>제안한 알고리즘의 영상복원 성능을 테스트하기 위해 세 가지의 시나리오를 고려하였다. 첫 번째 시나리오는 도메인 내부의 중앙에 표적이 한 개 존재하는 경우이고, 두 번째는 표적이 두 개 존재하는 경우이며, 세번째는 표적이 세 개 존재하는 경우를 선정하였다.</p> <p>그림 2에서는 첫 번째 경우에 대한 원래 영상과 수렴 조건에 따라 반복연산 후에 복원된 영상을 보여주고 있다. 그림 2(a)는 중앙에 한 개의 표적이 존재하는 원래 영상이고, 그림 2(b)는 GN 방법을 사용하여 15번 반복 연산 후에 복원된 영상이며, 그림 2(c)는 제안한 방법인 mIL 방법을 사용하여 3번 반복연산 후 얻어진 복원 영상을 나타낸다.</p> <p>일반적으로 EIT에서 인접 전류 패턴을 사용하는 경우에, 도메인의 경계면에서는 민감도가 우수한 반면에 중앙에서는 민감도가 떨어지는 것으로 알려져 있다. 첫번째 시나리오에있어서, GN 방법에 의해 복원된 영상에서 배경의 저항률 분포를 보면 다소 균질하지 않음을 알 수 있다. 이는 측정 잡음에 기인한다. 하지만 mIL 방법에 의해 복원된 영상에서는 배경의 저항률 분포가 전체적으로 균질하다는 것을 알 수 있다. 그리고 중앙에 위치한 표적의 복원 영상, 특히 추정된 표적의 저항률 값을 보면, GN 방법보다 mIL 방법이 더 나은 정확도를 제공하고 있음을 확인할 수 있다.</p> <p>그림 3은 두 번째 시나리오에 대한 원래 영상과 수렴 조건에 따라 반복연산 후의 복원 영상을 보여주고 있다. 그림 3(a)는 한 개의 표적은 가운데 근처에, 다른 하나는 경계면 근처에 존재하는 경우에 대한 원래 영상이고, 그림 3(b)는 GN방법을 사용하여 8번 반복연산 후 얻어진 복원 영상이며, 그림 3(c)는 mIL 방법을 사용하여 10번 반복연산 후에 복원된 영상을 나타낸다.</p> <p>두 번째 시나리오에 있어서도 첫 번째 경우와 마찬가지로, GN 방법에 의한 복원 영상에서 배경의 저항률 분포가 균질하지 않은 영역이 나타나고 있고, 복원 영상의 정확도 측면에서도 GN 방법의 복원 영상에서는 두 표적 모두 다소 퍼져 보이는 반면에 mIL 방법의 복원 영상에서는 표적들의 원래 위치를 대체적으로 정확히 추정하고 우수한 해상도를 보여주고 있다.</p> <p>그림 4는 세 번째 시나리오에 대한 원래 영상과 수렴 조건에 따라 반복연산 후의 복원 영상을 보여주고 있다. 그림 4(a)는 세 개의 표적들이 존재하는 경우에 대한 원래 영상이고, 그림 4(b)는 GN 방법을 사용하여 17번 반복연산 후에 복원된 영상이며, 그림 4(c)는 mIL 방법을 사용하여 14번 반복연산 후에 복원된 영상을 나타낸다.</p> <p>그림 4에서 보는 바와 같이, GN 방법의 복원 영상에서는 세 개의 표적 중에서 서로 인접한 두 개의 표적이 마치 하나의 커다란 표적인 것처럼 복원된 반면에 mIL 방법의 복원 영상에서는 표적들의 원래 위치를 대체적으로 잘 추정하고 있으며 우수한 복원의 정확도를 보여주고 있을 뿐만 아니라 배경의 균질한 저항률 분포도 확인할 수 있다.</p> <p>세 가지 시나리오에 대해 수렴 조건을 고려하지 않고 두 방법을 50번 반복연산한 후에, 반복 횟수에 따른 IE와 CC를 그림 5에 도시하였다. 선 \( \triangle \)와 선 \( \bigcirc \)는 각각 GN 방법과 mIL 방법을 나타낸다. 그림 2로부터 그림 4까지의 복원된 영상에서 예상되는 바와 같이, 그림 5에서 반복 횟수가 증가할수록 제안한 알고리즘의 수렴 속도가 훨씬 빠르고, GN 방법보다 mIL 방법이 더 작은 IE 값과 더 큰 CC 값을 보여주고 있다. 이는 제안한 방법이 GN 방법과 비교해서 우수한 복원 성능을 제공한다는 의미이다.</p> <p>그리고 그림 6은 세 가지 시나리오에 대해 50번의 반복연산 후에, 반복 횟수에 따른 step length \( \alpha_{i} \)와 \( \beta_{i} \)의 값들을 나타내고 있다. 예상한 바와 같이, 반복 횟수가 증가함에 따라 \( \beta_{i} \)의 값은 점점 작아지고 있고 \( \alpha_{i} \)의 값은 일정한 범위에서 반복되고 있다. 이는 몇 번의 반복 연산 후에 제안한 알고리즘의 추정성능은 \( \beta_{i} \) 보다는 \( \alpha_{i} \)에 의해 지배되고 있음을 보여준다.</p>
|
첫 번째, 도메인 내부의 중앙에 표적이 한 개 존재하는 경우, 두 번째, 표적이 두 개 존재하는 경우, 세 번째, 표적이 세 개 존재하는 경우 이렇게 세 가지의 시나리오를 고려하였다. 첫 번째와 두 번째 시나리오의 경우, GN 방법에 의해 복원된 영상에서 배경의 저항률 분포를 보면 다소 균질하지 않음을 알 수 있었으나, 두 번째 시나리오의 경우 mIL 방법의 복원 영상에서는 표적들의 원래 위치를 대체적으로 정확히 추정하고 우수한 해상도를 보여주고 있다. 세 번째 시나리오의 경우, GN 방법의 복원 영상에서는 세 개의 표적 중에서 서로 인접한 두 개의 표적이 마치 하나의 커다란 표적인 것처럼 복원된 반면에 mIL 방법의 복원 영상에서는 표적들의 원래 위치를 대체적으로 잘 추정하고 있으며 우수한 복원의 정확도를 보여주고 있을 뿐만 아니라 배경의 균질한 저항률 분포도 확인할 수 있다.
|
<h1>요약</h1> <p>본 연구에서는 초소형화의 욕구와 고밀도의 내실을 동시에 충족시킬 수 있으며 전자 장해를 발생하지 않는 일체형 인덕터 코어를 개발하기 위한 방법의 하나로 고전류인가에 따른 인덕터의 전자장 특성을 분석하고자하였다. 분석 결과, 인덕터 내부에서는 전자장이 크게 발생하였지만 인덕터 표면에 나타나는 자장분포 값은 매우 미약하여 주위의 다른 전자 부품에 영향을 미칠 정도는 아니었으며, 표면을 벗어나면 그 값은 순식간에 거의 \(0[ \mathrm { T } ] \)로 작아지고 있기 때문에 일체형 인덕터를 이용하여 회로를 구성하였을 때 다른 전자 부품들에 대한 전자 장해는 발생하지 않을 것으로 생각된다. 이 결론은 일체형 인덕터 개발에 많은 영항을 미칠 것이며, 특히 인덕터 코어의 특성 분석 및 신뢰도 향상에 많은 도움이 될 것으로 예상된다.</p> <h1>Ⅰ. 서론</h1> <p>인쇄회로 기판(PCB : Printed Circuit Board)공정에서 주로 사용되는 표면 실장 기술(SMT:Surface Mount Technology)은 인쇄회로 기판위에 납을 인쇄하여 그 위에 각종 표면실장장비(SMD: Surface Mount Device) 부품을 장착한 후, Reflow을 통과시켜 PCB와 전자부품의 리드간을 접합하는 기술이다.</p> <p>인쇄 기판의 표면에 실장하는 전자 부품을 일컫는 표면실장장비는 표면 실장 기술을 이용하여 인쇄 기판의 한면 또는 양면에 상이한 부품을 실장 할 수 있을뿐더러 기판에 탑재할 수 있는 부품의 수도 증가하고 있어서 고밀도의 실장이 점점 가능하여지고 있다. 또한, 표면 실장 기술을 통해 PC의 가용면적을 5분의 1까지 줄일 수 있어 일반 가전제품이나 휴대폰 등의 단말기 제조과정에서 요구되는 경박 단소화를 이룰 수 있으며 고밀도 실장으로 총비용도 줄일 수 있는 장점을 가지고 있다.</p> <p>최근에 이르러 표면실장장비 부품은 크기는 작아지는 반면에 용량은 커지는 소형, 대용량화 추세에 있으며, 이중 인덕터의 경우는 전 세계시장 규모가 2000년 약 55억만개에서 2008년 현재 배에 가까운 신장을 보이고 있다. 특히, 인덕터는 최근에 이르러 \(20[ \mathrm { A } ] \)의 대전류에도 견딜 수 있는 제품의 개발을 요구하고 있으며, 이와 같은 대용량에도 불구하고 다른 부품이나 장비에 영향을 미치지 않는 특성을 요구하고 있다. 이에 관련 업체에서는 요구하는 특성을 만족하기위하여 일체형 방식으로 개발 방법을 바꾸고 있으며 전자 장해에도 견실하게 동작할 수 있는 인덕터의 개발에 관심을 기울이고 있다.</p> <p>따라서 본 연구는 초소형화의 욕구와 고밀도의 내실을 동시에 충족시킬 수 있으며 전자 장해를 발생하지 않는 일체형 인덕터 코어를 개발하기 위한 방법의 하나로 전류인가에 따른 인덕터의 전자장 특성을 분석하고자한다.</p>
|
PCB공정에서 사용되는 SMT는 인쇄회로 기판 위에 납을 만들어서 SMD 부품을 장착하고 reflow를 통과시켜서 리드를 접합하는 기술이다. 인덕터는 최근에 대전류를 견딜 수 있는 제품 개발을 필요로 하고 있으며 다른 장비에 영향을 미치지 않는 특성이 필요하다. 따라서 본 연구는 초소형화, 고밀도이면서 전자 장해를 발생하지 않는 코어를 개발하기 위해 인덕터의 전자장 특성을 분석하였다. 인덕터 내부의 전자장은 크지만 표면의 자장분포는 미약해서 다른 부품에 영향을 주지 않는 것을 확인하였다.
|
<h1>Ⅳ. 전자장 해석</h1> <h2>1. 해석 조건 설정</h2> <p>전자장은 전기장과 자기장의 합성어로서 전기장은 전기를 띈 물체 및 전자 등에 힘을 작용시키는 장으로서 전기를 사용하는 모든 물체로부터 정전하 주위에 발생된다. 전기장은 발생원으로부터 수직방향으로 발생하는데 사람이나 나무, 건물 등에 의하여 쉅게 제거된다. 이에 반해 자기장은 발생원을 중심으로 원형으로 형성되는 특성을 가지고 있으며, 나무나 사람과 같은 어떤 물체에 의해 쉽게 제거 혹은 약해지지 않는 특성을 가지고 있다. 전자기장은 전하나 자기의 운동에 의해 야기되는 공간의 상태이지만, J.C.맥스웰은 이와 같은 특수한 공간의 장을 그 발생원인 전하나 자기에서 분리된 독립적인 물리적 존재로 취급하고, 1864년 전기장\(\cdot\)자기장의 상호관계를 조사하여 전자기장이론을 세웠다.</p> <p>일체형 방식의 인덕터 코어는 초소형이면서 초경량인\(6.6[\mathrm{mm}] \times 6.6[\mathrm{mm}] \times 4[\mathrm{mm}] \)의 크기를 대상으로 하였으며, 코일의 비투자율이 35이고, 턴수를 4.5로 하였을 때 각각 인가되는 전류를 \( 1\), \(10\), \(20\), \(30[\mathrm{A}] \)로 가정하여 전자장을 해석하였다. 그림 3과 같이 인덕터의 구조는 좌우 대칭의 일체형 구조로 되어있으며, 내부에 권선을 원통형으로 감아서 삽입한 후 단자와 접합하여 코어를 형성하게 된다. 따라서 인덕터의 대칭 구조에서 왼쪽 부분을 대상으로 하여 해석이 이루어졌다. 또한, 권선 코일이 위치하는 높이를 자장해석영역 \( 0 \mathrm{mm} \)로 설정하였으며, 인덕터의 하단영역을 자장해석영역 \( -2 \mathrm{mm} \)로 각각 설정하였다.</p> <h2>2. 해석 결과</h2> <h3>2.1 인덕터 내부의 해석</h3> <p>그림 4에서 7까지는 각각 \( 1[\mathrm{A}]\), \(10[\mathrm{A}]\), \(20[\mathrm{A}]\), \(30[\mathrm{A}] \)를 인가했을 때 인덕터 내부에 발생하는 자장의 벡터도로서 전류가 인가되는 권선 주위로 자장이 형성되는 것을 볼 수 있다. 이때 권선이 속해있는 네모 박스부분을 중심으로 가장 큰 자장이 형성되고 있으며, 인덕터의 끝부분으로 가면서 그 크기는 급격히 작아지고 있다. 최대 인가전류 \( 30[\mathrm{A}] \)의 경우에 권선부분에 나타나는 자장벡터는 \( 1.178[\mathrm{T}] \)이지만 인덕터의 끝부분에서는\( 0.033[T] \) 정도로 아주 미약하게 형성되고 있다. 그림 8은 그림 4에서 7까지 나타난 결과에서 인가된 전류값이 \( 1[\mathrm{A}] \)에서 \( 30[\mathrm{A}] \)로 상승하면서 나타난 자장의 크기를 도시한 것으로, 전류 상승에 따라 직선적으로 인가 전류에 비례하는 양상을 나타내고 있다.</p> <p>그림 4에서 7까지의 방향성을 갖는 자장 벡터의 크기와 그림 9에서 13까지의 자장분포와의 크기를 비교해보면 자장 분포의 값이 크게 형성되는 것을 확인할 수 있다. 이것은 그림 4의 경우에서 가장 큰값을 보이고 있는 벡터량(\( 0.035022[\mathrm{T}] \)와 \( 0.039261[\mathrm{T}] \))의 중첩분을 합성해서 계산해보면 \( 0.074283 [\mathrm{T}]\)으로 그림 9와 같이 자장 분포의 값인 \( 0.077173[\mathrm{T}] \)과 유사하게 나오고 있음을 알 수 있다. 또한, 같은 방법으로 최대 인가전류인 그림 7의 경우에서 가장 큰값을 보이고 있는 벡터량(\(1.178[\mathrm{T}]\)와 \( 1.051[\mathrm{T}] \))의 중첩분을 합성해서 계산해보면 \( 2.229[\mathrm{T}] \)으로 그림 12와 같이 자장 분포의 값인 \( 2.315[\mathrm{T}] \)와 유사하게 나오고 있음을 알 수 있다.</p> <h3>2.2 인덕터 주위의 해석</h3> <p>그림 13에서부터 그림 16까지는 인덕터 주위에 형성 되는 자장 분포를 살펴보았다. 인덕터 표면의 경계면에서는 그림 13에서와 같이 \( 1[\mathrm{A}] \)인가시에는 \( 0.001922[\mathrm{T}] \)이고, 그림 16에서와 같이 \( 30[\mathrm{A}] \)인가시에는 \( 0.057669[\mathrm{T}] \)로 형성되고 있다. 표면에 나타나는 자장분포 값은 매우 미약하여 주위의 다른 전자 부품에 영향을 미칠 정도는 아니었으며, 표면을 벗어나면 그 값은 거의 0에 가깝게 작아지고 있다.</p> <p>그림 17은 권선 코일이 위치하는 높이인 자장해석영역 \( 0 \mathrm{mm} \)에 대한 자장 분포로서, 인덕터 표면에서부터 거리에 따라 변화하는 분포를 살펴보았다. 그림 17의 결과에서 1영역과 2영역을 구분하여 확대한 그림이 그림 18과 19이다.</p> <p>그림 18에서와 같이 최대 크기를 형성하는 인가 전류 \( 30[\mathrm{A}] \)의 경우, 인덕터 표면에서 약 \( 0.14[\mathrm{T}] \)의 자장이 분포되지만 표면을 지나 \( 1[\mathrm{mm}] \)이내에서 거의 \( 0[\mathrm{T}] \)로 작아지고 있다.</p> <p>그림 20은 인덕터의 하단영역인 자장해석영역 \( -2 \mathrm{mm} \)에 대한 자장 분포로서, 인덕터 표면에서부터 거리에 따라 변화하는 분포를 살펴보았다. 그림 20에서 1영역과 2영역을 구분하여 확대한 그림이 그림 21과 22이다. 그림 21에서와 같이 최대 크기를 형성하는 인가 전류 \( 30[\mathrm{A}] \)의 경우, 인덕터 표면에서 약 \( 0.0047[\mathrm{T}] \)의 미약한 자장이 분포되고 있으며 표면을 지나면서 \( 0[\mathrm{T}] \)로 작아지고 있다.</p>
|
J.C.맥스웰은 전하나 자기의 운동에 의해 야기되는 공간의 상태인 전자기장을 전하나 자기에서 분리된 물리적 존재로 취급하고 전기장과 자기장의 상호관계를 연구해 전자기장 이론을 세웠다. 본 논문에서는 초소형 및 초경량인 일체형 방식의 인덕터 코어를 선택하고, 코일의 비투자율을 35, 턴수를 4.5로 하고 각각 인가되는 전류를 \( 1\), \(10\), \(20\), \(30[\mathrm{A}] \)로 가정하여 전자장을 해석하였다. 인덕터 내부에서는 전류가 인가된 권선 주위로 자장이 형성되었고, 인가된 전류가 상승할수록 자장의 크기가 직선적으로 전류에 비례하는 양상을 보였다. 인덕터 주위에서는 표면에 나타난 자장분포 값이 매우 미약하여 다른 전자 부품에 영향을 미칠 정도가 아니었고, 표면을 벗어나면 자장분포 값이 거의 0에 가깝게 작아지는 양상을 보였다.
|
<h1>Ⅱ. Inductor Core</h1> <p>최근에 이르러 인덕터 코어는 컴퓨터의 메인 보드, 디지털 오디오 앰프와 DVD(Low Pass Filter), PDP TV(PFC Filter), Battery Charge(Choke Coil) 등에 많이 이용되고 있다. 인덕턴스는 인덕터의 가장 중요한 특성으로서 권선으로 흐르는 전류와 권선과 쇄교하는 자속수와의 비로 정의되는 양으로써 권선으로 흐르는 전류의 시간 변화량과 권선 양단에 발생하는 기전력의 비로 표시된다. 인덕턴스의 값은 코어를 사용했을 경우 권선에 인가되는 전류에 의해 발생한 자속이 코어내부로 들어가게 되는 구조이면 계산에 의해 간단히 구할 수 있다. 코어에 감은 코일의 인덕턴스는 코어재의 투자율이 어느 주파수를 넘으면 낮게 나타나고, 동시에 손실도 증가하게 된다. 그 투자율이 저하하기 시작하는 주파수는 투자율에 반비례 하고 있기 때문에 인덕터를 공진회로에 사용할 경우에는 비교적 투자율이 낮고 사용 주파수 내에서는 투자율이 일정한 재질 코어를 사용해야 한다. 한편, 고주파 전류를 저지하는 초크 코일로서 인덕터를 사용할 경우에는 인덕터스의 절대값은 그다지 문제가 되지 않으므로 비교적 높은 투자율의 재질인 코어를 사용할 수 있다.</p> <p>일체형 방식의 인덕터 코어는 드럼 모양을 한 FERRITE CORE에 특성에 맞게 기존에는 코일에 LEAD를 부착하여 사용 하던 것을 각종 휴대기기의 대두로써 시장의 소형이면서 경량에 대한 요구에 맞게 전극을 부착하여 그림 1과 같이 칩화한 것이다.</p> <h1>Ⅲ. 인덕터의 전기적 특성</h1> <p>일체형 방식의 인덕터 코어는 \(100 \) \([ \mathrm { KHz } ] \), \(1[ \mathrm { V } ] \)에서 표면 저항값이 \( 0.3[ \mathrm { M \Omega } ] \)이상이 되어야하고, 전류를 가변하여 최악의 조건인 \( 30[ \mathrm { A } ] \)까지 인가하였을 때 표면온도가 \(95[ ^ {\circ } \mathrm { C } ] \) 이하로 하여 신뢰성 있는 제품이 되어야 한다. 이때 온도 측정은 인덕터 자체로부터 \( 1/2 \) 인치의 거리에서 측정되어야한다. 일체형 방식의 인덕터 코어의 특성인 인덕턴스와 온도의 측정은 매우 민감한 사항으로서 인가되는 전압과 주파수에 따라서 급격한 변화를 일으키게 된다. 또한, 대용량화 추세에 따른 내부의 고밀도실장은 외부의 조건에 따라서 예측하기 어려운 데이터를 산출할 수 도 있다. 따라서 측정 장치는 항온 항습의 조건을 갖춘 곳에서 시험이 이루어져야 하며, 측정 장치는 외부의 잡음을 최대한 차단할 수 있도록 해야 한다.</p> <p>인덕터에 있어서 전력 소모의 두 가지 주요 요인은 권선 손실과 코어 손실로서 권선 손실에는 표면 효과(Skin Effect)와 근접 효과(Proximity Effect)로 인한 DC I2R 손실과 AC 손실이 포함된다. 표면 효과 손실은 이동하는 전하가 고주파에서 도체를 통과할 수 없을 때 발생한다. 따라서 유효 구리 단면이 감소하고 AC 전류에 대한 저항이 증가한다. 근접 효과 손실은 권선에서 감긴 각 와이어가 인접하여 감긴 와이어와 상호작용하면서 발생하는 자기장으로부터 발생한다. 이러한 자기장은 각 권선에서 전류의 분포에 영향을 미치고 전류 밀집현상(Current Crowding)을 발생시키며, 이는 다시 권선의 유효 AC 저항을 증가시킨다. 표면 깊이(Skin Depth) 효과는 여러 개의 얇은 연선이 번들로 감긴 리츠 와이어를 사용할 경우 일부 감소시킬 수 있다.</p>
|
인덕터 코어에 감은 코일의 인덕턴스는 코어재의 투자율과 주파수에 따라 변화하며, 이와 동시에 손실도 증가합니다. 인덕턴스는 권선으로 흐르는 전류와 권선과 쇄교하는 자속수의 비로 정의되며, 코어를 사용하면 자속이 코어 내부로 들어가는 구조이므로 쉽게 계산할 수 있습니다. 최근에는 인덕터 코어가 컴퓨터의 메인 보드, 오디오 앰프, DVD, PDP TV, 배터리 충전기 등에 널리 사용되고 있습니다. 일체형 방식의 인덕터 코어는 소형 경량화에 맞춰 FERRITE CORE에 전극을 부착하여 사용되며, 인덕턴스와 온도의 측정은 매우 민감한 사항으로 인가되는 전압과 주파수에 따라 급격한 변화를 일으킵니다.
|
<h1>요약</h1> <p>위치를 이용한 애플리케이션이 증가함에 따라 사용자의 위치 정보 및 이동 패턴의 노출 등 다양한 문제점들이 야기되고 있다 . 이러한 문제점을 해결하기 위하여 사용자의 위치를 보호하기 위한 다양한 연구들이 진행되고 있다 . 사용자의 위치 정보가 노출되는 근본적인 이유는 사용자가 서비스제공자(서버)에게 자신의 위치 정보를 제공해야만 서비스를 제공받기 때문이다. 이러한 문제를 개선하기 위하여 클로킹(cloaking) 영역을 생성하거나자신의 주변에 더미 (dummy; 가상의 사용자)를 생성하는 연구 등이 존재한다 . 그러나 사용자가 주기적으로 서버에게 질의를 요청할 경우 사용자의 시간대별 이동 경로가 노출될 수 있다. 본 논문에서는 이러한 문제점을 개선하고자 사용자가 연속적인 질의를 요청하더라도 이동 경로의 노출확률을 개선할 수 있는 k-Anonymity Trajectory(k -ATY) 기법을 제안한다. 실험 결과를 통하여 제안 기법의 우수성을 증명했다.</p> <h1>1. 서 론</h1> <p>최근 위치를 활용한 애플리케이션이 개발됨에 따라 사용자의 위치 정보 및 이동 패턴의 노출 등 다양한 문제들이 발생하고 있다. 문제의 근본적인 원인은 사용자가 서비스 제공자(서버)에게 자신의 위치 정보 등을 공개해야 애플리케이션을 사용할 수 있기 때문이다. 사용자가 개인정보(위치, 사진 등)대한 공개를 동의를 하지 않을 경우 애플리케이션 사용이 불가한 서비스들도 다수 존재한다. 이러한 문제를 개선하고자 다양한 연구들이 제안됐다. 예를 들면, 사용자의 위치가 아닌 특정 건물을 지정하거나 서버에게 자신의 위치를 포함하는 클로킹 영역을 생성한 후 서버에게 질의를 요청하는 기법이다. 또한 가상의 사용자(dummy; 더미)를 활용하여 사용자가 어디 있는지 알 수 없게 만드는 기법도 존재한다. 그러나 사용자가 서버에게 연속적인 질의를 요청할 경우 서버는 사용자의 위치 정보를 확인 할 수 있다. 즉, 질의 요청시간과 누적된 지점들을 연결한다면 이동 경로를 유추할 수 있다.</p> <p>Fig. 1은 사용자 \( \left(\mathrm{U}_{1}\right) \)와 더미들 \( \left(\mathrm{D}_{1}, \mathrm{D}_{2}, \mathrm{D}_{3}\right) \)이 \( t \) 부터 \( t+3 \)까지 연속적으로 질의를 요청한 결과를 보여주고 있다. \( \mathrm{D}_{1} \)은 \( \mathrm{U}_{1} \)과 일정한 범위를 두고 생성될 수 있으나 이동 경로가 노 출될 수 있고, \( \mathrm{D}_{2} \)는 제자리를 맴돌고 있으며 \( \mathrm{D}_{3} \)는 사용자가 이동할 수 있는 속도의 범위를 넘어선 그림이다. 이처럼, 사용자가 임의로 생성한 더미를 이용하여 연속적으로 질의를 요청할 경우 시간 간격을 통해 더미를 파악하거나 사용자의 이동 방향 등을 예측할 수 있다. 따라서 연속적인 질의를 요청하는 상황에서 사용자의 이동 경로를 보호할 수 있는 기법을 제안한다.</p> <p>본 논문의 주요 기여는 다음과 같다.</p> <p>제안기법은(k-ATY) 사용자의 이동속도 및 방향 고려하여 가상의 더미를 만들기 때문에 기존의 기법(k-익명화)보다 더미의 노출확률을 줄일 수 있다.</p> <p>사용자 인근에 임의로 생성되는 더미는 연속적으로 질의를 요청할 경우 이동 경로가 노출될 수 있으나 k-ATY는 k-1개의 다른 방향으로 이동하기 때문에 이동 경로가 노출될 확률을 줄인다.</p> <p>사용자와 더미에 클로킹 영역을 생성할 경우 겹치는 영역을 줄임으로서 보호영역의 크기를 유지할 수 있다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서 관련 연구를 간단히 소개하고, 3장에서 k-ATY를 이용한 연속적인 더미생성 방법을 설명한다. 4장에서 기존 기법과 k-ATY의 기법에 대한 실험결과를 비교하고, 마지막으로 5장에서 결론을 내린다.</p>
|
위치를 이용한 애플리케이션이 증가함에 따라 위치 정보의 노출 및 보안의 문제로 해결하고자 k-Anonymity Trajectory 기법을 이용한 방법이 있다.
|
<h1>4. 실험 결과</h1> <h2>4.1 실험 환경</h2> <p>본 절에서는 k-익명화 기법과 k-ATY 기법을 비교한다. 실험환경은 Intel i7-7700 CPU 3.6Ghz, memory 16GB이고, visual studio 2019를 이용하여 실험을 실행했으며 10,000번 실험한 후 평균값으로 그래픽의 결과를 나타냈다.</p> <p>Table 1은 실험환경에 필요한 변수를 다음과 같이 정리했다.</p> <p>본 논문에서는 사용자가 서버에게 질의 요청 시 사용자의 위치 또는 클로킹 영역과 사용자 및 더미의 id를 제공한다고 가정한다. 사용자가 이동할 수 있는 속도는 5칸, k-익명화 기법에서 더미 생성 시 사용자를 중심으로 9*9칸 내 임의로 생성되며 클로킹 영역 안에는 사용자가 존재한다고 가정했다.</p> <h2>4.2 실험 결과</h2> <p>Fig. 4는 연속적인 질의를 요청하는 과정에서 k-익명화 기법과 k-ATY 기법을 이용하여 보호할 경우 서버에게 이동경로가 노출될 확률을 보여주고 있다. k-익명화 기법의 그래프를 확인한 결과 k가 증가하더라도 사용자 인근에 더미가 생성되기 때문에 이동경로가 노출되는 반면 k-ATY는 k가 증가할수록 노출확률이 줄어드는 것을 확인할 수 있다. k-ATY의 이동경로 노출확률이 줄어드는 이유는 Fig. 3과 같이 사용자가 이동하는 경로와 다른 방향으로 더미를 생성하기 때문이다.</p> <p>Fig. 5는 질의자가 서버에게 자신의 위치가 노출되더라도 최소한의 위치 보호를 받기 위하여 클로킹 영역을 설정한 결과를 보여주고 있다. 사용자가 클로킹 영역을 생성하면 더미도 동일하게 클로킹 영역을 생성하며 Fig. 5에서는 k를 10개로 설정했다. Fig. 5의 결과를 보면, 사용자가 클로킹 영역을 증가시킬수록 k-익명화 기법에 비해 k-ATY의 클로킹 영역의 크기가 평균 \( 21.4 \% \) 더 큰 것으로 확인됐다. 그 이유는 k-익명화에서 생성된 더미는 서로 인접한 영역에 존재하고 클로킹 영역 커질수록 중복되는 클로킹 영역이 증가하기 때문이다.</p> <h1>5. 결 론</h1> <p>본 논문에서는 연속적인 질의에서 사용자의 이동 경로를 보호 및 클로킹 영역의 보호 구간을 보장할 수 있는 k-ATY기법을 제안했다. 4장 실험결과에서 확인했듯이 k-익명화 기법에서 사용자의 이동경로는 서버에게 노출된 반면, k-ATY기법을 이용할 경우 k개 이상의 경로를 확인해야하기 때문에 사용자 이동경로의 노출확률은 감소한다. 또한 클로킹 영역의 중복되는 영역을 줄임으로 인해서 보호 영역을 보장했다. 향후 연구에서는 사용자가 이동하는 방향과 속도 외에 환경등을 고려하여 더미를 생성 할 때 발생할 수 있는 문제점을 찾고 이를 개선할 수 있는 연구를 진행하고자 한다.</p>
|
연속적인 질의로부터 사용자의 이동 경로 보호와 클로킹 영역의 보호를 보장하기 위한 k-ATY기법을 제안하여 k-익명화 기법과 비교하였다. 사용자의 위치 또는 클로킹 영역과 사용자 및 더미의 id를 사용자가 서버에게 질의 시 제공된다는 가정하에 실험이 이루어졌다. 제안된 기법은 k가 증가할수록 사용자의 이동 경로 노출확률이 줄어드는 것을 확인하였고, 클로킹 영역의 중복 영역을 줄여서 보호 영역을 보장하였음을 확인하였다.
|
<h1>5. 분석</h1><p>이 장에서는 제안하는 기법이 안전성과 효율성에 대해 분석한다. 안전성은 4.1의 보안 요구사항을 만족하는지에 대해 논의하고, 효율성은 제안된 기법이 소량의 데이터 만으로 검증과정을 효율적으로 수행할 수 있는지에 대해 논의한다.</p><h2>5.1 안전성 분석</h2><p>서비스 제공자는 검증자와 공모하지 않는 한, 검증 값 생성 함수 \( f( \).\( )\) 의 연산 과정을 임의로 생략할 수 없다. 서비스 제공자가 이를 임의로 생략하기 위해서는 \( A F=F \) 를 만족해야 한다. 즉, \( A \) 가 항등 행렬(identity matrix)여야 한다. 따라서 서비스 제공자가 챌린지로써 항등행렬이 아닌 매번 새로운 행렬을 보낸다면, 서비스 제공자는 검증 값 생성 함수 \( f( \).\( ) \)의 연산 과정을 임의로 생략할 수 없다.</p><p>본 논문에서 제안한 기법은 \( m \) 전체의 특성을 반영한다. 다시 말해 데이터의 일부가 누락된 경우 검증자가 발견할 수 있다. 만일, 임의의 블록 \( m_{j} \) 가 누락된 경우 다음을 만족하면 검증을 통과할 수 있다.</p><p>\( \sum_{i=1}^{n} F_{i^{*}}{ }^{\prime} x-\sum_{i=1}^{n} F_{i j}{ }^{\prime} x=\sum_{i=1}^{n} m_{i}{ }^{\prime \prime} \)</p><p>\( \therefore \sum_{i=1}^{n} F_{i j}^{\prime} x=0 \)<caption>(9)</caption></p><p>즉, \( m_{j} \) 의 상수항이 0 이어야 한다. 하지만 상수항은 0 이 아닌 임의의 수를 사용하므로 식 (9)는 성립되지 않는다. 즉, 임의의 블록 \( m_{j} \) 가 누락된 경우, 검증자는 이를 발견할 수 있다. 검증자는 \( m \) 에 오류가 발 생한 경우, 즉, 서비스 제공자가 \( \widetilde{m}(\neq m) \) 으로 검증을 수행하는 경우 이를 발견할 수 있다. 오류로 인해 \( F_{i, j} \) 가 \( F_{i, j}+\Delta t \) 로 바뀌었다고 가정하자. 여기서 \( \Delta t \) 는 오류로 인해 생긴 데이터의 편차를 의미한다. 이를 통해 검증을 수행한다면 열벡터 \( F_{*_{i}}{ }^{\prime} \) 의 모든 값에 \( \Delta t \) 가 포함된다. 다시 말해, 데이터에 발생한 오류는 검증과정에서 오류가 확산되어 모든 수식이 해를 만족하지 않는다.</p><h2>5.2 효율성 분석</h2><p>제안하는 기법은 블록의 개수에 무관하게 검증을 수행할 수 있다. 즉, \( i \) 개의 블록을 선택하여 확률적 검증을 수행할 수 있고, \( n \) 개의 블록을 선택하여 전체 데이터를 검증할 수 도 있다. 검증하려는 블록의 수에 따라 챌린지 행렬의 크기를 달리하고, 선택한 블록과 동일한 상수항을 선택하여 연산함으로써, 검증자는 자신이 원하는 블록들을 선택적으로 검증할 수 있다.</p><p>제안하는 기법은 상수벡터를 숨김으로써 동일한 해를 갖는 블록의 수가 늘어나도 서비스 제공자가 해를 얻지 못하도록 하고 있다. 사용자가 새로운 블록을 추가하는 경우, 해에 맞추어 상수항을 계산함으로써 기존 블록들과 함께 배치검사를 수행할 수 있다.</p><p>제안하는 기법을 검증하는데 필요한 연산량은 블록조각의 수에 비례한다. 즉, 제안하는 기법은 차후 업데이트된 블록의 수와 무관하게 연산량이 유지된다. 연산 또한 곱셈과 덧셈만으로 구성되어, 지수연산 및 페어링 연산을 사용하는 준동형 기법에 비해 빠른 검증이 가능하다.</p><p>최근에 제안된 Wang 등의 기법은 영지식 증명을 이용함으로서 검증자가 파일에 대한 정보를 유지하는 것만으로 검증이 가능하다. 하지만 제안하는 기법은 파일 정보 대신 해벡터와 상수벡터를 유지한다. 만일 서버에 저장된 데이터의 크기를 \( n \) 이라 했을 때, 검증자가 유지하는 데이터의 크기는 \( 2 \sqrt{n} \) 이다. 이는 서버에 저장된 \( 1 \mathrm{~TB} \) 의 데이터를 \( 724 \mathrm{~KB} \) 로 검증할 수 있음을 의미한다.</p>
|
본 절에서는 제안한 기법의 안전성과 효율성을 분석하는 방법을 소개한다. 제안하는 안전성 분석에서는 제공자가 항등행렬이 아닌 행렬을 보낸다면, 서비스 제공자는 검증 값 생성 함수의 연산 생략할 수 없으며, 데이터의 누락을 검증자가 발견할 수 있게 하였다. 다음으로 효율성 분석에서는 검증자 자신이 원하는 블록 선택적으로 검증할 수 있게 하였으며, 새로운 블록이 추가되는 경우 기존 블록들과 함께 배치검사를 수행할 수 있게 하였다. 또한 간단한 연산을 사용해 준동형 기법보다 빠른 검증이 가능하게 하였다.
|
<p>여기서 \( \overline { H_ { D } } =L ^ { -1 } H_ { D } \)이고 \( \overline { n_ { D } } =L ^ { -1 } n_ { D, j } \) 이다. 또한 \( R \left ( \overline { n_ { D } } \right )=I \)를 만족하므로 잡음 \( \overline { n_ { D } } \)는 백색 잡음임을 알 수 있다. 따라서 일반적인 수신 알고리즘을 적용하는 것이 가능하다.</p> <p>그러나 \( L ^ { -1 } \) 즉 \( R \left (n_ { D } \right )=L L ^ { H } \)을 구하기 위해서는 인접 섹터 혹은 인접 셀 간섭 성분의 채널 \( H_ { i } \)를 알아야만 한다. 하지만 Closed-form MIMO 기법을 사용하지 않는 일반적인 경우 \( H_ { i } \)에 대한 정보를 이용할 수 없다. 본 논문에서는 PSAM(pilot symbol assisted modulation)기반의 IEEE \( 802.16 \mathrm { e } \) 표준에서 부가적인 정보를 이용하지 않고 Pilot 심벌만을 이용하는 기법을 제안하도록 한다.</p> <h1>III. 간섭 제거 능력을 갖는 MIMO-OFDM 수신 알고리즘</h1> <h2>1. UL-PUSC Tile 내의 파일럿 패턴 및 채널 추정 알고리즘</h2> <p>그림 2는 Tile 내의 파일럿 패턴을 보여준다. 상향링크의 경우 단일 사용자(그림 좌측)를 지원하거나 두 사용자(그림 가운데 및 우측)를 지원하는 것이 가능하다. 이러한 각 경우에 대한 파일럿 배치는 그림과 같다.</p> <p>MIMO의 경우 즉, Tile 내에 C-SM (Collaborative-Spatial Multiplexing) 사용자가 존재할 경우의 수신 파일럿은 다음과 같다.</p> <p>\( y_ { j } ^ { p } =H_ { D } P_ { D, j } + \sum_ { i=0 } ^ { I-1 } H_ { i } P_ { i, j } + n_ { j } \)<caption>(4)</caption></p> <p>여기서 \( j=0, \cdots, 3 \)이다. 그리고 Tile 내에서의 채널 추정값 \( \widehat { H } _ { D } = \left [ \hat { h } _ { 0 } \hat { h } _ { 1 } \right ] \)는 다음과 같이 얻을 수 있다.</p>
|
이 연구는 PSAM(pilot symbol assisted modulation)을 기반으로 하는 IEEE \( 802. 16 \mathrm { e } \) 표준에서, 추가 정보 없이 Pilot 심벌만을 활용하는 방식을 제안한다. 본 방식은 Tile 내의 파일럿 패턴을 활용하며, 상향링크에서 단일 사용자 혹은 두 사용자를 지원할 수 있다.
|
<p>\( \begin {aligned} \widehat { h } _ { 0 } &= \frac { 1 } { 2 \sqrt { 2 } } \left (y_ { 0 } ^ { p } + y_ { 3 } ^ { p } \right ) \\ &=h_ { 0 } + \frac { 1 } { 2 \sqrt { 2 } } \sum_ { j=0,3 } \left ( \sum_ { i=0 } ^ { I-1 } H_ { i } P_ { i, j } + n_ { j } \right ) \end {aligned} \)<caption>\( (5-1) \)</caption></p> <p>\( \begin {aligned} \hat { h } _ { 1 } &= \frac { 1 } { 2 \sqrt { 2 } } \left (y_ { 1 } ^ { p } + y_ { 2 } ^ { p } \right ) \\ &=h_ { 1 } + \frac { 1 } { 2 \sqrt { 2 } } \sum_ { j=1,2 } \left ( \sum_ { i=0 } ^ { 1-1 } H_ { i } P_ { i, j } + n_ { j } \right ) \end {aligned} \)<caption>\( (5-2) \)</caption></p> <h2>2. PASM 기반의 Whitening Process 기법</h2> <p>본 절에서는 채널 추정을 위핸 파일럿 신호 정보만을 사용하여 \( R \left (n_ { D } \right ) \)를 계산하는 방법을 설명한다.</p> <p>MIMO(C-SM)의 경우 추정된 채널값 \( \hat { h } _ { 0 } \) 및 \( \hat { h } _ { 1 } \)을 수신 파일럿에서 제거함으로써 다음을 얻는다.</p> <p>\( y_ { j } ^ { p } - \hat { h } _ { 0 } P_ { D, j } \) \( = \left (h_ { 0 } - \hat { h } _ { 0 } \right ) P_ { D, j } + \sum_ { i=0 } ^ { I-1 } H_ { i } P_ { i, j } + n_ { j } \) \( \approx \sum_ { i=0 } ^ { I-1 } H_ { i } P_ { i, j } + n_ { j } = \left .n_ { D, j } \right |_ { j=0,3 } \)<caption>\( (6-1) \)</caption></p>
|
PASM 기반의 Whitening Process 기법으로 채널 추정을 수행하여 MIMO 경우 추정된 채널값 \( \hat { h } _ { 0 } \) 및 \( \hat { h } _ { 1 } \)을 수신 파일럿에서 제거함으로써 노이즈를 제거하고, 이를 통해 \( n_ { D, j } \)를 얻을 수 있다.
|
<h2>4. 제안된 수신기 구조</h2> <p>그림 3은 제안된 수신기 구조를 나타낸다. 수신 신호는 Control channel의 정보를 이용해 시간동기를 맞추고 수신 신호에 IFFT를 수행함으로써 수신 신호를 주파수축으로 변환시킨다. 그리고 Control Information을 통해 SIMO 또는 단일 C-SM 혹은 복수의 C-SM 사용자가 주어진 Tile 내에 존재함을 확인하고 수신 알고리즘을 수행하게 된다.</p> <p>그림 1은 UL OFDMA 심벌이 15개인 경우 앞 3심벌이 Control channel에 사용되고 나머지 12 심벌이 Data 전송에 사용될 때를 UL-PUSC SR off에 대해 나타내고 있다. 따라서 주파수 축의 \( f \)번째 Tile Index에 대해 시간축으로 4개의 Tile이 존재한다. 이에 대한 수신기 동작을 블록별로 설명하면 다음과 같다.</p> <h3>(1) 채널 추정(Channel estimation)</h3> <p>상기 그림의 채널 추정 블록에서는 파일럿 심볼을 이용한 채널 추정 블록으로 주파수축의 \( f \)번째, 시간축의 \( n \)번째 Tile에 대해 다음의 동작을 수행한다.</p> <p>\( \widehat { h } _ { n, 0 } = \frac { 1 } { 2 \sqrt { 2 } } \left (y_ { 4 n + 0 } ^ { p } + y_ { 4 n + 3 } ^ { p } \right ) \)<caption>\( (14-1) \)</caption></p> <p>\( \widehat { h } _ { n, 1 } = \frac { 1 } { 2 \sqrt { 2 } } \left (y_ { 4 n + 1 } ^ { p } + y_ { 4 n + 2 } ^ { p } \right ) \)<caption>\( (14-2) \)</caption></p> <p>이러한 채널 추정은 \( n=0,1,2,3 \) 에 대하여 수행된다.</p> <h3>(2) 파일럿 신호 제거(Pilot Cancellation)</h3> <p>앞서 추정된 채널 정보를 이용하여 파일럿 수신신호에서 파일럿 신호를 제거한다. 시간축의 \( n \)번째 Tile에 대한 동작은 다음과 같다.</p> <p>\( n_ { D, 4 n + j } = \left \{\begin {array} { l } y_ { 4 n + j } ^ { p } - \widehat { h } \\ y_ { 4 n + j } ^ { p } - \left . \left . \widehat { h } _ { n, 1 } \sqrt { 2 } \right |_ { j=0,3 } \right |_ { j=1,2 } \end {array} \right . \)<caption>(15)</caption></p>
|
제안된 수신기 구조는 그림 3에 나타나 있다. 이 구조에서 수신 신호는 Control channel 정보를 이용하여 시간 동기를 맞춘 후 IFFT를 통해 주파수 축으로 변환한다. 이어서 Control Information을 통해 SIMO, 단일 C-SM 혹은 복수의 C-SM 사용자의 존재를 확인하고 주어진 Tile 내에서 수신 알고리즘을 수행한다.
|
<p>그러므로 근사화된 상관 함수는 다음과 같다.</p> <p>\( \hat { R } \left (n_ { D } \right )= \frac { 1 } { 4 } \sum_ { j=0 } ^ { 3 } n_ { D, j } ^ {\prime } \left (n_ { D, j } ^ {\prime } \right ) ^ { H } \) \( = \frac { 1 } { 4 } \sum_ { j=0,3 } h_ { i, 0 } P_ { i, j } P_ { i, j } ^ { * } h_ { i, 0 } ^ { H } + \frac { 1 } { 4 } \sum_ { j=1,2 } h_ { i, 1 } P_ { i, j } P_ { i, j } ^ { * } h_ { i, 1 } ^ { H } \) \( =h_ { i, 0 } \left ( \frac { 1 } { 4 } \sum_ { j=0,3 } P_ { i, j } P_ { i, j } ^ { * } \right ) h_ { i, 0 } ^ { H } + h_ { i, 1 } \left ( \frac { 1 } { 4 } \sum_ { j=0,3 } P_ { i, j } P_ { i, j } ^ { * } \right ) h_ { i, 1 } ^ { H } \) \( =h_ { i, 0 } h_ { i, 0 } ^ { H } + h_ { i, 1 } h_ { i, 1 } ^ { H } =R \left (n_ { D } \right ) \)<caption>(13)</caption></p> <p>식 (9),(11)및 (13)을 통하여 인접 셀 혹은 인접 섹터 간섭이 SIMO이거나 단일 사용자 C-SM이거나 혹은 두 명의C-SM인 경우에 상관없이 파일럿 신호에 대해 원하는 신호 성분의 채널 추정 값을 제거한 파일럿 샘플에 대해 평균을 취함으로써 \( R \left (n_ { D } \right ) \)의 근사화된 값 \( \widehat { R } \left (n_ { D } \right ) \)을 얻을 수 있음을 알 수 있다.</p>
|
주어진 식으로 인접 셀 혹은 인접 섹터 간섭이 단일 혹은 두 명인 경우와 관계없이 파일럿 샘플의 평균으로 근사값\( \widehat { R } \left (n_ { D } \right ) \)을 알아낼 수 있다.
|
<p>\( \left . \boldsymbol { n } _ { D, j } ^ {\prime } \approx H_ { i } P_ { i, j } \right |_ { j=0,1,2,3 } \)<caption>(8)</caption></p> <p>따라서 근사화된 상관 함수는 다음과 같다.</p> <p>\( \hat { R } \left (n_ { D } \right ) \) \( = \frac { 1 } { 4 } \sum_ { j=0 } ^ { 3 } n_ { D, j } ^ {\prime } \left (n_ { D, j } ^ {\prime } \right ) ^ { H } = \frac { 1 } { 4 } \sum_ { j=b } ^ { 3 } h_ { i, 0 } P_ { i, j } P_ { i, j } ^ { * } h_ { i, 0 } ^ { H } \) \( =h_ { i, 0 } \left ( \frac { 1 } { 4 } \sum_ { j=0 } ^ { 3 } P_ { i, j } P_ { i, j } ^ { * } \right ) h_ { i, 0 } ^ { H } =h_ { i, 0 } h_ { i, 0 } ^ { H } =R \left (n_ { D } \right ) \)<caption>(9)</caption></p> <h3>(2) 인접 셀/인접 섹터 간섭이 MIMO(C-SM)인 경우</h3> <p>인접 셀 혹은 인접 섹터 간섭이 MIMO인 경우는 C-SM 사용자가 1명인 경우와 2명인 경우로 나누어 고려할 수 있다.</p> <p>우선 C-SM 사용자가 1명인 경우를 고려하면 채널 벡터 \( H_ { i } \)는 \( 1 \times n_ { r } \) 채널 벡터로 \( H_ { i } = \left [h_ { i, 0 } \right ] \)가 되고 Tile 내의 파일럿 심벌 전력은 \( \left |P_ { i, j } \right |_ { j=0,3 } ^ { 2 } =2 \)이고 \( \left |P_ { i, j } \right |_ { j=1,2 } ^ { 2 } =0 \)이다. 따라서 AWGN 잡음을 무시할 때 원하는 신호 성분의 채널 추정값을 제거한 신호는 다음과 같다.</p>
|
C-SM 사용자가 1명인 경우, \(H_i\)는 \(1 \times n_r\) 채널 벡터로 \(H_i = [h_{i,0}]\)가 되고 Tile 내의 파일럿 심벌 전력은 \(\left|P_{i,j}\right|_{j=0,3}^2 = 2\)이고 \(\left|P_{i,j}\right|_{j=1,2}^2 = 0\)이다.
|
<h1>IV. 모의시험 결과</h1> <p>본 논문에서는 제안된 기법의 성능을 검증하기 위하여 표 1의 변수들을 사용한 IEEE 802.16e 표준에 따른 모의실험을 수행하였다. 표 2는 채널 및 기타 모의실험환경을 나타낸다. 또한 성능 분석을 위해 UL 프레임 구간동안 채널의 상태가 변화하지 않는 의사 정적 채널을 가정하였다.</p> <p>결과 그림 4와 6에서는SNR에 따른 BER 성능을 QPSK 및 16QAM에 대해 각각 비교하고 있다. 그림의 결과를 통해 인접 셀 및 인접 섹터의 간섭이 2명의 C-SM 사용자로 존재하는 않는 경우 Whitening Process를 통하여 간섭성분을 제거함으로써 우수한 성능을 얻을 수 있음을 알 수 있다. \( \mathrm { SIR } =0 \mathrm { ~dB } \) 인 경우 두 간섭 성분(두 C-SM) 사용자)의 신호 전력과 원하는 신호 성분의 전력이 동일한 경우로 간섭 성분과 원하는 신호 성분이 기지국과 동일한 거리에 있는 경우이다. 즉 셀 가장 자리의 동일 위치에 위치할 때 간섭 성분이 존재하더라도 통신이 가능함을 알 수 있다. 또한 \( \mathrm { SIR } =3 \mathrm { ~dB } \)인 경우는 간섭 성분의 신호 전력과 원하는 신호 성분의 전력의 약 반에 해당한다. 이는 원하는 신호 성분은 셀 중간에 위치하고 간섭 성분은 셀 가장 자리에 위치하는 환경으로 이해할 수 있다. 이러한 경우는 \( \mathrm { SIR } =0 \mathrm { ~dB } \)에 비해 우수한 환경이지만 제안된 기법을 적용하지 않는 경우 \( 10 ^ { -2 } \)이하의 \( \mathrm { BER } \) 성능을 얻을 수 없다. 하지만 제안된 수긴 기법을 통하여 \( 10 ^ { -3 } \)이하의 BER 성능을 얻을 수 있음을 알 수 있다.</p> <p>결과 그림 6과 7에서는 SIR에 따른 BER 성능을 QPSK 및 16QAM에 대해 각각 비교하고 있다. 그림의 결과를 통하여 인접 셀 및 인접 섹터의 간섭이 존재하는 환경에서 제안된 수신기법이 우수한 성능을 나타냄을 확인할 수 있다. 특히 6 QAM의 경우 단말이 높은 SNR에 따라 16QAM을 할당 받는다 할지라도 실제 Data 전송시에 SIR이 \( 6 \sim 9 \mathrm { ~dB } \)의 우수한 채널 환경에서도 \( 10 ^ { -2 } BER 성능을 얻지 못하게 된다. 이는 전체 시스템 Throughput을 저하시키는 요인이 된다. 반면에 제안된 수신 기법을 통하여 두 간섭성분이 \( \mathrm { SIR } =0 \mathrm { ~dB } \)인 열학한 환경에서도 \( 10 ^ { -2 } \mathrm { BER } \) 성능을 얻을 수 있음을 알 수 있다. 이는 UL C-SM에서 16QAM의 할당을 통한 시스템 Throughput 향상을 얻을 수 있음을 의미하 는 것으로 이해할 수 있다.</p> <h1>V. 결 론</h1> <p>본 논문에서는 차세대 다중안테나 통신 시스템인 OFDM 시스템에서의 인접 셀 혹은 인접 섹터 간섭제거 능력을 갖는 MIMO수신 알고리즘을 제안하였다. 특히 시간축에서의 Filtering 기법에 관한 기존의 연구와는 다르게 주파수 영역에 적용이 가능한 Pre-filtering 기법을 이론적으로 분석하고 개발된IEEE 802.16e Simulator를 통하여 그 성능을 검증하였다.</p> <p>모의실험 결과를 통하여 제안된 기법은 MIMO (C-SM) 뿐만이 아니라 SIMO에서도 적용이 가능하며 특히 간섭 성분의 종류에 관계없이 적용이 가능함을 확인하였다. 또한 간섭 성분의 영향이 큰 경우에 대해서도 우수한 성능을 보장하여 시스템 Throughput 향상을 보장할 수 있음을 확인하였다.</p>
|
본 논문에선 OFDM 시스템에서의 인접 셀/섹터 간섭제거 능력을 갖는 MIMO수신 알고리즘을 제안하였는데, 특히 주파수 영역에 적용이 가능한 Pre-filtering 기법을 이론적으로 분석하고 개발된IEEE 802.16e Simulator를 통하여 그 성능을 검증하였다. 모의실험 결과를 통하여 제안된 기법은 SIMO에서도 적용이 가능하며 특히 간섭 성분의 종류에 관계없이 적용이 가능하며, 간섭 성분의 영향이 큰 경우에 대해서도 우수한 성능을 보장하여 시스템 Throughput 향상을 보장할 수 있음을 확인하였다.
|
<p>\( y_ { j } ^ { p } - \hat { h } _ { 0 } P_ { D, j } \) \( = \left (h_ { 0 } - \hat { h } _ { 0 } \right ) P_ { D, j } + \sum_ { i=0 } ^ { I-1 } H_ { i } P_ { i, j } + n_ { j } \) \( \approx \sum_ { i=0 } ^ { I-1 } H_ { i } P_ { i, j } + n_ { j } = \left .n_ { D, j } ^ {\prime } \right |_ { j=1,2 } \)<caption>\( (6-2) \)</caption></p> <p>여기서 근사화된 결과는 채널 추정에 의한 오차를 무시할 때 얻을 수 있다. 또한 파일럿 정보열에 대해 평균을 취하여 \( R \left (n_ { D } \right ) \)를 다음과 같이 근사화시킬 수 있다.</p> <p>\( R \left (n_ { D } \right ) \approx \hat { R } \left (n_ { D } \right )= \frac { 1 } { 4 } \sum_ { j=0 } ^ { 3 } n_ { D, j } ^ {\prime } \left (n_ { D, j } ^ {\prime } \right ) ^ { H } \)<caption>(7)</caption></p> <p>즉 앙상블 평균을 샘플 평균으로 근사화시키는 것이다. 이러한 근사화의 정확도는 샘플 평균의 개수에 의존하게 되며 UL-PUSC SR off의 경우 주파수축 상으로 연속적으로 존재하는 타일에 대해 수행될 수 있다.</p> <h2>3. 샘플 평균으로 근사화된 \( \hat { R } \left (n_ { D } \right ) \)의 타당성</h2> <p>인접 셀 혹은 인접 섹터 간섭은 SIMO 사용자 혹은 MIMO(C-SM) 사용자일 수 있다. 또한 MIMO의 경우 C-SM사용자가 1명 혹은 2명이 존재할 수도 있다. 따라서 각각의 경우에 대해 \( \hat { R } \left (n_ { D } \right ) \)을 샘플 평균으로 근사화시키는 방 법의 타당성을 살펴본다.</p> <h3>(1) 인접 셀/인접 섹터 간섭이 SIMO인 경우</h3> <p>인접 셀 혹은 인접 섹터 간섭이 SIMO인 경우 채널 벡터 \( H_ { i } \)는 \( 1 \times n_ { r } \) 채널 벡터로 \( H_ { i } = \left [h_ { i, 0 } \right ] \)가 되고 Tile 내의 파일럿 심벌 전력은 \( \left |P_ { i, j } \right |_ { j=0,1,2,3 } ^ { 2 } =1 \) 이다. 따라서 AWGN 잡음을 무시할 때 원하는 신호 성분의 채널 추정값을 제거한 신호는 다음과 같다.</p>
|
샘플 평균의 개수가 근사화의 정확도에 영향을 미치며, UL-PUSC SR off의 경우 주파수축에서 연속 타일에 대해 적용 가능하다. 인접 셀 또는 섹터 간섭은 SIMO 혹은 MIMO(C-SM) 사용자에게 발생할 수 있고, MIMO의 경우에는 1명 또는 2명의 C-SM 사용자가 있을 수 있다. 이렇게 다양한 경우를 감안하여, \( \hat { R } \left (n_ { D } \right ) \)의 근사화 타당성을 검토한다.
|
<p>\( H_ { D } = \left [h_ { 0 } h_ { 1 } \right ] \)는 \( 2 \times n_ { r } \) 채널 벡터로, \( h_ { 0 } \)와 \( h_ { 1 } \)는 0번째와 1번째 C-SM 사용자의 채널을 각각 나타낸다. 또한 새로운 잡음 성분은 \( n_ { D, j } = \sum_ { i=0 } ^ { I-1 } H_ { i } s_ { i, j } + n_ { j } \)으로 표현된다. 여기서, \( s_ { i, j } \) 및 \( H_ { i } \)는 \( i \)번째 인접 셀 혹은 인접 섹터의 간섭성분 및 채널 벡터를 각각 나타낸다. 간섭 성분은 SIMO 간섭 혹은 MIMO 간섭이 될 수 있다.</p> <p>상기 식에서 간섭 성분이 존재할 경우 \( (I>0) n_ { D, j } \)는 백색 잡음(white noise)이 아니다. 따라서 \( 2 \times n_ { r } \) MIMO 시스템의 일반적인 수신알고리즘을 적용이 최적의 성능을 보장하지는 못한다. 따라서 상기 식에 Whitening Process라는 신호 처리 기법을 적용할 필요가 있다. 이를 위하여 우선 \( n_ { D, j } \)의 통계 특성을 다음과 같이 유도한다.</p> <p>\( R \left (n_ { D, j } \right )=E \left [n_ { D, j } n_ { D, j } ^ { H } \right ]= \sum_ { i=0 } ^ { I-1 } H_ { i } H_ { i } ^ { H } + \sigma ^ { 2 } I \)<caption>(2)</caption></p> <p>Cholesky Decomposition을 통해 \( \widehat { R } \left (n_ { D } \right )=L L ^ { H } \) 을 만족하는 Nonsingular 행렬 \( L \) 을 구한다. 그리고 \( L ^ { -1 } \)를 이용해 다음을 얻는다.</p> <p>\( \overline { y_ { j } } =L ^ { -1 } y_ { j } ^ { d } = \overline { H_ { D } } s_ { D, j } + \overline { n_ { D } } \)<caption>(3)</caption></p>
|
새롭게 만들어진 잡음은 \( n_ { D, j } = \sum_ { i=0 } ^ { I-1 } H_ { i } s_ { i, j } + n_ { j } \)로 나타낸다. 간섭 성분은 SIMO 또는 MIMO 간섭으로 나타난다. 이 식에서 간섭 성분이 있는 경우에는 \( (I>0) n_ { D, j } \) 구간에서는 백색 잡음이 아니다. 그리하여 Whitening Process 기법을 통해 최적의 성능을 이끌어야 한다.
|
<h1>II. MIMO-OFDM 시스템 모델</h1> <h2>1. 역방향 시스템 전송 모델</h2> <p>IEEE 802.16e에서는 시스템에서 SIMO의 경우 다수의 수신 안테나를 이용한 인접 셀 혹은 인접 섹터간의 간섭성분을 제거하기 위한 방법으로는 수신 빔포밍 기법이 이용될 수 있으며 이는 ZF 혹은 MMSE 형태로 구현이 가능하다. 이러한 수신 빔포밍의 구현을 위해서는 부가적인 학습 정보열이 필요하지만 IEEE 802.16e에서는 채널 추정을 위해 할당된 파일럿 심벌을 이용할 수가 있다. 파일럿 심벌을 간섭제거 기법의 구현에 이용하기 위해서는 단말이 할당 받은 주파수 및 시간 자원이 간섭신호 성분의 그것과 일치해야만 한다. IEEE 802.16e에서는 'Band-AMC' 및 'UL PUSC w/SR(Subchannel Rotation) off 의 두 가지 자원 할당 방법이 이에 해당한다.</p> <p>그림 1은 UL PUSC Subchannel의 최소단위에 해당하는 Tile 구조와 SR(Subchannel Rotation) Off 시 연속적인 Tile의 구조도를 보여 준다(참고문헌 [3]의8.4.8.1.5 절).</p> <h2>2. MIMO-OFDM 수신 신호 모델 및 기존의 Whitening 알고리즘</h2> <p>UL-PUSC C-SM 구조에서 주어진 Tile의 주파수 축과 시간축에서 채널 계수가 변하지 않는다고 가정할 때 0번째 Tile에서 \( j( = 0,1, \cdots, 7) \) 번째 수신 신호 \( 1 \times n_ { r } \) 벡터는 다음과 같다.</p> <p>\( y_ { j } ^ { d } =H_ { D } s_ { D, j } + \sum_ { i=0 } ^ { I-1 } H_ { i } s_ { i, j } + n_ { j } \)</p> <p>\( =H_ { D } s_ { D, j } + n_ { D, j } \)<caption>(1)</caption></p> <p>여기서 \( n_ { j } = \left [n_ { 0, j } \cdots n_ { N_ { r } -1, j } \right ] ^ { T } \)는 \( 1 \times n_ { r } \) 잡음 벡터로 \( E \left [ \left |n_ { r, j } \right | ^ { 2 } \right ]= \sigma ^ { 2 } \)이고 \( N_ { r } \)는 수신 안테나 수이다. \( \boldsymbol { s } _ { D, j } = \left [s_ { 0, j } s_ { 1, j } \right ] ^ { T } \)는 원하는 신호 벡터이다.</p>
|
IEEE 802.16e에서는 인접 셀 혹은 인접 섹터간의 간섭성분을 제거하기 위해 수신 빔포밍 기법(ZF, MMSE)을 사용하고, 학습 정보를 얻기 위해 파일럿 심벌을 이용할 수 있다. UL PUSC Subchannel의 최소단위 Tile 구조와 SR Off 시 연속적인 Tile의 구조를 보여주고 있다. MIMO-OFDM 수신 신호 모델은 0번째 Tile에서 \( j \) 번째 수신 신호 \( 1 \times n_ { r } \) 벡터로 \( y_ { j } ^ { d } =H_ { D } s_ { D, j } + n_ { D, j } \)로 나타내고 있다.
|
<h1>요 약</h1> <p>본 논문에서는 다충안테나 OFDM(Orthogonal Frequency Division Multiplexing) 시스템에서의 인접 셀 혹은 인접 섹터 간섭제거 능력을 갖는 MIMO(Multi-Input Multi-Output) 수신 알고리즘을 제안하였다. 제안된 안고리즘은 시간축에서의 Filtering 기법에 관한 기존의 연구와는 다르게 주파수 영역에 적용이 가능한 Pre-filtering 기법을 채널 추정을 위한 파일럿 심법만을 이용하여 구현하였다. 또한 제안된 기법은 간섭성분이 MIMO(C-SM(Collaborative-Spatial Multiplexing)) 뿐만이 아니라 SIMO(Single-Input Multi-Out)이더라도 적용이 가능함을 이론적으로 검증하였다. 그리고 제안된 수신 알고리즘을 검증하기 위하여 IEEE 802.16e 표준의 UL-PUSC SR off에서의 모의실험을 수행하였다. 이를 통하여 제안된 알고리즘이 간섭 성분의 종류에 관계없이 적용이 가능함을 확인하였다. 또한 간섭 성분의 영향이 큰 경우에 대해서도 우수한 성능을 보상하여 시스템 Throughput 향상을 보장할 수 있음을 확인하였다.</p> <h1>I. 서 론</h1> <p>Wibro 및 WiMAX의 기술 표준인 IEEE 802.16e는 OFDMA(Orthogonal Frequency Division Multiple Access)를 근간으로 한다. OFDMA 기술은 ODFM을 셀룰라 시스템으로 확장한 기술로써 인접 셀 간섭(혹은 인접 섹터 간섭)에 영향을 받는다. 또한, MIMO(Multi-Input Multi-Output) 기법이 적용될 경우에는 간섭 성분이 증가되어 이러한 문제점이 더욱 커지게 된다. 이러한 문제점을 해결하기 위해서는 여러 다양한 간섭제거 및 억제 기법들이 적용될 수 있다. 그러나 간섭이 존재하지 않는 상황에서의 최적 알고리즘인 ML(Maximum Likelihood) 알고리즘과 연계될 경우 복잡도가 증가되는 문제가 있으며 간섭 유무에 상관없이 안정적으로 동작시킬 수 있는 알고리즘이 필요하다.</p> <p>인접 셀 간섭을 억제하기 위한 기존의 연구 참고문헌[5~10]에서는 시간 영역에서의 Filtering 기법을 제안하거나 분석하고 있다. 시간 영역에서의 Filtering 기법에 관한 연구인 참고문헌 [5,7~9]는 다중 경로 페이딩 채널에서의 간섭 억제 기법으로 주로 CDMA(Code Division Multiple Access) 시스템에 적용가능성이 큰 기술이다. 그러나 이러한 기존의 연구를 OFDM 시스템에 적용할 경우 파일럿 심벌외의 추가적인 학습 정보열의 전송을 필요로 하거나 OFDM 시스템이 갖는 장점인 주파수 Diversity를 얻지 못하는 단점이 있다. 참고문헌 [12]에서는 MIMO 수신신호에 Pre-Filtering 기법을 적용하여 간섭신호 및 AWGN 성분의 합을 Whitening 시키는 방법을 제안하고 있다. 이 기법은 ML을 포함하는 기존의 MIMO 수신 알고리즘을 곧바로 적용할 수 있는 장점이 있다. 하지만 이 방법역시 간섭 성분의 채널 정보를 필요로 한다.</p> <p>따라서 본 논문에서는 참고문헌 [12]의 Whitening 기법을 기존 표준의 변형 없이 채널 추정을 위한 파일럿 심벌만을 이용하여 구현할 수 있는 기법을 제안하도록 한다. 그리고 그 성능을 이동 통신 채널 환경에서 분석 및 검증하고자 한다.</p>
|
본 논문이 제안한 OFDM 시스템에서의 인접 셀 간섭 제거를 위한 MIMO 수신 알고리즘은 주파수 영역에 적용이 가능한 Pre-filtering 기법을 사용하였다. 이 기법을 이용하여 파일럿 심법을 구현하였고, MIMO(C-SM) 뿐만 아니라 SIMO에도 적용이 가능함을 검증하였다. 그리고, 제안된 알고리즘이 간섭 성분의 종류에 관계없이 적용이 가능하며, 간섭 성분의 영향이 큰 경우에도 우수한 성능을 보장하는 것을 확인하였다.
|
<h1>V. 결 론</h1> <p>본 논문에서는, 강하게 및 약하게 표기된 데이터, 그리고 미표기 데이터를 이용하여 학습할 수 있는 약지도 음향 이벤트 검출 시스템을 구현하고, 파라미터 설정에 따른 성능의 차이를 분석하였다. 본 논문에서 구현된 약지도 음향 이벤트 검출 시스템은 최근 DCASE 등에서 널리 사용되고 있는 평균-교사 모델이 적용된 합성곱 순환 신경망 모델의 구조를 기반으로 하였다. 평균-교사 모델은 표기 및 미표기 데이터를 이용하여 모델 계수를 학습하는 학생 모델과, 이에 대한 이동 평균 값을 계수로 가지는 교사 모델로 이루어진다. 학생 모델은 추정치와 정답에 대한 오차, 그리고 교사 모델과의 추정치에 대한 오차에 대한 역전파를 통해 계수를 학습하며, 교사 모델은 역전파에 의해 계수를 학습하지 않는 대신 학생 모델의 이동 평균으로 얻어진다.</p> <p>평균-교사 모델은 약지도 학습을 위해 추가적인구조를 가지고 있기 때문에, 그만큼 사용자가 설정할 수 있는 파라미터의 종류 더 많다. 이는 결국 파라미터의 설정 값에 따라 성능이 변할 수 있다는 것을 의미하며, 이에 대한 영향을 분석하기 위하여 DCASE 2020 Task 4 데이터를 이용하여 시뮬레이션을 진행하였다. 시뮬레이션 결과, 멜-스펙트럼과 감마톤 스펙트럼의 성능이 비교적 높게 나타났으며, 이동 평균 파라미터의 경우 일반적으로 많이 사용하는 0.999 보다 0.99의 값에서 더 종은 성능이 나타났고, 비교적 성능에 미치는 영향이 큰 편이었다. 일관성 비용함수의 가중치는 4~16 사이의 값에서 좋은 성능을 보였고, 램프-업 길이는 성능에 미치는 영향이 크지 않았다. 최대 학습율 또한 0.0001~0.0002에서 좋은 성능을 보였는데, 이는 널리 사용되는 0.001의 값과는 다소 달랐다.</p> <h1>초 록</h1> <p>본 논문은 데이터의 일부만 게이블링이 되어있는 약지도 학습을기반으로 하는 음향 이벤트 검출시스템을 소개 및 구현하고, 시뮬레이선을 동해 각 파라미터가 성능에 미치는 영향을 분석하였다. 음향 이벤트 검출 시스템은 음향 신호 내에 존재하는 이벤트의 종류, 시작/종료 시점을 추정하는 시스템으로, 이를 학습시키기 위해서는 음향 이벤 트 신호와 그종류, 시작/종료 시점에 대한 모든 정보가 제공되어야 한다. 하지만 이를 모두 표기하여 학습데이터를 만 드는 것은 매우 큰 비용이 들어가며, 특히 시작/종료 시점을 정확히 표기하는 것은 매우 어렵다. 따라서 본 논문에서 다루는 약지도 학습 문제에서는 이벤트의 종류와 시작/종료 시점이 모두 표기된 "강하게 표기된 데이터"와, 이벤트의 종류만 표기된 “약하게 표기된 데이터", 그리고 아무런 표기가 되어 있지 않은 "미표기 데이터"를 이용하여 음향 이벤 트 검출 시스템을 학습시킨다. 최근 이러한 문제에서는 평균-교사 모델을 이용한 음향 이벤트 검출 시스템의 성능이 우수하며, 따라서 널리 사용되고 있다. 다만, 평균-교사 모델은 많은 파라미터를 가지고 있고, 이는 성능에 영향을 다소 미칠 수 있으므로 신중하게 선택되어야 한다. 본 논문에서는 DCASE 2020 Task 4의 데이터를 이용하여 특징 값의 종 류, 이동 평균 파라미터, 일관성 비용함수의 가중치, 램프-업 길이, 그리고 최대 학습율 등 5가지의 값에 대해 성능 분석 을 진행하였으며, 각 파라미터에 대한 영향 및 최적 값에 대해 고찰하였다.</p>
|
본 연구에서는 강하게, 약하게 표기된 데이터 및 미표기 데이터를 활용해 학습 가능한 약지도 음향 이벤트 검출 시스템을 구현하고 파라미터 설정에 따른 성능 차이를 분석하였다. 시뮬레이션 결과, 멜-스펙트럼과 감마톤 스펙트럼의 성능이 높았으며, 이동 평균 파라미터가 성능에 큰 영향을 미쳤다. 또한, 평균-교사 모델이 약지도 학습을 위해 추가 구조를 포함하므로 사용자가 설정할 수 있는 파라미터의 종류가 더 많고, 이에 따라 성능이 변할 수 있음을 확인하였다.
|
<h1>I. 서 론</h1> <p>최근 딥러닝 등 기계 학습 기법이 크게 발전함에 따라, 기계가 음향 신호를 인식 및 분석하는 기법에 대한 연구도 크게 발전하고 있다. 여러 연구자들은 단순히 성능이 좋은 알고리즘들을 개발하는 것에서 나아가, 실생활에 적용될 수 있는 다양한 문제들을 발굴하고 이를 풀기위한 노력들을 계속하고 있다.</p> <p>현재 연구되고 있는 음향 인식 관련 연구들은 매우 다양하지만, 대부분의 과업들은 음향 환경 분류(Acoustic Scene Classification, ASC) 및 음향 이벤트 검출(Sound Event Detection, SED) 문제에서 파생되었다. 음향 환경 분류 문제와 음향 이벤트 검출 문제 또한 엄밀하게 구분되지는 않으나, 음향 환경 분류는 주로 10초 정도의 긴 음향 신호를 분류하는 문제를 일컫는 반면, 음향 이벤트 검출 문제는 짧은 음향 신호의 구간을 검출하고 이를 분류하는 문제를 말한다.</p> <p>많은 기계학습 기반 시스템과 마찬가지로, 음향 이벤트 검출 시스템을 학습시키기 위해서는 매우 많은 수의 데이터와 이에 대한 레이블 표기 작업이 필요하다. 기계 학습 기반의 음향 인지 시스템을 실제 응용 시스템에 적용시킬 때 매우 큰 걸림돌이 되는 부분이다. 특히, 음향 이벤트 검출 시스템은 음향 신호의 종류를 분류하고, 이벤트의 시작/종료 시점을 찾는 것을 목표로 하므로, 학습을 위해 제공되는 데이터 또한 음향 이벤트의 종류뿐만 아니라 시작/종료 시점에 대한 데이터를 가지고 있어야 한다. 당연히 이를 위해서는 더 많은 인력을 필요로 하는 문제가 발생한다. 이를 해결하기 위하여, 최근 음향 이벤트 검출 과업을 다루는 커뮤니티에서는 적은 수의 레이블 표기 데이터와 많은 수의 미표기 데이터를 이용하는 약지도 문제를 다루고 있다.</p> <p>음향 환경 분류 및 음향 이벤트 검출 문제를 다루는 커뮤니티 중 하나인 Detection and Classification of Acoustic Scenes and Events(DCASE) 에서는 음향 이벤트 검출을 위한 데이터베이스를 다음과 같이 세 개의 그룹으로 나누고 있다. 하나는 강하게 표기된 데이터(strongly-labeled data)로, 이 종류의 학습 데이터는 각 클립이 포함하고 있는 음향 이벤트들의 종류 및 시작/종료 시점의 레이블을 모두 포함하고 있다. 다음은 약하게 표기된 데이터(weakly-labeled data)로, 이 종류의 학습 데이터는 포함된 음향 이벤트들 의 종류만이 표기되어 있고, 존재 구간에 대한 정보는 포함되어 있지 않다. 마지막은 미표기된 데이터 (unlabeled data)로, 이 종류의 학습 데이터는 어떠한 레이블링 없이 오디오 클립만으로 이루어져 있다.</p> <p>이와같이 레이블링 없는 미표기 데이터를 포함하는 학습 기법을 약지도 학습이라 하며, 이를 위해서 다양한 학습 기법들이 연구된 바 있다. 이러한 기법들은 주로 잡음이 있는 교사 모델을 이용하였을 때 더욱 향상된 결과가 나온다는 관찰에 근거하여 개발 되었다. 이는 의사-앙상블 기법에서 도입되었으며, 이후 영상 분류문제에적용되어 \( \pi \)모델이라 명명되었다. 이와 같이 개발된 \( \pi \)모델은 각 학습 샘플의 예측 값을 지수 가중치를 이용하여 평균을 취하는 시간 앙상블 기법으로 발전되었다. 최근에는, 이를 교사-학생 모델을 이용하여 변형한 평균-교사 모델이 고안되었다.</p> <p>영상 분류 문제에서 먼저 적용되었던 평균-교사 모델은 이후 변형되어 약지도 음향 이벤트 검출 문제에 성공적으로 적용되었으며, 최근 DCASE 등의 대회에서 좋은 성능을 보이고 있는 약지도 음향 이벤트 검출 기법들의 핵심 기법으로 사용되고 있다. 이와 같이 평균-교사 모델이 약지도 음향 이벤트 검출에 성공적으로 사용되고 있는 반면, 기존의 모델보다 다소 복잡한 만큼 여러 파라미터를 가지고 있고, 이를 주의깊게 설정해 주어야 한다. 데이터의 레이블링이 완벽하지 않은 약지도 학습의 특성상, 검출 성능이 이러한 설정 값에 다소 민감하게 반응하게 된다. 그럼에도 불구하고, 많은 후속 연구들이 이러한 파라미터 값에 따른 성능 변화의 분석 없이 기존 연구의 설정 값을 동일하게 사용하고 있다.</p> <p>본 논문에서는 DCASE 등을 중심으로 최근 연구되고 있는 약지도 음향 이벤트 검출 문제에 대해 살펴보고, 이를 위한 평균-교사 모델 기법에 대해 소개한다. 그리고 공개된 데이터셋을 이용, 파라미터를 변경한 반복 실험을 통해 파라미터 값에 따른 성능을 분석하고자 한다.</p>
|
음향 이벤트 검출 시스템을 학습시키기 위해서 필요한 데이터베이스를 DCASE에서 제시한 세 개의 그룹으로 나누어 설명하고, 약지도 학습 기법과 음향 이벤트 검출 기법의 핵심 기법으로 사용되고 있는 평균-교사 모델에 대해 설명하며, 파라미터를 변경하였을 때의 파라미터 값에 따른 성능을 분석하고자 한다.
|
<h1>Ⅲ. 음향 이벤트 검출 시스템</h1> <h2>3.1 음향 이벤트 검출 모델</h2> <p>딥러닝 분야에서 매우 다양한 모델들이 연구되고 있는 만큼, 음향 이벤트 검출을 위하여 종단간(end-to-end) 합성곱 신경망 모델(Convolutional Neural Net-work, CNN), 합성곱 순환 신경망 모델(Convolutional Recurrent Neural Network, CRNN) 등 다양한 모델들이 시도된 바 있다. 멜-주파수 기반의 특징 값을 입력으로 하는 모델에 대해서 현재 안정적으로 널리 사용되는 것은 CRNN 기반의 모델이다. 최근 트랜스포머 기반의 모델도 좋은 성능을 보인 바 있으나, 아직은 조금 더 검증이 필요할 것으로 판단된다.</p> <p>본 논문에 적용된 CRNN 모델은 Delphin-poulat et al.의 모델을 기반으로 하고 있으며, 상세 구조는 Fig. 2와 같다. 모델의 CNN 부분은 기본적으로 2차원 CNN 레이어와 이에 따른 최대값 풀링(max pooling) 레이어로 이루어져 있으며, CNN 레이어를 모두 거쳤을 때 주파수 축의 길이가 1이 되도록 설계되어 있다. Fig. 2에서 보는 바와 같이 매 레이어마다 주파수 축으로 절반의 값을 풀링하도록 구성되어 있으므로, 예를 들어 프레임 별 특징 벡터의 길이가 128인 경우 7개의 CNN 레이어를 사용하면 된다.</p> <p>풀링 레이어는 각 CNN 레이어의 출력 단에 적용된다. 이 때 주파수 축으로는 매 레이어마다 적용되어 데이터를 절반으로 줄이게 되고, 시간 축으로는 2번만 적용되는 구조이다(즉, 시간 축 방향의 크기는 1/4로 줄어든다).</p> <p>2차원 CNN 레이어와 풀링 레이어로 이루어진 CNN 모듈의 출력은 순환 신경망(Recurrent Neural Network, RNN) 으로 연결된다. 앞선 CNN 모듈의 최종출력의 경우 각 프레임 별 출력이 1이 되도록 설계 되어 있으므로, RNN 레이어는 프레임 단위의 처리를 수행하게 된다. RNN 레이어의 출력은 완전 연결 (fully connected) 레이어로 연결되며, 이 완전 연결 레이어와 출력단의 시그모이드(sigmoid) 활성화 함수는 RNN 출력을 각 클래스의 활성화 확률로 바꾸어 주게 된다. 따라서, 완전연결 레이어의 출력 벡터 크기는 클래스의 개수와 동일하다. 따라서 하나의 오디오 클립에 대해 완전 연결 레이어와 시그모이드 활성화 함수로 얻어지는 출력 데이터의 크기는 (프레임 개수/4) \( \times\) (클래스 종류의 개수)와 같다. 이는 Fig. 2의 Time stamps 출력단에서 확인할 수 있으며, 매 프레임 당 각 클래스의 존재 확률을 의미한다.</p> <p>한편, 앞서 언급한 바와 같이 약지도 음향 이벤트 시스템을 학습시키기 위한 데이터는 세 종류의 데이터- 강하게 표기된 데이터, 약하게 표기된 데이터, 미표기 데이터-로 이루어져 있다. 강하게 표기된 데이터는 각 오디오 클립 내에 존재하는 클래스의 종류와 시간 정보를 모두 가지고 있으므로, 이를 이용하여 Time stamps 출력을 위한 정답을 만들 수 있다. 반면, 약하게 표기된 데이터는 클래스의 종류에 대한 정보만을 가지고 있으므로 이러한 정답을 만들수 없다. 따라서, 약하게 표기된 데이터를 학습하기 위한 출력단이 별도로 필요하다. 약하게 표기된 데이터는 클래스의 존재 여부에 대한 정보만을 가지고 있으므로, 이를 위한 출력단의 데이터 크기는 (1) \(\times \)(클래스 종류의 개수) 와 같아야 한다. 이와 같은 크기의 압축은 Fig. 2의 가중치 평균(weighted average)레이어에서 다음과 같이 수행된다.</p> <p>\( c(j)=\frac{\sum_{n=0}^{N_{\text {out }}^{-1}} p(n, j) p_{\text {softmax }}(n, j)}{\sum_{n=0}^{N_{\text {out }}-1} p_{\text {softmax }}(n, j)} ,\)<caption>(1)</caption></p> <p>여기서 \( c(j) \)는 \( j \)번째 클래스의 존재 확률을, \( p(n, j) \)와 \( p_{s o f t \operatorname{tmax}}(n, j) \)는 각각 시그모이드 레이어와 소프트맥스(softmax) 레이어의 \( n\)번째 프레임, \( j \)번째 클래스의 출력을 나타내며, \( N_{\text {out}} \)은 출력 프레임 개수를 나타낸다.</p> <h2>3.2 평균-교사 모델</h2> <p>평균-교사 모델은 영상 처리 문제에서 레이블이 표기된 데이터와 표기되지 않은 데이터를 학습하기 위해 고안되었다. 평균-교사 모델은 다음과 같은 두 가지 특징을 가지고 있다. 먼저, 평균-교사 모델은 학생 모델과 교사 모델로 이루어져 있으며, 학생 모델과 정답과의 차이에 대한 비용함수(classification cost, 분류 비용) 외에 학생 모델과 교사 모델 사이의 차이에 대한 비용함수(consistency cost, 일관성 비용)를 가진다. 또한, 교사 모델의 계수는 역전파에 의해 갱신되지 않고, 학습 과정에서 다음과 같이 학생 모델 계수의 지수 이동 평균으로 계산된다.</p> <p>\( \theta_{\text {teacher }} \longleftarrow \alpha \theta_{\text {teacher }}+(1-\alpha) \theta_{\text {student },} \)<caption>(2)</caption></p> <p>여기서 \( \theta_{\text {teacher }} \)와 \( \theta_{\text {student }} \)는 각각 교사 모델과 학생 모델의 계수를 의미하고, \( \alpha \)는 이동 평균을 조절하는 사용자 설정 파라미터이다.</p> <p>영상 처리 모델을 위한 평균-교사 모델에서 사용한 분류기는 한 종류의 출력(클래스별 확률) 만을 가지는 반면, 약지도 음향 이벤트 검출 분류기는 두 개의 출력(Time stamps 출력과 Clip classes 출력, Fig. 2 참고)을 가진다. 따라서 음향 이벤트 검출을 위한 평균교사 모델은 이에 맞추어 변형될 필요가 있다. 이 모델은 Fig. 3과 같은 형태로 구현될 수 있으며, 강하게 표기된 데이터는 오디오 클립의 특징값과 Time stamps, Clip classes 출력을 위한 정답을, 약하게 표기된 데이터는 특징값과 Clip classes 출력을 위한 정답을, 그리고 미표기 데이터는 특징값만을 제공하게 된다. 이때, 학습을 위한 비용함수는 다음과 같이 정의된다.</p> <p>\( J_{\text {total }}\left(\theta_{\text {student }}\right)=J_{cls}\left(\theta_{\text {student }}\right)+\beta J_{con}\left(\theta_{\text {student }}\right) \),<caption>(3)</caption></p> <p>여기서 \( J_{cls}\left(\theta_{\text {student }}\right) \)와 \( J_{\text {con }}\left(\theta_{\text {student }}\right) \)는 각각 분류 비용과 일관성 비용을 의미하며, \( \beta \)는 일관성 비용에 대한 가중치로, 사용자 설정 파라미터이다. 분류 비용과 일관성 비용은 각각 Time stamps 출력과 Clip classes 출력에 대한 비용함수를 합산하여 계산하며, 일반적으로 분류 비용으로는 이항 교차 엔트로피를, 일관성 비용으로는 평균 제곱 오차를 사용한다.</p> <h2>3.3 학습률 조절 전략</h2> <p>위와 같은 약지도 음향 이벤트는 약하게 표기된 데이터 혹은 미표기 데이터를 사용하며, 학습 초기에는 교사 모델도 충분히 학습되지 않았기 때문에 이와 같은 데이터들은 큰 학습 오차를 만들어낼 수 있다. 이러한 문제를 해결하기 위해 학습 초기에는 낮은 학습률을 적용하였다가 점차 이를 증가시키는 전략을 사용한다. 이를 램프-업(ramp-up)이라 하며, 평균-교사 모델에서는 다음과 같은 지수적 램프-업을 널리 사용한다.</p> <p>\( \mu(n)=\left\{\begin{array}{ll}e^{-\gamma(n)} \mu_{\max }, & \text { if } n \leq N_{\text {rampup }}, \\ \mu_{\max }, & \text { if } n>N_{\text {rampup }}\end{array}\right. \)<caption>(4)</caption></p> <p>여기서 \( \mu(n) \)은 \( n \)번째 에포크의 학습률을 의미하며, \( \mu_{\max } \)는 최대 학습률, \( N_{\text {rampup }} \)은 램프-업 구간의 길이(에포크 수), 그리고 \( \gamma(n) \)은 램프-업 계수로 다음과 같이 계산된다.</p> <p>\( \gamma(n)=5\left(1-\frac{n}{N_{\text {rampup }}}\right)^{2} \cdot \)<caption>(5)</caption></p> <p>위에서 살펴본 바와 같이, 평균-교사 모델 기반의 약지도 음향 이벤트 검출 시스템은 교사 모델의 이동 평균 조절 파라미터 \( \alpha \), 일관성 비용함수에 대한 가중치 \( \beta \), 램프-업 구간의 길이 \( N_{\text {rampup }} \), 그리고 최대 학습률 \( \mu_{\max } \) 등의 사용자 설정 파라미터를 가지며, 이러한 파라미터는 모두 학습 및 분류 성능에 영향을 미치게 된다. 본 논문에서는, 실제 녹음된 음향 이벤트 데이터베이스에 대한 시뮬레이션을 통하여 각 파라미터가 성능에 미치는 영향을 분석하고자 한다.</p>
|
음향 이벤트 검출을 위하여 다양한 모델들이 사용되고 있으며, CRNN 기반의 모델이 안정적으로 널리 사용되고 있다. 본 논문에 적용된 CRNN 모델은 2차원 CNN 레이어와 이에 따른 최대값 풀링 레이어로 이루어져 있으며, RNN 레이어로 연결되어 완전 연결 레이어와 시그모이드 활성화 함수로 각 클래스의 활성화 확률로 바꾸어 주게 된다. 평균-교사 모델을 기반으로하는 약지도 음향 이벤트 검출 시스템은 교사 모델의 파라미터 \( \alpha \), 일관성 비용함수에 대한 가중치 \( \beta \), 램프-업 구간의 길이 \( N_{\text {rampup }} \), 그리고 최대 학습률 \( \mu_{\max } \) 등의 사용자 설정 파라미터를 가진다. 해당 파라미터는 모두 학습 및 분류 성능에 영향을 준다.
|
<h1>Ⅳ. 시뮬레이션 및 결과 분석</h1> <h2>4.1 시뮬레이션 환경</h2> <p>위와 같이 구현한 평균-교사 모델 기반의 약지도 음향 이벤트 시스템의 파라미터에 따른 성능을 분석하기 위하여, DCASE 2020 Task 4의 개발 데이터를 이용하여 성능을 분석하였다. 학습 데이터는 2045개의 강하게 표기된 데이터와 1578개의 약하게 표기된 데이터, 그리고 14412개의 미표기 데이터로 구성 되었다. 각 오디오 클립은 \( 10 \mathrm{~s} \) 길이를 가지고 있으며, \( 16 \mathrm{kHz} \)의 샘플링 주파수를 가지도록 처리되었다. 각 오디오 클립은 2048 샘플 길이의 프레임(255 샘플의 겹침) 당 128개의 특징값으로 변환되었다.</p> <p>본 시뮬레이션에서는, 1) 특징 값의 종류, 2) 이동평균 파라미터 \( \alpha\), 3) 일관성 비용함수의 가중치 \( \beta\), 4) 램프-업 길이 \( N_{\text {rampup }}\), 5) 최대 학습률 \( \mu_{\max } \)을 변화시켜가며 음향 이벤트 검출 시스템 성능의 변화를 관찰하고자 한다. 하나의 파라미터를 변화시키는 동안 다른 파라미터는 하나의 값으로 고정시켰다. 고정된 파라미터 값은 Delphin-Poulat 의 모델리에에 준하여 결정되었으며, 구체적인 값은 다음과 같다. 특징 값으로는 128개의 주파수 빈을 가지는 멜-스펙트럼을 사용하였고, 이동 평균 파라미터는 0.999, 일관성 비용함수의 가중치는 2, 램프-업 길이는 50 에포크, 그리고 최대 학습률은 0.001의 값을 사용하였다.</p> <p>학습은 총 200 에포크 동안 진행되었고, 그 중 검증 데이터에 대해 가장 작은 비용함수를 가지는 모델을 저장하여 성능 평가에 사용하였다. 배치 크기는 24로 설정되었고, 구성된 모델은 Adam 기법을 이용하여 학습되었다. 검출기의 출력 확률값은 0.5의 문턱값을 기준으로, 문턱값보다 큰 경우 이벤트가 존재하는 것으로, 그렇지 않은 경우 이벤트가 존재하지 않는 것으로 판별하였다.</p> <p>결과에 대한 성능을 평가하기 위한 지표로, 이벤트-기반 F1-score와 세그먼트-기반 F1-score가 사용되었다. F1-score는 정확도 지표 중 하나로, 다음과 같은 정밀도 \( P \)와 재현율 \( R \)의 기하 평균으로 계산된다.</p> <p>\( P=\frac{n_{T P}}{n_{T P}+n_{F P}} \),<caption>(6)</caption></p> <p>\( R=\frac{n_{T P}}{n_{T P}+n_{F N}} \),<caption>(7)</caption></p> <p>\( F_{1}=\frac{2 P R}{P+R} \),<caption>(8)</caption></p> <p>여기서 \( n_{T P} \)는 이벤트가 존재하는 것을 정확히 맞춘 개수를, \( n_{F P} \)는 이벤트를 검출하였지만 실제로는 이벤트가 없는 경우(오탐지)의 개수를, 그리고 \( n_{F N} \)는 실제 이벤트가 존재하지만 검출기가 놓친 개수를 의미한다. 세그먼트-기반 지표는 클립을 1초 구간으로 나누어 평가하며, 각 \( 1 \mathrm{~s} \) 구간마다 추정치와 정답을 비교하여 성능을 평가한다. 이벤트-기반 지표는 각 이벤트 구간 별로 추정치와 정답을 비교하여 성능을 평가하며, 이 때 이벤트의 시작 시점과 종료 시점을 모두 맞춘 경우 이를 정확한 답으로 판정한다. 이 때 시작 시점은 \( 0.2 \mathrm{~s} \)의 오차 범위 내에 있는 경우 이를 정답으로 인정하고, 종료 시점은 \( 0.2 \mathrm{~s}\)(혹은 이벤트 길이의 \( 20 \% \))의 오차 내에 있는 경우 정답으로 인정한다. 이는 DCASE 2019 Task 4 및 DCASE 2020 Task 4의 기준과 동일하다.</p> <h2>4.2 시뮬레이션 결과</h2> <p>첫 번째로, 특징 값의 종류에 따른 성능의 변화를 관찰하였다. 적용된 특징 값은 음향 신호 분류 및 음향 이벤트 검출 등의 과업에서 널리 사용되는 멜-스펙트럼, 로그-멜 스펙트럼, 그리고 감마톤 스펙트럼을 적용하여 비교하였다. 각 특징 벡터의 크기는 128로 동일하게 설정되었으며, 프레임 길이 또한 앞서 기술한 바와 동일하다.</p> <p>Table 1은 각 특징 별 성능을 비교하여 나타내고 있다. Micro-averaged F1-score는 클래스와 관계없이 모든 정답을 누적하여 계산한 평균 성능이고, macro-averaged F1-score는 각 클래스 별 F1-score를 먼저 계산한 후, 이에 대한 평균을 계산한 지표이다. 각 클래스 별로 정답의 개수가 다르기 때문에, 정답이 많은 클래스의 성능이 높은 경우 micro-averaged F1-score의 지표가 더 높을 것이고, 모든 클래스의 성능이 고르게 나타난 경우 macro-averaged F1-score의 성능이 더 좋을 수 있다.</p> <p>성능 결과를 살펴보면, 모든 지표에 대하여 멜-스펙트럼의 성능이 가장 좋고, 그 다음이 감마톤 스펙트럼, 그리고 로그-멜 스펙트럼의 성능이 가장 낮게 나타났다. 멜-스펙트럼과 감마톤 스펙트럼의 성능차이는 \( 1 \% \sim 2 \% \) 정도로 크지 않았으나, 로그-멜 스펙트럼은 \( 4 \% \sim 8 \% \) 정도의 큰 성능 저하를 보였다. 다음으로, 이동 평균 파라미터 \( \alpha \)에 따른 성능을 분석하였다. Eq. (2)에서 보는 바와 같이, 이동 평균 파라미터가 클수록 새로운 학생 모델 계수에 대한 가중치가 작다. 즉, 교사 모델의 계수가 느리게 변하면서 더욱 긴 데이터에 대한 평균을 계산하는 셈이된다.</p> <p>이동 평균 파라미터에 대한 성능은 Table 2에 정리되어 있다. 이를 통해 Delphin-poulat et al. 여러 모델에서 널리 사용되는 0.999의 값보다는 0.99의 값이 더 좋은 성능을 보이는 것을 확인할 수 있었다. \( \alpha=0.9999 \)인 경우 미시-평균 이벤트 기반 성능이 높고, 거시-평균 성능이 나쁜 것을 확인할 수 있는데, 이는 이벤트 개수가 많은 클래스에서 더 좋은 성능이 나온 것을 의미한다. 테스트 이벤트 개수가 많은 클래스는 대부분 훈련 데이터 개수도 많기 때문에, 데이터가 많은 클래스에 치중하여 학습이 된 것을 알 수 있다.</p> <p>Table 3은 일관성 비용 함수에 대한 가중치 \( \beta \)에 따른 성능 비교를 나타내고 있다. 평균-교사 모델 기반의 약지도 음향 이벤트 검출기에서 널리 사용되는 값 \( (\beta=2) \)과 달리 4~16사이의 값이 일반적으로 좋은 성능을 보였다. 다만 모든 지표에서 좋은 성능을 보이는 \( \beta \) 값은 존재하지 않고, 지표의 종류와 평균을 구하는 방법에 따라 최적의 \( \beta \) 값이 달라졌다. \( \beta=32 \)의 경우는 미시-평균 이벤트 기반 성능은 성능이 높았으나, 나머지 3개의 지표에서 낮은 성능을 보였다.</p> <p>Table 4는 램프-업 길이 \( N_{\text {rampup }} \)에 따른 성능을 비교하였다. \( N_{\text {rampup }}=30 \)일 때에는 이벤트-기반 성능이 좋고, \( N_{\text {rampup }}=50 \)일 때에는 세그먼트-기반성능이 좋은 경향을 보였다. 다만, 다른 파라미터에 비해 램프-업 길이의 차이는 성능에 큰 영향을 주지 않는것을 볼 수 있었다.</p> <p>Table 5 는 최대 학습율 \( \mu_{\max } \)에 따른 성능의 변화를 보여주고 있다. Delphin-poulat et al.의 모델에서 사용한 값은 0.001이었으나, 이보다는 작은 학습율 (0.0001~0.0005)에서 더 좋은 성능을 보였다. 0.001의 최대 학습율은 미시-평균 세그먼트-기반지표에서 가장 좋은 성능을 보였으나, 나머지 지표에서 다소 저하된 성능을 보였다. 가장 종은 이벤트-기반 성능은 0.0001의 학습율에서, 거시-평균 세그먼트-기반 성능은 0.0002의 학습율에서 볼 수 있었으나, 둘 사이의 성능 차이는 크지 않았다.</p>
|
본 논문은 시뮬레이션을 통해 1) 특징 값의 종류, 2) 이동평균 파라미터 \( \alpha\), 3) 일관성 비용함수의 가중치 \( \beta\), 4) 램프-업 길이 \( N_{\text {rampup }}\), 5) 최대 학습률 \( \mu_{\max } \)을 변화시켜 음향 검출 성능을 파악한다. 이는 멜-스펙트럼, 로그-멜 스펙트럼, 그리고 감마톤 스펙트럼을 통해 비교했다.
|
<h1>III. 멀티모달센서롤 이용한 사용자 중심의 향상된 u-헬스케어 기술의 구현</h1> <h2>1. 커뮤니티 컴퓨팅 기반의 u-헬스케어 서비스 시스템</h2> <p>u-헬스케어를 제공하기 위한 유비쿼터스 지능공간은 사용자를 위해 자율적으로 목표지향적인 협업을 수행하는 공간이다. 다시 말해 사용자 중심으로 모든 서비스가 자율적으로 구성되고 제공되는 공간이다.</p> <p>u-헬스케어 서비스를 위한 목표지향적인 협업을 수행하기 위해 기존의 유비쿼터스 지능공간 구성에서 구현된 USPi(Ubiquitous System Platform initiative)를 u-헬스케어 도메인에 확대 적용하였다. 이러한 방식은 건강관리를 위해 필요한 사용자의 생체정보 및 서비스 추천에 필요한 상황정보를 자동으로 인식하고, 획득한 정보들을 지수화 하여 도출한 후 사용자에게 적절한 u-헬스케어 서비스를 추천◦제공할 수 있도록 할 수 있는 기초가 된다. u-헬스케어 서비스의 핵심요소인 USPi는 온톨로지 기반 상황인지기술, 동적 커뮤니티 컴퓨팅기술 그리고 지수기반 서비스 제공기술로 대표될 수 있다.</p> <p>그림 5는 u-헬스케어 서비스를 구현하기 위하여 적용한 유비쿼터스 지능공간의 개괄적인 시스템 구조도를 보여주고 있다. 지능공간을 구성하고 있는 각종 스마트 오브젝트(Smart Object)들과 다양한 센서들이 지능공간 내의 사용자 정보와 요구사항, 환경정보들을 수집하여 컨텍스트 어그리게이터(Context Aggregator)를 통해 데이터 가공과 필터링을 거쳐 컨텍스트 브로커(Context Broker)에게 전송한다. 이렇게 수집된 정보는 온톨로지 기반의 상황인지기술을 통하여 사용자의 건강상태 등을 추론하는데 이용되며, 이렇게 추론된 상태를 기반으로 사용자의 건강관리를 위한 최적의 u-헬스케어 서비스를 동적으로 추천◦제공하게 된다.</p> <p>그림 6은 위에서 언급한 시스템 구조를 적용하여 구성된 실제의 테스트베드를 도식화 한 것이다. 그림과 같이 지능공간은 다양한 스마트 오브젝트(Smart Dining-table, Smart Bed, Smart Treadmill 등)와 환경정보 획득을 위한 센서(온도, 습도, 조도, \( \mathrm{CO2} \) 등)들로 구성되어, 사용자에게 최적의 서비스를 제공하게 된다.</p> <p>본 연구에서는 그림 6과 같이 구성된 지능공간에서 사용자 중심의 u-헬스케어 서비스를 구현하기 위하여 상황인지기술이 적용된 기존의 스마트 오브젝트에 멀티모달센서를 이용한 향상된 서비스 구현이 가능하도록 하였다.</p> <h2>2. 스마트 트레드밀 (Smart Treadmill)</h2> <p>스마트 트레드밀 서비스는 앞서 언급한 유비쿼터스 지능공간에서 u-헬스케어 서비스를 담당하는 하나의 스마트 오브젝트이다. 유비쿼터스 지능공간은 컨텍스트 브로커로 수집된 각종 상황정보를 통해 User Agent가 사용자의 스트레스 지수를 계산한다.</p> <p>도출된 스트레스 지수가 높을 경우, 스트레스 지수를 낮추기 위한 각종 서비스들이 자율적으로 구성되어 사용자에게 제공된다. 운동처방을 통한 스마트 트레드밀 서비스 또한 이러한 목표 지향적 협업을 위해 자동으로 구성되는 서비스이다.</p> <p>기존의 트레드밀 서비스가 운동 처방에 따른 운동량과 기타 정보를 사용자가 수동적으로 입력하거나, 스마트 카드와 같은 저장매체를 휴대하여 트레드밀에 전달하였다면, 본 연구에서는 트레드밀에 멀티모달센서의 하나인 존재인식 센서모듈을 개발하여 적용함으로써 사용자의 존재유무를 자동적으로 판단하여 운동의 시작과 종료를 제어하였고, 트레드밀의 RS-232 를 통하여 개인화된 운동처방 정보를 자동 입력◦제어하여 운동서비스가 가능하도록 함으로써, 사용자 중심적인 사라지는 컴퓨팅, 조용한 컴퓨팅, 보이지 않는 컴퓨팅이 가능하게 하였다.</p> <p>운동서비스의 처방 및 실행을 위해서 STEX-8020TL(그림 7) 모델의 트레드밀이 사용되었으며 동기종은 RS-232를 통한 제어와 모니터링이 가능하도록 설계되었다. 존재인식센서모듈(그림 8)은 초음파센서인 STMA-506NC 모델을 통하여 트레드밀 상에서 사용자의 존재유무를 자동으로 감지할 수 있도록 하였고, ATMegal28 개발보드인 MC-E02SM3를 사용하여 초음파센서를 통하여 수집된 정보를 전달 받아, 적절한 딜레이 등의 필터링 작업을 통해 컨텍스트 브로커로 정보를 전송하도록 하였다.</p> <p>이렇게 그림 8로부터 스마트 트레드밀 상의 사용자가 인식되면, 센서모듈은 정보를 컨텍스트 어그리게이터를 통하여 컨텍스트 브로커에게 전달하게 된다. 사용자의 존재를 확인한 커뮤니티 매니저 (Community Manager)는 운동처방정보를 RS-232를 통하여 스마트 트레드밀에 입력하고 그에 따른 운동서비스가 가능하도록 동작을 명령하게 된다.</p> <p>운동의 종료 또한 사용자가 스마트 트레드밀 상에 일정 시간동안 존재하지 않는 경우 센서모듈이 이를 인식하고 자동으로 동작을 멈추거나, 사용자의 종료 요구에 따라 동작을 멈출 수 있게 구성하였으며, 사용자가 수행한 운동량 정보를 컨텍스트 브로커에게 전달함으로써 새롭게 스트레스 지수에 반영될 수 있도록 설계하였다.</p>
|
u-헬스케어를 제공하기 위한 유비쿼터스 지능공간은 사용자를 위해 자율적으로 목표지향적인 협업을 수행하는 공간으로, 이를 위해 기존의 유비쿼터스 지능공간 구성에서 구현된 USPi를 u-헬스케어 도메인에 확대 적용하였다. 본 연구에서는 지능공간에서 사용자 중심의 u-헬스케어 서비스를 구현하기 위해 기존의 스마트 오브젝트에 멀티모달센서를 이용한 향상된 서비스 구현이 가능하도록 하였다. 스마트 트레드밀 서비스는 유비쿼터스 지능공간에서 u-헬스케어 서비스를 담당하는 스마트 오브젝트 중 하나이다. 기존의 트레드밀 서비스와는 다르게 본 연구에서는 트레드밀에 멀티모달센서의 하나인 존재인식 센서모듈을 개발하여 적용함으로써, 사용자의 존재유무를 자동적으로 판단하고 개인화된 운동처방 정보를 자동으로 입력 제어하여 운동서비스가 가능하도록 함으로써 사용자 중심적인 컴퓨팅이 가능하게 하였다.
|
<h2>3. UMO (Ubiquitous Mobile Object)</h2> <p>UMO 역시 유비쿼터스 지능공간에서 u-헬스케어 서비스를 담당하는 하나의 스마트 오브젝트이다. UMO는 사용자의 주변 환경을 인지하고 분석하여 최적의 지능적 서비스를 제공할 수 있는 추론엔진을 탑재한 모바일 단말이며 스마트 오브젝트이다.</p> <p>앞서 설명한 스마트 트레드밀의 경우 물리적으로 유비쿼터스 지능공간 내부에서 동작함으로써, 사용자의 외부 활동정보(외부 스트레스, 외부 활동량 등)를 스트레스 지수 산정에 반영하기 어렵다. 따라서 소형의 UMO단말기를 통해서 이러한 부분을 해결 하였다.</p> <p>실제로 이러한 사용자의 실외 활동량을 측정하여 건강관리에 적용하는 제품으로는 애플사의 ipod과 나이키 운동화를 접목하여 사용자의 운동시간, 운동강도, 소모된 칼로리 등을 계산하고 측정된 정보를 서버에 전송하여 개인화된 운동 관리를 해주는 Nike+라는 서비스가 상용화 되어있다. 하지만 Nike+의 경우 운동 관리와 서버를 통한 개인이력관리, 그리고 Challenge Mode등과 같은 다양한 온라인 애플리케이션 등이 제공되고 있지만 사용자 중심적인 측면으로 보았을 때 번거로움을 유발하는 단점이 있다.</p> <p>UMO(그림 9)는 기본적으로 외부 활동량 측정이 가능하며, 다양한 응용기술을 통해 Nike+에 비하여 사용이 편리하다. 본 연구에 사용된 UMO단말기와 WiWSN은 전자부품연구원(KETI)에서 개발된 기존의 UMO단말기에 사용자 편의를 위해 멀티모달센서와 무선통신기술을 추가하여 u-헬스케어 서비스 통합을 위해 사용하였다. 이렇게 구현된 UMO는 사용자의 외부 활동량을 측정하고 서버에 전송하다는 기본 개념은 Nike+와 동일하지만 활동량 측정을 위해 제작된 WiWSN(그림 10)에 지그비 근거리 무선통신기술을 적용하여 UMO단말기와 통신하게 함으로써, 매번 수신부와 유선으로 연결해야 하는 Nike+에 비해 사용자 편의성을 높일 수 있었다.</p> <p>또한 공간노드(Space-Node)라는 멀티모달센서를 추가로 이용하여, 사용자의 인도어(Indoor)상황을 자동으로 감지하고 UMO에 저장된 외부활동정보를 Wi-Fi를 통해 자동으로 컨텍스트 브로커에 전달할 수 있게 하였다. 이를 통해 사용자의 외부활동량을 지수 계산에 반영하고, 멀티모달센서와 응용기술의 접목을 통해 사용자 중심의 보다 무구속적인 서비스를 제공할 수 있었다.</p> <h2>4. 스마트 베드 (Smart Bed)</h2> <p>스마트 베드도 역시 u-헬스케어 서비스를 위한 스마트 오브젝트중 하나이다. 스마트 베드는 사용자의 수면의 질을 파악할 수 있는 다양한 생체정보를 수집한다. 기존의 수면상태를 모니터링 하려는 많은 연구들은 비용적인 측면과 사용자 편의성을 고려 했을 때 지속적인 수면 상태의 모니터링 방식으로는 부적절하다. 기존의 시스템은 사용자의 수면 단계 파악을 위해 뇌파 측정과 같은 신체 구속적인 장비를 착용하고 수면을 취하게 함으로써 지속적인 측정이 어려운 구조이기 때문이다. 따라서 사용자의 불편함을 최소화 하면서 수면의 상태를 지속적으로 모니터링하고 수면의 질을 객관적인 지수로 도출 할 수 있는 시스템을 개발하였다.</p> <p>수면상태 모니터링 시스템은 크게 센싱 인프라, 시스템 플랫폼, 추론엔진 등의 세 가지 부분으로 구성되는데, 센싱 인프라는 여러 가지 멀티모달센서를 기반으로 하여 사용자의 정보를 수집한다. 이렇게 수집된 정보는 무선으로 시스템 플랫폼으로 전송되고, 전송된 raw 데이터를 시스템 풀랫폼에서 분석하여 특징을 추출하고 추론엔진에서 필요한 하나의 데이터로 변환한다. 이렇게 변환된 데이터들은 수면의 질을 계산하는 자료로써 이용된다.</p> <p>또한 스마트 베드는 가속도센서를 사용하여 수면 자세를 측정하고, 압력센서를 이용하여 사용자의 심박수, 호흡수, 움직임 등의 생체 정보를 무구속으로 수집한다. 이러한 정보 역시 사용자의 수면의 질을 판단할 수 있는 수면단계의 지속시간, 수면 중 무호흡 발생횟수, 개인별 선호 수면 자세 등의 정보를 획득할 수 있게 하여 이를 수면의 질을 측정하는 근거 자료로 활용하게 한다.</p> <p>이렇게 스마트 베드를 통해 측정된 수면 만족도 정보 역시 컨텍스트 브로커에 전달되어 스트레스 지수에 반영될 수 있도록 설계 되었다.</p>
|
UMO 역시 유비쿼터스 지능공간에서 u-헬스케어 서비스를 담당하며, 사용자의 주변 환경을 인지하고 분석하여 최적의 지능적 서비스를 제공할 수 있는 추론엔진을 탑재한 모바일 단말이며 스마트 오브젝트이다. 또한, 스마트 베드 역시 u-헬스케어 서비스를 위한 스마트 오브젝트중 하나로, 사용자의 수면의 질을 파악할 수 있는 다양한 생체정보를 수집한다.
|
<h1>II. 관련 연구</h1> <p>u-헬스케어는 각종 의료용 센서, USN(Ubiquitous Sensor Network)을 적용한 임베디드 디바이스의 개발과 기기들 사이의 정보교환에 필요한 표준화 작업 등을 통하여 사용자에게 다양한 의료서비스를 제공하는 것이다. 이번 장에서는 앞서 언급한 바와 같이 현재 관심이 집중되어 있는 u-헬스케어 서비스, u-헬스케어 기기개발, u-헬스케어 표준화에 대한 동향을 소개하고 이를 통하여 차별적인 u-헬스케어 서비스를 모색하고자 한다.</p> <h2>1. u-헬스케어 서비스 동향</h2> <h3>가. 산업장 근로자 대상 원격의료 서비스</h3> <p>본 서비스는 산업장에 근무하는 근로자를 대상으로 아주대의료원, 산재의료관리원, 화성시 보건소, 이동진료차량 간에 원격의료시스템을 구축하여 원격의료 및 협진, 방문 진료가 가능한 u-헬스케어 서비스이다.</p> <p>원격의료 서비스는 문진녹화 시스템과 원격의료시스템, 환자정보 보안 관련 RFID 시스템 등으로 구성되어 있다. 문진녹화 시스템은 환자의 건강상태를 사전에 문진하여 결과를 전송하고, 원격의료시스템은 생체정보를 측정하고 화상으로 전송하는 시스템이다. 이와 같이 구성된 시스템은 보건소, 병원, 이동진료차량에 탑재되어 근로자가 병원을 직접 방문하지 않고도 보건소 및 이동진료차량에 마련된 화상진료센터에서 컴퓨터를 통해 의료 서비스를 받을 수 있도록 구성되어 있는 것이 특징이다.</p> <p>원격의료시스템은 의사와 환자인증이 가능한 스마트 카드 시스템과 RFID 시스템을 이용하고, 의사와 환자간의 원격진료가 가능하도록 원격의료 단말기가 설치되어 있다. 이동진료차량에는 무선 네트워크(HSDPA, WIBRO 등)를 통해 간호사가 서버와 접속 할 수 있으며, 이동진료차량의 간호사는 u-헬스케어 인프라를 이용하여 체온, 혈압, 맥박, 혈당, 심전도 등을 측정하고 측정된 정보와 화상정보를 병원에 전송한다. 병원에 상주하고 있는 의사는 전송된 데이터를 근거로 환자를 진료한다. 환자의 개인 정보는 RFID를 이용한 보안시스템을 통해 아주대의료원의 u-헬스 정보센터에 저장되며, 저장된 정보는 스마트 카드를 소지한 등록된 의료진이 시스템에 접근할 수 있도록 보안 기능이 적용된다.</p> <p>또한, IP-USN 기반 산업장 환경모니터링 시스템을 구축하여 온도, 습도, 진동, 소음, 분진 등 5가지 환경정보를 실시간 센싱하여 관리하고, 산업장 환경과 산업근로자 만성질환과의 역학 관계를 분석하여 산업장 환경 개선 및 질병 원인 파악을 위한 가이드를 제공할 수 있는 시스템이 구축되어 있다.</p> <h3>나. u-방문간호 서비스</h3> <p>본 서비스는 간호사가 방문간호대상자를 보다 체계적으로 관리할 수 있도록 지원하는 u-헬스케어 서비스이다. u-방문간호 서비스는 건강측정기기, 모니터링, 방문간호지원시스템 등으로 구성되어있다. 보건소에 상주하고 있는 방문간호사는 u-방문간호 서비스에 등록된 관리 대상자 방문시 모바일 웹닥 및 이동형 측정기기를 통해 대상자의 이력을 관리한다. 등록되지 않은 대상자를 방문하는 경우에는 UMPC를 이용하여 대상자를 새롭게 등록하고 이력을 관리한다. 이동형 측정기기와 모바일 웹닥을 동해 대상자의 혈압, 맥박, 혈당, 체지방율을 측정하면 데이터를 자동으로 서버에 전송하고, 해당 수치에 대한 단기 분석 및 경향 분석결과를 의료진으로부터 전송받아 간호사는 적절한 관리지도를 시행한다. 하지만 무선 네트워크 등 데이터 통신이 수월하지 않은 경우에는 데이터를 로컬단말기에 저장하고, 이를 추후 전송하게 된다.</p> <p>방문간호사는 모바일 웹닥을 통해 모니터링 된 생체 정보를 통하여 대상자를 맞춤 관리 할 수 있고, 기존에 수기작성, 이중입력 등으로 가중되었던 방문간호 행정 업무를 개선할 수 있다. 보건소 주치의는 진료업무에 필요한 데이터를 이동형 측정기기와 무선 네트워크를 통해 전송받아 진료에 활용함으로써 보다 많은 대상자들에게 u-방문간호 서비스를 제공할 수 있다. 또한 대상자나 보호자는 웹 사이트에 접속하여 관리 내역과 누적결과를 확인할 수 있도록 시스템이 구축되어 있다.</p>
|
u-헬스케어는 각종 의료용 센서, USN을 적용한 임베디드 디바이스의 개발과 기기들 사이의 정보교환에 필요한 표준화 작업 등을 통하여 사용자에게 다양한 의료서비스를 제공하는 것을 말하는데 차별적인 u-헬스케어 서비스를 모색하고자 한다. 산업장 근로자 대상 원격의료 서비스는 문진녹화 시스템과 원격의료시스템, 환자정보 보안 관련 RFID 시스템 등으로 구성되어 있다. 또한, IP-USN 기반 산업장 환경모니터링 시스템을 구축하여 온도, 습도, 진동, 소음, 분진 등 5가지 환경정보를 실시간 센싱하여 관리하고, 산업장 환경과 산업근로자 만성질환과의 역학 관계를 분석하여 산업장 환경 개선 및 질병 원인 파악을 위한 가이드를 제공할 수 있는 시스템이 구축되어 있다. u-방문간호 서비스는 간호사가 방문간호대상자를 보다 체계적으로 관리할 수 있도록 지원하는 u-헬스케어 서비스를 말하며 건강측정기기, 모니터링, 방문간호지원시스템 등으로 구성되어있다. 방문간호사는 모바일 웹닥을 통해 모니터링 된 생체 정보를 통하여 대상자를 맞춤 관리 할 수 있고, 기존에 수기작성, 이중입력 등으로 가중되었던 방문간호 행정 업무를 개선할 수 있으며 보건소 주치의는 이동형 측정기기와 무선 네트워크를 진료에 활용할 수 있어 효율적이다.
|
<p>고역 차단 주파수를 결정하기 위해 잡음이 존재하지 않는 경우와 백색잡음이 존재하는 경우의 주파수 스펙트럼 분석을 수행하였다. (그림 4)는 각 경우에 대해 주파수에 따른 에너지의 분포를 나타낸 것이다. 필터 설계용 데이터의 모든 단어에 대해 각 발음의 평간적인 에너지의 분포를 나타낸다. 그림에서 보는 것과 같이 잡음의 효과는 곺은 주파수 대역의 에너지를 증가시키는 것으로 나타난다. 이러한 고주파 대역의 에너지 증가는 대략 \( 8 \sim9 \mathrm { Hz } \) 이상에서 두드러진다.</p> <p>기존의 심리학 연구에서는 다양한 프레임 비율의 입술 움직임 동영상에 대한 인간의 독순 인식 성능을 비교한 바 있다. 그 결과, 16.7 \( \mathrm { Hz } \) 정도의 프레임 비율이 인식에 충분한 것으로 나타났으며, 그 이상의 프레임 비율은 인식에 큰 도움이 되지 못하였다. 이 결과는 16.7 \( \mathrm { Hz } \)의 절반인 8.35 \( \mathrm { Hz } \) 이하의 변화율을 가지는 정보가 인식에 충분함을 의미한다.</p> <p>이상의 스펙트럼 및 심리학적 분석들을 통해 잡음에 의한 오염이 심하면서 인식에 중요한 정보가 많지 않은 고주파 대역을 제거하여 강인한 인식 성능을 얻을 수 있음을 알 수 있다. 따라서, 제안하는 BPF의 고역 차단주파수는 인식에 중요한 정보의 변화율이 포함되는 8.35 \( \mathrm { Hz } \)에 약간의 여유를 둔 9 \( \mathrm { Hz } \)로 설정한다. 이러한 여유를 두는 것은 차단 주파수가 통과대역의 최대응답보다 3 \( \mathrm { dB } \) 감쇠된 응답을 얻는 주파수이므로 8.35 \( \mathrm { Hz } \)에서도 감쇠없이 신호가 통과되도록 하기 위함이다. 앞 절에서 정한 저역 차단 주파수 0.9 \( \mathrm { Hz } \)와 고역 차단 주파수 9 \( \mathrm { Hz } \)를 가지는 4차 Butterworth BPF는 다음과 같이 얻을 수 있다.</p> <p>\( B(z)= \frac { 0.3307-0.6614 z ^ { -2 } + 0.3307 z ^ { -4 } } { 1-1.4261 z ^ { -1 } + 0.4618 z ^ { -2 } -0.1566 z ^ { -3 } + 0.1754 z ^ { -4 } } \)<caption>(3)</caption></p> <p>(그림 5)는 제안하는 BPF의 주파수 응답을 나타낸다. Butterworth 필터를 사용하였기 때문에 통과 대역에서 매우 평평한 응답을 보이며 이를 통해 왜곡 없는 신호의 전달이 가능하다. 그리고 설정한 차단 주파수 밖의 저역 및 고역 주파수 대역 신호를 차단할 수 있다.</p>
|
고역 차단 주파수를 정하기 위해 잡음이 존재하지 않는 경우와 백색잡음이 존재하는 경우의 주파수 스펙트럼 분석을 수행하였고, 주파수에 따른 에너지의 분포를 나타내며, 그림에서 보는 것과 같이 잡음의 효과는 높은 주파수 대역의 에너지를 증가시키과, Butterworth 필터를 사용하였기 때문에 통과 대역에서 매우 평평해 보이며 이를 통해 왜곡 없는 신호의 전달이 가능하고 설정한 차단 주파수 밖의 저역 및 고역 주파수 대역 신호를 차단할 수 있다.
|
<h1>4. 실험 및 결과</h1> <p>본 장에서는 제안하는 특징추출 기법의 성능을 2.1절에서 서술한 두 데이터베이스에 대한 인식실험을 통해 알아본다. 제안하는 기법에서 특징 추출의 과정은 입술 영역 영상열에 식 (3)으로 주어진 BPF를 적용하고 각 발음에 대한 평간 제거 후 PCA를 통해 각 영상마다 12개의 특징을 얻는다. BPF를 사용하지 않은 경우(2.3절 참조)와 인식 성능을 비교하며, 두 경우 모두 인식기로써 2.4절에서 설명한 연속 HMM을 사용한다. 실험에서 사용한 영상의 예를 (그림 6)에 나타내었다.</p> <h2>4.1. 잡음이 없는 환경</h2> <p>먼저, 제안하는 기법을 잡음이 없는 영상에 대해 실험하여 성능을 알아본다. (그림 7)은 BPF를 적용하지 않은 경우와 적용한 경우의 오인식율을 비교한다. 그림에서 보는 것과 같이 제안하는 기법에 의해 인식의 성능이 크게 향상되는 것을 볼 수 있다. 각 데이터베이스에 대한 오인식율은 DIGIT의 경우 45.9 \( \% \)에서35.7 \( \% \)로, CITY의 경우 37.8 \( \% \)에서 23.2 \( \% \)로 감소하였다. 이는 각각 22.2 \( \% \)와 38.6 \( \% \)의 상대적 오인식율 감소를 얻은 것이다. 이러한 성능 향상은 낮은 주파수 대역에 포함되어 있는 음성정보와 무관한 성분들을 제거함으로써 얻는 이득이다.</p> <h2>4.2 백색잡음이 존재하는 환경</h2> <p>다음으로, 영상에 백색잡음이 포함된 경우에 대해 제안하는 기법의 성능을 알아본다. 백색잡음은 평간이 0인 가산잡음으로써 각 픽셀에 정규분포의 무작위값을 더하는 형태로 영상에 포함된다. 즉, 잡음이 존재하지 않는 영상을 \( I \), 잡음 신호를 \( \eta \)라 하면, 잡음섞인 영상 \( K \)는</p> <p>\( K(m, n)=I(m, n) + \eta(m, n) \)<caption>(4)</caption></p> <p>로 얻어진다. 여기서 \( (m, n) \)은 픽셀 좌표이다. 백색잡음의 양은 다음 식으로 정의되는 최대신호 대 잡음비(PSNR: peak-signal-to-noise ratio)로 표현 한다.</p> <p>PSNR \( =10 \log _ { 10 } \left ( \frac { ( \text { maximum pixel value } ) ^ { 2 } \times M \times N } {\sum_ { m=1 } ^ { M } \sum_ { n=1 } ^ { N } (I(m, n)-K(m, n)) ^ { 2 } } \right ) \)<caption>(5)</caption></p> <p>여기서, \( M \)과 \( N \)은 영상의 가로와 세로의 크기를 의미한다. 잡음신호 \( \eta \)의 크기를 조정하여 PSNR을 20~0 \( \mathrm { dB } \)까지 5 \( \mathrm { dB } \) 간격으로 한 영상을 생성하여 인식 실험을 하였으며 그 결과를 (그림 8)에 나타내었다.</p>
|
본 장에서는 제안하는 특징추출 기법의 성능을 두 데이터베이스(DIGIT, CITY)에 대한 인식실험을 통해 알아보았다. BPF를 사용함으로써 입술 영역 영상열에서 주파수 대역에 포함되어 있는 음성정보와 무관한 성분들을 제거하여 인식 성능이 크게 향상되었다. 백색잡음이 존재하는 환경에서도 제안하는 기법의 성능이 좋은 것으로 나타났다.
|
<h2>2.4. 인식기</h2> <p>인식에는 음성인식에서 가장 많이 사용되는 은닉 마르코프 모델(HMM: hidden Markov model)을 사용한다. 관측확률 분포가 가우시안 혼합 모델(Gaussian mixture model)로 주어지는 연속 HMM을 사용하는데, HMM의 상태의 수는 각 단어별로 포함된 음소의 수에 비례하도록 하고 각 상태마다 3개의 가우시안 함수를 사용한다. 이는 실험을 통해 좋은 성능을 얻는 설정을 선택한 것이다. HMM 파라미터의 학습은 기대-최대(expectation-maximization)기법을 사용하여 수행한다. 인식 과정에서는 클래스를 알 수 없는 인식용 데이터가 주어졌을 때 이를 모든 클래스에 대한 HMM에 입력하고 가장 높은 확률값을 내는 HMM을 선택하여 인식결과를 얻는다. 인식 성능은 테스트 데이터의 단어들 중 오인식된 단어의 수의 백분율로 정의되는 오인식율( \( \% \))로 나타낸다.</p> <p>윗 절에서 얻은 특징과 연속 HMM을 이용한 인식 결과 오인식율은 DIGIT 데이터베이스의 462개 단어 (=14명 \( \times \)11 단어 \( \times \)3번반복)와 CITY 데이터베이스 672개 단어 (=14명 \( \times \)16 단어 \( \times \)3번반복)에 대해 각각 45.9 \( \% \)와 37.8 \( \% \)로 나타났다. 우리 말 숫자인 DIGIT 데이터베이스에는 단음절이며 입술 모양으로 구분이 어려운 단어들이 존재하기 때문에 이들간의 오인식율이 높았다. 상대적으로 발음간 구분이 더 쉬운 CITY 데이터베이스의 경우에는 더 낮은 오인식율을 얻었다.</p> <h1>3. 제안하는 필터링 기법</h1> <p>입술 영역의 각 좌표별 픽셀값의 시간에 대한 궤적은 0 \( \mathrm { Hz } \)인 직류(dc) 성분부터 샘플링 주파수 30 \( \mathrm { Hz } \)의 절반인 15 ( \mathrm { Hz } \)의 주파수 성분까지 포함한다. 하지만 인식에 도움이 되는 성분은 그 일부분에 국한되어 있다. 심리학 분야의 연구에서는 음절에 대한 입술의 움직임은 대략 4 \( \mathrm { Hz } \)의 주파수 성분으로 이루어져 있고, 이 주파수를 기본으로 하여 높은 성분의 주파수 성분이 변조 형태로 포함되어 있는 것으로 알려져 있다.</p> <p>본 논문에서 제안하는 기법은 입술영역 영상에서 각 픽셀값의 시간 궤적에 대해 BPF를 적용하여 음성 정보와 관련이 없는 주파수 성분들, 즉 너무 빨리 변하거나 너무 느리게 변하는 성분들을 제거하고자 하는 것이다. 이려한 성분들은 화자나 조명과 같은 음성과 무관한 변화들이나 잡음에 의한 효과에 의한 것이기 때문에 이를 제거함으로써 인식 성능의 향상을 얻을 수 있다. 입술 영역 영상의 각 픽셀에 대해 필터링을 한 후 2.3절에서 설명한 것과 같이 평간 제거와 PCA를 적용하여 향상된 성능을 내는 특징을 얻는다.</p>
|
음성인식에 주로 쓰이는 은닉 마르코프 모델(HMM)에 가우시안 혼합 모델(Gaussian mixture model)을 이용한 연속 HMM을 적용하였다. HMM의 상태 수는 단어의 음소 수에 비례하며, 각 상태마다 3개의 가우시안 함수를 사용한다. HMM 파라미터는 기대-최대(expectation-maximization)기법으로 학습한다. 또한, 입술 영역의 각 좌표별 픽셀값의 시간적 궤적은 0 Hz의 직류 성분부터 샘플링 주파수 30 Hz의 절반인 15 Hz의 주파수 성분까지 포함하되, 인식에 도움이 되는 성분만을 추려내기 위해 BPF를 적용하는 방식을 제안한다.
|
<p>이하에서 BPF의 저역 차단 주파수(lower cut-off frequency)와 고역 차단 주파수(higher cut-off frequency)를 결정하는 방법을 설명한다. 본 논문에서 필터는 Butterworth 필터로 설계한다. Buterworth 필터는 Chebyshev 필터나 elliptic 필터와 같은 필터들과는 달리 통과대역이나 차단대역에 굴곡(ripple)이 존재하지 않아 원하는 주파수 대역을 왜곡없이 전달하고 원치않는 주파수 대역을 완전히 차단할 수 있다. Butterworth BPF는 짝수의 차수를 가지게 되는데, 데이터베이스에 포함된 동영상의 프레임 수가 크지 않기 때문에 필터의 차수를 작은 값으로 설정한다. 따라서 제안하는 필터는 4차 Butterworth BPF로 구현한다.</p> <h2>3.1 저역 차단 주파수의 결정</h2> <p>저역 차단 주파수를 결정하기 위해 5 \( \mathrm { Hz } \) 이하의 주파수를 차단 주파수로 하는 고역통과필터(HPF: high-pass filter)를 설계하고 설계용 데이터에 대한 실험을 통해 가장 좋은 성능을 내는 경우를 선택한다. 저역 차단 주파수를 0.01 \( \mathrm { Hz } \)에서 5 \( \mathrm { Hz } \)까지 변화시키면서 Butterworth HPF를 설계하고 적용하여 특징을 추출하고 그 인식 성능을 (그림 3)에 나타내었다. 통과대역과 차단 대역 사이에서 최종 BPF와 비슷한 roll-off factor(-40dB/decade)를 얻기 위해 필터의 차수는 2차로 하였다.</p> <p>HPF를 적용함으로써 향상된 성능을 얻을 수 있음을 그림에서 확인할 수 있다. 대략 \( 0.6 ^ {\sim } 1 \mathrm { Hz } \)의 차단 주파수를 가질 때 두 데이터베이스 모두에 대해 좋은 성능을 보이고 있다. 두 데이터베이스에 대해 최적의 차단 주파수는 약간의 차이가 있으나 두 경우 모두 좋은 성능을 나타내는 값인 0.9 \( \mathrm { Hz } \)를 차단 주파수로 한다. 그러한 2차 Butterworth HPF는 다음의 식으로 얻어진다.</p> <p>\( H(z)= \frac { 0.8752-1.7504 z ^ { -1 } + 0.8752 z ^ { -2 } } { 1-1.7347 z ^ { -1 } + 0.7660 z ^ { -2 } } \)<caption>(2)</caption></p> <p>위의 식으로 주어지는 필터는 0.9 \( \mathrm { Hz } \)에서 최대응답크기 대비 3 \( \mathrm { dB } \)의 감쇠를 보이고 통과대역과 차단대역 사이에서-40 \( \mathrm { dB } / \) decade의 roll-off factor를 보인다.</p> <h2>3.2. 고역 차단 주파수의 결정</h2> <p>고대역 주파수 신호를 차단하는 것은 잡음에 의한 오염을 제거하기 위한 것이다. 영상에는 기록이나 전송 과정에서 잡음이 포함될 수 있으며, 채널 잡음, 영상 기록시 포함되는 잡음, CCD 카메라의 잡음 등 여러 잡음들은 백색잡음으로 근사화하여 표현할 수 있다.</p>
|
이 연구는 Butterworth의 BPF를 활용하여 저역 차단 주파수와 고역 차단 주파수를 설정하는 방법을 설명한다. 주파수 차단을 위해 필터의 차수는 작은 값으로 설정되었고, 대략 0.6~1Hz 범위의 차단 주파수가 최적의 성능을 보이는 것으로 나타났다. 두 개의 데이터베이스에 대해 미세한 차이가 있었지만, 모든 경우에서 최적의 성능을 발휘한 0.9Hz를 차단 주파수로 선택하였다.
|
<h1>향상된 자동 독순을 위한 새로운 시간영역 필터링 기법</h1> <h2>요 약</h2> <p>자동 독순(automatic lipreading)은 화자의 입술 움직임을 통해 음성을 인식하는 기술이다. 이 기술은 잡음이 존재하는 환경에서 말소리를 이용한 음성인식의 성능 저하를 보완하는 수단으로 최근 주목반고 있다. 자동 독순에서 중요한 문제 중 하나는 기록된 영상으로부터 인식에 적합한 특징을 정의하고 추출하는 것이다. 본 논문에서는 독순 성능의 향상을 위해 새로운 필터링 기법을 이용한 특징추출 기법을 제안한다. 제안 하는 기법에서는 입술영역 영상에서 각 픽셀값의 시간 계적에 대역통과필터를 적용하여 음성 정보와 관련이 없는 성분, 즉 지나치게 높거나 낮은 주파수 성분을 제거한 후 주성분분석으로 특징을 추출한다. 화자독립 인식 실험을 통해 영상에 잠음이 존재하는 환경이나 존재하지 않는 환경에서 모두 향상된 인식 성능을 얻음을 보인다.</p> <h1>1. 서 론</h1> <p>자동 독순(automatic lipreading)은 (그림 1)에 나타난 것과 같이 화자의 입술 움직임에 대한 관찰을 통해 음성을 인식하는 기술이다. 말소리를 이용한 기존의 음성인식이 잡음이 존재하는 환경에서 성능이 크게 저하되는데 반해 영상정보는 소리 잡음에 영향을 받지 않기 때문에, 자동 독순은 음성인식을 보완하여 강인한 성능을 얻는 기술로써 최근 주목을 받고 있다.</p> <p>자동 독순 시스템에서 중요한 단계는 기록된 영상으로부터 인식에 적절한 특징을 추출하는 것이다. 좋은 인식 성능을 위해서는 화자간 외모 차이나 조명 조건 등의 변이에 불변하면서 각 발음 클래스를 구분하는데 중요한 정보를 포함하는 득징을 추출해야 한다. 영상에서 특징을 추출하는 방법은 크게 두 가지 기법으로 나눌 수 있다. 첫째는 영상에서 입술의 윤곽선을 찾아내고 이를 통해 입술의 높이나 너비와 같은 기하학적 특징이나 윤곽선을 모델링하는 모델의 파라미터를 특징으로 사용하는 윤곽선 기반 방식이다. 둘째는 입술영역을 포함하는 영상에 이산 코사인 변환(discrete cosine transform)이나 주성분분석(PCA: principal component analysis)과 같은 변환을 적용하고 변환된 영상의 일부를 특징으로 사용하는 픽셀값 기반 방식이다. 이 두 기법들 중 더 많이 쓰이는 것은 픽셀값 기반 방식이다. 이는 윤곽선 기반 방식이 입술 윤곽선을 추적하는 과정에서 오차를 낼 수 있고 입 안쪽 정보를 표현하지 못한다는 단점이 있기 때문이다.</p> <p>이처럼 다양한 특징 추출 기법이 연구되었지만, 말소리를 이용한 기존의 음성인식 분야에서 좋은 인식성능을 얻기 위한 특징추출 기법이나 인간의 청각기관을 모델링하는 기법 등이 많이 연구되어 있는 것과 비교할 때 자동 독순 분야에서는 특징 추출에 대한 연구가 아직 많이 부족한 실정이다. 또한 영상에 잡음이 존재하는 환경에 대한 연구는 최근에서야 이루어지고 있으며 이러한 환경에서 잡음에 강인한 특징을 추출하는 것에 대한 연구는 전무한 실정이다. 일반적으로 영상의 획득이나 전송 과정에서는 잡음이 포함될 가능성이 있으며, 이러한 환경에서 강인한 성능을 얻을 수 있는 기법에 대한 연구가 필요하다.</p>
|
자동 독순은 화자의 입술 움직임을 통해 음성을 인식하는 기술로 최근 잡음이 있는 환경에서 말소리를 이용한 음성인식의 성능 저하를 보완하는 수단으로 관심받고 있다. 이 논문에서는 새로운 필터링 기법을 이용한 특징추출 기법을 제시하여 독순 성능을 향상시키고자 했으며, 실험 결과 영상에 잠음이 존재하는 환경이나 존재하지 않는 환경에서 모두 향상된 인식 성능을 얻음을 보인다.
|
<h2>2.2. 입술영역 추출</h2> <p>특징 추출을 위해서는 먼저 기록된 얼굴 영상에서 입술을 찾는 과정이 필요하다. 이 과정은 입술 영역을 추출하는 것과 동시에 화자별 피부색의 차이나 기록시의 조명조건 차이 등을 보정하기 위한 전처리 과정을 포함한다. 아래에서 그 과정을 간략히 설명한다. ((그림 2) 참조)</p> <p>먼저, 영상에 포함된 얼굴 좌우의 밝기 차이를 제거한다. 이를 위해 좌우 조명의 변화를 선형적으로 모델링하고 로그 영역에서 이러한 변화를 뺌으로써 제거한다. 이 때 좌우 일부 영역의 평균 픽셀값을 계산하고 이 두 값의 선형보간으로 밝기 변화를 모델링한다. 다음으로, 모든 영상의 픽셀값이 같은 확률분포를 따르도록 정규화한다. 전체 학습데이터에 대한 영상의 픽셀값이 정규분포로 근사화될 수 있음을 관찰하였기 때문에 각 영상이 이 분포를 따르도록 히스토그램 명세화(histogram specification)을 통해 영상의 픽셀값을 변환한다. 이를 통해 화자나 조명에 의한 영상간의 픽셀값 분포의 차이를 줄일 수 있다. 다음으로, 임계값을 적용하여 입술의 양 끝점을 찾는다. 입을 다물었을 때는 입술 사이가 그림자에 의해 어둡게 나타나며 입을 벌렸을 때는 입 안쪽이 어둡게 나타나기 때문에 임계값을 적용하여 입술 양 끝점을 찾을 수 있다. 이렇게 찾은 양 끝점을 바탕으로 영상마다 다른 회전이나 크기 변화가 보정된 \( 44 \times 50 \) 픽셀 크기의 입술 영역 영상을 얻는다.</p> <h2>2.3 특징 추출</h2> <p>특징추출의 첫 단계는 2.2절에서 얻은 입술 영역 영상의 각 픽셀에 대해 발음 전체에 대한 평간을 제거하는 것이다. 이렇게 함으로써 각 발음간 밝기의 차이를 제거한다. 다음으로 PCA를 적용하여 특징을 얻는다. PCA를 이용한 특징 추출 기법은 다른 변환 기법과 비교했을 때 비슷하거나 더 우수한 성능을 보이는 것으로 알려져 있다. 평간이 제거된 입술 영상의 픽셀값을 2200 차원( = \(44 \times 50 \)) 열벡터로 만든 것을 \( x \), 학습 데이터 전체에 대한 \( x \)의 평간을 \( m \)이라 할 때, PCA를 적용하여 얻는 특징벡터는</p> <p>\( y=P ^ { T } (x-m) \)<caption>(1)</caption></p> <p>로 구해진다. 여기서 \( P \)의 행의 수는 \( x \)의 차원과 같으며, \( P \)의 각 열은 학습 데이터의 공분산 행렬을 고유치 분해 (eigenvalue decomposition)하여 얻는 고유벡터(eigenvector)를 고유치 크기 순서대로 정렬한 것이다. 얻어진 고유벡터 중 일부만을 사용하여, 즉 \( P \)의 열의 수를 \( x \)의 차원인 2200 보다 적게 함으로써 낮은 차원의 특징벡터를 얻을 수 있다. 실험을 통해 12차원의 특징벡터가 인식에 적절함을 관측하였다. 따라서 각 영상 \( x \)에 대해 식 (1)과 같이 변환을 적용한 후 최종적으로 12차원의 특징벡터 \( y \)를 얻는다.</p>
|
특징 추출 전, 양 끝점을 찾아 \( 44 \times 50 \) 픽셀 크기의 입술 영역 영상을 찾는다. 그 후 입술 영역 셩상의 각 픽셀에 대해 발음 전체에 대한 평간을 제거하고 PCA를 사용하여 특징을 추출할 수 있다. 각 영상에 대해 PCA 변환을 하면 12차원의 특징벡터를 얻을 수 있다.
|
<h3>1) Pearson Based Feature Selection</h3> <p>Pearson 상관계수를 이용한 특징 선택 방법은 높은 상관 계수를 가지는 두 가지 특징을 중첩관계로 보고, 이 중 하나만을 사용하는 것이다. Pearson 상관계수는 Equation (1)로 정의되며 -1과 1 사이의 값으로 나타난다. \( \operatorname { cov } \) 는 공분산을 의미하며, \( \sigma_ { X } \) 모집단 \( \mathrm { X } \) 의 표준편차를 \( \sigma_ { Y } \) 는 모집단 \( \mathrm { Y } \) 의 표준편차를 나타낸다. 1에 가까울수록 양의 상관관계에 있다고 할 수 있으며, -1에 가까울수록 음의 상관관계에 가까움을 의미한다. 0에 근접할 경우는 상관관계가 없음을 의미한다.</p> <p>\( P_ { X, Y } = \frac {\operatorname { cov } (X, Y) } {\sigma_ { X } \sigma_ { Y } } \)<caption>(1)</caption></p> <p>Pearson 상관계수는 연속형 자료들간의 상관관계를 나타냄에 따라서 NSL-KDD 데이터 셋에서는 numeric 속성들에 대해서만 특징 선택을 진행하였다. \( 0.9 \) 임계값을 사용하여 특징들의 관계를 분석하였으며, 이들의 관계를 무방향 그래프 자료구조로 표현하였다. 이렇게 표현된 그래프 안에서 최소수 하위 특징 집합을 선택할 경우 입력 특징 집합의 크기를 최소화 할 수 있으며, 이는 최소 지배 집합 문제(Minimum dominating set)로 귀결된다. 최소 지배 집합 문제는 NP-Hard에 해당 하는 문제지만, 본 실험에서는 Table 2 와 같이 4 쌍의 완전 그래프 결과를 획득하였으며, 이에 따 라 어떠한 속성만을 한 가지 사용하여도 최소수가 보장되는 것을 알 수 있다. 따라서 본 논문에서는 Table 2 의 각 행의 맨 앞 4 가지 속성만을 사용하며, 나머지 중첩 특징들은 제거 한다. 이를 통해 113 개의 특징을 선출하였다.</p> <h3>2) Feature Importance Based Feature Selection</h3> <p>특징 중요도(Feature Importance)를 이용한 특징 선택 방법에서는 의사결정트리 모델을 학습 시킨 뒤, 정보 획득량(Information Gain)에 기반 하여 학습에 사용된 각 특징들의 중요도를 파악할 수 있다. 의사결정트리는 정보 획득량을 최대화하는 특징을 기준으로 노드를 우선 분할한다. 이는 노드의 중요도 값이 클수록 해당 노드에서의 불순도가 크게 감소하는 것을 의미한다. 본 논문에서는 Random Forest 학습 모델을 통해 이러한 특징 중요도를 추출한 뒤 정렬하여, 임계값 \( 0.0001 \) 값을 통해 상위 55 개의 특징을 선출하였다.</p>
|
Pearson 상관계수를 이용한 특징 선택 방법을 다루며, 높은 상관 계수를 가지는 두 특징 중 하나만을 사용한다. 이 방법은 연속형 자료의 상관관계를 표현하므로 NSL-KDD 데이터셋에서 numeric 속성에 대해 적용되었다. 이 과정에서 \( 0.9 \) 임계값을 사용하여 특징들의 관계를 분석하였으며, 이들의 관계는 무방향 그래프로 표현하였다. 본 논문에서는 Random Forest 학습 모델을 통해 특징 중요도를 추출하고 정렬하여, 임계값 \( 0.0001 \)를 통해 상위 55개 특징을 선별하였다.
|
<h3>3) Attribute Ratio Based Feature Selection</h3> <p>AR (Attribute Ratio) 기반 특징 선택 방법은 위의 두 방법과 달리 일반적이지 않은 새로운 접근 방법으로, 특징의 빈도수와 평균값을 통해 특징 중요도를 계산하며, NSL-KDD데이터 셋의 학습 과정에서 매우 적은 특징수를 가지고도 학습이 잘 되는 것으로 보고하고 있다. 본 논문에서는 \( 0.1 \) 임계값을 통해 상위 50 개의 특징을 선출하였다.</p> <p>Table 2 는 Pearson 상관 계수가 \( 0.9 \) 이상의 관계를 가진 특징들을 나타내고 있다. 각 특징들의 옆에는 Random Forest 학습 모델을 통해 선출된 특징 중요도의 순위를 표시되어 있는데, 이를 참조하면 높은 상관관계를 가진 특징들끼리는 모두 유사한 순위를 가지는 것을 알 수 있으며, 또한 모두 b)절에서 선출한 상위 55개에 포함되어 있는 것을 알 수 있다. 이는 특징 중요도만을 통해 특징 선택을 할 경우 이러한 중첩 특징들을 고려할 수 없음을 의미한다. 따라서 55개의 특징 집합에서 추가적으로 8 개의 특징을 제거할 수 있음을 알 수 있다. 이는 이들 특징 선택 기법들의 결과에 해당하는 하위 집합들의 교집합임을 알 수 있다. 본 논문에서 제시하는 HFS는 이러한 두 가지 관점의 특징들을 모두 걸러낼 수 있다. 이와 같이 위에 제시된 3가지 특징 선택 기법의 교집합 을 통해, 단일 특징 선택에 비해 더 작으면서 학습 성능을 저 해하지 않는 입력 특징 집합을 획득하였다. 최종적으로 Table 3에서 제시된 39개의 특징을 사용한다. 이는 기존 121 입력차원 대비 \( 32 \% \) 규모의 크기를 가진다.</p> <h2>3.3 Data Balancing</h2> <p>불균형 데이터란 소수 클래스(Minor class)에 데이터 수가 다수 클래스(Major class)에 포함된 데이터 수와 비교해 현저히 적은 데이터를 의미한다. 기계 학습 모델의 성능은 데이터에 의존적이며, 이를 해소하지 않은 채 학습 모델에 적용할 시 분류 성능의 저하를 야기할 수 있다. 특히 소수 클래스들의 탐지율은 크게 떨어지게 되는데, 이는 소수 클래스의 범주가 다수에 클래스에 의해 침범 당하기 때문이다. 본 논문에서 학습에 사용하는 NSL-KDD 데이터 셋 또한 Table 4와 같이 클래스 간 샘플 수의 차이가 매우 크다. 이러한 문제를 해결하기 위해서 본 논문에서는 오버샘플링(Over sampling)기법과 언더 샘플링 기법(Under sampling)을 통해 불균형 문제를 해소한다.</p>
|
빈도수 및 평균값으로 특징의 중요도를 계산하는 새로운 방법으로 Attribute Ratio 기반 특징 선택이 있다. NSL-KDD 데이터 셋의 학습 과정에서 아주 미미한 특징수로 학습이 원활히 이루어지고 있다. Pearson 상관 계수가 0.9 이상을 가진 특징은 Random Forest 학습 모델을 이용 및 채택된 특징 중요도의 높은 순위를 보인다. 중첩 특징을 파악할수 있는 HFS의 사용으로 최종 39개의 특징을 사용하였다. Over 및 Under sampling 기법은 불균형 데이터를 해결할 수 있다.
|
<p>본 논문에서는 기계학습 모델에 불필요한 속성들과 중첩 속성들을 제거하기 위해서 HFS (Hybrid Feature Selection)기법을 제안하며, 이를 심층 신경망에 이용한 HFS-DNN(Deep Neural Network) 모델을 제안한다. 기존의 많은 입력 속성 값들을 모두 학습에 사용하는 것과 달리 HFS 기법을 통해 \( 32 \% \) 규모의 입력만을 사용해 동일한 학습 효과를 보장하는 것을 실험을 통해 검증하며, 학습에 사용된 NSL-KDD데이터 셋의 불균형 문제로 인한 소수 클래스(Minor Class)들의 저조한 탐지율을 개선하고자 SMOTE (Synthetic Minority Over sampling Technique)기법과 RUS (Random Under Sampling) 기법들을 활용하여 불균형 문제를 다루었다. 실험에 사용된 평가 지표는 Accuracy, Precision, Recall, F1-Score이며, 실험 결과는 Decision Tree, Random Forest, KNN (K-Nearest Neighbor), SVM (Support Vector Machine), Multinomial Naive Bayes 모델들과 비교하였다.</p> <h1>2. 관련 연구</h1> <h2>2.1기계학습 기반 네트워크 침입탐지 시스템</h2> <p>기계 학습에서 특징 선택이란 학습에 필요한 특징을 제거하여 간결한 특징 집합을 만드는 것이다. 강승호 외는 NSL-KDD 데이터로부터 Pearson 상관계수 기반의 특징 선택 알고리즘을 제안하였다. 주어진 임계치 이상의 상관계수를 갖는 특징 집합을 그래프 자료구조로 표현한 뒤, 최소 지배 집합(Minimum dominating set)문제로 정의하였으며 이를 해결하는 휴리스틱 알고리즘을 제안하였다. 최희수 외는 NSL-KDD 데이터로부터 특징들의 빈도수와 평균값을 통한 새로운 특징 선택 기법 AR (Attribute Ratio)을 제안하였다. Nutan 외는 Hybrid Feature Selection 방법을 제안하였다. 서로 다른 특징 선택 알고리즘으로부터 중복 제거 합집합으로 표현하여 학습에 사용하였다.</p> <p>불균형 데이터란 각 클래스별로 데이터들의 비율이 고르지 않고 치우쳐져 있는 것을 의미한다. 소수 클래스(Minor class)의 비율이 \( 10 \% \) 이하인 경우는 심각한 불균형 데이터로 분류할 수 있다. SMOTE (Synthetic Minority Oversampling Technique)는 이러한 불균형 데이터를 해결하기 위한 기법으로 소수 클래스들의 중 임의샘플을 중심으로 KNN 알고리즘을 활용해 k개의 샘플을 합성하여, k 샘플들 사이에 새로운 가공 데이터를 생성하는 방법이다. ROS (Random Over Sampling)는 단순히 동일한 데이터를 복제하여 데이터를 늘리는 방법으로, SMOTE는 이와 달리 합성 데이터를 생성해 낼 수 있다. Tesfahun 외는 SMOTE를 이용해 NSL-KDD 데이터 셋의 불균형 문제를 해결하는 연구를 진행하였다. 또한 신경망 기반의 생성 모델을 통해 이러한 가공 데이터를 만들어 내는 연구가 활발히 진행되고 있다. Yanqing Yang 외은 생성모델 ICVAE (Improved Conditional Variational AutoEncoder)를 제안하였으며, 이를 통해 NSL-KDD 데이터 불균형을 해소하여 심층 신경망 모델을 학습시켰다.</p>
|
본 논문에서는 기계학습 모델에 불필요한 속성과 중첩 속성을 제거하기 위해 Hybrid Feature Selection(HFS) 기법과 Deep Neural Network(HFS-DNN) 모델을 제안했다. HFS기법은 기존 모델에서 많은 입력 속성값을 모두 학습에 사용하는 것과 다르게 32% 규모의 입력만을 사용해 동일한 학습 효과를 보장하는 것으로 나타났다. 또한, NSL-KDD 데이터 셋의 불균형 문제를 SMOTE과 RUS 기법을 통해 해결하였다. 다음으로는 기계학습 기반 네트워크 침입탐지 시스템 관련 연구들을 참조하였다.
|
<p>데이터의 절반에 해당하는 Normal 클래스는 다수 클래스로 RUS (Random Under Sampling) 기법을 통해 데이터를 샘플 수를 축소하였으며, 상대적으로 소수 클래스에 해당하는 Probe, U2R, R2L은 SMOTE (Synthetic Minority Over Sampling Technique) 기법을 통해 샘플 수를 비슷한 수준의 크기로 늘려주었다. Table 4 를 참조하면 불균형을 해소한 데이터 셋의 샘플수와 비율을 확인할 수 있으며, 분류 모델의 소수 클래스들의 탐지율 개선을 기대할 수 있다.</p> <h2>3.4 Deep Neural Network</h2> <p>본 논문에서는 네트워크 침입 탐지 분류 모델로 심층 신경망을 사용한다. Table 5를 통해 제안된 심층 신경망 네트워 크의 구조를 확인할 수 있으며, 은닉 계층(Hidden layer)의 활성 함수로 relu를 사용하였다. 신경망의 입력 계층은 3.1절의 전처리 과정과 3.2절의 특징 선택 과정을 통해 39개이 입력 크기를 가지며, Fully Connected Network를 사용하였다. 신경망의 학습에서 초기 가중치 설정은 매우 중요한 역할을 하는데, 이는 기울기 소실(Gradient vanishing)과 같은 문제로 이어질 수 있기 때문이다. 일반적으로 많이 사용되는 Xavier Initializer는 relu 함수와 같이 사용할 경우 레이어의 깊이가 깊어질수록 출력값이 0 에 가까워지는 문제가 발생한다. 따라서 이러한 문제를 해결한 He Initializer를 사용하여 신경망의 초기값을 설정한다. 또한 학습 데이터에 과적합이 되는 것을 방지하기 위해서 L2 규제를 사용하였다.</p> <h1>4. 실험 및 결과</h1> <p>본 연구에서는 실험을 위해 NSL-KDD 데이터 셋에서 학습과 테스트를 위해 제공되는 KDDTrain + , KDDTest + 데이터를 사용한다. 학습 데이터는 3.3절에서 소개된 Data Balancing 단계를 거쳐 Table 4 의 Balanced KDD Train과 같이 변경 후 사용하며, 전체 학습 데이터 중 \( 30 \% \) 를 검증용 데이터(Validation set)로 사용하여 심층 신경망 모델의 학습 과정에서 과적합 여부를 판단한다. 이를 통해 검증 오류율(Validation loss)이 10 epoch 이상 증가할 경우 조기 멈춤하였으며, 이후 학습에서 가장 검증 오류율이 낮았던 모델을 테스트에 사용하였다. 전체 epoch은 50을 사용하였으며, batch size는 64 를 사용하였다.</p> <p>테스트에 사용되는 데이터 셋은 Table 10 의 support를 참고할 경우 클래스간 불균형을 확인할 수 있으며, 이러한 불균형 데이터를 평가하는데 일반적으로 사용되는 Accuracy만으로 평가하는 것은 적절하지 않다. 이는 전체 샘플 중 옳게 평가된 샘플 수의 비율을 의미하기에 모델의 출력이 모두 다수 클래스로 예측하더라도 높은 결과를 보이기 때문이다. 따라서 Recall, Precision, F1-Score와 같은 불균형 데이터 에서의 많이 사용되는 지표들과 함께 성능을 비교한다. 학습 모델의 실험 결과는 Decision Tree, Random Forest, KNN (K-Nearest Neighbor), SVM (Support Vector Machine), Multinomial Naive Bayes 모델과 비교 및 분석한다.</p>
|
Normal 클래스의 데이터는 다수 클래스로 RUS기법을 통해 데이터 샘플 수를 축소하고 반면 상대적으로 적은 클래스는 SMOTE기법을 통해 샘플 수를 비슷한 수준으로 늘렸다. 본 논문에서는 네트워크 침입 탐지 분류 모델로 심층 신경망을 사용하고 은닉계층의 활성함수로 relu를 이용한다. 본 연구에서는 실험을 위해 NSL-KDD 데이터 셋에서 학습과 테스트를 위해 제공되는 KDDTrain + , KDDTest + 데이터를 사용하고 실험 결과는 Decision Tree, Random Forest, KNN, SVM, Multinomial Naive Bayes 모델과 비교하여 연구한다.
|
<h1>요 약</h1> <p>최근 네트워크 환경에 대한 공격이 급속도로 고도화 및 지능화 되고 있기에, 기존의 시그니처 기반 침입탐지 시스템은 한계점이 명확해지고 있다. 이러한 문제를 해결하기 위해서 기계학습 기반의 침입 탐지 시스템에 대한 연구가 활발히 진행되고 있다. 하지만 기계학습을 침입 탐지에 이용하기 위해서는 두 가지 문제에 직면한다. 첫 번째는 실시간 탐지를 위한 학습과 연관된 중요 특징들을 선별하는 문제이며, 두 번째는 학습에 사용되는 데이터의 불균형 문제로, 기계학습 알고리즘들은 데이터에 의존적이기에 이러한 문제는 치명적이다. 본 논문에서는 위 제시된 문제들을 해결하기 위해서 Hybrid Feature Selection과 Data Balancing을 통한 심층 신경망 기반의 네트워크 침입 탐지 모델인 HFS-DNN을 제안한다. NSL-KDD 데이터셋을 통해 학습을 진행하였으며, 기존 분류 모델들과 성능 비교를 수행한다. 본 연구에서 제안된 Hybrid Feature Selection 알고리즘이 학습 모델의 성능을 왜곡 시키지 않는 것을 확인하였으며, 불균형을 해소한 학습 모델들간 실험에서 본 논문에서 제안한 학습 모델이 가장 좋은 성능을 보였다.</p> <h1>1. 서 론</h1> <p>네트워크 침입 탐지 시스템(NIDS; Network-Based Intrusion Detection)은 허가되지 않은 사용자의 침입을 제한하는 시스템으로, 트래픽을 감시하여 공격 여부를 판단한다. 현재 많 이 사용되고 있는 네트워크 침입 탐지 시스템은 시그니처 (Signature) 기반 분석 방법을 사용하고 있다. 이는 공격에 대한 특징을 전문가가 분석하여 패턴화 시킨 뒤, 실시간으로 들어오는 네트워크 패킷들과 매칭하여 탐지하는 방법이다. 그러나 최근 APT (Advance Persistent Threat) 공격과 같이 빠르게 변화하는 공격이 빈번히 발생하고 있으며, 이에 따라 매번 발생하는 새로운 공격에 대한 트래픽과 로그 분석 과정에 서 비용적 문제와 시간적 문제가 발생한다. 시그니처 패턴은 빠르게 변화하는 공격의 비슷한 유형에 대하여 일반화된 성능을 보장하지 못하기 때문에, 기존의 시그니처 기반의 시스템의 한계점이 명확해 지고 있다. 최근 이러한 문제를 해결하기 위해 기계학습 기반의 탐지 시스템의 연구가 활발하다.</p> <p>기계학습 모델은 데이터로부터 침입에 대한 판단을 내리기 위한 규칙을 모델이 학습하기에, 이를 통해 자동화된 침입탐지 시스템을 구축할 수 있다면, 앞서 언급한 시간 및 비용적 문제를 해결할 수 있다. 또한 새로운 공격 패턴들에 대해 일반화된 성능을 보장할 수 있다. 하지만 입력으로 사용할 수 있는 모든 속성들을 사용하는 것은 기계학습 모델의 성능의 저하와 학습 시간의 낭비를 가져올 수 있다. 따라서 실시간 탐지 위해 사용 가능한 많은 속성 중에서 학습과 관련 있는 특징들을 선별하는 것도 중요하게 다뤄지고 있다. 이 외에도 현실 세계에서 수집되는 많은 데이터들은 클래스간 균형이 완벽하지 않은 환경이 대부분으로, 특히 침입 탐지 문제에서는 전체 데이터 중 침입 데이터의 비율이 약 \( 1 \% \) 로 알려져 있다. 기계학습에서 이러한 소량의 침입 데이터로 정상학습을 하는 것은 매우 어려우며, 이를 극복하기 위한 방법으로 오버샘플링(Over Sampling)과 언더 샘플링(Under Sampling) 기법을 활용할 수 있다.</p>
|
네트워크 환경에 대한 공격이 지능화되면서 시그니처 기반 침입탐지 시스템의 한계가 드러나고 있다. 본 논문에서는 Hybrid Feature Selection과 Data Balancing을 활용한 HFS-DNN 모델을 제안하여 이러한 문제를 해결한다. 실험 결과, 제안한 알고리즘은 학습 모델의 성능을 왜곡시키지 않고, 불균형을 해소한 학습 모델 중 가장 우수한 성능을 보여준다.
|
<h2>2.2 NSL-KDD 데이터 셋</h2> <p>NSL-KDD 데이터 셋은 1999년 DARPA 침입탐지 평가 프로그램을 통해 만들어진 KDD CUP 99 데이터 셋을 M. Tavallaee 외가 개선하여 제안한 데이터 셋으로, 미 공군의 네트워크를 모델링하여 38가지의 네트워크 침입 탐지 공격 시뮬레이션을 통해 만들어 졌다. M. Tavallaee 외은 KDD CUP 99 데이터 셋의 규모가 지나치게 크며, 많은 중복 레코드 등을 포함하는 문제점이 있다고 지적하였다. 이는 발생 빈도가 높은 공격에 데이터가 매우 치우쳐져 있음을 의미한다. 이러한 문제를 해결한 NSL-KDD 데이터 셋 또한 클래스간 불균형 문제는 여전히 존재한다.</p> <p>NSL-KDD 데이터 셋은 정답(Label)을 포함하여 42 개의 속성으로 구성되며, 공격은 실제 개별 38개의 공격을 모두 분류하는 것이 아닌, Table 1 에서 제시된 4개의 공격유형과 1 개의 정상상태로, 총 5 개의 클래스를 분류하는 것을 목표로 한다. 또한 학습 데이터 셋과 테스트 데이터 셋을 따로 구분해서 제공하고 있으며, 학습 데이터 셋에는 24 가지 공격 유형만이 포함되어 있다. 이는 두 데이터 셋의 간극이 크다고 할 수 있다.</p> <h1>3. HFS-DNN</h1> <h2>3.1 Data Preprocessing</h2> <p>심층 신경망에서 입력 데이터의 정규화(Normalization)는 학습 속도를 장려하며, 지역 최적점(Local Optimum)에 빠지는 것을 방지하는 것으로 알려져 있다. NSL-KDD 데이터 셋 또한 학습 전 정규화 과정을 진행하며, 모든 속성값들을 0 과 1 사이의 값으로 변경한다. 정규화는 데이터 형식에 따라 달리 진행하였으며, NSL-KDD 데이터 셋의 데이터 형식은 nominal, numeric, binary 3가지로 구분할 수 있다. nominal type 데이터들은 범주형 문자 데이터들로 신경망의 입력으로 사용할 수 없는 형태이다. 따라서 모두 정수형으로 인코딩 한 뒤 one-hot 벡터로 변환하였다. numeric type 데이터들에 대해서는 속성 값들의 범위의 차이를 왜곡하지 않고 공통 스케일로 변경하기 위해 최소 최대 정규화(Min-max Normalization)를 진행하였으며, binary type 데이터들의 경우 모두 0과 1로 구성되기 때문에 별다른 전처리 과정을 수행하지 않았다. 이를 통해 41 입력차원에서 122 입력차원으로 변환되었으며, nominal 데이터들의 one-hot 표현에 따라 입력차원이 증가하였다. 이후 데이터를 관측한 결과 num_outbound_cmds 특징은 표준편차가 0으로 모든 데이터의 값이 동일하기 때문에 학습에 불필요하다 판단되어 사전에 제거하였다. 이를 통해 데이터는 최종적으로 총 121 입력차원으로 변환된다.</p> <h2>3.2 Hybrid Feature Selection</h2> <p>대용량 네트워크 트래픽을 실시간 탐지하기 위해서는 학습 성능을 보장하면서도, 더 적은 하위 속성 집합을 찾을 수 있어야 한다. 본 논문에서는 HFS (Hybrid Feature Selection) 기법을 제안하며, 단일 특징 선택 알고리즘들에 비해 더 적은 하위 속성 집합으로 학습 모델의 정확도를 유지할 수 있음을 보인다. HFS 기법은 단일 특징 선택 알고리즘들의 출력 결과 인 각 하위 속성 집합들을 구한 뒤, 이들의 교집합을 사용하 는 것으로 비교적 간단한 방법으로 효율성을 증대할 수 있다. HFS 기법은 중첩 특징(Irrelevant Feature) 및 학습에 무관한 특징(Redundant Feature)을 제거하는 2 가지 목적에 따라 아 래 제시된 3가지 특징 선택 알고리즘을 Fig. 1의 Feature Selection 파트와 같이 분류하고 있다.</p> <ul> <li>Pearson Based Feature Selection</li> <li>Feature Importance Based Feature Selection</li> <li>Attribute Ratio Based Feature Selection</li></ul>
|
Tavallaee 외가 개선하여 제안한 데이터 셋으로, 42개의 속성과 5개의 클래스를 가지며 학습 데이터 셋과 테스트 데이터 셋으로 나뉘어져 있다. 모든 속성값들은 0과 1 사이의 값으로 변경하고, num_outbound_cmds 특징은 표준편차가 0으로 모든 데이터의 값이 동일하기 때문에 제거하였다. 이를 통해 121 입력차원으로 변환되었다. HFS-DNN의 Data Preprocessing은 정규화라는 거쳐서 데이터 셋 형태로 변환한다. 트래픽을 감자히기 위한 Hybrid Feature Selection기법을 제안하며 학습모델의 정확도를 구한다.
|
<p>4.1절에서는 3.2절에서 제안한 HFS의 효율성을 검증하기 위한 실험을 진행하며, 4.2절에서는 3.2절에 이어 3.3절에서 서술하고 있는 내용을 추가하여 최종적 실험 결과를 보고한다. 실험에 사용된 심층 신경망 모델은 모두 3.4절에서 서술한 네트워크를 동일하게 사용한다.</p> <h2>4.1 특징 선택 기법에 따른 성능 비교</h2> <p>Table 6은 3.2절에서 언급한 특징 선택 기법들을 통해 선택된 특징 하위 집합들의 크기와 그에 따른 성능을 비교하고 있다. 학습에 사용된 심층 신경망은 Table 5에서 언급한 네트워크와 동일한 구조를 가지고 있으며, 오버 샘플링을 하지 않았기에 데이터 수가 적은 것을 감안하여 \( 20 \% \) 만을 검증용데이터로 사용하여 조기 멈춤을 실행하였다. 각 특징 선택들의 임계값은 3.2절에 언급된 값을 사용하였으며, 전체 121입력차원을 사용한 것(Vanilla model)과 큰 차이를 보이지 않는 것을 확인할 수 있다. 심층 신경망에서 입력 차원의 축소는 학습해야 될 가중치가 더 줄어든 것을 의미하며, 이는 계산 효율성과 연결된다. 이러한 결과를 통해 본 논문에서 제안한 HFS 알고리즘이 단일 특징 선택 알고리즘들과 비교해, 실시간 탐지를 위한 효율적인 입력 특징 집합을 찾을 수 있는 것을 확인하였다.</p> <p>하지만 특징 선택 기법들을 통해 입력 차원을 축소하는 것에는 성공하였으나, Table 7을 참고하면 소수 클래스들의 분류 성능은 여전히 개선되지 않을 것을 확인할 수 있다. 특히 대부분의 모델들이 소수 클래스들의 recall 점수는 매우 저조하며, precision은 상대적으로 높은데, 이는 학습모델이 매우 낮은 비율로 소수 클래스라고 예측을 시도하며, 전체 소수 클래스의 분류에 실패하였음을 알 수 있다. 따라서 학습 모델이 다수 클래스에 편향되어 학습 되었음을 알 수 있으며, 위 결과를 통해 3.3절에서 언급한 Data Balancing 파트의 필요성을 확인할 수 있다.</p> <p>Table 8은 Hybrid Feature Selection을 통해 구해진 특징 집합을 통해 비교군 모델들과 학습 성능을 비교한 결과이다. 4 가지 성능 지표 모두 본 논문에서 제안한 심층 신경망 모델이 가장 좋은 것을 확인하였으며, 눈에 띄는 성능 상의 차이는 보이지 않고 있다. 이 외에 심층 신경망을 제외한 나머지 결과에서는 Random Forest 모델이 비교적 우수한 결과를 보였다.</p> <h2>4.2 데이터 불균형을 해소한 학습 모델의 성능 비교</h2> <p>본 절에서는 4.1절에서 아직 해소하지 못한 불균형 문제를 Table 4에 제시된 밸런싱을 진행한 데이터 셋을 통해 실험을 진행하고, 다른 기계학습 모델들과 성능을 비교하여 보고한다. Fig. 2와 Table 9를 참조하면 각 모델들의 성능을 비교할 수 있으며, 각 모델들이 불균형 문제를 해소하였음에도 불구하고 Decision Tree, Random Forest, Multinomial NB 알고리즘에서는 precision과 recall의 조화 평균인 F1-score 기준으로 평가할 시 유의미한 성능 개선이 이루어지지 않은 것을 알 수 있다. 하지만 KNN, SVM, DNN 모델은 모두 F1-score 기준으로 \( 6 8 \% \) 정도의 큰 폭의 성능 개선이 이루어졌으며, 본 논문에서 제시한 심층 신경망이 가장 좋은 성능을 보이고 있다.</p>
|
제안한 HFS의 효율성을 검증하기 위해 Table 6을 통해 비교하였고, Data Balancing을 통해 소수 클래스의 recall 점수를 개선하기 위해 Hybrid Feature Selection을 사용하여 비교군 모델들과 비교하였다. 그 결과, 심층 신경망 모델이 가장 좋은 성능을 보였고, Random Forest 모델도 비교적 우수한 결과를 보였다.
|
<p>Table 10 은 본 논문에서 제안한 HFS-DNN의 각 클래스별 성능 지표로, Table 7의 Hybrid FS DNN 항목과 비교시 소수 클래스들의 성능 개선을 확인할 수 있다. precision 점수는 불균형 해소 전과 비교해 낮아졌지만 recall 점수가 오른 것을 통해 모델의 출력이 소수 클래스라 예측하는 빈도가 비교적 상승했으며, 전체 소수 클래스들의 탐지 성능이 개선되었음을 알수 있다. 또한 R2L 클래스의 탐지 성능의 경우 F1-score 기준 \( 32 \% \) 의 큰 상승폭을 가지는 것을 알 수 있다.</p> <p>그럼에도 불구하고 U2R 클래스의 분류 성능은 여전히 낮은 것을 확인할 수 있는데, 이는 학습 데이터 셋에서 제공되는 데이터양이 52 개인 반면에 테스트 데이터 셋에서 제공되는 양은 200 개로 학습에 사용되는 샘플 수가 더 적은 것을 알 수 있다. 따라서 학습 데이터 셋의 샘플들과 테스트 데이터 셋의 샘플들 사이의 간극이 큰 것으로 판단되며, 이러한 유형의 문제는 오버샘플링 기법을 통해 극복하기에 부적절하다. 이는 NSL-KDD 데이터 셋이 가진 문제점으로 분석하고 있으며, 정상적인 학습을 위해서는 학습과 테스트 데이터셋의 U2R 샘플을 서로 교환하여 학습을 진행하는 것이 바람직하다 판단된다.</p> <h1>5. 결 론</h1> <p>본 논문에서는 네트워크 침입 탐지의 성능 개선을 위해 Hybrid Feature Selection 기법을 제안하였으며, 이를 심층 신경망에 이용한 HFS-DNN (Deep Neural Network)모델을 제안하였다. 또한 학습에 사용된 NSL-KDD 데이터셋의 불균형 문제를 해소하기 위해 SMOTE와 RUS 기법을 사용한다. 제안된 Hybrid Feature Selection을 통해 \(32 \% \) 규모로 입력 차원을 축소할 수 있었으며, 실험을 통해 축소된 입력 차원으로 기존과 동일한 성능을 보장하는 것을 확인할 수 있었다. 또한 오버 샘플링 기법을 통해 소수 클래스의 탐지율 개선을 실험을 통해 확인할 수 있었다. 하지만 U2R 클래스는 탐지율이 개선되지 않았는데, 이는 학습 데이터 셋과 테스트 데이터 셋의 간극이 너무 큰 것으로 분석된다.</p> <p>본 논문에서 제안된 HFS-DNN의 성능은 Hybrid Feature Selection과 Data Balancing을 적용할 경우 F1-score 기 준 \(6 \% \) 성능 개선이 있었으며, Decision Tree, Random Forest, K-Nearest Neighbor, SVM, Multinomial Naive Bayes 모델들과 비교해 4 가지 지표 모두 앞서는 것으로 나왔 다. 또한 본 논문에서 제안한 두 가지 특징 선택과 데이터 불 균형 해소 방법은 SVM, KNN 모델에서도 좋은 성능 개선 효 과를 보였다. 향후 연구로는 VAE, GAN과 같은 생성모델들 을 통해 오버 샘플링을 진행하는 연구를 진행할 수 있으며, 이는 SMOTE 알고리즘을 대체할 수 있을 것으로 사료된다. 또한 다른 네트워크 침입 탐지 데이터 셋에 대해서 실험을 확 장시킬 수 있다.</p>
|
Hybrid Feature Selection 기법을 적용한 HFS-DNN 모델은 소수 클래스의 탐지 성능이 개선되었으며, R2L 클래스의 F1-score는 \( 32 \% \)로 큰 상승폭을 보였다. 그러나 U2R 클래스의 분류 성능은 여전히 낮았고, 이는 학습 데이터 셋과 테스트 데이터 셋의 간극이 너무 큰 것으로 분석되었다. 따라서 학습 데이터 셋과 테스트 데이터 셋의 U2R 샘플을 서로 교환하여 학습을 진행하는 것이 바람직하다.
|
<h2>2. RBF 학습 알고리즘</h2> <h3>가. 커널의 개수</h3> <p>커널의 개수(m)는 모델의 복잡도(complexity)를 결정하는 요인으로 개수가 너무 적을 경우 모델이 단순화되어 under-fitting을 나타내는 반면, 너무 많은 경우에는 over-fitting을 나타내는 경향이 있기 때문에 둘 사이의 적절한 균형을 유지할 수 있도록 커널 개수를 결정하여야 한다. 본 논문에서는 검증 데이터를 이용한 MSE(Mean Squared Error) 관찰을 통해 최적의 커널 개수를 선정하였다.</p> <h3>나. 커널의 중심</h3> <p>RBF 모델은 중심을 선정하는 방법에 따라 여러 접근 방법이 존재하는데, 본 논문에서는 k-means 클러스터링기반 학습방법을 사용하였다. 즉, 학습데이터를 k개의 군집으로 형성하고 각 군집을 구성하는 베터의 평균값을 커널의 중심으로 사용하였다.</p> <h3>다. 커널의 너비</h3> <p>커널의 너비는 각 은닉 유넛의 중심이 영향을 미치는 범위와 연관되는데 본 논문에서는 각 중심마다 개별적인 너비(local width)를 선정하는 Moody and Darken의 너비 계산 방법을 사용하였다. 이 방법은 p-nearest neighbor heuristic 방법으로도 불려며, 중심들 사이의 너비가 중첩(over-lapping)되는 정도를 조절하여 모델의 학습 능력을 개선하는 방법이다. 이때 파라미더로서 몇 번째 인접한 중심까지 참고할 것인가를 결정하는 p값을 통해 중첩되는 정도가 조절이 되는데, Moody and Darken은 논문에서 실험적인 결과로써 \( p=2 \)를 권장하고 있다. 수식 (3)은 너비 계산을 위한 수식으로 p는 파라미터이며, \( \mathrm { C } _ { j } \)는 계산하고자 하는 너비를 가지는 j번째 중심을 의미하고, \( \mathrm { C } _ { i } \)는 \( \mathrm { C } _ { j } \)로부터 \( i \)번째 인접한 중심을 의미한다.</p> <p>\( \sigma_ { j } = \frac { 1 } { p } \left ( \sum_ { i=1 } ^ { p } \left \| \mathrm { C } _ { 1 } - \mathrm { C } _ { j } \right \| ^ { 2 } \right ) ^ {\frac { 1 } { 2 } } \)<caption>(3)</caption></p> <h3>라. 가중치</h3> <p>은닉층과 출력층 사이의 가중치 계산은 최소 제곱 오차(least squares error)를 기반으로 수행되는데 이는 수식 (4)와 같다.</p> <p>\( E( \mathbf { w } )= \sum_ { n=1 } ^ { N } \left \{ t_ { n } - \mathbf { w } ^ {\mathbf { T } } \mathbf { H } \left ( \mathbf { x } _ {\mathrm { n } } \right ) \right \} ^ { 2 } \)<caption>(4)</caption></p>
|
RBF 학습 알고리즘은 커널의 개수, 중심, 너비, 그리고 가중치를 결정하는 방법으로 이루어진다. 커널의 개수는 모델의 복잡도를 결정하는 요인으로 MSE를 통해 최적의 개수를 선정하였고, 중심은 k-means 클러스터링 기반 학습방법을 사용하였다. 너비는 Moody and Darken의 너비 계산 방법을 사용하여 p-nearest neighbor heuristic 방법으로 \( p=2 \)를 권장하고 있으며, 가중치는 최소 제곱 오차를 기반으로 계산하였다.
|
<p>한편, 품질 활용에 따른 인식 성능을 분석하기 위해, 각 생체정보별 매칭값에 대해 품질 값을 임의로 지정하였다. 이를 위해 각 생체정보별로 구분하여 매칭값을 Min-max 정규화를 수행하여 [0,1] 사이의 분포를 가지도록 조정하고 값의 범위에 따라 4단계로 나누어 품질 값을 지정하였는데, 0과 1에 가까울수록 높은 값을 가지도록 하고, 0.5에 가까워질수록 낮은 값을 가지도록 하였으머 단계별로 0.2, 0.5 ,0.8, 1의 값을 가지도록 하였다.</p> <h2>2. 실험 방법</h2> <p>본 는문에서의 실험은 각 목적별로 나누어 다음과 같이 수행되었다. 먼저, 학습 및 검증 데이터를 이용하여 커녈의 개수를 2개에서 100개로 변화시켜가며 MSE의 변화를 관찰하였다. 이는 커널 개수 변화에 따라 학습 데이터 및 검증 데이터에서 발생하는 MSE의 변화를 관찰함으로써 적절한 복잡도를 가질 수 있는 커널 개수를 선정하기 위해서이다. 이때 MSE } 는 k-means 클러스터링 방법이 가지는 임의성의 영항을 줄이기 위해 각 커널 개수에 대해 10번 반복 수행 후 평균을 사용하였다.</p> <p>둘째, 앞서의 실험을 통해 선정된 켜널 개수를 기반으로 품질 활용 여부에 따른 성능을 비교하였다. 이때 생체 정보의 개수를 2개에서 4개로 변경해가며 생체 정보 개수에 따른 성능 변화도 함께 살퍼보았다. 이때 사용한 데이터는 생체 정보의 개수가 2개일 때는 얼굴 인식 시스템 C와 왼손 지문 인식 결과(LI)를 사용하였으며, 3개일 때는 오른손지문 인식결과(RI)를 추가하고, 4개일 때는 4개의 시스템의 결과를 모두 사용하였다. 더불어 각 생체 정보의 개수에 대해 각 단일 생체 인식의 성능도 함께 비교하였다.</p> <p>마지막으로 품질 활용 유무에 따른 판정 경계의 변화를 관찰하기 위해 앞서 사용하였던 2개의 생체 정보를 가진 데이터에 대해 품질을 고려하지 않은 경우의 판정 경계와 품질을 고려한 경우의 판정 경계를 함께 나타내었다.</p> <p>상기의 모든 실험에서 각 매칭값에 대한 전처리 과정으로 Min-max 정규화를 적용하였는데 이는 각 단일 인식 시스템으로부터 획득된 매칭값이 언제나 동일한 의미를 가지고 있지 않기 때문이다. 즉, 하나의 시스템에서는 매칭값으로 0에서 10사이의 범위를 가지는 값을 출력하고 다른 시스템에서는 0과 1 사이의 값을 출력한다면, 이들을 동일하게 간주하여 융합한 결과는 잘못된 결과가 될 수 있기 때문이다. 또한, RBF 모델과 같이 유클리디안 거리에 기반을 둔 신경망의 경우 각 특징들이 징규화 되지 않게 되면 거리 계산이 큰 범위를 가지는 특징에 의해 좌우되므로 올바른 결과가 도출될 수 없게 된다. 한편, 품질 정보를 고려한 경우 필터링을 위한 문턱치로 0.5를 사용하였다.</p>
|
본 논문에서는 품질 활용에 따른 인식 성능을 분석하기 위해 각 생체정보별로 구분 후 min-max정규화를 수행하였다. 실험 순서는 먼저 학습,검증 데이터를 이용하여 MSE변화를 관찰한다. 그 다음 커널 개수를 기반으로 하는 품질 활용 성능을 비교한 후 마지막으로 품질 고려 유무에 따른 판정 경계의 변화를 관찰하여 나타낸다.
|
<p>즉, 입력층은 d 차원의 입력 데이터 \( \left \{ x_ { 1 } \in \mathbf { R } ^ { d } , \mathrm { i } =1, \ldots, \mathbf { n } \right \} \) 각각에 대하여 은닉층에 있는 m개의 커널 함수 \( \Phi_ { 1 } , \Phi_ { 2 } , \ldots, \Phi_ { m } \)를 기반으로 데이터를 변환하여 커널 출력값 \( \Phi_ { 1 } \left ( \mathrm { x } _ {\mathrm { i } } \right ), \Phi_ { 2 } \left ( \mathrm { x } _ {\mathrm { i } } \right ), \ldots, \Phi_ {\mathrm { m } } \left ( \mathrm { x } _ {\mathrm { i } } \right ) \)을 생성한다. 이것은 가중치 \( w_ { j } \)를 곱한 후 더해져 출력층에서 최종 출력값 \( y \)를 생성한다. \( \Phi_ { i } ( \cdot) \)는 가우시안 커널이 주로 사용되며, 이때의 최종 출력값 \( \hat { y } \)는 수식 (2)와 같다.</p> <p>\( \hat { y } =f( \mathbf { x } )= \sum_ { j=1 } ^ { m } w_ { j } \exp \left (- \frac {\left \| \mathrm { x } - \mu_ {\mathrm { j } } \right \| ^ { 2 } } { 2 \sigma_ { j } ^ { 2 } } \right ) \)<caption>(2)</caption></p> <p>여기서 \( \mu_ { j } \)와 \( \sigma_ { j } \)는 커널 변수로써 가우시안 커널의 중심(center)과 너비(width)를 나타내며, \( \| \). \( \| \)은 유클리디안 거리(Euclidean distance)률 나타낸다. 이러한 RBF 모델은 커널 변수를 통한 비선형성(non-linearity)과 가중치 변수를 통한 선형성(linearity)을 함께 표현하는 것이 가능할 뿐만 아니라 이러한 변수들을 학습과정에서 분리하여 다룰 수 있기 때문에 다른 비선형적 특성을 지닌 MLP(Multi-Layer Perceptron)등에 비해 비슷한 수준의 분류 성능을 유지하면서도 학습속도가 매우 빠르다는 장점이 있다. 그림 1은 바이어스 성분을 포함하고 있는 일반적인 RBF 모델의 구조률 나타낸다. 이러한 가우시안 커널을 가진 RBF 모델은 은닉층을 통해 데이터의 비선형적 변환을 정의하는데 필요한 커널의 개수(m) 및 커널의 중심 \( ( \mu) \)과 너비 \( ( \sigma) \), 그리고 은닉층으로부터의 결과를 출력층에 선형적으로 대응시키는 역할을 하는 커널 출력값의 가중치(w)에 의해 정의된다. 즉, RBF 모델링 문제는 주어진 데이터 \( D= \{ ( \mathbf { x } , \mathbf { y } ) \} \)에 대하여, 모델 변수 \( P=(m, \mu, \sigma, \omega) \)의 적절한 값을 학습하는 문제로 요약될 수 있는데 이는 사용자 인증을 위한 다중 생체 인식의 관점에서 다음과 같은 문제로 재구성될 수 있다. 즉, 사용자에 관한 다중 생체 정보가 주어졌을 때, 각 생체 정보별 단일 생체 인식 결과인 매칭값 \( s_ { 1 } , \cdots, s_ { d } \)로 구성된 특징 배터를 \( \mathrm { x } = \left (s_ { 1 } , \cdots, s_ { d } \right ) \)라고 하면, 사용자 인증의 문제는 특정 백터 x가 이루는 유클리드 공간 상에서 실제 사용자와 위조자간을 구분하는 최적의 판정 경계(optimal decision boundary)를 결정하는 문제로 대응될 수 있다. 그리하여, 이러한 판정 경계는 커널을 이용한 결정 모델 y로서 나타낼 수 있으며, 주어진 학습 데이터 \( D= \{ ( \mathrm { x } , \mathrm { y } ) \} \)로부터 비용 함수를 최소화할 수 있도록 변수를 적절히 학습함으로써 최종적인 판정 모델 \( P=(m, \mu, \sigma, \omega) \)를 얻을 수 있다.</p>
|
최종 출력값은 \( \hat { y } =f( \mathbf { x } )= \sum_ { j=1 } ^ { m } w_ { j } \exp \left (- \frac {\left \| \mathrm { x } - \mu_ {\mathrm { j } } \right \| ^ { 2 } } { 2 \sigma_ { j } ^ { 2 } } \right ) \)이다. RBF 모델은 우수한 수준의 분류 성능을 유지하면서도 학습 속도가 매우 빠르다. RBF 모델링의 문제는 사용자 인증을 위한 문제로 재구성될 수 있고 이는 최적의 판정 경계를 결정하는 문제로 대응될 수 있다.
|
<p>\( t_ { n } \)은 입력에 대한 실제 출력값이며, \( \mathrm { W } \)는 가중치 백터, H는 디자인 행렬, \( \mathrm { x } _ {\mathrm { n } } \)은 입력, 그리고 N은 데이터의 개수를 의미한다. 이를 행렬 형태로 변환하여 정리하면 수식 (5)와 같은 해를 얻게 되며, 이를 통해 에러를 최소화 하는 최적의 가중치 백터 W를 계산할 수 있다.</p> <p>\( \mathrm { W } = \left ( \mathrm { H } ^ {\mathrm { T } } \mathrm { H } \right ) ^ { -1 } \mathrm { H } ^ {\mathrm { T } } \mathrm { T } \)<caption>(5)</caption></p> <p>상기 각 파라미터의 학습 방법을 바탕으로 RBF 모델링을 위한 알고리즘을 간략히 요약하면 다음과 같다.</p> <h1>III. 생체 정보의 품질을 활용한 RBF 모델</h1> <p>RBF 모델을 이용한 다중 생체 인식은 앞서 설명한 바와 같이 매칭값으로 구성된 특징 백터를 기반으로 유클리드 공간상에서 사용자와 위조자간의 최적의 판정 경계를 결정하는 문제로 대응되었다. 하지만, 이러한 RBF 모델과 같은 패턴 분류 기반의 다중 생체 인식은 특징을 구성하는 각 매칭값들이 동일한 신뢰도를 가진다는 전제하에 수행되는 것으로 만일 하나의 매칭값이 저품질의 생체 정보에 의해 획득되어 신뢰도가 떨어진다면 이를 이용하여 수행된 최종 인식 결과의 신뢰도 또한 감소될 수 있다.</p> <p>이에 대해 Fierrez는 SVM 기반의 다중 생체 인식에서 품질 정보를 활용한 신뢰도 고려방안을 제시한 바 있다. 즉, SVM의 학습 단계에서 품질 정보를 이용하여 비용 함수(cost function)를 계산하고 이를 이용하여 저품질 샘플이 판정 경계 구성에 미치는 영향을 감소시켰으며, 판정 단계에서는 다수의 다른 생체 정보의 조합으로 학습된 SVM을 조합하는데 있어 품질 정보를 활용하여 계산된 교환 계수(trade-off coefficient)를 이용하였다.</p> <p>본 연구에서는 Fierrez의 방법을 RBF에 적용해 보았는데, RBF 모델의 학습 과정은 SVM과 다르기 때문에 품질을 활용하기 위해서는 다른 형태의 학습 방법이 필요하였다. 이를 위해 본 연구에서는 RBF 모델의 학습 단계에서 학습 데이터를 품질을 기준으로 필터링 (filtering)을 수행하여 저품질의 샘플이 학습에 미치는 영향을 차단하였다. 이는 일반적으로 저품질 샘플이라면 이상치(outlier)로 간주할 수 있으며, 이러한 이상치들은 학습 단계에서 모델의 일반화를 저해하는 요인이 됨으로 이러한 샘플들을 학습 단계에서 제외하는 것이 효과적이라고 판단했기 때문이다. 한편, 펄터링의 문턱치(threshold)에 따라 학습에 사용되는 샘플의 개수가 달라지는데 너무 높은 문터치를 사용할 경우 학습에 사용되는 데이터의 개수가 작아져 오히려 일반화가 감소될 수 있으며, 너무 낮은 경우에는 저품질 샘플에 의한 영향이 증가되므로 적절한 문턱치의 사용이 필요하다. 판정 단계에서는 교환계수를 활용하였다. 이는 M개의 생체 정보가 있을 때 M개의 생체 정보를 모두 이용한 RBF모델 1개와 각기 다른 M-1개의 생체 정보를 이용한 RBF 모델 M개로 구성되는데, 이들 M + 1개의 RBF 모델에 대해 품질에 의해 계산된 각기 다른 교환 계수를 곱함으로써 각각의 RBF 모델들이 판정에 기여하는 정도를 조절하여 최종적으로 품질에 따라 판정 결과가 달라질 수 있게 된다. 이때 교환 계수들의 합은 1 이 되며, 각 생체 정보들이 가지는 품질의 값은 [0,1]사이에 분포하도록 하였다. 한편, 품질이 \( q_ { T, 1 } \leq \cdots \leq q_ { T, M } \) 일 때 입력은 \( \mathrm { x } _ {\mathrm { T } } = \left [x_ { T, 1 } , \cdots, x_ { T, M } \right ] \)로 재정렬되며, 이때 교환 계수 \( \beta_ { j } \) 는 수식 (6)으로 계산된다. 계산된 교환 계수를 이용한 최종 판정식은 수식 (7)과 같다.</p>
|
RBF 모델처럼 패턴분류기반의 다중 생체 인식은 특징을 구성하는 매칭값들이 같은 신뢰도를 보인다는 전제하에 수행되는 것으로 만약 하나의 매칭값이 저품질 생체정보에 의해 획득되어 신뢰도가 떨어진다면 이를 이용하여 수행한 최종 인식 결과의 신뢰도 역시 감소한다. SVM 기반의 다중생체 인식에서 품질 정보를 활용한 신뢰도 고려방안을 제시하였는데 이는 SVM의 학습 단계에서 품질 정보를 이용하여 비용 함수를 계산하고 이를 통해 저품질 샘플이 판정 경계 구성에 미치는 영향을 감소시켰으며 판정 단계에서는 다수의 다른 생체 정보의 조합으로 학습된 SVM을 조합하는데 있어 품질 정보를 활용하여 계산된 교환 계수를 이용하였다.
|
<p>\( \beta_ { j } = \left (q_ { T, M } -q_ { T, j } \right ), j=1, \cdots, M-1 \)<caption>(6)</caption></p> <p>\( \begin {aligned} f_ { R B F_ { Q } } & \left ( \mathrm { x } _ { T } \right ) \\ &= \beta_ { 1 } \sum_ { j=1 } ^ { M-1 } \frac {\beta_ { j } } {\sum_ { r=1 } ^ { M-1 } \beta_ { r } } f_ { R B F_ { j } } \left ( \mathbf { x } _ { T } ^ { (j) } \right ) + \left (1- \beta_ { 1 } \right ) f_ { R B H } \left ( \mathbf { x } _ { T } \right ) \end {aligned} \)<caption>(7)</caption></p> <p>위 식에서 \( \mathbf { x } _ { T } ^ { (j) } = \left [x_ { T, 1 } , \cdots, x_ { T, j-1 } , x_ { T, j + 1 } , \cdots, x_ { T, M } \right ] ^ { T } \)이다. 이를 통해 저품질의 샘플로부터 획득된 매칭값이 판정에 미치는 영향을 최소화할 수 있게 된다. 그림 2는 본 연구에서 제안된 품질을 활용한 RBF 기반 유사도 단계 융합 다중생체인식 모형을 나타낸다.</p> <h1>IV. 실 험</h1> <h2>1. 실험 데이터</h2> <p>실험 데이터는 NIST에서 제공하는 생체 인식 유사도 데이터인 BSSR1(Biometric Score Set Release 1)을 사용하였다. BSSR1은 동일인에 대해 두 개의 얼굴 인식 시스템(익명의 시스템 C와 G)과 한 개의 지문인식시스템에 대한 양손 지문(LI, RI) 인식 결과로 구성된 데이터베이스이다. 이 데이터는 유사도 단계 융합방식의 다중생체인식 연구에 적합한 데이터로 얼굴과 지문 데이터로 구성된 집합 1과 지문 데이터만으로 구성된 집합 2 , 그리고 얼굴 데이터만으로 구성된 집합 3으로 나누어 구성되어 있다. 본 실험에서는 집합 1을 이용하였다. 집합 1은 517개의 사용자 데이터와 266,772개의 위조자 데이터로 구성되어 았으며 이 중 얼굴인식시스템 C에 의한 얼굴데이터 하나가 잘못된 결과를 가지고 있어 516 개의 사용자 데이터와 266,256 개의 위조자 데이터로 구성된다. 실험은 이 데이터에서 11,000개의 데이터를 추출(sampling)하여 사용하였는데 이는 500 개의 사용자 데이터와 10,500 개의 위조자 데이터로 구성된다. 학습 및 검증 데이터는 각각 100개의 사용자 데이터와 400개의 위조자 데이터로 구성되며, 테스트 데이터는 300개의 사용자와 9,700개의 위조자 데이터로 구성하였다.</p>
|
본 실험에서는 동일인에 대해 두 개의 얼굴 인식 시스템과 한 개의 지문인식시스템으로 구성된 BSSR1을 사용하였다. 여기서에 11,000개의 데이터를 샘플링하여 학습 및 검증 데이터에는 100개의 사용자 데이터와 400개의 위조자 데이터를, 테스트 데이터에는 300개의 사용자와 9,700개의 위조자 데이터를 사용하였다.
|
<h2>3. 실험 결과</h2> <h3>가. 커널 개수 선정 실험 결과</h3> <p>그림 3은 커널 개수에 따른 학습 및 검증 데이터의 MSE 변화를 나타낸 것으로, 실선은 학습 데이터의 MSE이고, 점선은 검중 데이터의 MSE이다. 실험 결과 학습 데이터의 MSE는 커널의 개수가 증가함에 따라 전반적으로 감소하는 형태를 보여주었으며, 검증 데이터는 커널의 개수가 50개 이하일 때는 학습 데이터와 유사한 형태를 보여주나, 50개 이상일 때는 전반적으로 증가되는 모습을 보여주었다. 실험 결과를 바탕으로 커널의 개수는 4개를 선정하였는데 이는 4개일 때까지는 학습데이터 및 검증데이터 모두 MSE가 지속적으로 감소되었으며, 그 이후로는 변동이 발생하여 특정지점의 선택이 어려웠기 때문이다.</p> <h3>나. 품질 활용한 RBF 모델 실험 결과</h3> <p>제안된 방법의 인식 성능을 평가하기 위해 DET(Detection Error Tradeoff) 그래프를 사용하였다. DET그래프는 생체인식시스템에서 발생한 에러인 FRR(본인거부율, False Reject Rate)과 FAR(타인수용율, False Accept Rate)의 관계를 나타낸 그래프로써 AUC(Area Under the Curve) 분석을 통해 시스템 간의 성능을 직관적으로 비교할 수 있다. 즉, DET 그래프에서는 그래프 아래의 면적이 작을수록 좋은 성능을 나타내므로 여러 개의 그래프가 있다면 가장 적은 면적을 가지는 시스템이 더 좋은 성능을 가진다고 볼 수 있다.</p> <p>그림 4의 DET 그래프에서 1점 쇄선은 단일 생체 인식 성능을 나타내며, 점선은 품질을 고려하지 않은 경우의 RBF 기반 유사도 단계 융합다중생체 인식성능을 나타내며, 실선은 품질을 활용한 경우를 나타낸다. 먼저 (a), (b), (c) 그래프에서 다중 생체 인식이 단일 생체 인식에 비해 향상된 인식 성능을 가지며 이는 생체 정보의 개수가 2개에서 4개로 중가함에 따라 더욱 개선됨을 볼 수 있다. 더불어 품질을 활용한 경우에는 그렇지 않은 경우에 비해 인식 성능이 향상됨을 볼수 있는데, 기존의 연구에서 Fierrez는 품질을 활용한 경우 그렇지 않은 경우에 비해 EER(Equal Error Rate)이 \( 18 \% \) ( \(1.65 \% \) EER) 향상됨을 보여주었다. 이와 비교해 본 연구에서는 생체 정보의 개수에 따라 2개인 경우 약 \( 14 \% \) ( \(1.82 \% \) EER), 3개인 경우 약 \( 18 \% \) ( \(1.35 \% \) EER), 그리고 4 개인 경우 약 \( 40 \% \) \((1.13 \% \) EER)의 향상이 있었다. 실험에 사용된 데이터가 다르기 때문에 직접적인 EER 수치의 비교는 어렵지만, 품질 활용 여부에 따를 EER의 변화에서 유사한 수준외 향상을 관찰할 수 있었다. 한편, 생체 정보가 증가한다고 해서 인식성능이 항상 개선된다고 일반화 하기에는 어려움이 있지만, BSSR1 데이터를 이용한 다중 생체인식에서는 2개의 생체 정보를 이용하는 것보다 4개의 생체정보를 이용하는 것이 더 줗은 인식성능을 가질수 있다고 판단된다.</p>
|
MSE변화를 보면 커널의 개수가 증가 할수록 감소하지만 커널 개수가 50개 이상일 경우 전반적으로 증가한다. FRR과 FAR의 관계 그래프인 DET 그래프는 시스템 간 성능 분석이 가능하며, 그래프 아래 면적이 작을수록 성능이 좋음을 나타낸다. 또한 생체 정보가 2개에서 4개로 상승 할 때 다중 생체 인식 성능이 향상된다. 또 품질을 사용한 경우, 사용하지 않은 것에 비해 ERR이 \( 18 \% \) 향상되었다.
|
<h1>요 약</h1> <p>다중 생체 인식은 둘 이상의 생체 정보를 획득하여 이를 기반으로 개인 인증 및 신원을 확인하는 방법으로, 패턴 분류 알고리즘울 이용한 RBF 기반 유사도 단계 융합 다중 생체 인식은 입력된 생체 정보와 데이터베이스 내의 유사도를 나타내는 매칭값을 각 단일 생체 인식 시스템으로부터 제공받아 이를 이용하여 특징 베터를 구성하고, 특징 공간상에서 사용자와 위조자를 구분해주는 최적의 판정 경계를 탐색하여 인식을 수행하는 방법이다. 이러한 패턴 분류 알고리즘의 경우 특징 백터를 구성하는 각 매칭값이 동일한 신뢰도를 가지고 있다는 가정하에 고정된 판정 경계를 구성하고 분류를 수행하게 된다. 한편, 생체 인식 시스템의 인식 결과는 입력되는 생체 정보의 품질에 영향을 받을 수 있음이 기존의 연구에서 보도되고 있는데, 이는 일반적인 RBF 기반 유사도 단계 융합 다중 생체 인식 시스템을 구성하고 있는 단일 셍체 인식 시스템 중 하나의 시스템에 저품질의 생체 정보가 입력되어 신뢰할 수 없는 매칭값을 출력한 경우에는 이를 기반으로 구성된 특징 벡터의 판정이 오분류 되거나 그 결과의 신뢰도가 감소될 수 있는 문제가 있다. 이에 대한 대안으로 본 논문에서는 각 단일 생체 인식 시스템에 입력되는 생체 정보의 품질을 활용하여 RB 기반 유사도 단계 융합 다중 생체 인식 시스템에서 품질에 따라 유동적인 판정 경계를 구성하여 특정 백터를 구성하는 각 매칭값이 판정에 미치는 영항을 조절하고자 하였다. 이를 통해 각 셍체 정보가 그 품질에 따라 판정에 미치는 영향이 달리 적용할 수 있도록 하였으며, 그 결과 단일 생체 인식과 일반적인 RBF 기반 유사도 단계 융합 다중 생체 인식에 비해 보다 개선된 인식 결과와 신뢰도를 얻을 수 있었다.</p> <h1>I. 서 론</h1> <p>생체 인식은 개인의 신체적 또는 행동학적 특징을 기반으로 개인의 신원을 인증하는 것으로, 이는 기존의 암호, 개인 인증 번호(Perseonal Identification Number) 방식의 개인 인증 및 보안 방식이 노출이나 도난, 분실 등의 문제로 한계를 보이고 있는 상황에서 개인 인증 및 신원 확인을 위한 새로운 수단으로 기대되고 있다. 그러나 최근까지 단일 생체 인식 기술이 많은 발전을 이루어 왔음에도 불구하고 각각의 생체 정보에 따른 다양한 문제점이 노츨되고 있다. 이에 따라 높은 수준의 보안을 필요로 하고 대규모의 응용이 이루어지는 경우에는 단일 생채인식 보다는 다중 생체 인식 기반 인증기술의 사용을 권장하고 있는 추세이다.</p>
|
다중 생체 인식은 여러 생체 정보를 얻어 이를 기반으로 개인 인증 및 신원을 확인하는 방법으로 높은 수준의 보안을 필요로 하고 대규모의 응용이 이루어지는 경우에 권장된다. 본 논문에서는 각 단일 생체 인식 시스템에 입력되는 생체 정보의 품질을 이용해 특정 백터를 구성하는 매칭값이 판정에 주는 영향을 조절했다.
|
<p>생체 인식에서 품질과 관련된 연구는 생체 정보의 품질 측정에 관한 연구와 그 활용에 대한 연구로 크게 나눌 수 있는데, 먼저 Bengio는 품질과 유사한 개념으로 매칭값의 신뢰도 측정 방법을 소개하고, 매칭값의 신뢰도가 융합 과정에 유용함을 보여주었으며, 이후 Poh와 Bengio에서 사용자와 위조자의 매칭값 분포 간의 마진(margin)에 기반을 둔 신뢰도 측정 방안을 제시한 바 있다. 한편, Bigun은 가중치 인자로써 단일 생체 인식 모듈(expert)의 정확도뿐만 아니라 개별 입력 샘플에 대한 신뢰도까지 함께 고려하는 expert conciliation scheme을 제안한바 있고, Fierrez 는 베이지안 통계 모델과 SVM(Support Vector Machine) 분류기를 구성하는 과정에 품질을 활용하는 방법을 시도한 바 있다.</p> <p>이에 본 논문에서는 패턴 분류 방법 중 하나인 RBF (방사 기저 함수, Radial Basis Function)를 이용한 유사도 단계 융합 다중 생체 인식에서 품질을 활용하기 위한 방안을 연구하였다. 이를 통해 입력 생체 정보의 품질에 따라 판정에 미치는 영향을 조절함으로써 유동적인 판정 경계를 구성하여 판정 신뢰도의 향상과 인식율을 개선하고자 한다. 이를 위해 Ⅱ장에서는 RBF 기반 유사도 단계 융합 다중 생체 인식 시스템을 구성하기 위한 모델 변수와 이의 학습 방법에 대해 설명하고, Ⅲ장에서는 품질을 고려하기 위한 방안을 기술하였다. Ⅳ장에서는 실험에 사용된 데이더와 실험 방법에 대해 소개하고 결과를 분석하였으며, Ⅴ장에서는 실험 결과를 토대로 본 연구의 의의와 향후 연구 과제에 대하여 논의하였다.</p> <h1>II. 다중 생체 인식을 위한 RBF 모델링</h1> <h2>1. RBF 모델</h2> <p>RBF 모델은 입력층(input layer), 출력층(output layer), 그리고 하나의 은닉층(hidden layer)으로 구성된 신경망의 한 형태로, 일반적인 신경망이 입력(input vector)과 가중치(weight vector)의 곱에 의해 은닉 유닉(hidden unit)이 활성화되는데 반해, 입력과 중심(center or prototype vector)과의 거리에 의해 활성화되는 특성을 가지고 있다. RBF 모델에서 주어진 데이터의 입력값 x와 출력값 y에 관한 매핑 관계는 수식 (1)과 같은 함수의 형태로 표현할 수 있다.</p> <p>\( y = f( \mathbf { x } )= \sum_ { j=1 } ^ {\mathrm { m } } \omega_ {\mathrm { j } } \Phi_ {\mathrm { j } } \left ( \left \| \mathrm { x } - \mu_ {\mathrm { j } } \right \| \right ) \)<caption>(1)</caption></p>
|
생체 인식에서 품질과 관련된 연구는 크게 생체 정보의 품질 측정에 관한 연구와 그 활용에 대한 연구로 나눌 수 있다. Bengio는 매칭값의 신뢰도가 융합 과정에 유용함을 보여주었으며, Poh와 함께 사용자와 위조자의 매칭값 분포 간의 마진(margin)에 기반을 둔 신뢰도 측정 방안을 제시한 바 있다. 본 논문에서는 패턴 분류 방법 중 하나인 RBF를 이용한 유사도 단계 융합 다중 생체 인식에서 품질을 활용하기 위한 방안을 연구하였다.
|
<p>다중 생체 인식은 둘 이상의 생체 정보를 획득하여 개인 인증 및 신원을 확인하는 방법으로 특정 생체 성보를 획득하기 어려운 경우에도 이를 감안하여 개인 인증을 수행할 수 있는 장점이 있다. 이러한 다중 생체 인식은 용합 단계에 따라 특징 단계 용합(Feature-Level Fusion), 유사도 단계 융합(Score-Level Fusion) 그리고 결정 단계 융합(Decision-Level Fusion)의 3가지가 있다. 이 중 특징 단계 융합의 경우 입력된 생체 정보를 그대로 활용하므로 가장 높은 수준의 정보량을 가지고 있어 어떤 단계의 융합보다도 높은 신뢰성을 가질 수 있으나 개별 시스템의 생체 징보를 취합하는 과정에서 고차의 특징 백더가 형성되어 이의 연산이 쉽지 않으며 이종 데이터의 융합 또한 어려운 단점이 있다. 반면 결정 단계 융합의 경우에는 개별 시스템에서 획득되는 수락 또는 거부의 제한된 정보만으로 최종 판단을 수행하므로 가장 낮은 수준의 정보량을 가지고 있어 그 신뢰성 또한 낮은 단점이 있다. 유사도 단계 융합은 특징 단계와 결정 단계의 중간 단계로써 개별 시스템의 매칭값(matching score)을 활용하는 방법으로 다른 단계에 비해 적절한 수준의 정보량과 신뢰성을 가지고 있어 활발히 연구되고 있다.</p> <p>유사도 단계 융합은 두 가지 형태의 방법이 주로 사용되고 있다. 초기에는 각 단일 인식 시스템으로부터 획득된 매칭값을 합(sum), 최소값(min), 최대값(max)과 같은 방법으로 조합(combination)하여 하나의 단일 매칭값을 생성하고 이를 바탕으로 사용자의 인증 여부를 판정하는 조합 알고리즘이 주로 사용되었으며 , 최근에는 각 매칭값을 벡터의 차원 값으로 사용하여 특징 백터를 구성하고 이를 패턴 분류 알고리즘에 적용하여 사용하기도 한다. 이러한 패턴 분류 알고리즘의 경우 특징 벡터를 구성하는 각 특징이 동일한 신뢰도를 가지고 있다는 가정하에 고정된 판정 경계를 구성하고 분류를 수행하게 된다.</p> <p>한편, 최근에는 생체 인식에 사용되는 입력 생체 정보의 품질이 생체 인식 성능에 미치는 영향에 관한 연구에 많은 관심이 모이고 있다. 특히 FVC(Fingerprint Verification Competitions) 2004에서는 서로 다른 지문 센서를 통해 획득한 4개의 지문 영상 데이터베이스에 인위적으로 생성된 다양한 노이즈를 추가하여 저품질의 영상을 생성하고 인증 성능을 평가한 결과, 이전에 비해 인증 성능이 대폭 감소됨을 확인한 바 있다.</p> <p>즉, 일반적인 패턴 분류 알고리즘을 이용하여 구성된 유사도 단계 융합 다중 생체 인식 시스템에서 각 단일 생체 인식 시스템 중 하나의 시스템에 저품질의 생체 정보가 입력되어 신뢰할 수 없는 매칭값을 출력한 경우에는 이를 기반으로 구성된 특징 벡터의 판정이 오분류되거나 그 결과의 신뢰도(confidence)가 감소되는 문제가 빌생할 수 있다. 그러므로, 각 단일 생체 인식 시스템에 입력되는 생체 정보에 대한 품질 측정과 이를 판정에 반영하기 위한 방안이 필요하다.</p>
|
유사도 단계 융합 다중 생체 인식 시스템은 저품질의 생체 정보 입력 시 신뢰할 수 없는 매칭값을 생성하고, 이로 인해 오분류나 결과의 신뢰도 감소 문제가 발생할 수 있다. 따라서, 각 생체 인식 시스템에 입력되는 생체 정보의 품질 측정과 이를 판정에 반영할 수 있는 방안이 필요하다. 이러한 문제에 대한 연구는 최근 많은 관심을 받고 있다.
|
<h2>3.3 에지 세기를 이용한 스테레오 정합</h2><p>본 알고리즘에서 수행되는 일치화 프로세스를 자세히 설명하면 다음과 같다.</p><p>정합에는 앞서 분류된 에지 픽셀들 중 비슷한 세기의 것만을 이용하여 기존의 것을 개선한 스테레오 일치 프로세스(stereo correspondence process)를 사용한다. 분류된 에지세기 중에서 정합을 행하기에 좋지 않은(두드러지지 않는) 값인 '매우 약'을 제외한 나머지 '강, 중, 약'을 남겨둔다. 그 후 한 쌍의 스테레오 영상의 다중 레벨 에지 지도를 유사성 제약을 검사를 한다. 두 영상의 에지 세기가 서로 다를 경우는 유사성이 거의 없다라고 판단하고, 반대의 경우는 유사성이 높다고 판단한다. 스테레오 영상에서 한 영상내에서의 '약' 에지 값은 다른 한 쪽 영상의 '강' 에지 값과 판이하게 틀린 값을 가지기 때문에 두 에지 세기를 유사성 검사에 사용한다. 물론 반대의 경우도 동일하다.</p><p>스테레오 정합에 사용되는 많은 상관 기법들이 있고, 본 논문에서는 'sum of absolute differences(SAD)'기법을 사용하여 정확성 높이기 위해 SSD를 대체하여 사용하였다. 이는 에지 기반의 정합으로 이미 속도 면에서 성과를 거두었기에 정확성을 고려한 것이다. 두 상관 기법들이 현격한 결과 차를 가지고 오는 것은 아니나 미약하더라도 좀 더 낳은 효과를 얻어보고자 한 것이다. 정합 프로세스(matching process)는 대부분 변수로 선언된 원도우 영역과 에지 세기를 사용하여 행해진다. '약' 에지의 경우 보통 객체와 배경을 구분하기 힘들거나 객체의 픽셀 값이 약한 영역(low-textured)에 위치하게 되고 이럴 경우 원도우 영역의 크기를 작게 사용하는 것이 좀더 정확한 일치 결과를 기대할 수 있게 된다. 이러한 이유로 본 논문에서는 에지 세기에 반비례하게 정합영역 (\(3 * 3\), \(5 * 5\), \(7 * 7\))를 이용 한다.</p><p>본 논문에서는 좀 더 좋은 변위 지도를 얻기 위하여 '2단계 스테레오 정합'을 제안한다. 이 방법은 첫 번째 단계에서 정합한 결과에서 '약'에지 값을 보다 정확하게 얻어내기 위하여 두 번째 단계에서 첫 번째 단계의 결과를 얻는데 사용했던 원도우들의 크기보다 더 큰 사이즈의 원도우를 사용해서 결과를 얻어내는 방식이다. 다음 페이지 (그림 3) 의 왼쪽은 본 논문에서 제안한 에지 기반 스테레오 일치화 기법을 이용해서 만든 에지 기반 변위 지도이다.</p><h2>3.4 새로운 외부 에너지의 공식화(LEDM 추출)</h2><p>마지막으로 에지 기반 변위 지도에서 관심 객체에 속한 에지만을 뽑아내어 새로운 지도를 만들며 이 모든 단계는 관심 영역 안의 에지만을 가지고 이루어진다. 변위 값과 표면 (surface)을 이용하여 계산을 하고 그 값이 기준치 (tolerance factor) \(\varepsilon \) 보다 작은지를 검사한다. 완성된 에지 지도를 'layer edge disparity map(LEDM)'이라 하고 다음과 같이 표현한다.</p><p>\( f_{L E D M}(x, y)=\left\{\begin{array}{c}1,\left|D_{O O I}-D(x, y)\right| / D_{O O I}<\varepsilon \\ 0, \text { otherwise }\end{array}\right. \)<caption>(6)</caption></p><p>여기서 \( D(x, y) \) 는 변위 지도, \( D_{OOI}\) 는 객체의 변위이며 (그림 3)의 오른쪽이 LEDM이다.</p><p>다음 단계에는 이 LEDM 지도를 이용하여 스네이크 모델의 외부에너지에 적용하여 그 성능을 평가한다. 이를 위하여 대부분의 스네이크 함수에서 사용되는 'gradient map'과 GVF 스네이크의 'gradient field'에 적용시켜서 성능을 실험을 하였다.</p>
|
본 논문에서는 정합에 비슷한 세기의 에지 픽셀로 기존 것을 개선한 스테레오 일치 프로세스를 사용한다. 에지 값을 정확하게 얻어내기 위해, 크기가 다른 윈도우를 사용하여 결과를 얻는 2단계 스테레오 정합을 제안한다. 에지 기반 스테레오 일치화 기법을 이용해서 관심 객체에 속한 에지만을 뽑아내어 에지 기반 변위 지도를 만들며, 스네이크 모델의 외부에너지에 적용하여 그 성능을 평가한다.
|
<h1>1. 서 론</h1><p>능동 윤곽 모델(active contour models) 혹은 스네이크라고 불리 우는 알고리즘은 주로 한 개의 카메라로부터 얻어지는 단일 영상(monocular images)을 이용하는 영상 처리 방법으로 안면(얼굴) 영상 처리(facial image processing), 객체 추적(object tracking), 의료 영상(medical imag-ing)등 다양한 분야에서 폭넓게 연구되고 있다. 그러나 이러한 단일 영상 내에서 스네이크 알고리즘들의 객체 추출 결과를 살펴보면 객체 윤곽이 오목 (boundary concavities) 하거나 중첩(object occlusion)이 있는 곳 그리고 객체 주위 배경에서 잡음이나 복잡성(background noise and clutter)에 따라 현저하게 효율이 떨어지는 결과를 보인다. 이는 단일 영상으로부터 얻어 낼 수 있는 영상은 2차원 영상이며 이러한 2차원 영상으로는 객체와 배경을 구분 지을 수 없기 때문에 생기는 결과이다.</p><p>이러한 문제점을 해결하기 위한 방법의 하나로 근래에 들어 스테레오 혹은 다중 관점(stereo and multi-view) 영상처리 기술을 이용하는 방법이 활발히 연구되고 있다. 연구가 진행되면서 스네이크 기반의 기법에서 객체의 깊이(depth), 즉 카메라로부터 객체가 얼마나 떨어져있는지를 이용하여 관심 객체와 주위 배경 및 다른 객체들을 보다 쉽게 분리할 수 있게 되었다.</p><p>스테레오 영상에서 얻은 깊이 정보를 이용한 스네이크 기반의 객체 추출 방법으로 [9]에서는 변위 지도를 얻기 위해 영역 기반(region-based)의 스테레오 정합(stereo matching) 기법을 사용한다. 이렇게 얻어진 변위 지도를 이용하여 스네이크의 외부 에너지 항(external energy term)을 생성하고 스네이크 알고리즘을 수행한다.</p><p>기본적으로 추출하고자 하는 객체는 관심 객체(object of interest)라 하고 관심 객체의 변위 지도를 \( D_{O O I} \) 라 정의 한다. [9]에서는 관심 객체가 포함된 주위의 영역을 관심 영역(region of interest)라 하고 관심 영역의 변위 히스토그램(disparity histogram)의 정점(peak)에 해당하는 픽셀들을 \( D_{O O I} \) 라고 정의하였다. 이 방법을 사용하면 객체의 표면이 가늘거나 굴곡진 모양인 부분에서 스네이크 알고리즘은 효율이 떨어진다. 관심 영역만을 이용하여 \( D_{O O I} \) 를 만든 경우에는 객체의 이러 부분까지 충족시킬 수 없기 때문에 생기는 현상이다. 관심 영역 안의 픽셀 세기들을 히스토그램으로 표현할 경우 관심 객체의 픽셀 수가 배경의 픽셀이나 다른 객체의 픽셀 수 보다 적다면 전혀 엉뚱한 객체를 추출하게 되기 때문이다.</p><p>본 논문에서는 [9]에서 외부에너지를 생성할 때 영역 기반 정합을 통하여 관심 객체의 변위를 얻고 이를 이용하는 것에 대해 다른 방식을 제안한다. 영역 기반의 스테레오 정합 보다 좋은 효과를 나타내는 에지 기반(edge-based)의 정합을 사용하여 외부 에너지에 적용하는 것이다. 한 쌍의 스테레오 영상을 가지고 각각의 영상에서 다중 레벨 에지 지도를 생성하고 에지의 '세기(강도) 유사성 제약(strength similarity constraint)'을 통해 스테레오 정합을 하게 된다. '세기(강도) 유사성 제약'은 제안하는 알고리즘에서 정합 오류를 줄이고 더 빠르고 더 정확한 결과를 얻을 수 있게 하는 중요한 요소이다.</p><p>관심 객체의 변위를 얻기 위해서 사용하는 방법은 다음과같다. 왼쪽 영상에서 얻어낸 객체의 에지를 오른쪽 에지 영상에서 동일한 위치라고 판단 되는 곳을 찾는다. 찾아낸 위치(오른쪽영상에서의 관심영역이라고 할 수 있다.)를 이용하여 변위를 구한다. 최적의 위치를 찾기 위해 상관 관계 측정방법(correlation measure)을 사용하는데 이를 통해 좀 더 정확하게 객체의 변위를 얻을 수 있고 이는 곧 분할 기법에 긍정적인 효과를 가져오게 된다.</p><p>본 논문 구성의 구성은 다음과 같다. 2장에서는 스네이크 기반에서의 객체 추출에 관해 알고리즘들을 간단히 소개한다. 3장에서는 스테레오 영상 일치화 기법을 이용하여 관심 영역 안에서 주위 배경과 잡음을 제거하고 관심 객체의 에지를 효과적으로 추출하는 새로운 객체 추출 방법을 제시한다. 4장에서는 제안하는 방법을 기존의 스네이크 알고리즘에서 두 가지를 선택 제안하는 방법을 적용하여 외부에너지를 생성하고 그 성능을 실험한다. 5장에서는 두 종류의 스네이크 알고리즘에서 제안하는 방법으로 외부에너지를 생성 한 후의 결과와 결론에 대하여 기술한다.</p>
|
영역 기반의 스테레오 정합 기법을 사용하여 변위 지도를 얻으며, 이를 활용하여 스네이크의 외부 에너지 항을 형성하고 스네이크 알고리즘을 수행한다. 해당 연구에서는 외부에너지를 생성할 때 기존 방식과 다른 방법을 제안하는데, 이는 에지 기반의 정합을 사용하여 외부 에너지에 적용하는 것이다. 이 방법을 통해서 좀 더 정확하게 객체 변위를 얻을 수 있으며 분할 기법에 긍정적인 효과를 가지게 된다.
|
<h2>3.2 관심 객체의 변위를 얻기 위한 관심 영역 정합</h2><p>관심 객체의 변위를 구하는 것은 이 후 객체 추출에 앞서서 가장 우선시 해야 할 일이다.</p><p>[9]에서는 새로운 스네이크 에너지 함수를 정의하면서 관심 영역 안에서 픽셀들의 변위 히스토그램을 만들고 그 중 가장 강한 값만을 뽑아 그 변위를 구하는 방법을 사용한다고 1장에서 설명하였다. 이 경우 변위 지도가 굉장히 복잡하고 빽빽하게 생성되기 때문에 객체가 관심 영역의 많은 부분을 차지하게 설정해야 하는 어려움이 있으며 관심 객체가 가늘고 휘어진 객체라면 객체의 추출이 힘들다.</p><p>본 논문에서 제안하는 에지 기반에서 생성되는 변위 지도는 이러한 상황을 고려할 필요가 없다. (그림 2)와 같이 객체가 가늘고 휘어진 모양을 가지며 관심 영역에서 적은 부분을 차지해도 관심 객체에 최대한으로 근접한 형태를 매우 효과적으로 제공할 수 있다.</p><p>앞의 3-1에서 스테레오 영상으로 만들어낸 다중 레벨 에지 지도를 가지고 상관 기반(correlation-based)의 기법을 이용하여 유사성(similarity)을 검사하면 스테레오 영상의 관심영역 안에서 관심객체의 변위를 추출할 수 있다. 검사 영역은 앞서서 나누었던 단계 중에서 (약, 중, 강)로 한정시키고 수하며 이유는 3.3에서 설명한다.</p><p>관심 영역 안에서 각 에지 픽셀들을 \(n \)이라 하며 각 픽셀의 영역을 \( \operatorname{let}\left\{\left(x_{i}, y_{i}\right)\right\} i=1, \ldots, n \) 이라 하고, 관심 영역에서 픽셀의 중심좌표 (x-coordinate)를 \( x_{0} \)라 하고 \( x_{0} \)에서 \( x \)사이의 변위를 \( u \) 라 한다.</p><p>상관 함수로 'Sum of Squared Differences(SSD)' 함수를 사용한다. SSD는 한 영역 안의 픽셀을 다른 영상의 영역에서 동일한 위치를 찾기 위해 사용되는 상관 함수로 속도가 빠른 편이며 에지 값 만을 이용하는 본 알고리즘 특성상 속도의 장점을 극대화 할 때 사용한다. 왼쪽 관심 영역의 에지 패턴과 오른쪽 관심 영상에서 산출된 에지 패턴 사이의 유사성은 다음의 SSD 함수로 산출 된다.</p><p>\( S(u)=\sum_{i=1}^{n}\left(L_{l}\left(x_{i}, y_{i}\right)-L_{r}\left(x_{i}+u, y_{i}\right)\right)^{2} \)<caption>(5)</caption></p><p>\( L_{l} \) 은 왼쪽 영상, \( L_{r} \) 은 오른쪽 영상 에서의 다중 레벨 에지지도고 여기서 나오는 \( x \) 의 변위를 이용하여 최적의 상관관계를 산출한 영역 \( D_{O O I} \) 를 생성한다. \( D_{O O I} \) 는 결국 관심 객체의 변위라 할 수 있다. 다음의 3.3절은 정합 과정을 좀 더 자세히 설명하며 알고리즘의 다음 단계는 3.4절에서 계속 된다.</p>
|
관심 객체의 변위 정보 획득을 우선하는 것이 객체 추출보다 우선합니다.복잡하고 조밀한 변위 맵을 처리할 때 관심 대상을 추출하는 것은 특히 대상이 얇고 구부러진 경우 관심 영역의 상당 부분을 차지하도록 대상을 설정하기가 어렵고 SSD는 서로 다른 이미지 영역 간에 해당 픽셀을 식별하는 데 사용되는 상관 함수입니다. 관심 물체가 가늘고 구부러져 있고 관심 영역의 작은 부분을 차지하는 경우에도 제안하는 방법은 물체와 거의 일치하는 모양을 효과적으로 제공할 수 있습니다.
|
<h1>2. 기존의 스네이크 기반의 객체 추출 알고리즘</h1><p>스네이크는 객체의 선과 에지라는 특성을 이용하여 스네이크 포인트를 객체의 윤곽에 수렴시키고자 하는 것인데 이때 사용되는 것이 내부에너지와 외부에너지로 정의된 에너지 함수이며 에너지 함수의 최소값을 이용하게 된다. 즉 스네이크 에너지 함수는 관심 객체의 윤곽선을 수렴할 때까지 반복 수행을 거쳐 결과적으로 객체를 추출해 내는 것이다.</p><p>스네이크 모델은 '매개 변수 스테이크 모델(parametric snake model)'과 '기하학적 스네이크 모델(geometric snake model)'로 나뉜다.</p><p>대표적인 매개 변수 스네이크 모델은 Kass에 의해 처음으로 제안된 스네이크 알고리즘을 들 수 있다. 이 알고리즘은 관심 객체의 주위에 스네이크 포인트를 설정하고 이 포인트들을 관심 객체의 윤곽선에 수렴시켜서 관심 객체를 추출 시키는 것으로 여기서 스네이크 포인트는 \( v_{i}=\left(x_{i}, y_{i}\right) \) \( \mathrm{i}=0 \cdots N\)\((N= \) 스네이크 포인트의 총 수)이고 다음과 같이 표현된다.</p><p>\( E_{\text {snake }}=\sum_{i=0}^{N-1}\left(E_{\text {int }}\left(v_{i}\right)+E_{\text {ext }}\left(v_{i}\right)\right) \)<caption>(1)</caption></p><p>\( E_{\text {int }} \)는 내부에너지로 곡률(curvature)과 불연속성(discontinuity)을 함유하고 있으며 \( E_{\text {ext }} \)는 외부에너지로 주로 명암 값으로 이루어진 영상의 기울기 값(gradient)을 포함하고 있다. 이러한 매개 변수 스네이크 모델의 가장 큰 문제점은 객체의 윤곽선 형태가 오목한 곳이 있다면 재대로 추출하지 못하는 것이다. 이런 문제를 해결하기 위한 방법으로 Xu는 'the gradient vector flow(GVF)' 스네이크 알고리즘을 제안하였고 [10]에서 이에 관해 자세히 다루었다. 'geometric active contour(GAC)'에서는 곡선(curve)을 \( C \) 로 나타내며 가중된 길이값 (weighted length) \( L_{g}(C) \) 는 다음과 같이 표현된다.</p><p>\( L_{g}(C)=\int_{0}^{1} g(C(p))\left|C^{\prime}(p)\right| d p \).<caption>(2)</caption></p><p>여기서 \( g \) 는 매개 변수 스네이크 모델과 비슷한 이미지 기울기 값으로 \( g=1 /\left(1+\left|\nabla G_{\sigma}{ }^{*} I\right|^{2}\right) \) 계산되며 영상의 힘(image force)이라 할 수 있다. GAC 스네이크는 영상의 총 가중된 길이의 최소값을 얻는 방식으로 이루어지며 다음과 같이 표현한다.</p><p>\( \frac{\partial C}{\partial t}=g k N-\langle\nabla g, N\rangle N \)<caption>(3)</caption></p><p>식 (3)에서 \(\mathrm{k}\)는 곡률의 세기이고 \( N \) 은 법선 벡터(normal vector), \(\langle\), \(\rangle\) 는 안쪽의 산출 결과를 뜻한다. (3)에서 오른쪽의 두 번째 항은 GAC의 외부에너지를 나타낸다.</p><p>GAC는 다차원 방정식의 'zero level set'에 결합되어 주로 사용된다. 이로 인해 GAC는 객체의 윤곽선 형태가 오목한 곳을 보다 쉽게 해결할 수 있게 되고 또한 자유롭게 위상(topology)을 변화시킬 수 있다.</p><p>이러한 스네이크 모델들은 외부에너지에 사용될 관심 객체 영상이 큰 영향을 미친다. 관심 객체 영상에 객체 이외의 잡음이 많을수록 추출에 실패 할 확률도 커진다. 이것을 해결하는 방법으로 영상의 에지를 이용하여 관심 객체를 추출하는 방법을 제안한다.</p>
|
최적의 윤곽 정렬을 달성하기 위해 에너지 함수를 최소화하는 목적으로 내부 및 외부 에너지 용어로 구성된 에너지 함수를 활용합니다. 스네이크 에너지 함수는 객체의 윤곽이 수렴될 때까지 스네이크의 위치를 반복적으로 업데이트하여 관심 객체를 추출하기 위해 반복적으로 실행됩니다. 파라메트릭 스네이크 모델의 주요 제한 사항은 개체의 윤곽선에서 오목한 모양을 정확하게 추출할 수 없기 때문에 이러한 경우 추출이 잘못된다는 것입니다. GAC 알고리즘은 주로 다차원 방정식의 제로 레벨 세트와 함께 사용됩니다. Geodesic Active Contour 알고리즘과 함께 다차원 방정식의 "제로 레벨 세트"를 활용하면 오목한 윤곽선 모양을 더 쉽게 처리할 수 있고 객체의 토폴로지를 변경할 때 더 큰 유연성을 얻을 수 있습니다.
|
<h1>3. 새로운 객체 추출 방법</h1><p>본 논문에서 제안하는 스테레오 영상에서의 객체 추출 방법은 한마디로 말하면 관심 객체의 에지 정보만으로 만들어낸 에지 지도와 스테레오 정합 기술을 이용하여 변위 정보를 만들어 내는 것이다. 이렇게 해서 생성되는 새로운 에지 지도를 이용하여 스네이크 알고리즘에서 외부에너지를 만들게 된다. 여기서 핵심은 관심 영역 안에서 관심 객체의 에지 패턴을 파악하여 주위 배경 에지를 분류하는 것이며 다음의 과정을 거치게 된다.</p><p>1 단계: 'Canny 에지 함수'와 다중 임계 값을 이용한 스테레오 영상의 다중 레벨 에지 지도 획득 2단계: 상관 함수를 이용한 두 개의 다중 레벨 이지 지도에서의 관심 객체 변위 \( D_{O O I} \) 산출 3단계: 관심 객체 변위를 이용하여 관심 영역에서 LEDM 영상 추출</p><p>단계를 통과하여 얻어진 LEDM 영상은 관심 영역 안에서 관심 객체를 제외한 배경 에지와 잡음 에지를 효과적으로 제거되며 영역 기반의 [9]에서는 추출하기 힘든 가늘고 긴 객체도 효과적으로 추출이 가능하다.</p><h2>3.1 다중 레벨 에지 지도</h2><p>첫 번째 단계는 왼쪽, 오른쪽의 두 영상을 이용하여 각각의 다중-레벨 에지 지도를 얻어내는 것이다. 에지의 세기를 검사하여 네 단계로 나누고 \( Q=\{q \mid q \in 1, \ldots, 4\} \) 로 나타내며 \(\{매우 약, 약, 중, 강\}\)으로 표현하다. 이렇게 네 단계로 나누는 것이 에지 기반 스테레오 정합을 할 때 핵심으로 작용하며 3.3절에서 좀 더 자세히 설명한다.</p><p>에지를 네 단계로 분류하여 에지 지도를 만드는 데에는 영상의 에지를 구할 때 일반적으로 쓰이는 에지 기법들이 사용되며 본 논문에서는 'Canny 에지' 함수를 사용하여 얻는다.</p><p>네 단계의 분류를 위해 임계값(Threshold)의 수를 늘려서 사용하며 늘린 임계 값은 \( \left\{T h_{q}\right\} \)로 표현한다. \( T h_{1} \)은 0으로 하며 0은 에지가 아니라는 것을 의미한다. 본 논문의 중점은 영상의 에지 세기를 네 단계 분류하는 것으로 에지 영상내의 값을 파악하여 수동으로 설정을 하였다.</p><p>최종적으로 얻어지는 에지 지도를 \( L(x, y) \)라 하고 네 단계로 분류된 에지 지도는 \( L_{q}(x, y) \)로 나타내며 네 개의 임계값을 이용한 최종 에지 지도는 다음과 같이 표현한다.</p><p>\( L(x, y)=\sum_{q=1}^{4} L_{q}(x, y) \)<caption>(4)</caption></p><p>이렇게 에지를 분류하게 되면 정합 기법에서 비슷한 에지 세기를 가진 곳만 선택하여 정합을 수행하게 된다. 이러한 설계로 정합이 불필요한 영역으로 인하여 수행되는 쓸모 없는 연산을 줄여 정합 알고리즘의 속도와 질을 향상시키게 된다. (그림 1)은 한 쌍의 스테레오 영상의 관심 영역을 다중 레벨 에지 지도로 만든 것이다.</p>
|
관심 객체의 에지 정보만으로 만들어낸 에지 지도와 스테레오 정합 기술을 이용하여 변위 정보를 만들어 스테레오 영상에서 객체를 추출할 수 있는데, 여기서 관심 객체의 에지 패턴을 파악하여 주위 배경 에지를 분류하는 것이 핵심적인 기술이다. 이렇게 얻어진 LEDM 영상은 배경 에지와 잡음 에지가 효과적으로 제거되며 긴 객체에서도 효과적으로 적용이 가능하다.
|
<p>둘째, 멜로디 라인의 변곡점을 선별하여 사용한다. 이는 SOC-IM 알고리즘의 가장 큰 특징이다. SOC-IM 알고리즘은 멜로디 라인에서 변곡점 시퀀스를 찾아내어 사용하기 때문에 곡의 조성, 빠르기 등 다양한 변화에도 곡의 특징을 이해할 수 있어 검색 성능이 보장된다. 또한 곡에 대한 정보를 일정한 간격으로 저장하는 것이 아니라, 변곡점을 사용하여 같은 음이 길게 이어지는 부분이나 변화의 정도가 일정한 부분은 생략하고, 그 시작이나 끝부분만 메모리에 저장하므로, 저장공간을 최소화한다.</p> <p>멜로디 라인과 이로부터 생성된 변곡점 시퀀스의 관계는 다음과 같다. Fig. 2는 Fig. 1의 악보 데이터를 시각화한 것으로 가로축은 타임 스탬프, 세로축은 멜로디의 미디 노트 넘버를 나타내며, 동그라미로 표시한 부분들은 변곡점들이다. 이는 실제 데이터 입력과는 다르며, 본 논문에서 변곡점이 뜻하는 바와 SOC-IM 알고리즘의 목적을 설명하기 위하여 악보에서 음정이 변하는 부분의 데이터만 표기하고 선으로 이어 이해하기 쉽도록 표현한 것이다. SOC-IM 알고리즘은 변곡점 시퀀스를 추출하여 사용한다. 이와 같이 변곡점을 활용하면 각 변곡점의 앞뒤 기울기와 해당 변곡점과 앞 또는 뒤에 있는 변곡점과의 거리 관계를 고려할 수 있어서 메모리에 저장하지 않고 생략된 정보들까지도 유추할 수 있다. 이는 저장공간을 최소화하면서도 시퀀스의 특징을 놓치지 않는 방법이다.</p> <p>변곡점 시퀀스를 사용하면 곡의 속도 변화에 유연하게 대처할 수 있다. 그 이유는 변곡점 시퀀스는 멜로디의 상대적 변화에 초점을 맞춰 노래 정보를 표현하기 때문이다. 예를 들어 한 곡과 그 곡을 0.5 배속한 곡이 있을 때, 만약 둘을 타임 스탬프별로 프레임을 나누어 표현한다면 두 곡의 유사도는 낮을 것이다. 그러나 두 노래의 변곡점 시퀀스는 거의 일치하므로 두 곡의 유사도는 높게 나온다.</p> <p>셋째, 원곡은 대표성을 갖는 구절만 사용한다. 원곡을 커버하는 과정에서는 전체적인 조성이나 속도뿐 아니라 아예 곡의 구성 자체가 바뀌는 경우가 있다. 이 경우 원곡과 커버곡의 유사도를 측정하면 당연히 낮게 나 올 수밖에 없다. 이런점을 개선하기 위해 본 알고리즘에서는 원곡은 그 곡을 대표할 수 있는 구절만 사용한다. 사람들이 도입부나 후렴부 한두마디 정보만 듣고도 어떤 곡인지 알아차리는 것은 그 구절이 해당 곡의 대표성을 갖는 구절이기 때문이다. 이에 본 연구에서는 곡을 커버할 때는 대표적인 구절은 반드시 들어갈 것이라고 가정하여 계산의 편의와 정확도 향상을 위해 원곡은 대표성을 갖는 구절만 사용하고, 커버곡에 해당 구절이 포함되어 있는지 여부를 판별하는 것으로 알고리즘을 진행한다. 대표성을 갖는 구절을 얻는 방식은 다음 절에서 자세히 기술하였다.</p>
|
SOC-IM 알고리즘은 멜로디의 변곡점 시퀀스를 분석하여 곡의 조성, 속도 등의 다양한 요소에 따른 변화에도 알고리즘이 곡의 특징을 이해하고 검색 성능을 보장할 수 있음을 보여준다. 또한, 원곡에서는 대표성을 가진 구절만 사용되었다.
|
<p>SOC-IM-naive 알고리즘은 유사도 계산에서도 주어진 두 변곡점의 타입이 같은지 다른지 여부만 판별할 뿐, 그 정도는 반영하지 못한다는 한계를 보인다. 따라서 변곡점 타입이 다르면 일률적으로 앞선 값들의 최솟값에 같은 값을 더하여 사용한 SOC-IM-naive 알고리즘과는 달리 SOC-IM에서는 앞선 값들의 최솟값에 타입이 다른 정도를 가중치로 더하는 방법을 사용하여 이와 같은 문제를 해결한다.</p> <p>Fig. 6은 SOC-IM 알고리즘의 편집 비용 계산 알고리즘이다. 변수 \( d \)는 계산하는 편집 비용을 저장하는 행렬이다. 두 변곡점의 타입이 같을 때는 13행과 같이 세부 비율도 수식에 반영해 계산하고, 타입이 다를 때는 15행과 같이 타입이 다른 정도에 따라 가중치를 다르게 부여한다. 예를 들어 전후로 기울기가 양성에서 음성으로 변하는 변곡점과 양성에서 양성으로 변하는 변곡점의 가중치는 1 , 기울기가 양성에서 음성으로 변하는 변곡점과 음성에서 양성으로 변하는 변곡점의 가중치를 2로 두는 식이다. 그리고 원곡 대상이 되는 노래 \( m_ { i } \)의 대표 구절 \( m_ { i R } \)과 커비곡의 길이가 다르기 때문에 19행과 같이 \( m_ { i R } \)을 기준으로 하여 그중에서 가장 작은 값을 편집 비용 계산 알고리즘의 결과값인 편집 비용값으로 정한다.</p> <h1>5. 원곡 검색 알고리즘의 성능평가</h1> <p>제안한 원곡 검색 알고리즘 2개의 성능평가 과정과 분석결과를 설명하기로 한다. 성능평가를 하기 위해 원곡 대상 노래 72곡과 커버곡 23개를 사용하였다. 각 곡은 악보를 사용하여 4분음표를 기준으로 한 박자당 4개의 미디 노트 넘버를 추출하여 사용하였다. 원곡 대상 곡들의 대표 구절은 후렴구나 도입부 중에서 대표성이 더 큰 것으로 선택하였고, 커버곡은 원곡 데이터에 포함된 곡을 리메이크한 곡들로 선정하였다.</p> <p>원곡과 커버곡 데이터는 원곡과 커버곡 사이의 차이가 비교적 큰 것들로 선별함으로써 SOC-IM 알고리즘의 성능을 다방면으로 평가할 수 있도록 하였다. 만약 원곡과 커버곡 사이의 변화가 적은 곡들을 실험데이터로 사용하였다면 두 데이터가 비슷해서 검색 정확도는 더 높게 나왔을 것이다. 그러나 본 연구에서 성능 평가에 사용된 커버곡 데이터들은 조성, 속도, 구성 등 커버곡에서 나타날 수 있는 모든 변화를 포함하도록 구성하였다. 이는 곧 검색이 어려운 여러 상황에서의 검색 성능을 평가한 것이기 때문에 정확도에 대한 신뢰도가 높다고 할 수 있다. 대부분의 곡이 1절과 2절이 반복되기 때문에 연구의 편의를 위해 커버곡은 1절만큼의 길이에 대해서만 데이터를 추출하였다.</p>
|
SOC-IM-naive 알고리즘은 두 변곡점의 타입이 같은지 다른지만 판별하는 한계가 있다. SOC-IM 알고리즘은 타입이 다를 때 최솟값에 각각의 가중치를 부여하여 이를 해결하고, 편집 비용 계산 알고리즘에서는 길이가 다른 원곡과 커버곡의 값 중 최솟값을 편집 비용값으로 사용한다. 이를 통해 제안한 원곡 검색 알고리즘 2개의 성능평가를 위해 72곡의 원곡과 23곡의 커버곡 데이터를 사용하였고, 변화가 비교적 큰 곡들로 선별함으로써 다방면으로 성능을 평가할 수 있도록 하였다.
|
<h1>요 약</h1> <p>동영상 공유 플랫폼의 발전으로 인해 동영상 업로드 분량이 폭발적으로 증가하고 있다. 그러한 동영상에는 다양한 형태의 음악이 포함되는 경우가 많으며, 그중에는 커버곡이 포함된다. 음악의 저작권을 보호하기 위해서는 커버곡의 원곡을 찾아내는 알고리즘이 필요하지만, 커버곡은 원곡의 조성, 속도와 전체적인 구성이 변형된 것이기 때문에 커버곡의 원곡을 찾기는 쉽지 않다. 이와 같이 변형된 커버곡으로부터 원곡을 검색하는 효율적인 알고리즘은 현재까지 알려진 바가 없다. 이에 본 연구에서는 멜로디 라인의 변곡점들을 활용한 커버곡의 원곡 검색 알고리즘을 제안한다. 변곡점은 멜로디 시퀀스에서 특징적인 변화 지점을 나타낸다. 제안하는 알고리즘은 원곡의 대표 구절에 대한 변곡점 시퀀스를 사용하여 원곡과 커버곡을 비교한다. 원곡의 대표 구절의 특징을 사용하기 때문에 커버곡이 전체적인 곡의 구성을 변형하여 만들어진 곡이라고 해도, 알고리즘의 검색 성능이 우수하다. 또한, 제안한 알고리즘은 변곡점 시퀀스의 특징만을 저장하고 사용하므로 메모리 사용량이 매우 적다. 알고리즘의 효율성은 성능평가를 통해 검증하였다.</p> <h1>1. 서 론</h1> <p>최근 동영상 공유 플랫폼의 발전으로 폭발적으로 많은 다양한 종류의 영상들이 업로드되고 있다. 이에 따라 영상의 배경음이나 콘텐츠로 쓰이는 음악의 저작권 보호를 위해 음악 검색 알고리즘의 중요성이 대두되고 있다. 특히, 영상에 쓰이는 음악이 원곡 그대로인 경우에는 해당 곡을 식별하기가 쉽지만, 원곡을 변형하여 사용하는 경우에는 원곡의 검색이 용이하지 않다.</p> <p>원곡을 변형하여 사용하는 대표적인 사례로 커버곡을 들 수있다. 이는 ‘덮다, 씌우다’라는 뜻의 영어 단어 ‘cover’와 노래를 뜻하는 단어인 ‘곡’을 결합한 합성어로, 이미 있는 곡을 자신의 스타일대로 바꿔서 부르는 것을 뜻하며, 이 과정에서 곡의 조성이나 속도, 리듬, 전체 구성 등이 변하게 된다.</p> <p>커버곡 검색 알고리즘에서 해결해야 할 이슈들은 ① 조옮김으로 인한 변화, ② 전체적인 빠르기 변화, ③ 곡 구성의 변화, 그리고 마지막으로 ④ 매 프레임의 특성값을 저장하는 데 필요한 메모리 낭비 문제, 등으로 정리할 수 있다. 기존의 커버곡 검색 알고리즘들은 주로 ①번 문제 해결이 위주였고, ②번 문제를 해결하기 위한 알고리즘도 존재한다. 그러나 ③ , ④번 문제에 대해서는 뚜렷한 성능을 내는 알고리즘은 아직 알려지지 않았다.</p> <p>이에 본 논문에서는 멜로디 라인의 변곡점을 활용한 커버곡의 원곡 검색 알고리즘(Algorithm to Search for the Original song of a Cover song using Inflection points of the Melody line, 이하 SOC-IM)을 제안한다. 이는 멜로디의 절대적인 값이 아닌 상대적인 시퀀스에서 특징적인 부분인 변곡점의 정보를 활용하여 커버곡의 원곡을 검색한다. 또한, 원곡은 대표성을 갖는 구절만 데이터베이스에 저장하고 사용한다. 이로써 앞서 정리한 4가지 문제를 모두 해결할 수 있다.</p>
|
동영상 공유 플랫폼에 업로드 되는 동영상에는 커버곡을 포함한 다양한 형태의 음악이 사용된다. 저작권 보호를 위해 커버곡의 원곡을 찾아야하지만, 이는 쉽지 않다. 하지만, 멜로디 라인의 변곡점을 활용한 커버곡의 원곡 검색 알고리즘을 이용하면 된다. 멜로디 라인의 변곡점을 활용한 커버곡의 원곡 검색 알고리즘은 멜로디의 상대적인 시퀀스에서 특징적인 부분인 변곡점의 정보를 활용하기 때문에 원곡 검색 성능이 우수하며, 변곡점 시퀀스의 특징만을 저장하고 사용하므로 메모리 사용량이 매우 적다.
|
<p>본 논문은 다음과 같이 구성된다. 2장에서는 기존 커버곡 검색 알고리즘에 쓰이는 기술들에 대하여 설명한다. 그리고 3장에서는 SOC-IM 알고리즘의 핵심 아이디어와 전체적인 흐름을 기술한 후, 4장에서 이에 대한 세부적인 내용과 발전 과정에 관하여 기술한다. 제안한 알고리즘에 대한 성능 평가 결과를 5장에 기술하고, 마지막으로 6장에서 결론을 맺는다.</p> <h1>2. 이론적 배경</h1> <p>기존의 커버곡 검색 알고리즘은 음의 높이 변화나 길이 분석을 중심으로 이뤄지고 있다. 대표적으로 은 옥타브 차이가 나는 음악의 성분들을 계산하여 전체 주파수를 하나의 옥타브 안에 넣어 표현한 크로마그램을 이용하였다. 이러한 방법으로는 계이름 정보는 잘 알 수 있지만, 옥타브 정보가 분실되기 때문에 음정 상호간의 상대적인 높낮이 등의 관계성은 고려하지 못한다. 는 음의 높이 변화 방향을 U(up), D(Down), S(same)라는 스트링으로 변환하여 사용하였고, 은 음의 높이 변화 정도를 정보에 포함하여 정확도가 향상된 검색 알고리즘을 제안하였다. 그러나 이러한 알고리즘들은 고정된 프레임을 사용하기 때문에 곡의 빠르기 변화에는 취약하다. 는 빠르기가 변형된 곡을 검색할 수 있는 비트 동기 크로마 기법을 제안하였으나, 이는 곡 전반의 빠르기가 일정할 때에만 유효하고, 비트 추출의 정확도가 전체 검색 성능에 큰 영향을 미친다는 한계점이 있다. 의 Shazam과 같은 음악 검색 알고리즘은 음악 신호를 분석하여 일치하는곡을 찾아내는 소리 지문 기술을 사용한다. 이는 정확도가 높고 속도가 빠르지만 원곡이 그대로 쓰이지 않는 경우 신호적 특징이 달라져 검색이 어렵다는 단점이 있다.</p> <h1>3. 제안 알고리즘 : SOC-IM</h1> <p>본 논문에서 제안하는 알고리즘인 SOC-IM의 핵심 아이디어는 다음과 같이 3가지로 정리할 수 있다. 첫째, 곡의 멜로디 라인을 사용한다. 이는 사람이 커버곡을 듣고 그의 원곡을 단번에 알 수 있는 이유는 원곡이 커버곡으로 바뀌는 과정에서 멜로디 라인, 즉 선율의 특징이 보존된다는 점에 착안해 고안한 방법이다. 선율은 음의 높낮이와 길이의 조화이며, 흔히 악보에서 볼 수 있는 음표의 흐름으로 표현할 수 있다. 본 연구에서 사용하는 멜로디 라인은 Fig. 1과 같은 악보의 멜로디 라인을 Fig. 2와 같은 시퀀스로 데이터화 시킨 것이다. 음정은 음정을 표현하기 위해 붙이는 미디 채널 메시지 번호인 미디 노트 넘버로 변환하고, 해당 음정의 길이는 16분음표마다 타임스탬프 1로 치환하여 4/4박자를 기준으로 한 마디에 16개의 데이터가 생성되도록 하였다.</p>
|
해당 연구에서 제안한 알고리즘인 SOC-IM의 핵심 아이디어는 곡의 멜로디 라인을 이용하였다. 이는 사람이 커버곡을 듣고난 뒤 커버곡의 원곡을 단번에 알 수 있는 이유는 원곡이 커버곡으로 바뀌는 과정에서 멜로디 라인에 해당하는 선율의 특징이 보존된다는 되기 때문이다. 이 방법에서 착안한 것이다.
|
<h1>4.1 SOC-IM-naive 알고리즘</h1> <p>변곡점은 음정과 음정의 기울기가 모두 바뀌는 부분을 뜻한다. 음정이 같은 값으로 유지되거나 기울기에 변화가 없는 부분은 변곡점에서 제외된다. 이렇게 선별된 변곡점들에 대하여 변곡점 정보를 추출한다. 이때 추출하는 변곡점 정보에는 타입과 세부 비율이 있다. 타입은 변곡점에 대하여 전후 기울기 변화 양상을 뜻하며, 기울기의 양수, 음수 여부를 문자열 \(p \)와 \(m \)으로 표현한다. 예를 들어, 변곡점을 기준으로 기울기가 양수에서 음수로 바뀌면 해당 변곡점의 타입은 \(pm \)이다. 세부 비율은 앞/뒤 변곡점과의 거리 비율로, 1 이하의 실수로 표현한다. 세부 비율은 해당 변곡점을 기준으로 앞 변곡점부터 뒤 변곡점까지의 전체 길이를 앞 변곡점부터 해당 변곡점까지의 길이로 나눠 계산한다. 전체 리듬 속에서 해당 음의 리듬을 상대적으로 측정하는 것이다. 이로써 리듬을 절대적인 기준이 아니라 곡에 맞게 상대적으로 반영할 수 있다.</p> <p>그 다음에는 추출한 변곡점 정보 시퀀스를 사용하여 커버곡 \( C \)의 원곡 \( M \)을 검색한다. (원곡 가능성이 있는) 노래들 \( m_ { i } , 1 \leq i \leq n \), 는 이미 데이터베이스에 저장되어 있다. 원곡 \( M \)을 찾기 위해 커버곡 \( C \)와 이들 각 노래 \( m_ { i } \) 사이의 편집 비용을 계산한다. 편집 비용이 가장 작은 노래가 커버곡 \( C \)의 원곡 \( M \)이라고 할 수 있다. 커버곡 \( C \)와 노래 \( m_ { i } \) 사이의 편집 비용을 계산할 때, \( m_ { i } \)의 대표 구절 \( m_ { i R } \)이 커버곡 \( C \)에 포함되어 있는지를 점검한다. 이를 위해 커버곡 \( C \)를 타임 스탬프 하나씩 줄여가는 방식으로 슬라이딩하면서 편집 비용을 계산한다. 이렇게 계산된 모든 값 중에서 가장 작은 값이 \( m_ { i } \)와 \( C \)사이의 편집 비용이다. 두 곡 \( m_ { i } , m_ { j } \)에 대해, \( m_ { i } \)의 대표 구절인 \( m_ { i R } \)이 \( m_ { j } \)의 대표 구절인 \( m_ { j R } \)에 비해 긴 경우에는 \( m_ { i } \)와 \( C \)사이의 편집 비용이 \( m_ { j } \)와 \( C \) 사이의 편집 비용에 비해 상대적으로 크기 때문에, 계산된 편집 비용은 해당 곡의 구절의 길이로 나누어 정규화를 시킨 후 사용한다.</p>
|
선별된 변곡점들로부터 타입과 세부 비율의 변곡점 정보를 추출한다. 이때 타입은 변곡점의 전후 기울기 변화를 의미하며, 양수와 음수는 각각 \(p\)와 \(m\)으로 표현한다. 세부 비율은 변곡점을 기준으로 전체 길이를 해당 변곡점까지의 길이로 나누어 계산하며, 이를 통해 곡에 맞게 상대적으로 리듬을 반영할 수 있다.
|
<p>본 알고리즘의 목적이 커버곡이 주어졌을 때 그의 원곡을 찾는 것이기 때문에 성능을 평가할 때도 커버곡에 대하여 원곡을 얼마나 맞혔느냐로 평가하는 게 더 목적성에 부합하기는 하지만, 보다 세부적인 분석을 위해 정밀도와 재현율, 그리고 둘의 조화 평균을 이용한 F1 score도 살펴본다. 다만 정확도와는 다르게 다른 척도들은 커버곡을 기준으로는 측정이 어렵기 때문에 원곡을 기준으로 측정한다. 해당 커버곡의 원곡을 찾아내고 이를 제대로 맞췄는지를 평가하는 방식의 모델에서 원곡에 대하여 커버곡들이 해당 원곡의 커버곡인지 아닌지를 분류하는 모델로 시점을 바꿔 성능을 평가하는 것이다.</p> <p>Fig. 7은 SOC-IM-naive 알고리즘과 SOC-IM 알고리즘에 대하여 각각 커버곡을 기준으로 한 정확도와 원곡을 기준으로 한 정밀도와 재현율, F1 score를 정리한 것이다. 이때 원곡을 기준으로 정확도를 측정하면 분자 대비 분모가 확연히 크기 때문에 정확도가 모두 높게 나와 알고리즘의 성능을 평가하기에는 적절하지 않다고 판단해 정확도는 커버곡을 기준으로만 측정하였다.</p> <p>모든 척도에 대해 SOC-IM-naive 알고리즘보다 SOC-IM 알고리즘이 전체적으로 높은 값을 가지며, 특히 커버곡을 기준으로 한 정확도와 원곡을 기준으로 한 재현율은 값이 크게 향상되었다. 이를 통해 수정된 변곡점 선정과 유사도 측정 방법이 알고리즘의 성능에 유의미한 발전을 가져왔음을 알 수 있다. SOC-IM 알고리즘에서 원곡을 제대로 찾아내지 못한 커버곡들은 원곡에 비해 커버곡에서 구절 사이나 끝부분에 애드리브가 섞여 있기 때문으로 추측된다. 애드리브로 인해 원곡과 커버곡의 멜로디 라인이 크게 달라져 변곡점 정보에도 영향을 미 친 것이다.</p> <h1>6. 결론 및 향후 연구</h1> <p>본 논문에서는 곡의 멜로디 라인에서 변곡점을 선별하고, 선별된 변곡점들의 정보를 추출해 음악의 유사도를 계산하여 효율적으로 커버곡의 원곡을 검색하는 SOC-IM 알고리즘을 제안하였다. SOC-IM 알고리즘은 곡의 멜로디 라인에서 특징적인 부분인 변곡점을 활용하기 때문에 적은 메모리로도 원곡을 커버하는 과정에서 생기는 전체적인 빠르기 변화, 조옮김으로 인한 멜로디의 높낮이 변화, 곡의 구성의 변화를 감지하여 높은 검색 성능을 보인다. 또한, 원곡 데이터는 대표 구절만을 사용하기 때문에 곡의 구성이 바뀌어도 검색이 용이하다. 마지막으로, 곡 전체에 대해 고정된 프레임을 사용하는 기존 방식들과 다르게 대표 구절에 대한 변곡점 정보, 즉 가변적인 프레임을 사용하기 때문에 한 곡 안에서 빠르기가 달라지는 경우에도 검색 성능을 유지할 수 있다.</p> <p>SOC-IM 알고리즘은 성능 평가 결과 정확도 \(91.3 \% \)의 높은 성능을 보였으나, 애드리브 등으로 인한 변주에는 성능이 다소 감소하는 경향을 보이기 때문에 이를 개선하기 위한 향후 연구가 필요하다. 애드리브는 보통 한 음을 길게 끌고 가면서 거기서 변주를 주는 것이기 때문에 음성 인식을 통해 한 음절에는 한 음정만 추출하는 등의 방법을 사용하면 본 문제를 개선할 수 있을 것으로 보인다. 또한, 변곡점 전후의 기울기 변화를 증가와 감소만이 아니라 수치적으로 표현해 가중치를 두어 계산한다면 더욱 정확한 성능을 가질 수 있을 것으로 보여 이와 관련한 향후 연구가 필요하다.</p> <p>멜로디 라인의 변곡점을 활용하는 본 연구의 주요 아이디어는 커버곡의 원곡 검색뿐만 아니라 허밍으로 노래 검색, 예능을 포함한 방송 콘텐츠에서의 음악 저작권 보호, 음악 표절감지 등 다양한 문제 해결에 활용도가 높다고 판단된다. 또한, 음악 도메인이 아니더라도 범위를 넓혀 시퀀스 유사도 측정이 필요한 여러 분야에서도 활용이 가능할 것으로 본다.</p>
|
원곡 탐색 알고리즘의 성능 평가에 있어서 정밀도, 재현율, F1 점수 등이 함께 살펴보았다. SOC-IM 알고리즘이 SOC-IM-naive 알고리즘에 비해 전반적으로 높은 성능을 보였으며, 특히 커버곡과 원곡 기반의 정확도 및 재현율에서 유의미한 향상을 보였다. 이는 변곡점 선정과 유사도 측정 방법의 수정이 알고리즘 성능 개선에 크게 기여한 결과로 해석된다.
|
<p>SOC-IM 알고리즘은 다음 사항들을 가정한다. 첫째, 원곡의 대표 구절의 변곡점 정보는 미리 계산되어 있다고 본다. 저작권 보호를 받기 위해 원곡 저작권자가 사전에 등록한다고 가정한다. 반복되는 구절이나 머신러닝 등을 이용하여 음원의 후렴구를 추출하는 것에 관한 연구가 활발히 진행 중이므로, 해당 알고리즘이 발전한다면 원곡의 대표 구절을 자동으로 추출할 수도 있고, 원곡의 대표 구절에서 변곡점 정보를 추출하는 것은 본 연구의 변곡점 추출 과정을 따라 진행하면 된다. 둘째, 제공되는 커버곡 데이터는 커버곡의 멜로디를 미디 노트 넘버로 변환한 정보이다. 여기서 미디 노트 넘버란 비선형 그래프를 이루는 음정 당 주파수를 일정한 수식에 따라 선형으로 변환한 것이다. 현재 MELODIA 등 곡의 멜로디 주파수 추출에 관한 연구 또한 활발히 진행 중이고, 이러한 알고리즘으로 커버곡 음정의 미디 노트 넘버로의 변환도 충분히 대체될 수 있다고 본다. 이러한 입력값에 대해 SOC-IM 알고리즘은 변곡점들을 찾아내고, 변곡점의 특징값으로 각 노래와의 유사도를 계산해서 주어진 커버곡의 원곡번호를 반환한다. 알고리즘은 크게 변곡점 정보 추출과 커버곡의 원곡 검색으로 구성되며, 전체적인 흐름은 Fig. 3과 같다.</p> <p>SOC-IM 알고리즘은 4단계로 구성된다. [단계 1]에서는 입력된 데이터에 대하여 데이터의 변화 양상이 바뀌는 변곡점 부분을 찾아낸다. [단계 2]에서는 변곡점에 대하여 전후 기울기 변화 양상(이하 타입)과 앞/뒤 변곡점과의 거리 비율(이하 세부 비율)을 이용해 변곡점 정보를 추출한다. [단계 3]에서 주어진 커버곡의 변곡점 정보를 기존에 가지고 있는 노래들의 변곡점 정보와 각각 비교하여 두 변곡점 시퀀스 간의 유사도를 계산한다. 이때 유사도가 높다는 것은 편집 비용 값이 작다는 것을 의미한다. 여기서 편집 비용이란, SOC-IM 알고리즘에서 시퀀스의 유사도를 측정하기 위해 사용하는 값으로 편집 거리 알고리즘을 변형한 편집 비용 알고리즘으로 계산한다. 편집 비용 알고리즘은 값을 계산할 때 데이터의 전체적인 흐름을 먼저 반영하고 리듬감도 반영하는 방식으로 가중치를 둔다. 편집 비용 계산 알고리즘은 SOC-IM 알고리즘을 4장에서 구체적으로 설명할 때 함께 설명하기로 한다. 마지막으로 원곡의 대표 구절의 길이에 따라 편집 비용이 달라지기 때문에 이를 대표 구절의 길이로 나눠 값을 정규화시키는 [단계 4]를 거친 후, 가장 낮은 값을 갖는 곡의 번호를 반환하며, 이는 커버곡의 원곡의 번호이다.</p> <h1>4. 원곡 검색 알고리즘</h1> <p>여기에서는 본 연구에서 제안하는 원곡 검색 알고리즘 2개를 소개한다. SOC-IM-naive 알고리즘은 변곡점 선별 기준, 변곡점 정보 추출, 유사도 계산 방식에서 상식적인 아이디어를 사용한다. SOC-IM 알고리즘은 SOC-IM-naive 알고리즘에 비해 변곡점 선별 과정과 유사도 계산 측면에서 개선된 방법을 사용한다.</p>
|
SOC-IM 알고리즘은 미디 노트 넘버로 변환한 커버곡 데이터를 기반으로, 변곡점 정보를 추출하고 그 정보를 기반으로 주어진 커버곡의 원곡번호를 반환하는 4단계로 구성된 알고리즘이다. SOC-IM-naive 알고리즘과 SOC-IM 알고리즘은 변곡점 선별 기준, 변곡점 정보 추출, 유사도 계산 방식에서 상식적인 아이디어를 사용하는 것과 개선된 방법을 사용하는 것으로 구분된다.
|
<p>여기에서 사용되는 편집 비용 계산 알고리즘은 두 시퀀스 사이의 유사도를 측정하기 위하여, 기존의 편집 거리 알고리즘을 발전시킨 것이다. 편집 비용 알고리즘의 주요 특징으로 다음 두 가지를 들 수 있다. 첫째, 값을 계산할 때 데이터의 전체적인 흐름인 기울기 변화 양상을 먼저 반영하고, 기울기 변화 양상이 같다면 리듬감도 반영하는 방식으로 가중치를 둔다. 리듬감은 두 변곡점의 타입이 다를 때는 편집 거리 알고리즘의 방법을 그대로 사용하고, 두 변곡점의 타입이 같을 때는 세부 비율도 수식에 더한다. 둘째, 원곡 대상이 되는 곡의 대표 구절의 길이를 기준으로 커버곡과의 편집 비용을 모두 계산한 후 그중에서 가장 작은 값을 결과값으로 취하는 것이다. 이는 편집 비용 알고리즘의 목적이 커버곡에 원곡 대표 구절과 유사한 구절이 있는지를 찾고 그 유사도를 측정하는 것이기 때문이다.</p> <h2>4.2 SOC-IM 알고리즘</h2> <p>앞서 소개한 SOC-IM-naive 알고리즘은 변곡점을 선별하는 부분에 있어서 두 가지 한계점을 가진다. 첫째, 같은 값이 여러 프레임에 거쳐 지속되면 그 시작과 끝부분을 모두 변곡점으로 인식하기 때문에 실제 곡을 들을 때 인식되는 변곡점과는 괴리가 생긴다. 둘째, 값이 일정한 정도로 증가하거나 감소할 때, 프레임 1개당 값이 변화하면 원래 의도대로 변곡점에 포함되지 않지만, Fig. 4의 사각형 부분과 같이 같은 값이 2개 이상의 프레임에 지속되면 값이 일정한 정도로 증가하거나 감소하더라도 값이 바뀔 때마다 모두 변곡점에 포함된다.</p> <p>이를 해결하기 위해 SOC-IM 알고리즘은 변곡점 선별을 두 단계에 걸쳐 진행한다. Fig. 5는 SOC-IM의 변곡점 선별 알고리즘이다. 알고리즘에서 data 배열은 입력되는 미디 노트 넘버 데이터이고, bp 배열은 선별된 변곡점을 가리킨다. 1∼11행에서 일차적으로 값이 변하는 시작 부분이면서 전후로 차이가 같지 않은, 즉 기울기 변화가 있는 부분을 변곡점 후보로 둔다. 이 과정에서 Fig. 4의 파란색 X표로 표시된 부분과 같이 값이 시작하는 부분이 아닌 것, 즉 음정이 유지되는 부분이 변곡점 후보에서 3∼4행의 코드를 통해 제외된다. 일차 선별 후 12 ∼20행에서 변곡점 후보들에 대해 이차적으로 해당 변곡점 후보 전후로 기울기가 일정하지 않을 때만 해당 변곡점 후보를 변곡점으로 지정한다. 13, 14행에서는 해당 변곡점과 그 앞/뒤의 변곡점 사이의 기울기를 구한다. 이후 15, 16행에서 해당 변곡점을 기준으로 양쪽의 기울기가 같다면 이는 값이 일정한 정도로 변화하는 것이기 때문에 변곡점에서 제외한다. 이 과정에서 Fig. 4의 빨간색 X표로 표시된 부분이 변곡점에서 제외된다. 이와 같은 과정을 통해 앞서 언급한 변곡점 선별에서의 두 가지 한계를 모두 해결할 수 있다.</p>
|
편집 비용 알고리즘의 주요 특징은 다음과 같다. 첫째, 데이터의 전체적인 흐름을 반영하여 값을 계산할 때 기울기 변화 양상을 우선 고려하며, 기울기 변화 양상이 동일한 경우 리듬을 고려하는 가중치를 부여한다. 둘째, 원곡과 커버곡 사이의 편집 비용을 계산할 때 원곡의 대표 구절의 길이를 기준으로 하여 모든 가능한 조합에 대한 비용을 계산한 후 가장 작은 값을 선택한다. 이를 위해 SOC-IM 알고리즘은 두 단계에 걸쳐 변곡점을 선별하는 과정을 수행한다. 그러나 이전에 소개된 SOC-IM-naive 알고리즘은 변곡점 선별 단계에서 두 가지 제약 사항을 가지고 있다.
|
<h1>요 약</h1> <p>일반적으로 움직임 벡터는 한 카메라에서 촬영된 영상 속에서의 객체의 움직임 정보를 나타내고, 변이 벡터는 서로 다른 카메라에서 촬영된 영상 간 객체의 위치 차이를 나타낸다. 기존의 H.264/AVC에서는 단일 시점 영상을 위한 비디오 부호화 기술이기 때문에 변이 벡터를 고려하지 않는다. 하지만, 다시점 비디오 부호화 기술은 H.264/AVC를 기반으로 하여 시점 간 예측 구조를 지원하기 때문에, 다른 시점에서의 영상을 참조할 때는 움직임 벡터 대신 변이 벡터가 고려된다. 따라서, 본 논문에서는 다시점 비디오 부호화 기술을 위해 전역 변이 벡터 대체 방법과 확장된 주변 블록 예측 방법을 이용하여 개선된 움직임/변이 벡터 예측 방법을 제안한다. 제안하는 방법을 통해서 움직임 벡터 탐색 범위를 \( \pm 16 \)으로 설정하고, 전역 변이 벡터 탐색 범위를 \( \pm 32 \)으로 설정한 경우 평균 \( 1.07 \% \)의 BD-비트율 감소를 얻었으며, 전역 변이 벡터 탐색 범위를 \( \pm 64 \)로 설정한 경우 평균 \( 1.32 \% \)의 BD-비트율 감소를 얻을 수가 있었다.</p> <h1>I. 서 론</h1> <p>다시점 비디오 부호화 (multi-view video coding) 기술은 공간적으로 서로 다른 위치에 배치된 카메라들로부터 동일한 시간에 촬영된 영상들에 대해 사용자가 원하는 시점의 장면을 볼 수 있도록 시스템과 사용자 간의 상호작용을 가능하게 하는 미래의 3 차원 TV, 자유 시점 비디오 (free viewpoint video), 3차원 보안 시스템 등을 지원하기 위한 새로운 형태의 비디오 부호화 표준이다. 일반적으로, 다시점 비디오 영상 (multi-view video sequence)은 기존의 단일시점 비디오 영상 (single-view video sequence)에 비해 처리해야 될 데이터의 양이 촬영 시 사용된 카메라의 수, 영상 크기 등에 비례해 커지게 되고, 단일시점 비디오 영상과는 다른 특성을 가지는 다시점 비디오 영상들에 대한 효율적인 부호화 방법이 요구되어 결국 이러한 다시점 비디오 영상을 처리하기 위해 2개의 국제 비디오 부호화 표준 단체 (MPEG, VCEG)에서 다시점 비디오 영상을 부호화하기 위해 요구되는 사항들을 충족시키기 위한 국제 표준화 작업을 진행하고 있다.</p> <p>다시점 비디오 부호화는 H.264/AVC의 단일시점 비디오 부호화 구조에 시점 간 예측 구조 (inter-view prediction structure)를 포함하여 기본적인 부호화/복호화 구조를 갖추었으며, 기존 H.264/AVC를 이용해 각 시점들을 독립적으로 부호화하는 동시 부호화(simulcast coding) 방법보다 뛰어난 부호화 효율을 얻기 위해, 새로운 형태의 부호화/복호화 방법들을 채택하고 있다.</p>
|
따라서 본 장에서는 다시점 비디오 부호화 기술을 발전시키고자 전역 변이 벡터 대체 기법과 주변 블록 예측 기법을 활용하여 향상된 움직임 벡터와 변이 벡터를 예측하고자 한다. 또한 전역 변이 벡터 대체 방법과 확장된 주변 블록 예측 방법을 사용하여 BD-비트율 감소를 얻는다.
|
<p>하지만, 일반적으로 다시점 비디오 부호화에서 움직임 벡터와 변이 벡터는 해당 벡터를 이용하여 화면 간 혹은 시점 간 예측 (inter/inter-view prediction)이 수행된다는 것은 동일하지만, 움직임 벡터는 한 카메라에서 촬영된 영상 속에서의 객체의 움직임 정보를 나타내고, 변이 벡터는 다른 카메라에서 촬영된 영상 간의 객체의 위치 차이를 나타내기 때문에 기본적으로 서로 간의 특성이 다르다. 따라서 본 논문에서는 이들 간의 서로 다른 특성을 기반으로 새로운 움직임/변이 벡터 예측 방법을 기존의 움직임 벡터 예측 방법에 적용한다.</p> <h1>Ⅲ. 전역 변이 벡터 대체 방법을 이용한 움직임/변이 벡터 예측 방법</h1> <p>현재 JMVM 소프트웨어에 채택된 움직임 생략 모드는 전역 변이 벡터를 사용하여 현재 시점에 인접한 주변 시점들의 매크로블록 모드, 참조 영상 색인, 움직임 벡터 등의 움직임 정보를 복사하여 부호화 효율을 높이는 방법이다. 여기서, 전역 변이 벡터가 실제로 슬라이스 헤더 (slice header)에서 전송되기 때문에, 전역 변이 벡터를 움직임 생략 모드뿐만 아니라 움직임/변이 예측 방법에서도 고려할 수 있다. 이는 현재 부호화하는 영상이 다른 시점의 영상을 참조하고, 부호화하는 블록의 참조 영상 색인이 주변 블록들의 참조 영상 색인들과 같지 않을 경우, 참조 영상 색인이 같지 않은 주변 블록들의 움직임/변이 벡터를 전역 변이 벡터로 대체할 수가 있다.</p> <p>그림 2는 제안하는 전역 변이 벡터를 고려하는 움직임/변이 벡터 예측 방법을 나타낸다. 여기서, ref_idx는 참조 영상 색인을 나타내며, GDV는 전역 변이 벡터를 나타낸다. 제안하는 전역 변이 벡터 대체 방법은 현재 부호화하는 블록이 동일한 참조 영상 리스트지만, 다른 시점의 영상을 참조할 때만 수행된다. 그림 2에서 (a)의 경우를 예로 설명하면 현재 부호화하는 블록 E의 참조 영상 색인이 1이며, 시점간 예측을 수행할 경우, 블록 E의 참조 영상 색인과 동일한 참조 영상 색인을 가지는 주변 블록 B와 C 혹은 D의 변이 벡터와 전역 변이 벡터로 블록 A의 변이 벡터를 이용해 기존의 H.264/AVC에서 사용하는 움직임 벡터 예측 과정에서의 중간값 예측을 통해서 현재 블록 E의 예측된 변이 벡터 (predicted disparity vector)를 계산한다. 그림 2 에서 (b)와 (c)의 경우, (a)의 경우와 유사한 과정을 거쳐서 현재 블록 E의 예측된 변이 벡터를 계산한다. 그림 2의 (d)의 경우에는 주변 모든 블록들의 참조 영상 색인이 현재 부호화하는 블록 E의 참조 영상 색인들과 같지 않기 때문에, 전역 변이 벡터가 현재 블록 E의 예측된 변이 벡터로 결정된다.</p>
|
전역 변이 벡터를 움직임/변이 예측 방법에서도 고려할 수 있는 것은 전역 변이 벡터가 실제로 슬라이스 헤더 (slice header)에서 전송되기 때문이며 그림 2에서는 제안하는 전역 변이 벡터를 고려한 움직임/변이 벡터 예측 방법을 나타내고 있다.
|
<p>\(G D V(x, y) = \underset { (x, y) \in S R } {\arg \min } \left \{\frac { 1 } {\left (E_ { X } -S_ { X } \right ) \left (E_ { Y } -S_ { Y } \right ) } \sum_ { i=S_ { X } } ^ { E_ { X } -1 } \sum_ { j=S_ { Y } } ^ { E_ { Y } -1 } |C(i, j)-R(i + x, j + y)| \right \} \). where \( S_ { X } \) is equal to 0 if \( x>0 \), otherwise \( S_ { X } \) is equal to \( -x \), \( S_ { Y } \) is equal to 0 if \( y>0 \), otherwise \( S_ { Y } \) is equal to \( -y \), \( E_ { X } \) is equal to \( F W-x \) if \( x>0 \), otherwise \( E_ { X } \) is equal to \( F W \), \( E_ { Y } \) is equal to \( F H-y \) if \( y>0 \), otherwise \( E_ { Y } \) is equal to \( F H \).<caption>(1)</caption></p> <p>\( G D V_ {\text { cur } } =G D V_ {\text { ahead } } + \left [ \frac { P O C_ { c u r } -P O C_ {\text { ahead } } } { P O C_ {\text { behind } } -P O C_ {\text { ahead } } } \times \left (G D V_ {\text { behind } } -G D V_ {\text { ahead } } \right ) \right ]. \)<caption>(2)</caption></p> <p>제안하는 움직임/변이 벡터 예측 방법에서 사용되는 전역 변이 벡터는 움직임 생략 모드를 위해 제안된 전역 변이 벡터 계산식을 변경하여 아래 식 (1)과 같이, 매크로블록 단위 \( (16 \times 16) \)로 계산되지 않고 픽셀 단위로 현재 부호화하는 시점의 영상과 현재 영상에 참조되는 인접한 다른 시점의 영상들과의 영상 단위로 MAD (mean absolute difference)가 최소가 되는 변이 벡터를 전역 변이 벡터로 사용한다.</p>
|
최소가 되는 변이 벡터를 전역 변이 벡터로 사용하고 다양한 방법 중 움직임/변이 벡터 예측 방법을 제안한다. 사용된 전역 변이 벡터는 픽셀 단위로 움직임 생략 모드가 최소가 되도록 변이 벡터를 전역 변이 벡터를 사용해 계산식을 변경한다.
|
<p>예외적으로 그림 4의 (d)의 경우, 현재 부호화하는 블록 E의 참조 영상 색인과 주변 모든 블록들의 참조 영상색인이 같지 않을 경우, 그림 4의 (a), (b), (c)에서 고려되는 각각 해당 블록들의 주변 모든 블록들을 움직임/변이 벡터 예측 방법에 사용한다. 그림 4의 (d)의 경우에서, 블록 A, B, C 혹은 D 중 어느 한 블록의 주변 모든 블록이 현재 부호화하는 블록 E의 참조 영상 색인과 같지 않을 경우, (0,0) 벡터를 해당 블록 A, B, C 혹은 D의 움직임 벡터로 대체한다.</p> <p>그림 4의 (a), (b), (c)에서 사용되는 제안하는 확장된 주변 블록 예측 방법은 일반화되어 표 2와 같이 상세히 정리될 수 있다. 그림 4의 (d)의 경우, 블록 A, B, C 혹은 D에 대해 각각 확장된 주변 블록 예측 방법을 수행 후, 블록 A, B, C 혹은 D에 중간값 예측을 수행하여 예측된 움직임 벡터를 계산한다.</p> <h1>Ⅴ. 실험 결과</h1> <p>표 3은 Race1과 Exit 영상들에 대해서 본 논문에서 제안하는 전역 변이 벡터 대체 방법, 확장된 주변 블록 예측 방법이 선택된 비율을 나타낸다. 실험 조건은 다시점 비디오 부호화의 표준화를 위한 실험 조건을 기반으로 모든 시점에서의 모든 프레임 (frame)에 대한 평균 PSNR (peak signal-to-noise ratio)을 나타냈으며, 다시점 비디오 표준화를 위한 실험 영상들을 사용했으며, 양자화 매개변수 (quantization parameter)로 22, 27, 32,37 와 계층적 B 부호화를 위한 양자화 매개변수들을 B-프레임에 사용했다. 실험한 시점의 숫자는 기본 시점을 포함하여 총 3 개이고, 움직임 벡터 탐색 범위는 \( \pm 16 \), 전역 변이 벡터 탐색 범위는 \( \pm 64 \)로 설정하였다. 실험 결과 본 논문에서 제안하는 2가지의 방법에 대해 선택된 비율은 \( 15 \% \sim 20 \% \) 정도이며, 이는 3개의 시점 중에 제안하는 방법들이 사용되지 않은 기본 시점이 포함되어 상대적으로 제안하는 방법들이 선택된 비율이 낮게 나타난다.</p> <p>제안하는 전역 변이 벡터 대체 방법과 확장된 주변 블록 예측 방법을 JMVM 4.0 소프트웨어에 구현하여 [16]의 실험 조건을 기반으로 실험을 진행하였다. 총 8시점에 대해서 움직임 벡터 탐색 범위는 \( \pm 16 \)을 사용하였고, 전역 변이 벡터 탐색 범위는 각각 \( \pm 32 \), \( \pm 64 \) 로 설정하였다. 기존의 H.264/AVC 기본 움직임 벡터 예측 방법과의 실험 결과를 표 4에 나타내었으며, 전역 변이 벡터 탐색 범위가 \( \pm 32 \) 일 경우에는 6개 영상 평균 \( 1.07 \% \)의 BD-비트율 감소, 전역 변이 벡터 탐색 범위가 \( \pm 64 \)일 경우에는 6개 영상 평균 \( 1.32 \% \)의 BD-비트율 감소를 얻을 수 있었다. 그림 5는 Exit 영상과 Flamenco2 영상에 대해 제안하는 방법이 적용되지 않는 기본 시점을 제외한 실험 결과의 율-왜곡 곡선을 나타내며, 전역 변이 벡터 탐색 범위가 \( \pm 32 \)인 경우에는 6개 영상 평균 \( 1.26 \% \)의 BD-비트율 감소, 전역 변이 벡터 탐색 범위가 \( \pm 64 \) 일 경우에는 6개 영상 평균 \( 1.57 \% \)의 BD-비트율 감소를 얻을 수 있었다.</p>
|
실험 결과 본 논문에서 제시하는 2가지의 방법에 대해 채택된 비율은 15 \% \sim 20 \%15%∼20% 정도이다. 이것은 3개의 시점 중에 제시하는 방법들이 사용되지 않은 기본 시점이 포함되어 상대적으로 제시하는 방법들이 선택된 비율이 낮게 드러난다. 제안하는 전역 변이 벡터 대체 방법과 확장된 주변 블록 예측 방법을 JMVM 4.0 소프트웨어에 구체적인 모습으로 뚜렷이 나타나게 하여 [16]의 실험 조건을 기준으로 실험을 진행하였다.
|
<p>하지만, 앞서 언급된 시점 간 예측 구조가 기존의 H.261, H.263, MPEG-1, MPEG-2, MPEG-4, H.264/AVC와 같은 단일시점 비디오 부호화에서는 고려가 되지 않았기 때문에, 기존 단일시점 비디오 부호화에 기반을 둔 다시점 비디오 부호화에 새로운 예측 구조를 적용하는데 여러 문제점이 발생하게 되었다. 공간적으로 다른 위치에서 촬영된 영상들 사이에 발생하는 조명 변화 (illumination change), 동일한 시간에 촬영되었지만 서로 다른 시점에 속한 영상들에 대한 영상출력 순서 (picture order count), 시점 간 예측 구조가 포함된 참조 영상 리스트 (reference picture list) 관리 방법, 영상 출력 순서에 기반을 둔 시간적 다이렉트 모드 (temporal direct mode)와 가중 예측 (weighted prediction)이 시점 간 예측 구조에서 시점 간에서 사용될 때 발생하는 문제, 그리고, 기존의 움직임 벡터 (motion vector)와는 다른 특성을 지니는 변이 벡터 (disparity vector)에 대한 처리 방법 등이 다시점 비디오 부호화의 표준을 진행하면서 발생한 문제점들이다. 이러한 문제점들과 더불어 새롭게 나타난 개념들에 대한 정의도 추가되었는데, 기준 영상 (anchor picture), 기본 시점 (base view), V-IDR (view-instantaneous decoding refresh) 등이 이에 포함된다.</p> <p>이러한 문제점들이나 개념들 중 몇몇들은 표준화 과정 중 해결되거나 정의되었지만, 움직임 벡터와 변이 벡터를 구분하여 부호화 효율을 높이는 방법에 대해서는 효율적인 방법을 통해 해결하지 못 하고, 기존의 H.264/AVC에서 사용되는 움직임 벡터 예측 방법을 수정하지 않고 사용하고 있다. 다시점 비디오 부호화에서의 움직임/변이 벡터 예측을 위해 제안된 에서는 현재 부호화하는 블록이 시점간 참조 영상 색인 (inter-view reference picture index)을 가지지만, 주변의 모든 블록들은 시간적 참조 영상 색인 (temporal reference picture index)만 가질 경우, 현재 부호화하는 블록의 시간적 참조 영상들에서 동일 블록 위치에 있는 블록의 변이 벡터들을 움직임/변이 벡터 예측을 위해 사용하였다. [9]의 방법은 현재 부호화하는 블록과 주변 모든 블록들의 참조 영상 종류가 다른 제한된 조건에만 수행되었다. [10~13]에서는 영상의 변이 벡터들을 영역별로 구분해서, 현재 부호화하는 블록이 어느 한 영역에 포함될 경우 그 영역의 변이 벡터를 움직임/변이 벡터 예측 방법에 사용했다. 이 경우 영역 별로 변이 벡터를 구하고, 현재 부호화하는 블록이 어느 영역에 포함될지를 결정해야 되기 때문에 움직임/변이 벡터 예측 과정 외에 추가적인 계산 복잡도가 필요하다. [14~15]에서는 H.264/AVC에서의 움직임 벡터 예측이 다시점 비디오 부호화에서도 잘 적용될 수 있도록 참조 영상을 전역 변이 벡터 (global disparity vector)만큼 위치 이동하는 방법을 사용했다. 이 경우, 복호화기 (decoder)에서 위치 이동된 참조 영상의 저장에 필요한 추가적인 메모리를 필요로 하게 된다. 또한, 현재 JMVM (joint multi-view video model) 소프트웨어에 채택되어 있는 움직임 생략 모드 (motion skip mode) 는 전역 변이 벡터를 이용해 현재 부호화하는 시점 블록과 인접한 시점에서 대응되는 블록의 움직임 정보를 복사하여 부호화 효율을 높였다. 본 논문에서는 다시점 비디오 부호화에서 중요한 정보가 되는 전역 변이 벡터와 비슷한 속성을 지닌 벡터로부터 예측하도록 예측 범위를 넓힌 확장된 주변 블록 예측 방법을 변이 벡터를 고려하지 않는 H.264/AVC의 움직임 벡터 예측 방법에 적용하여, 다시점 비디오 부호화 기술을 위한 새로운 움직임/변이 벡터 예측 방법을 제안한다.</p>
|
다시점 비디오 부호화에 새로운 예측 구조를 적용하는데 여러 문제점이 발생했으나 현재 JMVM 소프트웨어에 채택된 움직임 생략 모드는 전역 변이 벡터를 이용해 부호화하는 시점 블록과 인접한 시점에서 대응되는 블록의 움직임 정보를 복사하여 부호화 효율을 높였다. 본 논문에서는 확장된 주변 블록 예측 방법을 H.264/AVC의 움직임 벡터 예측 방법에 적용하는 방식을 사용하여 움직임/변이 벡터 예측에 대한 새로운 방법을 제안한다.
|
<p>그리고 다시점 비디오 영상 촬영 시 사용된 카메라들 간의 배치 간격이 커진다면, 다시점 비디오 영상들을 다시점 비디오 부호화를 이용해 부호화할 때 시점간 예측에 사용되는 변이 벡터의 크기 또한 커지게 된다. 이러한 경우, 한 영상 내에서 움직임 벡터와 시점 간에서 변이 벡터의 특성은 더욱 달라지며, 본 논문에서 제안하는 방법들을 통해서 움직임 벡터와 변이 벡터가 부호화될 때 발생하는 비트수를 효율적으로 감소할 수 있다. 표 5는 Racel 영상에서 제안하는 방법과 H.264/AVC 기반의 움직임 벡터 예측 방법의 시점 간격에 따른 비교 실험 결과를 나타낸다. 이 실험에서 총 3개의 시점들을 사용했으며, \( 20 \mathrm { cm } \) 간격으로 배치된 8개의 시점을 가지는 Race1 영상을 기본 시점인 0번 시점을 기준으로 각각 \( 20 \mathrm { cm } \)(0, 1, 2번 시점), \( 40 \mathrm { cm } \)(0, 2, 4번 시점), \( 60 \mathrm { cm } \) (0, 3, 6번 시점) 간격으로 첫 번째 GOP (group of picture)에 포함되는 16장의 프레임만 부호화 했다. 또한, 표 4의 실험 조건을 기반으로 하고, 움직임 벡터 탐색 범위는 \( \pm 16 \), 제안하는 방법에서의 전역 변이 벡터 탐색 범위는 \( \pm 64 \) 로 설정하였다. 표 5 에서 나타난 바와 같이 시점 간격이 커질 경우에 제안하는 방법을 통해 더 큰 부호화 효율을 얻을 수가 있었으며, \( 60 \mathrm { cm } \) 간격일 경우 \( 5.88 \% \)의 BD-비트율 감소를 얻을 수가 있었다. 이를 통해 본 논문에서 제안하는 방법이 현재 공간적으로 좁은 간격으로 배치된 카메라들로부터 촬영된 다시점 비디오 영상들에 대해서는 아주 좋은 성능을 보이지는 못 하지만, 배치 간격이 어느 정도 큰 카메라들로부터 촬영된 영상들에 대해서는 좋은 성능을 보일 수 있을 것으로 기대된다.</p> <h1>Ⅵ. 결 론</h1> <p>본 논문에서는 변이 벡터를 고려하지 않는 H.264/AVC에서의 움직임 벡터 예측 방법이 사용되고 있는 다시점 비디오 부호화 기술을 위해 개선된 움직임/변이 벡터 예측 방법을 제안했다. 일반적으로 움직임 벡터는 한 카메라에서 촬영된 영상 속에서의 객체의 움직임 정보를 나타내고, 변이 벡터는 서로 다른 카메라에서 촬영된 영상 간 객체의 위치 차이를 나타내기 때문에, 이들 간의 서로 다른 특성을 바탕으로 본 논문에서는 현재 부호화하는 영상이 다른 시점의 영상을 참조하고, 부호화하는 블록의 참조 영상 색인이 주변 블록들의 참조 영상 색인들과 같지 않을 경우, 참조 영상 색인이 같지 않은 주변 블록들의 움직임/변이 벡터를 전역 변이 벡터로 대체하며, 기존의 움직임 벡터 예측 방법에서 사용되는 예비 예측 블록뿐만 아니라, 이들 예비 예측 블록의 주변 블록까지 예비 블록으로 포함하여 움직임 벡터를 예측하는 개선된 움직임/변이 벡터 예측 방법을 제안했다. 제안하는 방법을 통해서 움직임 벡터 탐색 범위를 \( \pm 16 \)으로 감소시키고, 전역 변이 벡터 탐색 범위를 \( \pm 32 \)로 설정한 경우 평균 \( 1.07 \% \)의 BD-비트율 감소를 얻었으며, 전역 변이 벡터 탐색 범위를 \( \pm 64 \)로 설정한 경우 평균 \( 1.32 \% \)의 BD-비트율 감소를 얻을 수가 있었다.</p>
|
본 연구에서는 H.264/AVC 비디오 부호화에서 사용되는 움직임 벡터 예측 방법을 개선하였다. 특히, 움직임 벡터 탐색 범위를 \( \pm 16 \)으로, 전역 변이 벡터 탐색 범위를 \( \pm 32 \)로 제한하여 평균 \( 1.07 \% \)의 BD-비트율 감소를 확인하였다. 그러나 이 방법은 공간적으로 넓게 배치된 카메라들에서 촬영된 다시점 비디오에 대해 유리한 성능을 보이는 반면, 좁게 배치된 카메라들에서 촬영된 경우에는 제한된 성능을 보였다.
|
<h1>3. 모델 기반 손 위치 보정 및 손 끝 위치 추정</h1> <p>이 장에서는 2장에서 추성한 손의 3차원 중심점과 육각형 손 모델을 이용하여 영상에서 얻어진 손의 중심점을 보정하고 그에 따른 손 끝의 3차원 위치를 추정한다. (그림 5)는 모델 기반 손 위치 보정 및 손 끝 추성 시스템의 흐름을 보여준다.</p> <h2>3.1 깊이 영상을 이용한 손 끝 추정의 한계</h2> <p>2장에서 기술하였듯이 깊이 영상에 임계치를 설정하면 원하는 관심 객체의 영역만을 추출할 수 있다. 하지만, 손 끝 이나 손가락의 경우에는 전체 이미지에서 차지하는 영역의 크기가 상대적으로 작기 때문에, 객체를 추출하는 데에는 한계가 있다.</p> <p>(그림 6)는 임계치 설정만을 이용하여 손 끝 영역을 추출한 결과이다. 실험에서는 실시간 환경에서 임계치은 깊이 영상 중에서 가장 높은 값을 설정하여 카메라에서 가장 가깝게 인식되는 지점을 찾도록 하였다. 그 결과, (그림 6)처럼 손 끝이 인식되는 프레임도 있었지만, 오인식 되는 프레임도 있어서 임계치 설정만으로 손 끝의 위치를 추정하는 것은 한계가 있음을 알 수 있다.</p> <h2>3.2 팔 모델기반 3차원 손의 위치 추정</h2> <p>TOF 카메라의 깊이 정보만을 이용하여 손 끝의 위치 추적하는 것은 한계성을 갖는다. 따라서 본 논문에서는 실제 동작자와 같은 길이를 갖는 3D 팔모델을 이용한다. 어깨로부터 팔 길이만큼 공간에 위치해 있는 손의 3차원 위치를 추정하고, 그 기울기에 따라 손 끝의 위치를 추정하는 방법이다. 먼저 영상의 한 점과 3차원 공간 상의 한 점 사이의 상관관계를 추정해야한다.</p> <p>실제 카메라에 투영된 이미지의 좌표 (x,y)로부터 실제 3차원 상에 존재하는 실제 손의 좌표 (X,Y,Z)로 향하는 벡터를 추정할 수 있다. (그림 7)은 핀홀 카메라의 전역좌표에서의 3차원 객체의 중심점 (X,Y,Z)가 이미지 평면 I(영상에 표기)에 투영되는 과정을 보여주고 있다. 즉, 이미지 평면 I의 좌표 (x,y)로부터 객체의 중심점으로 향하는 벡터를 구할 수 있다[15-17].</p> <p>이 때, 핀홀 카메라 모델로 가정하면 (그림 8)과 같이 객체 중심점의 깊이 값 Z를 TOF 카메라에서 물체까지의 깊이 정보 d라고 간주할 수 있다. f를 초점거리를 의미하며, 삼각형의 비례식에 의해 손 끝의 3차원 좌표는 식 3과 같이 표현 가능하다.</p> <p>\( (X, Y, Z)=\left(\frac{x d}{f}, \frac{y d}{f}, d\right) \)<caption>(3)</caption></p> <p>팔의 길이는 항상 같은 길이이고, 팔은 어깨 위치를 중심으로 회전하기 때문에 팔의 이동은 (그림 7)과 같이 구 모양으로 회전하게 된다. 따라서 어깨의 위치를 원점으로부터 C만큼 떨어져있는 경우, 손의 3차원 위치점은 다음과 같다.</p> <p>\( X^{2}+Y^{2}+(Z-C)^{2}=r^{2} \)<caption>(4)</caption></p> <p>그리고 팔의 길이를 L이라고 한다면, 영상에 투영된 손의 중심점 (x,y)의 3차원 위치는 식 3을 식 4에 대입하여 식 5를 얻을 수 있다.</p> <p>\( \left(\frac{x d}{f}\right)^{2}+\left(\frac{y d}{f}\right)^{2}+(C-d)^{2}=L^{2} \)<caption>(5)</caption></p>
|
추성한 손의 3차원 중심점과 육각형 손 모델을 이용하여 영상에서 얻어진 손의 중심점을 보정하고 그에 따른 손 끝의 3차원 위치를 추정 하여 영상에 임계치를 설정하면 원하는 관심 객체의 영역만을 추출할 수 있다. 하지만,TOF 카메라의 깊이 정보만을 이용하여 손 끝의 위치 추적하는 것은 한계성을 갖게 되므로 실제 동작자와 같은 길이를 갖는 3D 이용하여 추정한다.
|
<h1>1. 서 론</h1> <p>오랫동안 키보드와 마우스는 컴퓨터의 입력도구로 사용되었다. 하지만 최근에는 터치스크린이 개발되어서 실제 모니터 화면의 정보를 보고 화면 속의 버튼이나 스크롤 등을 손가락이나 펜을 이용하여 조절함으로써 정보를 컴퓨터에 입력할 수 있게 되었다. 터치스크린은 평소 키보드 자판이나 마우스에 익숙하지 않은 유아들이나 노인, 몸이 불편한 장애인들의 컴퓨터 이용을 편리하게 해준다.</p> <p>하지만, 현재의 터치스크린은 물리적 성질을 이용한 것이기 때문에 그 크기가 한정되어 있으며, 설치 위치가 제한되어 있다. 그러고 기술적으로는 광투과율이 최대 \( 86 \% \) 에 그치고 있고, 진동에 대해서 약점을 가지고 있으며, 가격이 비싸다는 단점을 가지고 있다.[1]</p> <p>이와 같은 터치스크린의 단점을 보완하기 위하여 개발된 것이 가상 터치스크린이다. 가상 터치스크린은 기존의 터치 스크린에서 요구되는 물리적인 막이 없이, 카메라나 센서만 을 이용하여 손이나 다른 물리직인 물체로부터의 터치 제스처를 인식하는 기술이다. 따라서 가상 터치스크린 기술은 기존의 터치스크린의 단점을 보완할 수 있고 3DTV 등 3D 디스플레이를 조작하는 도구로 사용될 수 있기 때문에 차세대 실감형 입력 인터페이스로 활용할 수 있다.</p> <p>현재까지 가상 터치스크린의 연구는 그리 많이 이루어지지 않았다. 김형준[1]등은 두 대의 카메라를 이용하여 각각의 카메라의 사상된 좌표 값의 집합의 정합에 의하여 입력 물체의 3차원 위치를 검출하고, 3차원 터치점과 임의로 지정된 가상막의 영역을 이용하여 이동, 클릭, 더블 클릭, 드래그 등 이벤트를 정의하여 가상 스크린을 구성하였다. Eunjin Koh 등은 스테레오 카메라를 이용하여 가상 터치스크린을 구성하였다. 그리고 실제 AR(Augmented Reality)기술을 이용하여 마커와 HMD(Head Mounted Display)를 이용하여 가상 터치스크린 막을 실제 시각적으로 볼 수 있게 하였다. 다음으로, 스테레오 카메라의 깊이 정보를 이용하여 추정된 손의 3차원 위치를 추정하고 사전에 미리 지정한 HMD와 손 사이의 거리와 비교하여 터치 여부를 결정한다.</p> <p>하지만, [1]의 경우 제안한 시스템의 물리적 구조는 수식에 의해 고정되어 있기 때문에 시스템의 미세한 물리적인 이동에도 시스템의 구조를 모두 바꿔야 한다는 단점을 가지고 있다. 그리고 2대의 카메라를 사용하지만 스테레오 알고리즘을 사용하여 깊이 정보를 추출하는 것이 아니라 단순히 두 대의 카메라의 사상된 좌표의 집합을 3차원 공간상의 특정 지점에 대응시키는 방법을 사용하고 있다. 이는 추정된 3차원 위치를 주관적으로 대응시킴으로써 얻어진 점이 손 끝 지점이라고 신뢰하기 어렵다. [2]의 경우, 손의 3차원 위치를 추정할 때, 스테레오 카메라를 이용하였다. 스테레오 카메라의 시차(Disparity) 정보를 이용하여 깊이 정보를 검출하는 것은 물체의 3차원 거리는 객관적으로 추정할 수 있지만, 근거리에서는 3차원 정보 검출이 어럽다는 점과 조명의 변화 등 주변 환경에 민감하다는 점 등의 한계가 있다.</p> <p>근거리 내의 손의 깊이정보를 추출하는 경우, TOF 카메라는 스테레오 카메라보다 강건하게 3차원 위치의 검출이 가능하다[4]. 하지만, 손 끝 검출의 경우에는 영상에서 차지하는 픽셀 수가 극히 작아서 정확한 위치를 검출하기 어렵다. 따라서 손 끝의 3차원 위치를 추정하기 위해 손의 정확한 위치를 추적하는 방법이 필요하다. 이 방법에는 크게 3가지 방법이 있다. 뉴턴의 운동법칙과 주성분 분석(Principal Component Analysis)을 기반으로 변형이 가능한 손 모양 모델을 사용[4]하는 방법이다. 하지만, 이러한 방법은 손의 정확한 포즈를 추정할 수 없다는 단점이 있다. 다음으로, 입력 영상의 특징 공간과 손의 움직임에 대한 두 공간 사이의 매핑을 이용하는 외형 기반 방법[5, 6]이다. 이러한 접근법은 두 공간 사이의 매핑 함수를 학습하기 힘들다는 단점을 가지고 있다. 마지막으로, 입력 영상과 3차원 모델 투영 영상과의 정합을 추정하는 3차원 모델 기반 방법이다. 3차원 모델과 입력 영상과의 대응점을 찾기 위해 영상에서 손가락 끝[7-9], 윤곽[10], 실루엣[7, 11, 12] 등과 같은 다양한 특징들이 사용가능하다.</p> <p>본 논문에서는 TOF 카메라를 사용하여 얻은 손 영역에 대한 3차원 무게 중심점의 위치 및 손의 회전각을 검출하고, 육면체 모델을 이용하여 손의 무게중심점의 3차원 위치 및 회전각을 보정함으로써 손 끝의 3차원 위치를 정확하게 추정한다. 그 결과 단순히 임계치를 이용하여 손 끝을 추성할 때보다 현저하게 개선된 결과를 얻을 수 있었다.</p> <p>본 논문의 다음과 같이 구성되어 있다. 2장에서는 TOF 카메라를 이용하여 손의 3차원 위치 추정하는 과정을 설명한다. 그리고 3장에서는 육면체 손 모델 기반 손 위치 보정 및 손 끝 위치 추정 방법을 상세히 설명한다. 4장에서는 보정된 손 위치 추정 결과와 손 끝의 위치 추정 결과를 제강한다. 마지막 5장에서는 결론을 내린다.</p>
|
키보드와 마우스가 컴퓨터의 입력 도구로 사용되었으나, 2000년대에는 터치스크린이 개발되어 실제 모니터 화면의 정보를 보고 화면 속의 버튼이나 스크롤 등을 손가락이나 펜을 이용하여 정보를 입력할 수 있게 되었다. 그러나 터치스크린은 물리적 성질을 이용하기 때문에 크기가 한정되고, 설치 위치 제한 등의 단점이 있다. 이러한 단점을 보완하기 위해 개발된 것이 가상 터치스크린이며, 카메라나 센서를 이용하여 손이나 다른 물리적인 물체로부터의 터치 제스처를 인식하는 기술이다.
|
<h1>2. TOF 카메라 기반 3차원 손 위치 추정</h1> <h2>2.1 깊이 영상(Depth Image)</h2> <p>TOF 카메라는 내부에서 발산한 적외선 광분자가 대상 물체에 부딪쳐서 되돌아오는 시간을 카메라 내부에 센서가 인지한 후, 측성된 시간을 대상과의 거리로 변환하여 깊이 영상을 생성한다. TOF 카메라의 특성을 이용하면 \( 2 \mathrm { ~m } \)이내의 근거리에서의 물체의 3차원 거리 정보를 비교적 정확하게 얻을 수 있다[13]. 그리고 TOF 카메라는 적외선을 이용하기 때문에 조명이나 주변 환경의 변화에도 강건한 결과를 얻을 수 있다. (그림 1)은 TOF의 입력 영상과 그에 따른 깊이 영상이 보이주고 있다. 이 영상은 그레이영상으로써, 카메라로부터 거리가 가까울수록 거리 영상은 밝은색을 나타내고, 거리가 멀수록 어두운 색을 갖는다 [14].</p> <h2>2.2 임계치 설정 및 객체 분리</h2> <p>카메라로부터 떨어진 거리를 나타내는 깊이 영상에 임의의 임게치을 설정해줌으로써 임의의 거리 안에 있느 물체의 카메라로부터 떨어진 거리를 추정할 수 있다. (그림 2)는 깊 이 영상과 그에 따른 x-depth 맵을 이용하어 객체를 검출하는 것을 나타낸다. x-depth 맵은 횡축은 깊이 영상의 x축 해상도 값을 나타내고, 종축은 깊이 영상에서의 횡축의 값에 따른 깊이 영상의 배열 중 가장 큰 값을 선택하여서 표현한 영상이다.</p> <p>(그림 2)-(c)와 같이 x-depth 맵에 임계치을 적용하면 특정 거리 안에 있는 객체를 추출할 수 있다. x-depth 맵을 이용하면 그의 임계치에 따라 단순히 특성 거리에 안에 있는 물체의 픽셀의 값을 추출하는 것에 그친다. 하지만, 깊이 영상의 히스토그램을 이용면 (그람 3)-(c)와 같이 몸과 팔, 그리고 손을 분리할 수 있게 된다. 이는 깊이 히스토그램을 미분하여 그 미분된 이미지에서 지역 극대값과 지역 극소값을 각각 객체 분리의 값으로 설정하이 몸과 팔, 손의각 부분을 검출하고 분리하는 방법이다. 이는 깊이 영상에 특정 임계치를 사용하여 객체를 추출하는 것보다 향상된 결과를 보였다.</p> <h2>2.3 객체의 중심점 검출</h2> <p>검출된 객체의 중심 모멘트를 구함으로써 객체의 중심점을 얻을 수 있다. 모멘트는 식 1과 같다.</p> <p>\( M_ { x_ { 0 r } , y_ { 0 r } } = \sum_ { x, y } \left (I(x, y) \cdot \left (x-x_ { c } \right ) ^ { x_ { 0 r } } \cdot \left (y-y_ { c } \right ) ^ { y_ { 0 r } } \right ) \)<caption>(1)</caption></p> <p>그리고 객체의 중심점은 식 2와 같이 표현 가능하고, (그림 4)와 같이 나타난다.</p> <p>\( \mu_ { x, y } = \left ( \frac { M_ { 1,0 } } { M_ { 0,0 } } , \frac { M_ { 0,1 } } { M_ { 0,0 } } \right ) \)<caption>(2)</caption></p>
|
TOF 카메라는 내부적으로 발산된 적외선 광분자가 물체에 부딪혀 되돌아온 시간을 인지하고 이를 대상과의 거리로 변환하여 깊이 영상을 제작한다. 이러한 기능은 \(2 \mathrm { ~m }\) 이내의 근거리에서의 3차원 거리 정보를 상당히 정확하게 얻는 데 활용되며, 적외선을 이용하기 때문에 조명이나 주변 환경의 변화에도 견고한 결과를 보장한다.
|
<h2>3.3 어깨의 위치 검출</h2> <p>팔 모델을 이용하이 3차원 손의 위치를 추정할 경우 중심점인 어깨의 위치를 결정하는 것이 중요하다[18]. (그림 8)과 같이 사용자가 Z축으로 C의 위치에 있다고 가정했을 경우, 사용자의 키와 체형에 따라 사용자의 어깨의 위치는 가변적으로 변하게 되서 사용자가 변경되거나 사용자의 위치가 변경될 때는 어깨의 위치, 즉 팔 모델의 중심점은 변한다.</p> <p>어깨의 위치는 깊이 영상을 이진화한 실루엣 영상으로부터 얻을 수 있다. 실루엣 영상을 높이를 축으로 하어 히스토그램을 그리면 어깨로부터 시작하여 골반까지의 부분에서 가장 히스토그램 값이 큰 한 점이 검출된다. 그 한 점으로부터 머리쪽으로의 히스토그랩의 값 중 급격하게 히스토그램 값이 감소되었다가 점차 완화되는 부분, 즉 2차 미분 값이 0이 되는 부분은 목과 어깨 사이의 한 점이다. 그리고 급격한 변화가 시작되는 부분은 어깨라고 할 수 있다. (그림 9)는 어깨 위치 검출 과정을 나타낸 그림으로 입력 영상과 깊이 영상으로부터 사용자의 실루엣 영상을 구하고, 그에 따라 어깨를 구하는 과정을 나타낸다.</p> <h2>3.4 손 모델을 이용한 손의 중심점 보정</h2> <p>2장에서 추정된 손의 이미지에 투영된 중심점은 (그림 9)에서와 같이 카메라를 통해 보이는 손의 모양에 따라 달라진다. (그림 10)과 (그림 11)은 이와 같이 손의 움직임에 의한 위치 변화에 따른 육면체 손의 모델의 가시면의 변화와 그에 따른 중심점을 나타낸다.</p> <p>손이 주먹 준 상태에서 영상의 정중앙에 위치하면 손의 주먹의 앞부분만이 가시면이 된다. 그러나 손의 3차원 위치의 변화에 따라 가시면도 변하게 되고, 그에 따라 영상에 투영된 손의 무게 중심점도 이동한다. 정확한 2차원 영상에서의 손의 중심점을 알기위해 손의 위치에 따른 변화에 관계없이 손 위의 동일한 지점을 찾아야한다.</p> <p>손의 움직임은 앞으로 지면과 평행하게 뻗는 자세를 기본 자세라고 정의하고, 어깨를 중심으로 X, Z축을 축으로 \( \theta_{x} \) \( \theta_{2} \) 만큼 회전변환을 할 경우, 회전하기 전 (x, y, z)는 식 6에 의해 \( \left(\mathrm{x}^{\prime}, \mathrm{y}^{\prime}, \mathrm{z}^{\prime}\right) \)으로 나타낸다.</p> <p>\( \left(\begin{array}{l}x^{\prime} \\ y^{\prime} \\ z^{\prime}\end{array}\right)=\left(\begin{array}{ccc}\cos \theta_{z}-\sin \theta_{z} & 0 \\ \sin \theta_{z} & \cos \theta_{z} & 0 \\ 0 & 0 & 1\end{array}\right)\left(\begin{array}{ccc}1 & 0 & 0 \\ 0 \cos \theta_{x} & -\sin \theta_{x} \\ 0 \sin \theta_{x} & \cos \theta_{x}\end{array}\right)\left(\begin{array}{l}x \\ y \\ z\end{array}\right) \)<caption>(6)</caption></p> <p>(그림 12)와 같이 육면체 모델의 움직임에 따라 가시면은 13개가 될 수 있고, 각 면들의 회전된 3차원 지점에 각 가시면의 면적을 가중치로 갖는 점을 영상의 투영된 손의 중심점이라고 할 수 있다. (그림 12)는 가시면이 3개인 경우, 회진 후 3개의 가시면의 중심을 나타낸 것이다. 이 때, 가시면의 면직을 각각 A,B,C라고 한다민 모델의 영상에 투영될 손의 중심점 \( P_{M} \) 은 식 7과 같이 표현 가능하다.</p> <p>\( P_{M}=\frac{A \cdot P_{A}+B \cdot P_{B}+C \cdot P_{C}}{A+B+C} \)<caption>(7)</caption></p> <p>각각의 가시면의 넓이 A,B,C는 회전각 \( \theta_{x}, \theta_{2} \)의 식으로 나타낼 수 있고, 육면체 모델의 가로, 세로, 높이 깊이를 각각 W,h,p라고 한다면, 식 8,9,10로 표현된다.</p> <p>\( A=w \cdot p \cdot \cos \theta_{z} \cdot \cos \theta_{z} \)<caption>(8)</caption></p> <p>\( B=w \cdot h \cdot \sin \theta_{z} \cdot \cos \theta_{z} \)<caption>(9)</caption></p> <p>\( C=h \cdot p \cdot \cos \theta_{z} \cdot \sin \theta_{z} \)<caption>(10)</caption></p> <p>영상에서의 객체의 중심점은 모델의 영상에 투영될 손의 3차원 중심점 \( P_{M} \) 을 2차원 영상 평면에 투영한 점이기 때문에 \( P_{M} \) 을 2차원으로 부영한 점 \( P_{y} \) 은 \( P_{M} \)을 \( \left(\mathrm{x}_{\mathrm{m}}, \mathrm{y}_{\mathrm{m}}, \mathrm{z}_{\mathrm{m}}\right) \) 이라고 가성하고 \( f \) 를 카메라 렌즈의 초점거리라고 하민 식 11 로 표현되고, 이 수식은 2.3절에서 검출했던 객체의 중심 모멘트와 같다.</p> <p>\( P_{\mu}=\left(\frac{f \cdot x_{m}}{z_{m}}, \frac{f \cdot y_{m}}{z_{m}}\right)=\mu_{x, y} \)<caption>(11)</caption></p>
|
사용자의 키와 체형에 따라 어깨의 위치가 변하는 것을 고려하여, 깊이 영상을 이진화한 실루엣 영상으로부터 히스토그램 값이 큰 한 점이 검출되어 어깨의 위치를 구할 수 있다. 손의 3차원 위치 움직임의 변화에 따라 손의 모델의 가시면과 중심점이 변하므로, 손의 위치에 따른 변화에 관계없이 손 위의 동일한 지점을 찾아야한다. 정확한 2차원 영상에서의 손의 중심점을 알기위해 손의 위치에 따른 변화에 관계없이 손 위의 동일한 지점을 찾아 육면체 모델의 움직임에 따라 가시면은 13개가 될 수 있고, 각 면들의 회전된 3차원 지점에 각 가시면의 면적을 가중치로 갖는 점을 영상의 투영된 손의 중심점이라고 할 수 있다.
|
<h1>4. 실 험</h1> <p>실험은 TOF 카메라의 깊이 영상만을 이용하여 손 끝을 찾는 방법, 팔 모델만을 이용하여 손 끝을 찾는 방법, 그리고 팔 모델과 육면체 손 모델을 이용하여 손 중심점을 보정하여 손 끝을 찾는 방법으로 각각 진행된다. 실험의 입력으로는 3DVSystems의 TOF 카메라인 ZCAM의 \( 320 \times 240 \) 해상도를 갖는 깊이 영상과 컬러 영상이 이용되었다.</p> <p>실험은 각각 280장의 컬러 영상과 깊이 영상으로부터 팔 모델과 육면체 손 모델을 사용하여 3차원 손 끝을 찾는 것 으로 이루어진다. 3차원 손 끝 검출 실험의 신뢰도를 위하여 검출된 3차원 손 끝의 위치를 2차원 영상 평면에 투영해 보고 참 값(Ground Truth)와 비교하였으며, (그림 15)는 OpenGL 그래픽 툴을 이용하여 시각적으로 확인할 수 있게 하였다.</p> <p>(그림 14)에서 별의 위치점은 팔 모델의 원점인 어깨의 위치이고, 사각형은 깊이 영상에 팔 모델을 사용하어 얻어진 손의 위치점이고, 삼각형은 육각형 손 모델을 이용하이 개선된 손의 위치점이다. 그리고 원은 개선된 손의 위치로부터 계산된 3차원 손 끝 점이 2차원 영상 평면으로 투영된 점이다.</p> <p>성능 검사는 수작업으로 얻은 손 끝의 픽셀의 위치 참 값 (Ground Truth)의 데이터와 각 알고리즘의 손 끝의 위치 추정의 결과값 사이의 오차를 계산하어 비교 평가하였다. 비교 대상 알고리즘은 깊이 영상만을 이용하여 얻은 손 끝 위치 검출 알고리즘, 팔 모델을 이용하어 얻은 손 끝의 추정 알고리즘, 팔 모델과 육각형 손 모델을 이용하어 얻은 손 끝의 추성 알고리즘이다. 각각 알고리즘의 검출 결과와 참 값과의 거리 차에 임계치를 설정하여 정분류된 손 끝의 프레임수를 합산한 결과와 각 알고리즘의 결과의 MSE(Mean Square Error)를 계산한 결과를 통해 성능 평가를 수행 하였다.</p> <p>(그림 15)는 임계치에 따른 누적 손 끝 정분류 프레임 수를 나타낸다. 전반적으로 팔모델과 손 보정을 거친 실험이 가장 좋은 결과를 낸다. 하지만, 참 값과의 거리 제곱의 임계치가 50인 경우에는 깊이 영상만을 이용한 손 끝 검출이 가장 좋은 결과를 보여주고 있다. 이것은 깊이 영상만을 이용한 손 끝 검출의 경우, 모델을 이용하지 않고, 입력 영상에서 바로 손 끝을 검출하기 때문에 몇몇의 경우에는 모델을 이용한 추정보다 비교적 정확하게 손 끝의 위치점을 얻을 수 있다.</p> <p> <표 1>은 영상에서의 2차원 위치 참 값과 3가지 손 끝 추적 방법으로부터 얻은 3차원 손 끝 점을 2차원 영상 평면으로 투영한 점과의 거리의 MSE(Mean Square Error)를 구한 것이다. 결과적으로<표 1>과 같이 팔 모델과 손 위치 보정을 해서 손 끝을 검출한 결과가 깊이 영상만을 이용한 결과보다 훨씬 더 좋은 결과를 얻었다.</p>
|
TOF 카메라의 깊이 영상과 컬러 영상을 입력으로 사용하여 3가지 방법으로 손 끝을 검출하는 실험을 수행한 결과, 팔 모델과 손 보정을 거친 실험이 가장 좋은 결과를 내지만 참 값과의 거리 제곱의 임계치가 50인 경우에는 깊이 영상만을 이용한 손 끝 검출이 가장 좋은 결과를 보여주었다. 최종적으로 정리하면 깊이 영상만을 사용한 것보다 팔 모델과 손 위치 보정을 거친 결과가 훨씬 더 좋음을 나타내었다.
|
<h1>요 약</h1> <p>일반적으로 로깅은 안전한 컴퓨터 시스템을 위한 중요한 요소인데, 이러한 로그를 분석함으로써 컴퓨터 내부에서 발생하는 다양한 문제를 식별하거나 침입을 발견할 수 있다. 따라서, 로그 내의 정보를 잘 활용한다면, 각종 사이버 침해에 대한 스마트 기기의 증거자료를 확보는 물론 사이버 수사에서 포렌식 관점의 효력을 가지도록 할 수도 있다. 본 논문은 스마트기기를 위한 새로운 로깅 방안을 제안한다. 제안 방안은 스마트기기용 로깅의 요구사항을 모두 만족하므로, 스마트기기의 디지털 증거를 수집하기 위한 안전한 로깅 방안을 개발하는데 도움이 될 것이다.</p> <h1>1. 서 론</h1> <p>2011년 국내 스마트폰 사용자는 2,000만명을 이미 넘어섰으며, 휴대전화 사용자 중 \( 40 \% \)이상이 스마트폰을 사용한다는 통계자료도 나와 있다. 국내외 스마트폰 및 태블릿PC 사용자는 웹 서핑, 음악감상, 채팅 및 메신저, 스케줄링, 게임 및 지도 이용 목적으로 사용하고 있는 것으로 조사되어, 기존의 PC를 기반으로 하는 간단한 인터넷 검색, 일정관리, 채팅 등은 이미 스마트기기로 대체되는 추세에 있다. 그러나 스마트기기 사용자의 폭발적 증가와 새로운 서비스의 경쟁적 도입에 따라 이를 이용한 역기능 또한 함께 증가하고 있는 추세이다. 즉, 유명 어플리케이션 위장을 통한 정보 유출, 스마트기기 악성코드를 통한 정보 변조와 피해, 분산서비스거부(DDoS) 공격을 위한 좀비 역할 수행 등이 증가하는 것으로 보고되고 있다.</p> <p>스마트기기에서 발생하는 다양한 침해를 분석하기 위해서는 무형의 정보를 디지털 증거물로 수집하여 법적 효력을 갖는 증거물로 제시하는 절차인 디지털 포렌식이 필수적이다. 즉, 사이버범죄 등에 대하여 컴퓨터 등 정보기기 장치에 내장된 디지털 자료를 근거로 그 장치를 매개체로 발생한 행위의 사실 관계를 규정 \( \cdot \)증명하는 기술 또는 일련의 절차가 바로 디지털 포렌식이다. 디지털 포렌식은 보안 서비스의 한 분야로 검찰, 경찰 등의 국가 수사 기관에서 범죄 수사에 활용하고 있으며 일반 기업체 및 금융 회사 등의 민간 분야에서도 필요성이 증가하고 있는 추세이다. 이러한 디지털 포렌식을 수행하기 위해서는 컴퓨터 및 스마트기기에 저장된 디지털 증거 분석이 필수적인데, 기본이 되는 자료가 바로 로그이다. 즉, 로그를 어떻게 확보하느냐에 따라 디지털 범죄에 대한 수사의 향방이 결정되므로 로그의 수집은 디지털 포렌식에서도 중요한 작업이라 할 수 있다.</p> <p>본 논문에서는 스마트기기를 위한 안전한 로깅 방안을 제안하고자 한다. 먼저 2장에서는 스마트기기에서 로그에 대한 내용과 기존 연구, 스마트기기용 로깅의 요구사항에 대하여 살펴본다. 3장에서는 안전한 로깅 방안을 제안하고 안전성 분석과 기존 방안과의 성능을 분석한 후, 마지막 4장에서 결론을 맺는다.</p>
|
로그 분석은 안전한 컴퓨터 시스템에 필수적인 역할을 하는데, 로그 정보를 분석함으로써 다양한 문제를 식별하고 침입을 감지할 수 있다. 본 논문은 스마트 기기를 위한 새로운 로깅 방안을 제안하며, 이는 스마트 기기의 디지털 증거 수집과 사이버 수사에 유용한 효과를 가질 것이다.
|
<h1>3. 스마트기기에 적용가능한 로깅 방안의 제안</h1> <p>본 장에서는 스마트기기를 위한 로깅의 요구사항을 만족하고, 다양한 스마트기기에 적용할 수 있는 보다 효율적이며 안전한 방안을 제안한다. 본 논문에서 사용되는 표기법은 다음과 같다.</p> <ul> <li>\( l_{i}: i \) 번째 로그</li> <li>\( h(m) \) : 메시지 \( m \)에 대한 해쉬값</li> <li>\( mac(K, m): K \)를 이용한 \( m \)에 대한 메시지 인증값</li> <li>\( e(K, m): K \)를 이용하여 메시지 \( m \)을 암호화</li> <li>\( r_{A}: A \)가 생성한 임의의 난수값</li></ul> <h2>3.1 로깅 방안의 제안</h2> <p>스마트기기를 위한 로깅의 요구사항을 만족하는 새로운 로깅 방안은 아래와 같다.</p> <ul> <li>\( S=\left\{\left(l_{1} \| v_{1}\right),\left(l_{2} \| v_{2}\right), \cdots,\left(l_{n} \| v_{n}\right)\right\} \)</li> <li>\( v_{i}=\operatorname{mac}\left(K_{i},\left(l_{i} \| v_{i-1}\right)\right), v_{0}=\operatorname{mac}\left(K_{0}\right. \), Device \( ) \)</li> <li>\( K_{i}=h\left(r_{\text {User }} \| v_{i-1}\right), K_{0}=h\left(r_{\text {Device }}\right) \)</li></ul> <p>제안 로깅 방안은 \( S=\left\{\left(l_{1} \| v_{1}\right),\left(l_{2} \| v_{2}\right), \cdots,\left(l_{n} \| v_{n}\right)\right\} \)로 구성되고, 각 로그는 \( \left(l_{i} \| v_{i}\right), 1 \leq i \leq n \)이다. 여기서, \( l_{i} \)는 로그 데이터이고, \( v_{i} \)는 각 로그의 안전성과 무결성을 보장하기 위해 삽입되는 부가 정보로써 다음과 같이 생성된다.</p> <p>\[ \begin{aligned} v_{i} &=\operatorname{mac}\left(K_{i},\left(l_{i} \| v_{i-1}\right)\right) \\ &=\operatorname{mac}\left(K_{i},\left(l_{i} \| \operatorname{mac}\left(K_{i-1},\left(l_{i-1} \| v_{i-2}\right)\right)\right)\right) \\ &=\operatorname{mac}\left(K_{i},\left(l_{i}\left\|l_{i-1}\right\| \cdots \| \operatorname{mac}\left(K_{1},\left(l_{1} \| v_{0}\right)\right) \cdots\right)\right) \end{aligned} \]</p> <p>단, \( v_{0} \)는 스마트기기 이름을 특정한 키 \( K_{0} \)로 MAC한 값을 사용한다. 또한, MAC에서 사용하는 키 \( K_{i} \)는 다음과 같다.</p> <p>\[ K_{i}=h\left(r_{\text {User }} \| v_{i-1}\right), K_{0}=h\left(r_{\text {Device }}\right) \]</p> <p>여기서, \( r_{\text {Device}} \)는 스마트기기가 생성한 임의의 난수값이다. \( K_{i} \)는 사용자 자신이 생성한 난수값 \( r_{\mathrm{User}} \)과 함께 이전 \( v_{i-1} \)과 함께 자체적으로 생성한다.</p> <p>특히, \( r_{\text {Device}} \)과 \( r_\mathrm{User} \)은 스마트기기와 사용자가 생성한 임의의 난수값으로 각각 안전하게 보관한다. 결국 로그 데이터 \( l_{i} \)와 이를 해쉬한 후 하나의 키를 사용하여 메시지 인증한 \( v_{i} \)이 제안 방안의 로그가 되는데, 공격자에게 키 \( K_{x} \)가 노출된다 하더라도 \( r_{U s e r} \)를 모른다면 키 \( K_{x+1} \) 계산이 불가능하므로 \( v_{x+1} \)을 만들 수 없다.</p>
|
스마트기기를 위한 로깅의 요구사항을 만족하고 보다 효율적으로 안전하게 적용할 수 있는 방안을 제안하고 표기법을 설명하였다. 로그 데이터와 각 로그의 안전성 및 무결성을 보장하기 위해서는 부가정보를 삽입하고 스마트기기와 사용자가 생성한 임의의 난수값으로 안전하게 보관한다.
|
<h1>2. 로깅 개요</h1> <h2>2.1 스마트기기에서 로깅</h2> <p>컴퓨터에서 로깅(Logging)은 프로그램 개발이나 시스템 운영 시 발생하는 문제점을 추적하거나 운영상태를 모니터링하기 위한 텍스트 형식의 데이터를 남기는 것을 말한다. 스마트기기에서 로그는 그림 1과 같이 스마트기기의 부팅 및 종료, 망접속 상태, GPS 및 카메라 등 주변기기 사용, 어플리케이션의 설치와 삭제 등이 포함될 수 있다. 따라서, 로깅은 스마트기기 동작 중 발생하는 각종 이벤트를 저장하는 기록 과정이므로, 기록된 로그는 관리 관점에서는 스마트기기의 동작을 기록하여 각종 문제점을 파악할 수 있는 재료를 제공할 뿐만 아니라 보안 관점에서는 스마트기기의 침해 여부를 판단하게 해주고 해당 침해의 증거 자료로써 법적인 효력을 가지기도 한다. 그러나 대부분의 스마트기기 로그는 평문으로 되어 있어 누구나 열람할 수 있을 뿐 아니라 특정 이벤트 로그의 삭제, 추가, 삽입 등의 조작에 매우 취약한 상태이다.</p> <h2>2.2 기존 연구</h2> <p>로깅에 대한 연구는 일반적으로 컴퓨터 시스템에서 기존 로깅을 수정하여 암호학 기반의 부가 정보를 추가함으로써 로그의 불법 수정을 검출하거나 수정 자체를 방지하는 쪽으로 초점을 맞추어져 진행되었다. 대표적으로 syslog-sign, Schneier-Kelsey 방안, Ma-Tsudik 방안 등이 있다. 단, 본 논문에서 언급된 로깅 방안은 다음과 같은 가정에 기반한다.</p> <p> <가 정></p> <ol type=1 start=1><li>로깅 방안에서 사용하는 해쉬 함수는 안전하므로, 공격자가 해쉬 함수 자체를 공격하는 것은 계산적으로 불가능하다.</li> <li>로깅 방안에서 사용하는 MAC(Message Authentication Code)는 안전하므로, 공격자가 MAC 자체를 공격하는 것은 계산적으로 불가능하다. 단, 키를 아는 경우는 쉽게 공격할 수 있다.</li> <li>로깅 방안의 암호화에 사용하는 알고리즘은 안전하므로, 공격자가 암호화 알고리즘 자체를 공격하는 것은 계산적으로 불가능하다. 단, 키를 아는 경우는 쉽게 복호화할 수 있다.</li> <li>로깅 방안의 암호화 및 MAC에서 사용하는 비밀키는 안전하게 보관된다. 단, 사용자 부주의 등으로 인해 공격자에게 노출될 수 있다.</li> <li>공격자가 임의의 난수값을 정확히 추측하는 것은 계산적으로 불가능하다.</li></ol> <p>syslog-sign은 개별 로그 데이터를 각각 해쉬시킨 다음 이들을 전자서명하고, 다시 순서대로 모아서 만든 해쉬 값에 전자서명을 수행하여 전자서명 값을 첨부하는 방식으로 이루어진다. 이 방안은 전자서명을 통하여 로그에 대한 인증성을 보장하지만 특정 로그가 불법 수정된 경우, 로그가 수정되었다는 사실은 확인할 수 있으나 어떤 로그가 수정되었는지 찾기가 힘든 문제점을 가지고 있다. 특히, 스마트기기 환경에서 전자서명을 사용함으로써 계산량이 복잡하고, 성능이 저하되는 문제점도 있다.</p> <p>Schneier-Kelsey 방안은 로그 데이터를 특정 키와 함께 해쉬시킨 후 이를 이용하여 암호화하고, 이전 로그 데이터에 의한 해쉬값을 현재 로그에도 반영하는 형태를 취한다. 즉, 이들이 해쉬 체인을 구성함으로써 로그 삭제 및 삽입과 같은 수정 공격을 검출할 수 있다. 그러나, 이 방안은 로그 데이터에 대한 암호화를 제공할 뿐만 아니라 해쉬 체인에 비밀값 \( A_{i}=H\left(A_{i-1}\right) \)을 이용하여 안전성을 보장하는데, 공격자에게 \( A_{x} \)이 노출되면 \( A_{x+1} \)를 계산할 수 있으므로 전방향 무결성을 보장하지 못한다.</p> <p>Ma-Tsudik 방안은 로그 데이터에 메시지 인증을 위한 MAC 체인을 구성하여 삭제 및 삽입과 같은 수정 공격을 검출할 수 있다. 또한, 검증자에 의한 부정 방지까지 포함한다. 그러나, MAC의 비밀키를 \( A_{i}=H\left(A_{i-1}\right) \)로 계산하므로 공격자에게 \( A_{x} \)가 노출되면 \( A_{x+1} \)를 계산할 수 있으므로 역시 전방향 무결성을 보장하지 못한다.</p> <h2>2.3 스마트기기용 로깅의 요구사항</h2> <p>로그 데이터는 각종 이벤트를 저장함으로써 특정 이벤트 발생 당시에 일어난 일들에 대한 근거를 제공한다. 일반 컴퓨터 시스템의 로깅 방안은 로그 데이터 수정 방지, 작은 오버헤드, 전방향 무결성을 만족하면 되지만, 스마트기기에 적용가능한 로깅 방안은 그 특성에 따라 로그 데이터 수정 방지, 전방향 무결성, 구현의 용이성, 작은 저장공간의 조건을 만족하여야 한다. 요구사항의 구체적인 내용은 다음과 같다.</p> <ol type=1 start=1><li>로그 데이터 수정 방지 : 스마트기기의 공격자 입장에서는 자신의 범행에 대한 증거가 되는 로그 데이터 수정에 대한 동기를 가진다. 반대로 스마트기기의 사용자 입장에서는 이를 방지하기 위하여 로그 데이터가 수정/삽입/삭제 공격에 안전하여야 한다.</li> <li>전방향 무결성(Forward Integrity) : 전반향 무결성이란 이전의 모든 키가 노출되어 공격자가 그것을 알고 있다 하여도 과거의 데이터를 위조할 수 없는 성질로, 이미 한번 작성된 로그 데이터는 설사 본인이라 할지라도 추후에 이를 수정할 수 없다. 각 로그 데이터는 전방향 무결성을 만족하여야 한다.</li> <li>구현의 용이성 : 스마트기기는 PC에 비교하여 저성능의 CPU와 메모리, 저용량 저장장치를 가지고 있으므로, 스마트기기에서 사용하는 로그 데이터는 경량으로 구현이 가능하고 계산량이 충분히 작아서 스마트기기에 부담을 주지 않도록 효율적으로 생성할 수 있어야 한다.</li> <li>작은 저장공간 : 로그 데이터의 무결성과 안전성을 보장하기 위해서는 로그 데이터 이외에 이를 위한 부가 정보가 필수적이다. 이 부가 정보들은 스마트기기의 저장 공간을 가능한 작게 차지하여 쉽게 저장될 수 있어야 한다.</li></ol>
|
컴퓨터에서 프로그램 개발이나 시스템 운영 시 발생하는 문제점을 추적하거나 운영상태를 모니터링하기 위한 텍스트 형식의 데이터를 남기는 것을 로깅이라고 하는데, 대부분의 스마트기기 로그는 평문으로 되어 있어 누구나 열람할 수 있을 뿐 아니라 특정 이벤트 로그의 삭제, 추가, 삽입 등의 조작에 매우 취약한 상태이다. 일반적으로 컴퓨터 시스템에서 기존 로깅을 수정하여 암호학 기반의 부가 정보를 추가함으로써 로그의 불법 수정을 검출하거나 수정 자체를 방지하는 쪽으로 초점을 맞추어져 연구가 진행되었다. 로그 데이터는 각종 이벤트를 저장함으로써 특정 이벤트 발생 당시에 일어난 일들에 대한 근거를 제공하는데, 일반 컴퓨터 시스템의 로깅 방안은 로그 데이터 수정 방지, 작은 오버헤드, 전방향 무결성을 만족하면 되지만, 스마트기기에 적용가능한 로깅 방안은 그 특성에 따라 로그 데이터 수정 방지, 전방향 무결성, 구현의 용이성, 작은 저장공간의 조건을 만족하여야 한다.
|
<p>\( H_{m+}(z)=\frac{C_{m-1} \sum_{n-1}^{\mathrm{A}} b_{m}(n) z^{*}}{1-\sum_{m-1}^{R} a_{m}(n) z^{n}}, m=1,2, \cdots, 4 \)</p> <caption>(10)</caption> <p>여기서 \( a_{m}(n) \) 과 \( b_{m}(n) \) 은 각각 극점과 영점으로 구성된 계수이다.</p> <h2>2.3. 공통 극점과 영점 모델링</h2> <p>어떠한 공간의 여러 위치에서 임펄스 응답을 측정하였을 경우, 일반적으로 그 응답들의 극점은 거의 유사한 특성을 갖는다.즉 극점은 공간 자체의 특성에 의존하고 영점은 측정한 위치에 의존한다. 이러한 특성을 이용하여 Hancda 등은 청취 공간 임펄스 응답의 공통 극점을 추출하는 알고리즘을 제안 하였으며, 여러개의 HRIR에 대해서도 같은 방법을 적용하여 공통 극점과 영점으로 모델링 하는 알고리즘을 제안 하였다.</p> <p>이와 같은 공통 극점 추출 방법은 4 개의 간섭제거필터에 대해서도 적용이 가능하며, 이를 적용하여 간섭제거 필터를 모델링 하면 식(11)와 같이 정리될 수 있다.</p> <p>\( H_{m}(z)=\frac{C_{m}^{v} \sum_{n \cdot 1}^{\Omega} b_{n}(n) z^{-\mu}}{1-\sum_{n-1}^{\cap} a_{C A P}(n) z^{-n}}, n=1,2, \cdots, 4 \)</p> <caption>(11)</caption> <p>여기서 공통 극점으로 이루어진 필터 계수인 \( a_{C, M}(n) \)은 LS최적와 방법을 이용하여 추정할 수 있다.</p> <h1>III. 주파수 워핑과 공통 극점과 영점 모델링을 결합한 간섭제거필터 구현</h1> <p>앞서 설명한 바와 같이 공통 극점과 영점 모델링은 4개의 간섭제거필터의 극점 부분을 공통으로 이용함으로써 연산량을 감소시킬 수 있으며, 주파수 워핑 기술은 같은 차수의 간섭제거필터의 성능 향상을 가져옴으로써 공통 극점과 영점 모델링과 더불어 연산량 감소의 효과를 얻게 할 수 있다. 따라서, 본 논문에서는 위에서 언급한 주파수 워핑 기술과 공통 극점과 영점 모델링 기술을 결합한 구현 방법을 제안한다. 이를 위한 작업 수행 흐름을 그림2에 정리하였다.</p> <p>먼저 주파수 워핑 영역에서 설계하기 위해 각 머리전달 함수를 선 워핑하며, 그 후 식 (7)에 의해 간섭제거필터를 설계한다. 이렇게 설계된 필터는 공통 극점과 영점 모델링을 통하여 각 필터의 공통적인 극점 성분과 각 필터마다 다른 영점 성분으로 추출된다. 최종적으로 각 극점과 영점을 (8)과 (9)를 이용하여 선형 주파수 영역으로 디워핑하여 식 (12)와 같이 구현한다.</p> <p>\( H_{m}(z)=\frac{C_{m} \sum_{n v \mid}^{\Omega} b_{m }(n) z^{-n}}{1-\sum_{n-1}^{P} a_{m}(n) z^{n}}, \quad n=1,2, \cdots, 4 \)</p> <caption>(12)</caption> <p>이와 같이 설계 구현된 간섭제거필터는 주파수 워핑이 갖는 성능의 향상과 공통 극점과 영점 모델링이 갖는 연산량의 감소 능력을 갖는다.</p> <p>식 (10),(11),(12)를 이용하여 간섭제거필터 구현 시 극점과 영점의 차수를 다양하게 결정할 수 있다. 그러나. 과도하게 적은 차수로 결정할 경우 성능의 저하를 가져올 수 있기 때문에, 충분한 차수로 결정한다. 또한, 극점과 영점의 차수가 다를 경우에는 필터의 응답이 발산하는 경우가 발생할 수 있으므로 비슷한 수준으로 맞춰주는 것이 필요하다. 따라서, 본 논문에서는 극점과 영점의 차수를 각각 전체 차수의 절반인 N/2으로 결정하였다.</p> <p>제안한 방법과 이전의 다양한 방법들과의 연산량을 비교하기 위해서 구현 환경에 따라 다양한 비교를 할 수 있으나, 필터의 연산량을 비교하는 것이므로 단순히 필터 구현시 필요한 계수의 수를 나타내고 있다. 공통 극점과 영점을 이용하여 모델링 하였을 경우 극점 부분이 공통적으로 이용되기 때문에 적은 계수를 사용하여 간섭제거필터의 구현이 가능하다.</p> <p>제안된 방법 중 워핑 기술은 특별히 적은 치수의 필터를 요구하는 시스템에서 큰 효과를 가져오며, 치수가 충분할 경우에는 그렇지 못하다. 이는 필터의 차수가 충분할 경우에 전체 대역에 대해서 충분한 주파수 해상도가
|
공통 극점과 영점 모델링은 여러 위치에서 임펄스 응답을 측정하였을 경우에 유사한 특성을 가지며, 극점은 공간 특성에 의존하고 영점은 측정한 위치에 의존하는 특성을 가진다. 공통 극점과 영점 모델링은 4개의 간섭제거필터의 극점을 공통으로 활용해 연산량을 감소하며, 주파수 워핑 기술은 같은 차수의 간섭제거필터의 성능을 향상케 해 공통 극점과 영점 모델링과 함께 연산량 감소 효과를 얻는다. 그러므로 본 연구에서는 주파수 워핑 기술과 공통 극점과 영점 모델링 기술을 결합한 구현 방법을 제안했다.
|
태의 간접제거필터도 이와 유사한 길이로 구성되어야 한다. 따라서 시스템 구현에 있어서 상당한 연산량을 요구하는 시스템에는 적용되기 어렵다. 또한, 일반적으로 저주파 대역에서 동일 방향과 다른 방향의 음향 경로의 특성이 거의 비슷하여 음향 경로의 역함수 형태를 갖는 간섭제거기의 성능이 현저히 떨어진다.</p> <p>이러한 문제를 해결하기 위한 한 가지 방법으로 주파수 워핑을 이용한 효과적인 간접제거필터 설계 방법이 제안되었는데, 이는 주파수 축을 변형하여 저주파 대역의 해상도를 높임으로써 이 주파수 대역에서 보다 효율적으로 간접제거필터를 설계하는 방법이다. 이 방법은 일반적인 음향 신호의 분포 정도를 고려하여, 분포가 낮은 고주파에서의 어느 정도의 성능을 감수하는 대신 적은 차수로 유사한 저주파 성능을 보장한다. 그러나, 이 방법은 필터 구현 시에 지연 소자를 전역통과 소자로 대체하여야 하기 때문에, 추가적인 연산량이 필요하게 된다. 이러한 단점을 보완하기 위해 워핑 영역에서 설계된 필터를 극점-영점 디워핑을 통해 전형 영역으로 변환한 후, 필터를 효율적으로 구현하는 방법이 제안되었다.</p> <p>한편, 특정한 청위 공간의 다양한 위치에서 측정된 전달 함수는 공통적인 극점을 갖고 영점은 오직 측정 위치에 영향을 받는다는 원리를 이용하여, 청취 공간 전달 함수를 공통 극점과 각각의 영점으로 모델링하는 공통 극점과 영점 모델링이 제안되었으며, 이후 유사한 방법으로 머리전달 함수의 공통 극점을 추출하는 방법이 제안되었다. 이 방법을 적용한 효율적인 청취공간평활 기술이 제안되기도 하였으며, 마찬가지로 간접제거기에도 이를 적용하여 효율성을 향상시킬 수 있다.</p> <p>본 논문에서는 위에서 언급한 두 가지의 방법을 함께 적용하는 간접제거기의 설계 및 구현 방법을 제안한다.</p> <p>먼저 주파수 워핑 방법을 통해 워핑 영역에서 간접제거기를 설계하며,설계시에 공통 극점과 영점 모델링을 재차 적용한다. 그리고, 디워핑을 통해 선형 영역에서 필터를 구현한다. 제안된 방법은 주파수 워핑이 갖는 성능 향상의 장점과 공통 극점과 영점 모델링을 통한 연산량의 감소가 결합되어 매우 적은 연산량으로 종해의 성능을 제공할 수 있으므로, 휴대용 기기 등의 저연산량을 요구하는 시스템에의 적용을 용이하게 해줄 수 있다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서는 간섭제거필터의 설계 방법, 주파수 워핑, 공통 극점과 영점 모델링 등의 배경 기술엥 대해 설명한다. 3장에서는 주파수 워핑과 공통 극점과 영점 모델링을 결합한 새로운 방법을 제안하며, 구현 시 고려해야 할 문제들에 대해 언급한다. 그리고, 4장에서는 성능 검증을 위한 다양한 실험을 제공하며, 마지막으로 5장에서 결론을 내린다.</p> <h1>II. 배경 연구</h1> <h2>2.1. 간섭제거필터 설계</h2> <p>그림 1은 가장 기본적인 Atal-Schrocder의 간섭제거 필터의 블록도를 나타내며, 간섭제서 문제는 식 (1)과 같이 벡터와 행렬로 표현된다.</p> <p>\( \begin{aligned} {\left[\begin{array}{cc}\hat{\mathbf{d}}_{L} & \mathbf{0} \\ \mathbf{0} & \hat{\mathbf{d}}_{R}\end{array}\right] } &=\left[\begin{array}{ll}\mathbf{A}_{1}^{L} & \mathbf{A}_{2}^{L} \\ \mathbf{A}_{1}^{R} & \mathbf{A}_{2}^{R}\end{array}\right]\left[\begin{array}{ll}\mathbf{h}_{1} & \mathbf{h}_{3} \\ \mathbf{h}_{2} & \mathbf{h}_{4}\end{array}\right], \\ \hat{\mathbf{D}} &=\mathbf{A} \mathbf{H}, \end{aligned} \)</p> <caption>(1)</caption> <p>여기서 청취자의 왼쪽 귀에 전달되는 응답은 \( (M+N-1) \) \( \times 1 \) 의 벡터인 \( \dot{d}_{t}=\left[\dot{d}_{t}(0), \dot{d}_{i}(1) \cdots, \dot{d}_{t}(M+N \cdot 2)\right]^{\prime}, \)로 정의되며, \( \hat{\mathbf{d}}_{n} \) 도 유사한 형태로 정의된다. 0은 이와 같은 길이의 0으로 구성된 벡터이다. 행렬 \( \mathbf{A}_{1}^{\prime} \) 은 스피커 1과 왼쪽 귀 사이의 임펄수 응답인 HRIR로 구성된 \( (M+N-1) \times N \)의 행렬이며, 식 (2)와 같이 정의되며, \( \boldsymbol{\Lambda}_{1}^{R}, \mathbf{\Lambda}^{L}, \mathbf{A}^{R} \) 등도 유
|
주파수 워핑을 이용한 간접제거필터 설계 방법은 주파수 축을 변형하여 저주파 대역의 해상도를 높여주는 보다 효율적인 설계 방법이다. 하지만, 필터 구현 시에 지연 소자를 전역통과 소자로 대체해야 하기 때문에, 추가적인 연산량이 필요하다는 단점이 있는데 이것을 보완하기 위해 워핑 영역에서 설계된 필터를 전형 영역으로 변환한 후, 필터를 효율적으로 구현하는 방법이 제안되었다. 이 방법은 아주 적은 연산량으로 종해 성능 제공이 가능하기 때문에 저연산량을 요구하는 시스템에 쉽게 적용할 수 있다.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.