passage
stringlengths 5
922k
| summary
stringlengths 0
10.2k
|
---|---|
<h1>III. 기존 시스템 분석 및 제안 시스템의 구성</h1> <p>다음은 기존 기술들에 대한 분석을 통하여 차량진단 및 모니터링 서비스에 대한 여러 가지 기능을 제안한와이브로 휴대기기를 사용한 차량진단 및 모니터링 기술의 전체적인 구성요소와 흐름에 대하여 살펴본다.</p> <h2>1. 기존 방식과의 비교</h2> <p>차량 진단 및 상태 모니터링 방법은 크게OBD-II 를 이용하여 차량 통신을 통해 데이터를 수집하는 방법과 차량 엔진룸의 장치와 직접 차속 및 RPM 등을 유선으로 연결하여 사용하는 방법이 있나. 후자의 경우 전문 지식이 없는 일반 사용자가 사용하기 어려우며 법제화 규정이 없기 때문에 네이터 검중 또한 어려운 점이 있다. 그러나OBD-II를 통한 차량 진단 방법도 모니터링을 위해 별도의 단말기를 설치해야 하거나 운행정보 위주의 데이터만을 서비스 하고 차량 고장 및 이상에 대한 서비스는 미야하다. 또한 복잡한 네트워크 구성으로 추가적인 단말기 비용 및 서비스 비용이 고가라는 단점이 있다. 이에 본 연구에서는 차량 정보 수집 장치를OBD-II커넥터에 접속만으로 개인용 와이브로 휴대기기에 내장된 불루투스 무선통신으로 접속되어 차량 진단 서비스가 가능하다.</p> <h2>2. 연구 고찰한 전체 시스템 구성</h2> <p>그림 2.는 와이브로 휴대기기를 사용한 차량진단 및 모니터링 기술의 전체 시스템 구성도를 나타낸다. 본 연구범위는 차량내의 OBD-II 커녝터블 통하여 차량에 장착되는 차량 정보 수집 장치와 차량 정보 모니터링 및 차량 데이터를 와이브로망을 봉해 차량 관리 서버로 전송하기 위한 와이브로 휴대기기로 이루어졌다.차량 정보 수집 장치는 차량의 정보 데이터를 수집하고 블루투스로 연결된 와이브로 휴대기기를 봉해 차량정보 데이터를 실시간으로 재공한다. 또한 휴대기기의 와이브로망을 봉해 차량 정보 관리 서버로 차량 데이터전송이 가능 한다.</p> <h3>가. 차량 정보</h3> <p>차량의 엔진, 트랜스미션, 브레이크, 에어백 등의 제어와 상태 모니터는 차량에 장착된 ECU(Electronic Control Unit)에 의하여 기능이 수행된다. ECU는 자동차의 기능과 성능에 따라 장착되는 수량과 기능이 다르나, 표준화된 OBD-II 커넥터를 퉁하여 차량정보 수집및 진단과 점검을 위한 외부기기와 연결을 가능하게 pin으로 구성되어 있고 실제 사용하는 pin은 9개로써 각각의 차량 통신 방식을 지원한다.</p> <h3>나. 차량 정보 수집 장치</h3> <p>차량 정보 수집 장치는 크게 차량 정보 수집 기능과 차량 정보 데이터 전송을 위한 블루투스 기능으로 나누 어진다. OBD-II 커넥터에 연결되어 표준화 된 VPW-PWM, CAN, ISO 통신 방식의 차내 통신망을 통하여 차량내의 ECU와 접속하여 ECU 가 제어하거나 관리하는 정보를 실시간으로 수집 및 분석, 가공하여 저장하고 이후 와이브로 휴대기기의 운행정보 요청이나차량의 고장, 이상 발생 시 와이브로 휴대기기와 블루투스 퉁신을 통해 데이터를 전송하고 진동이나 벨소리로 운전자에게 알림 정보를 주거나 차량 정보를 디스플레이 한다.</p> <h3>다. 와이브로 휴대기기</h3> <p>와이브로 휴대기기는 최초 차량 진단 프로그램을 탑재하고 실행함으로서 차량 겅보 수집 장치와의 연동이 시작된다. 상호간은 블루투스로 연견이 되며 차량 정보 수집 장치로부터 차량 운행에 관련 된 정보를 수신 받아 저장 및 디스플레이 한다. 또한 저장 된 차량 정보 데이터를 와이브로를 통해 차량 관리 서버로 전송이 가능하고 이후 차량 관리 서버에서는 전송받은 차량 데이터를 기준으로 가공하여 차량 이력을 관리하고 사용자의 웹을 통한 조회를 통해 이력 정보 및 통계, 지표 정보를 제공한다.</p> <h2>3. 자료 서비스 흐름</h2> <p>그림 3.은 와이브로 휴대기기를 사용한 차량진단 및 모니터링 시스템의 자료 서비스 흐름을 나타낸다. 자료 서비스 순서도를 기반으로 과정을 설명하면 아래와 같다.</p> <p>첫째, 차량내의 OBD-II 커넥터에 차량 정보 수집 장치를 접속한다. 와이브로 휴대기기에는 차량 진단 프로그램을 탑재하고 차량 정보 수집 장치와의 블루투스 연동 및 차량 등록과정을 수행한다. 둘째, 차량 정보 수집장치는 차량으로부터 차량 데이터를 주기적으로 수집 및 분석, 가공하여 저장을 하고 와이브로 휴대기기의 정보 요청 시에는 저장된 차량 정보를 블루투스를 통해 전송한다. 또한 차량에서 고장코드(DTC : Dynamic Traction Control) 발생이나 기준값을 초과하는 이상 상태 값(배터리 저전압, 고전압, 냉각수 온도, 엔진 오일 온도 이상 둥) 발생 시에도 와이브로 휴대기기로 차량 위험을 알리는 이벤트 데이터를 송신한다. 셋째, 와이브로 휴내기기에서 차량 정보 수집 장치로부터 수신 받은 운행, 고장, 이상 정보를 화면에 디스플레이하고 고장코드, 이상 상태 이벤트 발생 시에는 휴대기니의 진동이나 벨소리를 통해 알림 메시지를 표시한다. 또한 기기에 저장된 차량 정보 데이터를 와이브로망을 통해 관련 서버로 전송이 가능하다.</p>
|
차량 정보 수집 장치를 OBD-II 커넥터에 접속하면 개인용 와이브로 휴대기기 불루투스 무선통신으로 접속되어 차량 진단 서비스가 가능해지는데, 차량정보 데이터를 실시간으로 재공한다. 와이브로 휴대기기를 사용한 차량진단 및 모니터링 시스템은 먼저 OBD-II 커넥터에 차량 정보 수집 장치에 접속 후에 주기적으로 차량데이터를 수집,분석,가공한 후 블루투스를 통해 전송하는데 고장, 이상 정보가 수신되면 휴대기기를 통해 알림 메시지를 표시한다.
|
<h1>I. 서 론</h1> <p>우리나라의 자동차 산업은 날로 발전을 거듭하여 연간 자동차 생산량으로는 세계 5 위를 기록하고 있으며, 국내 자동차 등록대수는 1600 만대가 넘어 인구 약 3 명당 1 대를 보유하고 있다. 한편, IT기술 경쟁력은 세계 3위로 세계최고의 통신 인프라와 무선통신 및 단말 기술을 보유하고 있으며, 세계최고의 IT 서비스 테스트배드 환경이 구축되어 있으며 최신의 자동차 - IT 융합기술이 발표되고 있다. 또한 IT 기술을 자동차에 적용하여 사고를 줄이고 안전하고 경제적인 운전을 이루기 위하여 자동차 및 텔레매틱스 업계의 다양한 시도가 진행되고 있다.</p> <p>현재 국내의 텔레매틱스 시장에 차량 고장진단 장치의 개발과 판매가 진행되고 있으나, 시장 형성이 거의 이루어지지 않은 상태이다. 이는 제품과 서비스에 대한 인식이 부족한 면도 있지만 판매되고 있는 제품의 경우 별도의 차량용 전용 단말기가 차량에 장착되어 오프라인으로만 사용할 수 있게 되어 있어 점점 결과와 운행기록 등을 알기 위해서는 운전자가 데이터를 별도의 장치로 이동해야 하는 번거로움으로 인하여 특별히 차량에 관심을 갖는 극소수의 운전자 외에는 접근하기가 매우 어려운 면이 있다.</p> <p>그동안 보통의 차량운전자는 차량의 결함 지시등인MIL(Malfunction Indicator Lamp)를 통하여 차량의 이상을 감지하거나 차량 고장의 발생으로 정비소에 방문 수리를 하는 형태를 취하였었다. 그러나 이러한 사후처방의 문제점은 대부분의 운전자들이 차량의 고장이나 이상 상태를 적시에 감지하지 못하고 차량의 이상 또는고장이 발생한 이후에 차량 정비를 수행해야 하는 문제점을 가지고 있다. 일반적으로 자동차는 엔진제어장치,변속제어장치, 제동제어장치, 현가제어장치 등의 전자제어 장치와 기계 구조물이 결합된 첨단 장치로 구성되며, 전자제어장치는 자동차의 각 부분에 설치되어 있는 센서들로부터 차량의 제반적인 상태정보를 입력받아 판단한 다음 이를 바탕으로 차량의 각 부분에 대하여 보다 효율적으로 제어하여 안정된 주행성과 저연비 및 쾌적한 승차감을 제공하는 기능을 수행하고 차량의 고장이나 이상 발생 시에는 운전자는 반드시 전문 진단 장비인 스캐너(Scanner)가 구비되어 있는 정비업소를 방문 하여야만 해당 자동차의 엔진제어장치나 변속제어장치또는 자기진단유닛에 저장된 자기진단 데이터률 판독하여 자동차의 이상여부를 진단한 후 해당 부분의 부품교체나 수리 등의 정비가 가능하며, 자기진단 데이터의 분석에 있어 전문적인 지식을 갖추고 있어야만 차량의 이상여부를 진단 할 수 있는 문제점이 있다.</p> <p>따라서 이를 극복하기 위해서는 자동차에 내장된 In-Vehicle Network와 개인이동통신 네트워크 및 인터넷 인프라를 연계하여 사용자 중심의 서비스가 이루어 지게되면, 차량에서 발생되어 수집된 각종 정보를 바탕으로 차량 상태의 실시간 모니터링은 물론 차량의 운행 기록, 고장, 이상 상태, 운전패턴 분석 등을 퉁해 운전자의 안전운전, 경제운전 등의 서비스를 제공받게됨으로써 차량에 대한 지식이나 상식이 부족한 모든 운전자에게 실질적인 편리함과 도움을 줄 수 있을 것이다.</p> <p>이러한 문제점을 해결하고 서비스를 제공하기 위해 ,본 연구에서는 차량내의 OBD-II(On-Board Diagnostics) 를 통한 차량 내부 ECU(Electronics Control Unit)와 접속하여 차량 정보를 획득하는 차량 정보 수집 장치와 개인의 와이브로 휴대기기를 통해 차량 진단 및 차량 정보의 모니터링이 가능한 기술을 연구하였다.</p>
|
운전자는 차량의 결함을 미리 감지하기 어려우며, 차량에 결함이 발생했을 시에는 정비업소를 방문하여 자가진단 데이터를 분석 및 정비를 받아야만 하는 문제점이 있다. 본 연구에서는 이러한 문제점을 해결하기 위해 차량 내 OBD-II를 통해 전자제어장치에 접속하는 정보 수집 장치와 개인 와이브로 휴대기기로 차량 모니터링이 가능한 기술을 연구하였다.
|
<h1>II. 상태 자료 공유 연동풀랫폼 요구사항</h1> <p>원래 차량내의 OBD-II커넥터는 미국에서 배기가스 규제용으로 개발된 정보수집을 위한 장치로 개발되었으 나 일반적으로는 자동차의 진단을 위한 정보수집 장치로 주로 사용되고 있다. 미국은 1996 년 이후부터 생산되는 모든 차량에OBD-II커넥터를 의무 장착하고 국내는 2000 년 이후 판매되는 차량에 의무 장착을 하고 있다.</p> <p>그림1 은 차량내의 장치가OBD-II커넥터와 연결된 블록도를 보여주고 있다. 차량내의 각종 전자 제어장치는 차량의 각각의 부분에 설치되어 있는 센서들로부터 차량의 상태정보를 입력받으며, 이러한 상태정보는OBD-II커넥터를 통하여 외부에서 수집이 가능하다.</p> <p>차량진단 및 모니터링을 위한 기존 기술은 OBD-II를 통해 차량을 진단하기 위한 장치 외에 차량 정보 데이터 전송을 위한 서버와의 연동을 위해 CDMA 모뎀을 내장한 별도의 단말기를 사용하거나 근거리 무선 퉁신율 위한 별도의 AP(Access Point)블 설치하는 복잡한 네트워크 구성을 가지고있다.</p> <p>복잡한 네트워크 구성으로 인해 하드웨어 비용이 증가하는 문제점이 있으며 CDMA 모뎀이 내장된 경우에는 이동통신사의 별도 가입을 해야 하는 등 추가 비용이 발생하고 차량 진단 장치와 유선으로 연결하는 경우와이어링 하네스에 의한 각종 노이즈가 유입되어 커넥터 내구성에 의한 고장의 우려가 있다.</p> <p>이러한 어려움을 해결하고자 본 연구에서는 차량에 탑재되는 차량 정보 수집 장치와 운전자가 사용 중인 개인의 와이브로 휴대기기로 차량 진단 및 모니터링이 가능한 시스템을 구성 하였고, 다음 기능을 제공하는것을 목적으로 한다.</p> <h2>가. 요구사항</h2> <p>- In-Vehicle Network 통신 기능</p> <p>- 차량 정보 수집 기능</p> <p>- 차량 데이터 전송을 위한 차량 정보 수집 장치와 개인 와이브로 휴대기기와의 블루투스롤 통한 연 동 기능</p> <p>- 차량 정보 모니터링을 위한 와이브로 휴대기기의 디스플레이 기능</p> <h2>나. 기대효과 및 활용방안</h2> <p>- 차량의 운행, 고장, 이상상태 알림 및 정보수집</p> <p>- 와이브로 휴대기기를 통한 실시간 차량 운행, 고장,이상 상태 알림으로 안전 및 경제 운전 도모</p> <p>- 차량 데이터의 와이브로를 통한 차량 관리 서버 전송에 의한 차량 정보의 이력, 상태 관리</p> <p>- 차량과 와이브로 휴대기기간의 양방향 자료 연동 플랫폼</p> <p>- 차량운행 정보 및 상태 정보의 다양성 확보</p>
|
OBD-II커넥터는 미국에서 개발된 정보수집장치로, 배기가스 규제를 위해 개발됐다. 일반적으로는 자동차의 진단을 위한 정보수집 장치로 주로 사용되고 있으며, 차량에 탑재되는 차량 정보 수집 장치와 운전자가 사용 중인 개인의 와이브로 휴대기기로 차량 진단 및 모니터링이 가능한 시스템을 구성 하였다. 요구사항의 4가지와 기대효과 및 활용방안 5가지를 제공하는 것을 목적으로 한다.
|
<h2>5.2 InExp의 계산량 감소</h2> <p>이 실험은 InExp의 계산량 감소 방안의 효율성에 대한 실험으로, 폐암 데이터 집합에 존재하는 1538 개의 단백질 중 7개 이상의 환자 조직에서 쌍으로 나타난 단백질 612개에 대해서 수행하였다. 즉, \( \% \)Vol의 값에 관계없이 \( P P C_{r} \)의 크기가 7이상인 총 612개의 PairID를 실험 데이터로 하였다. (그림 6)는 발현량 변화의 임계값 x=1.5로 하고, SelfExp의 임계값 \( \tau \)를 0.5로 하였을 때, InExp계산량에 대한 감소 효과를 나타낸 그래프이다. 계열 Pre-InExp는 현재 데이터 큐브의 셀에 대해서 InExp을 계산할 대상 셀의 비율을, Real-InExp계열은 실제 InExp인 셀의 비율을 나타낸다. 실험에서 차원 Gender, Smoke, PFT에 대한 InExp을 계산하기 위해 모든 셀을 탐색할 필요 없이 전체 셀의 75~80\( \% \)의 셀만을 탐색하여 \( 20 \% \) 이상의 계산량을 감소시킬 수 있었다.</p> <h2>5.3 데이터 큐브의 탐색</h2> <p>(그림 7)은 앞 절의 실험에서 사용한 폐암 데이터로 PairID에 의한 1차원 데이터 큐브의 일부를 나타낸 것이다. 큐브의 셀에 나타낸 척도는 U_cnt, G_cnt, O_cnt이며, 정상과 비정상 조직에서의 단백질이 1.5배 이상 발현량 변화가 있는 경우를 변화가 있다고 판단하였다. 그림에는 예외 지표의 임계 값 \( \tau \) 를 0.5로 하였을 때의 SelfExp을 나타내었다. 이 그림에서, 703, 1210 , 1313, 1450, 1574번 PairID는 Under-expressed protein으로 판단되었고, 879,1064,1306번 PairID는 Over-expressed protein으로 판단되었음을 나타낸다.</p> <p>(그림 8)은 위와 같은 데이터 큐브에서 각 차원 별 InExp을 나타낸다. 데이터 큐브의 제시한 일부만 보았을 때는 성별, 흡연, PFT 차원으로 drill-down하는 것이 하위 레벨에 더 의미 있는 셀이 많은 것을 알 수 있다. 위 실험에서는 Under-expressed인지 Over-expressed인지의 판단만을 나타냈으나, 음영의 밝기나 색을 달리 하여 예외의 정도를 나타낼 수도 있으며, 정의 5의 x값이나 예외 지표의 임계값 \( \tau \)를 변화하여 보다 상세한 분석이 가능하다. 이와 같은 데이터 큐브의 상세 분석을 통해 수 백 여 개의 단백질 데이터 중에 생화학적인 추가 분석에 의미가 있다고 생각되는 단백질들의 우선순위를 제시할 수 있으며, 데이터 큐브의 탐색 연산에 의해 임상 정보와 질병 의존 단백질 간의 상관관계도 분석 가능하다. 본 논문에서 제안한 방법은 많은 조직 내에 존재하는 수 천 개 이상의 단백질을 임상 정보와 연계하여 보다 체계적이고 효율적으로 분석할 수 있으며, 상세한 분석이 필요한 단백질의 우선순위를 제공할 수 있다는 점에서 의미를 갖는다.</p>
|
InExp의 계산량 감소 방안의 효율성에 대한 실험에서 모든 셀을 탐색할 필요 없이도 계산량을 감소시킬 수 있었다. 데이터 큐브에 일부만 보면, drill-down을 통해 하위 레벨에 의미 있는 셀이 많은 것을 알 수 있었다. 제안된 방법으로 단백질의 임상 정보와 연계해 체계적인 분석을 했으며, 상세한 분석이 필요한 단백질의 우선순위를 제공했다.
|
<h2>3.3 데이터 큐브의 차원과 척도</h2> <p>차원은 각 요약 레벨을 지정하는 계층과 관련되어 있다. 예를 들어, 임상 정보를 나타내는 차원의 계층 구조는 다음의 (그림 3)와 같이 나타낼 수 있다.</p> <p>제안하는 데이터 큐브는 임상 정보를 포함하기 때문에 질병에 의한 발현량 변화 분 아니라 임상 특성에 따른 영향도 분석 가능하다. 예를 들어, 임의의 단백질이 폐암에 의해 발현량이 증가하기도 하고 감소하기도 한다면, 폐암에 대한 마커 단백질로 판단하기 어려우나, Smoker에서는 증가하고 Non-Smoker에서는 감소했다면 임상(흡연)과 관련한 의미있는 분석이 가능하다.</p> <p>기존의 통계적 방법은 정상 단백질 발현량과 비정상 단백질 발현량의 차(delta)를 이용하므로, 외부 변화 요소에서 오는 단백질의 발현량과 관계 없는 미약한 발현량 차이도 단백질 발현량의 변화로 취급하게 된다. 그러나, 이러한 미약한 차이를 배제하기 위해서 본 논문에서 데이터 큐브의 척도는 발현량 변화를 차이가 아닌 배수를 이용하며, 다음과 같이 정의한다.</p> <h3>[정의 4] 단백질의 발현량 변화</h3> <p>\( \left(s_{j}, s_{k}\right) \in P P C_{r} \)에 대해서, \( s_{j} \)를 정상 조직의 젤 이미지 내의 스팟이라 하고, \( s_{k} \)를 비정상 조직의 젤 이미지 내에 있는 스팟이라 할 때, PairID r에 해당하는 임의의 단백질의 발현량 변화를 다음과 같이 정의한다. (앞으로 기호 s는 스팟 s가 나타내는 단백질을 의미하는 것으로 한다.)</p> <p>\( R_{-} \operatorname{ExpLevel}\left(s_{j}\right)=\frac{\operatorname{ExpLevel}\left(s_{k}\right)}{\operatorname{ExpLevel}\left(s_{j}\right)+\operatorname{ExpLevel}\left(s_{k}\right)} \)</p> <p>프로테옴 데이터 큐브의 분석 목표는 질병에 의해 발현량이 증거하거나 감소하는 단백질을 도출하는 것이다. \( R_{-} \)ExpLevel(S)는 0에서 1사이의 값을 가지며, 정상 조직 내의 단백질의 발현량과 비교하여 \( R_{-} \operatorname{ExpLevel}(S)>0.5 \)이면 비정상 조직 내의 단백질의 발현량이 증가했음을 나타내고, \( R_{-} \operatorname{ExpLevel}(\mathrm{s})<0.5 \)이면 비정상 조직 내의 단백질의 발현량이 감소했음을 나타낸다. 그러나, 단백질의 발현량과는 관계가 없는 외부 변화 요소에 의해 젤 이미지 간의 변이가 존재하므로, 단백질 발현량의 미미한 변화는 질병에 의한 변화로 보기 어렵다. 따라서 정상 조직내의 단백질의 발현량과 비교하여, 암 조직 내의 단백질의 발현량이 x배 이상이면 발현량이 증가했다고 판단하고, 1/x배 이하이면 발현량이 감소했다고 판단한다.</p> <h3>[정의 5] 단백질 발현량의 변화 양상</h3> <p>단백질 발현량의 변화는 \( R_{-} \operatorname{ExpLevel}(\mathrm{s}) \)의 값이 \( \frac{x}{x+1} \)보다 크면 발현량이 증가했다고 판단하고, \( \frac{1}{x+1} \)보다 작으면 감소했다고 판단한다.</p> <ul> <li>s : Under-expressed protein. if, \( R \) ExpLevel \( (s) \leq \frac{1}{x+1} \).</li> <li>s : General protein. if, \( \frac{1}{x+1}<R \operatorname{ExpLevel}(s)<\frac{x}{x+1} \).</li> <li>s : Over-expressed protein. if, \( R \operatorname{ExpLevel}(s) \geq \frac{x}{x+1} \).</li></ul> <p>실제로 생물학적 분석 실험에 있어서 \( 25 \% \)이내의 발현량 변화는 생물학적으로 중요하지 않다고 판단하며 발현량의 차이가 1.5배, 2배, 또는 3배 이상인 경우를 발현량에 변화가 있다고 판단한다. 데이터 큐브의 각 셀은 다수의 pairwise pairing class들의 집계값인 척도로 표현되며 다음과 같이 정의할 수 있다.</p> <h3>[정의 6] 단백질의 발현량 변화를 분석하기 위한 데이터 큐브의 척도</h3> <p>n차원의 데이터 큐브에 대해서, l번째 차원 \( d_{l}(1 \leq l \leq n) \)의 \( i_{l} \) 위치의 척도를 다음과 같다.</p> <ul> <li>\( U_{-} c n t_{i_{1} i_{2}, i_{n}}: i_{1} i_{2} \ldots i_{n} \) 위치의 셀에서 Under-expressed protein의 수.</li> <li>\( G_{-} c n t_{i_{1} i_{2}, i_{n}}: i_{1} i_{2} \ldots i_{n} \) 위치의 셀에서 General protein의 수.</li> <li>\( O_{-} c n t_{i_{1} i_{2} . i_{n}}: i_{1} i_{2} \ldots i_{n} \) 위치의 셀에서 Over-expressed protein의 수.</li></ul>
|
미약한 발현량 차이를 배제하기 위해, 본 논문에서는 발현량의 배수를 척도로 활용하였으며 데이터 큐브의 척도를 다음과 같이 정의하였다. PairID r에 해당하는 임의의 단백질의 발현량 변화를 정의하고, \( \frac{x}{x+1} \)를 기준으로 변화값인 \( R_{-} \operatorname{ExpLevel}(\mathrm{s}) \)이 기준보다 크면 발현량이 증가했다고 판단하고, 기준보다 작으면 감소했다고 판단하였다. n차원의 데이터 큐브에 대한 척도 또한 정의하였다.
|
<h1>2. 관련 연구</h1> <p>서론에서 기술한 것처럼, 단백질의 발현량 변화를 검출하기 위한 방법에는 직접 눈으로 2-DE 젤 이미지 내의 스팟을 확인하는 방법 외에 통계적 방법과 그래픽을 이용한 분석 방법이 있다. 전자는 단백질의 발현량 변화 분석에 대표적으로 사용되는 방법이고, 후자는 상용 이미지 분석 소프트웨어에서 제공하는 분석 툴을 이용한 방법이다.</p> <p>통계적 방법의 주된 특징은 두 모집단 간에 차이가 존재 할 확률을 구하는 것이다. 여러 샘플에서 추출한 정상 조직과 비정상 조직에 존재하는 다수의 단백질 중에서 발현량의 변화가 있는 단백질을 찾는 통계적 접근 방법에는 다음의 두 가지가 있다. 하나는 정상 조직들 내의 임의의 단백질 집합과 비정상 조직들 내의 해당 단백질 집합의 발현량 변화를 비교하는 방법이고, 다른 하나는 각 샘플에서 추출한 정상 조직 내의 임의의 단백질과 비정상 조직 내의 해당 단백질을 샘플별로 쌍으로 하여, 전체 샘플에서 해당 단백질의 발현량 변화를 비교하는 방법이다. 전자는 독립된 두 군 간의 평균 비교로, Mann-Whitney test, Sign test, Student's t-test등의 통계적 방법을 적용할 수 있다. 그러나, 단백질 데이터의 특성 상 정상 조직에 속하는 임의의 단백질에 해당하는 스팟의 집합과 비정상 조직에 속하는 해당 단백질의 스팟 집합을 평균적으로 비교하기에는 스팟 농도에 있어서 서로 다른 샘플에서 추출한 이미지 간의 변이가 매우 크므로, 이 방법은 적합하지 않다. 즉, 정상 조직에서 추출한 이미지들 내의 스팟들 간의 분산이나, 비정상 조직에서 추출한 이미지들 내의 스팟들 간의 분산이 크므로 이들을 평균적으로 비교하는것은 부적합하다. 후자는 한 샘플에서 추출된 정상과 비정상 조직 내의 단백질을 서로 매치하고, 쌍을 이룬 각 샘플을 모두 매치함에 의해 생성된 쌍을 이룬 두 집단을 비교하는 것으로, Paired t-test방법이 있다. 매치 과정을 통해서 임의의 단백질을 나타내는 각 젤 이미지 내의 스팟들은 일관된 매치 넘버를 갖게되며, 같은 매치 넘버를 가진 스팟들의 농도값을 이용해 통계적 분석이 이루어진다. 여기서는 실험에 쓰이는 데이터가 정규 분포를 이루지 않으므로, Wilcoxon nonparametric aired t-test방법이 적합하다. 이 방법은 쌍을 이룬 단백질의 발현량 차이의 크기를 증감 별로 순위를 취하여 두 집단 간의 변화를 비교하는 것이다.</p> <p>Melanie Ⅲ와 Progenesis는 잘 알려진 상용 이미지 분석 소프트웨어 패키지이다. 이것들은 발현량이 변하는 단백질의 분석을 위해 Student t-test, Wilcoxon or Mann-Whitney test, Kolmogorov test와 같은 몇몇 통계적 방법을 제공함과 함께 그 외에 다양한 그래픽적 분석 방법을 제공한다. 이론적으로 2-DE 젤 이미지의 분석에 있어서, 그래픽을 이용한 분석 방법이나 통계적 방법으로 잠재적 마커 단백질을 도출하는 것이 가능하지만, 하나의 2-DE 젤 이미지에는 평균적으로 천개 이상의 스팟이 존재하므로 개개의 스팟에 대해 일일이 분석하여 발현량이 변하는 단백질을 도출하기는 어렵다. 따라서, 많은 수의 스팟 정보를 효율적으로 다루기 위해서는 2-DE 기반의 데이터베이스 구축이 필수적이며, 데이터베이스를 이용한 새로운 분석 방법이 필요하다.</p> <p>OLAP의 대표적인 데이터 모델이 데이터 큐브로 알려진 다차원 데이터베이스이다. 데이터 큐브는 데이터를 다차원으로 모델링하고 보여 지도록 하며, 테이블의 스타 스키마로부터 만들어진다. 스타 스키마의 가운데에는 사실 테이블(fact table)이 있고, 사실 테이블로부터 몇몇 차원 테이블(dimension table)이 연결되어 있다. 이 테이블들은 관계 데이터(relational data)의 집합들(aggregations)을 어떻게 분석할 지를 나타낸다. 데이터 큐브에서, 데이터는 OLAP 시스템의 다차원 데이터 큐브에 요약되어 저장된다. 데이터 큐브의 계층에 따른 정보는 dril-down, roll-up, slice, dice등과 같은 OLAP 연산에 의해 탐색된다. 이와 같은 연산이 분석자로 하여금 데이터 큐브를 탐색 가능하게 하지만, 데이터 큐브에서 의미가 있는 어떤 부분에 도달하도록 지원하지는 않는다. 따라서 분석자는 자신의 가정을 기초로 데이터의 예외나 이례적인 부분을 찾는다. 이러한 데이터 큐브의 hypothesis-driven 탐색은 사용자가 데이터 큐브 내의 각 계층의 데이터를 일일이 탐색하며 예외를 찾는 것은 지루한 작업이다. 게다가 하위 레벨에 예외 데이터가 있다 하더라도 해당 레벨에서는 예외로 나타나지 않을 수도 있다. 결국 예외가 발생하더라도 분석자가 그 예외를 발견하지 못할 수도 있다.</p> <p>“Discovery-driven" 방법은 데이터 큐브의 각 레벨에서 발생하는 예외를 정의할 수 있는 미리 계산된 지표에 의해 데이터 큐브의 탐색을 지원하여, 데이터 큐브의 임의 레벨에서 데이터 예외를 도출할 수 있도록 한다. 미리 계산된 지표는 데이터 큐브의 각 셀의 값이 통계적으로 기대되는 값과 크게 차이가 나는 경우 예외를 나타낸다. 특히 차원의 수가 많거나 데이터 큐브의 계층이 복잡한 경우, 수동으로 데이터 큐브를 탐색할 때의 한계를 크게 줄일 수 있다.</p>
|
단백질의 발현량 변화 검출을 위한 방법으로 직접 눈으로 2-DE 젤 이미지 내의 스팟을 확인하는 방법과 그래픽을 이용한 분석 방법과 통계적 방법 등이 있다. 이론적으로는 잠재적 마커 단백질을 도출하는 것이 가능하지만, 하나의 2-DE 젤 이미지에는 평균 천개 이상의 스팟이 있어서 각각 스팟을 일일이 분석해 발현량이 변하는 단백질을 도출하기는 어렵기 때문에 효율적으로 많은 수의 스팟 정보를 다루려면 2-DE 기반의 데이터베이스 구축이 필수적이고 새로운 분석 방법이 필요하다. 데이터 큐브는 다차원으로 데이터를 모델링해 보여지게 하며 테이블의 스타 스키마에서 만들어지고 “Discovery-driven" 방법은 데이터 큐브의 각 레벨에서 생기는 예외를 정의할 수 있게 미리 계산된 지표에 의해 탐색을 지원하고 임의 레벨에서 예의를 도출하게 해준다.
|
<h1>3. 단백질의 발현량 변화 분석을 위한 데이터 큐브</h1> <h2>3.1 2-DE 젤 이미지의 스팟 정보</h2> <p>2-DE는 조직의 샘플로부터 단백질을 분리하는 데 널리 사용되는 기술로, 전기 영동 방법으로 단백질을 분리하며, 그 결과는 각 단백질이 스팟으로 표현된 2차원 젤 이미지이다. 2-DE 젤 이미지 분석의 두 가지 기본적인 문제는 스팟의 검출과 매칭이다. 여기서는 이러한 문제를 Melanie나 Progenesis와 같은 2-DE 이미지 분석 소프트웨어를 사용하여 해결한다.</p> <p>2-DE 젤 이미지 분석 소프트웨어를 통해 2-DE 젤 이미지로부터 스팟을 검출하면, 하나의 2-DE 젤 이미지 당 몇 천개의 스팟이 검출된다. 각 스팟은 하나의 단백질에 대응되며, 유일한 spotID가 부여된다. 또한 젤 이미지 내에서 각 스팟을 나타내는 정보로, 좌표값 (x, y)와 농도 정보 Od(Optical Density), Vol(Volumn), \(\%\)Od, \(\%\)Vol 값이 생성된다. \(\%\)Od와 \(\%\)Vol은 Od와 Vol을 표준화한 값으로, 젤 이미지 내의 모든 스팟의 Od, Vol의 합을 100으로 했을 때 각 스팟의 Od, Vol 값의 백분율을 나타낸 값이다. 스팟의 농도 정보는 개개의 이미지가 어떻게 생성되느냐에 따라 값이 달라질 수 있으므로, 하나의 젤 이미지 내의 스팟과 다른 젤 이미지 내의 스팟을 비교하기 위한 표준 척도로는 적합하지 않다. 따라서 표준화한 \( \% \)Od나 \(\%\)Vol 값을 사용하며, 이 값은 해당 스팟에 대응되는 단백질의 발현량을 나타내는 값으로 쓰인다.</p> <h3>[정의 1] 단백질의 발현량</h3> <p>2-DE 젤 이미지 \(I\) 내의 \(m\)개의 스팟이 주어졌을 때, \( S_{I}=\left\{s_{k} \mid s_{k}\right. \) 는이미지 \( I \) 내에 존재하는 스팟, \( \left.0 \leq k \leq m\right\} \).</p> <p>스팟 \( s_{k} \)가 나타내는 단백질의 발현량은 다음과 같이 나타낸다.</p> <p>\( \operatorname{ExpLevel}\left(s_{k}\right)=\% \mathrm{Vol} \) 또는 \(\% \mathrm{Od}\) (스팟 \( s_{k} \) 의 속성).</p> <p>젤 이미지와 각 스팟 리스트가 주어졌을 때, 각 젤 이미지 내에서 동일한 단백질에 대응하는 스팟들을 찾기 위해 매칭 과정이 수행된다. 젤 이미지의 집합에 존재하는 스팟들은 하나의 참조 젤 이미지(reference gel image) 내의 주어진 스팟과 매치되어 pairing class를 이룬다. pairing class는 젤 이미지 간에 단백질의 발현량 변화를 찾고 분석하는데 기본 요소가 되므로, 스팟의 매칭은 2-DE 젤 이미지 분석의 주요 작업이다. 만약 참조 젤 이미지 내의 임의의 스팟과 어떤 이미지 내의 스팟이 매치되었다면, 그 두 스팟은 pair relation에 있다고 하며, Pairing Class는 다음과 같이 정의한다.</p> <h3>[정의 2] Pairing Class</h3> <p>N개의 젤 이미지 집합 \( I=\left\{I_{1}, I_{2}, \ldots, I_{n}\right\} \)이 주어졌을 때, \( I_{R} \in I \)을 참조 젤 이미지라 하면, \( S_{I_{R}} \)내의 스팟은 \( S_{I_{i}(1 \leq i \leq N)} \)내의 스팟들과 쌍을 이룬다. 만약, \( S_{r} \in S_{I_{n}} \)과 \( S_{j} \in S_{I_{i}} \)가 pair relation에 있다면, 이것을 \( \left(s_{r}, s_{j}\right) \in P \)로 나타낸다. 그리고, 참조 젤 이미지에서 spotID가 \(r\)인 스팟의 Pairing Class는 다음과 같이 나타낸다.</p> <p>\( P C_{r}=\left\{s_{j} \mid\left(s_{r}, s_{j}\right) \in P, s_{j} \in S_{I_{i}}, s_{r} \in S_{I_{R}}\right\} \)</p> <p>여기서, \(r\)은 PairID로 정의한다.</p> <p>(그림 1)은 실제 2-DE 젤 이미지에서의 pairing class의 예를 보여준다. 각 이미지 내에서 스팟의 발현 패턴을 비교해볼 때, 스팟 A는 상대적으로 유사한 위치에 발현되었다. 이때, 각 이미지에서 스팟 A들은 동일한 단백질을 의미하게 되며, 각 이미지에서의 이 스팟 A들의 집합을 pairing class라 할 수 있다.</p>
|
2-DE는 조직의 샘플로부터 단백질을 분리하는 데 널리 사용되는 기술로, 전기 영동 방법으로 단백질을 분리하며, 그 결과는 각 단백질이 스팟으로 표현된 2차원 젤 이미지이며,2-DE 젤 이미지 분석의 두 가지 기본적인 문제는 스팟의 검출과 매칭이다.이 문제를 Melanie나 Progenesis와 같은 2-DE 이미지 분석 소프트웨어를 사용하여 해결하며,스팟 \( s_{k} \)가 나타내는 단백질의 발현량은 다음과 같이 나타낸다.\( \operatorname{ExpLevel}\left(s_{k}\right)=\% \mathrm{Vol} \) 또는 \%Od (스팟 \( s_{k} \) 의 속성).
|
<h1>1. 서 론</h1> <p>단백질체학 연구는 주어진 셀이나 조직, 생물체에 표현된 단백질의 프로파일에 대한 조직적인 분석을 다룬다. 단백질 체학 연구의 목적은 임의의 조직에서 어떤 단백질이 발견되는지, 특정 조건 하에서 단백질이 어떻게 상호 작용 하는 지를 분석하는 것이다. 이런 목적에서, 임의의 조직에서 특정 조건에 따른 단백질의 발현량의 변화 분석은 조직의 기능 장애를 일으키는 단백질의 도출에 있어서 핵심 이슈이다. 단백질 분석에는 Two Dimensional Electrophoresis(2-DE)와 Non-2-DE의 두 가지 기술이 사용되며, 전자는 전기영동 방식을 사용하여 조직에서 단백질을 분리한다. 후자는 동위원소-코드 친화성 태그 (isotope coded affinity tag: ICAT), 질량-코드 다량 태깅 mass-coded abundance tagging(MCAT)과 같은 특정 친화성 태그나 액체 색층분석 질량 분광기(liquid chromatography-mass spectrometry: LC-MS)를 사용하며, 자동화에 유용하고 처리율이 높다. Non-2-DE 기술이 보다 정확한 결과를 제공하지만, 여전히 2-DE 기술이가격 효율성 등으로 인해 단백질의 발현 패턴 분석에 주로 이용되는 기술이다. 그러나 2-DE의 결과는 평균적으로 1000개 이상의 스팟을 포함하는 2-DE 젤 이미지로 표현된다. 각종 질병에 대한 잠재적 마커 단백질의 전체 집합을 찾기 위해서는 많은 작업이 요구된다. 단백질의 발현량 변화를 검출하기 위한 가장 직관적인 방법은 눈으로 직접 2-DE 젤 이미지를 확인하는 방법이다. 또는 통계적 분석 방법이나, 스위스 GeneBio사의 Melanie 띠, 영국 Nonlinear Dynamics사의 Progenesis, 미국 BiO-rad 사의 PDQuest와 같은 상용 이미지 분석 소프트웨어 패키지에서 제공하는 그래프를 이용한 시각화 방법을 이용할 수 있다. 그러나, 신뢰성있는 결과를 얻기 위해서는 많은 수의 정상과 비정상 조직에서 얻은 2-DE 젤 이미지를 함께 분석할 필요가 있으며, 각 2-DE 젤 이미지에 있는 수 천개 이상의 스팟의 수를 고려할 때, 많은 수의 젤 이미지에 존재하는 각 스팟의 정보를 일일이 분석하는 것은 거의 불가능하다.</p> <p>데이터베이스 기술은 이러한 문제를 해결하는 데 유용하다. 데이터베이스 기술은 다량의 데이터를 위한 저장 구조 분 아니라, 이 저장 구조 위에서 데이터를 다루는 구조적인 방법도 제공하며, 데이터 웨어하우스와 OLAP(on-line analytical processing) 시스템은 다양한 사용자의 각종 요구에 대응하기 위해서 데이터에 대한 정보를 여러 형태로 구성하여 제공한다. OLAP은 복잡한 분석 질의에 대한 빠른 응답을 제공하기 위한 접근 방법으로, 판매나 마케팅, 자원 관리에 관한 비즈니스 보고와 데이터 마이닝에 널리 사용되며, 더 유용한 데이터 분석을 위해서, 데이터 웨어하우스는 특정 응용 도메인의 모든 필요한 과거 데이터를 상세분석을 목적으로 모아두는 주 정보 저장소가 된다. 데이터 웨어하우스의 이러한 특성은 수많은 단백질 중에서 특정 조건에 의해 발현량이 변하는 단백질을 도출하기 위한 논문의 목적에 부합한다. 따라서, 단백질 데이터를 OLAP 접근에 의해 효율적으로 다룬다면 유용한 지식을 얻을 수 있을 것이다. OLAP 시스템에 사용되는 다차원 데이터 모델에 있어서, 데이터 큐브는 차원(dimension)과 척도(measure)라는 두 요소에 의해 데이터 항목의 다양한 특성을 나타내는데 사용된다. 차원은 데이터 큐브의 축을 이루며 계층 구조를 갖는다. 척도는 수치값으로 데이터 큐브의 각 차원을 구성하는 항목들의 조합에 해당하는 데이터들의 대표값(예를들어, 평균)을 나타낸다. 따라서, 단백질의 발현량과 관련된 척도와 임상 정보에 대한 차원으로 구성된 데이터 큐브를 이용함에 의해 특정 질병에 대해 임의의 임상 정보와 단백질의 발현량과의 관계를 분석하는 것이 가능하다. 분석자는 몇몇 OLAP 연산에 의해 데이터 큐브를 탐색하며 예외 데이터 영역을 찾는다. 이러한 "hypothesis-driven" 탐색 방법은 차원의 수가 많아지면 데이터 큐브의 탐색 공간이 커지므로 예외 데이터를 찾는 데 한계가 있다. 그 대안으로 데이터 큐브의 탐색에 있어서 “Discovery-driven"방법이 제안되었다. 이 방법은 모든 차원의 계층에 데이터의 예외를 나타내는 이미 계산된 척도가 데이터 큐브 탐색을 안내하는 역할을 하는 것으로, 사용자가 임의의 집합 레벨에서 데이터의 비정상 패턴(예외)을 찾을 가능성을 증가시킨다.</p> <p>본 논문에서는 폐암에 대한 2-DE 데이터베이스로부터 암 세포에 의해 발현량이 변하는 단백질의 도출을 위한 데이터 큐브의 응용을 제안한다. 먼저, 스팟 데이터 집합으로부터 단백질의 발현량 변화를 나타내는 척도를 제안하며 많은 2-DE 젤 이미지로부터 동일 단백질에 대응되는 스팟들의 발현량 변화에 대한 척도와 임상 정보로 구성된 차원을 이용하여 프로테옴 데이터 큐브를 생성한다. 프로테옴 데이터 큐브를 이용함에 의해서 질병 의존 단백질 뿐 아니라 관련 임상 정보와의 관계 분석도 가능하다. 또한, 잠재적 마커 단백질을 검출하고 단백질과 임상 정보와의 관계를 분석하기 위해 데이터 큐브의 Discovery-driven 탐색 방법을 적용하는 데 있어서, 발현량 변화 양상과 정도를 나타내는 지표(indicator)를 제시하며, Discovery-driven 탐색에 있어서 보다 효율적인 탐색을 위한 방안을 제안한다. 마지막으로, 통계적 방법인 Wilcoxon nonparametric t-test와의 비교 실험을 통하여 제안한 척도와 지표의 적합성을 제시하고, 새로운 방안을 이용한 프로테옴 데이터 큐브의 Discovery-driven 탐색의 분석 효과를 실험을 통해 평가한다.</p> <p>본 논문은 다음과 같이 구성된다. 2장에서는 단백질의 발현량 변화를 찾기 위해 사용되는 통계적 방법과 상용 이미지 분석 소프트웨어를 이용한 방법을 소개하고, 3장에서는 프로테옴 데이터 큐브의 모델링 방법을 보이며, 분석에 적합한 차원과 척도를 제안한다. 4장에서는 발현량 변화의 양상과 정도를 분석하기 위한 지표를 설명하고 데이터 큐브의 보다 효율적인 탐색을 위한 방안을 제시한다. 5장에서는 실험을 통해서 제안한 척도와 지표가 기존의 방법보다 폐암 2-DE 젤 이미지에서의 단백질 발현량 분석에 적합함을 보이고 마지막으로, 6장에서는 이 논문의 결론과 의의에 대해 기술한다.</p>
|
주어진 셀이나 조직, 생물체에 표현된 단백질의 프로파일에 대한 조직적인 분석을 다루는 것이 바로 단백질체학 연구이다. 임의의 조직에서 특정 조건에 따른 단백질의 발현량의 변화 분석은 조직의 기능 장애를 일으키는 단백질의 도출에 있어서 핵심 이슈이다. 눈으로 직접 2-DE 젤 이미지를 확인하는 것이 단백질의 발현량 변화를 검출하기 위한 가장 직관적인 방법이다. 보다 신뢰성 있는 결과를 얻기 위해서는 다량의 정상·비정상 조직에서 얻은 2-DE 젤 이미지를 함께 분석해야 하지만, 많은 수의 젤 이미지에 있는 각 스팟의 정보를 일일이 분석하는 것은 거의 불가능하다. 하지만 이러한 문제를 해결하는 데 있어서 데이터베이스 기술은 아주 유용한 기술이다.
|
<h2>3.2 데이터 큐브의 모델링</h2> <p>단백질체와 관련된 데이터는 질병과 관련된 환자에 대한 임상 정보와 그 환자의 질병 관련 조직으로부터 얻은 2-DE 젤 이미지 내의 스팟들의 정보로 구성된다. 이들 정보 간의 관계를 분석하여 비정상적이거나 예외적인 패턴을 찾기 위해 해당 데이터들이 수집되며, 여기서는 데이터가 다차원으로 모델링되고 보여지도록 데이터 큐브를 사용한다. 데이터 큐브는 차원과 척도로 정의된다. 일반적으로, 차원은 유지하고자 하는 레코드와 관련된 요소나 관점을 말하며, 데이터 큐브의 축을 이룬다. 예를 들어, 단백질체 데이터 웨어하우스 내의 데이터와 관련된 레코드를 유지하기 위해서, 차원은 성별, 나이, 흡연, 음주, 병력 등의 임상 정보와 개개 단백질을 나타내는 PairID로 구성될 수 있다. 이들 차원은 단백질들이 포함된 조직의 샘플에 대한 임상 정보와 각 단백질을 구별할 정보를 유지한다. 각 차원은 그 차원과 관련된 테이블을 가지며, 이것을 차원 테이블이라 한다. (그림 2)은 PairID와 성별, 나이, 흡연에 대한 임상 정보로 구성된 4차원 데이터 큐브를 나타낸 것이다.</p> <p>다차원 데이터 모델은 예를 들어 '단백질의 발현량 변화'와 같은 주제를 중심으로 구성된다. 이 주제는 사실 테이블에 의해 표현되며, 사실 테이블은 사실의 이름이나 척도 및 관련 차원 테이블들의 각 키값을 포함한다. 사실 테이블에 포함되는 척도는 데이터 큐브의 셀 내의 값이 되며, 차원들 간의 관계를 분석하기 위한 수치 값이다. 질병에 의한 발현량의 변화를 분석하는 데이터 큐브의 척도는 질병의 영향이 있는 조직과 없는 조직 내의 단백질의 발현량 차이를 나타내는 값이 된다. 질병에 의한 단백질의 발현량 변화를 비교하기 위해서, Pairing Class 내의 스팟들을 정상 젤 이미지 내의 스팟들로 구성된 하나의 집합으로 하고, 비정상 젤 이미지 내의 스팟들로 구성된 다른 하나의 집합으로 나눈다. 그러나 정상과 비정상 그룹을 평균적으로 비교하기에는 젤 이미지들 간에 변이가 크므로 부적합하다. 따라서 동일 환자로부터 얻은 정상과 비정상 젤 이미지 내의 스팟을 쌍으로하여 비교하기 위해 Pairwise Pairing Class를 정의한다.</p> <h3>[정의 3] Pairwise Pairing Class</h3> <p>정상 조직의 젤 이미지 집합 \( I_{N}=\left\{I_{1 N}, I_{2 N}, \ldots, I_{n N}\right\} \)과 비정상 조직의 젤 이미지 집합 \( I_{T}=\left\{I_{1 T}, I_{2 T}, \ldots, I_{n T}\right\} \)이 주어졌을 때, 참조 젤 이미지를 \( I_{R} \in\left(I_{N} \cup I_{T}\right) \)이라 하자. \( I_{i N} \in I_{N} \)을 i번째 환자의 정상 조직의 젤 이미지라 하고, \( I_{i T} \in I_{T} \)를 i번째 환자의 비정상 조직의 젤 이미지라 할 때, \( S_{I_{i N}} \)을 \( I_{i N} \) 이미지에 존재하는 스팟들의 집합이라 하고 \( S_{I_{i T}} \)를 \( I_{i T} \)이미지에 있는 스팟들의 집합이라 정의하면, 참조 젤 이미지에서 spotID가 r인 스팟의 Pairwise Pairing Class는 다음과 같이 나타낸다.</p> <p>\( P P C_{r}=\left\{\left(s_{j}, s_{k}\right) \mid s_{j} \in P C_{r}, s_{k} \in P C_{r}, s_{j} \in S_{I_{i j}}, s_{k} \in S_{I_{i T}}, s_{r} \in S_{I_{R}}\right\} \)</p>
|
단백질체와 관련된 데이터는 2-DE 젤 이미지 내의 스팟들의 정보로 구성되는데 이들 정보 간의 관계 분석을 위해 해당 데이터들이 수집되며, 이를 위해 데이터 큐브를 사용한다. 데이터 큐브는 차원과 척도로 정의되는데 차원은 데이터 큐브의 축을 이루는 것으로써 유지하고자 하는 레코드와 관련된 요소나 관점을 말한다. 다차원 데이터 모델은 '단백질의 발현량 변화'와 같은 주제로 구성되는데 이 주제는 사실 테이블에 의해 표현되며 사실 테이블에는 이름과 척도, 관련 차원 테이블들의 키값을 포함한다.
|
<h1>4. Discovery-driven 탐색을 이용한 질병 의존 단백질의 도출</h1> <p>데이터 큐브를 생성하기 위해서는 선택된 차원과 척도에 대한 데이터가 필요하다. 3장에서 설명한 요소로 데이터 큐브를 생성하고, 데이터의 임의 집합 레벨에서 예외 데이터를 찾을 기회를 증대시키기 위해 예외 지표를 계산하여 Discovery-driven 탐색이 가능하도록 한다. 이 장에서는 데이터 큐브의 예외 지표를 정의하고 이것을 이용한 Discovery-driven 탐색 과정을 기술한다. 본 논문에서 데이터 큐브는 질병 의존 단백질의 도출 뿐 아니라 해당 단백질의 임의의 임상 정보에 의한 영향을 분석하기 위한 목적으로 생성하는 것이므로, 데이터 큐브의 차원은 질병과 관계가 있을 것으로 보이는 선택된 임상 정보가 될 것이다. 각 단백질에 대한 분석이므로 개개의 단백질을 나타내는 PairID는 데이터 큐브의 기본적인 차원이 된다. PairID와 임상과 관련한 선택된 차원으로 구성된 데이터 큐브는 의미 있는 단백질을 도출하기 위해 탐색된다. 탐색은 기본적으로 데이터 큐브 차원의 최상위 레벨에서 시작한다. 데이터 큐브의 탐색에는 "Roll-up", "Drill-down", "Slice and dice", "Pivot" 등의 연산이 사용된다.</p> <p>계층 구조의 최상위 레벨에서부터 분석자는 계층 구조의 하위 레벨로 drill-down하며 예외 데이터를 찾기 위해 탐색을 수행한다. 만약 임의의 패스를 통한 탐색이 의미 있는 결과를 찾지 못하면, 분석자는 해당 패스를 roll-up하여 다른 패스로 탐색을 시작하고, roll-up의 결과 최상위 레벨에</p> <p>다다르면 다른 차원으로 drill-down하여 탐색을 계속한다. 위와 같은 "hypothesis-driven" 탐색의 대안이 모든 집합 레벨에서 데이터의 예외를 나타내는 지표를 미리 계산하여 분석자의 데이터 분석 과정을 지원하는 "Discovery-driven"탐색 방법이다. 이 방법은 분석자가 예외 패턴을 찾을 확률을 높인다. 모든 집합 레벨에서 데이터 분석 과정을 지원하는 지표를 예외 지표(exception indicator)라 하며, 단백질의 발현량 변화를 분석하기 위한 데이터 큐브에서 적용할 수 있는 예외 지표를 다음과 같이 정의한다.</p> <h3>[정의 7] 단백질의 발현량 변화를 분석하는 데이터 큐브에서 예외 지표</h3> <p>n차원의 데이터 큐브에서, l번째 차원 \( d_{l}(1 \leq l \leq n) \)의 \( i_{l} \) 위치의 셀의 예외 지표는 다음과 같이 정의한다.</p> <p>\( U G O \) ratio \( _{i_{1} i_{2} \ldots i_{n}}=\max \left(U\right. \) ratio \( _{i_{1} i_{2} \ldots i_{n}}, O \) ratio \( \left._{i_{1} i_{2} \ldots i_{n}}\right) \).</p> <p>여기서,</p> <p>\( U \) ratio \( _{i_{1} i_{2} \ldots i_{n}}=\frac{U c n t_{i_{1} i_{2} \ldots i_{n}}}{U c n t_{i_{1} i_{2} \ldots i_{n}}+G \operatorname{cnt}_{i_{1} i_{2} \ldots i_{n}}+O \mathrm{cnt}_{i_{1} i_{2} \ldots i_{n}}} \)</p> <p>이고,</p> <p>\( O \) ratio \( _{i_{1} i_{2} \ldots i_{n}}=\frac{O \operatorname{cnt}_{i_{1} i_{2} \ldots i_{n}}}{U \operatorname{cnt}_{i_{1} i_{2} \ldots i_{n}}+G \operatorname{cnt}_{i_{1} i_{2} \ldots i_{n}}+O \operatorname{cnt}_{i_{1} i_{2} \ldots i_{n}}} \)</p> <p>이다.</p> <p>즉, 예외 지표는 해당 셀 내의 모든 단백질의 수에 대한 Under-expressed 또는 Over-expressed 단백질의 수의 비율로 나타낸다.</p> <p>Discovery-Driven 방법은 예외 지표를 이용하여 데이터 큐브를 탐색하는 데 있어서, 다음의 세 가지 값을 사용한다.</p> <p>\(\bullet \) SelfExp: 현재 레벨에서 어떤 셀이 예외인지를 나타내는 값이다. 임의의 셀의 예외 지표 값과 정해진 임계값에 따라 정의된다. 즉, 예외 지표의 값이 임의의 임계 값 \( \tau \)보다 크면 해당 셀은 예외로 판단한다. 앞 절에서 정의한 예외 지표에 대해서는 다음과 같이 정의된다.</p> <p>\( \operatorname{SelfExp}\left(U G\right. \) O ratio \( \left.{ }_{i_{1} i_{2} \ldots i_{n}}\right)=\max \left(U G\right. \) O ratio \( \left.{ }_{i_{1} i_{2} \ldots i_{n}}-\tau, 0\right) \)</p> <p>\(\bullet \) InExp: 현재 셀에서 drill-down 연산을 통해 도달할 수 있는 모든 셀들의 예외 정도를 나타내는 값이다. 앞 절에서 정의한 예외 지표에 대해서는 다음과 같이 정의된다.</p> <p>\( \operatorname{InExp}\left(U_{-} G_{-} O_{-}\right. \)ratio \( \left.{ }_{i_{1} i_{2} \ldots i_{n}}\right)=\max \left\{\operatorname{SelfExp}\left(U_{-} G_{-} O_{-}\right.\right. \)Ratio \( \left.j_{j_{1} i_{2} \cdots j_{n}}\right) \) \( \mid\left(\forall l, 1 \leq l \leq n, i_{l}=j_{l}\right. \) or \( \left.\left.i_{l}=+\right) \&\left(\left\{j_{1}, \ldots, j_{n}\right\} \neq\left\{i_{1}, \ldots, i_{n}\right\}\right)\right\} \)</p> <p>\(\bullet \) PathExp: 현재 셀에서 가능한 각 drill-down 패스들 중에서 특정 패스로 drill-down했을 때 기대되는 예외 정도를 나타내는 값이다. 앞 절에서 정의한 예외 지표에 대해서는 다음과 같이 정의된다.</p> <p>\( \operatorname{Path} \operatorname{Exp}\left(U_{-} G_{-}\right. \)O_ratio \( \left._{i_{1} i_{2} \ldots i_{n}}, k\right)=\max \left\{\operatorname{Self} \operatorname{Exp}\left(U_{-} G_{-} O_{-}\right.\right. \)ratio \( \left.{ }_{j_{1} j_{2} \ldots j_{n}}\right) \)</p> <p>\( \mid\left(\forall l, 1 \leq l \leq n, i_{l}=j_{l}\right. \) or \( \left.\left.i_{l}=+\right) \& j_{l} \neq+\right\}, \forall k \) where \( i_{k}=+ \).</p> <p>SelfExp의 값은 의미있는 셀을 도출하도록 하며, InExp과 PathExp은 데이터 큐브를 효율적으로 탐색할 수 있도록 한다. InExp과 PathExp은 하위 레벨에 해당하는 모든 셀의 예외 지표를 계산해야 하므로 계산량이 많다. 그러나 현재 레벨에서의 셀의 값과 SelfExp의 임계값, 그리고 환자의 임상 정보 분포를 고려하여 그 계산량을 줄일 수 있다. 계산량을 줄이는 방안은 다음 두 가지로 생각해 볼 수 있다. 먼저, 현재 셀이 SelfExp인 경우에 해당 셀이 나타내는 발현량의 변화 경향이 하위 레벨로 drill down하더라도 변화가 없을 경우, 즉 drill down해도 현재 셀이 나타내는 의미 이상의 정보를 얻을 수 없는 경우이다. 두번째는 현재 셀이 SelfExp이 아닌 경우에, 해당 셀 내의 단백질 중 General protein의 비율이 높아서 하위 레벨로 drill down하더라도 U_ratio의 값이나 O_ratio의 값이 예외가 될 가능성이 없는 경우이다. 만약 현재 셀이 나타내는 단백질이 Under-expressed 이거나 Over-expressed 단백질로 판단되고 그 예외 지표의 값이 1이라면, 더 이상의 drill-down연산이 의미가 없으므로, InExp의 계산은 필요 없게 된다. 또한 drill- down할 차원의 환자 분포를 알고 있으면, 현재 셀을 drill-down해도 하위에 다른 의미 있는 결과가 도출되지 않는다는 상한을 정할 수 있을 것이다.</p> <p>\( \bullet \) 현재 SelfExp인 경우, \( \min \left(U_{-}\right. \)ratio, O_ratio \( ) \geq( \)the ratio of minimum attribute \( \times \tau) \).</p> <p>\( \bullet \) 현재 SelfExp이 아닌 경우, \( \max \left(U_{-}\right. \)ratio, O_ratio \( ) \geq( \)the ratio of minimum attribute \( \times \tau) \).</p> <p>위 식에서 minimum attribute는 차원의 하위 항목 중 최소 샘플을 포함한 항목을 뜻한다. 예를 들어, 전체 환자 샘플의 수가 100개라고 할 때, 성별의 하위 항목인 남성에 해당하는 샘플이 70개이고 여성에 해당하는 샘플이 30개라면, minimum attribute는 여성이며, 그 비율은 0.3이다. \( \tau \)는 예외 지표의 임계값이므로, drill down의 대상 차원의 하위 항목들의 분포에 따라 drill down을 수행하여 예외 상황이 발생할 가능성이 있는 셀에 대해서만 InExp의 계산을 수행한다.</p>
|
데이터 큐브의 생성을 위해 차원가 척도의 데이터가 필요한데 앞선 장의 요소를 통해 데이터 큐브를 생성하고 예외 지표를 계산하여 탐색한다. 데이터 큐브의 예외 지표를 정의하고 이를 질병 의존 단백질의 도출은 물론이고 이를 통해 임상 정보의 영향력을 탐색 및 분석하고 관련된 질병의 선택된 임상정보로 한다. Discovery-Driven 방법은 예외 지표를 이용하여 데이터 큐브를 탐색하는 데 있어서 SelfExp, InExp, PathExp을 사용하는데 이는 각각 현재 레벨에서의 예외값을 찾는 값으로 임의의 값보다 크면 예외셀로 판단하고, 현제셀의 예외 정도를 나타내고, drill-down 패스들 중에서 특정 패스로 drill-down했을 때 기대되는 예외 정도를 나타내는 값이다. SelfExp의 값은 셀 값을 의미 있게 만들고 InExp과 PathExp은 효율성을 향상시킨다. 이를 적절히 이용하면 계산량을 줄일 수 있고 계산량을 줄이는 방법은 의미 이상의 정보를 얻게하거나 예외가 될 가능성을 없애는 방법이 있다.
|
<h1>1. 서론</h1> <p>정부의 번호이동 간소화 정책, 저렴한 요금 및 다양한 부가서비스의 제공 등의 이유로 국내 VoIP (Voice over Internet Protocl) 서비스 시장은 2010년 말 914만을 넘어서 계속적으로 성장하고 있다. 더욱이 스마트폰 보급 확산과 다양한 모바일 인터넷전화 애플리케이션 출시로 인해 모바일 인터넷전화 시장도 2015 년까지 매년 국제전화시장의 \( 3 \% \) 및 국내 전화시장의 \( 1 \% \) 이상을 차지할 것으로 전망되고 있다. 그러나 인터넷전화는 유선망/이동통신망에 비해 상대적으로 취약한 인터넷망을 기반으로 하고 있어 해킹 및 도청이 용이할 뿐만 아니라, 공격도구가 인터넷상에 공개되어 전문가가 아니더라도 손쉽게 공격을 시도할 수 있어 산업기밀 및 개인프라이버시 침해 우려가 지속적으로 제기되고 있다. 더욱이 모바일 인터넷전화의 경우 기존 인터넷전화의 취약점에다가 스마트폰에 대한 취약점 및 어플리케이션의 취약점이 공존하고 있어 횔씬 더 도청공격이 용이하다. 이러한 도청위협에 효과적으로 대응하기 위해서는 종단간(End-to-end) 보안통신 적용이 필수적이다. 현재 공공/행정 기관 인터넷전화는 SIP (Session Initiation Protocol) 기반으로 구축되어 있으며, 국내 인터넷전화 서비스 사업자도 SIP 기반으로 네트워크를 변경하고 있는 추세이다. 이러한 SIP 기반 인터넷전화 보호를 위해 국제 표준화기구 IETF (Internet Engineering Task Force)에서는 몇 가지 보안프로토콜을 제시하고 있다. 우선 사용자 인증에는 HTTP Digest, 호 설정 메시지(SIP) 보호를 위해서는 TLS (Transport Layer Secuirty) 또는 IPSec(IP Security), 음성 데이터를 전송하는 RTP (Real-time Transport Protocol) 프로토콜 보호를 위해서는 SRTP(Secure RTP), SRTP를 암호화를 위해 사용되는 키의 공유를 위해서는 MIKEY (Multimedia Internet KEYing) 또는 SDES(Session Description Protocl(SDP) Secuirty DEScriptions for media stream)를 제시하고 있다. 이렇게 IETF에서 제시한 보안 프로토콜 중에 공공/행정 기관에서는 VoIP 보안 가이드라인을 통해 TLS/SRTP/ SDES프로토콜 사용을 권고하고 있으며, 유선 환경에서 이러한 프로토콜에 대한 성능평가에 대한 연구는 이미 수행되었다. 그러나 모바일 환경에서는 단말의 제한된 성능으로 인해 유선 환경에서 제시하고 있는 TLS / SRTP / SDES 프로토콜을 그대로 사용하자는 의견과 IPSec / KE (Internet Key Exchange) 프로토콜을 사용하자는 의견이 대립되고 있으나, 아직까지 성능평가에 대한 연구는 미흡한 실정이다. 본 논문에서는 모바일 환경에서 SIP 기반 인터넷전화 서비스에 적용 가능한 보안 프로토콜 도출을 위해 IETF에서 제시하고 있는 프로토콜에 대한 검증을 수행한다. 이를 위해 각 프로토콜을 구현하고 안드로이드기반의 단말 및 오픈 소스기반의 SIP proxy server에 올려 성능평가를 수행한다. 논문의 구성은 2장에서 본 연구의 배경이 되는 모바일 환경에서 적용 가능한 인터넷전화 보안 프로토콜에 대해 알아보고 3장에서는 이들의 성능 비교를 위해 구현한 환경에 대해 설명한다. 그리고 4장에서 성능평가 결과를 분석함으로써 모바일 환경에 적용 가능한 보안 프로토콜을 살펴보고, 마지막 5장에서 결론을 맞는다.</p>
|
해킹과 도청 공격에 취약한 모바일 인터넷 전화의 대응 방법으로 종단간 보안통식의 적용이 필수적이나, 모바일 환경에서는 단말의 제한된 성능으로 인해 아직까지 성능평가에 대한 연구가 미흡하다. 따라서 SIP을 기반으로 모바일 환경의 인터넷 전화 서비스에 적용 가능한 보안 프로토콜의 도출을 위해 IETF에서 제시하고 있는 프로토콜에 대한 검증을 본문에서 수행한다.
|
<h3>(2) 지터(Jitter)</h3> <p>지터는 패킷의 도착 간격시간의 분산으로써. 인터넷전화에서 지터가 발생하면, 늦게 도착한 패킷들은 버림으로써 통화 품질의 저하가 발생한다.</p> <h3>(3) 패킷 손실(Loss)</h3> <p>패킷 손실은 인터넷전화의 품질에 영향을 미치는 중요한 요소로써, 지연 및 지터 등에 의해 발생된다.</p> <h1>4. 보안 프로토콜 성능 평가</h1> <p>모바일 환경에서 VoIP 보안 프로토콜 성능 평가를 위해<표 3>에서 제시한 항목을 이용하였다. 일반적인 VoIP 보안통신 흐름대로 사용자 인증을 위한 HTTP Digest 연산시간, 호 설정 메시지 보호를 위해 TLS 또는 IPSec을 적용하였을 때 호 설정에 미치는 지연을 측정하였다. 또한 음성 데이터 보호를 위해 SRTP 또는 IPSec을 적용했을 때, 통화 품질에 미치는 영향을 알아보기 위해 Delay, Jitter, Loss값을 측정하였다.</p> <h2>4.1 HTTP Digest 연산 시간</h2> <p>HTTP Digest 연산시간이 호 설정과정에서 지연에 미치는 영향을 측정하였다. (그림 7)과 같이 단말이 서버에 Register메시지를 요청하고 나서 Digest 인증을 수행한 후 완료(2000K) 메시지를 받는데 걸리는 시간을 100 회 반복하여 측정하였다. HTTP Diest 평균 연산 시간은 약 0.2초로, 전체 호 설정과정에서 큰 영향을 미치지 않는 것으로 예상되며. 100 회 측정 분포도는 (그림 8)과 같다. 상용 환경에서는 TLS/ IPSec으로 보안채널을 형성한 후 적용되기도 하기 때문에 이럴 경우에 연산 시간은 좀 더 늘어날 수 있다.</p> <h2>4.2 TLS/IPSec 적용 시 호 설정 시간</h2> <p>TLS 또는 IPSec 보안 프로토콜이 호 설정 과정에서 지연에 미치는 영향을 측정하였다. (그림 9)과 같이 송신단말 ⭤ 서버, 서버 ⭤ 수신단말간 TLS와 IPSec으로 각각 보안채널을 형성하다, 이 후 송신단말에서 호 설정 메시지를 생성한 후 이를 수신단말에서 처리하는데 까지 걸리는 시간을 100회 반복하여 측정하였다. 보안 프로토콜(TLS 또는 IPSec) 및 보안프로토콜을 적용하지 않았을 경우 호 설정 평균 시간은<표 4>, 100회 측정 분포도는 (그림 10)과 같다. TLS를 적용했을 경우 호 설정 평균 시간은 0.205초로 보안프로토콜 미 적용시보다 약 4.3배 지연이 발생하였다. 또한 IPSec을 적용했을 경우 0.331초로 보안프로토콜 미 적용시보다 약 6.9배의 지연이 발생하였으며, IPSec이 TLS보다 약 1.5배의 지연이 발생하였다. 이러한 지연은 TLS/IPSec 적용 시, 호 설정 메시지가 양 단말과 서버에서 암호화 및 복호화 과정을 거치기 때문에 발생하는 것으로 볼 수 있다.</p>
|
모바일 환경에서 VoIP 보안 프로토콜 성능 평가를 위해 HTTP Digest 연산 시간, TLS/IPSec 적용 시 호 설정 시간, SRTP 또는 IPSec 적용 시 Delay, Jitter, Loss값을 측정하였다. HTTP Digest 연산 시간은 0.2초로, 전체 호 설정과정에서 큰 영향을 미치지 않는 것으로 예상되며, TLS/IPSec 적용 시 호 설정 평균 시간은 0.205초(TLS) 및 0.331초(IPSec)로 보안프로토콜 미 적용시보다 지연이 발생하였다.
|
<h1>2. 관련 연구</h1> <p>본 장에서는 기존 스마트카드를 이용한 원격 사용자 인증 방식의 구조를 알아보고 발생할 수 있는 공격 위협에 대한 취약점을 분석한다.</p> <h2>2.1 시스템 계수</h2> <p>기존 방식들은 다음과 같은 시스템 계수를 사용한다.</p> <ul> <li>\(* \): 각각의 객체 (U: 사용자, S: 서버, C: 스마트카드)</li> <li>I D : 사용자의 식별자</li> <li>PW : 사용자의 비밀 번호</li> <li>\(V\) : 스마트카드 소유자를 검증하기 위한 값</li> <li>\( h() \) : 해시 함수</li> <li>\( h_{*}() \) : 비밀 키 \(*\)를 포함한 해시 함수</li> <li>\( T_{*} \) : 객체 \( * \) 의 타임스탬프</li></ul> <h2>2.2 기존 방식</h2> <p>Chen 등이 제안한 방식은 기존 방식의 위장 공격으로부터의 위협을 해결하기 위하여 제안된 방식이다. 해당 방식은 등록 단계, 로그인 단계, 검증 단계, 패스워드 변경 단계로 구성되어 있으며 각 단계는 다음과 같다(Fig. 1).</p> <h3>1) 등록 단계</h3> <p>이 단계는 사용자가 서버에 자신을 등록하고 스마트카드를 발급받는 과정으로 안전하게 수행된다고 가정한다(Fig. 2).</p> <ul> <li>Step 1. 사용자는 임의의 숫자 \(b\)를 선택하고 사용자의 등록 정보를 서버에 전송한다.</li> <li>Step 2. 서버는 \(p\), \(R\), \(V\)를 계산하고 \(R\), \(V\), \( \mathrm{h}() \)를 스마트 카드에 입럭한다.</li> <li>Step 3. 서버은 \(V\)와 \(R\), \( \mathrm{h}() \)를 포함한 스마트카드를 사용자에게 발급한다.</li> <li>Step 4. 사용자는 임의로 생성한 숫자 \(b\)를 스마트카드에 입력한다. 등록 과정을 통해 사용자가 소유한 스마트카드는 \(V\), \(R\), \(b\) 와 \( \mathrm{h}() \) 포함하고 있으며 사용자는 다음 과정에서 더 이상 \(b\)를 기억할 필요가 없다.</li></ul> <h3>2) 로그인 단계</h3> <p>이 단계는 사용자가 서버에 로그인할 때의 과정으로 다음과 같은 작업을 수행한다(Fig. 3).</p> <ul> <li>Step 1. 사용자는 스마트카드 리더에 스마트카드를 삽입 하고 ID와 PW를 입력한다.</li> <li>Step 2. 스마트카드는 스마트카드의 소유자를 확인하기 위해 \(p\), \( \mathrm{V}^{\prime} \)을 계산하고 \(V\)와 \( \mathrm{V}^{\prime} \)을 비교한다. \(V\)와 \( \mathrm{V}^{\prime} \)가 다르면 스마트카드는 세션을 종료한다.</li> <li>Step 3. 스마트카드는 임의의 숫자 \(r\)을 생성하고 인증 정보로 C1, C2를 계산한다.</li> <li>Step 4. 스마트카드는 서버에 로그인 요청 메시지 M1을 전송한다.</li></ul> <h3>3) 검증 단계</h3> <p>이 단계는 로그인 요청 메시지 M1을 받은 후에 수행하는 과정으로 서버와 스마트카드는 다음과 같은 작업을 수행한다(Fig. 4).</p> <ul> <li>Step 1. 서버는 ID 또는 타임스탬프가 유효한지 확인한다. \( \triangle \mathrm{T} \)는 전송 지연에 대한 유효 시간 간격으로 (TU-TS )\( >\triangle T \)를 검사하여 타임스탬프의 유효성을 확인한다.</li> <li>Step 2. 서버는 로그인 요청 메시지를 확인하기 위해 \(p\), \( \mathrm{C}_{1}{ }^{\prime}, \mathrm{C}_{2}{ }^{\prime} \) 을 계산하고 \( \mathrm{C}_{2}{ }^{\prime} \)과 \( \mathrm{C}_{2} \)를 비교한다. \( \mathrm{C}_{2}{ }^{\prime} \)와 \( \mathrm{C}_{2} \)가 다르면 로그인 요청을 거절한다.</li> <li>Step 3. 서버는 상호 인증을 위한 검증 정보로 \( \mathrm{C}_{3} \) 를 계산하고 검증 메시지 \( \mathrm{M}_{2} \)를 사용자의 스마트카드에 전송한다.</li> <li>Step 4. 사용자의 스마트카드는 \( \mathrm{T}_{\mathrm{S}} \) 가 유효한지 확인하고 검증 메시지를 확인하기 위해 \( \mathrm{C}_{3}{ }^{\prime} \)을 계산하고 \( \mathrm{C}_{3}{ }^{\prime} \) 과 \( \mathrm{C}_{3} \)를 비교한다. \( \mathrm{C}_{3}{ }^{\prime} \)과 \( \mathrm{C}_{3} \) 다르면 사용자 인증에 실패한다.</li></ul> <h3>4) 패스워드 변경 단계</h3> <p>이 단계는 사용자가 기존의 패스워드 PW를 새로운 패스워드 \( \mathrm{PW}_{\text {new }} \)로 변경하는 과정으로 다음과 같은 작업을 수행한다(Fig. 5).</p> <ul> <li>Step 1. 사용자는 스마트카드 리더에 스마트카드를 삽입 하고 ID와 PW를 입럭하고 패스워드 변경을 요청한다.</li> <li>Step 2. 스마트카드는 스마트카드의 소유자를 확인하기 위해 \( \mathrm{p}^{*}, \mathrm{~V}^{*} \) 을 계산하고 \( \mathrm{V}^{*} \)와 \( \mathrm{V} \)를 비교한다.</li> <li>Step 3. \( \mathrm{V}^{*} \) 과 \(V\)가 같다면 사용자는 새로운 패스워드 \(PW_{new}\)를 선택하고 다르면 스마트카드는 패스워드 변경 요청을 거절한다.</li> <li>Step 4. 사용자의 스마트카드는 새로운 \( R_{\text {new }} \)와 \( V_{\text {new}} \)를 계산하여 \(R\)과 \(V\)를 대체함으로써 새로운 패스워드로 변경을 완료 한다.</li></ul> <h2>2.3 취약점 분석</h2> <h3>1) 위장 공격 위협</h3> <p>스마트카드를 이용한 원격 사용자 인증 방식은 서버로부터 스마트카드를 발급받은 정당한 사용자만이 스마트카드를 이용하여 서버에 사용자의 신분을 증명하는 방법이다. 하지만 Wang et al. Scheme은 공격자가 로그인 요청 메시지와 검증 메시지를 도청하여 습득한 정보를 이용하여 새로운 로그인 요청 메시지를 생성함으로써 정당한 사용자로 위장할 수 있다.</p> <h3>2) 스마트카드에서의 패스워드 추측 공격 위협</h3> <p>스마트카드는 사용자가 인증에 필요한 정보를 포함한 물리적 보안 매체이다. 하지만 스마트카드를 분실 및 도난당했을 경우, 공격자는 스마트카드에 저장된 정보들이 추출할 수 있다. 추출된 정보들은 별도의 암호 기술 없이 해시 기반의 정보로써 공격자는 적은 노력만으로도 사용자의 패스워드의 추측이 가능하다.</p>
|
스마트카드를 이용한 원격 사용자 인증 방식은 기존 방식의 취약점인 위장 공격을 방어하기 위해 제안된 방식이며 등록, 로그인, 검증, 패스워드 변경 단계로 구성되어 있다. 이 방법은 서버로부터 스마트카드를 발급받은 정당한 사용자만이 스마트카드를 이용하여 서버에 신분을 증명하는 방법이다. 하지만 로그인 요청 메세지와 검증 메세지를 도청하고 습득한 정보를 이용하여 정당한 사용자로 위장할 수 있다. 또한 스마트카드를 분실 및 도난당햇을 경우 스마트카드에 저장된 정보들이 유출될 수 있으며 이 정보들은 해시기반의 정보로서 적은 노력만으로 사용자의 패스워드 추측이 가능하다.
|
<h2>4.3 제안방식 2</h2> <p>본 제안방식 2는 스마트카드의 소유자를 서버의 정보를 포함한 검증 정보를 이용하여 확인함으로써 공격자가 스마트카드에서 추출한 정보로부터 패스워드를 추측하거나 스마트카드의 소유자를 서버 없이 검증할 수 없도록 한다.</p> <h3>1) 등록 단계</h3> <p>이 단계는 사용자가 서버에 자신을 등록하고 스마트카드를 발급받는 과정으로 안전하게 수행된다고 가정한다(Fig. 10).</p> <ul> <li>Step 1. 사용자는 스마트카드 리더에 스마트카드를 삽입하고 ID와 PW를 입력한다.</li> <li>Step 2. 스마트카드는 비밀 키 \( \mathrm{C}_{\mathrm{X}} \) 를 생성하고 사용자의 PW를 이용하여 CPW를 생성한 후, 사용자 등록을 요청한다.</li> <li>Step 3. 서버는 비밀 키 \( \mathrm{S}_{\mathrm{X}} \) 를 생성하고 CID와 \(V\)를 계산하여 스마트카드에 전송한다. 사용자의 등록 횟수를 나타내는 속성으로 \( \mathrm{N}=0 \)으로 생성하고 재등록 과정일 경우 \( \mathrm{N}=\mathrm{N} + 1\)로 설정하여 \(V\)의 입력 값으로 사용한다.</li> <li>Step 4. 사용자는 등록 과정을 통해 서버로부터 전송받은 CID와 \(V\), \( \mathrm{h}() \)를 소유한 스마트카드에 저장한다. 또한, 재등록 과정을 통해 사용자의 PW와 관계없이 새로운 검증 정보 \( \mathrm{V}_{\text {new}} \)를 재발급 받을 수 있다.</li></ul> <p>\[ V_{n e w}=h\left(C P W\left\|S_{x}\right\| N+1\right) \]</p> <h3>2) 로그인 단계</h3> <p>이 단계는 사용자가 서버에 로그인할 때의 과정으로 다음과 같은 작업을 수행한다(Fig. 11).</p> <ul> <li>Step 1. 사용자는 스마트카드 리더에 스마트카드를 삽입 하고 ID와 PW를 입력한다.</li> <li>Step 2. 스마트카드는 임의의 숫자 \(r\)을 생성하고 로그인 요청 정보로 \( \mathrm{C}_{1}\), \(\mathrm{C}_{2}\), \(\mathrm{C}_{3} \) 를 계산한다.</li> <li>Step 3. 스마트카드는 서버에 로그인 요청 메시지 \( \mathrm{M}_{1} \) 을 전송한다.</li></ul> <h3>3) 검증 단계</h3> <p>이 과정은 인증 요청 메시지 M1을 받은 후에 서버와 스마트카드는 다음과 같은 과정을 수행한다(Fig. 12).</p> <ul> <li>Step 1. 서버는 ID 또는 타임스탬프가 유효한지 확인한 다. \( \triangle \mathrm{T} \) 는 전송 지연에 대한 유효 시간 간격으로 \((TU-TS)>\triangle \mathrm{T} \) 를 검사하여 타임스탬프의 유효성을 확인한다.</li> <li>Step 2. 서버는 로그인 요청 메시지를 확인하기 위해 CID, \( \mathrm{C}_{2}{ }^{\prime}, \mathrm{C}_{3}{ }^{\prime} \)을 계산하고 \( \mathrm{C}_{3}{ }^{\prime} \) 과 \( \mathrm{C}_{3} \)를 비교한다. \( \mathrm{C}_{3}{ }^{\prime} \)과 \( \mathrm{C}_{3} \)가 다르면 로그인 요청을 거절한다.</li> <li>Step 3. 서버는 상호 인증을 위한 검증 정보로 \(V\), \( \mathrm{C}_{2}{ }^{\prime}\), \(\mathrm{C}_{4} \)를 계산하고 검증 메시지 \( \mathrm{M}_{2} \)를 사용자의 스마트카드에 전송한다.</li> <li>Step 4. 사용자의 스마트카드는 \( \mathrm{T}_{\mathrm{S}} \)가 유효한지 확인하고 검증 정보를 확인하기 위해 \( \mathrm{C}_{4}{ }^{\prime} \)을 계산하고 \( \mathrm{C}_{4}{ }^{\prime} \)과 \( \mathrm{C}_{4} \)를 비교한다.</li></ul> <h3>4) 패스워드 변경 단계</h3> <p>이 단계는 사용자가 기존의 패스워드 PW를 새로운 패스워드 \( \mathrm{PW}_{\text {new }} \)로 변경하는 과정으로 다음과 같은 작업을 수행한다. 이 과정은 사용자 인증 후 진행된다(Fig. 13).</p> <ul> <li>Step 1. 기존 패스워드 PW와 새로운 패스워드 \( \mathrm{PW}_{n e w} \)를 입력하고 패스워드 변경을 요청한다.</li> <li>Step 2. 스마트카드는 임의의 숫자 \(r\)을 생성하고 패스워드 변경 요청 정보로 \( \mathrm{C}_{1}\), \(\mathrm{C}_{2}\), \(\mathrm{C}_{3} \)를 계산한다.</li> <li>Step 3. 스마트카드는 서버에 패스워드 변경 요청 메시지 \( \mathrm{M}_{1} \)을 전송한다.</li> <li>Step 4. 서버는 패스워드 변경 요청 메시지를 받은 후, ID 또는 타임스탬프가 유효한지 확인한다. \( \triangle T \)는 전송 지연에 대한 유효 시간 간격으로 \((TU-TS)>\triangle T \)를 검사하여 타임스탬프의 유효성을 확인한다.</li> <li>Step 5. 서버는 패스워드 변경 요청 메시지를 확인하기 위해 CID, \( \mathrm{C}_{2}{ }^{\prime}, \mathrm{C}_{3}{ }^{\prime} \)을 계산하고 \( \mathrm{C}_{3}{ }^{\prime} \)과 \( \mathrm{C}_{3} \)를 비교한다. \( \mathrm{C}_{3}{ }^{\prime} \)과 \( \mathrm{C}_{3} \)가 다르면 패스워드 변경 요청을 거절한다.</li> <li>Step 6. 서버는 패스워드 변경에 대한 확인 정보로 \(V\), \( \mathrm{V}_{\text {new }}\), \(\mathrm{C}_{4}\), \(\mathrm{C}_{5} \)를 계산하고 검증 메시지 \( \mathrm{M}_{2} \)를 사용자의 스마트카드에 전송한다.</li> <li>Step 7. 스마트카드는 검증 메시지를 확인하기 위해 \( \mathrm{C}_{4}{ }^{\prime} \), \( \mathrm{C}_{5}^{\prime} \)을 계산하고 \( \mathrm{C}_{5}{ }^{\prime} \)과 \( \mathrm{C}_{5} \)를 비교한다.</li> <li>Step 8. 스마트카드는 \( \mathrm{C}_{5}^{\prime} \)과 \( \mathrm{C}_{5} \) 같다면 검증 정보 \(V\)를 \( \mathrm{C}_{4}{ }^{\prime} \)로 대체하고 다르면 패스워드 변경에 거절한다.</li></ul>
|
본 논문에서는 스마트 카드의 소유자를 검증 정보를 통해 확인함으로써 공격자가 스마트카드로부터 추출한 정보로부터 비밀번호를 추측하거나 소유자를 서버없이 검증할 수 없도록 한다. 그 단계는 등록단계, 로그인 단계, 검증 단계, 패스워드 변경 단계 순으로 구성되어있다. 등록 단계는 사용자가 서버에 자신을 등록하고 스마트카드를 발급받는 과정이고 안전하게 수행된다고 가정했다. 로그인 단계에서는 로그인 요청정보를 활용해 로그인을 한다. 비밀번호단계에서는 비밀번호 요청정보를 활용해 패스워드를 변경한다.
|
<h1>1. 서 론</h1> <p>최근 네트워크 기술의 급속한 발전과 함께 사람들은 시간이나 장소에서 구애받지 않고 인터넷 서비스를 이용할 수 있게 되었다. 인터넷 서비스에 접근하는 과정에서 사용되는 사용자 인증 방식은 서비스를 이용하기 위한 사용자를 확인하는 매우 중요한 과정으로 패스워드 기반의 인증 방식이 많이 사용되고 있다. 패스워드 기반의 인증 방식은 사용자가 알고있는 정보를 바탕으로 선택된 패스워드를 이용하여 간편하게 서비스를 이용 가능하지만 서버는 서비스를 이용하는 사용자의 인증 정보로 모든 사용자에 대한 패스워드들을 저장하기 위해 패스워드 테이블이 요구된다. 이러한 패스워드 테이블의 구성은 내부 유출에 대한 문제가 이슈화됨에 따라 내부자에 의한 패스워드 테이블의 노출로 인해 아이디 도용 문제가 발생할 수 있다. 이러한 문제를 해결하기 위해 Lamport에 의해 패스워드 테이블의 구성없이 사용자의 신원을 증명할 수 있는 원격 사용자 인증 방식이 제안되었다.</p> <p>그 중, Hwang과 Li가 최초로 스마트카드를 이용한 원격 사용자 인증 방식을 제안하였다. 스마트카드는 보안 모듈, 메모리 관리 모듈, 입출력 모듈 등이 탑재하고, 집적회로(IC:Integrated Circuit) 칩을 내장하고 있기 때문에 자체 연산 가능한 보안 매체로써 하나의 원격지 서버로 이용 가능하다. 하지만, 제안된 방식은 ElGamal 공개키 암호를 이용하여 이산대수의 어려움에 기반한 안정성을 제공하지만 높은 연산 비용을 요구한다는 문제점을 가지고 있다.</p> <p>이러한 연산 비용 문제를 해결하기 위해 Sun등은 보다 효율적인 해시기반의 원격 사용자 인증 방식을 제안하였다. 이 후에도 연산비용 문제를 해결하기 위해 해시기반의 다양한 연구들이 진행되었다.</p> <p>연산비용 문제 뿐 아니라 다양한 기능을 제공하기 위해서 많은 연구들이 진행되었다. 그 중, Chien등은 상호인증을 제공할 수 있는 방식을 제안하였으며, Ku 등은 사용자의 패스워드를 자유롭게 변경할 수 있는 방식을 제안하였다.</p> <p>또한, 다양한 보안 취약점을 보완한 많은 연구들도 이루어졌다. Yoon등은 인가되지 않은 사용자에 의해 쉽게 패스워드가 변경될 수 있다는 문제점을 해결하기 위한 방식을 제안하였고, Lee등은 위조 공격을 해결하기 위한 방식을 제안하였다. 이 외에도 Wang등은 서비스 거부 공격을 해결하기 위한 방식을 제안하였다.</p> <p>하지만 이러한 기존 연구들은 공격자가 사용자와 서버의 통신 과정에서 도청한 정보를 이용하여 정당한 사용자로 위장하거나 분실 또는 도난당한 스마트카드로부터의 저장된 정보들을 추출하여 사용자의 패스워드가 추측될 수 있다. 따라서 본 논문은 기존 방식들을 분석하고 사용자 위장 공격과 스마트카드에 저장된 정보 발생할 수 있는 패스워드 추측 공격으로부터 안전한 사용자 인증 방식을 제안한다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서는 기존 스마트카드를 이용한 원격 사용자 인증 방식을 분석하고, 3장에서는 기존 방식의 취약점 분석을 기반으로 보안요구사항을 도출한다. 4장에서는 위장 공격으로부터 안전한 방식과 오프라인 패스워드 추측 공격으로부터 안전한 방식을 제안하고, 5장에서는 기존 요구 사항을 기반으로 제안방식을 분석한다. 마지막으로 6장에서 결론을 맺는다.</p>
|
패스워드 기반의 인증 방식은 사용자가 알고있는 정보를 바탕으로 선택된 패스워드를 이용하여 간편하게 서비스를 이용 가능하지만 서버는 서비스를 이용하는 사용자의 인증 정보로 모든 사용자에 대한 패스워드들을 저장하기 위해 패스워드 테이블이 요구되기에 Lamport는 패스워드 테이블의 구성없이 사용자의 신원을 증명할 수 있는 원격 사용자 인증 방식이 제안하였다. 이때문에생긴 보안 취약점을 보완한 많은 연구들 역시 이루어졌다. 그러나 기존 연구들은 공격자가 사용자와 서버의 통신 과정에서 도청한 정보를 이용하여 정당한 사용자로 위장하거나 분실 또는 도난당한 스마트카드로부터의 저장된 정보들을 추출하여 사용자의 패스워드가 추측될 수 있기에 본 논문에서는 기존 방식들을 분석하고 사용자 위장 공격과 스마트카드에 저장된 정보 발생할 수 있는 패스워드 추측 공격으로부터 안전한 사용자 인증 방식을 제안한다.
|
<h1>4. 제안방식</h1> <p>본 장에서는 스마트카드를 이용한 해시기반의 원격 사용자 인증 방식으로 스마트카드의 아이디와 패스워드를 생성하여 사용자 인증을 수행하며 제안방식 1 에서 위장 공격 위협을 해결할 수 있는 방식과 제안방식 2에서 패스워드 추측 공격 위협을 해결할 수 있는 방식을 제안한다. 제안 방식의 구성은 기존 방식과 동일하게 등록 단계, 로그인 단계, 검증 단계, 패스워드 변경 단계로 구성되어 있다.</p> <h2>4.1 시스템 계수</h2> <ul> <li>\(*\) : 각각의 객체 (U: 사용자, S: 서버, C: 스마트카드)</li> <li>ID : 사용자의 식별자</li> <li>PW : 사용자의 비밀 번호</li> <li>CID : 사용자의 ID기반의 스마트카드 식별자</li> <li>CPW : 사용자의 PW기반의 스마트카드 비밀번호</li> <li>\(V\) : 스마트카드 소유자를 검증하기 위한 값</li> <li>\(N\) : 등록 횟수</li> <li>\( h() \) : 해시 함수</li> <li>\( { }^{*} x \) : 객체 \(*\)의 비밀 키</li> <li>\( T_{*} \) : 객체 \( * \) 의 타임스탬프</li></ul> <h2>4.2 제안방식 1</h2> <p>본 제안방식 1은 불필요한 XOR연산을 제거하여 연산량을 줄이고 사용자의 스마트카드와 서버 사이에 발생할 수 있는 위장 공격으로부터 안전한 방식이다.</p> <h3>1) 등록 단계</h3> <p>이 단계는 사용자가 서버에 자신을 등록하고 스마트카드를 발급받는 과정으로 안전하게 수행된다고 가정한다(Fig. 6).</p> <ul> <li>Step 1. 사용자는 서버에 사용자의 정보를 전송한다.</li> <li>Step 2. 서버는 비밀 키 SX를 생성하고 CID와 \(V\)를 계산하여 스마트카드에 입력한다.</li> <li>Step 3. 서버는 CID와 \(V\)를 포함한 스마트카드를 사용자에게 발급한다. 등록 과정을 통해 사용자가 발급받은 스마트카드는 CID와 \(V\), \( \mathrm{h}( \) ) 포함하고, 서버는 더 이상 사용자로부터 입력받은 \( \mathrm{h}(\mathrm{PW}) \) 정보를 저장할 필요가 없다.</li></ul> <h3>2) 로그인 단계</h3> <p>이 단계는 사용자가 서버에 로그인할 때의 과정으로 다음과 같은 과정을 수행한다(Fig. 7).</p> <ul> <li>Step 1. 사용자는 스마트카드 리더에 스마트카드를 삽입하고 ID와 PW를 입력한다.</li> <li>Step 2. 스마트카드는 스마트카드의 소유자를 확인하기 위해 \( \mathrm{V}^{\prime} \)을 계산하고 \(V\)와 \( \mathrm{V}^{\prime} \)을 비교한다. \(V\)와 \( \mathrm{V}^{\prime} \)가 다르면 스마트카드는 세션을 종료한다.</li> <li>Step 3. 스마트카드는 임의의 숫자 \(r\)을 생성하고 로그인 요청 정보로 \( \mathrm{C}_{1}\), \(\mathrm{C}_{2} \)를 계산한다.</li> <li>Step 4. 스마트카드는 서버에 로그인 요청 메시지 M1을 전송한다.</li></ul> <h3>3) 검증 단계</h3> <p>이 단계는 서버가 로그인 요청 메시지 M1을 받은 후 수행되는 과정으로 서버와 스마트카드는 다음과 같은 작업을 수행한다(Fig. 8).</p> <ul> <li>Step 1. 서버는 ID 또는 타임스탬프가 유효한지 확인한다. \( \triangle \mathrm{T} \)는 전송 지연에 대한 유효 시간 간격으로 \((TU-TS ) >\triangle T \) 를 검사하여 타임스탬프의 유효성을 확인한다.</li> <li>Step 2. 서버는 로그인 요청 메시지를 확인하기 위해 CID, \( \mathrm{CPW}^{\prime}\), \(\mathrm{C}_{2}^{\prime} \)을 계산하고 \( \mathrm{C}_{2}{ }^{\prime} \)과 \( \mathrm{C}_{2} \)를 비교한다./li> <li>Step 3. 서버는 상호 인증을 위한 검증 정보로 \( \mathrm{C}_{3} \)를 계산하고 검증 메시지 \( \mathrm{M}_{2} \)를 사용자의 스마트카드에 전송한다.</li> <li>Step 4. 사용자의 스마트카드는 \( \mathrm{T}_{\mathrm{S}} \)가 유효한지 확인하고 검증 정보를 확인하기 위해 \( \mathrm{C}_{3}{ }^{\prime} \)을 계산하고 \( \mathrm{C}_{3}{ }^{\prime} \)과 \( \mathrm{C}_{3} \)를 비교한다.</li></ul> <h3>4) 패스워드 변경 단계</h3> <p>이 단계는 사용자가 기존의 패스워드 PW를 새로운 패스워드 \( \mathrm{PW}_{\text {new }} \)로 변경하는 과정으로 다음과 같은 작업을 수행한다(Fig. 9).</p> <ul> <li>Step 1. 사용자는 스마트카드 리더에 스마트카드를 삽입 하고 ID와 PW를 입력하고 패스워드 변경을 요청한다.</li> <li>Step 2. 스마트카드는 스마트카드의 소유자를 확인하기 위해 \( \mathrm{V}^{\prime} \)을 계산하고 \( \mathrm{V}^{\prime} \)와 \(V\)를 비교한다.</li> <li>Step 3. \( \mathrm{V}^{\prime} \)과 \(V\)가 같다면 사용자는 새로운 패스워드 \( \mathrm{PW}_{\text {new}} \)를 선택하고 다르면 스마트카드는 패스워드 변경 요청을 거절한다.</li> <li>Step 4. 사용자의 스마트카드는 \( \mathrm{V}_{n e w} \)를 계산하여 V를 대체함으로써 새로운 패스워드로 변경된다.</li></ul>
|
본 논문에서는 스마트 카드를 이용한 해시기반의 사용자 인증 방식을 사용해 스마트카드의 아이디와 패스워드를 생성하고 사용자 인증을 수행하며 제안방식 1에서는 위장 공격 위협을 해결할 수 있는 방식과 제안방식2에서는 패스워드 추측공격위협을 해결할수 있는 방법을 제안하고 있다. 제안방식 1은 불필요한 XOR연산을 제거하므로써 연산량을 줄이고 스마트카드와 서버 사이에서 발생할 수 있는 위장공격으로 부터 안전한 방법이다. 그 단계는 등록단계, 로그인단계, 검증단계, 패스워드 변경단계 순으로 구성된다.
|
<p>TWR 방식에서 양쪽 노드의 국부클럭 주파수가 기준주파수와 동일하다면 TOF는 식 (1)과 같이 표현된다. 계수기에 포함된 주파수 차이를 고려한 TOF는 식 (2)와 같이 표현되고, 차이는 식 (3)과 같이 표현된다. 여기에서 \( r_ { r e p l y B } \) 는 Device B에서 프레임을 수신하고 Ack를 전송하는데 걸린 시간으로 프로세서의 성능과 프로그래밍 코드와 관련된 것으로 수 ms가 될 수도 있으며, 미리 정의한 시간으로 설정가능하다. 따라서 식 (2)에서 두 장치간의 주파수 차이와 프로세서 처리시간에 따라 심각한 거리추정 오류가 발생할 수 있다.</p> <p>\( t_ { p } = \frac { 1 } { 2 } \left \{\left ( \tau_ { A R } - \tau_ { A T } \right )- \left ( \tau_ { B T } - \tau_ { B R } \right ) \right \} \)<caption>(1)</caption></p> <p>\( 2 \hat { t_ { p } } = \left ( \tau_ { A R } - \tau_ { A T } \right ) \left (1 + e_ { A } \right ) + \left ( \tau_ { B R } - \tau_ { B T } \right ) \left (1 + e_ { B } \right ) \)<caption>(2)</caption></p> <p>\( \begin {aligned} \hat { t_ { p } } -t_ { p } &= \frac { 1 } { 2 } r_ {\text { replyB } } \left (e_ { A } -e_ { B } \right ) + t_ { p } \cdot e_ { A } \\ & \approx \frac { 1 } { 2 } r_ {\text { reply } B } \left (e_ { A } -e_ { B } \right ) \end {aligned} \)<caption>(3)</caption></p> <h3>2.2.3 SDS-TWR 수행절차 및 거리 추정 오류</h3> <p>(그림 3)은 SDS-TWR에서의 거리추정 프레임 교환을 나타낸 것이다. 그림에서와 같이 거리추정 시작 프레임을 전송한 Device A에서 Device B에서의 Ranging 정보까지 취합하여 TOF 를 계산하는 것으로 가정하였다. SDS-TWR에서는 양 노드의 시각 정보를 취합하여야 정확한 TOF 추정이 가능하다. 따라서 그림에서와 같이 마지막 프레임전달이 실제로 발생하게 된다.</p>
|
TWR 방식은 양쪽 노드의 국부클럭 주파수가 기준주파수와 동일할 때 TOF를 계산하는데, SDS-TWR에서는 양 노드의 시각 정보를 취합하여 정확한 TOF 추정이 되면 마지막 프레임 전달이 실제로 발생한다. 그러나 주파수 차이와 프로세서 처리시간에 따라 거리 추정 오류가 발생한다.
|
<p>SDS-TWR 방식에서 양쪽 노드의 국부클럭 주파수가 기준주파수와 동일하다면 TOF는 식 (4)와 같이 표현된다. 계수기에 포함된 주파수 차이를 고려한 TOF는 식 (5)와 같이 표현되고, 차이는 식 (6)과 같이 표현된다. 여기에서 \( \Delta_ { r e p l y } \) 는 Device A와 Device B } 간의 응답시간 차이를 나타낸 것으로 동일한 H/W 및 S/W로 구성되었다면 거의 오류가 발생하지 않을 수도 있다. 서로 다른 H/W 및 S/W의 경우, 심각한 거리추정 오류가 발생할 수 있다.</p> <p>\( \begin {aligned} t_ { p } =& \frac { 1 } { 4 } \left \{\left (t_ {\text { round } A } -t_ {\text { replyA } } \right ) + \left (t_ {\text { round } B } -t_ {\text { reply } B } \right ) \right \} \\=& \frac {\left ( \tau_ { A R 1 } - \tau_ { A T 1 } \right )- \left ( \tau_ { A T 2 } - \tau_ { A R 1 } \right ) } { 4 } \\ & + \frac {\left ( \tau_ { B R 2 } - \tau_ { B T 1 } \right )- \left ( \tau_ { B T 1 } - \tau_ { B R 1 } \right ) } { 4 } \end {aligned} \)<caption>(4)</caption></p> <p>\( \begin {aligned} \hat { t_ { p } } =& \frac {\left ( \tau_ {\text { round } A } - \tau_ {\text { replyA } } \right ) \left (1 + e_ { A } \right ) } { 4 } \\ & + \frac {\left ( \tau_ {\text { round } B } - \tau_ {\text { reply } B } \right ) \left (1 + e_ { B } \right ) } { 4 } \end {aligned} \)<caption>(5)</caption></p> <p>\( \begin {aligned} \hat { t_ { p } } -t_ { p } &= \frac { 1 } { 2 } t_ { p } \left (e_ { A } + e_ { B } \right ) + \frac { 1 } { 4 } \Delta_ {\text { reply } } \left (e_ { A } -e_ { B } \right ) \\& \approx \frac { 1 } { 4 } \Delta_ {\text { reply } } \left (e_ { A } -e_ { B } \right ) \end {aligned} \)<caption>(6)</caption></p>
|
SDS-TWR 방식에서 두 노드의 국부 클럭 주파수가 기준주파수와 동일할 경우, TOF는 특정 식으로 표현된다. 그러나 주파수 차이를 고려한 TOF는 다른 식으로 계산되며, 이들 사이의 차이 역시 별도의 식으로 표현된다. 또한, Device A와 Device B 간의 응답시간 차이는 하드웨어와 소프트웨어 구성에 따라 달라질 수 있으며, 이들이 다를 경우 거리 추정에서 심각한 오류가 발생할 수 있다.
|
<h3>2.2 TWR 및 SDS-TWR 방식</h3> <p>TWR 및 SDS-TWR은 고정노드와 이동노드들이 비동기 상태에서도 상호간의 거리를 추정할 수 있는 방식으로 수행 절차가 복잡하다는 것과 노드간의 주파수 차이에 의한 거리 추정 오류가 여전히 존재하며, 노드쌍의 특성에 따라 크게 차이날 수 있다는 단점이 있다. 따라서 실제로 발생하는 수행절차와 거리추정오류를 고찰하고자 한다. (그림 1)은 위치추정을 수행하는 센서네트워크의 구성 예를 나타낸 것이다. 그림에서와 같이 일반적으로 센서네트워크는 알려진 위치에 설치된 소수의 고정 노드 \( \left ( \mathrm { N } _ {\mathrm { A } } \sim \mathrm { N } _ {\mathrm { E } } \right ) \)와 다수의 이동노드 \( \left ( \mathrm { N } _ {\mathrm { M } } \right ) \), 그리고 이동노드의 위치를 추정하는 위치서버로 구성된다. Cricket에서는 이동노드에서 단말기 자신의 위치를 추정하였지만 소형, 저가, 저전력 등의 센서노드 특성과는 맞지 않다. 따라서 Active Bat, Ubisense 등과 같이 위치서버가 존재하는 구성이 보다 타당하다고 여겨진다. 그림에서 이동노드와 고정노드간의 거리에 관한 정보가 추정되어 위치서버로 취합되면 위치서버는 TOA, TDOA 및 AOA(Angle of Arrival) 등의 알고리즘으로 이동노드의 위치를 추정한다. 추정된 위치정보는 이동노드의 위치인식 및 망에서 각 노드에게 필요한 서비스를 제공하는데 사용될 수 있다.<h3>2.2 .1 수행절차 분석</h3> <p>IEEE \(802.15.4a \)에서 제시된 TWR과 SDS-TWR의 수행절차에서 시각 정보의 기준은 Ranging 비트의 송신 및 수신시각으로 표시되며, 각각의 시각정보는 \(499.2 \mathrm { MHz } \) Chipping Rate와 보간법을 사용하여 \( 64 \mathrm { GHz } \) 표본화에 의한 32비트 클럭 계수기로 표시된다. 이 시각 정보는 PHY에서 저장된 상태로 있다가 MAC의 요구에 의하여 응용계층으로 전달된다. 따라서 프레임 송신 시각은 RFrame을 전송한 다음 별도의 프레임 전송에 의하여 전달이 이루어져야 한다. (그림 1)의 구성에서는 전달방향이 고정 노드 \( N_ {\mathrm { A } } \)를 반드시 경유하는 위치서버이다.</p> <h3>2.2.2 TWR 수행절차 및 거리추정 오류</h3> <p>(그림 2)는 TWR에서의 거리추정 프레임 교환을 나타낸 것이다. 그림에서와 같이 거리추정 시작 프레임을 전송한 측에서 TOF를 계산하는 것으로 가정한다. 먼저 Device A에서 MAC의 요구에 의하여 psdu와 Ranging 설정 정보를 포함한 PD-DATA.request Primitive가 발생하고 Ranging 비트가 Set된 프레임이 전송된다. 전송이 완료된 다음, \( \tau_ { A T } \)를 포함한 Ranging 정보와 함께 PD-DATA.confirm primitive가 MAC 방향으로 발생한다. Device B는 PLME-SET-TRX-STATE. request를 사용하여 RX_WITH_RANGING_ON으로 미리 설정된 것으로 가정한다. Device A의 프레임을 Device B에서 수신하게 되면 psdu와 Ranging 정보 \( \tau_ { B R } \)등을 PD-DATA.indication에 의하여 MAC으로 전달한다. 이후 양쪽 노드에서 알고 있는 특정한 지연 이후 Acknowledge에 의한 Ranging 정보가 전달되어 \( \tau_ { A T } \)이 취득되면 TOF 계산이 가능하다. 보다 정확한 TOF를 추정하기 위해서는 Device B에서 취득한 \( \tau_ { B T } \)를 Device A로 전달하는 전달이 추가되어야 한다.</p>
|
TWR 및 SDS-TWR은 상호간의 거리를 추정할 수 있는 방식으로 수행절차가 복잡하고 주파수 차이로 거리 추정 오류가 있다는 문제가 있다. 이동노드와 고정노드간의 거리가 위치서버로 취합되면 위치서버는 이동노드의 위치를 추정하고 위치정보는 이동노드의 위치인식과 노드에게 필요한 서비스를 제공한다. TWR과 SDS-TWR의 시각정보의 기준은 송신과 수신시각으로 나타나며 보간법을 사용하여 32비트 클럭 계수기로 표시된다.
|
<p>이동노드와 소수의 고정노드들 간 동기화 상태에서는 노드간 거리추정과 TOA(Time of Arrival) 위치추정이 사용될 수 있다. 이동노드를 제외한 소수의 고정노드들 간 동기화 상태에서는 TDOA(Time Difference of Arrival) 위치추정 방식을 사용할 수 있다. IEEF \(802.15.4a \)에서는 고정노드 및 이동노드간에 동기화가 이루어지지 않은 상태에서 거리를 추정하는 TWR (Two-Way Ranging) 및 SDS-TWR(Symmetric Double Sided-TWR) 방식을 제안하고 있다. 또한 TWR 및 SDS-TWR의 문제점과 고정노드간의 동기화의 필요성, OWR(One-Way Ranging)을 사용하는 Active Bat과 같은 Active Mode와 Cricket과 같은 Passive Mode 사용방법에 대한 연구의 필요성도 기술하고 있다. TWR 등은 여러 번의 프레임 전송이 이루어진 다음 거리를 추정하지만 여전히 노드간의 주파수 차이와 응답시간에 민감하다. 따라서 본 논문은 주파수 차이를 추정하는 방식을 제안하고, 기존의 방식인 TWR, SDS-TWR와 주파수 차이의 영향을 제거한 위치추정 시뮬레이션 견과를 제시한다. 제안된 주파수 차이 추정 방식은 TWR 및 SDS-TWR 성능 개선 뿐 만 아니라 OWR 방식에 의한 거리추정에 확대 적용할 수 있을 것이다.</p> <p>본 논문은 2장에서 기존 비동기 거리추정 방식과 상세 절차 및 개선의 여지를 살펴보고, 3장에서 주파수 차이를 추정하는 방식과 적용 방법을 제안하고, 4장에서 시뮬레이션으로 제안된 방식의 성능을 평가 분석하고, 마지막으로 활용 방안 및 앞으로의 연구 방향에 대한 내용으로 구성된다.</p> <h2>2. 비동기 거리추정 방식</h2> <h3>2.1 거리추정 오류 고찰</h3> <p>TOF를 사용하여 추정하는 거리에는 오류가 포함된다. 이러한 오류를 발생시키는 원인으로는 무선신호의 다중경로, NLOS(Non Line Of Sight), 수신기 잡음, 해상도, BS간의 동기, 노드간의 주파수 차이 등이 있다.</p> <p>IEEE \(802.15.4a \)에서와 같이 Ranging 비트를 기준으로 시각을 표현하는 방법은 소자에서 여러 오류 원인을 처리한 다음 높은 해상도의 계수기 값으로 표현된다. 따라서 위의 오류 원인에서 다중경로 및 잡음 등에 의한 오류는 디지털 신호처리 알고리즘에 의하여 개선될 수 있다. 반면에 NLOS에 의한 오류는 환경적인 요소로서 사물이나 사람 또는 동문에 의하여 LOS를 방해하는 요인에 의하여 항상 발생할 수 있으며, 이를 제어하기 위해서는 픅정한 고정노드의 급격한 거리변화에 관심을 가져야 하고, 어쩌면 계속적으로 NLOS 발생을 인지하지 못 할 수노 있어서 복구가 어려워 경험적 방법 등으로 개선할 수 있을 것이나. BS간의 주파수 차이는 유선 케이블에 의한 망동기 공급 등의 수단으로 방법을 찾을 수 있다. IEEE \(802.15.4a \)에서는 비동기 상태에서 TWR 또는 SDS-TWR 방식으로 주파수 차이의 영향을 감소시켜 TOF를 추정하고 있으나 여전히 주파수 차이에 의한 거리추정 오류를 포함하고 있다.</p>
|
이 논문은 이동노드와 소수의 고정노드들 사이의 동기화에 중점을 두며, 노드간 거리와 TOA 위치 추정 등이 가능함을 지적한다. 또한 TWR 및 SDS-TWR의 문제점, 고정노드간 동기화의 필요성, OWR을 활용하는 방식 등에 대한 연구 필요성을 강조하고 있다. 본 연구는 주파수 차이 추정 방안을 제안하며, TWR, SDS-TWR 기법과 주파수 차이 영향을 제거한 위치 추정 시뮬레이션 결과를 제시한다. 그러나 TOF를 이용한 거리 추정은 무선신호의 다중경로, NLOS, 수신기 잡음, 해상도, BS간 동기 등에 의한 오류가 포함되어 있다.
|
<h2>3. 주파수 차이 추정</h2> <h3>3.1 주파수 차이 추정 방법</h3> <p>발진기의 특성 가운데 주파수는 주로 주파수안정도(Frequency Stability)와 Aging 특성 파라메타에 의하여 명시된다. 주파수안정도는 발진기의 중심주파수에 관한 것으로 생산 당시 포함되는 주파수 편이의 범위이다. Aging은 Jitter 및 노화에 의하여 중심주파수로부터 변화할 수 있는 편이의 범위이다. 주파수안정도는 발진기에 적용된 기술에 따라 큰 차이를 보이며, Aging은 좁은 범위의 값을 갖는다. 본 논문에서는 센서노드의 발진기에 의한 계수기 클럭의 주파수 차이를 추정하고자 한다.</p> <p>(그림 4)는 주파수 차이를 추정하는 방식을 설명하기 위한 것이다. 그림에서와 같이 두 개의 고정된 위치에 놓인 노드 간에 발생하는 연속된 프레임 전송은 전송 간에 클럭 계수기의 차이를 가지며, 이는 주파수 차이로부터 발생한다. 노드-B에서 프레임을 송신한 시각을 나타내는 계수기의 값 \(n_ { B1 } , n_ { B2 } \) 등은 각각 정보가 발생한 이후의 프레임 전송에 전달하는 것으로 가정한다. 노드-A에서 프레임을 수신한 시각정보 \( n_ { AB1 } , n_ { AB2 } \) 등은 다음 처리에서 사용하는 것으로 가정한다. 따라서 위치서버는 \( \operatorname { Data } \left (n_ { AB 1 } , n_ { B 1 } \right ) \)과 \( \operatorname { Data } \left (n_ { A B 2 } , n_ { B 2 } \right ) \)쌍에 의하여 주파수 차이를 계산할 수 있다.</p> <p>노드 \( \mathrm { A } , \mathrm { B } \)의 주파수를 기준주파수부터 편이된 것으로 나타내면 다음과 같이 표현할 수 있다.</p> <p>\(f_ { A } =f_ { R } \left (1 + e_ { A } \right ) \) \(f_ { B } =f_ { R } \left (1 + e_ { B } \right ) \)<caption>(7)</caption></p> <p>\( f_ { R } \) : 기준 주파수 \( f_ { A } , f_ { B } \) : 노드-A, \( \mathrm { B } \) 의 주파수 \( e_ { A } , e_ { B } \) : 노드-A, B의 주파수 편이 (\(\mathrm{ppm}\))</p> <p>여기에서 두 쌍의 프레임 전송으로부터 프레임 송신 간의 시간간격과 프레임 수신 간의 실제 시간간격은 동일하므로 다음과 나타낼 수 있다.</p>
|
본 논문에서는 센서노드의 발진기에 의한 계수기 클럭의 주파수 차이를 추정하기 위해, 두 고정된 위치에 놓인 노드 간에 발생하는 연속된 프레임 전송을 사용한다. 노드-A와 노드-B의 주파수는 기준 주파수부터 편이된 것으로 나타내고, 두 쌍의 프레임 전송으로부터 프레임 송신간의 시간간격과 프레임 수신간의 실제 시간간격이 동일하므로 주파수 차이를 추정할 수 있다.
|
<h1>무선 센서망에서의 주파수 차이 추정 비동기 Ranging 방식</h1> <p>무선 센서망에서 이동노드의 위치를 추정하는데 센서노드의 클럭주파수 차이는 TOF 추정에 중요한 파라메타이머, 이동노드와 고정노드 간의 거리 추정에 크게 영향을 미친다. IEEE802.15.4a에서는 별도의 유선 등에 의한 망동기 공급이 없는 상태에서도 주파수 차이에 둔감한 비동기 TWR 및 SDS-TWR 거리 추정 방식을 제안하고 있다. 그러나 제안된 비동기 TWR 및 SDS-TWR 방식은 여전히 노드 쌍에 따른 주파수 차이, 프레임 처리 시간, 프레임 처리 시간 차이 등에 의한 영향을 충분히 제거하지 못하고 있다. 특히 주파수 차이가 큰 저가의 발진기 사용, 서로 다른 하드웨어 및 소프트웨어에서 동작하는 센서노드는 더 큰 위치추정 오류를 유발할 수 있다. 본 논문은 주파수 차이를 추정하는 방식을 제안하고, 기존의 TWR 및 SDS-TWR 방식에 적용하였다. 시뮬레이션을 통하여 주파수 차이 추정을 적용한 제안된 방식은 주파수 차이의 영향을 감소시켜 TWR 및 SDS-TWR 등의 성능을 개선시켰으며, \( 25cm \) 이하의 위치오류가 발생하는 것을 확인하였다.</p> <h2>1. 서 론</h2> <p>측위 기술은 GPS(Global Positioning Service)를 시작으로 이동통신분야, 텔레메틱스, 홈네트위크, 센서네트워크 등 산업 전 분야에 적용되고 있는 중요한 기술이다. 실외에서는 주로 GPS 위성을 활용하는 것이 대부분이며, 휴대폰 망에서는 GPS를 활용하지 않고도 기존의 BS(Base Station)를 사용함으로써 이동 단말기의 위치인식이 가능하다. 실내 측위는 건물에 의하여 GPS 신호 집근이 차단될 뿐만 아니라 홈, 사무실, 호텔 등과 같이 지역적으로 좁다는 특성을 갖는다. 따라서 좁은 지역에 적합한 기술인 센서네트위크 기반에서 주로 연구가 수행되었으며, 영상을 이용한 Easy Living, 바닥에 압력센서를 설치한 Smart Floor, 적외선을 사용한 Active Badgc, RF(Radio Frequency)와 초음파를 사용한 Active Bat, Cricket 및 Medusa 등 RSSI(Received Signal Strength Indication)를 사용한 RADAR 및 WINS 등 최근에는 UWB(Ultra Wide Band) 신호를 이용한 Ubisense 및 IEEE \(802.15.4a \) 등이 있다. 측위정보는 측위의 정보로서 뿐 만 아니라 일반 센서정보와 결합하여 센서정보를 보다 유용하게 하고 또한 상황분석을 보다 용이하게 한다. 따라서 상황인지 서비스를 제공하는 센서망에서는 당연히 측위기술이 필요하고 또한 더욱 정확한 위치 정보가 요구된다.</p> <p>최근 저속 WPAN (Wireless Personal Area Network) 및 고속 WPAN에서는 UWB를 사용한 거리추정 기능을 PHY에서 선택사항으로 수용하고 있다. 저속 WPAN에서는 IEEE \(802.15.4-2003 \) 이후 IEEE \(802.15.4a \) 및 IEEE \(802.15.4b \)에서 각각 대체 PHY 및 PHY/MAC 기능개선 측면에서 연구가 진행되었으며, IEEE \(802.15.4b \) 내용은 IEEE \(802.15.4-2006 \)에 수용되었다. IEEE \( 802.15.4a \)에서는 거리추정 기술과 데이터 전송속도 등을 포함한 물리계층 기능 개선 표준기술이 연구되었다. 고속 WPAN에서는 WiMedia Alliance의 PHY 규격에 TOF(Time of Flight)를 정확하게 추정할 수 있는 물리계층 기능이 정의되기 시작하였다. 이러한 추세에 따라 실내측위연구분야에서 기존의 다중경로 등에 의한 오류 연구 뿐 만 아니라 최근에는 망동기 설정 및 주파수 차이를 극복하는 알고리즘 등으로 확대되고 있다.</p>
|
무선 센서망의 이동 노드의 위치를 추정하기 위해 IEEE802.15.4a에서는 별도의 유선 등에 의한 망동기 공급이 없는 상태에서도 비동기 TWR 및 SDS-TWR 거리 추정 방식을 제안하고 있다. 본 논문에서는 주파수 차이를 추정하는 방식을 제안하고, 기존의 TWR 및 SDS-TWR 방식에 적용하여 주파수 차이의 영향을 감소시켜 성능을 개선하였다. 비동기 TWR 및 SDS-TWR 거리 추정 방식을 제안하고 있으며, 본 논문에서는 주파수 차이를 추정하는 방식을 제안하고 기존의 TWR 및 SDS-TWR 방식에 적용하여 주파수 차이의 영향을 감소시켜 성능을 개선하였다.
|
<p>\( t_ { 2 } -t_ { 1 } = \frac { 1 } { f_ { A } } \left (n_ { A B 2 } -n_ { A B 1 } \right )= \frac { n_ { A } } { f_ { A } } \) \( t_ { 2 } -t_ { 1 } = \frac { 1 } { f_ { B } } \left (n_ { B 2 } -n_ { B 1 } \right )= \frac { n_ { B } } { f_ { B } } \)<caption>(8)</caption></p> <p>\[ \frac { n_ { A } } { 1 + e_ { A } } = \frac { n_ { B } } { 1 + e_ { B } } \]</p> <p>따라서 노드-A가 기준클럭 \( \left (e_ { A } =0 \right ) \) 이거나 또는 주파수 편이를 알면, 노드-B의 주파수 편이는 다음과 같다.</p> <p>\( e_ { B } = \frac { n_ { B } } { n_ { A } } \left (1 + e_ { A } \right )-1 \)<caption>(9)</caption></p> <p>이러한 방식으로 무선 센서망에서 특정한 노드의 클럭을 기준으로 모든 노드들에 대한 주파수 차이를 추정할 수 있다. (그림 1)에서와 같이 위치서버와 접속하는 중요한 위치의 고정노드가 기준주파수로 동작한다면 노드간의 계수기에 대한 상호 비교가 더욱 용이해 질 수 있다.</p> <h3>3.2 주파수 차이 추정의 활용 방안</h3> <p>무선 노드간의 동기화는 용이하지 않다. Ubiscnse의 경우 일정한 길이의 유선케이블을 사용하여 고정노드간의 동기클럭을 공급하고 있다. (그림 1)에서와 같은 구성에서 노드-A의 클럭을 정확히 알게 되면, 노드-B, C, D, E 등 고정노드 간의 주파수 편이를 추정함으로씨 가상 망동기가 가능하다. SDS-TWR은 절차에 있어서 연속된 데이터 전송이 발생한다. 따라서 추가적인 계산만으로 주파수 차이의 영향을 제거할 수 있다. 반면에 TWR의 경우 단일 절차에서 주파수 차이 추정이 불가능하므로 절차 간의 시간 간격 활용도 가능하며, 또는 사전에 망에 소속된 노드의 특성 추출절차도 가능한 방법이다.</p>
|
무선 센서망의 노드간 주파수 편이를 추정할 때 고정노드가 기준주파수로 동작하는 경우 단일 절차로 주파수 차이를 추정할 수 있다. SDS-TWR의 경우 연속된 데이터 전송으로 주파수 차이 영향을 제거할 수 있고, TWR의 경우 사전에 망에 소속된 노드의 특성 추출 방법이 가능하다.
|
<h1>I. 서 론</h1> <p>무선 메쉬 네트워크(Wireless Mesh Networks, \( \mathrm { WMNs } ) \)는 그림 1에서 보인 것과 같이 크게 메쉬 라우터(Mesh Router, MR) 도메인과 메쉬 클라이언트(Mesh Client, \( \mathrm { MC } ) \) 도메인으로 구성된다. 일반적으로 \( \mathrm { MR } \) 도메인은 메쉬 라우터(MR)와 메쉬 게이트웨이(Mesh Gateway, MG)로 구성되며 \( \mathrm { MG } \)를 통해 유선 인터넷과 연결된다 . \( \mathrm { MC } \) 도메인으로는 무선 센서 네트워크(Wireless Sensor Networks) 뿐만 아니라 WiMAX 및 \( \mathrm { Wi } - \mathrm { Fi } \)와 같은 무선 이동 네트워크, 그리고 펨토셀(Femtocell) 및 6LoWPAN과 같은 네트워크로. 구성될 수 있다. MR은 전통적인 무선 라우터와 같이 게이트웨이/브리지 기능을 위한 라우팅 기능이외에 메쉬 네트워킹을 지원하기 위한 부가적인 라우팅 기능올 포함한다. \( \mathrm { MR } \) 은 \( \mathrm { MC } \) 를 위한 메쉬 백본을 구성하며, 이러한 메쉬 백본은 \( \mathrm { MR } \) 이 무선 링크로만 연결된다는 것을 제외하고는 고정 라우터와 거외 유사하게 동작한다. 또한, MC는 인터넷 접속을 위해 \( \mathrm { MR } \) 의 무선 백본 네트워크를 통해 유선 네트워크로 연결되며, \( \mathrm { MG } \) 는 유선 인터넷과 유선 링크를 통해 \( \mathrm { WMN } \) 과 유선 인터넷을 이어주는 가교역할을 수행한다. 이러한 \( \mathrm { WMN } \) 의 MR은 무선 멀티 홉통신을 통해 적은 전송 파워로 광범위한 네트워크 커버리지 서비스를 제공할 수 있으며, 비용 절감의 효과를 기대할 수 있다. 따라서 WMN은 유비쿼터스 네트워크를 위한 핵심적인 기능을 제공할 것이다. 이러한 유비쿼터스 환경을 위한 브로드밴드 액세스룰 제공하기 위하여 WMN의 MR들은 일반적으로 다중의 무선 라디오(NICs)를 가짐으로써 메쉬 네트워킹의 융통성과 성능을 향상시킬 수 있다.<p> <p>일반적으로 \( \mathrm { WMN } \) 은 무선 멀티 홉 (Hop) 환경으로 인해 홉 개수가 증가하거나 각 \( \mathrm { MR } \)들이 동시에 데이터를 전송할 경우 데이터 전송 간에 간섭이 발생할 확률이 높아진다. 이로 인해, \( \mathrm { WMN } \)의 전체적인 네트워크 성능이 급격히 감소한다. \( \mathrm { WMN } \)에서 주로 사용하는 네트워크 인터페이스 기술로는 IEEE 802.11b/g와 IEEE 802.11a 스펙이 있다. IEEE 802.11b/g에서는 \( 2.4 \mathrm { GHz } \)의 ISM(Industrial, Scientific, Medical) 주파수 대역에서 3개의 비중첩 채널을 지원하며, IEEE 802.11a에서는 5 \( \mathrm { GHz } \) 주파수 밴드에서 12개의 비중첩 UNII(Unlicensed National Information Infrastructure) 채널을 지원한다. 본 논문에서는 3개의 비중첩 멀티채널을 지원하는 IEEE \( 802.11 \mathrm { ~b } / \mathrm { g } \) 기반으로 구성된 WMN을 위한 채널 할당 방법에 대하여 연구한다. 이러한 비중첩 멀티채널 \( \mathrm { WMN } \)에서의 채널 할당 문제는 네트워크의 연결성 유지와 채널 의존성 문제 해결이라는 두 가지 요구사항을 만족시켜야 한다.</p>
|
본 논문에서는 Mesh Router 도메인과 Mesh Client 도메인으로 이루어진 무선 메쉬 네트워크에 대해 설명한다. MR 도메인은 메쉬 라우터와 메쉬 게이트웨이로 구성되고 MC 도메인으로는 Wireless Sensor Networks, WiMAX/Wi-Fi, 펨토셀 등의 네트워크가 있으며, MWNs의 경우 인터넷과 무선 기기를 연결하는 다양한 응용을 지원하는 새로운 네트워크 기술임을 확인하였다. 3개의 비중첩 멀티채널을 지원하는 IEEE \( 802.11 \mathrm { ~b } / \mathrm { g } \) 기반으로 이루어진 비중첩 멀티채널인 WMN의 채널 할당 시 네트워크의 연결성 유지와 채널 의존성 문제 해결에 대해 연구하였다.
|
<p>이를 위해 본 논문에서는 멀티채널 WMNs의 채널 의존성 문제를 최소화하는 클러스터 기반 채널 할당(Cluster-Based Channel Assignment, CB-CA) 방법을 제안한다. \( \mathrm { CB } - \mathrm { CA } \)에서 각 \( \mathrm { MR } \)들은 물리적인 통신 가능 거리에 존재하는 이웃 MR들과 클러스터(cluster)를 구성하고, 해당 클러스터 멤버 \( ( \mathrm { CM } ) \)인 \( \mathrm { MR } \)들의 채널 정보를 채널 데이터로 유지하는 클러스터 헤드 \( ( \mathrm { CH } ) \)가 선출된다. \( \mathrm { CH } \)의 선출 조건은 최대 연결성을 갖는 노드가된다. \( \mathrm { CH } \)들은 인접한 클러스터의 \( \mathrm { CH } \)들과 채널 스캐닝 및 채널 스위칭을 수행하지 않고 효율적으로 통신하기 위해 동일 채널을 할당하여 통신하고, 클러스터 내의 \( \mathrm { CM } \)들과는 \( \mathrm { CH } \)들 간의 통신 채널과 간섭이 발생하지 않는 직교 채널을 할당한다. 또한 해당 \( \mathrm { CH } \)는 자신의 클러스터 내의 \( \mathrm { CM } \)들과의 통신올 위해 타임 슬롯을 할당한다. 각 \( \mathrm { CM } \)들은 보내야 할 데이터가 존재하는 경우 자신에게 할당된 시간 동안 데이터를 전송하게 된다.</p> <p>본 논문의 Ⅱ장에서는 \( \mathrm { WMN } \)에서의 채널 할당과 관련된 기존 연구들을 살펴보고, III장에서는 본 논문에서 제안한 \( \mathrm { CB } - \mathrm { CA } \) 기법에 대하여 설명한다. 그리고 \( \mathrm { IV } \) 장에서는 제안된 \( \mathrm { CB } - \mathrm { CA } \) 기법의 성능평가를 통해 타당성을 입증하고 \( \mathrm { V } \) 장에서 결론 및 향후 과제를 기술한다.</p> <h1>II. 관련 연구</h1> <p>WMNs에 대한 기대가 점점 더 커짐으로써 멀티채널 \( \mathrm { WMNs } \)에서의 채널 할당에 대하여 다양한 연구들이 진행되고 있다.</p> <p>Marina는 그리드 기반의 휴리스틱 채널 할당 기법을 제안하여 연결성이 보장되고 간섭이 적은 토폴로지를 찾는 방법을 제안하였다. Marina가 제안한 CLICA라고 불리는 토폴로지 기반 채널 할당 방식은 네트워크의 모든 링크에 균등한 트래픽 부하가 발생한다는 가정을 바탕으로 하고 있지만 실제 구축되는 \( \mathrm { WMN } \)에서는 트래픽 부하가 다르기 때문에 실제 환경에는 적합하지가 않다는 문제점이 있다. 이러한 토폴로지 기반 채널 할당 기법은 모든 노드에게 최적의 채널을 할당하여 채널 간 간섭을 최소화 하는 동시에 연결성이 보장되도록 토폴로지를 형성하는 것이 목적이다. 연결성을 높이기 위해 네트워크 전체에서 사용하는 채널의 개수를 최소화 하면 모든 노드의 채널 간 간섭이 증가하게 되고 반대로 간섭을 최소화하기 위해 채널의 개수를 최대화 하면 연결성이 감소하게 된다. 따라서 토폴로지 기반의 채널 할당 방법은 노드간의 연결성과 채널 간의 간섭의 균형을 유지할 수 있어야 한다.</p>
|
본 논문에서는 멀티채널 WMNs의 채널 의존성 문제를 최소화하는 클러스터 기반 채널 할당(Cluster-Based Channel Assignment, CB-CA) 방법을 제안하고, WMNs에 대한 기대가 점점 더 커짐으로써 멀티채널 WMNs에서의 채널 할당에 대하여 다양한 연구들도 진행되고 있다.
|
<h1>Ⅱ. 발룬의 구조</h1> <p>본 논문에 제안된 발룬의 구조는 그림 1의 Wilkinson Power Divider 구조를 바탕으로 한다.</p> <p>1:1 Wilkinson Power Divider는 입력포트에 전력을 인가하면 전력의 크기와 위상이 동일하게 두 부분으로 나눠져 두 개의 출력 포트에 나타난다. 입력포트와 두 개의 출력 포트 간의 고립도(Isolation)와 위상 특성을 확보하기 위해 특성 임피던스가 \( \sqrt{2 \cdot Z_{0}} \)이고, 길이가 \( \pm \lambda / 4 \)인 전송선로를 이용한다. 또한 기존의 \( \pm \lambda / 4 \) 발룬과 달리 2번 포트와 3번 포트 사이에 \( \pm \lambda / 2 \) Line을 삽입합으로써 두 출력 포트간의 고립도(Isolation)를 개선하였으며 \( \mathrm{R}=100 \Omega \)을 2번 포트와 3번 포트간의 대칭성을 위해 \( \lambda / 2 \) 좌, 우측에 각각 \( 50 \Omega \)씩 삽입하였다. 이 회로의 특성은 출력포트에서 대칭 신호원과 비대칭 신호원으로 구동되는 두 개의 회로(우수-기수모드)로 나누어 해석 할 수 있다.</p> <p>간단히 하기 위해 모든 임피던스를 특성 임피던스 \( Z_{0} \)으로 정규화하고 출력 포트에 전압원을 연결한다. 이 회로는 중앙면에 대해 대칭으로 그릴 수 있다. \( \lambda / 4 \) 전송선로는 정규화 특성 임피던스가 \(Z\)이며 병렬저항은 정규화 값 \( \mathrm{r} \)을 가진다. 그림 2-(b)의 회로와 같이 우수 모드인 경우 \( \mathrm{V}_{\mathrm{g} 2}=\mathrm{V}_{\mathrm{g} 3}=2 \mathrm{~V} \)이므로 \( \mathrm{V}_{2}{ }^{\mathrm{e}}=\mathrm{V}_{3}{ }^{\mathrm{e}} \)이다. 포트 2를 볼 때 병렬 연결된 전송 선로 길이가 \( \lambda / 4 \) 이고 포트 1에서 단락되어 포트 2에서는 개방회로처럼 보이므로 임피던스가 \( \mathrm{r} / 2 \)로 된다. 따라서 \( \mathrm{r}=2 \)로 정의하면 포트 2는 정합된다. 이때, \( \mathrm{V}_{2}{ }^{\mathrm{e}}=\mathrm{V} \) 이고, \( \mathrm{V}_{1}{ }^{\mathrm{e}}=0 \)이다. 그림 (2-c)의 회로와 같이 기수 모드일 경우 \( \mathrm{V}_{\mathrm{g} 2}=-\mathrm{V}_{\mathrm{g} 3}=2 \mathrm{V} \)이므로 \( \mathrm{V}_{2}{ }^{0}=-\mathrm{V}_{3}{ }^{\circ} \)이며, \( \lambda /4 \) 단락회로는 개방회로와 같다. 이 때 포트 2를 본 임피던스는 전송선로가 \( \lambda / 4 \) 임피던스 변환기와 같으므로 \( \mathrm{Z}_{\mathrm{in}}{ }^{0}=\mathrm{Z}^{2} / 2 \)이다. 따라서 \( \mathrm{Z}=\sqrt{2} \)이면 포트 2는 정합된다. 이때 \( \mathrm{Z}_{\text {in }}{ }^{0}=1 \)이므로 \( \mathrm{V}_{2}{ }^{0}=\mathrm{V} \)이다. 다음에 전송선로 방정식으로부터 \( \mathrm{V}_{1}{ }^{e} \)를 구한다. 포트 1을 \( \chi=0 \) 포트 2를 \( \chi=\frac{\lambda}{4} \)로 놓으면 전송 선로상의 전압은 다음과 같다.</p> <p>\( V(\chi)=V^{+}\left(e^{-j \beta \chi}+\Gamma e^{j \beta \chi}\right) \)<caption>(1)</caption></p> <p>따라서 각 포트에서의 전압은</p> <p>\( V_{2}^{o}=V(\lambda / 4)=-j V^{+}(1-\Gamma)=V \)<caption>(2)</caption></p> <p>\( V_{1}^{o}=V(0)=V^{+}(1+\Gamma)=j V \frac{1+\Gamma}{1-\Gamma} \)<caption>(3)</caption></p> <p>이고, 반사 계수 \( \Gamma \)는 포트 1에서 정규화(normalized) 된 저항값이 2인 저항을 볼 때의 것으로</p> <p>\( \Gamma=\frac{2-\sqrt{2}}{2+\sqrt{2}} \)<caption>(4)</caption></p> <p>\( V_{1}^{o}=j V \sqrt{2} \)<caption>(5)</caption></p> <p>이다.</p> <p>이를 종합하면 다음과 같은 결과를 얻게 된다.</p> <p>\( S_{11}=0 \)</p> <p>\( S_{22}=S_{33}=0 \)</p> <p>\( S_{12}=S_{21}=\frac{V_{1}^{e}+V_{1}^{o}}{V_{2}^{e}+V_{2}^{o}}=\frac{j}{\sqrt{2}} \)</p> <p>\( S_{13}=S_{31}=\frac{-j}{\sqrt{2}} \)</p> <p>\( S_{23}=S_{32}=0 \)</p> <p>이를 바탕으로 이중 대역에서 동작하기 위하여 입력 포트와 출력 포트간의 \( \lambda / 4 \) Line은 그림 3에서와 같이 각각 CRLH(Composite Right/Left handed) 구조와 D-CRLH(Dual Composite Right/Left Handed) 구조를 사용하였다.</p> <p>이는 그림 4에서 알 수 있듯이 D-CRLH 전송선은 저주파에서 직렬 인덕턴스 \( \left(\mathrm{L}_{\mathrm{R}}\right) \)와 병렬 캐패시턴스 \( \left(\mathrm{C}_{\mathrm{R}}\right) \)가 주 성분이 되어 RH 특성을 보이게 되며 주파수가 높아질수록 직렬 캐패시턴스 \( \left(\mathrm{C}_{\mathrm{L}}\right) \)와 병렬 인턱턴스 \( \left(\mathrm{L}_{\mathrm{L}}\right) \)가 주 성분이 되어 전송선은 LH특성을 가지게 된다. 반면, CRLH 전송선 D-CRLH 전송선과 달리 저주파에서는 LH특성을 고주파에서는 RH 특성을 가진다.</p> <p>밸런스 특성을 갖는 CRLH 전송선의 전파 상수와 특성 임피던스는 각각 식 (6)과 (7)와 같이 표현된다.</p> <p>\( \beta=w \sqrt{L_{R}^{\prime} C_{R}^{\prime}}-\frac{1}{w \sqrt{L_{L}^{\prime} C_{L}^{\prime}}} \)<caption>(6)</caption></p> <p>\( Z_{c}=\sqrt{\frac{Z}{Y}}=\sqrt{\frac{L_{R}^{\prime}}{C_{R}^{\prime}}}=\sqrt{\frac{L_{L}^{\prime}}{C_{L}^{\prime}}} \)<caption>(7)</caption></p> <p>CRLH 전송선이 임피던스 \( \mathrm{Zt} \)로 정합되고 \( \omega 1 \)과 \( \omega 2 \)의 이중대역에서 각각 전송 상수 \( \beta 1 \)과 \( \beta 2 \)를 갖는 조건은 식 (8)과 (9)와 같이 주어진다.</p> <p>\( Z_{c}=Z t \)<caption>(8)</caption></p> <p>\( \beta\left(w_{1}\right)=\beta_{1}, \beta\left(w_{2}\right)=\beta_{2} \)<caption>(9)</caption></p> <p>여기서 (8)의 매칭 조건은 2개의 방정식으로 나누어지므로 식(7)에 대입하면 2개의 식을 얻게 되어 총 4개의 방정식을 얻을 수 있다. 이러한 4개의 방정식에 4개의 미지수 \( \mathrm{L}_{\mathrm{R},}^{\prime} \mathrm{C}_{\mathrm{L},}^{\prime} \mathrm{C}_{\mathrm{R},}^{\prime}, \mathrm{L}_{\mathrm{L}}^{\prime} \)이 존재하므로 CRLH 전송선 등가회로의 파라미터 값들을 구할 수 있으며 그 값들은 다음과 같다.</p> <p>\( L_{L}^{\prime}=\frac{Z t\left[1-\left(w_{1} / w_{2}\right)^{2}\right]}{w_{1}\left[\left(w_{1} / w_{2}\right) \beta_{2}-\beta_{1}\right]} \)</p> <p>\( C_{L}=\frac{1-\left(w_{1} / w_{2}\right)^{2}}{w_{1} Z t\left[\left(w_{1} / w_{2}\right) \beta_{2}-\beta_{1}\right]} \)</p> <p>\( L_{R}^{\prime}=\frac{Z t\left[\beta_{2}-\beta_{1}\left(w_{1} / w_{2}\right)\right]}{w_{2}\left[1-\left(w_{1} / w_{2}\right)^{2}\right]} \)</p> <p>\( C_{R}^{\prime}=\frac{\beta_{2}-\beta_{1}\left(w_{1} / w_{2}\right)}{w_{2} Z t\left[1-\left(w_{1} / w_{2}\right)^{2}\right]} \)</p> <p>위와 같이 CRLH 전송선을 이용하면 임의의 이중대역에서 원하는 전송상수를 얻을 수 있다. 또한 일반적인 CRLH 전송선과 Dual 관계에 있는 Dual Composite Right/Left Handed(D-CRLH) 전송선 이론을 이용하게 되면 이중대역 발룬을 구현할 수 있게 된다. 여기서는 2개의 단위 셀(Unit cell)을 'T-type' 형태로 설계하였으며 D-CRLH의 각 소자 값들은 다음과 같으며 표 1에 정리 하였다.</p> <p>\( L_{r}=\frac{Z_{1}\left[1-\left(w_{1} / w_{2}\right)^{2}\right]}{w_{1}\left[2 \times b_{1}-\left(2 b_{2} w_{1} / w_{2}\right)\right]} \)</p> <p>\( C_{r}=\frac{1-\left(w_{1} / w_{2}\right)^{2}}{Z_{t} w_{1}\left[2 \beta_{1}-\left(2 \beta_{2} w_{1} / w_{2}\right)\right]} \)</p> <p>\( L_{l}=\frac{Z_{t}\left[\left(2 \beta_{1} w_{1} / w_{2}\right)-2 \beta_{2}\right]}{w_{2}\left[1-\left(w_{1} / w_{2}\right)^{2}\right]} \)</p> <p>\( C_{l}=\frac{\left(2 \beta_{1} w_{1} / w_{2}\right)-2 \beta_{2}}{w_{2} Z_{t}\left[1-\left(w_{1} / w_{2}\right)^{2}\right]} \)</p> <p>하지만, D-CRLH 전송선을 구현하기 위해서는 항상 Right-Handed 파트가 기생적으로 생길 수밖에 없으며 실제 제작을 위한 각 parameter 값을 고려하여 최적화 (Optimization) 된 값을 도출하면 표 2와 같다.</p>
|
입력포트에 전력을 인가하면 전력의 크기와 위상이 동일하게 두 부분으로 나눠져 두 개의 출력 포트에 나타나는 Wilkinson Power Divider 구조를 바탕으로 한 발룬을 제안한다. 입력포트와 두 개의 출력 포트 간의 고립도와 위상 특성을 확보하기 위해 특성 임피던스가 \( \sqrt{2 \cdot Z_{0}} \)이고, 길이가 \( \pm \lambda / 4 \)인 전송선로를 이용하며 출력포트에서 대칭 신호원과 비대칭 신호원으로 구동되는 두 개의 회로로 나누어 해석한다. 이중 대역에서 동작하기 위하여 입력 포트와 출력 포트간의 \( \lambda / 4 \) Line은 각 CRLH 구조와 D-CRLH 구조를 사용하였으며 D-CRLH 전송선은 저주파에서 직렬 인덕턴스 \( \left(\mathrm{L}_{\mathrm{R}}\right) \)와 병렬 캐패시턴스 \( \left(\mathrm{C}_{\mathrm{R}}\right) \)가 주 성분이 되어 RH 특성을 보이게 되고 주파수가 높아질수록 직렬 캐패시턴스 \( \left(\mathrm{C}_{\mathrm{L}}\right) \)와 병렬 인턱턴스 \( \left(\mathrm{L}_{\mathrm{L}}\right) \)가 주 성분이 되어 전송선은 LH특성을 가지게 된다. CRLH 전송선 D-CRLH 전송선과 달리 저주파에서는 LH특성을 고주파에서는 RH 특성을 가진다. CRLH 전송선 활용으로 임의의 이중대역에서 원하는 전송상수를 얻게되며 Dual Composite Right 또는 Left Handed 전송선 이론을 사용하면 이중대역 발룬을 나타낼 수 있다.
|
<h1>Ⅱ. 발룬의 구조</h1> <p>본 논문에 제안된 발룬의 구조는 그림 1의 Wilkinson Power Divider 구조를 바탕으로 한다.</p> <p>1:1 Wilkinson Power Divider는 입력포트에 전력을 인가하면 전력의 크기와 위상이 동일하게 두 부분으로 나눠져 두 개의 출력 포트에 나타난다. 입력포트와 두 개의 출력 포트 간의 고립도(Isolation)와 위상 특성을 확보하기 위해 특성 임피던스가 \( \sqrt{2 \cdot Z_{0}} \)이고, 길이가 \( \pm \lambda / 4 \)인 전송선로를 이용한다. 또한 기존의 \( \pm \lambda / 4 \) 발룬과 달리 2번 포트와 3번 포트 사이에 \( \pm \lambda / 2 \) Line을 삽입합으로써 두 출력 포트간의 고립도(Isolation)를 개선하였으며 \( \mathrm{R}=100 \Omega \)을 2번 포트와 3번 포트간의 대칭성을 위해 \( \lambda / 2 \) 좌, 우측에 각각 \( 50 \Omega \)씩 삽입하였다. 이 회로의 특성은 출력포트에서 대칭 신호원과 비대칭 신호원으로 구동되는 두 개의 회로(우수-기수모드)로 나누어 해석 할 수 있다.</p> <p>간단히 하기 위해 모든 임피던스를 특성 임피던스 \( Z_{0} \)으로 정규화하고 출력 포트에 전압원을 연결한다. 이 회로는 중앙면에 대해 대칭으로 그릴 수 있다. \( \lambda / 4 \) 전송선로는 정규화 특성 임피던스가 \(Z\)이며 병렬저항은 정규화 값 \( \mathrm{r} \)을 가진다. 그림 2-(b)의 회로와 같이 우수 모드인 경우 \( \mathrm{V}_{\mathrm{g} 2}=\mathrm{V}_{\mathrm{g} 3}=2 \mathrm{~V} \)이므로 \( \mathrm{V}_{2}{ }^{\mathrm{e}}=\mathrm{V}_{3}{ }^{\mathrm{e}} \)이다. 포트 2를 볼 때 병렬 연결된 전송 선로 길이가 \( \lambda / 4 \) 이고 포트 1에서 단락되어 포트 2에서는 개방회로처럼 보이므로 임피던스가 \( \mathrm{r} / 2 \)로 된다. 따라서 \( \mathrm{r}=2 \)로 정의하면 포트 2는 정합된다. 이때, \( \mathrm{V}_{2}{ }^{\mathrm{e}}=\mathrm{V} \) 이고, \( \mathrm{V}_{1}{ }^{\mathrm{e}}=0 \)이다. 그림 (2-c)의 회로와 같이 기수 모드일 경우 \( \mathrm{V}_{\mathrm{g} 2}=-\mathrm{V}_{\mathrm{g} 3}=2 \mathrm{V} \)이므로 \( \mathrm{V}_{2}{ }^{0}=-\mathrm{V}_{3}{ }^{\circ} \)이며, \( \lambda /4 \) 단락회로는 개방회로와 같다. 이 때 포트 2를 본 임피던스는 전송선로가 \( \lambda / 4 \) 임피던스 변환기와 같으므로 \( \mathrm{Z}_{\mathrm{in}}{ }^{0}=\mathrm{Z}^{2} / 2 \)이다. 따라서 \( \mathrm{Z}=\sqrt{2} \)이면 포트 2는 정합된다. 이때 \( \mathrm{Z}_{\text {in }}{ }^{0}=1 \)이므로 \( \mathrm{V}_{2}{ }^{0}=\mathrm{V} \)이다. 다음에 전송선로 방정식으로부터 \( \mathrm{V}_{1}{ }^{e} \)를 구한다. 포트 1을 \( \chi=0 \) 포트 2를 \( \chi=\frac{\lambda}{4} \)로 놓으면 전송 선로상의 전압은 다음과 같다.</p>
|
본 논문에 제안된 발룬의 구조는 Wilkinson 전력 분배기 구조를 바탕으로 한다. 1:1 Wilkinson전력 분배기는 입력포트에 전력을 인가하면 전력의 크기와 위상이 동일하게 두 부분으로 나눠져 두 개의 출력 포트에 나타난다. 이 회로의 특성은 출력포트에서 대칭 신호원과 비대칭 신호원으로 구동되는 두 개의 회로(우수-기수모드)로 나누어 해석 할 수 있다. 간략히 하기 위해 모든 임피던스를 특성 임피던스 \( Z_{0} \)으로 정규화하고 출력 포트에 전압원을 연결한다.
|
<p>그림 9의 \( ( \mathrm { a } ) \) 는 \( 640 \times 480 \) 크기의 \( \mathrm { VGA } \) 급 표준 시퀀스의 프레임 "Flamenco2"의 원본 프레임, (b)는 QP 42로 압축한 영상이고, (c)는 원본 프레임에서 임의로 슬라이스 오류를 발생시키고, 비디오 단말 수신기의 오류수정 알고리즘으로 오류가 발생한 슬라이스를 수정한 프레임이다. 제안한 방법에서 (a)는 \( \overline {\mathrm { A } } _ { V a r } \) 이 7, \( \overline {\mathrm { A } } _ { D i f f } \) 의 값이 12 으로 화질 저하가 없는 영상으로 측정하였고 (b)는 \( \bar { A } _ { V a r } \) 이 20, \( \overline {\mathrm { A } } _ { D i f f } \) 의 값이 20 으로 압축에 의한 화질 손상으로 판단하였다. (c)는 \( \bar { A } _ { V a r } \) 이 122, \( \bar { A } _ { D i f f } \) 의 값이 12 으로 전송 오류에 의한 블록 열화가 나타났다고 측정하였다. Wang의 방법에서 (a)는 91, (b)는 87, 그리고 (c)는 7 로 측정하였다.</p> <p>실제 IPTV 방송에서 상용되고 있는 \( 720 \times 480 \) 크기의 NTSC급 시퀀스 중 SSCQE의 방법을 이용하여, 프레임의 일부 슬라이스의 전체 부분에서 블록 열화가 생긴 프레임 100 개, 프레임 전체적으로 블록 열화가 생긴 프레임 110개, 그리고 블록 열화가 발생하지 않은 프레임 290 개를 분류하였다. 일부 슬라이스 오류가 생긴 프레임과 전체적으로 압축에 의한 열화가 나타나는 프레임에서의 체감 화질은 사람마다 지극히 주관적이다. 따라서, 영상이 슬라이스에 오류가 발생된 그룹인지, 영상압축에 의한 블록 열화가 나타나는 그룹인지, 혹은 블록 열화가 발생하지 않은 그룹인지를 측정하여, 주관적 체감 화질에 관한 객관적인 원인을 밝히도록 설계하였다. 즉, 제안한 방법을 이용하여 측정한 결과가 표 1 에서와 같이, MOS 실험을 통하여 프레임들을 분류한 것을 바탕으로, 어느 그룹에 속하는지 확인하여 성능을 측정하였다. 표 1 은 이렇게 분리된 프레임에 대하여, 제 한 방법과 Wang의 방법으로 측정한 블록 열화와 민감도와 특이도를 측정한 결과이다.</p>
|
실제 IPTV 방송에서 상용되는 NTSC급 시퀀스 중 SSCQE의 방법을 이용해 블록 열화 프레임 100개, 프레임 전체적으로 블록 열화 프레임 110개, 그리고 블록 열화 발생하지 않은 프레임 290개를 분류했는데, 제안한 방법을 이용해 측정한 결과가 어느 그룹에 속하는지 확인하여 성능을 측정하였고, 표 1은 이렇게 분리된 프레임에 대해 제안한 방법과 Wang의 방법으로 측정한 블록 열화와 민감도와 특이도를 측정한 결과이다.
|
<h1>요 약</h1> <p>본 논문은 IP기반 비디오 서비스의 화질 촉정을 위하여 새로운 비참조 기반의 블록 열화 측정 알고리즘을 제안한다. 제안 하는 방법은 IP 기반 비디오 서비스의 화질 측정을 위하여, 네트워크에 의한 블록 열화와 영상 압축에 의한 블록 열화를 구분한다. 또한 비참조 기반으로 블록 열화를 검출하기 위하여, 주변 블록과의 차와 비디오 수신 단말기의 오류 수정 알고리즘의 패턴을 이용하고, 열화된 블록의 세기와 분포를 이용하여 화질 저하 원인을 측정한다. 제안한 방법의 정확도를 확인하기 위하여, SSCQE 방법을 이용한 MOS 실험 결과와 제안한 방법을 이용하여 화질 측정한 결과를 비교하였다. 기존 알고리즘에 비하여 블록 열화 측정의 정확도가 1.3배의 성능 향상된 것을 확인할 수 있었다.</p> <h1>I. 서 론</h1> <p>디지털 미디어의 기술의 발전에 따라 소비자들은 기존의 방송 매체에서 서비스되고 있는 콘텐츠뿐만 아니라 네트워크를 통하여 서비스되는 콘텐츠까지 제공받을 수 있게 되었다. 현재 IP기반 비디오 서비스 개발은 빠른 속도로 주요 통신 사업자의 핵심 전략으로 자리 잡아가고 있으며, 새로운 서비스에 대한 소비자들의 소비도 점차 증가되는 추세이다. 따라서, 실시간으로 고품질 및 고화질(HD) 비디오 콘텐츠를 제공해야 하는 IP기반의 비디오 서비스의 인프라를 관리하기 위한 새로운 테스트 및 모니터링 기술이 필요하게 되었다.</p> <p>멀티미디어 산업이 발전함에 따라, 멀티미디어 서비스에 대한 소비자 만족도를 예측하기 위하여 화질 측정에 관한 다양한 연구들이 진행되어 왔다. 하지만, 기존의 서비스에서 발생하는 영상 압축에 의한 화질 열화률 츅정하기 위한 방법은 IP 기반의 비디오 서비스같이 네트워크를 이용한 서비스에서 발생하는 패킷 손실, 패킷의 순서의 변화, 지터 등의 발생으로 인한 화질저하를 측정하는데 적합하지 않다. 또한 네트워크 파라미터 등을 이용하여 화질 측정을 수행하는 경우에는, 영상 압축에 의한 블록 열화를 측정하기 적합하지 않다. 그러므로 기존의 연구와는 다른 IP 기반의 비디오 서비스에서도 효과적으로 화질 측정을 수행할 수 있는 알고리즘이 필요하게 되었다.</p> <p>우선 기존의 일반 방송 때체에서 제공하는 영상의 화질 측정을 목적으로 하는 연구들은 세 가지 범주로 분류된다. 원본 영상의 정보를 온전하게 모두 이용할 수 있는 방법으록 전 참조 (full-reference; FR) 화질 측정 방법, 온전한 원본 영상 정보가 아닌 추출된 특징 정보를 이용하는 감소 참조 (reduced-reference; RR) 화질 측정 방법, 그리고 원본 영상에 대한 정보를 전혀 이용하지 않는 무 참조 (no-reference; NR) 화질 측정 방법이 있다. 이 중 가장 정확하고 유효한 결과를 내는 것으로 알려진 것이 FR 방법이다. FR방법은 원본 영상을 기반으로 영상의 손상 정도를 파악하기 때문에 정확도에서는 다른 범주의 알고리즘보다 우수한 성능을 보인다. 하지만, 실제 어플리케이션에서는 수신단에서 평가하기 위해 원본영상을 따로 전송하는 것은 불가능함으로 실현 가능성이 낮은 방법이다. RR방법은 FR방법보다 전송헤 주어야 하는 정보량이 적어 실제 서비스에서의 실현 가능성이 FR보다는 높은 측면이 있으나, 송신단에서 또 다시 이를 처리하여 원하는 특징 정보를 추출하는 과정이 필요하기 때문에 이에 대한 시스템적인 조건이 갖추어져야 하는 어려움이 있다. 이에 비해, NR알고리즘은 원본 영상에 대한 정보를 전혀 필요로 하지 않기 때문에 실제 서비스에 적용하기에 가장 적합한 구조를 가지고 있다. NR을 이용한 블록 열화를 측정하는 방법으로는 푸리에 변환을 이용한 방법이 있다. 이 방법은 영상 압축에 의한 블록 열화는 주기적으로 발생하는 패턴을 가지고 있다는 것을 바탕으로 푸리에 변환 후 주기적인 주파수를 측정하여 영상의 화질 측정을 수행한다. 이 방법은 주기적인 주파수를 측정하기 때문에 영상 전체적으로 발생하는 블록 열화를 측정하는 것에 효율적이다. 하지만 부분적으로 집중되어 발생하는 블록 열화를 효과적으로 측정하지 못하며, 계산량이 복잡하고 네트워크 서비스에서 발생하는 패킷 손실에 의한 블록 열화의 측정에 대한 신뢰도가 낮다는 단점이 있다.</p>
|
기존 서비스의 영상 압축에 의한 화질 열화 측정 방법은 네트워크를 이용한 서비스의 화질저하 측정에 부적합하고 네트워크 파라미터 등을 통한 화질 측정 수행도 영상 압축의 블록 열화 측정에 부적합함에 따라 IP 기반의 비디오 서비스에서도 효과적으로 화질 측정 수행이 가능한 알고리즘이 필요하다. 기존의 연구들에서는 원본 영상의 정보를 모두 이용할 수 있는 전 참조 화질 측정, 추출된 특징 정보를 이용하는 감소 참조 화질 측정, 원본 영상 정보를 사용하지 않는 무 참조 화질 측정이 있었다. 본 연구는 새로운 비참조 기반의 블록 열화 측정 알고리즘을 제시한다.
|
<p>네트워크에 의한 오류는 영상 압축에 의한 오류와 달리, 시퀀스의 모든 프레임에서 발생하기 보다는 비주기적으로 일부 프레임에서만 발생하게 된다. 따라서 제안하는 방법에서는 정확성을 위하여 시퀀스 단위로 측정하는 대신 프레임 단위로 블록 열화를 측정하였으며, 실험 또한 프레임 단위로 수행하였다. 상용되는 시퀀스는 원본 영상이 존재하지 않기 때문에 SSCQE 방법의 규칙을 따르되, 화질측정은 세단계로 MOS 실험을 수행하여 패킷오류, 압축오류, 저하 없는 화질로 분리했다.</p> <p>제안하는 방법에서 사용한 크기 혹은 임계값은 실험에 의하여 결정된 값으로, 프레임을 가로축으로 4등분, 세로축으로 4 등분하여 설정하였고, 블록의 크기는 \( 16 \times \ 16 \) 으로 설정하여 주변 블록과의 차를 측정하였다. 실험을 통하여 블록 열화를 결정하기 위한 가중치는 4로 설계하였다.</p> <p>그림 6은 화질 저하의 원인에 따른 열화된 블록의 분포의 분산을 나타낸다. 이 실험을 통하여, 전송 오류에 의한 블록 열화 여부를 결정하기 위한 임계값은 100 으로 설계하였다. 그림 7은 화질저하의 원인에 따른 열화된 정도의 강도를 나타낸다. 이 실험을 통하여, 영상 압축에 의한 블록 열화 여부를 결정하기 위한 임계값은 15로 하였다. 비디오 단말기 수신기의 오류 수정 알고리즘은 JM.12.4에 포함된 오류 정정 알고리즘을 이용하여 실험하였다.</p> <p>그림 8 의 (a)는 \( 640 \times 480 \) 크기의 VGA급 표준 시퀀스의 프레임 "Exit"의 원본 프레임, (b)는 \( \mathrm { QP } 42 \) 로 압축된 프레임, 그리고 (c)는 원본 프레임에서 임의로 슬라이스 오류를 발생시키고, 비디오 단말 수신기의 오류수정 알고리즘으로 오류가 발생한 슬라이스를 수정한 프레임이다. 제안한 방법에서 (a)는 \( \bar { A } _ { V a r } \) 이 27, \( \bar { A } _ { D i f } \) 의 값이 13 으로 화질 저하가 없는 영상으로 측정하였고 (b) 는 \( \overline {\mathrm { A } } _ { V a r } \) 이 23, \( \overline {\mathrm { A } } _ { D i f f } \) 의 값이 25으로 압축에 의한 화질 손상으로 판단하였다. 또한 (c)는 \( \bar { A } _ { V a r } \) 이 \( 321, \bar { A } _ { D i f f } \) 의 값이 13으로 전송 오류에 의한 블록 열화가 나타났다고 측정하였다. Wang의 방법에서 (a)는 77, (b)는 110 , 그리고 (c)는 30 으로 측정하였다.</p>
|
네트워크 오류는 비주기적으로 프레임단위로 발생하며, 실험 또한 프레임 단위로 수행하여 블록 열화를 측정하였다. 임계값은 100과 15로 설정하여 전송 오류와 압축오류를 구분하였고, JM.12.4의 오류 정정 알고리즘을 사용하여 실험하였다.
|
<p>IP 기반 비디오 서비스 중, 큰 이수가 되고 있는 IPTV는 시스템의 여러 단계에서 화질 측정이 가능하다. 그림 1은 네트워크에서 서비스되는 IPTV 시스템에 관하여 단계별로 화질 측정 알고리즘을 표현한 순서도이다.</p> <p>IPTV 시스템은 전송을 위해 부호화된 TS(Transport Stream) 를 입력으로 받는다. TS는 부호화한 데이터뿐만 아니라 동기를 맞추기 위한 데이터, 전송 상의 오류를 확인하기 위한 데이터 등의 정보들을 가지고 있다. 디패킷타이져 (De-packetizer) 부분에서 이를 파싱하여 동기를 맞추며 프레임 또는 슬라이스의 일부분으로 구성된 PES (Packetized Elementary Stream) 파싱한다. 이 부분에서 파싱되어진 데이터를 이용하여 전송 오류의 발생 여부를 파악할 수 있기 때문에 화질 측정을 수행할 수 있다. 이렇게 파싱된 데이터들은 비디오 복호기 (Video Decoder) 단으로 이동되고, 이 단에서 복호화를 수행하도록 한다. 이 부분에서 복호화를 수행하면서 비트스트림 상으로 확인 할 수 있는 BS (Boundary Strength) 와 QP(Quntization Parameter) 등을 이용하여 영상 압축에 의한 화질 손상을 측정할 수 있다. 복호화가 수행된 후, 화질 확인 출력단 (QoS monitor) 단에서 시퀀스를 출력한다. 이 부분에서는 복호화된 이미지를 이용하여, 참조 영상 없이 블록 열화와 뭉그러짐 둥을 측정할 수 있으며, 각 단계에서 측정된 결과를 통합하여 복호화된 영상과 함께 결과를 확인할 수 있게 된다.</p> <p>제안하는 방법은 블록 열화를 측정하고 열화된 블록의 분포의 분산과 블록화 정도를 이용하여, 열화된 원인을 밝힘으로써, 화질 저하에 대한 신뢰를 높인다. 제안하는 방법에서는 화질 확인 출력단에서 IP 기반의 서비스에서 화질을 측정하기 위하여 비참조 기반으로 복호화된 프레임을 이용하여 화질 측정을 수행한다. 그림 2는 제안하는 알고리즘의 순서도를 표현한 것으로, 입력받은 프레임을 각각 가로 방향으로 \( N \) 등분, 세로 방향으로 \( M \) 등분으로 구분한 후, 블록단위로 열화를 측정한다.</p> <p>전송 오류로 인해 발생하는 문제는 대부분 가로 방향으로 나타나게 되지만 패킷 크기와 영상의 크기에 따라 다른 양상이 나타날 수 있기 때문에, 제안하는 방법은 가로 방향뿐만 아니라 세로 방향으로도 분할하여 블록 열화를 측정한다.</p> <p>전송 오류로 인해 발생하는 문제는 대부분 가로 방향으로 나타나게 되지만 패킷 크기와 영상의 크기에 따라 다른 양상이 나타날 수 있기 때문에, 제안하는 방법은 가로 방향뿐만 아니라 세로 방향으로도 분할하여 블록 열화를 측정한다.</p>
|
IPTV 시스템은 부호화된 TS(Transport Stream)를 입력으로 사용하며, 복호화 과정에서 BS (Boundary Strength) 와 QP(Quntization Parameter) 등을 활용하여 영상 압축으로 인한 화질 손상을 측정한다. 제안하는 방법은 비참조 기반으로 복호화된 프레임을 활용해 IP 기반 서비스에서 화질을 측정하며, 전송 오류로 발생하는 문제가 가로 방향뿐만 아니라 세로 방향으로도 나타날 수 있음을 고려하여 블록 열화를 측정한다. 이는 열화된 블록의 분포의 분산과 블록화 정도를 이용해 화질 저하에 대한 신뢰성을 높이는 방안이다.
|
<p>TP는 슬라이스 오류가 생긴 프레임을 제안한 방법으로 측정했을 때, 슬라이스 오류가 생겼다고 판단할 경우, 압축 오류가 발생한 프레임을 압축 오류가 발생했다고 판단할 경우, 혹은 오류가 없는 프레임을 오류가 없는 프레임으로 판단할 경우를 뜻하며, FN은 슬라이스 오류가 생기지 않은 프레임을 슬라이스 오류가 발생했다고 판다할 경우, 압축 오류가 발생하지 않은 프레임을 압축 오류가 생겼다고 판단하는 경우, 혹은 오류가 없는 프레임을 오류가 없다고 판단할 경우를 뜻한다. 또한 FP는 슬라이스 오류가 발생한 프레임을 슬라이스 오류가 발생하지 않았다고 퐌단하는 경우, 압축오류가 발생한 프레임을 압축 오류가 발생하지 않았다고 판단하는 경우, 혹은 오류가 있는 프레임을 오류가 없다고 판단할 경우를 뜻하며, TN은 슬라이스 오류가 발생하지 않은 프레임을 오류가 발생하지 않았다고 판단할 경우, 압축 오류가 발생하지 않은 프레임을 압축 오류가 발생하지 않았다고 판단할 경우, 혹은 오류가 없는 프레임을 오류가 없다고 판단할 경우이다. 민감도는 슬라이스 오류가 나타난 그룹, 압축 오류가 나타난 그룹, 그리고 오류가 없는 그룹 중 어느 한 그룹에 속한다고 가정하였을 때, 정말 그 그룹에 속하는 것을 판단하는 확률이며, 특이도는 어느 한 그룹에 속하지 않는다고 가정하였을 때, 정말 그 그룹에 속하지 않는 것을 판단하는 확률이다. 슬라이스 전체적으로 블록 열화가 생기는 프레임에서는 민감도는 기존 알고리즘에 비하여 1.5 배 정확하게 측정하였고, 특이도는 2 배 정확하게 측정한 것을 확인 할 수 있었다. 프레임 전체적으로 블록열화가 생기는 영상에서는 기존 알고리즘에 비하여 민감도는 1.1 배 정확하게 측정하였고, 특이도는 1.2 배 정확하게 측정한 것을 확인할 수 있었으며 화질 손상이 없는 영상은 1.3배 정확한 민감도를 가지며, 1.1배 정확한 특이도를 가지는 것을 확인 할 수 있었다.</p> <p>블록을 주파수 도메인으로 변환하는데 걸리는 시간 복잡도는 \( \mathrm { O } \left ( \operatorname { nlog } _ { 2 } \mathrm { n } \right ) \) 이 발생한다. 하지만 제안하는 방법은 블록의 평균을 구하는데 발생하는 시간 복잡도는 \( \mathrm { O } ( \mathrm { n } ) \) 이 발생함으로 계산 복잡도가 줄어드는 것을 확인할 수 있다.</p> <p>일부 슬라이스에 오류가 발생하여 블록 열화가 생긴 경우는, 주기성이 떨어지기 때문에 주파수 도메인에서 측정한 주기적인 값의 신뢰도가 떨어지게 된다. 하지만 제안한 방법은, 주기적인 특성을 보지 않고, 블록 열화의 정도와 측정된 블록 열화의 밀집도를 측정함으로써, 프레임 전체적으로 블록 열화가 나타나는지, 일부분에만 집중적으로 나타나는지 확인할 수 있다. 따라서 네트워크 파라미터를 이용하지 않고도 전송 오류를 확인할 수 있으며, 복호화된 프레임에서 전송 오류와 영상압축에 의한 블록 열화를 효율적으로 촉정할 수 있다. 또한 블록 열화의 원인을 밝힘으로써 주관적인 체감 화질에 대한 신뢰도를 높일 수 있다.</p> <h1>IV. 결 론</h1> <p>본 논문에서는, IP 기반의 서비스되는 영상을 비참조 기반의 블록 열화를 측정하는 방법을 제안하였다. 제안한 알고리즘을 이용하여 블록 열화를 측정한 결과, 전송 오류에 의하여 발생하는 블록 열화와 영상 압축에 의하여 발생하는 블록 열화를 효과적으로 측정되는 것을 확인 할 수 있었다. 하지만, 제안하는 알고리즘은 각각 프레임의 블록 열화 정도는 촉정할 수 있지만 시퀀스 전체의 블록 열화 정도는 평가할 수 없으며, 영상 압축에 의한 블록 열화가 심하고, 전송 오류에 의한 블록 열화가 약한 경우, 영상 압축에 의하여 저하된 영상보다 전송 오류에 의하여 저하된 영상의 화질 저하가 더 심하다고 판단하는 단점이 있다. SSCQE방법으로 측정한 주관적 화질 측정과의 차이가 기존의 방법 대비 1.3 배 정확도를 가지는 것을 확인할 수 있었다. 추후 블록 열화 측정 알고리즘과 관련하여, 제안한 방법의 실시간 처리가 가능한 알고리즘으로 고안할 필요가 있다.</p>
|
TP는 오류 판정의 정확성을, FN은 오류 판정의 부정확성을 나타내는 지표로 사용되었다. 블록 변환에 필요한 시간 복잡도가 \( \mathrm { O } \left ( \operatorname { nlog } _ { 2 } \mathrm { n } \right ) \)에서 블록 평균을 계산하는데 드는 시간 복잡도 \( \mathrm { O } ( \mathrm { n } ) \)로 줄어듦을 확인하였다. 블록 열화가 발생하면 주기성이 감소하므로, 주파수 도메인에서의 신뢰도가 떨어짐을 알 수 있다. 논문은 IP 기반의 영상에 비참조 기반의 블록 열화 측정 방법을 제안하였다.
|
<p>한 프레임에서 주변 블록과의 차가 클수록, 블록 열화가 밀집되어 발생할수록 사용자가 느끼는 체감 화질의 저하는 큰 폭으로 상승한다. 앞에서 구한 영상 내의 주변 블록과의 차의 강도의 평균 ( \( \left . \overline {\mathrm { A } } _ { D i f f } \right ) \) 와 열화된 블록의 분포의 분산 \( \overline { V_ {\text { Hor } } } , \overline { V_ { V a r } } \) or, 과 \( count_ {\text { conceal } } \)을 이용하여 화질 손상 정도를 아래와 같이 예측한다.</p> <p>if \( \left ( \overline { A_ { V a r } } >\right . \) threshold \( \left . { } _ { 1 } \right ) \) Transmission error, else if \( \left ( \overline { A_ {\text { Diff } } } >\right . \) threshold \( ) \) Compression error<caption>(5)</caption></p> <p>전송 오류에 의한 블록 열화가 나타날 경우, 열화된 블록 분포의 분산뿐만 아니라 주변 블록과의 차도 크게 나타나지만 영상 압축에 의한 블록 열화가 나타날 경우에는, 블록열화가 주기적으로 나타나기 때문에 열화된 블록의 분포의 분산은 낮지만 주변 블록과의 차가 크게 나타난다. 따라서, 분산을 이용하여 먼저 전송 오류 판단한 후, 주변 블록과의 차를 확인하여 프레임 전체적으로 나타나는 영상 압축에 의한 블록 열화를 측정한다. 전송 오류에 의하여 발생하는 블록 열화와 영상 압축에 의한 블록 열화에 화질 손상 정도에 대한 사람마다 체감화질은 주관적이다. 따라서 제안한 방법에서는 블록 열화에 대한 객관적인 원인을 밝혀줌으로써, 주관적인 체감화질에 의한 신뢰도를 높이도록 한다.</p> <h1>III. 실험 결과</h1> <p>제안한 방법의 성능을 평가하기 위하여, 제안한 방법으로 측정된 값과 SSCQE의 방법으로 측정한 값의 민감도와 특이도를 비교하였다. 실험은 \( 640 \times 480 \) 크기의 VGA급 \(4:2:0 \) YUV 형태의 표준 시퀀스 "Exit"와 "Flamenco2" 를 이용하여, 원본 영상, QP 42로 압축된 영상과 인위적으로 슬라이스 오류를 발생시키고 JM.12.4의 오류 정정 알고리즘에 의하여 복원된 프레임을 이용하여 측정하였다. 또한 \( 720 \times 480 \) 크기의 NTSC급 \(4:2:0 \) YUV 형태의 시퀀스로, 실제 IPTV 방송에서 제공되는 시퀀스 63 개 중 500 개의 프레임을 이용하여 네트워크에 의한 오류가 포함된 프레임을 이용하여 측정하였다.</p>
|
'프레임 내에서 주변 블록과의 차이와 블록 열화가 집중되는 정도가 사용자가 느끼는 체감 화질 저하를 크게 상승시킴을 발견했다. 이를 바탕으로, 영상 내의 주변 블록과의 차이의 강도의 평균 \( \left . \overline {\mathrm { A } } _ { D i f f } \right ) \)과 열화된 블록의 분포의 분산 \( \overline { V_ {\text { Hor } } } , \overline { V_ { V a r } } \)과 \( count_ {\text { conceal } } \)을 이용하여 화질 손상 정도를 예측했다. 제안한 방법을 통해 블록 열화에 대한 객관적 원인을 명확히 제시함으로써 체감화질에 대한 신뢰도를 향상시킬 수 있음을 확인했다.'
|
<p>\( \overline { A_ { A } } = \frac { 1 } { (N-k) \times M } \sum_ { i=0 } ^ { N-k-1 M-1 } \sum_ { j=0 } P_ { i, j } \), \( \overline { A_ { B } } = \frac { 1 } { k \times M_ { i } } \sum_ { i=N-k } ^ { N-1 } \sum_ { j=0 } ^ { M-1 } P_ { i, j } \), \( \overline { A_ { C } } = \frac { 1 } { k \times M } \sum_ { i=N } ^ { N + k-1 M-1 } \sum_ { j=0 } ^ { 1 } P_ { i, j } \)<caption>(1)</caption></p> <p>위의 식에서 \( \overline {\mathrm { A } } _ { A } \) 는 \( A \) 블록의 평균, \( \bar { A } B \) 는 \( B \) 블록의 평균이고 \( \overline {\mathrm { A } } C \) 는 \( C \) 블록의 평균을 나타낸다. \( P \) 는 픽셀값을 의미하고, \( N, M \) 은 블록의 크기를 의미하며, \( i, j \) 는 픽셀의 위치를 나타는 인덱스이다. 또한 \( k \) 는 블록 \( \mathrm { A } \) 와 \( \mathrm { B } \) 를 구분하는 인덱스이다. 블록들의 평균을 구한 후, \( A \) 블록의 평균과 \( \mathrm { B } \) 블록의 평균의 차이와 \( C \) 블록의 평균과 \( B \) 블록의 평균의 차이 (Diff) 를 측정하기 위하여 아래의 식을 이용한다.</p> <p>Diff \( = \| B_ {\text { ave } } -A_ {\text { ave } } |-| B_ {\text { ave } } -C_ {\text { ave } } \mid \), Diff \(< \) threshold1<caption>(2)</caption></p> <p>Diff는 주변 블록과의 차를 의미하며 Diff가 임계치보다 크면 해당 블록은 열화된 블록이라 판단한다. 모든 블록에서 각각 측정된 차들의 평균 \( \left ( \bar { A } _ {\mathrm { Diff } } \right ) \) 을 구하고, 제안한 방법은 이 평균을 화질 저하의 원인을 판단하는 기준으로 삼는다.</p>
|
주어진 식(1)은 A, B, C 블록의 평균을 구하기 위한 공식이며, Diff는 주변 블록과의 차를 의미하며 임계치보다 크면 해당 블록이 열화된 블록이라 판단한다. 각 블록의 차의 평균을 구하여 화질 저하의 원인을 판단하는 기준으로 사용한다.
|
<h2>3. 블록 열화의 밀집도 측정</h2> <p>본 논문에서는 영상 압축에 의한 블록 열화뿐만 아니라 전송 오류에 의한 블록 열화도 판단하기 위한 방법을 제안한다. 전송 오류에 의한 볼록 열화 현상은 프레임 상에서 일부분에 집중되어 나타나는 특징을 가지고 있으며 압축에 의한 블록 열화는 프레임 내에서 퍼져있는 경향이 있다. 본 논문은 이 특성을 이용하여 블록 열화의 원인을 파악한다. 분할된 프레임의 영역 중, 특정부분에 열화된 블록이 집중적으로 분포하는지를 측정하기 위하여, 각 영역에 존재하는 열화된 블록의 분포의 분산을 이용한다.</p> <p>식 (2)를 이용하여 결정된 열화된 블록의 위치를 확인하여 해당하는 열의 열화된 블록의 개수 (Hor \( { } _ {\text { count } } \) ) 와 행 영역의 블록 열화의 개수 \( \left (V e r_ {\text { count } } \right ) \) 를 증가시킨다. 프레임 내의 모든 블록에 대하여 수행한 후, 아래의 식을 이용하여 분할된 영역에 존재하는 열화된 블록의 분포의 분산을 측정한다.</p> <p>\( \overline { A_ { H o r } } = \frac { 1 } { N } \sum_ { i=0 } ^ { N-1 } \) Hor \( _ {\text { count } , i } \), \( \overline { A_ {\text { Var } } } = \frac { 1 } { M } \sum_ { j=0 } ^ { M-1 } \operatorname { Ver } _ {\text { count } , j } \), \( \overline { V_ { H o r } } = \frac { 1 } { N } \sum_ { i=0 } ^ { N-1 } \left ( \overline { A_ { H o r } } - \text { Hor } _ {\text { count } , i } \right ) ^ { 2 } \), \( \overline { V_ {\text { Var } } } = \frac { 1 } { M } \sum_ { j=0 } ^ { M-1 } \left ( \overline { A_ {\text { Var } } } - \text { Ver } _ {\text { count } , j } \right ) ^ { 2 } \)<caption>(3)</caption></p>
|
본 논문은 영상 압축과 전송 오류에 의한 블록 열화를 판단하기 위한 방법을 제안한다. 프레임 상에서 특정 부분에 집중되어 나타나는 전송 오류에 의한 볼록 열화 현상과 프레임 내에서 퍼져있는 압축에 의한 블록 열화의 특성을 이용하여 블록 열화의 원인을 파악한다.
|
<p>다음으로 네트워크를 이용한 영상의 화질 측정을 목적으로 하는 연구들은 비트스트림 상에서 화질을 측정하는 방법, RR을 이용한 방법과 네투워크 파라미터를 이용하여 화질을 측정하는 방법 등이 있다. 비트스트림 상에서 화질을 측정하는 알고리즘은 영상 압축 정도를 나타내는 QP를 이용하여 화질을 축정하는 방법이다. QP를 이용하기 때문에 압축 정도를 정확히 예측할 수 있으나. 복호화 된 영상에서는 화질 측정을 수행할 수 없다는 단점을 가지고 있다. 감소 참조를 이용하여 화질 측정하는 방법은 참조 영상 없이 화질을 측정하는 것보다 정확하게 측정이 가능하나 감소 참조를 위하여 송신단에서 수신단으로 더 많은 양의 데이터를 보내야 한다는 단점을 가지고 있다. 네트워크 파라미터를 이용하여 패킷 손실을 확인하고 패킷 손실된 양을 이용하여 화질을 축정하는 방법이다. 이 방법은 네트워크 파라미터를 이용하기 때문에 정확하게 패킷 손실을 확인할 수 있으나, 이 역시 복호화 된 영상에서는 화질 측정을 수행할 수 없다는 단점을 가지고 있다.</p> <p>제안하는 방법에서는 IP기반 서비스의 화질 측정을 위하여 비참즈 기반의 복호화된 영상의 블록 열화를 측정하는 방법을 제안한다. 이 알고리즘은 영상 압축에 의하여 발생하는 블록 열화와 전송 오류에 의한 블록 열화를 측정하여 화질을 평가한다. 우선, 영상 압축에 의한 화질 저하를 측정하기 위하여, 주변 블록과의 차이와 비디오 수신 단말기의 오류 수정 알고리즘 패턴을 이용하여, 블록 열화의 세기를 측정한다. 열화 정도가 심한 블록의 밀집도를 확인하여 전송 오류에서 발생하는 블록 열화를 측정한다. 블록 열화의 양이 많을수록 열화된 블록들의 밀집도가 높을수록, 화질 저하의 폭이 크다고 한다.</p> <p>본 논문의 구성은 다음과 같다. Ⅱ장에서는 제안하는 방법에 대하여 자세히 기술하고 Ⅱ장에서는 제안하는 알고리즘에 대한 실험방법과 실험 결과 및 그 결과에 대한 분석을 기술하고, 마지막 Ⅳ장에서는 이 논문의 결론 및 향후 연구 계획에 대해 논한다.</p> <p>디지털 미디어의 기술의 발전에 따라 사용자의 편리성과 수신자에게 허용되는 능동성 등으로 인하여, IP 기반 비디오 서비스 관련 시장이 빠르게 확대됨에 따라, 사용자가 느끼는 체감 품질을 측정에 대한 필요성이 발생하였다. 따라서 IP 기반으로 서비스 되는 영상의 효율적인 화질 측정을 위하여, 본 논문에서는 참조 영상의 이용 없이, 영상 압축에 의한 블록 열화와 전송 오류에 의한 블록 열화를 측정하여 화질 평가를 하는 방법을 제안한다.</p>
|
다음으로 네트워크를 이용한 영상의 화질 측정을 목적으로 하는 연구들은 비트스트림 상에서 화질을 측정하는 방법, RR을 이용한 방법과 네투워크 파라미터를 이용하여 화질을 측정하는 방법 등이 있고,감소 참조를 이용하여 화질 측정하는 방법은 참조 영상 없이 화질을 측정하는 것보다 정확하게 측정이 가능하나 감소 참조를 위하여 송신단에서 수신단으로 더 많은 양의 데이터를 보내야 한다는 단점을 가지고 있다.네트워크 파라미터를 이용하여 패킷 손실을 확인하고 패킷 손실된 양을 이용하여 화질을 측정하는 방법인데,이 방법은 네트워크 파라미터를 이용하기 때문에 정확하게 패킷 손실을 확인할 수 있으나, 이 역시 복호화 된 영상에서는 화질 측정을 수행할 수 없다는 단점을 가지고 있다.
|
<p>비참조 기반으로 블록 열화를 측정하기 위하여, 주파수 도메인으로 변환된 프레임에서 주기적인 값을 측정하여 블록 열화를 추정하는 알고리즘이 일반적으로 많이 사용되는 방법이지만, 전송 오류에 의한 블록 열화는 프레임의 일부분에서만 집중적으로 나타나는 양상이 있어, 효율적으로 블록 열화를 측정할 수 없다. 따라서, 제안하는 방법에서는 공간 도메인에서, 측정된 주변 블록과의 차를 누적하여 프레임 전체적으로 나타나는 블록 열화의 세기를 측정하고, 주변 블록과의 차가 임계값보다 클 경우, 그 블록의 위치를 확인하여 분할된 프레임에서의 해당 열과 행의 열화된 블록의 개수를 증가시킨다.</p> <p>또한, 슬라이스 전체적으로 오류가 발생할 경우, 비디오 수신 단말기의 오류 수정 알고리즘에 의하여 수정되어도 블록화 현상이 나타나게 된다. 하지만, 오류 수정 알고리즘이 주변 블록의 픽셀 값을 이용하여 오류를 수정하는 방법으로 설계되었을 경우, 주변 블록 간의 차이가 적게 되어, 주변 픽셀값과의 차이를 이용하여 블록 열화를 측정하는 제안하는 방법으로는 측정이 어렵다. 따라서, 정확한 화질 측정을 위하여 수신단의 오류 정정 알고리즘을 이용하여 해당 블록을 블록 열화로 추정하고 개수를 누적한다.</p> <p>프레임에서 일부분에만 블록 열화의 밀집이 강한지를 확인하기 위하여, 각 행과 열 별로 누적된 열화 블록의 분포의 분산을 측정하여 전송 오류에 의하여 발생하는 블록 열화를 측정한다. 밀집도가 높은 경우, 전송 오류에 의한 화질저하로, 밀집도는 낮으나 블록 열화 정도의 세기가 강한 경우, 압축에 의한 화질 저하로 추정한다.</p> <h2>1. 프레임의 분할</h2> <p>제안하는 방법에서는 전송 오류에 의한 블록 열화를 구분하기 위하여, 프레임을 분할한다. 전송 오류에 의한 볼록 열화는 한 부분에 밀집되어 나타나는 성향이 강하기 때문에, 열화된 블록의 분포를 확인하여 전송 오류를 예측한다.</p> <p>일반적으로 패킷의 일부분이 손실되면 그림 3 의 (a)처럼 가로축으로 블록 열화가 밀집되어 나타나게 되는데, 프레임의 크기가 크고 패킷의 크기가 작아지면 (b)처럼 분할된 모든 행의 일부분에만 블록 열화가 밀집되어질 수 있다. 이러한 경우, 열화된 블록의 밀집도가 유사해지기때문에 정확한 측정이 어렵다. 따라서, 제안하는 방법은 그림 (c)와 (d)처럼 가로 방향으로만 분할하는 것뿐만 아니라, 세로 방향으로도 분할하여 블록 열화가 밀집되어 있는 위치를 확인함으로써 밀집되어 있는 블록 열화를 판단할 수 있다.</p> <h2>2. 열화된 블록 측정</h2> <p>제안하는 알고리즘에서는 영상 압축에 의한 블록 열화과 전송 오류에 의한 블록 열화를 적은 계산량으로 판단하기 위하여, 공간 도메인에서 블록 열화를 측정한다. 공간 도메인에서 참조 영상 없이 블록 열화를 측정하기 위하여, 제안하는 방법에서는 주변 블록과의 차이를 측정한다. 그림 4 는 주변 블록과의 차를 구하는 방법을 표현한 것으로, \( A \) 블록은 블록의 내부, \( B \) 블록은 블록의 경계 내부, 그리고 \( C \) 블록은 블록의 경계의 외부를 뜻한다. \( A \) 블록의 픽셀들의 평균, \( B \) 블록의 픽셀들의 펑균과 \( C \) 블록의 픽셀들의 평균을 아래의 식을 이용하여 측정한다.</p>
|
비참조 기반의 블록 열화 측정을 위해, 프레임을 가로/세로로 분할하여 주변 블록과의 차를 누적하여 블록 열화의 세기를 측정하고, 임계값보다 큰 경우 해당 블록의 위치를 확인하여 분할된 프레임에서의 열화된 블록의 개수를 증가시키는 방법으로 블록 열화를 측정한다. 또한, 정확한 화질 측정을 위해 오류 정정 알고리즘을 이용한다. 전송 오류에 의한 블록열화를 구분하기 위해, 프레임을 분할하는 방법을 제안한다. 또한 블록 열화를 적은 계산량으로 판단하기 위해, 공간 도메인에서 블록 열화를 측정하는 방법을 제안한다.
|
<p>행의 분산과 열의 분산이 클수록 블록 열화가 집중되어 발생한 것이며, 이는 네트워크에서 발생할 수 있는 전송 오류에 의한 화질 저하로 판단한다.</p> <h2>4. 수신 단말기의 오류 수정 알고리즘에 의한 블록 열화 측정</h2> <p>비디오 수신 단말기는 오류가 발생할 경우에도 화질 저하를 방지하기 위하여, 오류 수정 알고리즘을 이용한다. 오류 수정 알고리즘에는 주변 움직임 벡터를 이용하는 방법, 주변 블록의 픽셀들의 평균을 이용하는 방법 등 여러 알고리즘이 있다. 프레임의 일부 블록에 오류가 발생하는 경우에는 이러한 알고리즘에 의하여 주관적 화질 저하 없이 수정될 수 있다. 하지만, 슬라이스 오류가 발생하게 되면 주관적 화질 저하가 발생하게 된다.</p> <p>그림 5는 슬라이스 오류가 발생했을 경우, JM.12.4의 오류 정정 알고리즘에 의하여 수정된 영상이다. 이 그림처럼 슬라이스 전체에 오류가 발생할 경우, 주관적 화질 저하가 나타나지만, 오류 수정 알고리즘이 주변 블록의 픽셀값들의 평균을 이용하여 오류를 수정하는 방법이기 때문에, 주변 블록과의 차이가 크지 않아 주변 블록과의 차를 이용하는 제안하는 방법으로는 블록 열화를 측정할 수 없다. 따라서, 제안하는 방법에서는 오류 수정에 의하여 수정되었지만 블록 열화가 나타나는 경우를 위하여, 블록의 픽셀값들이 주변 블록 픽셀값들의 평균과 같을 경우, 해당 블록이 블록 열화로 결정하고 개수 (count conceal) 를 누적하여 화질 손상 정도를 측정에 반영한다. 이렇게 누적한 열화된 블록의 개수만큼 \( Hor_ {\text { count } } \) 과 \( Ver_ {\text { count } } \) 의 평균을 증가시켜 화질 저하 정도를 측정한다.</p> <p>\( \overline { A_ { V a r } } = \frac {\overline { V_ { H o r } } + \overline { V_ { V a r } } } { 2 } + \) \( count_ {\text { conceal } } \)<caption>(4)</caption>\( count_ {\text { conceal } } \)은 누적된 블록 열화의 개수를 뜻한다.</p> <h2>5. 화질 손상의 원인 추정</h2> <p>프레임 안에서, 압축 오류에 의한 전체적인 블록 열화와 전송 오류에 의한 일부 슬라이스의 블록 열화에 대한 사람마다의 체감 화질은 다른 양상을 나타낸다. 따라서, 제안하는 방법은 화질 손상의 원인을 밝힘으로써 주관적 화질 측정에 대한 신뢰도를 높인다.</p>
|
비디오 수신 단말기는 오류가 발생할 경우에도 화질 저하를 방지하기 위하여, 오류 수정 알고리즘을 이용하는데, 오류 수정 알고리즘에는 주변 움직임 벡터를 이용하는 방법, 주변 블록의 픽셀들의 평균을 이용하는 방법 등 여러 알고리즘을 포함하고 있다. 프레임 블록에 슬라이스 오류가 발생하게 되면 주관적 화질 저하가 발생하게 되므로, 제안하는 방법에서는 블록이 블록 열화로 결정하고 개수를 누적하여 화질 손상 정도를 측정에 반영한다.
|
<p>1. 서 론</p> <p>최근 들어 각종 테러 및 안전사고가 빈번하게 발생함에 따라, 다양한 조기 경보 시스템에 대한 연구가 활발히 이루어지고 있다. 특히, 화재로 인한 인평 및 재산상의 피해가 막대함으로 이에 대한 정확한 조기 경보의 필요성이 대두되고 있다. 현재 주로 사용되고 있는 화재 경보 시스템은 열, 연기 등의 센서기반 감지기들을 주로 사용하며, 이들 감지기는 화재가 발생한 후 열이나 연기가 확산되어 센서에 도달해야 비로소 감지가 가능하다. 이러한 방식들은 조기에 화재를 감지하지 못하는 문제점과 넓은 장소나 개방된 공간에서는 그 성능이 떨어진다는 문제점이 있다. 이에 반해 카메라를 이용한 화재 감지 시스템은 건물 내외에 설치되어 있는 감시카메라를 이용하여 감지가 가능하므로 추가적인 비용이 들지 않고, 화재나 연기가 발생할 경우 열이나 연기의 확산을 기다릴 필요 없이 카메라를 통해 즉각적인 감지가 가능한 장점이 있다.</p> <p>카메라를 이용한 기존의 화재감지 방법은 다음과 같다. Chen등은 \( \mathrm{RGB} / \mathrm{HS} \) 컬러 모델과 불꽃 영역이 불가칙적으로 확산된다는 정보를 이용하여 화재를 분석하는 방법을 제안하였다. 그러나 두 연속적인 프레임 사이에서만 차이점을 고려하여 측정하였기에 결정 규칙은 움직임 영역과 노이즈로부터 화재를 정확히 구분하지 못하는 문제점이 있다.</p> <p>Töreyin등은 움직임 영역을 배경 모델에 의해 검출하고, 후보 영역에 대해 화재-컬러 모델과 후보 영역에 대한 시/공간상의 웨이블럿 고주파 계수의 변화량을 측정하여 화재를 검증하는 방법을 제안하였지만 다수의 휴리스틱 값을 사용하여 몇몇 데이터에서는 좋은 결과를 나타내지만 새로운 데이터에 대해서는 좋지 않은 결과를 나타내었다. Han등은 터널에서 화재와 연기를 색상과 움직임의 변화를 이용하여 감지하는 시스템을 제안하였다. 그러나 이 방법의 경우도 다수의 실험적 임계값이 사용되었고, 타 연구와의 비교 평가가 이루어지지 않아 결과를 신뢰할 수 없는 문제점이 있으며, T. Celik등은 \( \mathrm{YCbCr} \) 색상에서 \( \mathrm{Y}, \mathrm{Cb}, \mathrm{Cr} \) 의 관계에 따른 차이를 펴지 로직에 이용하는 방법을 제안하였지만 경험에 의한 휴리스틱 멤버십 함수를 사용하였기에 새로운 데이터에 대해서는 좋지 않은 결과를 나타내었다. B. Ko등은 배경 모델링 기법과 밝기 맵을 이용하여 후보 불꽃 영역을 감지하고 10 프레임동안의 불꽃의 변화량을 감지하여 SVM(Support Vector Machine)으로 최종 불꽃을 감지하는 방법을 사용하였다. 이 방법은 좋은 감지 결과를 나타내지만, SVM의 고차원에 의한 많은 계산 시간이 필요하기 때문에 실시간 애플리케이션으로는 적절하지 않은 문제점이 있다. 정광호 등은 적응적 배경 감산 모델과 화재 색상 모델을 이용하여 후보 불꽃 영역을 감지하고 \( \mathrm{Red} \) 성분과 웨이블릿 계수값에 관한 100 프레임동안의 불꽃 변화량을 감지한 훅 베이지안 네트워크 분류기에 적용하여 최종 불꽃을 감지하는 방법을 사용하였다. 그러나 이 방법은 빠르고 성능이 좋지만 몇몇 영상에 대해서는 오검출이 발생하였다. 이러한 문제점을 해결하기 위하여 본 논문에서는 휴리스틱한 임계값들을 사용하지 않고 시간축 상에서 추출한 특징들의 통계적인 값들을 사용했으며 속도를 개선하기 위하여 블록 단위로 처리하여 더 좋은 감지 결과를 도출하였다.</p> <p>제안한 화재 불꽂 감지 과정은 먼저 영상을 블록으로 분할하고, 블록 단위에서 움직임과 색상 정보를 이용하여 화재 후보 영역을 검출한다. 다음단계에서, 후보 영역에 대하여 이전 100 프레임에 대한 명도 성분과 고주파 웨이블릿 계수의 에너지합 그리고 모션 방향 정보들을 추출한다. 추출된 정보는 펴지 로직을 위해 설정된 규칙(rule)들과 각 규칙을 위한 멤버십 함수에 적용되어 최종 화재로 판별될 확률을 계산하게 된다.</p> <p>본 논문에서는 화재 불꽃 감지를 위하여 펴지 로직을 이용한 새로운 방법을 제안한다. 본 논문의 2장에서는 움직임과 색상을 이용한 화재 후보 블록 감지 방법을 소개하고, 3장에서는 앞서 소개된 감지 방법을 통하여 펴지 추론을 이용한 불꽃 검출 방법을 소개한다. 4장에서는 제안하는 방법에 대한 성능 평가 실험으로 검출율과 오검출율, 미검출율을 평가하며, 마지막으로 5장에서는 결론과 차후 연구 방향에 대해 간략히 기술한다.</p>
|
현재 사용되는 화재 경보 시스템은 센서기반 감지기들이 열, 연기 등을 감지하는 방식을 주로 사용하는데, 이들 감지기는 화재가 발생한 후 열이나 연기가 확산되어 센서에 도달해야 비로소 감지가 되지만, 카메라를 이용한 화재 감지 시스템은 감시카메라를 이용하여 감지가 가능하므로 추가적인 비용이 들지 않고, 화재나 연기가 발생할 경우 열이나 연기의 확산을 기다릴 필요 없이 카메라를 통해 즉각적인 감지 가능하다. 제안한 화재 불꽂 감지 과정은 영상을 블록으로 분할한 후, 블록 단위 움직임과 색상 정보를 사용하여 화재 후보 영역검출을 진행한 후, 이전 100 프레임에 대한 명도 성분과 고주파 웨이블릿 계수의 에너지합 그리고 모션 방향 정보들을 추출하는 방식으로 설계된다. 이때 추출된 정보를 퍼지 로직을 활용하여 최종 화재로 판별될 확률을 계산에 이용한다.
|
<h1>2. 제안하는 불꽃감지 시스템</h1> <p>화재 영역은 붉은색을 많이 포함하며 주변 영역에 비해서 일반적으로 밝은 특성을 가지고 있다. 또한 바람이나 연소재료에 의해서 그 형태가 끊임없이 변화한다. 이러한 특성을 이용하여 카메라로 입력되는 영상으로부터 움직임 영역을 감지하고 그 영역에서 화재 색상 모델을 적용하여 화재 후보 블록을 도출한다. 본 논문에서는 연산속도를 빠르게 하기 위해 영상을 \( \mathrm{MxN} \) 블록으로 설정하고 블록단위로 연산을 하도록 하였다.</p> <h2>\( 2.1 \) 움직임과 색상을 이용한 후보블록 감지</h2> <p>움직임 영역을 추출하기 위하여 본 논문에서는 Horpra-sert 알고리즘를 사용하였다. 속도 개선을 위해 우리는 기존의 RGB 각각에 대한 연산 대신 명도 성분만을 추출하여 적용하였고, 현재 프레임을 포함한 이전 3프레임에서 평균과 분산을 계산하도록 수정하였다.</p> <p>배경 모델 후의 검출된 움직임 블록은 (그림 1)과 같다.</p> <p>색상을 이용하여 화재 영역을 감지하기 위해, Korpilo-vic은 화재의 색상정보에 가장 민감한 \( \mathrm{R}(\mathrm{Red}) \) 채널의 임계값과 채도값을 이용하는 방법을 제안하였다. 하지만 이 방법은 3가지 조건에 대한 경험적 임계값들을 요구함으로 범용적인 화재 영역 검출을 위해서 적합하지 않다. 따라서 본 논문에서는 RGB채널에 대한 확률적 모델을 구성하고 이로부터 화재 후보 영역을 결정하는 방법을 사용하였다.</p> <p>우선 각 색상 RGB 색상 채널의 분포는 서로 독립적이고 가우시안 분포를 보인다고 가정하고, 학습용 화재 동영상으로부터 다음 수식을 이용하여 확률 모델을 생성한다.</p> <p>\( p\left(I_{i}(x, y)\right)=\frac{1}{\sqrt{2 \pi \sigma_{i}}} \exp \left(\frac{\left(\left(I_{i}(x, y)-\mu\right)^{2}\right.}{2 \sigma_{i}^{2}}\right) \) \( i \in R, G, B \)<caption>(1)</caption></p> <p>수식 (1)에서 \( \mu \) 은 학습데이터로부터 얻어진 \( i \) 색상 채널의 평균을 의미하며, \( \sigma \) 은 \( i \) 색상 채널의 분산을 의미한다. 이렇게 구해진 각 채널의 확률모델로부터 새로운 입력 픽셀 \( I_{i}(x, y) \) 의 \( i \) 채널 확률 값은 수식 (1)을 통해 알 수 있다.</p> <p>이렇게 구해진 각 색상 채널의 확률 값을 이용하여 수식 (2)와 같이 전체 색상채널의 확률 값을 계산하고 이 값이 임계값 \( \tau \) 를 넘을 경우 화재 후보 색상 픽셀로 선언한다.</p> <p>\[p(I(x, y))=\prod_{i \in R, G, B} p\left(I_{i}(x, y)\right)\]\( \left\{\begin{array}{ll}\text { if } & p(I(x, y))>\tau \quad \text { then } \\ \text { else NonFire }\end{array}\right. \)<caption>(2)</caption></p> <p>색상 모델을 이용하여 검출된 후보 블록은 (그림 2)와 같다.</p>
|
화재 영역은 붉은색을 많이 포함하며 주변 영역에 비해서 일반적으로 밝은 특성을 가지고 있으며 이러한 특성을 이용한 카메라 영상으로 영역감지 값은 화재 후보 블록을 도출하여 연산속도를 빠르게 하기 위해 블록단위로 연산을 하도록 하고 있다.
|
<p>본 논문에서는 학습 데이터를 이용하여 각 특징에 대한 가우시안 확률 분포를 생성하였다.</p> <p>학습 데이터는 화재와 화재색상인 움직임 오브젝트를 포함하는 총 12 개의 학습 동영상으로부터 추출하였다. 임의로 2640 개의 학습 블록(1320개의 화재 블록, 1320 개의 화재 색상 움직임 오브젝트 블록)에서 특징을 추출하였고, 화재 동영상은 FASTData(http://fire.nist.gov/fastdata/)에서, 비-화재 동영상은 CAVIAR 프로젝트 데이터 (http://homepages. inf.ed.ac.uk/rbf/CAVIAR/)에서 선택하였다.</p> <p>특징 추출을 위해 화재 동영상과 비-화재 동영상에 대하여 명도 정보를 100 개의 프레임에 대하여 큐에 저장하고 명도의 변화량을 표현해 줄 수 있는 왜도값을 수식 (3)을 이용하여 측정하였다.</p> <p>\( S(x)=\frac{n}{(n-1)(n-2)} \sum_{i=1}^{n}\left(\frac{x_{i}-\bar{x}}{\sigma}\right)^{3} \)<caption>(3)</caption></p> <p>위 수식에서 \( \bar{x} \) 는 블록의 평균을 의미하고 \( \sigma \) 는 블록의 표준편차를 의미하며, \( \mathrm{n} \) 은 구간(100프레임)을 의미한다. 측정한 왜도 값들은 값의 분포에 따라 음수부터 양수의 값을 가짐으로 이를 \( 0 \sim 1 \) 로 정규화하여 (그림 4-(a))와 같이 수식(4)를 이용하여 가우시안 확률 모델을 생성하였다. 학습데이터로부터 구해진 명도 변화에 대한 화재 영역과 비-화재 영역의 가우시안 함수는 퍼지 로직을 위한 멤버십 함수(화재: \( \mu_{Y-F}(x) \),비-화재: \( \left.\mu_{Y-N F}(x)\right) \) 로 사용된다.</p> <p>\( p(x)=\frac{1}{\sqrt{2 \pi \sigma^{2}}} e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^{2}} \)<caption>(4)</caption></p> <p>위 수식에서 \( \mu \) 는 정규화 된 왜도 값들의 평균을 의미하고, \( \sigma \) 는 정규화 된 왜도 값들의 표준편차를 의미한다.</p> <p>다음으로 웨이블릿 계수의 변화량을 측정하기 위해 웨이블릿 변환을 적용하고, 고주파 성분에 해당하는 \( \mathrm{LH}, \mathrm{HL} \), \( \mathrm{HH} \) 의 계수의 합을 계산하여 에너지를 구하고 이를 명도 변화량과 동일한 방법으로 가우시안 모델을 생성하였다. 웨이블릿 에너지의 변화량에 대한 가우시안 밀도 함수는 (그림 4-(b))와 같다. 명도 변화와 동일하게 학습데이터로부터 구해진 웨이블릿 에너지 변화에 대한 화재 영역과 비-화재 영역의 가우시안 함수는 퍼지 로직의 규칙(rule)을 위한 멤버십함수(화재: \( \mu_{W-F}(x) \), 비-화재: \( \mu_{W-N F}(x) \) 로 사용된다.</p> <p>마지막으로 시간에 따른 화재 영역의 모션 변화량을 측정하기 위해서, 화재와 움직임을 갖는 비-화재 영역에 대해 3단계 탐색(3-step search) 알고리즘으로 움직임 벡터를 추출하고, 블록내의 움직임 방향을 수식 (5)를 이용하여 0360 도의 방향을 \( 1 \sim 8 \) 로 정규화 하였다.</p> <p>\( M_{\text {code }}^{b}=\left[\frac{\operatorname{atan}\left(m v^{b_{y}} / m v^{b_{x}}\right) \times 10}{8}\right] \)<caption>(5)</caption></p>
|
화재 동영상의 학습을 위해 화재 동영상과 비-화재 동영상에 대해 명도의 변화량을 표현하는 왜도값을 측정하고, 이를 정규화하여 가우시안 확률 모델을 생성하여 퍼지 로직을 위한 멤버십 함수로 사용하도록 하였다. 이를 통하여 3단계 탐색 알고리즘으로 움직임 벡터를 추출하고 움직임의 방향을 정규화 하여 화재 영역의 모션 변화량을 측정하였다.
|
<p>위 수식에서 \( m v^{b_{x}} \) 와 \( m v^{b_{y}} \) 는 각각 이전 프레임과 현재 프레임의 블록간에 픽셀 값을 이용한 움직임 거리를 나타낸다. 불꽃은 일반적으로 상승방향으로 불규칙하게 움직임으로 8 방향의 움직임 방향에서 \( 2,3,4 \) 에 해당하는 상승정보를 이용한다. 우선 \( \mathrm{N}(100) \) 개의 프레임에서 특정 위치의 후보 블록이 \( 2,3,4 \) 상승방향을 가질 경우를 카운트 \( (\mathrm{C}) \) 하여 \( \mathrm{C} / \mathrm{N} \)의 확률값으로 표현한다. 이 과정을 학습데이터에 적용하여 화재 영역 및 비-화재 영역에 대해 (그림 5-(a))와 같이 가우시안 확률 모델을 생성하였다. 모션 정보는 상승방향 비율이 높을수록 화재일 확률이 높기 때문에 가우시안 확률 함수는 (그림 5-(b))와 같이 변형되어 규칙(rule)의 멤버십 함수로 사용된다. 변형된 멤버십 함수는 수식 (6), (7)과 같다.</p> <p>수식 (6), (7)에서 \( m_{F}, m_{N F}, \sigma_{F}, \sigma_{N F} \) 는 모션방향에 대한 화재 및 비-화재 가우시안 확률 밀도함수의 평균과 분산을 의미하며, \( \mu_{F}, \mu_{N F}, \mu_{M_{-} F}, \mu_{M_{-} N F} \) 는 모션방향에서 화재와 비-화재에 대한 멤버십 함수와, 변형된 화재와 비화재의 멤버십 함수를 의미한다.</p> <h2>\( 2.2 .2 \) 퍼지 로직</h2> <p>각 입력값에 대한 멤버십 함수가 생성되면 출력값을 예측하기 위한 퍼지규칙을 생성해야 한다. 퍼지 규칙은 if.. then.. else.. 로 구성되는데, 본 논문에서는 위의 3가지 특정값에 대한 규칙을 (그림 6)과 같이 구성하였다.</p> <p>(그림 6)에서 3가지 입력 변수가 사용되는데, \( \mathrm{Y} \) 는 명도 변화, \( \mathrm{W} \) 는 웨이블릿 에너지 변화 그리고 \( \mathrm{M} \) 은 모션 변화를 위한 변수를 의미한다.</p> <p>입력값과 퍼지규칙이 정해진 후에, 이를 이용하여 퍼지 시스템의 출력 결과값을 결정해야 한다. 우선 입력 값은 멤버십 함수를 기반으로 퍼지화 되고, 각 퍼지 규칙에 수식 (8)과 같이 Larsen이 제안한 곱 조건명제(product implication)를 적용하였다.</p> <p>\( \mu\left(x_{1}, x_{2}, x_{3}, y\right)=\phi\left[\mu_{Y}\left(x_{1}\right) \cdot \mu_{W}\left(x_{2}\right) \cdot \mu_{M}\left(x_{3}\right), \mu_{B_{1}}(y)\right] \)<caption>(8)</caption></p> <p>Larsen의 알고리즘에서 “and"는 수식 (8)와 같이 퍼지 집합들의 곱(Product)으로 적용되고 "else”는 아래 수식 (9)와 같이 \( \max (\mathrm{Union}) \) 연산으로 적용된다.</p> <p>\( \mu_{B}(y)=\phi\left[D O F_{1}, \mu_{B_{1}}(y)\right] \vee \phi\left[D O F_{2}, \mu_{B_{2}}(y)\right] \vee \cdots \vee \phi\left[D O F_{n}, \mu_{B_{n}}(y)\right] \)<caption>(9)</caption></p> <p>수식 (9)에서 \( \mathrm{DOF} \) (Degree of Fulfillment)는 규칙에서 선행 명제에 대한 곱을 의미하는 것으로 첫 번째 규칙에 대해서 수식 (10)과 같이 나타낼 수 있다.</p> <p>\( D O F_{j}=\mu_{Y}\left(x_{1}\right) \cdot \mu_{W}\left(x_{2}\right) \cdot \mu_{M}\left(x_{3}\right) \)<caption>(10)</caption></p> <p>화재에 대한 각 규칙에서 결과(consequent)를 위한 멤버십 함수 \( \mu_{B_{i}}(y) \) 는 (그림 7)과 같으며, \( 2.2 .1 \) 장에서 설명한 12 개의 학습 동영상으로부터 추출한 학습데이터를 이용하여 실험에 의한 가장 좋은 성능을 보여주는 멤버십 함수를 생성하였다.</p> <p>미리 정해진 8개의 규칙과 입력 변수 값을 수식 (8)에 적</p> <p>용하여 (그림 8-(b))와 같이 출력 함수를 생성하고, 각 출력 함수들에 대해 수식 (9)의 \( \max ( \) union) 연산을 수행하여 (그림 \( 8-(c)) \) 와 같이 최종 출력함수 \( \left(\mu_{o u t}(x)\right) \) 를 생성한다. 마지막으로 생성된 출력 함수에 수식 (11)을 적용하여 무게 중심을 구하고 해당 지점의 확률 값을 (그림 \( 8-(\mathrm{d}) \) )와 같이 최종 확률로 결정한다.</p> <p>\( \theta=\frac{\sum_{i=1}^{N} \mu_{i}^{*} \mu_{\text {out }}\left(\mu_{i}\right)}{\mu_{\text {out }}\left(\mu_{i}\right)} \)<caption>(11)</caption></p> <p>위 수식에서 \( \mu_{i} \) 는 화재 확률값이고 \( \mu_{\text {out }}\left(\mu_{i}\right) \) 는 화재 확률 값에 대한 출력 함수값을 의미한다.</p> <p>(그림 8)는 역퍼지(defuzzification) 과정을 통해 최종 출력값을 예측하는 과정을 보여준다. (그림 8)에서 최종 불꽃이 발생 했을 확률 값은 \( 70 \% \) 이다.</p>
|
화재 영역 및 비-화재 영역에 대해 학습데이터에 적용하여 가우시안 확률 모델을 생성하였다. 가우시안 확률 함수는 변형되어 규칙의 멤버십 함수로 사용되는데, 변형된 멤버십 함수에서 수식 (6), (7)은 각각 모션방향에 대한 화재 및 비-화재 가우시안 확률 밀도함수의 평균과 분산, 모션방향에서 화재와 비-화재의 멤버십 함수를 의미한다. 입력값에 대한 멤버십 함수가 생성되면 출력값을 예측하기 위한 퍼지규칙을 생성한다. 여기에 입력값과 함께 Larsen이 제안한 곱 조건명제를 적용하여 퍼지 시스템의 출력 결과값을 결정한다.
|
<h2>\( 2.2 \) 퍼지 추론을 이용한 불꽃 검출</h2> <p>화재 영상에서 배경 모델과 화재 색상 모델을 적용하여 검출된 화재 후보 영역은 대부분 정확한 검출 결과를 보이지만 화재와 유사한 색상을 갖는 움직임 객체의 경우 여전히 화재로 검출되는 오류가 발생한다. 또한, 화재 불꽃의 특성상 공기의 흐름이나 인화물질에 따라 화재 모양 및 색상이 불구칙하게 변화하는 성질을 가지며 이러한 특성이 정확한 화재 불꽃 검출을 어럽게 만드는 주요 요인이 된다. 따라서, 본 논문에서도 연속적으로 불규칙한 값을 갖는 화재의 특성을 파악하기 위해 퍼지로직(Fuzzy Logic)을 사용하였다.</p> <p>퍼지로직은 정밀성을 요구하는 통제 시스템이나 의사 결정을 위한 전문가 시스템 등에서 가장 많이 사용되는 성공적인 기술 중의 하나이다. 특히 퍼지로직은 입력 변수가 연속적이고 수학적으로 모델링하기 힘들거나 불가능한 응용분야에 가장 적합하다.</p> <p>불꽃 영역의 불규칙성을 반영하기 위해 본 논문에서는 시간 축 상에서 일정 프레임 동안 명도변화 정보, 웨이블릿 에너지 변화 정보, 모션 방향 변화 정보를 분석하여 이를 펴지 로직의 입력 변수로 사용하였다.</p> <h2>\( 2.2 .1 \) 특징 추출 및 퍼지 멤버십 함수 생성</h2> <p>퍼지 로직에서 성능에 가장 큰 영향을 미치는 멤버십 함수(membership function)는 학습 집합으로부터 생성된 특징들의 가우시안 확률모델로 구성된다. 특징 추출을 위해 화재 불꽃의 특성을 분석하면 아래와 같은 특성을 보임을 알 수 있다.</p> <ul> <li> <p>화재 불꽃은 주변보다 높은 명도 값을 갖는다.</p></li> <li> <p>화재 불꽃의 색상은 매우 다양한 범위를 갖는다.</p></li> <li> <p>화재 불꽃 영역은 고주파 성분을 갖는다.</p></li> <li> <p>화재 불꽃은 외부의 영향(예, 바람)이 크지 않다면 상승방향으로 움직인다.</p></li> <li> <p>화재 불꽃은 시간축 상에서 매우 불규칙한 움직임을 갖는다.</p></li></ul> <p>위와 같은 특성을 기반으로 명도, 웨이블릿 계수, 모션의 방향 정보 등을 이용하여 학습 동영상으로부터 불꽃 영역의 특징 값을 추출한다. 이 때, 불꽃은 (그림 3)과 같이 시간축상에서 불규칙하게 움직이므로 현재 프레임에서 후보 화재 영역의 과거 100 프레임을 추적하여 특징 값의 변화량을 왜도(Skewness)값으로 표현하고 이를 확률분포로 모델링 한다. (그림 3)의 (a)와 (b)와 같이 불꽃 영역에서의 명도값과 웨이블릿 계수 에너지의 변화에서는 불꽃을 포함하는 블록에서는 불규칙적으로 값들이 연속적으로 변화하는 반면, (c)와 (d)의 경우에는 움직임이 없다가 물체 오브젝트가 지나는 순간에만 명도와 웨이블릿 계수 에너지 변화가 나타나는 것을 확인할 수 있다. (그림 3)과 같이 불꽃 영역에서는 100 프레임에서 주기적으로 불규칙한 변화를 보여줌으로 물체 움직임과 구분 짓기 위해 분산을 이용할 수 있지만, 평균에서 떨어져 있는 정도에 대한 값을 측정하는 분산보다는 치우친 정도까지 표현이 가능한 왜도를 사용하였다. 왜도값이 0 일때는 표준 왜도 형태를 따르고 양수인 경우에는 왼쪽으로 치우친 양의 왜도 형태를 따르며, 음수인 경우에는 오른쪽으로 치우친 음의 왜도 형태를 따른다.</p>
|
본 논문에서는 화재 영상에서 배경 모델과 화재 색상 모델을 적용하여 검출된 화재 후보 영역은 대부분 정확한 검출 결과를 보이지만, 화재와 유사한 색상을 갖는 움직임 객체의 경우 여전히 화재로 검출되는 오류가 발생하므로 퍼지로직(Fuzzy Logic)을 사용하여 불규칙한 값을 갖는 화재의 특성을 파악하고, 시간 축 상에서 명도변화 정보, 웨이블릿 에너지 변화 정보, 모션 방향 변화 정보를 분석하여 퍼지 로직의 입력 변수로 사용하여 화재 불꽃의 불규칙성을 반영하고, 학습 집합으로부터 생성된 특징들의 가우시안 확률모델로 구성된 멤버십 함수를 생성하여 화재 불꽃 검출을 정확하게 하는 방법을 제시하였다.
|
<p>수식 (12)에서 \( \mathrm{TP} \) 는 화재를 포함하는 프레임들 중에서 화재라고 판단한 프레임의 비율이고, 수식 (13)에서 \( \mathrm{FP} \) 는 화재를 포함하지 않는 프레임들 중에서 화재라고 판단한 프레임의 비율이다. 그리고 수식 (14)에서 \( \mathrm{M} \) 은 화재를 포함하는 프레임들 중에서 화재가 아니라고 판단한 프레임의 비율이다.</p> <p> <표 \( 1>\) 의 결과에서 본 논문에서 제안한 방법은 평균 \( 95 \% \) 의 검출율 \( (\mathrm{TP}) \) 을 보여준 반면, Töreyin의 알고리즘은 \( 81 \% \) 의 검출 성능을 보여주고 있다. 하지만, 본 논문에서 제안한 방법은 Movie2에서처럼 불꽃 색상이 어둡거나, 불꽃이 급격히 확산되는 Movie4의 경우에는 현재 프레임에서 화재가 발생했더라도 이전 프레임들은 비-화재인 경우가 많아 100 프레임 동안의 특징변화율을 통계적으로 분석하여 사용했을 시 검출율이 감소하는 경향이 있었다.</p> <p>오검출율 \( (\mathrm{FP}) \) 결과에서는 본 논문의 알고리즘은 \( 0.02 \% \) 성능을 보여준 반면 Töreyin의 알고리즘은 \( 2.9 \% \) 의 성능을 보여주었다. Töreyin의 알고리즘은 Movie1에서 \( 10 \% \) 의 오류를 보여주고 있는데, 이것은 해당 동영상에 포함된 불꽃이 확산되면서 주변영역에 반사되어 벽과 같은 잘못된 영역에서도 불꽃을 검출하기 때문이고, Movie5에서 \( 12 \% \) 의 오류를 보여주고 있는데 이것은 레이저를 이용하여 불을 내는 과정에서 레이저에 의한 오검출 때문이다. 하지만, 본 논문의 알고리즘에서는 100 프레임 동안에 특징변화율을 통계적으로 분석하고 퍼지로직에 적용하였기 때문에 오검출을 효과적으로 제거할 수 있었다.</p> <p>미검출율 \( (\mathrm{M}) \) 의 경우 Töreyin의 알고리즘은 평균 \( 16 \% \) 로 제안한 알고리즘에 비해 약 \( 12 \% \) 높게 나타났으며, 비-화재 동영상의 경우 Töreyin의 알고리즘은 Movie6에서 소방차의 라이트에서 \( 6.8 \% \) 의 오검출이 발생하였다. 100 프레임 동안의 특징 변화율을 통계적으로 분석하는 방법은 불꽃이 급격히 확산되는 동영상에서는 검출율이 다소 감소한다는 문제점이 존재하지만 오검출을 효과적으로 제거하였으며, 제안한 알고리즘이 Töreyin의 알고리즘보다 검출율이 높고, 오검출율이 낮으며, 미검출율이 낮아 모든 부분에서 우수하다는 것을 보여주고 있다.</p> <p>(그림 9-(a))는 제안된 방법을 이용하여 불꽃을 감지한 결과 화면이고, (그림 9-(b))는 Töreyin이 제안한 방법을 이용하여 불꽃을 감지한 결과 화면이다. 제안한 방법의 보다 자세한 동영상 데모는 http://cvpr.kmu.ac.kr에서 확인할 수 있다.</p>
|
본 논문에서 제안한 방법은 화재 판단 프레임의 검출율이 평균 \( 95 \% \) 인데, Töreyin의 알고리즘은 \( 81 \% \) 의 검출 성능을 보여주고 있다. 오검출율 \( (\mathrm{FP}) \) 결과 제안 알고리즘은 \( 0.02 \% \) 이고, Töreyin의 알고리즘은 \( 2.9 \% \) 의 오검출율이며, 미검출율 \( (\mathrm{M}) \) 의 경우 Töreyin의 알고리즘은 평균 \( 16 \% \) 로 제안 알고리즘에 비해 약 \( 12 \% \) 높게 나타났다. 비교를 통해 제안 알고리즘의 성능이 더 우수한 것을 알 수 있다.
|
<h1>3. 실험결과 및 분석</h1> <p>제안된 알고리즘의 성능을 기존의 알고리즘과 비교 분석하기 위하여 본 논문에서는 10개의 테스트 동영상을 사용하였다. 5 개의 동영상은 화재불꽃 감지에서 가장 우수한 성능을 보여주는 것으로 알려진 Töreyin[2]의 실험에 사용된 동영상(Movie \( 2,7,8,9,10) \) 이고, 3 개의 동영상은 미국의 표준 기술 연구소(NIST, http://fire.nist.gov/)에서 제작한 표준 참조 데이터베이스(Standard Reference Database) 동영상 (Movie 1, 3, 4)이며, 2개의 동영상은 웹사이트(www.youtube.com)를 통해 얻은 동영상 \( (5,6) \) 이다. Movie \( 1,3,4 \), 5 는 실내에서 화재가 발생한 동영상이고, Movie 2 는 실외에서 화재가 발생한 동영상이다. Movie \( 6,7,8,9,10 \) 은 실제 불꽃과 구별하기 위하여 사용한 화재 색상을 가지는 움직임 오브젝트를 포함하는 동영상이다. 비교 대상인 Töreyin의 알고리즘은 초기 배경 모델에 의해 움직임 영역을 검출하고 후보 영역에 대해 화재-컬러 모델과 후보 영역에 대한 시/공간상의 웨이블릿 고주파 계수의 변화량을 측정하여 화재를 검증하는 방법을 사용하였다. 제안한 방법과 유사하지만 Töreyin은 화재의 불규칙한 특징을 마르코브 모델에 적용하였으며, 웨이블릿 값에서 고주파 성분의 합들에 대한 저주파 성분의 비율이 경험에 의한 임계값보다 클 경우 화재로 판단하는 휴리스틱한 정보를 이용했다.</p> <p>제안한 알고리즘(Method 2)과 Töreyin(Method 1) 알고리즘에 대한 성능비교 결과는<표 \( 1>\) 과 같다.</p> <p>불꽃 감지 시스템의 성능 비교는, 다음과 같이 3가지의 분류 성능 측정 방법을 이용하여 테스트 하였다.</p> <p>True Positive(TP) : 실제 화재 영역 \( (Y=1) \) 을 실험에서도 화재 영역으로 분류 \( (\hat{Y}=1) \) 하는 경우</p> <p>\( T P=P(\hat{Y}=1 \mid Y=1) \)<caption>(12)</caption></p> <p>False Positive(FP) : 실제 비-화재 영역 \( (Y=0) \) 을 실험에서는 화재 영역으로 분류 \( (\hat{Y}=1) \) 하는 경우</p> <p>\( F P=P(\hat{Y}=1 \mid Y=0) \)<caption>(13)</caption></p> <p>Missing Rate(M): 실제 화재 영역 \( (Y=1) \) 을 실험에서는 비-화재 영역으로 분류 \( (\hat{Y}=0) \) 하는 경우</p> <p>\( M=P(\hat{Y}=0 \mid Y=1) \)<caption>(14)</caption></p> <p>수식 (12), (13), (14)에서 \( Y \) 가 1인 경우 화재 영역을 포함한 프레임을 의미하고, 0 인 경우 화재 영역을 포함하지 않은 프레임을 의미한다. 그리고 \( \hat{Y} \) 가 1 인 경우 화재로 판단된 프레임으로 의미하고, 0 인 경우 화재로 판단하지 않은 프레임을 의미한다.</p>
|
10개의 테스트 동영상을 사용하여 Töreyin[2]의 알고리즘과 제안된 알고리즘의 성능을 비교 분석하였다. 비교 대상인 Töreyin의 알고리즘은 초기 배경 모델, 마르코브 모델, 웨이블릿 고주파 계수의 변화량을 이용하여 화재를 검증하는 방법을 사용하였다. True Positive(TP), False Positive(FP), Missing Rate(M) 3가지의 분류 성능 측정 방법을 이용하여 테스트 하였고, 그 결과 제안한 알고리즘이 Töreyin 알고리즘보다 좋은 성능을 보였다.
|
<p>모바일 와이맥스에서 ROHC RTP profile의 성능을 향상시키는 핵심 구현파라미터를 찾아내고 그 ROHC 파라미터의 최적값을 제안하기 위해, ROHC의 3가지 동작 모드 별로 무선링크 상의 지연시간 및 패킷 손실률 변화에 따른 패킷 헤더 압축률(평균 압축 헤더 길이 = 총 수신한 패킷 헤더들의 크기의 합 / 총 수신한 패킷 수)과 헤더 복구 실패율(CRC로 에러를 감지한 경우와 감지하지 못한 경우 모두 포함)을 측정하였다. (그림 9)는 U 모드에서 업데이트 패킷 전송 횟수 \(\mathrm{N}\)(실험의 복잡성을 줄이기 위해 파라미터 \( \mathrm{N}_{\mathrm{U}}=\mathrm{N}_{\mathrm{O}}=\mathrm{N} \)으로 가정하였음)과 타임아웃의 주기 변화에 따른 헤더 평균 크기를 보여주고 있다. Optimistic 방법을 사용하는 U 모드에서는 업데이트 패킷 전송 횟수 \(\mathrm{N}\)값에 따라 평균 압축 헤더 길이가 변화하는데, \(\mathrm{N}\)값이 클수록 상위 압축 상태로 이동하는 시간이 길어지므로 평균 압축 헤더 길이가 약간 증가함을 볼 수 있다. 또한, TIMEOUT\(_{\mathrm{SO}}\)/TIMEOUT\(_{\mathrm{FO}} \) 주기가 짧을수록 압축 정도가 낮은 하위 상태로 자주 이동하게 되므로 평균 압축 헤더 길이가 증가하나 그 차이는 매우 작은데 이유는 다음과 같다. 모바일 와이맥스 표준에 기술된 VoIP 응용은 VoIP 사용자가 약 1초와 1.5초 간격을 두고 활성 상태와 비활성 상태를 통해 각각 \( 20 \mathrm{ms} \)과 \( 160 \mathrm{ms} \)마다 VoIP 페이로드를 발생한다. 이 페이로드가 RTP를 통해 전송될 때, RTP 타임 스탬프 필드 값은 VoIP 페이로드가 생성된 시간으로 설정되므로 사용자의 상태가 변화할 때마다 RTP 타임스탬프 필드의 변화량이 변화된다. 이 때, SO 압축 상태의 컴프레서는 불규칙한 헤더 필드의 변화를 감지한다. 따라서 현재 컴프레서가 최상위 압축 정도를 제공하는 SO 상태에 머무르더라도 VoIP 사용자가 활성 또는 비활성 상태로 변화하는 순간마다, 컴프레서는 디컴프레서에게 RTP 타임스탬프의 변화량을 알려주기 위해 FO 상태로 이동해야 한다. 즉 컴프레서는 매번 약 1.5초 이내에 SO 상태에서 FO 상태로 이동을 하게 된다. 따라서 U 모드에서 파라미터 TIMEOUT\(_{\mathrm{SO}} \)는 컴프레서가 약 1.5초보다 잦은 주기로 FO 상태로 이동하지 않는 이상 ROHC의 압축 성능에 크게 영향을 끼치지 않는다. VoIP와 달리, 헤더 정보의 변화가 적은 실시간 서비스의 경우에 패킷손실에 의한 헤더 복구의 실패를 줄이기 위해 잦은 주기로 낮은 압축상태로의 이동을 해야 함을 예측할 수 있다.</p><p>(그림 10)과 (그림 11)은 O 모드의 성능을 보여준다. (그림 10)은 업데이트 패킷 전송 횟수 \(\mathrm{N}\)과 패킷 손실률에 따른 헤더 압축 효율성을 보여주고 있다. U 모드와 동일하게 Optimistic 방법을 사용하는 O 모드는 U 모드와 마찬가지로 컨텍스트 업데이트 패킷의 전송 횟수가 증가할수록 평균 압축 헤더 길이가 약간 증가한다. (그림 11)은 패킷 손실률에 따른 패킷 헤더 재구성의 실패율을 보여주고 있다. 컴프레서가 패킷 헤더의 변화 규칙을 전달하기 위해 전송한 업데이트 패킷은 무선 링크 상에서 손실 될 수 있다. U와 O 모드에서는 컴프레서가 상위 압축 상태로 이동하기 위해 optimistic 방법을 사용한다. 즉, 컴프레서는 \(\mathrm{N}\)개의 업데이트 패킷을 전송한 후, 디컴프레서가 필요한 업데이트 정보를 수신했다고 확신하고 자신의 컨텍스트를 갱신하는 동시에 더 높은 압축 정도를 제공하는 압축상태로 이동하게 된다. 이 때, 무선 링크 상에서 \(\mathrm{N}\)개의 컨텍스트 업데이트 패킷이 모두 손실될 경우 컴프레서와 디컴프레서 간의 컨텍스트가 비동기화될 수 있다. (그림 11)에서 볼 수 있듯이 이러한 상황은 \(\mathrm{N}\)값이 작을수록 발생할 가능성이 커지게 된다. O 모드에서는 헤더 복구를 실패한 경우, 디컴프레서가 피드백을 통해 신속하게 컴프레서에게 에러 발생을 알려주므로 헤더 복구 실패율이 높지 않다. 따라서 U 모드와 비교하여 보다 적은 \(\mathrm{N}\)값을 적용할 수 있으므로, 압축 효율 및 압축기법의 견고성 면에서 U 모드보다 좋은 성능을 보인다. 한편, O 모드에서는 디컴프레서가 에러 감지 시 컴프레서에게 에러 발생을 알리기 위해 피드백 채널을 사용하므로 그 사용 빈도는 (그림 11)과 거의 유사한 패턴을 보인다. 단, O 모드에서는 헤더 복구의 실패를 감지하기 위해 3-비트 CRC를 사용함에 따라, 디컴프레서의 헤더 복구 실패를 인지하지 못하는 경우가 발생하므로 (그림 11)과 약간의 차이를 보일 수 있다.</p><p>(그림 12)는 O 모드에서 Optional Ack의 영향을 보여주고 있다. ROHC 표준에는 Optional Ack을 통해, 디컴프레서 IR 패킷에 대해 ACK을 전송하고 나머지 패킷에 대해서는 선택적으로 ACK 전송 여부를 결정하도록 정의되어 있다. 이에 본 실험에는 디컴프레서가 오직 IR 패킷에 대해서만 피드백을 전송한다고 가정하였다. O 모드에서 OPTIONAL_ACK\(_ \mathrm{IR}\)이 사용될 경우, 디컴프레서는 IR 패킷을 통해 원래의 패킷 헤더를 정확하게 재구성한 후 컴프레서에게 피드백을 전송해야 한다. (그림 13)에서 볼 수 있듯이 O모드에서의 압축률은 OPTIONAL_ACK\(_\mathrm{IR} \) 적용 여부와 관계없이 거의 동일하며, 이것은 무선 링크의 지연 시간이 증가하더라도 같은 결과를 보여준다. O 모드에서 컴프레서는 세션 초기에 IR 상태에 머무르다가 디컴프레서가 충분한 정보를 수신했다고 확신하면 FO 상태로 이동한다. 컴프레서가 FO 상태에서 IR 상태로 이동하려면 컴프레서가 FO 상태에서 전송한 패킷들이 무선 링크상에서 모두 손실되어 디컴프레서로부터 패킷 헤더 복구 실패에 대한 피드백을 수신해야 한다. 이런 경우는 무선 링크 상의 패킷 손실율이 매우 높지 않는 이상 거의 발생하지 않는다. 따라서 VoIP 세션 동안에 전송되는 모든 패킷 수에 비해 IR 패킷이 차지하는 비중은 극히 드물며 다른 실시간 응용 역시 마찬가지의 결과를 보여줄 것이다. 그러므로 IR에 패킷에 대한 OPTIONAL_ACK\(_ \mathrm{IR}\)을 통해 보다 좋은 압축 성능을 제공하지는 못한다. 또한 무선 링크 상의 지연시간이 매우 짧을 경우에 피드백에 근거하여 압축 정도를 결정하는 방법이 Optimistic 방법에 비해 비효율적이므로, 피드백에 의한 오버헤드와 피드백의 효율성을 고려해보았을 때 O 모드에서 OPTIONAL_ACK\(_ \mathrm{pkt\_name}\)은 적용하지 않는 게 좋은 선택이라 볼 수 있다.</p><p>R 모드에서는 큰 RTT로 인해 발생할 수 있는 피드백의 오버헤드를 줄이기 위해 Sparse Ack 방법을 사용할 수 있다. (그림 13과 14)는 Sparse Ack 기법(k=1)을 적용했을 때의 실험 결과를 보여주고 있다. (그림 13)은 무선 링크의 지연시간 변화에 따른 평균 압축 헤더 길이를 보여주고 있다. R 모드에서는 컴프레서가 디컴프레서로부터 긍정적인 피드백을 수신해야 상위 압축상태로 이동하므로, 무선링크의 지연시간이 길어질수록 피드백의 도착 또한 지연되어 압축률이 조금 떨어지는 경향이 있다. Sparse Ack 기법을 사용하는 경우에, R 모드의 견고성은 그대로 유지하면서 주어진 무선 링크의 지연 시간에 따른 압축률은 거의 유사한 반면, (그림 14)에서 보는 것과 같이 Sparse Ack 기법을 적용할 경우에 피드백의 사용량을 현저하게 줄일 수 있다. R 모드는 U 모드나 O 모드에 비해 헤더 압축률은 조금 떨어지나 항상 성공적으로 패킷 혜더를 재구성할 수 있음을 보장한다. 따라서 모바일 와이맥스 환경에서 무선 링크의 패킷 손실률이 클 경우에, ROHC는 R 모드로 동작하여 압축기법의 견고성을 제공할 수 있다. 이 때, Sparse Ack 기법을 적용하면 피드백으로 인한 대역폭의 사용량을 크게 줄일 수 있으므로 ROHC의 성능을 보다 향상시킬 수 있다.</p>
|
무선링크 상 지연시간 및 패킷 손실률 변화에 따른 패킷 헤더 압축률과 헤더 복구 실패율을 측정하여 모바일 와이맥스에서 핵심 구현파라미터를 찾아내고 그 파라미터의 최적값을 제안한다. 결과적으로 O 모드에서 PTIONAL_ACK\(_ \mathrm{pkt\_name}\)은 적용하지 않고, 무선 링크의 패킷 손실률이 많을 경우 ROHC는 R 모드로 동작하는 편이 좋다는 결과를 얻을 수 있었으며 ROHC의 성능을 증가하기 위해서는 Sparse Ack 기법을 적용하는 게 좋다는 결과를 얻을 수 있었다.
|
<h1>2. 헤더압축 기법: PHS 및 ROHC</h1><p>이 장에서는 모바일 와이맥스 표준에서 헤더 압축기법으로 제시한 PHS에 대해 살펴보고, 이 방안의 압축 비효율성에 대해 설명한다. 또한, 본 논문에서는 모바일 와이맥스 무선링크의 대역폭을 보다 효율적으로 활용하기 위해 PHS를 대체하는 헤더 압축 기법으로 제시한 ROHC를 소개하고 ROHC의 성능에 영향을 미치는 구현파라미터들에 대해 분석한다.</p><h2>2.1 PHS</h2><p>모바일 와이맥스 MAC CS(Media Access Control Convergence Sublayer)에서는 PHS 기법을 사용하여 한 세션 동안 사용자와 기지국 간에 주고 받는 상위 계층의 패킷 헤더 중 고정적인 값을 유지하면서 반복되는 헤더 필드들을 바이트 단위로 압축할 수 있다. 전송측에서 압축된 패킷은 수신측에서 본래의 헤더로 복구할 수 있으며, 모바일 와이맥스 무선링크에서 상향링크의 경우 전송측이 단말이고 수신측이 기지국이 되며, 하향링크의 경우 전송측이 기지국이고 수신측이 단말이 된다.</p><p>모바일 와이맥스(IEEE 802.16e)의 송·수신측 MAC에서는 패킷의 헤더 압축 및 재구성을 위해 PHS 규칙을 구성하고 유지한다. PHS 규칙은 단말이 네트워크 진입 시에 기지국과의 동적 서비스 플로우 생성 단계에서 미리 정의되며, 각 트래픽 전달을 위한 연결(connection)과 연관되어 전송측과 수신측에서 공유된다. 다음은 PHS 규칙의 구성 요소에 대한 설명이다.</p><ul><li>PHSI(PHS Index): 기지국의 MAC은 단말과의 각 연결에 대해 PHSI를 할당해야 하며, PHSI는 패킷의 클래스분류(Classification) 과정에서 얻은 결과인 PHS 규칙을 식별하 는데 사용된다. 따라서, 송신측 CS는 항상 압축 패킷에 PHSI를 붙여서 내보내며 수신측 CS는 수신한 패킷의 PHSI로 해당 PHS 규칙을 식별한다.</li><li>PHSF(PHS Field): 송·수신측은 본래의 헤더 필드 값을 일련의 바이트들로 구성하여 저장하며, 수신측 CS는 이 PHSF를 참조하여 압축 헤더 필드를 본래의 값으로 재구성한다.</li><li>PHSM(PHS Mask): PHSF에 대해 압축할 바이트를 표시하기 위해 PHSF의 각 바이트에 해당하는 일련의 비트들로 구성되며, 압축할 바이트는 1로 설정된다. 송신측 CS는 PHSF에 대해 PHSM 비트의 값이 설정되지 않은 바이트들만을 수신측에 전달하는 방식으로 압축을 수행한다.</li><li>PHSS(PHS Size): 압축 및 복구되는 헤더의 총 바이트 수를 의미하며, 이는 PHSF의 크기(바이트 단위)와 항상 동일하다.</li><li>PHSV: 송신측 CS가 헤더 필드를 압축하기 전에 PHSF 중 mask 대상인 바이트들의 값이 현재 해당 헤더 필드 값과 동일한지를 검증해야 하는지의 여부를 표시한다.</li></ul><p>CS는 상위 패킷에 대해 미리 정의된 서비스 플로우를 제공하기 위해 패킷을 분류한 후, PHS 기법을 이용하여 패킷 헤더를 압축할 수 있다. PHS 기법은 송·수신측 간의 한 세션 동안 압축할 헤더 필드의 값이 변하지 않고 계속 같은 값을 유지함을 검증하기 위해, PHSM을 설정하여 압축을 수행하기 전에 현재 헤더와 본래의 헤더 필드 값이 저장된 PHSF를 비교할 수 있다. 검증 결과가 일치하면 송신측 CS는 PHSM를 참조하여 마스크로 지정된 바이트들을 압축해야 한다. 만일 압축 대상인 헤더 필드 값이 변경된 경우에, PHS 기법은 이를 오류로 판단하고 압축 없이 패킷 앞에 PHSI만 붙이며 이러한 경우를 위해 PHSI 0이 예약되었다. 압축을 완료한 전송측 CS는 수신측 CS가 압축된 내용을 재구성하는데 필요한 PHS 가칙을 식별할 수 있도록 압축된 헤더로 구성된 패킷 앞에 PHSI를 붙인다. 수신측 CS에서는 압축 헤더를 재구성하기 위해 전송측으로부더 수신한 CID와 PHSI를 이용하여 해당 PHS 규칙을 찾는다. 수신측 CS는 PHSF와 PHSM의 비교를 통해, PHSM 비트가 설정된 경우 해당 바이트는 송신측에서 압축되었으므로 PHSF의 해당 바이트 값으로 헤더를 구성하고 PHSM 비트가 설정되지 않은 경우에 수신한 헤더의 바이트 값으로 헤더를 구성한다. 이 과정을 PHSS 만큼 반복하면 본래의 헤더 필드를 복구할 수 있다.</p><p>PHS 기법에서 압축할 헤더 필드는 단말의 네트워크 진입에 의한 초기화 과정에서 동적 서비스 설립 단계를 통해 미리 정의되는데, PHS의 압축 대상은 사용자와 기지국 간의 한 세션 내 모든 패킷에 대해 동일한 값을 가지는 헤더 필드로 한정된다. 게다가, PHS는 바이트 단위로만 압축이 가능하므로 압축 가능한 헤더 필드이더라도 그 필드가 바이트 단위가 되지 않을 경우에는 압축될 수 없다. 이러한 특징들로 인해 PHS의 압축 효율은 매우 제한적이다.</p>
|
PHS는 모바일 와이맥스에서 헤더 압축 기술로 사용되는 기술로, 한 세션동안 사용자과 기지국 간에 송신하는 상위 계층의 패킷 헤더 중 고정값을 유지하며 반복되는 헤더 필드를 대상으로 패킷을 압축하는 기술이다. 단말이 네트워크로 진입할 때 PHS 규칙과 압출할 헤더필드가 미리 정의 되는데 압축 대상이 사용자와 기지국 간의 모든 패킷에 대해 동일한 값을 가지는 헤더 필드로 한정되기 때문에 압축 효율이 매우 제한적이라는 한계가 있다. 본 논문에서는 모바일 와이맥스 무선링크의 대역폭을 보다 효율적으로 활용하기 위해 PHS를 대체할 헤더 압축 기법으로 제시한 ROHC를 소개하고자 한다.
|
<h2>2.2 ROHC</h2><p>ROHC의 헤더 압축은 컴프레서와 디컴프레서 간의 상호작용으로 이루어진다. ROHC는 한 세션 동안 계속 동일한 값을 유지하는 필드 뿐 아니라 일정한 패턴으로 변하는 헤더 필드에 대해서도 압축이 가능하기 때문에 PHS에 비해 압축 효율성이 더 좋다. 이를 위해 ROHC에서는 컴프레서와 디컴프레서가 각각 압축 또는 복구를 위해 필요한 과거 패킷의 헤더 필드에 대한 정보와 패킷 스트림의 특징에 대한 부가적인 정보가 저장된 컨텍스트(Context)를 유지한다.</p><p>이 장에서는 먼저 ROHC 기법을 이해하기 위한 기본 동작에 대해 설명하고, ROHC 압축상태 및 동작모드에 정의된 ROHC 구현파라미터들에 대한 분석을 통해 모바일 와이맥스에서의 ROHC 성능 향상을 위한 핵심 요소를 식별한다.</p><h3>2.2.1 ROHC 컴프레서/디컴프레서의 압축상태</h3><p>ROHC 컴프레서는 (그림 1)과 같이 압축 정도에 따라 IR(Initiation and Refresh) 상태, FO(First Order) 상태 그리고 SO(Second Order) 상태로 구성된다. 컴프레서는 가장 낮은 압축 정도를 가진 IR 상태에서 시작하여 점차적으로 높은 압축률을 제공하는 압축상태로 이동한다. IR 상태에서의 컴프레서는 디컴프레서에게 한 세션동안 계속 동일한 값을 유지하는 정적 헤더 필드에 대한 정보를 전달한다. FO 상태에서의 컴프레서는 디컴프레서에게 헤더의 동적 필드에 대한 정보(헤더 필드 값과 일정한 패턴을 가지고 변하는 동적 필드에 대한 변화 패턴 정보)를 전달한다. SO 상태의 컴프레서는 디컴프레서가 압축된 동적 필드의 재구성을 위해 필요로 하는 최소한의 필드 값만 전달하며, 따라서 최상의 압축률이 제공된다. 컴프레서는 디컴프레서가 압축된 헤더를 정확하게 복구할 모든 정보를 가지고 있다는 확신이 있는 경우 항상 가능한 최상의 압축률을 제공하는 압축상태에서 동작한다. 컴프레서 압축상태 간의 이동은 ROHC의 각 동작 모드에 따라 주기적인 타임아웃, 디컴프레서로부터의 긍정적/부정적 피드백, 패킷 헤더의 불규칙한 변화 패턴에 근거하여 이루어진다.</p><p>디컴프레서는 헤더를 복구하기 위해 필요한 정보를 어느 정도 소유했는지 여부에 따라 NC(No Context), SC(Static Context) 그리고 FC(Full Context) 상태로 구성된다. 초기 디컴프레서는 NC 상태로 시작하며, 한번의 패킷 복구를 성공하면 FC 상태로 이동한다. FC 상태에서의 디컴프레서는 헤더의 복구를 실패할 경우 SC 상태로 이동하게 되며, SC 상태에서도 헤더의 복구를 실패할 경우 NC 상태로 이동하게 된다. ROHC는 헤더 필드가 정확하게 복구되었음을 검증하기 위해 다양한 비트(3/7/8-비트)의 순환잉여검사(CRC: Cyclic Redundancy Check) 기법을 사용한다.</p><h3>2.2.2 ROHC 동작모드</h3><p>ROHC는 (그림 1)과 같이 U(Undirectional) 모드, O(bidirectional Optimistic)모드 그리고 R(bidirectional Reliable) 모드의 3개의 모드로 동작한다. U 모드는 무선 링크가 단방향이거나 피드백 채널의 사용이 불가능한 경우에 사용된다. (그림 2)는 U모드에서 컴프레서의 압축상태 간 이동을 보여준다. U 모드에서 컴프레서가 보다 높은 압축률을 제공하는 압축상태로 이동하는 근거는 Optimistic 방법에 의해 제공된다. Optimistic 방법이란, 컴프레서가 디컴프레서에게 헤더 복구를 위해 필요로 하는 정보를 충분히 전달한 후에 보다 높은 압축률을 제공하는 압축상태로 이동하는 것을 말한다. Optimistic 방법을 사용할 경우, 무선링크 상에서 헤더의 변화 패턴을 전달하는 패킷이 연속적으로 손실되면 컴프레서와 디컴프레서 간에 유지되는 컨텍스트 정보가 비동기화되어 디컴프레서 측에서 본래의 헤더를 복구하는데 실패하게 된다. U 모드의 컴프레서는 헤더의 재구성 실패를 감지하기 위한 피드백 채널의 결여를 보완하기 위해 주기적으로 보다 낮은 압축상태로 이동하여 디컴프레서의 컨텍스트에 저장된 정보를 갱신하는 방법을 사용한다. 하지만 이로 인해 다른 모드에 비해 압축률이 낮으며 컴프레서와 디컴프레서의 컨텍스트가 비동기화된 이후부터 컴프레서가 주기적인 타임아웃을 통해 낮은 압축상태로 이동할 때까지 연속적으로 헤더 복구가 실패하는 문제가 발생하게 된다. 즉, U 모드는 ROHC의 다른 동작모드에 비해 압축 효율이 낮을 뿐 아니라 손실 전파(loss propagation)의 가능성이 높다.</p><p>O 모드는 양방향 채널에서 동작하며, 디컴프레서가 컴프레서에게 에러 복구를 위한 요청을 보내거나 컨텍스트의 갱신에 대한 응답을 보내기 위해(선택 사항) 피드백 채널을 사용한다. (그림 3)은 O 모드에서 컴프레서의 압축상태 간 이동을 보여준다. O 모드는 U 모드와 마찬가지로 optimistic 방법을 통해 높은 압축상태로 이동한다. 그러나 미리 정해진 시간마다 하위 압축상태로의 이동을 통해 컴프레서와 디컴프레서의 컨텍스트를 동기화하는 U 모드와 달리, O 모드에서는 디컴프레서가 피드백 채널을 사용하여 컴프레서에게 컨텍스트의 비동기화를 알림으로써 패킷 손실에 의한 에러를 신속하게 복구한다. 따라서 O 모드는 U 모드에 비해 압축률과 견고성 면에서 모두 우수하며, 압축 효율을 최대화하면서 피드백 채널의 사용은 최소화하기 위해 사용되는 동작 모드이다.</p><p>R 모드도 O 모드와 마찬가지로 양방향 채널에서 동작한다. (그림 4)는 R 모드에서 컴프레서의 압축상태 간 이동을 보여준다. R 모드에서의 피드백 채널은 O 모드와 같이 헤더복구의 실패를 알리는 경우 외에도, 컴프레서가 디컴프레서의 컨텍스트를 갱신하기 위해 전송한 모든 패킷에 대한 디컴프레서의 응답을 전송하기 위해 사용되므로 O 모드에 비해 피드백 채널의 사용 빈도가 매우 높다. 반면에, R 모드는 컴프레서와 디컴프레서가 피드백에 근거하여 컨텍스트를 갱신함에 따라 컨텍스트 동기화가 항상 보장된다. 따라서 U 모드나 O 모드와 달리 패킷 손실로 인한 헤더 복구의 실패가 발생하지 않는다. 그러나 무선링크의 지연시간이 길 경우에, 컴프레서가 보다 높은 압축 상태로 이동하기 위해서는 피드백 전송의 지연시간만큼 기다려야 하므로 O 모드에 비해 압축 성능이 저하될 수 있다.</p><p>ROHC는 항상 U 모드에서 시작하며, 디컴프레서가 컴프레서에게 보내는 피드백에 원하는 동작 모드를 표시하여 모드를 변경할 수 있다. 최적의 동작 모드는 무선링크의 특징과 요구되는 성능 조건에 근거하여 결정해야 한다.</p>
|
ROHC의 헤더 압축은 컴프레서와 디컴프레서 간의 상호작용으로 작동되는데, 컴프레서와 디컴프레서 사이 무선 링크의 방향의 단방향, 양방향 여부와 피드백 채널의 특징에 따라 U, O, R의 세가지 동작모드로 정의할 수 있다.
|
<p>R 모드에서의 압축 상태 전이는 피드백에 근거하여 이루어지므로, 피드백의 구현 방법이 R 모드의 압축 성능에 영향을 미칠 수 있다. 우리는 피드백 전송의 주체가 다른 두 가지의 피드백 전달 방식(Piggybacked 피드백과 Interspersed 피드백이라 함)을 구현하여, 피드백 전달 방법에 따른 압축 성능을 평가해 보았다. 이를 위해 다음과 같이 가정하였다. 사용자와 기지국 간에는 한 개의 채널이 존재하며, 그 채널은 데이터 패킷과 피드백 전송을 위해 공유된다. (그림 15)에서와 같이 사용자와 기지국 간에는 각각 컴프레서와 디컴프레서 2쌍이 존재한다. piggybacked 피드백을 위해서 같은 편에 위치한 컴프레서와 디컴프레서 간에는 패킷 전송이 가능하다. 기지국을 예를 들면, 디컴프레서 A는 컴프레서 A에게 전송할 피드백을 생성한 후 우선 같은 편에 위치한 컴프레서 B에게 피드백을 전달한다. 컴프레서 B는 디컴프레서 A로부터 수신한 피드백을 버퍼에 임시로 저장해됬다가, 상위 계층으로부터 패킷이 도착하면 압축한 패킷에 버퍼에 저장된 피드백을 포함하여 해당 컴프레서에 전달한다. 반면, Interspersed 피드백 방식을 사용할 경우 기지국의 디컴프레서 A는 피드백을 생성하자마자 직접 컴프레서 A에게 피드백을 전달한다.</p><p>(그림 16)은 피드백의 구현 방식이 R 모드에서의 압축 성능에 미치는 영향을 보여주고 있다. Piggybacked 피드백을 사용할 경우, 디컴프레서가 생성한 피드백은 바로 컴프레서에게 전달되지 않고, 상위 계층으로부터 패킷을 수신할 때까지 기다렸다가 전송된다. 이러한 지연시간으로 인해, Interspersed 피드백을 사용하는 경우에 비해 컴프레서가 하위 압축 상태에 머무르는 시간이 길어진다. 따라서 piggybacked 피드백을 사용할 경우에 압축 효율성은 Interspersed 피드백을 사용하는 경우에 비해 떨어진다. 단, 802.16e 표준에는 VoIP와 같은 실시간 서비스를 제공하기 위해 ertPS(Extended real-time Polling Service) 스케줄링을 적용하도록 정의되었는데, 이로 인해 데이터 패킷에 비해 매우 작은 크기의 피드백 패킷이 단독으로 전송되는 형태의 Interspersed 피드백 방식의 사용이 대역폭의 낭비를 가져올 수 있다.</p><p>[8]에서와 같이 일반적으로 ROHC는 R 모드로 동작할 때 압축효율성이 가장 좋으나, 무선링크나 응용서비스의 특징에 따른 다른 결과를 보일 수 있다. 모바일 와이맥스의 경우 넓은 서비스 영역으로 인해 무선링크의 지연시간이 긴 특성이 있는데, 이로 인해 디컴프레서의 피드백에 의존하여 압축상태를 결정하는 방식을 사용하는 R 모드의 경우에 이러한 무선링크의 지연시간에 영향을 받게 된다. 이에 추가적으로, VoIP와 같이 세션 중에 패킷 헤더의 정보가 자주 변하는 특성을 가진 서비스의 경우에 ROHC 압축 상태 간 이동이 빈번하게 일어나게 되므로 지연시간에 영향을 받는 R 모드의 특성으로 인해 더욱 압축효율성이 떨어지게 된다. 또한, R 모드는 Sparse Ack 기법을 적용하더라도 O 모드에 비해 피드백에 의한 오버헤드가 크다. 시뮬레이션을 통해 확인해본 결과, 비트에러가 포함된 패킷이 ROHC에 전달되지 않고 무선링크의 지연시간이 긴 모바일 와이맥스 무선링크의 특성을 고려해 보았을 때 모바일 와이맥스의 CS에서 동작하는 ROHC는 O 모드로 동작하는 것이 가장 적합하다는 것을 볼 수 있다. 특히, 피드백에 의한 오버헤드를 고려해 보면 O 모드와 R 모드의 성능 격차는 더욱 크다. 다만, 패킷손실률이 높은 구간의 경우 O 모드로 동작할 경우 패킷 혜더 복구 실패율이 증가할 수 있으므로 이 경우 R 모드로의 동작모드 전환이 필요하다.</p>
|
데이터 압축, 특히 R 모드에서 피드백 메커니즘을 사용하면 압축 성능에 상당한 영향을 미칩니다. Piggybacked 및 Interspersed의 두 가지 피드백 전달 방법을 구현하고 평가했습니다. 그러나 VoIP와 같은 실시간 서비스에 802.16e 표준의 피드백 방식을 사용하면 대역폭 낭비가 발생할 수 있습니다. 시뮬레이션에 따르면 O 모드는 그 특성을 고려할 때 Mobile WiMAX의 ROHC에 선호되는 선택입니다. 그러나 패킷 손실률이 높은 시나리오에서는 높은 패킷 헤더 복구 실패율을 방지하기 위해 R 모드로 전환해야 합니다.
|
<h3>2.2.3 ROHC 구현 파라미터들</h3><p>ROHC 표준에는 ROHC RTP profile의 압축 효율성 및 압축기법의 견고성에 영향을 미치는 다양한 구현파라미터들이 정의되어 있다. ROHC 표준에 정의된 ROHC 구현파라미터들 중 모바일 와이맥스의 성능에 영향을 미치는 파라미터들은 다음과 같다.</p><ul><li>\( \mathrm{N}_{\mathrm{U}}, \mathrm{N}_{0} \): U와 O 모드에서, 컴프레서는 Optimistic 방법을 통해 보다 높은 압축률을 제공하는 압축상태로 이동한다. Optimistic 방법이란, 컴프레서가 연속적으로 일정 개수 이상의 업데이트 패킷을 전송함에 따라 디컴프레서가 본래의 헤더를 정확하게 복구하기 위해 필요로 하는 정보가 정확하게 전달되었다고 확신하는 것을 말한다. U 모드와 O 모드를 위해 각각 \( \mathrm{N}_{\mathrm{U}} \)와 \( \mathrm{N}_{\mathrm{O}} \) 값이 정의된다.</li><li>TIMEOUT\( _{\mathrm{FO}}\),TIMEOUT\( _{\mathrm{SO}}\): ROHC가 U 모드로 동작하는 경우에, 피드백의 결여로 인해 컴프레서는 미리 정해진 시간에 따라 주기적으로 하위 압축 상태로 이동한다. U 모드의 컴프레서는 FO 압축상태와 SO 압축상태를 위해 각각 TIMEOUT\( _{\mathrm{FO}}\) 와 TIMEOUT\( _{\mathrm{SO}}\) 타이머를 유지한다.</li><li>k_1, k_2, n_1, n_2: 디컴프레서는 n_1(n_2)개의 패킷에 대해 k_1(k_2)번의 헤더 재구성을 실패할 경우 하위 상태로 이동한다. k_1과 n_1은 FC 상태에서 사용되는 파라미터로 컨텍스트의 동적 필드에 대한 정보의 손상을 가정하는데 사용되며, k_2와 n_2는 SC 상태에서 컨텍스트의 정적 필드에 대한 정보의 손상을 가정하는데 사용된다. 모바일 와이맥스의 경우, 무선링크에서의 패킷 손실에 의해 컴프레서와 디컴프레서에서 유지하는 동적 필드에 대한 정보가 비동기화될 수 있다. ROHC 표준에서는 디컴프레서가 컴프레서에게 패킷 헤더 복구 실패 시 바로 피드백을 보내기 이전에 에러 복구 기법을 통해 컨텍스트의 비동기화를 해결하는 방법이 제시되어 있으나, 업데이트 정보의 손실로 인한 컨텍스트의 불일치는 에러 복구 기법을 통해 해결할 수 없으므로 신속하게 컴프레서에게 알리는 것이 중요하다. 따라서, 모바일 와이맥스에서 k_1과 n_1, k_2와 n_2값 은 모두 1로 설정해야 한다.</li><li>OPTIONAL_ACK\(_{\mathrm{pkt\_name}}\): 디컴프레서는 일부 ROHC 패킷에 대해 헤더 필드의 재구성이 성공했음을 컴프레서에게 알리기 위해 피드백을 전송하며 컴프레서는 Ack에 기반하여 상위 압축상태로 이동할 수 있다.</li><li>Sparse Ack 적용여부, k: R 모드에서는 모든 업데이트 패킷에 대해 피드백을 전송해야 하므로, 무선링크 상의 지연 시간이 길 경우에 피드백 오버헤드가 증가할 수 있다. Sparse Ack 알고리즘은 디컴프레서가 업데이트 패킷을 수신하면 미리 정의된 규칙에 따라 우선 최소의 Ack만을 전송한 후, 디컴프레서가 이전 패킷과 비교하여 헤더 필드의 같은 변화 패턴을 전달하는 ROHC 패킷을 계속 수신하는 경우에 왕복시간(RTT: Round Trip Time)당 k개의 패킷에 대해서만 Ack을 전송하여 피드백 오버헤드를 줄이는 방안이다.</li><li>피드백 전달 방식: 디컴프레서가 생성한 피드백을 전송하는 주체에 따라 피드백 전달 방식은 Piggybacked와 Interspersed 피드백으로 구분된다. 특히, R 모드에서는 피드백에 근거하여 컴프레서의 압축상태 이동이 이루어지므로, 압축 효율성이 피드백의 전달 방식에 매우 의존적이다. 위와 같은 파라미터들은 모바일 와이맥스에서 ROHC의 성능을 향상시킬 핵심 요소들이나, ROHC 표준에는 구현 사항으로 정의만 되어 있을 뿐 실제 값에 대해서는 기술되지 않았다. ROHC의 성능은 각 동작모드 및 압축상태에 정의된 ROHC 구현파라미터들에 의해 영향을 받으므로, 모바일 와이맥스에 ROHC 기법을 적용하기 위해서는 ROHC 구현파라미터들의 적절한 값이 정의되어야 한다.</li></ul>
|
모바일 WiMAX와 관련하여 표준에 정의된 특정 ROHC 구현 매개변수는 성능에 상당한 영향을 미칩니다. ROHC 프로토콜에서 압축 해제기는 압축기에 피드백을 제공하여 특정 ROHC 패킷의 헤더 필드가 성공적으로 재구성되었음을 알립니다. 이 피드백을 기반으로 압축기는 더 높은 압축 상태로 진행하여 전체 압축 효율을 향상시킬 수 있습니다. R 모드에서 압축 효율은 피드백 전달 방법에 크게 의존합니다. 피드백을 받은 압축기의 압축 상태의 움직임이 결정되기 때문입니다. 모바일 WiMAX에서 ROHC 기법을 구현하기 위해서는 ROHC 구현 매개변수에 대한 적절한 값을 정의해야 한다.
|
<h1>1. 서 론</h1><p>모바일 와이맥스는 IP 기반 무선 광대역 서비스를 제공한다. 모바일 와이맥스를 통해 IP 기반의 실시간 서비스를 제공하기 위한 전송 프로토콜인 RTP(Real Time Protocol)의 패킷 헤더 크기는 RTP(12 바이트), UDP(8 바이트) 그리고 IP(20 바이트)를 포함하여 총 40 바이트이다. 특히, VoIP의 경우에 802.16m draft에서 정의된 voice payload 크기가 33 바이트임을 고려해볼 때 헤더가 차지하는 비중이 매우 크다. 이러한 패킷 헤더 오버헤드는 물리적으로 대역폭이 제한되어 있는 무선링크에서 성능 저하의 요인이 된다. 무선링크 대역폭의 효율적 활용을 위해 헤더압축기법을 통해 각 패킷의 중복적인 헤더 필드를 제거하여 패킷의 헤더 크기를 줄이는 방안이 사용된다. 모바일 와이맥스 표준에서는 무선링크 대역폭의 효율적 활용을 위해 헤더 압축 알고리즘인 PHS(Payload Header Suppression) 기법이 선택적으로 적용되도록 정의하였다. PHS 기법은 한 세션 동안 사용자와 기지국 간에 주고 받는 각 패킷에서 계속 동일한 값을 유지하는 헤더 필드에 대해 압축이 가능하다. PHS는 동작 원리가 간단하여 구현이 쉽지만, 제한적인 압축 필드로 인해 압축 효율성이 떨어지는 단점이 있다.</p><p>한편, 제한적인 무선링크에서의 대역폭을 보다 효율적으로 활용하기 위한 방안으로 헤더 압축 알고리즘인 ROHC(Robust Header Compression) 기법이 IETF Network WG(Working Group)에 의해 제안된 바 있다. ROHC는 한 세션 동안 주고 받는 각 패킷에 대해 지속적으로 동일한 값을 유지하는 헤더 필드 뿐만 아니라 일정한 변화 규칙을 가진 동적 필드에 대해서도 압축이 가능하므로, PHS에 비해 헤더 압축률이 높다. 또한, ROHC는 무선 링크 상의 높은 비트에러나 데이터 손실에 의한 에러 감지 시 신속하고 정확하게 복구할 수 있는 방안을 제공한다. 다양한 무선 링크 상에서의 ROHC의 우수한 성능은 이미 여러 논문들을 통해 증명되었다.</p><p>[5]는 ROHC RTP profile에 대한 분석 모델을 정의하고 무선링크의 비트에러에 대한 ROHC의 견고성을 평가하였으나, 제한적인 성능평가로 인해 ROHC의 성능을 전반적으로 보여주기에는 부족하다. [6]은 UMTS network에서 ROHC의 성능 향상을 위해 일부 ROHC 구현파라미터들의 동적 구성 방안을 제안하고, 이를 이용하여 무선링크의 높은 비트에러에 보다 더 좋은 성능을 보이는 방안을 제안하였다. [7]은 비트에러율이 높은 무선 채널 상에서 ROHC 구현파라미터의 조정을 통해 ROHC의 성능을 향상시키는 방안을 제안하였다. [8]은 비트에러율이 높은 환경에서 ROHC RTP profile에 대한 성능 분석을 통해 압축률 면에서 가장 좋은 성능을 보이는 ROHC 동작모드를 분석하였다. 이 외에도 무선링크 상의 비트에러율에 대한 ROHC 기법의 성능에 대해 분석한 논문들이 존재한다. 이들 ROHC에 대한 기존 연구는 공통적으로 비트에러가 존재하는 무선 링크에서의 ROHC 성능을 평가하는데 중점을 두었다. 하지만, 맥 계층에서 비트에러 체크 기능을 제공하는 무선시스템의 경우 에러가 포함된 패킷이 상위 계층에 전달될 확률은 거의 없으므로, 이와 같은 무선시스템에서 ROHC에 대한 성능 평가를 위해서는 기존 연구들과는 다른 측정 기준이 필요하다. 모바일 와이맥스의 맥 CS(Convergence Sublayer)에 ROHC를 구현할 경우에도, 맥 CPS(Common Part Sublayer) 계층에서 정의한 CRC(Cyclic Redundancy Check)를 활용한 비트에러 체크 기법을 통해 에러가 포함된 패킷이 ROHC에 전달되지 않는다. 모바일 와이맥스에서는 서비스 플로우 생성 단계에서 각 서비스에 대해 ARQ(Automatic Repeat reQuest) 기능을 지원할지 여부를 결정하며, 엄격한 시간 제약으로 인해 VoIP와 같은 실시간 응용의 경우 ARQ 기능을 제공하지 않으므로 비트 에러가 포함된 패킷은 맥에서 삭제되고, 이는 ROHC에서 패킷 손실로 처리된다. 한편, 모바일 와이맥스는 넓은 서비스 영역으로 인한 무선링크에서의 긴 지연시간 및 서비스 음영 지역으로 인한 무선링크에서의 순간적으로 연속적인 패킷 손실이 발생할 수 있으므로, 모바일 와이맥스에서 ROHC를 활용하는데에 대한 적합성을 살펴보기 위해 이에 대한 성능 평가가 필요하다. 이에 본 논문에서는 시뮬레이션을 통하여 모바일 와이맥스 환경에서 무선링크의 지연 및 패킷 손실을 변화시켜 보면서 ROHC 압축효율 및 견고성에 영향을 미치는 구현파라미터들에 대한 전반적이고 구체적인 성능평가 및 분석을 수행하고, ROHC와 PHS의 성능을 비교하였다.</p><p>본 논문의 구성은 다음과 같다. 1장의 서론에 이어 2장에서는 모바일 와이맥스 표준에서 정의된 헤더 기법인 PHS와 본 논문에서 PHS에 대한 대체 방안으로 제시하는 ROHC에 대하여 소개한다. 3장에서는 모바일 와이맥스에서의 ROHC의 성능을 살펴보기 위한 다양한 시뮬레이션 결과를 제시하고 마지막으로 4장에서는 이 논문의 결론을 맺는다.</p>
|
모바일 와이맥스는 IP 기반 무선 광대역 서비스를 제공하는데 패킷 헤더 오버헤드는 성능 저하의 요인이 된다. 때문에 무선링크 대역폭을 효율적으로 활용하기 위해 헤더압축기법을 통해 각 패킷의 중복적인 헤더 필드를 제거하여 패킷의 헤더 크기를 줄이는 방법을 사용한다. PHS는 간단한 동작 원리로 인해 구현하기가 용이하지만, 한가지 단점은 제한적인 압축 필드로 인해 압축 효율성이 떨어진다는 점이다. 반면, ROHC는 헤더 필드와 동적 필드 모두 압축이 가능하므로 PHS와 비교했을 때 헤더 압축률이 더 높다.
|
<p>그러나 이상에서 살펴본 선행연구 대부분은 음성과 음악 또는 효과음만을 대상으로 하였으며, 연구 내용 또한 음성과 경음악(가수의 음성이 섞여있지 않은 음악)과의 구분을 위한 것이 주를 이루고 있다. 그러나 실제 \( \mathrm { FM } \) 라디오나 TV 방송에서는 경음악이나 연주 위주의 클래식음악보다 가수의 목소리가 포함되어 있는대중음악의 방송빈도가 횔씬 높기 때문에 기존 연구를실제 방송 오디오 신호에 적용하기에는 한계가 있다.또한, 기존 연가 대부분은 실제 방송 신호를 대상으로 하지 않았거나, 방송 신호를 대상으로 연구가 되었다고 하여도 실험데이터가 충분치 않고, 음성과 음악 구간을 수작업으로 분류한 짧은 오디오 클립(audio clip)들을 대상으로 하였기 때문에 24시간 연속적으로 방송되고 있는 라디오나 TV 방송을 대상으로 하기에는 무리가 있다.</p> <p>본 논문은 실제 방송 환경에 적용 가능한 방송용 음원 모니터링 시스템을 구축하기 위한 사전연구로 방송 신호로부터 음악신호 구간만을 자동으로 검출할 수 있는 시스템에 대해 연구하였다. 음원 모니터링 시스템은 \( \mathrm { FM } \) 라디오나 TV 신호로부터 음악신호 구간만을 검출하여 음원을 검색해 해당 음악 콘텐츠에 대한 저작권 보호와 지적 재산권을 행사할 수 있는 시스템으로 다양한 유형의 오디오 신호가 포함된 방송신호로부터 얼마나 정확히 음악신호 구간만을 검출할 수 있느냐가 전체 시스템의 성능을 좌우한나. 실제 방송 신호는 DJ나 게스트들의 음성과 음악만 존재하는 것이 아니라 방송에 도움을 주고 있는 기업들에 대한 광고 방송이나 교통정보 등 다양한 유형의 오디오 신호를 포함하기 때문에 일반적인 음성/음악 판별보다 횔씬 더 정교한 알고리즘을 요구한다.</p> <p>본 논문에서는 사람의 음성 발화 특징, 즉 사람의 음성 신호에는 호흡이나 발언 간의 순간 등으로 음성신호가 존재하지 않는 정적(silence)구간이 많이 존재한다는 기본적인 사실을 이용하였다. 반면, 가수의 음성이 포함된 음악의 경우 가수의 음성뿐만 아니라 다른 악기들의 연주가 함께 존재하기 때문에 신호 정적 구간이 거의없는 편이다. 즉, 이는 신호 에너지가 존재하는 구간과 존재하지 않는 구간의 출현이 빈번한 음성구간의 경우 에너지 편차가 많다는 것올 의미하고, 악기들의 연주에 가수의 음성이 더해지는 음악구간의 경우 상대적으로 에너지 편차가 작다는 것을 의미한다. 또한, 광고 신호의 경우에도 기본적인 배경음악(BGM: background music)에 광고 메시지를 음성으로 전달하는 것으로 가정한다면 신호 에너지 편차가 음성보다는 작고 음악보다는 클 것이라는 가정이 가능하다. 본 연구에서는 이러한 원리에 기반해 에너지 표준편차(standard deviation), Log 에너지 표준편차, Log 에너지 평균 등 3 개의 간단한 시간-영역 특징 파라메터를 추출하였으며, 최종 옴성신호 구간 퐌변온 각 에너지 한계값(threshold)을 이용한 Rule-base 분류를 기반으로 하였다. 또한 보다 정교한 신호 분류를 위해 1차적으로 확실한 음성신호 구간을 검출한 다음, 나머지 신호구간에 대한 최종 음악구간 판별은 2차 후처리 과정에서 수행하도록 하였다.</p>
|
이 연구는 방송 신호로부터 음악 부분만을 자동으로 검출하는 방송용 음원 모니터링 시스템을 구축하는 초기 단계의 연구이다. 대부분의 기존 연구가 효과음과 음악, 그리고 음성을 주 대상으로 하였으나, 실제 라디오나 TV에서는 대중음악이 클래식 음악보다 더 자주 방송되므로, 대중음악이 포함된 방송 신호를 적절히 처리할 수 있는 시스템의 필요성이 대두되었다.
|
<p>본 논문의 구성은 다음과 같다. 먼저 II장에서는 제안된 시스템의 구조와 추출되는 특징에 대해 설명하고, III장에서는 오디오 방송 신호에서 음악구간과 비-음악구간의 분류를 위한 특징 분석에 대한 설명을 한다. IV장에서는 실제 방송 신호에 대한 실험 결과를 설명하고, 끝으로 \( \mathrm { V } \) 장에서 결론을 맺는다.</p> <h3>II. 제안 시스템의 구조 및 특징 추출</h3> <p>본 논문에서 제안하는 시스템의 구조는 그림 1 과 같다.</p> <p>\( \mathrm { FM } \) 라디오 신호는 각 방송사의 인터넷 라디오 청취 프로그램(미니, 고릴라, 콩 등)이나 홈페이지의 웹에서 듣기 서비스를 이용하여 고품질의 신호가 사운드 카드로 입력이 되지만, 연산량을 고려하여 \( 8 \mathrm { kH } z \) 로 다운 샘플링 된다. 다운 샘플된 신호는 \( 32 \mathrm { ~ms } \) 해밍 윈도우를 중첩되지 않도록 적용하면서 에너지와 \( \mathrm { Log } \) 에너지를 추출하고, 음악구간과 비-음악구간을 구분하기 위한 분석시간인 약 1 초(31프레임)간의 분석 구간 내에서의 동계값을 계산한다. 수식(1)은 위의 과정을 표현한 것이다.</p> <p>\( L(l) = \frac { 1 } { N_ {\text { hop } } } \sum_ { n=0 } ^ { N_ {\text { lap } } -1 } \left |s \left (n + l N_ {\text { hop } } \right ) \right | ^ { 2 } \)</p> <p>\( (0 \leq l \leq L-1) \)</p> <p>\( E_ { S } (k)= \left ( \frac { 1 } { M_ { h o p } } \sum_ { m=0 } ^ { M_ {\text { hop } } -1 } \left (E \left (m + k M_ { h o p } \right )- \overline { E(k) } \right ) ^ { 2 } \right ) ^ {\frac { 1 } { 2 } } \)<caption>(1)</caption></p> <p>\( \left (0 \leq k \leq \frac { L } { M_ {\text { hop } } } -1 \right ) \)</p> <p>\( \overline { E(k) } = \frac { 1 } { M_ { h o p } } \sum_ { m=0 } ^ { M_ {\text { hop } } -1 } E \left (m + k M_ { h o p } \right ) \)</p> <p>위 수식에서 \( E(l) \) 은 \( l \) 번째 프레임의 에너지이고, \( \overline { E(k) } \) 는 \( k \) 번째 분석구간(1초) 내에서의 에너지의 평균을, \( E_ { S } (k) \) 는 \( k \) 번째 분석구간 내에서의 에너지의 표준 편차를 나타낸다. \( L \) 은 신호의 총 프레임 수를 나타내고, \( N_ { h o p } \) 은 1 프레임(32ms)에 포함되는 샘플의 수를, \( M_ { h o p } \) 은 분석구간에 해당하는 프레임의 수를 나타낸다.</p> <p>\( \log \) 에너지에 대한 연산은 에너지를 구한 후 \( \log \) 를 취한 다음, 식(1)과 동일하게 연산하면 되기 때문에 생략하였다. 분석 구간 내에서 추출된 통계 값을 이용하여 음악구간과 비-음악구간으로 구분을 하게 되는데, 자세한 설명은 다음 장에서 하도록 한다.</p> <h3>III. 제안된 알고리즘</h3> <p>본 논문의 구간 검출 시스템은 1차적으로 \( \mathrm { FM } \) 라디오 신호로부터 음성구간과 비-음성(음악과 광고)구간을 분류하고, 비-음성으로 분류된 구간에서 최종적으로 음악구간을 검출해주는 2 단계로 구성이 되어있다. 이번 장에서는 이와 같은 분류구조를 갖게 된 이론적 배경을 실제 \( \mathrm { FM } \) 라디오 방송 신호에 대한 파라미터 분석을 통해 설명하고자 한다.</p>
|
FM 라디오 신호는 인터넷 라디오 청취 프로그램이나 홈페이지의 듣기 서비스를 이용하여 고품질의 신호가 사운드 카드로 입력이 되지만, 다운 샘플링 된다. 다운 샘플된 신호는 해밍 윈도우를 중첩되지 않도록 적용하면서 에너지와 Log 에너지를 추출하고, 약 1초 간의 분석 구간 내에서의 동계값을 계산하고 추출된 통계 값으로 음악구간과 비-음악구간을 구분한다. 본 논문의 구간 검출 시스템은 1차로 FM 라디오 신호로부터 음성구간과 비-음성구간을 분류하고, 2차로 비-음성으로 분류된 구간에서 최종적으로 음악구간을 검출한다. 이번 장에서는 이러한 분류구조가 생기게 된 이론적 배경을 실제 FM 라디오 방송 신호에 대한 파라미터 분석을 통해 설명한다.
|
<h1>요약</h1> <p>본 논문에서는 실제 방송 환경에 적용 가능한 방송용 음원 모니터링 시스템을 구축하기 위한 사전연구로 방송 오디오 신호로부터 음악신호 구간을 자동으로 검출할 수 있는 시스템올 제안하였다. 음악구간과 비음악구간의 구분을 위헌 특징으로는 사람의 음성 발화 특성을 반영하여 에너지 표준편차와 \( \log \) 에너지 표준편차 그리고 \( \log \) 에너지 평균 등 3개의 간단한 시간영역 특징들을 사용하였으며 최종 음악신호 구간 관별은 각 에너지 한계값(threshold)을 이용한 Rule-base 분류를 기반으로 하였다. 실제 FM 라디오 방송 신호를 24시간 녹음하여 진행한 모의실험에서 음악구간 인식률은 \( 96 \% \), 비-음악구간 인식률은 \( 87 \% \)를 나타내어 방송용 음원 모니터링 시스템의 전처리기로 손색이 없음을 확인할 수 있었다.</p> <h1>I. 서 론</h1> <p>최근 인터넷, 컴퓨터 통신과 같은 네트워크의 급속한 발전과 방송용 디지털 오디오 콘텐츠의 증가로 FM 라디오나 TV 방송 신호로부터 음성, 음악, 호과음이나 광고음악 둥 여러 유형의 오디오 신호를 자동으로 분류하는 연구가 활발히 진행되고 있다. 예를 들어, 입력 오디오 신호로부터 음악 구간만을 검출하여 해당 음원을 검색할 수 있는 오디오 인덱싱(audio indexing)이나, 음성이나 화자인식의 전처리 과정으로 음성 구간만을 검출하여 음성인식(Speech recognition)이나 화자인식(Speaker recognition)을 수행한다거나, 또는 대역폭이 제한된 멀티미디어 통신환경에서 음성과 음악을 자동구분하여 각 유형에 맞는 압축 방식을 적용할 수 있는전송기술 등 모두는 오디오 유형을 자동으로 분류해낼 수 있는 기술을 전처리 과정으로 요구한다. 일반적으로 음성이나 음악 등의 오디오 유형을 분류하기 위한 시스템은 크게 2단계로 구성된다. 첫째는 각 오디오 유형을 효과적으로 구분할 수 있는 특징 추출(feature extraction), 둘째는 특징 파라메터를 이용하여 오디오 유형을 판별할 수 있는 통계적 패턴 분류나 Rule-base 분류이다. 기존 연구로서 J. Saunders는 라디오 방송에서 음성과 음악의 실시간 분류를 위해 Energy와 zero-crossing rate(ZCR)를 사용하였고, E. Scheirer는 13개의 오디오 특징을 4가지 서로 다른 다차원 분류기에 적용하여 k-d spatial 분류기에서의 최적의 특징 벡터조합을 찾을 수 있었다. A. Pikrakis는 Variable Duration Hidden Markov Model(VDHMM)과 Bayesian Network(BN)을 조합한 복합 구조를 적용하여 좋은 성능을 얻을 수 있었다. 국내 연구 역시 대부분 음성과 음악 신호 분류를 위한 최적의 특징벡터 조합이나 통계적 패턴 분류기의 성능 향상에 대한 연구가 주를 이루고 있으며 약 \( 95 \% \) 가까운 좋은 성능을 나타내고 있다.</p>
|
논문은 실제 방송에 적용 가능한 음원 모니터링 시스템을 구축하기 위하여, 방송 오디오 신호로부터 음악신호 구간을 자동으로 검출할 수 있는 시스템을 제안한다. 음악구간과 비음악구간의 구분을 위한 특징으로는 사람의 음성 발화 특성율 반영하여 에너지 표준편차와 \( \log \) 에너지 표준편차 그리고 \( \log \) 에너지 평균등 3개의 간단한 시간영역 특징들을 사용하였으며 최종 음악신호 구간 검출은 각 에너지 한계값을 이용한 Rule-base 분류를 기반으로 하였다.
|
<h1>요 약</h1> <p>음성 및 오디오 코덱은 각 신호의 특성 및 응용 분야가 다르기 때문에 오랜 기간 동안 각기 다른 부호화 방법을 기반으로 개발되고 발전되어 왔다. 최근 방송 및 통신 시스템이 융합되는 흐름에 발맞추어 3GPP 및 ISO/IEC MPEG 등의 표준화 기관에서는 두 신호를 하나의 통합 코덱을 이용하여 압축 전송하기 위한 노력을 지속해 왔다. 그 일환으로 MPEG에서는 그 간의 표준화된 기술들을 통합하고, 다양한 주관적 음질 평가 결과를 기반으로 USAC (Unified speech and audio coding)이라고 불리는 코덱의 표준화를 진행 중이다. 그러나 USAC RM (Reference model) 소프트웨어의 구조적인 복잡성, 사용되지 않는 수많은 모듈로 인한 용량의 비대함, 그리고 부호화기의 열악한 성능 등으로 인하여 기존 RM을 개선하고자 하는 필요성이 지속적으로 제기되었다. 본 논문에서는 USAC에 포함된 주요 기술을 설명하고, 이러한 문제를 최소화하기 위해 오픈 소스 기반으로 새롭게 설계된 RM 소프트웨어를 제안한다. 이는 2010년 4월 MPEG 회의에서 발표되었으며, 6월 모든 참여 기관을 위해 소스 코드가 공개되었다.</p> <h1>Ⅰ. 서 론</h1> <p>음성 코덱은 음성 발성 모델에 기반 하여 소스-필터 (Source-filter) 구조를 바탕으로 발전하여 왔으며, 유선 전화에서부터 무선 이동 통신에 이르기 까지 양방향 음성 통신을 목적으로 폭넓게 사용 되어 왔다. 이와 달리 오디오 코덱은 인체 청각 모델(human hearing system)에 기반 하여 오디오 신호에 대하여 높은 인지적 음질 (perceptual quality)을 표현할 수 있도록 개발되어 디지털 방송 등과 같이 단 방향 스트리밍의 폭 넓은 서비스 분야에 주로 이용되어 왔다. 이처럼 기존 코덱들은 각 신호의 특성과 응용 분야의 요구에 따라 서로 다른 방식으로 연구 개발 되어 왔다.</p> <p>그러나 통신과 방송을 융합하기 위한 노력이 진행되고, 다양한 멀티미디어 응용 분야가 생성됨에 따라, 최근에는 음성과 오디오에 대한 구분 없이 단말기의 동일한 입력 음원으로 사용되고 있다. 하지만 오디오 코덱에서는 음성 입력 신호에 대하여, 그리고 음성 코덱에서는 오디오 입력 신호에 대하여 음질이 저하되는 결과가 나타났으며, 이러한 현상은 저 전송률에서 더욱 심각하였다. 따라서 기존의 음성과 오디오 코덱을 대체할 수 있는 통합 코덱에 대한 요구가 한층 증가하게 되었다.</p> <p>3GPP는 이러한 요구에 발 맞춰 AMR-WB+ 라는 통합 코덱을 표준화 하였다. 기존 AMR-WB 음성 코더에, 주파수 영역 부호화 기법인 TCX (Transform coded excitation) coding과 대역폭 확장(Bandwidth extension)을 추가하여 만들어진 이 코덱은 오디오 신호를 부호화하는데 있어 상당한 개선이 있었지만, 대표적인 오디오 코덱인 HE-AAC만큼 음질을 향상시킬 수는 없었다.</p> <p>HE-AAC를 표준화한 ISO/MPEG 또한 새로운 통합코덱을 표준화하기 위하여 2007년 10월부터 논의를 시작하여 USAC(Unified speech and audio coding)이라는 이름의 코덱을 설계하였다. 이는 입력 신호의 특성을 구분하여 음성과 오디오 코덱을 선택적으로 동작하는 방식으로서 기존 기술들에 대한 개선작업을 통하여 표준 모델인 RM (Reference model)으로 발표하였다. 또한 이 RM은 MPEG 회의에서 다루어지는 다양한 기술 기고를 포함하여, 지속적인 성능 향상 과정에 있다. 기본적으로 음성와 오디오의 대표적 코덱인 AMR-WB+ 와 HE-AAC를 결합하여 만든 USAC는 입력 신호의 특성에 따라 선택적으로 동작한다. 신호분류기(Signal classifier)가 전처리단에 위치하여 이와 같은 결정을 하며, 분류기 성능에 비해 최종 음성 품질 역시 많은 차이가 발생한다. 음성 신호의 경우 ACELP (algebraic code excitation linear prediction) 코딩 방식을 통하여 부호화 되며, 오디오 신호의 경우 심리 음향 모델(psychoacoustic model)을 기반으로 한 AAC(Advanced audio coding)방식을 통하여 부호화 된다.</p> <p>현재 MPEG에서 제공하는 RM 소프트웨어에는 적절한 신호분류기나 심리 음향 모델 등 부호화기의 성능에 큰 영향을 주는 주요한 모듈들이 포함되어 있지 않다. 이로 인하여 현재의 부호화기는 성능 열화로가 매우 심해졌으며, 이롤 해결하기 위하여 기존 RM 부호화기에 대한 성능 개선 프로젝트가 진행 중이다. 이 프로젝트의 일환으로 지난 92 번째 MPEG 미팅에서 오픈 소스 기반의 새로운 RM 소프트웨어인 JAME이 소개 되었다. 본 논문에서는 USAC에 포함된 주요 기술과 오픈 소스 기반으로 새롭게 설계된 JAME에 대하여 상세히 설명한다.</p>
|
다양한 멀티미디어 응용 분야가 생성되면서 음성과 오디오는 단말기의 동일한 입력 음원으로 구분 없이 사용되었으나 코덱과 신호가 일치하지 않을 때 음질이 저하되는 문제가 나타났고 논의 끝에 AMR-WB+와 HE-AAC를 결합한 USAC이라는 통합 코덱을 설계하였다. 그러나 USAC RM 소프트웨어의 구조적 복잡성, 불필요한 모듈의 용량, 열악한 성능의 부호화기 등의 문제들을 개선하고자 하는 필요성이 제기되고 있다.
|
<h1>Ⅱ. USAC의 전체 구조</h1> <p>그림 1 과 2 는 USAC의 부호화 및 복호화 과정에 대한 전체 블록도이다. 시스템은 크게 4 개의 파트로 구성되는데, 첫 번째 상위파트에서는 멀티채널 코딩, 대역폭 확장, 신호 분류를 담당한다. 그리고 음악신호를 위한 FD 코딩영역, 음성 신호를 위한 TD 코더 블록, 양자화 그룹이 추가되어 전체 시스템을 구성하고 있다. 입력신호를 받아 음성인지 오디오 신호인지 판단하는 부분이 신호분류기인데, 그 결과에 따라 TD 코더와 FD 코더가 선택적으로 동작한다. 전처리 그룹의 MPEG surround는 멀티채널 부호화를 위한 모듈이고, eSBR 과정을 통해 보다 효율적 코딩을 위한 대역폭 확장 기술이 적용된다. FD 코더는 대표적인 오디오 코덱인 AAC의 구조와 유사하다. 그 중 Block-switching, AAC MDCT filter bank, 심리 음향 모델(Psychoacoustic model), TNS(Temporal noise shaping), M/S (Middle-side stereo coding)등은 심리 음향 모델을 이용하여 각 서브 밴드에서 원음 AAC와 동일한 기술을 상속받아 사용하는 것이다. 심리음향 모델에 의해 마스킹(Masking) 되어 들을 수 없는 최대의 잡음 레벨을 결정할 수 있으며, 이를 이용해 각 서브밴드에 최적의 비트를 할당한다. TNS 기법은 필터뱅크 윈도우 내에서 시간영역의 양자화 잡음을 적절하게 배치하여 청각적으로 들리지 않도록 하는 역할을 한다. 멀티 채널 신호에 대해서는 전처리 그룹의 MPEG Surround를 사용할 수도 있으며, FD 내부의 M/S 스테레오 부호화 기 법을 사용할 수도 있다.</p> <p>기존 AAC와는 달리 USAC에서 새로 채택한 기술로는 TW-MDCT(Time-warped modified discrete cosine transform), Noise Filling, CAAC등이 있다. TW-MDCT는 추정한 피치 정보를 이용하여 신호를 시간영역에서 warping하는데, 이는 주파수 영역에서의 주요 하모닉 성분들에 대한 코딩 효율을 향상시키기 위함이다. 또한 Noise filling은 스펙트럼 홀이 발생하는 구간에 잡음 신호를 채워 주는 방식으로 AAC의 PNS (Perceptual noise substitution)의 기능과 동일하다. CAAC 는 FD 코더뿐만 아니라 TD 코더에서 추출된 파라미터를 양자화하는 방식인데, 과거 Huffman coding 기법보다 복잡도는 높으나 압축 효율이 우수하여 채택되었다.</p> <p>TD 코더는 기존의 AMR-WB+와 거의 유사한 형태를 가진다. LPC 필터링 후 생성된 잔여신호에 대해 음성(speech) 신호의 경우 ACELP(Algebraic CELP)를, 비음성 (Non-speech)신호는 wLPT (weighted LP transform coding)방식을 이용하여 부호화한다. AMR-WB+ 의 ACELP 부분과 USAC의 ACELP부분은 동일하며, USAC의 wLPT는AMR-WB+의 TCX가 변형된 형태이다. WLPT는 FD 코더와 같이 MDCT를 사용하며, 잔여신호의 스펙트럽은 CAAC기법을 사용하여 비트열로 만들어 진다.</p> <p>그림 2 의 USAC 복호화기는 부호화기 그룹과 반대 순서로 비트열 복호화 그룹, TD 복호화기, FD 복호화기, 후처리 그룹으로 이루어진다. 비트열 복호화 그룹은 CAAC와 Noise filling으로 생성된 파라미터를 바탕으로 복호화 하며, TD 복호화기나 FD 복호화기를 선택적으로 거쳐, 후처리단을 통과한 후 원 신호를 복원한다.</p>
|
USAC의 부호화 및 복호화 과정에서 시스템은 크게 4 개의 파트로 구성되어 있으며, 기존 AAC와 달리 새로 채택한 기술은 TW-MDCT, Noise Filling, CAAC등이 있다. USAC 복호화기는 부호화기 그룹과 순서과 반대이며, 비트열 복호화 그룹, TD 복호화기, FD 복호화기, 후처리 그룹으로 이루어지며 TD나 FD 복호화기를 선택적으로 거쳐 원 신호를 복원한다.
|
<h1>Ⅱ. 본 론</h1> <p>통신 신호 추적 성능 향상을 위해 본 논문에서는 모노펄스 오차각 산출 방식과 가변 이득 방식의 \( a \beta \) 필터를 이용한 향상 방안을 제시한다.</p> <h2>1. 제안된 모노펄스 (Monopulse) 오차각 산출</h2> <p>일반적인 레이더의 모노펄스 시스템에는 3채널 모노펄스 시스템 방식이 적용되지만, 본 연구에서는 이동형통신신호 추적 시스템에 적합하며, 크기, 무게 및 비용등을 절감할 수 있는 단일채널 모노펄스 시스템 방식을 적용하였다.</p> <p>그림-1에 나타나 있듯이, 단일채널 모노펄스 시스템은 4개의 혼 안테나 및 모노펄스 비교기와 저잡음 증폭기(LNA: Low Noise Amplifier), 신호결합기, 위상변환기 및 믹서 등으로 구성된 단일채널 모노펄스 수신기로 구성된다. 모노펄스 비교기 출력인 \( \Sigma, \Delta \mathrm{A} 7, \Delta \mathrm{EL} \) 신호에 대하여 P/S(Phase Shifter)에 의해 합신호 대비 각각 \( 0^{\circ} / 180^{\circ} \) 위상차가 있는 차신호를 생성하고 각각에 대하여 합신호와 결합한 후, 식 (1)과 같은 연산을 통해 \( \Delta / \Sigma \) 비를 언을 수 있다.<p>\( \frac{\Delta}{\Sigma}=P_{0}-P_{180} \)<caption>(1)</caption></p> <p>일반적인 모노펄스 오차각 추적 과정은 측정된 \( \Delta / \Sigma \)비로부터 선형성이 보장되는 부분의 \( \Delta / \Sigma \) 기울기(Monopulse Ratio)인 \( r_{\Delta / \Sigma} \) 을 정하여 식 (2)와 같은 방식으로 오차각을 추정하게 된다.</p> <p>\( \theta_{e}=\left(P_{0}-P_{180}\right) / r_{\Delta / \Sigma} \)<caption>(2)</caption></p> <p>식 (2)에서 볼 수 있듯이 모노펄스 오차각은 MR Curve의 기울기인 \( r_{\Delta / \Sigma} \) 에 의해서 결정된다. 그림 2 는 본 연구를 위해 제작된 프로토타입 안테나와 모노펄스 수신기를 이용하여 측정한 MR Curve의 기울기 결과값을 보여주고 있다.</p> <p>결과값 중 \( \Delta / \Sigma \) 는 \( -20 \mathrm{dBm} \) 에서 \( -80 \mathrm{dBm} \) 까지의 범위에서 \( 10 \mathrm{dBm} \) 수신레벨 간격으로 측정한 MR Curve이며, entireRatio는 측정한 MR Curve 중 전체 범위의 끝 부분값을 이용한 \( r_{\Delta / \Sigma} \) 값이다. linearRatio는 측정한 MR Curve 중 선형성이 보장되는 부분값(약 \( -0.7^{\circ} \)\( \left.+0.7^{2}\right) \) 을 이용한 \( r_{\Delta / \Sigma} \) 값이며, midRatio는 측정한 MR Curve의 평균에 의한 \( r_{\Delta / \Sigma} \) 값이다.</p> <p>식 (2)와 그림-2에서 유추할 수 있듯이, 시스템에 적용하는 \( r_{\Delta / \Sigma} \) 값에 따라서 \( \theta_{e} \) 의 오차는 크게 달라질 수 있다. 특히 수신신호의 입사 방향이 MR Curve의 선형성이 보장되는 영역 밖에서 입사되는 경우 \( \theta_{e} \) 의 오차는 더욱 증가하게 된다. 이리한 단점을 보완하기 위해 그림-1의 합신호 대비 각각 \( 0^{\circ} / 180^{\circ} \) 위상차가 있는 차신호에 대한 결합 신호를 측정하여 매모리에 저장하고, 추적 시 측정된 신호와의 최소거리(Minimum Distance)를 측정하여 오차각을 산출하는 방식을 제안한다. 식(3)과 (4)는 제안한 최소거리 측정에 의한 오차각 산출식을 나타낸 것이다.</p> <p>\( \theta_{e}=\frac{\operatorname{argmin}}{i}\{d(i)\} \times 0.1-1.3 \)<caption>(3)</caption></p> <p>\( d(i)=\sqrt{\left(V_{P_{0}}(i)-m_{P_{0}}\right)^{2}+\left(V_{P_{180}}(i)-m_{P_{180}}\right)^{2}} \)<caption>(4)</caption></p> <p>여기에서,\( V_{P_{0,180}} \)은 측정된 동위상, 역위상에 대한 합신호의 저장값을 나타내며, \( m_{P_{0,180}} \)은 현재 측정한 동위상, 역위상에 대한 합신호를 나타낸다.</p> <p>그림-3은 단일채널 모노펄스 수신기를 이용한 제안된 모노펄스 오차각 연산방식에 대한 알고리즘 순서도를 나타낸 것이다. 동위상, 역위상 전압 측정 과정에서 발생되는 잡음은 수신기에 따라 다르며 본 연구에 제작된 수신기의 선형성이 보장되는 영역에서 약 \( 0.1^{\circ} \)내의 오차를 갖는다. 따라서 식 (3)과 (4)에서 알 수 있듯이 제안된 방식을 사용하게 되면 연산랑은 증가하지만, MR Curve 전 영역에 대해 약 \( 0.1^{\circ} \)내/외의 모노펄스 오차각 오차가 발생될 것을 예측할 수 있다.</p>
|
본 연구에서는 이동형통신신호 추적 시스템에 합당하며 크기, 무게, 비용을 줄일 수 있는 단일채널 모노펄스 시스템 방식을 제안한다. 이 단일채널 모노펄스 시스템은 4개의 혼 안테나, 모노펄스 비교기, 저잡음 증폭기(LNA: Low Noise Amplifier), 신호결합기, 위상변환기, 믹서로 이루어진 단일채널 모노펄스 수신기로 구성되어 있다. 식\( \theta_{e}=\frac{\operatorname{argmin}}{i}\{d(i)\} \times 0.1-1.3 \)과 \( d(i)=\sqrt{\left(V_{P_{0}}(i)-m_{P_{0}}\right)^{2}+\left(V_{P_{180}}(i)-m_{P_{180}}\right)^{2}} \)는 제안한 최소거리 측정에 의한 오차각 산출식을 나타낸 것이다.
|
<h2>2. 제안된 가변 이득 방식의 \( \alpha \beta \) 필터</h2> <p>앞서 기술된 모노펄스 추적은 측정 잡음을 포암하고 있어 추적 안테나의 안정적인 구동과 측정 정확도 향상을 위해 \( a \beta \) 필터를 적용한다.</p> <p>그림-4는 일반적인 고정 이득 방식의 \( \alpha \beta \) 추적기의 개념도를 나타낸 것이다. 여기에서 \( p \)와 \( s \)는 각각 예측값(predicted values)과 평활화값(smoothed values)을 나타낸다.</p> <p>위치와 각속도에 대한 물리적인 운동개념으로부터 필터에 대한 알고리즘은 다음 식과 같이 나타낼 수 있다.</p> <p>\( x_{s}(n)=x(n \mid n)=x_{p}(n)+\alpha\left(x_{0}(n)-x_{p}(n)\right) \)<caption>(5)</caption></p> <p>\( \dot{x}_{s}(n)=\dot{x}(n \mid n)=\dot{x}_{s}(n-1)+\frac{\beta}{T}\left(x_{0}(n)-x_{p}(n)\right) \)<caption>(6)</caption></p> <p>\( x_{0} \)는 위치의 샘플 입력값이며, 예측 위치는 다음과같이 구할 수 있다.</p> <p>\( x_{p}(n)=x_{s}(n \mid n-1)=x_{s}(n-1)+T \dot{x}_{\mathrm{s}}(n-1) \)<caption>(7)</caption></p> <p>본 논문에서는 \( \alpha \beta \) 필터의 계수 결정방법으로 페이딩 메모리 필터를 사용하였으며 평활인자 \( \xi \) 값 \( (0 \leq \xi \leq 1)\)을 기반으로 이득계수를 계산한다. 이 때 이득계수는 다음과 같다.</p> <p>\( \alpha=1-\xi^{2} \)<caption>(8)</caption></p> <p>\( \beta=(1-\xi)^{2} \)<caption>(9)</caption></p> <p>\( \xi \)값이 1에 가까울수록 heavy smoothing을 의미하며, 0에 가까울수록 little smoothing을 의미한다.</p> <p>(5)~(7) 식을 위치와 각속도 추정기반의 수식으로 정리하면 다음과 같다.</p> <p>\( \bar{s}[n \mid n-1]=\Phi \hat{s}[n-1 \mid n-1] \)<caption>(10)</caption></p> <p>\( e[n]=\theta[n]-A \bar{s}[n \mid n-1] \)<caption>(11)</caption></p> <p>\( \hat{s}[n \mid n]=\bar{s}[n \mid n-1]+K e[n] \)<caption>(12)</caption></p> <p>여기에서 시스템 모델링에 의한 \( \Phi, A \)와 이득 행렬인 \( K \)는 다음과 같다.</p> <p>\( \Phi=\left[\begin{array}{ll}1 & T \\ 0 & 1\end{array}\right] \)<caption>(13)</caption></p> <p>\( A=\left[\begin{array}{ll}1 & 0\end{array}\right] \)<caption>(14)</caption></p> <p>\( K=\left[\begin{array}{c}\alpha \\ \beta / T\end{array}\right] \)<caption>(15)</caption></p> <p>식 \( (10) \sim(15) \)를 이용하여 모노펄스 추적이 정상적인 경우에는 모노펄스 추적 오차각을 \( \mathrm{a} \beta \) 필터의 측정값으로 전달하고, 단절 시에는 단절 전 \( \mathrm{a \beta} \) 필터의 예측값을 \( a \beta \) 필터의 입력으로 전달하는 방식으로 예측하도록 하였다. 이때 방위각에 대한 추정값은 식 (12)로부터 얻게 되며 \( \hat{s}[n \mid n] \) 는 식 (16)과 같이 각도와 속도에 대한 추정값으로 구성된다.</p> <p>\( \hat{s}[n \mid n]=[\hat{\theta}(t), \hat{\nu}(t)] \)<caption>(16)</caption></p> <p>하지만, 식 (8)과 (9)에서 알 수 있듯이 \( \xi \) 값에 따라 추정값은 다르게 나타날 수 있다. \( \xi \) 값이 1에 가까워질 경우, 추정값은 예측값에 가까운 값이 되지만, 이와 반대로 \( \xi \) 값이 0에 가까워질 경우, 추정값은 예측값에 최대한의 오차값을 반영한 결과가 된다. 즉, 일반적인 \( \mathrm{a \beta} \)필터에서는 고정된 \( \xi \) 값을 적용하기 때문에 구현이 용이하지만, 추적 각속도에 따라 추정 오차값이 달라진다.</p> <p>따라서 본 논문에서는 추적 중 시스템에서 예측되는 추적 각속도의 변화에 따라 이득을 변화시켜 목표물에 대한 추적성능과 일시적 단절 시 재연결 확률을 향상시킬 수 있는 가변이득 방식을 제안한다.</p> <p>추적 각속도는 고정방식에서의 일정시간 동안의 방위각 추산값인 \( \hat{\theta}(t) \)의 변화량에 대한 이동 평균을 이용하여 식 (17), (18)과 같이 구할 수 있다.</p> <p>\( \widetilde{\nu_{a i}}[n]=\frac{\hat{\theta}[n]}{\hat{\theta}[n-1]} \)<caption>(17)</caption></p> <p>\( \rho[n]=\frac{1}{N} \sum_{m=0}^{N-1} \widetilde{\nu_{a i}}[n-m] \)<caption>(18)</caption></p> <p>\( K[n] \)은 가변 이득행렬로서 평활인자인 \( \xi[n] \)값에 따라 변경된다. 가변 평활인자인 \( \xi[n] \)값을 구하는 식은 다음과 같다.</p> <p>\( \xi[n]=0.99-\epsilon|1-\rho[n]| \)<caption>(19)</caption></p> <p>\( K[n]=\left[\begin{array}{c}1-\xi^{2}[n] \\ (1-\xi[n])^{2}\end{array}\right] \)<caption>(20)</caption></p> <p>\( \hat{s}[n \mid n]=\bar{s}[n \mid n-1]+K[n] e[n] \)<caption>(21)</caption></p> <p>\( \rho[n] \)은 일정시간 \( (N) \) 동안 방위각 변화량에 대한 정규화된 이동평균을 나타낸다. \( \epsilon \)값은 임의상수로서 \( \xi[n] \)값의 최적화를 위하여 시스템에 적합한 값을 설정한다. 즉 본 상수의 값으로써 시스템에 적합한 \( \xi \) 값의 범위를 제한할 수 있다.</p> <p>방위각의 변화가 클 경우 평균값 \( \rho[n] \)는 상대적으로 큰 값을 갖게 되며, \( \xi[n] \) 값은 little smoothing 특성을 갖게 된다. 이는 예측값에 최대한의 오차값을 반영하여 추정값을 구한다는 의미이다. 반대로 방위각의 변화가 작을 경우 \( \xi[n] \) 값은 heavy smoothing 특성을 갖게 되어 예측값에 가까운 추정값을 구하게 된다.</p> <p>이리한 방위각의 변화량을 이용한 가변이득 방식은 추적 각속도에 비례하여 \( \xi \) 값이 가변되어 고정 이득 방식의 \( a \beta \) 필터보다 향상된 정확도를 확보할 수 있으며 일시적 단절 후 재연결 확률을 높일 수 있게 된다.</p>
|
제안된 가변 이득 방식의 \( \alpha \beta \) 필터는 모노펄스 추적의 잡음을 포암하고 있어 추적 안테나의 안정적인 구동과 측정 정확도 향상을 위해 사용된다. 페이딩 메모리 필터를 사용하여 계수 결정방법을 구하고, 0~1 사이의 평활인자 \( \xi \) 값을 기반으로 이득계수를 계산한다.
|
<h1>Ⅰ. 서 론</h1> <p>고속으로 이동하는 항공기에 탑재된 통신장비와 지상의 고정 통신장비 간 이루어지는 무선통신은 최초 통신 링크를 연결하기 위한 시점부터 종료 시점까지 지속적인 통신 링크를 유지하는 것이 가장 중요하다.</p> <p>최근에는 레이더의 목표물 추적 또는 통신신호 추적을 위해 빔형성(Beamforming) 방식이나 MIMO(Multiple-Input Multiple-Output) 방식의 모노펄스에 대한 많은 연구가 진행되었다. 이러한 방식은 높은 추적 정확도를 제공하지만, 안테나 개수, 배열안테나 및 수신기 개수, 크기 및 비용 등이 증가하기 때문에 통신 신호 추적을 위한 응용분야에서는 4개의 급전을 가지는 파라볼라 안테나와 모노펄스 비교기를 적용한 장비들이 상용화 되고 있다. 또한 모노펄스 시스템의 측정 잡음을 최소화하기 위하여 칼만 필터 및 \( a \beta \) 필터와 같은 예측 필터를 함께 적용한다. 본 연구에서는 실제 시스템의 공정오차에 대한 표준편차 계산이 어렵기 때문에 \( a \beta \) 필터를 고려한다.</p> <p>일반적으로 모노펄스 추적 시스템은 안테나의 빔폭(Beam Width)과 스퀸트 각(Squint Angle)에 의해 추적가능 범위와 정확도가 결정된다. 모노펄스 추적 범위가 넓으면 초기 추적 및 재연결 등이 용이하지만, 이를 위해 안테나 빔폭의 증가가 필요하며 이에 따른 주빔(Main Beam)의 이득감소가 발생하여 통달거리가 감소하게 된다. 즉, 통달거리, 정확도, 추적범위간의 적절한 트레이드오프가 필요하다.</p> <p>이러한 단점과 모노펄스시스템의 추적 정확도를 향상시키기 위해 ML(Maximum Likelihood) 기반의 모노펄스와 MR(Monopulse Ratio) Curve 선형화 등에 대한 연구가 이루어졌다. MR Curve 선형화에 의해 추적범위가 넓어지게 되면, 넓은 추적 범위에 대해 높은 정확도의 추적이 가능하게 되어, 일반적 연결 상태뿐만아니라 일시적 추적 단절 후, 신호 재입사에 의한 추적시 재 연결 확률 향상을 기대할 수 있다. 하지만 이러한 방식은 단일 파라볼라 안테나를 사용하는 모노펄스 추적 시스템에는 적용할 수 없다.</p> <p>모노펄스 추적과 함께 \( a \beta \) 필터를 적용함으로써 추적 정확도 향상 및 일시적 추적 단절 후 신호 재입사에의한 재 연결 확률 향상을 기대할 수 있으며, 모노펄스 추적 범위가 넓을수록 그 확률은 증가하게 된다. 고정이득 방식의 \( a \beta \) 필터는 평활인자(Smoothing Factor)가 큰 경우, 오차각은 줄어들지만 추적 지연이 발생하고, 추적 각속도가 증가하게 되면 추적 오차도 증가하게 된다. 이와는 반대로 평활인자가 작은 경우, 추적 각속도가 증가하게 되면 평활인자가 큰 경우보다 오차각은 상대적으로 작게 되지만, 추적 각속도가 감소해도 오차각은 증가하게 된다. 이러한 단점을 보완하기 위해 최적의 이득값을 선택하는 연구가 Kalata에 의해 제안되었다. 하지만 최적의 이득값을 선택하기 위해서는 표적의 운동모델과 모노펄스 시스템의 통계적 특성을 알아야 하며 또한 선택 후, 최적 이득값을 고정으로 사용해야 한다.</p> <p>따라서 본 논문에서는 기존 시스템에 알고리즘 변경만으로 일반적인 추적 상황에서 추적 오차를 향상시키고 일시적 추적 단절 후 신호 재 입사에 의한 재 연결확률 향상을 위해 최소거리 연산방식의 모노펄스 오차각 산출방식을 제안한다. 또한 추적 중 시스템에서 예측되는 각속도에 따른 가변 이득 방식의 \( a \beta \) 필터 방식을 제안함으로써 목표물의 운동모델에 대한 공정오차나 모노펄스 시스템의 측정오차의 표준편차를 알지 못해도 각속도에 따라 가변적으로 적용할 수 있도록 한다.</p> <p>본 논문의 IⅡ장에서는 최소거리 연산방식의 모노펄스 오차각 산출방법과 가변 이득 방식의 \( a \beta \) 필터에 대하여 기술한다. Ⅲ장에서는 모의실험을 통하여 제안된 최소거리 연산방식의 모노펄스 성능과 가변 이득 방식의 \( a \beta \) 필터의 추적 성능을 검증하고, Ⅳ장에서 결론을 맺는다.</p>
|
고속항공기의 통신 장비와 지상의 고정 통신 장비 간 무선 통신은 지속적인 통신 링크를 유지하는 것이 중요하며, 레이더 목표물 추적이나 통신 신호 추적을 위해 빔형성, MIMO 등의 방식이 사용되고 있으며, 통신 신호 추적을 위해 4개의 급전을 가지는 파라볼라 안테나와 모노펄스 비교기가 상용화되고 있다. 모노펄스 시스템의 측정 잡음을 최소화하기 위해 칼만 필터, \( a \beta \) 필터 등이 사용되고 있으며, ML 기반 모노펄스와 MR Curve 선형화 등을 통해 추적 정확도를 향상시키고 있다. 본 논문에서는 최소거리 연산방식의 모노펄스 오차각 산출방식을 제안하고,가변 이득 방식의 \( a \beta \) 필터 방식을 제안한다.
|
<h1>Ⅲ. 제안된 기법</h1> <p>본 논문에서 제안된 기법은 먼저 영상을 여러 블록으로 나누어 지역적 특성을 파악한다. 이 결과에 따라 각 블록에 적응적인 비선형 외삽을 실행하여 개선된 화질의 복원 영상을 얻는다.</p> <h2>1. 블록의 특성 분석 및 구분</h2> <p>제안된 방법의 첫 번째 단계는 효과적인 외삽을 위해 영상의 특성을 지역적으로 구분하는 것이다. 영상을 일정 크기의 블록으로 나누고, 나눠진 블록의 화소값을 이용하여 블록들을 각각 단순한 영상을 포함한 블록, 한 개의 물체 경계를 포함한 블록, 그리고 복잡한 영상을 포함한 블록으로 구분한다.</p> <p>블록의 성질을 분석하기 위해서 Canny 경계 검출 기법을 사용하였다. Canny 경계 검출 기법은 Sobel 경계 검출 기법에서 보다 정확한 경계 위치 파악을 위해서 후처리 단계가 추가된 기법이다. 그림 4는 경계 검출 기법을 사용한 예를 보여 준다. Sobel 경계 검출 기법은 그림 4(b)에서 보다시피, 경계가 있을 것이라 판단된 위치가 광범위하게 검출된다. 하지만 Canny 경계 검출 기법은 그림 4(c)에서 보듯, 경계가 있는 부분이 Sobel 경계 검출 결과보다 명확하게 검출된다.</p> <p>Canny 경계 검출값을 바탕으로 한 개의 경계가 블록 안에 있다면, 블록 가장자리에 최소 2개의 검출값이 존재하기 때문에 블록 안의 영상에 관계없이 각 가장자리에 Canny 경계 검출값만으로도 블록을 구분할 수 있다.</p> <p>따라서 각 블록들은 해당 블록의 가장자리에 있는 Canny 경계 검출값만을 이용하여 구분된다. 제안하는 기법에서는 각 블록의 가장자리에 Canny 경계 검출값이 없거나 1개 있으면 평평한 블록(블록1), 두 개의 값이 존재하면 한 개의 경계를 포함한 블록(블록2), 그 세개이상 존재하면 복잡한 영상을 포함한 블록(블록3)으로 구분한다. 예를 들어 설명하면, 그림 5(a) 나 (b)와 같이 블록 가장자리에 Canny 경계 검출값이 없거나 하나 이면 블록1로 구분되고, 그림 5(c)와 같이 2개 있다면 블록2, 그림 5(d)와 같이 3개 이상이면 블록3으로 구분된다.</p> <h2>2. 블록에 따른 영상 복원</h2> <p>평평한 영상을 포함한 블록1에서는 고주파 성분이 거의 없기 때문에 비선형 외삽법으로 고주파 성분을 넣은 효과가 미미하다. 하나의 경계가 포함된 블록 2는 그 경계 성분 때문에 높은 고주파 성분이 검출되지만, 블록 전체에 비선형 외삽법을 적용하게 되면 경계 옆에서는 링잉 현상이 발생하기 쉽다. 복잡한 영상이 포합된 블록3은 높은 고주파 성분이 검출되고, 평평한 부분이 거의 없어서 링잉 현상이 발생하는 빈도가 낮다.</p> <p>본 논문에서는 이러한 블록들의 특징에 따라 다른 가중치를 두어 아래의 식과 같이 영상을 복원한다.</p> <p>\( \tilde{F}(u, v)=F_{L}^{0}(u, v)+\omega \times \widehat{F_{H}^{0}}(u, v) \)<caption>(4)</caption></p> <p>여기서 \( \omega \)는 블록에 따른 가중치이다. 블록1의 경우, 블록에 포함된 영상이 평평하여 흐림 현상에 의한 열화가 거의 나타나지 않기 때문에 \( \omega \)의 값을 0으로 한다. 블록 3의 경우, 복잡한 영상에서는 링잉 현상이 두드러지지 않기 때문에 영상의 선명도를 최대한 높힐 수 있도록 \( \omega \)의 값을 1로 하여 Greenspan의 기법을 그대로 사용한다. 그러나 블록 2의 경우에는 한 개의 경계를 포함하기 있기 때문에 링잉 현상이 나타나기 쉬운 블록이다. 따라서 포함된 경계의 비율에 의해 가중치를 조절하여 링잉 현상을 최소화시켜야 한다. \( C_{\Phi} \)와 \( C_{\Omega} \)를 각각 블록 \( \Phi \)와 그에 해당하는 블록의 가장자리 \( \Omega \)에 포함된 Canny 경계 검출값이라 할 때, \( C_{\Phi} \)의 양에 따라 블록에 포함된 영상의 복잡도가 결정된다. 그러므로 아래와 같은 식을 통해 예측된 고주파 성분의 가중치를 조절할 수 있다.</p> <p>\( \omega=\left\{\begin{array}{ll}0, & \text { if } C_{\Omega}<2 \\ \alpha \sum C_{\Phi}, & \text { if } C_{\Omega}=2, \\ 1, & \text { if } C_{\Omega}>2\end{array}\right. \)<caption>(5)</caption></p> <p>여기서 \( a \)는 영상 화소값의 편차에 따른 실험적 상수이다.</p>
|
여기서 𝑊1, 𝑊2, 𝑊3은 블록 1, 2, 3에 적용하는 가중치이다. 본 논문에서 제안된 기법은 영상을 블록으로 나누어 지역적 특성을 파악하고, Canny 경계 검출 기법을 사용하여 각 블록을 평평한 블록(블록1), 한 개의 물체 경계를 포함한 블록(블록2), 복잡한 영상을 포함한 블록(블록3)으로 구분한 후, 각 블록에 적응적인 비선형 외삽을 실행하여 개선된 화질의 복원 영상을 얻는다.
|
<h1>Ⅱ. 기존의 외삽법을 이용한 영상 복원</h1> <p>일반적으로 외삽법은 영상의 흐림 현상이 영상의 고주파 성분이 손실되어 발생하였다고 가정한다. 영상은 주파수 영역에서 엘리어싱 (aliasing)이나 중첩이 없는 저주파 성분과 고주파 성분의 합으로 나타낼 수 있다. 즉, 원영상 \( F \)는 고주파 성분 \( F_{H} \)와 저주파 성분 \( F_{L} \)의 합으로 나타낼 수 있다. 결국, 흐림 현상으로 인해 열화된 영상을 원영상의 저주파 통과 필터 결과라고 가정할 때, 손실된 고주파 성분은 \( F_{H} \)가 되고, 이를 정확하게 예측하면 영상을 복원할 수 있다.</p> <p>대표적인 기존의 선형 외삽법은 언샤프 마스킹(unsharp-masking)이다. 그림 1 과 같이 언샤프 마스킹은 열화된 영상에서 고주파 성분을 추출하고 추출된 고주파 성분을 다시 열화된 영상에 더해줌으로써 영상의 선명도를 개선하는 기법이다. 언샤프 마스킹을 영상에 적용하면 잃어버린 고주파 성분을 어느 정도 보상해주는 효과를 얻을 수 있다. 하지만, 흐림 현상으로 열화된 영상에서 추출한 고주파 성분은 원영상의 고주파 성분과 일치하는 것이 아니다. 따라서 단순한 고주파의 강조만으로는 정확한 영상 복원 결과를 얻기 힘들다.</p> <p>보다 정확한 고주파 성분의 예측을 위해서 Greenspan 등은 비선형 외삽법을 제안하였다. 이 비선형 외삽법은 손실된 원영상의 고주파 성분을 예측하기 위해서 라플라시안 피라미드 (Laplacian pyramid)를 응용하여 구현되었다. \( F_{L}^{n} \)과 \( F_{H}^{n} \)을 각각 \( n \)번째 단계의 저주파, 고주파 통과 필터 결과라고 할 때, 그림 2와 같은 라플라시안 피라미드를 생성할 수 있다. 흐림 현상으로 인해 열화된 영상을 \( F_{L}^{0} \)이라 했을 때, 언샤프 마스킹 기법에서는 \( F_{H}^{1} \)을 그대로 \( F_{H}^{0} \)로 가정하고 영상을 복원하였으나, Greenspan 등은 \( F_{H}^{1} \)을 이용하여 보다 정확한 \( F_{H}^{0} \) 예측을 하였다. 즉, \( F_{H}^{1} \)의 파형을 그대로 유지한 채, 비선형 연산자와 밴드 통과 필터를 이용해 \( F_{H}^{0} \)를 예측하기 위해 아래의 식을 제안하였다.</p> <p>\( \widehat{F_{H}^{0}}(u, v)=B P F\left(s \times B\left(F_{H}^{1}(u, v)\right)\right) \)<caption>(1)</caption></p> <p>여기서 \( \mathrm{s} \) 는 실험적 상수이고, BPF(•)는 라플라시안 영역 통과 필터 결과를 뜻한다. 그리고 비선형 필터 B(•)는 아래와 같이 정의된다.</p> <p>\( B(x)=\left\{\begin{array}{ll}T, & \text { if } T<x \\ x, & \text { if }-T<x<T, \\ -T, & \text { if } x<-T\end{array}\right. \)<caption>(2)</caption></p> <p>여기서 \( T \)는 실험적 임계치이다. \( F_{L}^{0} \)에 (1)을 이용하여 얻어진 \( \widehat{F_{H}^{0}} \)을 적용하여, 식 (3)과 같이 복원된 영상을 얻는다.</p> <p>\( \tilde{F}(u, v)=F_{L}^{0}(u, v)+\widehat{F_{H}^{0}}(u, v) \)<caption>(3)</caption></p> <p>그림 3은 기존의 언샤프 마스킹과 Greenspan의 기법을 1차원 스텝 경계를 이용하여 비교한 결과이다. 기존의 언샤프 마스킹 기법은 흐려진 신호의 고주파 성분을 강조하여, 보상된 결과가 원영상의 값보다 커서 오버슈트(overshoot)가 발생한다. 반면, Greenspan의 기법은 기존의 언샤프 마스킹을 이용한 기법보다 원영상에 가까운 복원 영상을 얻게 해준다는 장점이 있으나, 영상에 따라 링잉(ringing) 현상이 발생한다는 단점이 있다. 특히, 한 개의 경계를 포함한 영역에서 링잉 현상이 두드러지게 나타난다.</p>
|
영상의 선명도를 개선하기 위한 기존의 선형 외삽법으로 언샤프 마스킹이 있는데, 열화된 영상에서 고주파 성분을 추출하고 추출된 고주파 성분을 다시 열화된 영상에 더해주어 영상의 선명도를 개선하는데, 흐림 현상으로 열화된 영상에서 고주파 성분을 추출할 셩우 정확한 영상 복원이 어렵다. 그래서 고주파 성분을 보다 정확하게 예측하기 위해서 라플라시안 피라미드를 응용하여 구현하는 비선형 외삽법을 제안하였다. 보상된 결과가 원영상 값보다 커 오버슈트가 발생하는 언샤프 마스킹 기법에 비해 Greespan의 기법은 원영상에 가까운 복원 영상을 얻게 해준다는 장점이 있으나, 영상에 따라 링잉 현상이 발생한다는 단점이 있다.
|
<h1>요 약</h1> <p>본 논문에서는 지역 특성에 기반한 주퐈수 영역에서의 비선형 외삽법을 통한 영상 복원 기법을 제안한다. 기존의 비선형 외삽법은 객체의 경계 부분에서 링잉(ringing)현상이 발생한다는 단점이 있다. 제안된 영상 복원 기법은 기존의 단점을 보완하기 위해 영상의 지역적 특징을 고려하는 적응적 복원 기법을 도입하였다. 즉, 열화된 영상을 일정 크기의 블록으로 나누고, 각 블록의 특성을 파악하여 단순한 영상을 포함한 블록, 한 개의 경계를 포함한 블록, 그리고 복잡한 영상을 포함한 블록으로 구분한다. 각 블록의 특징에 따라 적응적인 비선형 외삽법을 적용하여 영상을 복원한다. 실험 결과에서 제안하는 알고리즘이 기존의 방법보다 주관적, 객관적 관점에서 향상된 화질을 갖는 것을 알 수 있다.</p> <h1>Ⅰ. 서 론</h1> <p>영상 획득 시, 객체의 움직임이나 카메라의 움직임, 카메라의 상태 등에 따라 다양한 종류의 영상 흐림(blur)이 발생할 수 있다. 이러한 영상 흐림은 영상의 화질을 심각하게 저하시키므로 이를 제거하기 위해 다양한 종류의 영상 복원 기법들이 개발되었다.</p> <p>영상 흐림을 제거하는 가장 대표적인 기법인 역컨볼루션 기법은 왜곡된 영상을 원래의 선명한 영상과 point spread function (PSF)로 표현되는 흐림 현상의 컨볼루션으로 모델링하고, 이를 역컨볼루션을 이용하여 영상의 화질을 복원하는 기법이다. 이러한 역컨볼루션 방법은 PSF를 알고 있다는 가정으로 시작하지만 실제 환경에서는 어떤 PSF에 의해 영상 흐림 현상이 발생했는지 알지 못한다. 그러므로 역컨볼루션을 이용한 영상복원을 위해서는 PSF 예측 단계가 필요하다. 하지만, 기존에 PSF 예측 방법으로도 정확한 PSF를 예측하기는 힘들고, PSF를 예측하기 위해 부가적인 계산량이 발생하는 등의 한계가 있다.</p> <p>다른 영상 복원 기법으로는 원영상의 고주파 성분을 예측하여 영상을 복원하는 외삽법 (extrapolation)이 있다. 외삽법은 흐림 현상을 영상의 고주파 성분이 손실되어 발생한다고 가정하고 손실된 고주파 성분을 예측하고 선형 (linear) 또는 비선형 (nonlinear) 외삽법을 적용하여 화질을 복원한다. 하지만 기존의 외삽법은 영상 전체를 일괄적으로 처리하기 때문에 지역적 특징에 따라 오버슈트(overshoot)나 링잉(ringing) 현상 등의 왜곡이 발생한다. 이러한 문제를 해결하기 위해서 본 논문에서는 영상의 지역 특성을 파악하고, 그 결과에 따라 적응적으로 흐림 현상을 제거하는 개선된 비선형 외삽법을 제안한다. 먼저 흐림 왜곡이 있는 영상을 일정한 크기의 블록으로 나누고, 각각의 블록이 포함하고 있는 영상의 특징을 파악한다. 그 결과에 따라, 각각의 블록을 단순한 영상을 포함한 블록, 한 개의 경계를 포함한 블록, 복잡한 영상을 포함한 블록으로 구분한다. 이렇게 구분된 블록에 대해서 적응적인 비선형 외삽법을 적용하여 화질이 개선된 복원 영상을 획득한다.</p> <p>본 논문의 구성은 아래와 같다. Ⅱ장에서는 기존의 비선형 외삽법을 이용한 화질 개선 방법을 소개하고 Ⅲ장에서는 제안된 알고리즘을 설명한다. 그리고 Ⅳ장에서는 실험 결과와 분석을 설명하고, 마지막으로 Ⅴ장에서는 본 논문의 내용을 정리하고 이에 대한 결론을 제시한다.</p>
|
본 논문은 지역 특성을 기초로 한 주파수 영역에서 이루어지는 비선형 외삽법을 이용한 영상 복원 기법을 제안한다. 종래의 비선형 외삽법의 단점은 객체의 경계에서 링잉(ringing)현상이 일어나는 것이었다. 제안한 영상 복원 기법은 종래에 발생하던 단점을 없애기 위해 영상의 지역 특징을 반영하는 적응적 복원 기법을 도입했다. 실험을 해 본 결과 제안한 알고리즘이 종래의 방법보다 주관적이면서도 객관적인 관점 모두에서 좋은 품질의 화질을 보여주었다.
|
<p>Fig. 1과 같이 계층 구조를 가지는 이유는 대역폭 낭비를 막기 위해서이다. 만약 계층 구조를 가지고 있지 않으면 클라우드 서비스 제공자가 계속 비콘 메시지를 보내야 한다. 또한 서비스 사용을 원하는 차량이 브로드캐스트 메시지를 보냈을 시 서비스 제공이 가능한 모든 차량이 개인에게 답을 해줘야 한다. 그러나 Fig. 1처럼 계층 구조를 가지면 그룹리더가 서비스 제공자인 클라우드 매니저들이 할 일을 대행하여 낭비되는 데이터를 줄일 수 있고 전체의 대역폭을 절약할 수 있다. 그리고 클라우드 매니저는 계속 비콘 메시지를 보내는 등의 일을 하지 않아도 되므로 전체적인 클라우드의 효율 또한 증가시킬 수 있다.</p> <p>가상화 시작 시 쓰이는 하이퍼바이저는 다수의 운영체제를 단일 호스트에서 동시에 실행할 수 있게 하는 프로그램을 말한다. 하이퍼바이저의 종류는 크게 Bare metal과 Hosted종류로 나뉜다.</p> <p>Fig. 2는 하이퍼바이저의 종류를 보여주는 그림이다. Hosted 방식은 하이퍼바이저가 운영체제 호스트의 운영체제 위에서 가상화하는 방식으로 윈도우에서 사용하는 VMWARE가 대표적인 예다. Bare metal은 하드웨어 자체를 가상화하는 방식으로 대표적인 예로는 VMWARE의 ESX가 있다. Hosted 방식은 하이퍼바이저가 호스트의 운영체제 위에서 가상화되기 때문에 공격자가 호스트의 운영체제를 공격하여 권한을 얻거나 방해하여 전체의 효율을 떨어뜨리는 공격이 가능하다. 그러나 Bare metal은 하드웨어 자체를 가상화하기 때문에 이러한 공격이 불가능하다. 그러므로 가상화 시Bare metal 하이퍼바이저 형식을 사용하는 것을 제안한다.</p> <h3>\( 3.2 \) 클라우드 초기 생성 및 지원자/사용자 추가</h3> <p>클라우드를 사용하기 위해서는 각 지원자의 인증이 필요하다. 여기서 지원자란 클라우드 서비스를 제공하려는 사람/차량을 의미한다. 그러나 인증 전, 지원자들의 클라우드 형성 가능성에 관한 검증이 필요하다. 만약 인증을 먼저 한 후 다수의 클라우드 형성에 부적합한 지원자들이 나오면 인증에 관한 많은 대역폭이 낭비되기 때문이다. 그래서 인증 전 통신 파워, 플랫폼 버전과 같은 사전 검사를 거친다. 그 후 인증을 위해서 지원자들이 생기면 먼저 지원자 사이에서 대표를 뽑는데, 안정성을 위해 가장 가까운 RSU와 지원자 간의 예상 연결 지속시간이 가장 긴 지원자를 대표로 한다. 수식은 Su et al.의 논문을 인용하였다.위 논문에서는 두 개의 움직이는 노드의 예상 연결시간을 구했지만, 본 논문에서는 RSU가 고정되어 있으므로, 목적지가 고정되어있게 식을 응용하여 사용하였다. 대표를 뽑을시에는 각 후보들이 위의 식을 사용하여 Dt값을 구한 뒤,그 값을 브로드캐스트한다. 그중 가장 높은 Dt값을 가진 후보를 그룹리더로 뽑는 방식을 사용한다.</p> <caption>\( D_ { t } = \frac { -(a b + c d) + \sqrt {\left (a ^ { 2 } + c ^ { 2 } \right ) r ^ { 2 } -(a d-b c) ^ { 2 } } } { a ^ { 2 } + c ^ { 2 } } \) \( a=v_ { i } \cos \theta_ { i } \), \( b=x_ { i } -x_ { j } \), \( c=v_ { i } \sin \theta_ { i } \), \( d=y_ { i } -y_ { j } \)</caption> <p>수식에서 Dt는 예상 지속시간이고, r은 전송 반경이다. V는 속도를 의미하며<caption>\( \mathrm { S } \left (x_ { i } , y_ { i } \right ), \mathrm { D } \left (x_ { j } , y_ { j } \right ) \)</caption>는 좌표를 가진다. ɵ는 자동자의 방향에 따른 각도를 의미하는 것으로, Fig. 3에서 볼 때 자동차는 오른쪽 하단 대각선 방향으로 이동하는 중이다.</p>
|
대역폭 낭비를 막기위해 클라우드 서비스 제공자가 보내는 메세지는 비콘 메세지이다. 이는 그룹리더가 낭비하는 데이터를 줄이기 위해 사용하며 클라우드 효율을 높일 수 있다. 또한 하이퍼바이저는 운영체제를 동시에 시행하는 프로그램으로 종류는 2가지로 나눌 수 있다. 운영체제 호스트가 실행하는 프로그램은 윈도우 상에 VMWARE가 대표적이다. 본 논문에서는 클라우드 초기 생성 및 지원자/사용자 추가를 위해 인증을 필요로 한다. 노드를 이용해 예상시간을 구해서 목적지를 설정한다.
|
<p>Olariu et al.은 VCC의 활용 방안에 관해 제시하였다.유동성 있는 교통 신호, 대규모 피난, 주차장에 주차되어있는 차들의 자원 활용 등이 그것이다. 유동성 있는 교통 신호의 경우는 교통사고 직후나 행사 때 사용된다. 이때는 평소와 다르게 특정 구간이 막히기 때문에 교통 신호를 빨리 조절해줘야 한다. 특정 구간이 막히면 VCC가 Central Authority(CA)에게 의견을 전달하여 교통 신호를 유동적으로 바꾸게 한다. 대규모 피난의 경우에는 클라우드를 통해 원하는 피난처로 빠르게 갈 수 있게 인도해준다. 주차장에 주차된 차량 활용 방안으로는, 주차되어있는 차량의 자원을 이용하여 클라우드를 생성하고, 이러한 자원을 소규모 기업에서 활용하는 방안이 있다.</p> <h2>\(3 \). 제안하는 아키텍처 구조</h2> <p>2010년, VCC의 개념이 소개된 이후로 많은 연구가 이루어졌고, VCC의 활용 방안, 정의 등에 초점을 맞추어 많은 연구가 진행되어왔다. 그러나 초기 연결 과정과 전체적인 보안에 관련된 연구는 미흡한 실정이다. 예를 들면, Olariu et al..[1]의 논문에서는 VCC의 정의와 활용 방안에 초점을 맞추고 있고, Hussain et al.[5]의 논문에서는 VCC의 정의에 관해 초점을 맞추고 있다.</p> <p>제안하는 VCC 아키텍처 구조는 VANET 클라우드 및 하이퍼바이저 구조, 클라우드 초기 생성 및 사용자 추가, 내부감시 구조로 이루어져 있다. 지금까지 연구가 이루어지지않은 초기 네트워크 부분과 전반적인 VCC 보안 부분을 다루고 있어서, 이후 VCC의 연구에 많은 도움을 줄 것이라고 확신한다.</p> <h3>\( 3.1 \) VANET 클라우드 및 하이퍼바이저 구조</h3> <p>VANET 클라우드의 구조는 Fig. 1과 같다.</p> <p>그룹리더는 클라우드 그룹의 대표이고, 클라우드 매니저는 클라우드 서비스를 지원하는 각 차량을 의미한다. 호스트는 클라우드 서비스 사용자이며 각각의 호스트는 Fig. 2의 구조를 가지고 있다. 그룹리더는 클라우드 매니저를 관리 및 인증하는 역할을 한다. 또한 사용자가 사용 요청할 경우 사용자를 각 클라우드 매니저에 할당하는 역할을 한다. 그리고 일정 간격으로 비콘 메시지를 보내 클라우드 사용을 원하는 차량을 모집한다. 클라우드 매니저는 호스트들을 관리하고, 자원을 호스트와 공유한다. 또한 가용한 자원에 관해 그룹리더에게 항시 보고하여 그룹리더가 사용자를 모집할 때 참고하도록 한다. 기본적으로 Fig. 1과 같은 구조지만 클라우드를 이루는 모든 참여자는 클라우드 매니저이자 호스트가 될 수 있다. 자세히 말하면, 모든 참여자는 자원을 이용하는 동시에 다른 사용자와 공유도 할 수 있다. 그러므로 호스트는 호스트이자 클라우드 매니저가 될 수 있고, 클라우드 매니저는 클라우드 매니저이자 호스트가 될수 있다. 그룹리더도 마찬가지이다. VCC는 참여하는 모든 유저가 유기적으로 자원을 공유할 수 있다.</p>
|
본 논문에서 제안하는 VCC 아키텍쳐 구조는 그룹리더가 클라우드 그룹의 대표이고, 클라우드 매니저는 클라우드 서비스를 지원하는 각 차량인 VANET 클라우드 구조, 하이퍼바이저 구조, 클라우드 초기 생성 및 사용자 추가, 내부감시 구조로 이루어져 있다. 특정 구간이 막히면 VCC가 CA에게 의견을 전달해 교통 신호를 유동적으로 바꾸게 하며, 대규모 피난시 클라우드를 통해 원하는 피난처로 빠르게 갈 수 있도록 인도한다.
|
<h2>요 약</h2> <p>무인 자동차의 시대가 도래하면서, 차량 간 통신 네트워크인 Vehicular Ad hoc NETwork(VANET)의 중요성이 점점 더해지고 있다. 지금까지 VANET의 연구가 많이 진행되었으나, 기존의 연구는 각 자동차의 통신적인 측면만 연구하고, 차량에 설치된 On Board Unit(OBU)의 계산능력, 저장 공간 등을 효율적으로 사용하지 못하는 한계점이 있었다. 그러나 최근 나온 VANET cloud computing(VCC) 개념은 높아진 각 자동차의 능력을 효율적으로 이용하여, 유용하게 사용하는 것에 초점을 맞추어 이러한 한계점을 해결하였다. 그러나 지금까지 진행된 연구에서는 VCC의 초기 클라우드 생성 부분과 사용자 추가 부분의 연구가 미흡한 실정이다. 본 논문은 이러한 부분을 보완한, VCC 아키텍처를 제안한다.</p> <h2>\(1 \). 서 론</h2> <p>2000년대 초반 Vehicular Ad hoc NETwork(VANET) 연구가 시작되면서 차량과 차량, 차량과 Road Side Unit(RSU)가 통신하는 기술이 개발되고 발전해왔다. 이러한 기술은 교통사고나 정체정보 같은 도로정보를 운전자에게 제공해서 사고 예방 및 도로 정체 예방 등을 가능하게 하였다.</p> <p>VANET은 크게 RSU와 OBU, 차량으로 구성되이있다. RSU는 도로와 같은 외부에 설치되어 주변의 징보를 각 차량에 전달하고, OBU는 각 차량에 설치되이 RSU를 동해 전달된 징보를 운전자에게 전달한다. 그리고 차량과 RSU 간의 동신을 Vehicle-to-roadside(V2R) 또는 Vehicle-to-Infrastructure (V2I), 차랑과 차량 간의 동신을 Vchicle-to-Vchicle(V2V)이라고 한다. 동신프로토콜은 Dodicated Short Range Communication (IDSRC), Long Term Evolution(LTE), Zigbee, 3G 등 다양한 프로토콜을 사용할 수 있다.</p> <p>지속적인 연구가 진행되면서 conditional privacy, 키 관리, 라우팅 프로토콜 등등의 많은 연구가 진행되었고 많은 발전이 있었다. 또한 컴퓨터 기술이 발전하면서 On boardunit(OBU)의 성능 또한 과거에 비해 월등히 발전하였다. 그로 인하여 각각의 자동차의 계산 능력, 저장소 등의 활용에 대한 필요성이 대두되었다. 이런 문제를 해결하기 위해 2011년 Olariu et al.이 클라우드 컴퓨팅을 기존의 VANET에 적용하는 아이디어를 제시하면서 해결 방안을 제시하였다.기존의 VANET는 각각의 자동차의 통신 성능을 높이는 것을 목표로 하였지만, 이 논문은 각각의 자동차의 높아진 계산 능력을 모으거나 저장소를 공유하여 효율적인 자원 관리를 할 수 있게 하는 것을 목표로 하였다. 또한 기존의 클라우드 컴퓨팅의 장점을 그대로 가져와 이용자가 언제든 모든 정보를 인터넷상의 서버에서 가져와 이용할 수 있게 하였다. 이러한 장점들은 기존의 VANET 연구들보다 훨씬 복잡한 계산을 쉽게 할 수 있어 Intelligent TransportSystem (ITS) 구축의 문제점 해결에 하나의 해결책이 될 수 있게 하였다.</p>
|
차량 간 통신 네트워크인 VANET의 중요성이 점점 더해지고 있어 지금까지 이에 대한 연구가 많이 진행되었으나, 기존의 연구는 각 자동차의 통신적인 측면만 연구하고, 차량에 설치된 OBU의 계산능력, 저장 공간 등을 효율적으로 사용하지 못하는 한계점이 있고 지금까지 진행된 연구에서는 VCC의 초기 클라우드 생성 부분과 사용자 추가 부분의 연구가 미흡한 실정이기 때문에 본 논문은 이러한 부분을 보완한, VCC 아키텍처를 제안한다.
|
<p>기본적으로 VCC의 구조는 다른 차량들이 구성한 VANET 클라우드를 사용하는 것과, RSU를 통해 방대한 데이터베이스 클라우드 자료를 얻는 것으로 나눌 수 있다. 이러한 구조를 효율적으로 구성하기 위해 많은 연구들이 진행되었고, 많은 제안들이 나왔다. 그러나 아직까지 초기 네트워크 설정과 사용자 추가 부분에 관한 연구는 미흡한 실정이다. 그래서 본 논문에서는 이러한 미흡한 부분을 보완한 VCC의 아키텍처를 제안한다. 2절에서는 지금까지 제안된VCC 관련 연구를 살펴보고, 3절에서는 제안하는 아키텍처 구조를 소개한다. 4절에서는 제안된 구조의 성능 평가결과를 도출하고, 끝으로 5절에서는 논문의 결론에 대해 기술한다.</p> <h2>\(2 \). 관련 연구</h2> <p>클라우드 컴퓨팅 서비스는 크게 Software as a Service (SaaS), Platform as a service(PaaS), Infrastructure as a Service(IaaS)로 나눌 수 있다. SaaS는 사용자가 클라우드상에서 소프트웨어를 사용할 수 있게 해주는 서비스로, 예로는 Google docs, gmail 등이 있다. PaaS는 사용자가 클라우드상에서 플랫폼을 이용할 수 있게 해주는 서비스로, 예로는 Window Azure, Google App Engine 등이 있다.IaaS는 사용자가 클라우드상에서 저장 공간, 네트워크와 같은 인프라스트럭처를 이용할 수 있게 해주는 서비스이다. 그러나 이 서비스들을 VCC에 적용시키기에는 문제가 있다.예를 들면, PaaS는 VCC에 적합하지 않은 서비스이기 때문이다. 그래서 Olariu et al.은 이 세 가지 서비스를 Network as a Service(Naas), Storage as a Service(STaaS), Cooperationas a Service(CaaS)의 세 가지 범주로 VCC에 맞게 분류하였다[4]. NaaS는 사용자에게 인터넷과 같은 네트워크를 제공해주는 서비스이고, STaas는 사용자에게 추가적인 저장소를 대여해주는 서비스이다. 마지막으로 CaaS는 사용자에게 RSU와 같은 곳을 통해 날씨 정보, 도로 상황과 같은 운전자 안전을 위한 교통 정보 등을 제공해주는 서비스이다.</p> <p>Hussain et al.은 VCC를 Vehicular Cloud(VC), Vehiclesusing Clouds(VuC), Hybrid Clouds(HC)로 나누어 정의했다. VC는 각각의 자동차가 VCC 제공자들로 이루어진 클라우드 서비스를 이용하는 것을 의미하고 VuC는 각각의 자동차가 RSU를 통해 데이터베이스 클라우드 서비스를 개별적으로 이용하는 것을 의미한다. 마지막으로 HC는 앞의 두 가지 유형을 합친 것이다. VC는 주로 사용자가 많은 계산이나 저장소가 필요할 때 사용되고, VuC는 사용자가 도로 상황과 같은 정보를 얻기 위하여 사용된다. HC와 같은 경우는 많은 정보를 토대로 많은 계산을 동시에 하기 위해 사용된다. 예를 들면, 미국 서부에서 동부까지 가는데 최단의 길을 구하는 것과 같은 많은 정보와 계산이 동시에 필요할 때 사용된다.</p>
|
기본적으로 VCC의 구조는 다른 차량들이 구성한 VANET 클라우드를 사용하는 것과 RSU를 통해 방대한 데이터베이스 클라우드 자료를 얻는 것으로 나눌 수 있는데 이러한 구조를 효율적으로 구성하기 위해 많은 연구들이 진행되고 많은 제안들이 나왔으나, 아직까지 초기 네트워크 설정과 사용자 추가 부분에 관한 연구는 미흡한 실정이므로 본 논문에서는 이러한 미흡한 부분을 보완한 VCC의 아키텍처를 제안한다.
|
<p>a는 S의 x좌표의 속도와 진행방향 각도의 코사인값을 곱한 것이며, b는 S와 D의 x좌표의 차이값이다. c는 S의 x좌표의 속도와 진행방향 각도의 사인값을 곱한 것이며 d는 S와 D의 y좌표값의 차이이다.</p> <p>.Fig. 3은 자동차와 RSU 간의 연결을 보여주는 그림이다. 그림에서 s는 지원자, d는 RSU이고, 원은 전송 반경을 의미한다. 그림처럼 RSU는 지원자의 전송 반경 안에 항상 들어와 있어야 한다.</p> <p>대표가 뽑힌 후 대표는 공개키 알고리즘[9]을 통해 RSU와 통신하여 먼저 인증과정을 거친다. 이때 각 자동차는 만들어질 당시에 자동차 안에 CA의 공개키를 가지고 있고 RSU는 CA의 공개키와 비밀키를 알고 있다고 가정한다.</p> <p>이때 대표의 지원자나 사용자 추가에 관한 오버헤드를 줄이고, Denial of Service(DoS) 공격을 예방하기 위해 지원자들은 RSU를 통해 받은 토큰을 통해 본인을 인증한다. 토큰은 각 지원자들이 대표에게 인증받기 바로 직전에 RSU와의 통신으로 본인을 인증받고 획득한다. 토큰은 CAsig(일회용 id, 만기 시간)로 이루어져 있다. CAsig는 CA의 서명이며만기 시간은 재사용 공격 방지를 위해 사용한다. 지원자는받은 일회용 id와 CA의 서명으로 암호화되어있는 토큰을 대표에게 주고 대표는 받은 일회용 id와 토큰의 id를 대조하여 지원자를 인증한다. Fig. 4는 이러한 인증과정을 나타낸 그림이다. Fig. 4에서 1번은 사용자가 RSU를 통해 CA에게 본인을 인증받고 토큰을 받는 것을 나타내고 있다. 2번은사용자가 RSU를 통해 받은 토큰을 대표에게 보내고 대표에게 자신을 인증받는 과정을 나타내고 있다. 3번은 대표가 CA에게 사용자에게서 받은 토큰에 들어있는 일회용 id와 토큰 id가 일치하는지 확인받는 과정을 나타내고 있다.</p> <h3>\( 3.3 \) 통신의 프라이버시 보호</h3> <p>VANET의 특성상 각 자동차의 위치 및 자동차 정보 등이 통신 중 노출될 위험이 크다. 이러한 통신의 프라이버시 보호를 위해 Group Signature를 사용한다. Group Signature란 그룹의 구성원이 통신 중 자신을 숨기기 위해 그룹의 서명으로 메시지를 서명하는 기술이다. 그룹 리더(대표)가 public key, private key 한 쌍으로 이루어진 그룹 키와 public key, private key 한 쌍으로 이루어진 그룹 관리키를 생성한다. Group manage key는 그룹 리더가 오염된 구성원을 찾는 데 사용된다. 각 사용자는 자신만의 독특한 그룹 관리키를 그룹 리더와의 통신을 통해 할당받는다. 구성원들은 보낼 메시지를 그룹 키와 그룹 관리키를 사용하여 차례로 암호화하여 전송한다. 상대방은 모든 사용자의 그룹 키가 동일하므로 그룹 구성원 중 어떤 사용자가 메시지를 보냈는지알 수 없다. 또한 만약 그룹 구성원이 오염되었을 때는 그룹 리더가 그룹 관리키를 이용하여 찾아낼 수 있다.</p>
|
본문에서는 대표의 지원자나 사용자 추가에 관한 오버헤드를 줄이고, Denial of Service(DoS) 공격을 예방하기 위해 지원자들은 RSU를 통해 받은 토큰을 통해 본인을 인증하고 있으며, 또한 만약 그룹 구성원이 오염되었을 때는 그룹 리더가 그룹 관리키를 이용하여 찾아낼 수 있었고, 이때 각 자동차는 만들어질 당시에 자동차 안에 CA의 공개키를 가지고 있고 RSU는 CA의 공개키와 비밀키를 알고 있다고 가정한다는것을 설명하고자 한다.
|
<p>기존의 VANET에서 group signature 방식은 대표를 뽑는 것이 힘들고, 대표의 키 생성 과정에서 오버헤드가 많이 생긴다는 단점이 있었다. 그러나 VCC에서는 대표가 이미 뽑혀있고, 대표가 모든 클라우드 구성원의 남는 자원을 공유하여 쓸 수 있기 때문에 기존의 한계를 극복할 수 있다.</p> <h3>\( 3.4 \) 사용</h3> <p>지금까지 나온 VCC의 경우는 교통 혼잡 방지를 위한 신호등 시간 조절, 주차장에 주차되어있는 차의 자원을 이용하여 소규모 사업 이용, 대규모 대피를 위한 인프라 구축 등에 사용할 수 있다고 한다[1]. 본 저자는 그 이외에 응급자동차를 위한 빠른 차선 확보, 무인 자동차를 위한 인프라 구축에도 사용할 수 있다고 생각한다. 기존의 VANET는 전송할 수 있는 거리가 짧아서, 모든 차가 서행하는 경우 멀리서 빠르게 달려오는 응급차를 위한 차선 확보에 맞지 않는 점이 있었다. 차선이 막히는 경우에는 차선 확보를 위해 여유 시간이 걸리기 때문이다. 그러나 VCC의 경우에는 먼 거리에 있는 차도 빠르게 상황을 확인할 수 있기 때문에, 차선 확보에 조금 더 유리할 수 있다. 현재 무인 자동차는 센서 또는 위성에 의지하고 있다. 그러나 센서의 경우는, 비가 많이 와서 차선이 잘 보이지 않을 때나, 차선이 유실된 경우에 센서의 차선이나 도로 감지에 문제가 생겨서 위험할 수 있다. 또한 위성의 경우에도, 터널이나 다리 밑과 같은 위성신호가 끊기는 곳에서의 위험, 날씨에 따른 신호 감지저하 등의 위험이 있다. 그러나 VCC를 이용하여 차선, 도로의 크기 등 목적지까지 가는 도로의 자세한 정보를 일정 부분 다운로드받을 수 있다면 센서나 위성만 이용한 것보다 훨씬 안전하게 주행할 수 있다.</p> <h2>\(4 \). 성능 평가</h2> <p>성능 평가는 클라우드 초기 생성 및 지원자 및 사용자를추가할 때 사용되는 지원자와 RSU 간의 예상 연결 지속시간을 검증하기 위하여 진행하였다. 시뮬레이터는 NS2로 하였으며, 50개의 노드를 사용하였다. 차의 속도는 \( 12 \sim 24 \mathrm { ~m } / \mathrm { s } \)로 하였으며 통신 프로토콜은 AODV를 사용하였다. 자세한초기설정에 관한 설명은 Table 1과 같다.</p> <p>시뮬레이션 시나리오 맵은 Fig. 5와 같다. 가로, 세로 각 2줄의 도로를 만들고, 도로의 중간에 RSU를 설치하였다. RSU는 도로에 지나다니는 모든 자동차에 매 초마다 브로드캐스트 메시지를 보내고, 응답을 받으며 모든 자동차와 링크를 유지한다. 성능평가는 NS2를 이용하여 측정한 연결 지속시간값과 3.2에 있는 예상 연결시간 공식을 이용한 값을 비교하는 것으로 진행하였다.</p> <p>Fig. 6은 성능 평가 결과이며 가로축은 각 노드를 의미하고, 세로축은 각 노드와 RSU 간의 연결 지속시간(초)이다. real_measurement는 NS2를 이용하여 측정한 실제 연결지속시간값이며, experiment_time은 3.2에 있는 공식을 이용하여 나온 값이다. 두 개의 값을 비교한 결과 대부분 일치하는 것을 확인할 수 있으며, 약간의 차이가 나는 것은 노드 간의 네트워크 충돌로 인한 오차로 추정된다.</p> <h2>\(5 \). 결 론</h2> <p>VCC 기술이 현실화되면 기존에 연구된 VANET 기술보다 훨씬 더 유용하게 사용될 것으로 예상된다. 현재의 VANET 기술은 먼 곳의 상황까지 예측하는 것에는 한계가 있지만 VCC의 경우에는 클라우드를 통해 먼 곳의 상황을 바로 알 수 있기 때문에 훨씬 더 빨리 대응이 가능하기 때문이다. 그러나 연구된 기간이 짧아서 아직 많은 연구가 더 필요한 상황이다. 본 논문은 지금까지 연구되지 않은 보안적인 측면의 VCC 아키텍처를 제안하였다. 이러한 아키텍처를 사용하면 보다 효율적이고 안전한 VCC 구축이 가능할 것이라고 예상된다.</p> <p>앞으로 내부 감시 구조와 잦은 핸드오버를 효율적으로 관리하는 방법, 효율적인 키 관리 방법, 핸드오버 시 기존에 유지하던 클라우드 유저들의 자료 처리 문제 등에 관해 더 연구할 예정이다.</p>
|
기존의 VANET는 전송할 수 있는 거리가 짧기 때문에, 멀리서 빠르게 달려오는 응급차를 위한 차선 확보에 적합하지 않다. 반면 VCC는 먼 거리에 있는 차도 상황을 빠르게 인지할 수 있기에 차선 확보에 약간은 더 유리할 수 있다. 차선, 도로의 크기 등 목적지까지 가는 도로의 자세한 정보를 일정 부분 다운로드 받을 수 있다면 센서나 위성만 이용한 것보다 훨씬 안전하게 주행할 수 있기 때문에 VCC 기술이 현실화 된다면 기존의 VANET 기술보다 더 유용하게 쓰일것으로 예상된다.
|
<h1>Ⅱ. 스테레오 비전 기반 거리 추정</h1> <p>스테레오 비전 시스템에서 깊이 맵(depth map)은 좌우 영상으로부터 매칭 알고리즘을 이용하여 추출된다. 스테레오 매칭은 좌영상의 기준 화소로부터 우영상의 대응 화소를 찾는 방법으로 지역 기반의 매칭 방법과 전역 기반의 매칭 방법이 있다. 일반적으로 전역 기반의 매칭 기술은 복잡성이 높은 반면에 잡음, 균일 영역, 차폐등에 의한 매칭 오류를 경감할 수 있는 장점이 있다. 스테레오 매칭에 의해 구해진 시차는 2차원 기반의 삼각법 및 3차원 기반의 역원근맵(IPM : Inverse perspective mapping)기법 등으로 거리 정보를 추출 할 수 있다. 그림 1에서와 같이 삼각법을 이용한 방법에서는 화소 길이 단위의 초점거리, 기준선, 시차 등에 의하여 객체의 거리를 계산하며, 거리의 변화에 따라 시차의 변위가 생기므로, 시차를 측정함으로써 거리 \( (Z) \)를 추정할 수 있다.</p> <p>\( Z \simeq \frac { b f } { x_ { p r } -x_ { p l } } = \frac { b f } {\Delta p_ { d } } = \frac { b \alpha } {\Delta } \)<caption>(1)</caption></p> <p>식 (1)에서 \( b \)는 기준선, \( f \)는 초점 거리를 나타내며, \( x_ { p l } \)과 \( x_ { pl } \)는 각각 좌영상과 우영상의 중심으로부터 거리를 나타낸다. \( \Delta \)는 정수 시차, \( p_ { d } \)는 화소의 길이를 나타내고, \( \alpha \)는 단위 화소 길이에 대한 초점거리를 나타낸다. 식 (1)에서와 같이 거리는 시차에 반비례하기 때문에, 시차가 정수 값을 가지면 원거리로 갈수록 시차의 정밀도가 저하된다. 그림 2에서와 같이 IPM 기반의 거리추정은 카메라 좌표계(camera coordinate system)를 전역 좌표계(global coordinate system)로 변환함으로써, 객체와의 거리를 구할 수 있다.</p> <p>\( Z= \frac { b \left ( \alpha \cos \theta-y_ { d } \sin \theta \right ) } {\Delta } \)<caption>(2)</caption></p> <p>식 (2)에서 \( \theta \)는 카메라 광축과 \( Z \)축과의 각도를 나타내며, \( y_ { d } \)는 영상에서의 \( \mathrm { y } \)축 좌표를 나타낸다. 카메라 광축이 \( Z \)축과 일치하면, 식 (2)는 식 (1)과 같게 된다. 스테레오 매칭 과정에서 추출된 시차는 정수 시차를 갖게되며, 정수 시차에 의한 양자화 오차를 최소화하기 위하여, 부화소 보간법 (sub-pixel interpolation method)을 사용하여, 정밀 시차를 추정한다.</p>
|
스테레오 매칭은 좌영상의 기준 화소로부터 우영상의 대응 화소를 찾는 방법으로 지역 기반의 매칭 방법과 전역 기반의 매칭 방법이 있으며, 스테레오 매칭 과정에서 추출된 시차는 정수 시차를 갖게되며, 정수 시차에 의한 양자화 오차를 최소화하기 위하여, 부화소 보간법을 사용하여, 정밀 시차를 측정한다.
|
<h1>Ⅳ. 가상 모델 확장형 칼만 필터</h1> <p>EKF는 저기동 상태에서는 최적의 성능을 제공하지만, 고기동이 발생하면, 발산 문제에 의하여, 추정치가 궤적에서 이탈되는 문제가 발생된다. 이러한 발산 문제를 해결하기 위하여 적응형 칼만 필터나 다중 모델 기반 칼만 필터들이 사용되어졌다. 하지만, 이러한 기존 필터들은 저기동 상태에서의 성능 저하 및 복잡성의 증가 등의 단점이 있다. 일반적으로 도로 환경에서는 대부분의 객체들이 저기동 상태로 진행되며, 충돌, 급정지, 급회전 등의 위험 상황에서 고기동 상태가 발생한다. 본 논문에서는 복잡성 및 저기동 상태의 성능 저하를 최소화하면서, 급기동에서의 발산 문제를 해결할 수 있는 가상 모델 확장형 칼만 필터(VMEKF: virtual model extended Kalman filter)를 제안한다. 그림 4에서와 같이 VMEKF는 EKF,STEKF, 발산 감지모듈, 필터 전환 스위칭 모듈로 구성되어 있다. VMEKF는 발산 유무에 따라 EKF와 STEKF가 전환하는 구조를 갖고 있다. 저기동 상태에서는 EKF가 동작하여 적은 연산량으로 최적의 성능을 제공하며, 고기동 상태에서 발산이 발생되면 STKEF가 동작하여 궤적으로 재진입하게 만든다. 발산이 감지되면, 발산 감지 모듈에서 STEKF를 활성화 시키고, 일정 기간 동안 발산 상태를 감시한다. 발산 상태가 일정 시간 유지되면, 필터 전환 스위치 모듈에서 STEKF로 전환시킴으로써, 객체의 궤적에 재진입 할 수 있게 한다. 아래식과 같이 발산 감지 모듈은 STEKF의 강건 추적 루프에서처럼 객체의 고기동에 의한 발산 발생 유무를 감지한다.</p> <p>\( V M_{k}=\left\{\begin{array}{ll}1, & c_{k} \geq 1 \\ 0, & c_{k}<1\end{array}\right. \)<caption>(12)</caption></p> <p>식 (12)에서 \( c_{k} \)는 식 (7)에서와 같이 구해지며, 발산이 감지되면 \( V M_{k} \)와 STEKF가 활성화된다.</p> <p>\( S W_{k}=\left\{\begin{array}{l}1, \tau=\sum_{k-\tau+1}^{k} V M_{k}, \\ 0, \tau<\sum_{k-\tau+1}^{k} V M_{k},\end{array}\right. \)<caption>(13)</caption></p> <p>식 (13)에서와 같이 필터 전환 스위칭 모듈에서는 일정기간 동안 \( (\tau) \) 발산이 발생한 상태가 유지되면, \( SW_{k} \) 가 활성화 되고, 사후 상태 벡터 \( \left(\hat{x}_{k}^{+}\right) \)를 STEKF의 사후 상태 벡터 \( \left(\hat{x}_{V M}^{+}\right) \)로 전환시킨다. STEKF에서는 측정치의 오류로 인해 급기동이 발생하지 않는 경우에도 발산이 발생했다고 판단하여, 사전 공분산 \( \left(\hat{P}_{k}^{-}\right) \)을 증가시킴으로써, 추정치가 측정 잡음에 따라 진동하는 문제가 발생한다. 하지만, VMEKF에서는 발산 감지 모듈에서 발산이 감지되었다고 판단하면, STEKF를 가상으로 활성화시키고, 일정 기간 동안 발산이 유지되어야지만, STEKF의 추정치로 전환시킨다. 이로 인해, VMEKF는 STEKF에 비하여 임펄스 잡음이나 측정 잡음의 오류에 대하여 강건한 특성을 가진다. 또한, 발산이 발생하지 않는 상태에서는 EKF만 동작하기 때문에, IMM-KF보다 적은 연산량으로 최적의 성능을 제공할 수 있다. 또한, IMM-KF는 발산 문제를 해결하기 위해서 많은 수의 부모델이 필요하나, VMEKF에서는 2개의 부모델만으로도 충분히 모든 발산 문제를 해결할 수 있다.</p>
|
가상 모델 확장형 칼만 필터는 고기동이 발생하면, 발산 문제에 의하여, 추정치가 궤적에서 이탈되는 문제를 해결하기 위하여 복잡성 및 저기동 상태의 성능 저하를 최소화하면서, 급기동에서의 발산 문제를 해결할 수 있는 가상모델 확장형 필터를 제안한다.
|
<h1>Ⅲ. 스테레오 비전 기반 상태 추정 필터</h1> <h2>1. 확장형 칼만 필터(EKF)</h2> <p>부화소 보간법에서 추정된 부화소 시차는 거리 추정시 거리 정밀도를 향상시킬 수 있다. EKF는 추정된 거리 오차의 공분산을 최소화 하고, 속도를 추정하기 위하여 사용된다. EKF는 예측, 측정, 갱신의 과정을 통하여 재귀적으로 최적의 상태를 추정한다. EKF는 비선형 시스템에서 테일러 급수 전개를 통하여 선형화하는 방법이다. 시차를 이용한 거리 추정은 측정 방정식이 비선형성을 갖기 때문에서 확장형 칼만 필터를 이용하여 상태를 추정한다. 예측 단계에서 등속도 모델 (constant velocity model)을 갖는 시스템 방정식은 아래식과 같다.</p> <p>\( x_{k}=F_{k-1} x_{k-1}+w_{k-1}, w_{k-1} \sim N\left(0, Q_{k-1}\right), \)</p> <p>\( \hat{x}_{k}^{-}=F_{k-1} \hat{x}_{k-1}^{+}, \)</p> <p>\( \hat{P}_{k}^{-}=F_{k-1} \hat{P}_{k-1}^{+} F_{k-1}^{T}+Q_{k-1} \).<caption>(3)</caption></p> <p>식 (3)에서 \( \hat{x}_{k}^{-} \)와 \( \hat{x}_{k}^{+} \)는 사전(priori) 및 사후 (posteriori) 상태 벡터(state vector), Fk는 상태 천이 행렬(transition matrix)을 나타내고, \( \mathrm{dt} \)는 표본화 시간(sampling time), wk는 시스템 잡음(process noise), \( \mathrm{Qk} \)는 시스템 잡음의 공분산(process noise covariance), \( \widehat{P}_{k}^{-} \)와 \( \hat{P}_{k}^{+} \)는 사전 및 사후 공분산 행렬 (error covariance matrix)을 나타낸다. 식 (1)을 이용한 EKF의 측정 방정식은 아래와 같다.</p> <p>\( z_{k}=h\left(x_{k}\right)+v_{k}=\Delta_{s}, v_{k} \sim N\left(0, R_{k}\right) \), \( z_{k}^{-}=h\left(\hat{x}_{k}^{-}\right)=\frac{b \alpha}{\hat{x}_{k}^{-}(1)} \)<caption>(4)</caption></p> <p>식 (4)에서 \( z_{k} \) 는 측정치, \( z_{k}^{-} \)는 사전 추정치를 나타내고, \( h(X) \)는 비선형 측정 함수를 나타내며, \( v_{k} \) 는 측정 잡음(measurement noise), \( R_{k} \) 는 측정 잡음의 공분산 (measurement noise covariance), \( \Delta_{s} \) 는 부화소 보간법에 의하여 추정된 부화소 시차를 나타낸다. 관측 행렬 \( \left(H_{k}\right) \)은 아래 식에서와 같이 측정 방정식에서 테일러 급수 전개 후 1차 성분만을 고려하여 구한다.</p> <p>\( H_{k}=\left[\frac{h\left(\hat{x}_{k}^{-}\right)}{\partial \hat{x}_{k}^{-}(1)} \frac{h\left(\hat{x}_{k}^{-}\right)}{\partial \hat{x}_{k}^{-}(2)}\right] \)\( =\left[\frac{-b \alpha}{\hat{x}_{k}^{-}(1)^{2}} 0\right] \).<caption>(5)</caption></p> <p>갱신 단계에서는 칼만 이득 \( \left(K_{k}\right) \)을 구하고, 사후 상태 벡터 \( \left(\hat{x}_{k}^{+}\right) \)및 사후 오차 공분산 행렬 \( \left(\hat{P}_{k}^{+}\right) \)을 갱신한다.</p> <p>\( K_{k}=\hat{P}_{k}^{-} H_{k}^{T}\left(H_{k} \widehat{P}_{k}^{-} H_{k}^{T}+R_{k}\right)^{-1} \), \( \hat{x}_{k}^{+}=\hat{x}_{k}^{-}+K_{k}\left(z_{k}-z_{k}^{-}\right) \), \( \hat{P}_{k}^{+}=\left(I-K_{k} H_{k}\right) \hat{P}_{k}^{-} \).<caption>(6)</caption></p> <h2>2. 강건 추적 확장형 칼만 필터(STEKF)</h2> <p>EKF는 재귀적인 예측 및 갱신 과정으로 최적의 상태를 추정할 수 있지만, 시스템 모델의 불확실성으로 인하여, 목표 물체가 고기동을 하면, 발산 문제가 발생할 수 있다. 이러한 발산 문제를 해결하기 위하여, 다양한 적응형 칼만 필터(adpative Kalman filter)들이 제안되었다. 강건 추적 확장형 칼만 필터 (STEKF: strong tracking extended kalman filter)는 이러한 기동에 대하여, 강건 추적 루프 (strong tracking loop)를 추가함으로써, 기동 발생 시 발산 상태를 감지하여, 객체의 궤적에 재진입할 수 있게 한다. 강건 추적 루프는 측정 단계에서 측정치가 예측치의 허용범위를 벗어나면, 감지된다. 발산 상태가 감지되면, 아래식과 같이 fading factor \( \left(\lambda_{k}\right) \)에 의하여, 다음 단계의 사전 공분산 행렬을 갱신한다.</p> <p>\( \widehat{P}_{k+1}^{-}=\lambda_{k} F_{k} \hat{P}_{k}^{+} F_{k}^{T}+Q_{k} \), \( \lambda_{k}=\left\{\begin{array}{ll}c_{k}, & c_{k} \geq 1 \\ 1, & c_{k}<1\end{array}, \quad c_{k},=\frac{\operatorname{tr}\left(N_{k}\right)}{\operatorname{tr}\left(M_{k}\right)}\right. \), \( N_{k}=V_{k}-\beta R_{k}-H_{k} Q_{k} H_{k}^{T} \), \( M_{k}=H_{k} F_{k} P_{k} F_{k}^{T} H_{k}^{T} \), \( V_{k}=\left(z_{k}-z_{k}^{-}\right)\left(z_{k}-z_{k}^{-}\right)^{T} \).<caption>(7)</caption></p> <p>식 (7)에서 \( \beta \) 는 softening factor를 나타내며, \( \beta \)의 크기에 따라 강건 추적 루프에 진입하는 문턱치를 조절할 수 있다. 발산 발생 시, 사전 공분산 \( \left(\hat{P}_{k}^{-}\right) \)이 \( \lambda_{k} \)에 의하여 증가되면 칼만 이득 \( \left(K_{k}\right) \)도 증가되고, 이로 인해 사후 상태 \( \left(\hat{x}_{k}^{+}\right) \)는 예측치보다 측정치에 많이 의존하게 되어 궤적에 재진입할 수 있게 된다.</p> <h2>3. 다중 모델 확장형 칼만 필터</h2> <p>시스템 모델 및 잡음에 대한 불확실성으로 인하여 생기는 칼만 필터의 발산 문제를 해결하기 위하여, 다중 모델을 이용한 방법이 제안되었다. 다중 모델 칼만 필터는 한 모델에서 생길 수 있는 불확실성에 대한 오류를 다른 모델들이 보완해 줌으로써, 모델의 불확실성에 대한 문제를 최소화한다. 하지만, 다양한 객체의 움직임을 보상하기 위해서는 많은 수의 부 모델들이 필요하며, 이는 연산량의 급격한 증가를 초래한다. \( \mathrm{s} \)개의 부 모델을 갖는 interactive multiple model(IMM) 칼만 필터의 구성도는 그림 3과 같다. IMM 칼만 필터는 혼합(interaction/mixing)단계, 필터(filter) 단계, 결합(combined)단계로 구성 되어져 있다. 혼합 단계에서는 아래 식에서와 같이 혼합 확률 (mixing probability)에 의하여 각 부모델의 상태 벡터와 오차 공분산이 결정된다.</p> <p>\( \begin{aligned} \hat{x}_{k-1}^{(j)}=& \sum_{i=1}^{s} \mu_{k-1}^{i / j} \hat{x}_{k-1}^{i}, \\ \hat{P}_{k-1}^{(j)}=& \sum_{i=1}^{s} \mu_{k-1}^{i / j}\left[\hat{P}_{k-1}^{i}\right.\\ &\left.+\left(\hat{x}_{k-1}^{i}-\hat{x}_{k-1}^{(j)}\right)\left(\hat{x}_{k-1}^{i}-\hat{x}_{k-1}^{(j)}\right)^{T}\right] \end{aligned} \)<caption>(8)</caption></p> <p>식 (8)에서 \( \mu_{k-1}^{i / j} \)는 혼합 확률을 나타내며, 아래식과 같이 구해진다.</p> <p>\( \begin{aligned} \mu_{k-1}^{i / j} & \equiv P\left(r_{k-1}=i \mid r_{k}=j, Z_{k-1}\right) \\ &=\frac{\pi_{i j} w_{k-1}^{i}}{\sum_{i=1}^{s} \pi_{i j} w_{k-1}^{i}} \end{aligned} \)<caption>(9)</caption></p> <p>식 (9)에서 \( \pi_{i j} \)는 모드 천이 행렬(mode transition matrix)를 나타내며, \( w_{k-1}^{i} \)는 모드 확률(mode probability)을 나타낸다. 필터 단계에서는 각각의 부모델에 대하여 혼합된 상태 벡터와 공분산이 입력되고, 측정치에 의하여, 다음 단계의 상태로 갱신된다. 결합 단계에서는 아래 식에서와 같이 모드 확률을 갱신하고, 모드 확률에 따라 결합 상태 벡터를 추정한다.</p> <p>\( \begin{aligned} w_{k}^{j} &=\frac{\Lambda_{k}^{i} \sum_{i=1}^{s} \pi_{i j} w_{k-1}^{i}}{\sum_{j=1}^{s} \Lambda_{k}^{j} \sum_{i=1}^{s} \pi_{i j} w_{k-1}^{i}} ,\\ \hat{x}_{k} &=\sum_{i=1}^{s} w_{k}^{i} \hat{x}_{k}^{i} ,\\ \hat{P}_{k} &=\sum_{i=1}^{s} w_{k}^{i}\left[\widehat{P}_{k}^{i}+\left(\hat{x}_{k}^{i}-\hat{x}_{k}\right)\left(\hat{x}_{k}^{i}-\hat{x}_{k}\right)^{T}\right]. \end{aligned} \)<caption>(10)</caption></p> <p>식 (10)에서 \( \Lambda_{k}^{j} \)는 모델 조건부 확률(model conditional likelihood function)을 나타내며, 아래식과 같이 구해진다.</p> <p>\( \Lambda_{k}^{i}=p\left(z_{k} \mid Z_{k-1}, r=i\right)=N\left(v_{k}^{i} ; 0, S_{k}^{i}\right) \)<caption>(11)</caption></p> <p>식 (11)에서 \( v_{k}^{i} \)는 잔여치(residual)를 나타내고, \( S_{k}^{i} \)는 잔여치의 공분산을 나타낸다.</p>
|
부화소 보간법은 거리 추정에 활용되는데, 추정된 부화소 시차를 이용하여 거리를 정밀하게 측정할 수 있습니다. 이를 통해 거리 추정의 정확도를 향상시킬 수 있습니다. 거리 추정을 위해 시차를 이용하는 경우, 측정 방정식이 비선형성을 가지기 때문에 상태 추정에 확장된 칼만 필터를 사용합니다. 칼만 필터의 발산 문제를 해결하기 위해 다중 모델을 활용하는 방법이 제안되었습니다. 이 방법은 시스템 모델과 잡음의 불확실성을 고려하여 여러 개의 모델을 동시에 사용하여 칼만 필터의 안정성과 추정 정확도를 향상시킵니다. 객체의 다양한 움직임 보상을 위해 많은 수의 부 모델이 필요하며, 이는 연산량의 급증을 초래합니다. 따라서 다중 모델을 사용하는 경우에는 연산량 관리와 최적화가 중요한 과제입니다. 이를 위해 효율적인 알고리즘 및 시스템 설계, 하드웨어 가속화 기술 등을 활용하여 연산량을 줄이고 성능을 향상시킬 수 있습니다. 또한, 부 모델의 수를 최소한으로 유지하면서도 필요한 객체 움직임을 보상할 수 있는 방법을 고민하는 것도 중요합니다. 이는 모델 선택, 자동 모델 생성, 동적 모델 추가 등의 기법을 활용하여 해결할 수 있습니다.
|
<h1>I. 서론</h1> <p>스테레오 비전 시스템에서 거리는 좌우 영상의 시차와 카메라 내외부 파라미터들에 의해서 결정되며, 정확한 거리를 추출하기 위해서는 정밀한 시차를 추정하는 것이 중요하다. 스테레오 매칭에 의해서 결정되는 시차는 일반적으로 정수 시차를 가지며 이는 원거리 추정에서 정밀도의 저하를 가져온다. 정수 시차에 의한 양자화 오차를 최소화하기 위하여 실수 값을 갖는 정밀 시차를 추정하는 부화소 보간법이 제안되었다. 추정된 정밀 시차는 일반적으로 정규 분포를 갖는 잡음을 갖고 있으며, 이를 최소화하기 위하여 확장형 칼만 필터 (extended Kalman filter : EKF)를 이용한 추정 방법이 제안되었다. 확장형 칼만 필터는 저기동(low maneuver) 상태에서는 최적화된 성능을 보여주지만, 고기동(high maneuver) 상태에서는 모델의 불확실성 (model uncertainty)으로 인해 발산 문제(divergence problem)가 발생한다. 이것은 오히려 측정치보다 더 부정확한 거리를 추정하는 결과를 초래한다. 칼만 필터 (KF: Kalman filter)의 발산 문제를 해결하기 위하여 다양한 적응형 필터(adaptive filter) 방법과 다중 모델 기반 칼만 필터(multi-model KF)의 방법이 제안되었다.</p> <p>적응형 필터를 사용하는 방법은 예측치와 측정치의차, 즉 잔여치(residual)와 잔여치의 공분산을 고려하여, 발산 유무를 판단하고, 발산이 발생했다고 판단되면 공분산 행렬을 조절함으로써 객체의 궤적에 재진입할 수 있게 한다. 적응형 필터에서는 발산 유무 판단 기준에 따라 추정 성능이 결정되며 이를 보완하기 위하여 퍼지 시스템을 적용한 방법이 제안되었다. 하지만, 퍼지 시스템을 적용하기 위해서는 시스템 특성을 미리 알고 있어야 하며, 전문가 시스템과 실제 시스템의 오차가 발생하면 오히려 성능 저하가 발생하는 문제가 생긴다.</p> <p>차량용 스테레오 비전 시스템에서는 진동이나 조명 변화 등의 외부 환경에 민감한 특성을 가지며, 이로 인해 측정 오차도 비선형적인 특성을 갖게 된다. 발산 문제는 시스템 모델과 객체의 실제 움직임과의 과도한 차이에 의하여 발생되며, 다수의 시스템 모델을 사용하여 이러한 문제를 해결하는 방법이 제안되어졌다. 하지만, 다양한 객체의 움직임을 모델링하기 위해서는 많은 수의 부모델(sub-model)이 필요하며 이는 구현에 있어서 복잡도의 증가를 야기한다. 이로 인해, 제한된 개수로 최적의 부모델을 설계하여 객체의 움직임을 근사화하여 사용하는 다중 모델 기반 칼만 필터가 제안되었다.</p> <p>본 논문에서는 저기동 상태에서는 칼만 필터의 추정 성능을 유지하면서, 고기동 상태에서 발생하는 발산 문제를 해결할 수 있는 가상 모델 확장형 칼만 필터 (VMEKF: virtual model extended Kalman filter)를 제안한다. VMEKF는 저기동 상태에서는 확장형 칼만 필터가 동작하여 최적의 추정 성능을 유지하고, 고기동 상태에서 발산이 발생하면, 가상 필터로 전환하는 구조를 갖고 있다. 제안한 방법은 모의 실험 및 실제 도로 환경에서 촬영된 영상을 이용하여 추정 성능, 연산 시간 등을 기존 필터들과 비교하여 검증한다.</p> <p>본 논문의 구성은 다음과 같다. Ⅱ장에서는 스테레오 비전 기반 거리 추정 방법들에 대하여 소개하고, Ⅲ장에서는 다양한 기존 추정 필터들에 대하여 소개하고, Ⅳ장에서는 본 논문에서 제안한 VMEKF 방법에 대하여 설명한다. Ⅴ장에서는 제안한 방법과 기존 방법의 성능을 모의실험 및 실제 도로 환경 실험을 통해 비교, 분석 및 검증하고, Ⅵ장에서는 결론을 맺는다.</p>
|
정밀 시차 추정은 정규 분포 잡음을 가지며, 제안된 확장형 칼만 필터를 사용한 추정 방법은 잡음을 최소화했다. 칼만 필터 발산 문제를 해결하기 위해 제안된 방법은 다중 모델 기반 칼만 필터와 적응형 필터 방법이다. 본 논문에서 제안하는 가상 모델 확장형 칼만 필터는 칼만 필터의 추정 성능을 저속 상태에서 유지하면서 고속 상태에서 발생하는 발산 문제를 해결한다. 제안한 방법은 실제 도로 환경과 실험에서 기존 필터들과 비교하여 연산 시간과 추정 성능 등을 검증한다.
|
<h1>Ⅴ. 실험 및 검증</h1> <p>본 논문에서는 제안한 VMEKF의 성능을 검증하기 위하여, 모의실험 및 실제 도로 환경에서 측정된 데이터를 기반으로 저기동 및 고기동 상태로 분리하여 실험한다. 모의실험에서는 저기동 상태 \( (0.1 \mathrm{~g} \sim 1 \mathrm{g}) \)와 고기동 상태 \( (1 \mathrm{~g} \sim 10 \mathrm{~g}) \)에서 추정 거리 및 속도에 대하여 root mean square error (RMSE)를 비교하고, 알고리즘의 복잡성을 평가하기 위하여 수행 시간을 비교한다. 실제 도로 환경에서는 정확한 실제 거리를 알 수 없어서 측정치와 필터들의 추정치를 기반으로 제안한 방법의 성능및 안정도를 검증한다. 식 (1)을 이용하여 본 실험에 사용된 스테레오 카메라 파라미터는 표 1과 같다.</p> <p>그림 5는 저기동 상태에서 거리 및 속도 추정에 대하여 몬테카를로 방법을 이용한 모의실험 결과를 보여준다. 실험 결과에서와 같이 저기동 상태에서는 EKF가 최적의 추정 성능을 보이고, STEKF의 추정치 오차가 가장 크다. 하지만, EKF는 추정 거리 및 속도가 객체의 가속 상태에 따라 의존적인 성능 결과를 보여준다. STEKF는 측정치 잡음에 대하여 의존적인 추정 성능을 보이며, 이로 인해 필터의 성능을 저하시킨다. IMM-KF는 객체의 가속 상태에 상관없이 비교적 안정된 성능을 보이지만, 저기동 상태에서의 거리 및 속도 추정 성능이 단일 모델 기반 필터에 비하여 저하되는 단점이 있다. VMEKF는 저기동 상태의 거리 및 속도 추정에 있어서, STEKF나 IMM-KF보다는 정확한 추정 성능을 보여준다.</p> <p>그림 6은 고기동 상태에서 다양한 필터들의 거리 및 속도 추정 성능에 대한 결과를 보여준다. 고기동 상태에서는 IMM-KF가 가장 안정된 성능을 보여주며, EKF는 객체의 가속이 증가함에 따른 발산 문제가 발생하여, 거리 및 속도 추정 오차가 급격하게 증가된다. STEKF와 VMEKF는 거의 동일한 추정 성능을 보여주며, 객체의 가속에 상관없이 거의 안정된 성능을 제공한다. 모의실험 결과는 VMEKF와 IMM-KF가 다른 필터들에 비하여 비교적 안정되게 추정할 수 있다는 것을 보여준다. 표 2는 Matlab 7.5에서의 필터들의 평균 연산 시간을 보여준다. 표 2의 연산시간은 EKF의 연산 시간을 1로 하였을 때, 다른 필터들의 연산 시간을 상대적으로 표현하여 나타낸 결과이다. 표 2에서와 같이 IMM-KF는 VMEKF에 비하여 약 3배 정도의 연산 시간이 더 요구 된다는 것을 보여준다. 본 모의실험 결과는 IMM-KF와 VMEKF가 다른 필터들에 비하여 안정된 추정 성능을 보여주지만, 수행 시간을 고려하였을 때는 VMEKF가 더 효율적인 성능을 가진다는 것을 보여준다.</p> <p>그림 7과 8은 실제 도로 환경에서의 전방 차량에 대한 거리 추정 결과를 보여준다. 그림 7은 전방 차량의 저기동 상태에 대한 결과이며, 그림 8은 고기동 상태에대한 추정 결과를 보여준다. 그림 8의 고기동 상태는 저기동 상태에 비하여 20배 급가속을 시킨 결과를 보여준 다. 그림 7의 실험 결과에서와 같이 IMM-KF와 STEKF는 측정치 잡음에 민감하게 반응하여 추정 오차 가 많이 발생한 것을 보여주며 EKF와 VMEKF는 거의 동일하게 안정된 추정 성능을 보여준다. 그림 8에서와 같이 EKF는 객체 움직임과 시스템 모델의 급격한 차이로 인해 궤적에서 벗어나 발산하는 상태를 보여준다. 모의 실험에서는 IMM-KF가 고기동 상태에서 최적의 성능을 보여주었지만, 실제 도로 환경 실험에서는 발산 문제가 발생하여 저하된 추정 성능을 보여준다. 본 실험 결과는 IMM-KF가 발산 문제를 완벽하게 해결하기 위해서는 다양한 객체의 움직임에 대하여 더 많은 수의 부모델이 필요하다는 것을 보여준다. 제안한 VMEKF는 실제 주행 환경에서도 객체의 기동 상태에 상관없이 안정된 추정 성능을 보여준다. 본 논문에서 수행한 모의실험 및 실제 도로 환경 실험은 VMEKF가 효율적인 연산 시간으로 객체의 기동 상태에 상관없이 안정된 성능을 제공할 수 있다는 것을 보여준다.</p>
|
본 논문에서 제안하고 있는 VMEKF의 성능 검증을 위해 모의실험 및 실제 도로 환경에서 측정된 데이터를 기반으로 저 기동 및 고 기동 상태로 분리하여 실험한 결과 VMEKF는 실제 주행 환경에서도 객체의 기동 상태에 상관없이 안정된 성능을 제공할 수 있을 것으로 사료된다.
|
<h1>Ⅱ. 배경 이론</h1><h2>1. DWT</h2><p>오래 전부터 신호를 분석하는 방법으로 사용되어온 퓨리에 변환은 신호의 표현 방식으로 인해 시간에 따라 급격하게 변하는 비정적(non-stationary)신호를 분석하는데 적합하지 못하다는 단점을 갖고 있다. 그리나 웨이블렛 변환의 경우 시간과 주기의 폭이 입력되는 신호의 주파수 고저에 따라 자유롭게 움직일 수 있는 특성을 갖고 있어 다양한 입력 신호에 대해 적응적으로 잘 대처하며 시간-주파수 정보를 모두 분석할 수 있다.</p><p>\[ f(t)=\sum_{j, k} a_{j, k} \Psi_{j, k}(t) \]<caption>(1)</caption></p><p>\[ \Psi_{j, k}(t)=2^{j / 2} \Psi\left(2^{j} t-k\right) \]<caption>(2)</caption></p><p>\[ \Phi_{j, k}(t)=2^{j / 2} \Phi\left(2^{j} t-k\right) \]<caption>(3)</caption></p><p>웨이블렛 변환은 식(1)과 같이 임의의 신호 \( f(t) \) 를 그 신호의 시간과 주파수의 특성을 나타내는 웨이블렛 함수 집합 \( \psi_{j, k}(t) \) 과 웨이블렛 계수 \( a_{j, k} \) 의 결합된 형태로 표현된다. 웨이블렛 함수 \( \psi_{j, k}(t) \) 는 식(2)에서와 같이 모 웨이블렛 함수 \( \psi_{j, k}(t) \) 를 확대하거나 축소, 변이시킴으로써 얻어지는 함수들의 집합이다. 그리고 \( \psi_{j, k}(t) \) 는 하나의 스케일링 함수 \( \Phi(t) \) 로부터 축소 또는 확대, 변이시킴으로써 얻는다. 아래 수식에서 \( j \) 는 스케일 조정 변수이고 \( k \) 는 시간 변이 변수이다.</p><p>웨이블렛 다해상도 분석은 스케일링 함수와 웨이블렛 함수를 이용하여 식(4)와 같이 표현된다. 이때 \( c_{j}(k) \) 와 \( d_{j}(k) \) 는 각각 저역 필터와 고역 필터의 계수이다.</p><p>\[ \begin{aligned} &f(t)=\sum_{j, k} c_{j}(k) \Phi_{j, k}(t)+\sum_{j, k} d_{j}(k) \Psi_{j, k}(t) \\ &=\sum_{j, k} c_{j}(k) 2^{j / 2} \Phi\left(2^{j} t-k\right)+\sum_{j, k} d_{j}(k) \Psi\left(2^{j} t-k\right) \\ &=H(z)+G(z) \end{aligned} \]<caption>(4)</caption></p><p>그림 1은 1차원 웨이블렛 변환의 분해단을 나타낸 것으로 저역필터의 결과를 다시 분해함으로서 3레벨 해상도의 분석을 수행한다. \( H(z) \) 는 저역필터, \( G(z) \) 는 고역필터를 나타낸다.</p><h2>2. 리프팅 DWT</h2><p>리프팅 방식은 공간적인 접근을 통해 웨이블릿을 만들어내는 방법이며 컨볼루션 방식에 비해 최대 \( 50 \% \) 까지 적은 연산과 중간 값을 바로 사용하는 특성으로 인한 메모리 절약, 쉬운 구현방법, 경계 확장의 용이함 등 많은 장점을 갖는다. 리프팅 방식의 DWT는 완전 복원을 만족하는 모든 DWT 필터 뱅크는 리프팅 과정들의 유한한 시퀀스로 분해 가능하다는 것을 이용하여, 대상 웨이블릿 필터의 다각 행렬을 위, 아래 삼각 행렬들과 상수 대각선 행렬로 인수분해 하는 것이며 아래의 식 (5)와 (6)으로 표현된다.</p><p>\[ \begin{aligned} h(z)=h_{e}\left(z^{2}\right)+z^{-1} h_{0}\left(z^{2}\right) \\ g(z)=g_{e}\left(z^{2}\right)+z^{-1} g_{0}\left(z^{2}\right) \end{aligned} \]<caption>(5)</caption></p><p>\[ p(z)=\left[\begin{array}{ll}h_{e}(z) & g_{e}(z) \\ h_{0}(z) & g_{0}(z)\end{array}\right]= \Pi_{i=1}^{m}\left[\begin{array}{ll}1 & s_{i}(z) \\ 0 & 1\end{array}\right]\left[\begin{array}{cc}1 & 0 \\ t_{i}(z) & 1\end{array}\right]\left[\begin{array}{ll}k & 0 \\ 0 & 1 / k\end{array}\right] \]<caption>(6)</caption></p><p>여기서 \( h(z) \) 와 \( g(z) \) 는 각각 저역 필터와 고역 필터, 식(5)는 다각분해이며, 식(6)의 \( P(z) \) 는 다각행렬이다. 그림 2는 리프팅 방식의 (9,7) DWT 구조를 나타낸다. 리프팅 방식을 이용한 웨이블릿 변환은 크게 분할(split), 예측(predict), 갱신(update), 조정(scaling)의 단계로 이루어진다. 먼저 입력 \( \mathrm{x} \) 는 홀수 번째 신호와 짝수 번째 신호로 분리되고 예측 단계는 고역 필터를 통과하여 짝수 번째 신호에서 예측 연산을 통해 홀수 번째 신호를 예측할 때 얻어지는 에러이다. 갱신 단계는 저역 필터를 통과하여 짝수 번째 신호와 예측 에러를 더하여 구해진다. 저역, 고역 필터는 계수 \( \alpha, \beta, \gamma, \delta \) 의 곱셈을 통해 구현되어지고 보정 상수 \( k, 1 / k \) 로 크기를 조정하여 최종 결과를 얻을 수 있다.</p>
|
신호를 분석하는 방법으로 오래 전부터 사용된 퓨리에 변환은 시간에 따라 급격히 변하는 비정적 신호를 분석하는 데는 신호 표현 방식 때문에 적합하지 못하다는 단점이 있다. 웨이블렛 변환은 시간과 주기의 폭이 주파수 고저에 따라 자유롭게 움직일 수 있어서 시간-주파수 정보를 모두 분석할 수 있다. 또한, 리프팅 방식의 DWT는 공간적 접근으로 분할, 예측, 갱신, 조정의 단계로 이루어진 웨이블릿을 만들어, 컨볼루션 방식보다 50%까지 적은 연산, 중간 값을 바로 사용하는 특성 때문에 메모리를 적약할 수 있고 구현방법이 쉬우며 경계확장에 용이하다.
|
<h1>Ⅲ. 제안한 구조</h1><h2>1. 전체 구조 및 스케줄링</h2><p>본 논문에서는 디지트 시리얼 구조를 갖는 리프팅 기반의 1차원 DWT 구조를 제안하였으며 사례로 디지트가 2비트의 경우를 설계하였다. 따라서 입력 값 \( X_{2 n} \), \( X_{2 n+1} \) 을 비롯한 중간 데이터 및 결과 값은 모두 2비트의 길이를 갖으며, FA(full adder)와 곱셈기, 딜레이 유닛 또한 2비트 단위로 설계되었다. 중간 값을 저장하는 DCU(delay control unit)와 결과 값을 저장하는 DFC(data format converter)는 입출력은 2비트로 처리되고 워드 단위의 저장 공간을 갖는다.</p><p>그림 3의 제안된 구조는 recursive 방식의 스케줄링을 위해 입력 값을 제어하는 DFC와 4개의 모듈로 구성되고 각 모듈은 다른 해상도에서 사용하는 중간 값을 저장하는 DCU와 덧셈기, 승산기, 딜레이 레지스터 등으로 구성된다. 입력 \( X_{2 n}, X_{2 n+1} \) 는 각각 2비트 크기의 홀수 번째, 짝수 번째 입력을 나타내고 DFC를 통해 조절되어 모듈의 입력으로 사용된다. 모듈 1,2,3,4에서는 각각 계수 \( \alpha, \beta, \gamma, \delta \) 가 곱해져 리프팅 DWT를 수행한다. 모듈에서 사용되는 곱셈기는 각 모듈 별로 CSD 코딩을 적용한 계수에 쉬프트와 덧셈 연산을 사용하여 설계되었다. 딜레이 레지스터의 경우 디지트 시리얼 구조를 기준으로 표현하였기 때문에 실제로는 디지트 단위가 곱해져 실제 크기는 두 배가 된다.</p><p>recursive 방식의 스케줄링은 간축(decimation)으로 인한 휴면구간 동안 하위 레벨의 DWT를 수행하도록 스케줄링되므로 다해상도 분석을 효과적으로 수행할 수 있다. 하지만 데이터의 지연시간 없이 하위 레벨을 수행하려면 데이터가 입력되어 DWT가 수행된 후 결과가 나올 때까지의 레이턴시가 하나의 워드를 구성하는 디지트 수보다 같거나 작아야 한다. 2비트 단위의 디지트 시리얼인 경우, 입력이 16비트일 때 8클록 내에 결과를 얻을 수 있어야 다음 레벨의 계산에 입력으로 사용할 수 있다.</p><p>그림 4는 3레벨 해상도를 기준으로 분석할 때의 recursive 방식의 스케줄링을 나타낸 것이다. 입력이 들어갔을 때부터 결과를 얻기까지 레이턴시로 인해 각 모듈에서 2클록씩 지연되며 총 8클록을 필요로 한다. 계수의 소수부분의 길이에 따라 쉬프트 연산이 필요하므로 레이턴시가 발생하는데 4개의 승산기에서 2클록씩 필요하다. 네모안의 숫자는 해당하는 DWT 레벨을 나타내며 각 모듈에서의 처리는 디지트 단위의 파이프라인으로 처리됨을 알 수 있다.</p>
|
본 논문에서 디지트 시리얼 구조를 가지는 리프팅 기반의 1차원 DWT 구조를 제안하고, 그에 대한 예로 디지트가 2비트인 경우를 설계했다. 그림 3은 recursive 방식의 스케줄링을 위해서 입력 값을 제어하는 DFC와 4개의 모듈로 구성된다. recusive 방식의 스케줄링은 다해상도 분석을 효과적으로 수행할 수 있다는 장점이 있다. 그림 4에서는 3레벨 해상도를 기준으로 분석할 경우의 recusive 방식의 스케줄링을 보여준다.
|
<h1>Ⅰ. 서 론</h1><p>멀티미디어의 발달, 특히 스마트 폰과 같은 이동통신 분야에서 데이터 사용량이 많아짐에 따라 영상, 음성 등의 데이터 압축/신장 등은 계속해서 더 나은 성능을 필요로 한다. 이산 웨이블릿 변환(discrete wavelet transform, DWT)은 블록 효과(blocking effect)가 없고 공간과 주파수 특성들을 효율적으로 수집하여 낮은 비트율에서의 향상된 압축, 단일 시스템에서의 손실 및 무손실 압축 가능, 비트에러에 대한 견고함 등 많은 장점으로 인해 영상 압축 분야에서 많이 이용되고 있다. 그러나 많은 연산과 큰 저장 공간을 요구하기 때문에 빠른 속도와 저 전력 소모를 요구하는 이미지, 비디오 처리에 바람직하지 못하다. 위의 단점을 보완하기 위한 방법으로 리프팅 DWT 방법이 Swelden에 의해 제안되었다. 리프팅 연산은 저주파수 통과 필터와 고주파수 통과 필터를 윗 삼각행렬과 아랫 삼각행렬로 분해하고, 필터를 띠 행렬의 곱으로 변환한다. 리프팅 연산은 컨볼루션 방식과 비교해서 계산양이 \( 50 \% \) 까지 감소하고, 추가적인 메모리를 필요로 하지 않는다. 또한, 쉬운 구현방법, 경계 확장의 용이함 등 많은 장점을 갖는다.</p><p>지난 연구에서 다양한 구조의 1차원 리프팅 DWT 구조가 제안되었다. Direct mapped 구조는 리프팅 방식의 데이터 연관성을 그대로 하드웨어로 맵핑하여 설계한 것으로 8개의 파이프라인 레지스터를 사용하여 성능을 향상 시켰다. 접힌(folded) 구조는 [5]의 구조에 폴딩 기법을 적용하여 두 개의 곱셈기에서 각각 계수 \( \alpha, \gamma \) 와 \( \beta, \delta \) 를 번갈아 곱하면서 4개의 단을 2개의 단으로 줄여서 하드웨어 소모량을 줄였고, (5,3)필터로 사용할 때 하드웨어 사용 효율이 떨어지는 것을 보완했다. EFA(Efficient Folded Architecture )는 접힌 구조에 병렬처리와 파이프 라인을 이용하여 짧은 최대지연 시간을 갖고 하드웨어를 효율적으로 사용하도록 최적화시켰다. MAC 구조는 메모리 밴드폭(bandwidth)을 줄이고 적은 양의 메모리를 사용한다. 이 구조는 같은 (9,7)필터로 동작할 때 4개의 MAC(multiply and accumulate)와 9개의 레지스터를 사용하여 데이터 밴드폭을 효과적으로 줄였다. 리프팅 기반의 DWT는 컨볼루션 기반 DWT 비해 더 적은 논리 연산을 사용하는 대신, 컨벌루션 기반 DWT보다 상대적으로 긴 최대 지연 시간을 갖게 된다. 이를 보안하기 위해 플리핑(flipping) 구조는 계수의 역수를 사용하여 최대 지연 시간의 곱셈 성분을 제거하였고 덧셈기 사이에 파이프라인 레지스터를 추가함으로서 최소 덧셈기 하나의 최대 지연 시간을 갖는다. Modified(modified lifting based DWT)구조도 리프팅 수식을 변형시켜 짧은 최대 지연 시간을 갖지만 더 적은 하드웨어를 사용한다. 또한 (9,7)필터 이외에 다양한 필터를 사용 가능한 범용(generalized) 구조가 제안되었다. 이 구조는 4개의 프로세서로 구성되었고, 각 프로세서는 덧셈기, 곱셈기, 쉬프터로 구성되었고 프로세서의 연결에 따라서 다양한 필터로 사용할 수 있다. 다해상도 분석을 수행할 때 DWT의 샘플 수는 이전 레벨의 반으로 줄어들고, 이 특성을 이용하여 다해상도의 분석을 중첩하여 수행할 수 있다. Recursive 구조는 리프팅 방식의 DWT에 [14]의 스케줄링을 적용하여 설계한 것으로 각 레벨의 중간 값을 저장하기 위한 레지스터를 필요로 하고 제어 방법이 복잡하다는 단점이 있지만 다해상도의 분석을 효율적으로 수행할 수 있다.</p><p>본 논문에서는 디지트 시리얼 구조를 갖는 리프팅 방식의 1차원 DWT 구조를 제안하였다. 워드 시리얼 구조를 적용할 경우 데이터는 높은 처리율을 갖지만 많은 하드웨어를 필요로 하지만 비트 시리얼구조의 경우 낮은 처리율과 적은 하드웨어를 갖는다. 디지트 시리얼 구조는 두 구조의 하드웨어 요구량과 데이터 처리율의 상충 관계(tradeoff)를 개선하기 위해 사용되었다. 또한 긴 최대 지연 시간과 많은 하드웨어 요구량을 갖고 있는 곱셈기를 쉬프트와 덧셈 연산을 사용하여 최대 지연 시간을 줄이고 더 적은 하드웨어를 사용한다. 고정된 상수 계수를 갖는 곱셈기 설계에서는 CSD(Canonic Signed Digit) 코딩을 적용하여 하드웨어를 간단히 구현하였다.</p><p>본 논문의 구성은 다음과 같다. Ⅱ장에서는 리프팅 기반 DWT의 이론적 배경에 대해서 설명하고, Ⅲ장에서는 제안한 하드웨어 구조를 각 모듈별로 나누어 설명한다. Ⅳ장에서는 설계결과를 분석하였으며 Ⅴ장은 본 논문의 결론이다.</p>
|
영상 압축 분야에서 많이 이용되고 있는 이산 웨이블릿 변환은 블록 효과 없음, 공간과 주파수 특성의 효율적인 수입, 낮은 비트율에서의 향상된 압축, 단일 시스템에서의 손실 및 무손실 압축 가능, 비트에러에 대한 견고함 등 장점이 있다. 리프팅 연산은 컨볼루션 방식과 달리 계산양이 \( 50 \% \) 까지 감소하고, 추가적인 메모리가 필요 없다. 리프팅 기반의 DWT는 컨볼루션 기반 DWT와 비교했을 때 더 적은 논리 연산을 사용하고, 컨벌루션 기반 DWT보다 긴 최대 지연 시간을 갖게 된다. 플리핑 구조는 계수의 역수를 사용하여 최대 지연 시간의 곱셈 성분을 제거하였고 덧셈기 사이에 파이프라인 레지스터를 추가하여 최소 덧셈기 하나의 최대 지연 시간을 갖는다. 워드 시리얼 구조는 데이터는 높은 처리율을 갖고 많은 하드웨어 필요로 한다. 비트 시리얼구조는 낮은 처리율, 적은 하드웨어를 필요로 한다.
|
<h1>Ⅰ. 서론</h1> <p>무선통신기술의 발전에 힘입어, HSDPA나 와이브로와 같은 광대역무선통신망의 눈부신 발전이 이루어지고 있다. 모바일 사용자들은 언제 어디서나 대용량의 컨텐츠를 마음껏 다운로드 받거나 화상전화와 같은 멀티미디어 기반 통신 서비스를 받는 것이 보다 자유로워졌으며, 이러한 다양한 체험이 모바일 사용자들의 통신에 대한 개념을 보다 발전적이고 진보적으로 바꾸었다. 즉, 사용자들은 이미 유비쿼터스 커뮤니케이션의 환경에 한발 더 진입하고 있는 것이다. 그러나 보다 진보된 형태의 유비쿼터스 통신 기술이 보편화되기 위해서는 다양한 이종 네트워크들간의 끊어짐없이 연동되는 데이터 통신 서비스가 선행적으로 이루어져야 한다. 이미 우리가 사용 중인 HSDPA나 와이브로와 같은 광역 이동통신망에서부터 WLAN과 같은 지역 무선 통신망에 이르기까지 사용자의 단말은 나양하고 서로 다른 통신방식을 사용하지만 나름대로의 특징을 가지는 무선 네트워크 영역을 넘나들면서 사용자 자신들이 원하는 혹은 네트워크 운영자 측에서 유도한 방향으로 부드러운 서비스 전환이 이루어 질 수 있어야 한다. 이러한 서비스 망의 전환 시에 기존의 비연동형 듀얼모드 단말의 경우, 통신 세션이 깨어져 사용자의 간섭을 통해서 세션의 재연결이 이루어지는 형태가 일반적이었다.</p> <p>이러한 데이터 서비스 연동을 지원하는 기술 표준으로는 크게 3GPP IMS (Internet Multimedia Subsystem), IETF Mobile IP 그리고 IEEE 802.21 WG의 MIH (Media Independent Handover)가 있다. 3GPP의 IMS과 같은 SIP(Session Initiation Protocol)기반의 응용 계층 핸드오버 기술이 표준화되어 사용자의 간섭없이 동종 혹은 이종 네트워크 접속 포인트가 바뀌더라도 응용계층에서 핸드오버를 수행할 수 있는 기반이 마련되었다. 그러나 이러한 응용계층 핸드오버 기술은 모바일 단말이 이동을 하면서 종단간에 연결된 세션을 꾾김없는 지원에는 어려움을 가지고 있다. L3 핸드오버 시에 패킷의 손실을 최소화할 수 있는 기술로서 IETF Mobile IP와 같이 네트워크 계충에서의 연동성을 보장하는 프로토콜이 오래 전부터 개발되어 규격 상 완성단계에 이르렀으나, Mobile IP의 경우에는 망선택에 대한 지능적인 동작이 정의되어 있지 않아 실제 이종망 연동 시에 문제점이 될 수 있다. 유비쿼터스 통신에 있어서 통신망의 전환에 따른 사용자가 경험하는 서비스가 원하는 수준의 통신 품질이 유지될 수 있도록 망을 선택하는 것이 중요하다. 어쩔 수 없는 특별한 상황에서는 사용자가 원하는 수준의 QoS (Quality of Service)를 만족시키지 못할 수 있으나, 다중의 네트워크를 선택할 수 있는 상황이라면 그 중에서도 사용자의 선호도를 고려하여 망을 선택해 주는 것이 중요한 통신 서비스 차원에서의 이슈가 되고 있다.</p> <p>이러한 다양한 이종 통신망들의 융합현상을 해결하고자 L2계층에서의 이종망간 끊김없는 데이터 서비스 연동을 위한 표준이 IEEE 802.21 WG에서 MIH로서 정의하고 활발히 논의되고 있으며, 이를 3G와 같은 기간 이동통신망에 접목하고자 하는 시도도 이루어지고 있다. MIH에서는 이종망 상황에서 Mobile IP의 부적격성을 모바일 단말의 이동에 따른 이동성 검출 (Movement Detection) 메카니즘이 L3 통신 프로토콜에 의지하여 이루어 졌기 때문이라고 규정하고, Mobile IP와 같은 L3계층 이상의 핸드오버 메카니즘에 대해서 빠른 네트워크 검출과 프로토콜적인 처리를 가속화하기 위해 이벤트 서비스 (Event Service), 명령 서비스 (Command Service) 및 정보 서비스 (Information Service) 등의 인터페이스를 정의하고 있다. 또한, 보다 지능적인 망차원에서의 핸드오버 지원을 하기 위해 정보 서버(Information Server)를 정의하여 각종 부가 기능을 구현할 수 있도록 하고 있다. 그러나 MIH의 경우에는 하나의 표준 구격으로 실제 알고리즘이나 시스템 혹은 네트워크 차원에서의 동작 메카니즘을 정의하고 있지 않고 있다.</p> <p>본 논문에서는 다중 이종망 상황에서의 지능적 망선택 알고리즘을 가지는 새로운 모바일 단말 소프트웨어 플랫폼을 설계하고 이를 구현한다. 이하 본 논문에서 제안하는 단말 소프트웨어 플랫폼을 AM4U (Advanced Multi-homed mobile terminal architecture for Ubiquitous communications)라고 명명한다. 본 논문의 Ⅱ장에서는 제안하는 핸드오버 프레임워크의 설계 요구사항을 정의한다. III장에서는 끊김없는 이종망간 핸드오버를 지원하는 새로운 모바일 단말 아키텍쳐인 AM4U 플랫폼을 설계하고 각 요소별 기능을 자세히 설명한다. 제 Ⅳ장에서는 설계된 단말 아키텍쳐를 ETRI Qplus (리눅스) 환경에서 구현한 방법을 제시하며, 제 Ⅴ장에서는 구현된 시스템을 실제망에서 적용하고 테스트한 결과를 요약 정리하여 그 기능과 성능을 검증하도록 한다.</p>
|
유비쿼터스 통신 기술의 보편화는 이종 네트워크 간의 데이터 통신 서비스 연동이 선행되어야 하며, 이에 대응하는 기술 표준으로는 3GPP IMS, IETF Mobile IP, IEEE 802. 21 WG의 MIH 등이 있다. 이 연구에서는 이런 문제를 해결하기 위해 L2계층에서의 이종망 간 데이터 서비스 연동을 지원하는 IEEE 802. 21 WG의 MIH 표준을 활용하여 3G와 같은 이동통신망에 적용하는 방안을 논의하였다. 또한, 다중 이종망 환경에서 지능적 네트워크 선택 알고리즘을 가진 모바일 단말 소프트웨어 플랫폼의 설계 및 구현에 대해 제안하였다.
|
<h1>Ⅴ. AM4U 개발 및 실험</h1> <h2>5.1 개발 환경</h2> <p>AM4U 플랫폼은 기본적으로 ETRI에서 개발한 Qplus 운영체제가 탑재된 MCC (Mobile Convergence Computing) 단말에서 운용되도록 설계되었다. MCC 단말은 PXA270 CPU를 기반으로 WLAN, HSDPA 및 블루투스 등의 네트워크 인터페이스를 갖춘 스마트폰 형태의 휴대단말이다. 기본 운영체제로서는 잘 알려진 임베디드 리눅스 전용의 Qplus 운영체제를 적용하였다. 모바일 단말을 대상으로 개발하는 통신 플랫폼인만큼 가능하면 소프트웨어적으로 부담이 적은 경량화 설계에 초점을 맞추었다. 즉, 가능한 적은 량은 쓰레드를 실행하며, 메모리 참조를 최소화하고 파일 액세스 등의 인터럽트가 발생할 수 있는 경우를 줄이는 코딩 기법을 적용하였다. 실제로 기존 노트북 환경에서 개발한 AM4U 풀랫폼이 그대로 MCC 단말에 포팅되었을 때 오버로드로 멀티미디어 플레이어 (VLC)의 디코딩과 화면출력 등이 원활하지 못한 현상이 발생하였으나, 프로그램 경량화를 적용한 결과 멀티미디어 플레이어가 원활하게 실행되어 전체 시스템에 로드를 줄이는 효과를 얻었다. MCC 단말의 HW/SW 사양을 4에 기술한다.</p> <p>AM4U 구현체의 실험을 수행하기 위한 테스트배드 토폴로지를 그림 10에 도시한다. 테스트배드의 구성에서 MN의 무선 네트워크로는 무선랜과 상용 HSDPA망을 이용하고, HA와 FA를 포함하는 Mobile IP 이동성 에이젼트, CN(Corresponding Node) 및 TBMS(Testbed Management System) 등을 하나의 랙 프레임 (Rack Frame)에 통합하여 개발하였다. TBMS의 역할은 실험실 환경에서 MCC 단말을 이동하면서 실험할 수 없는 관계로 무선랜의 AP 출력을 조절하여 마치 MCC 단말이 이동하는 것처럼 에뮬레이션하는 것을 목적으로 한다. 또한, 무선랜 출력량은 단말의 AP와의 상대적 위치를 고려하여 아래 식 (5)를 이용한 신호감쇄 모델을 적용하여 AP의 출력 신호값을 제어하도록 TBMS에 반영되어 있다.</p> <p>\( P_{R} \cong P_{T}\left(\frac{h_{m} h_{b}}{d^{2}}\right)^{2} \)<caption>(5)</caption></p> <p>위 식 (5)는 단순한 전송 거리 및 안테나의 높이만을 고려한 식으로 다중경로 감쇄효과 등 일반적으로 섬세한 신호감쇄율을 모델링하는데 필요한 요소들을 고려하지 않았다. 또한, 이종 망으로부터 검출된 무선 신호값의 크기를 비교함에 있어서 절대적인 값을 이종망간 상호 비교하지 않고 정규화된 값으로서 이종망간 신호값을 비교하였다. 예를 들어, 그림 11 에서 보이는 바와 같이 무선랜이 HSDPA 도메인 내에 존재할 때, 실제로는 무선랜의 최대 출력이더라도 출력신호값이 HSDPA에 비해 절대값 면에서 작다면 RSS 비교상 열등한 것으로 판단될 것이다. 따라서 그림 12 의 정규화된 값으로 상호비교하는 기준을 적용하는 것이 RSS 기반 망선택 시 적절하리라 사료된다.</p> <p>그림 13은 TBMS를 이용한 네트워크 에뮬레이션을 시각화할 수 있도록 개발하여 시연하는 장면이며, 전체 망은 HSDPA망의 영역이고 작은 망 두개는 개방된 야외환경을 고려하여 \( 30 \mathrm{~m} \) 영역을 가지도록 조절된 무선랜 셀들이다. 또한, 단말의 이동성을 에뮬레이션해야 하므로 단말의 궤적 (Trajectory)을 TBMS 사용자가 자유롭게 그려 이동 단말이 그려진 궤적을 따라 이동하는 것처럼 무선랜의 산호세기를 식 (5)에 따라 제어한다.</p> <p>그림은 실제 구축된 전체 TBMS, AM4U가 탑재된 모바일 단말 및 종합적인 Mobile IP 장비 등을 모두 포함하고 있는 랙장치를 보여주고 있다.</p> <h2>5.2 개발 결과 및 실험</h2> <p>본 연구의 개발 결과물 중 AM4U 플랫폼이 탑재된 MCC 단말의 UI 및 실행 장면을 아래 그림15에 도시한다. 그림 15에서 (a)는 AM4U플랫폼의 UI이며, 이 UI를 통해서 사용자는 핸드오버 정책 (RSS기반, Cost 기반, QoS 기반, Life-time 기반 등)을 선택할 수 있으며, 망선택을 자동으로 수행할 것인지, 수동으로 사용자가 직접 선택하도록 할 것인지 등을 결정한다. (b)는 AM4U 플랫폼이 실행되는 모바일 단말로서 MCC 단말을 보여 준다. 초기 개발된 노트북 기반의 AM4U 플랫폼을 MCC 단말에 그대로 포팅하여 실행시킨 결과 기본적인 기능은 잘 운용이 되었으나, 많은 쓰레드 및 메모리 접근 및 파일시스템 접근 등의 컴퓨팅 오버헤드로 실제 멀티미디어 브라우저를 실행하는 과정에서는 원활하게 운용되지 못하는 현상이 발생하였다. 이에 가능하면 단말의 성능에 영향을 끼치는 동작을 수행하지 않도록 수정한 결과 끊어짐없이 원활하게 동영상이 실행되는 것을 확인할 수 있었다.</p> <p>AM4U에 적용한 에너지 효율적 망선택 알고리즘에 대한 네트워크 시뮬레이션 결과를 그림 16 에 도시한다. 그림 16(a)는 모바일 단말의 배터리 감소 모델을 단순히 선형적으로 에너지가 감소하는 형태로 설계해 해석의 단순성을 꾀했다. 이를 기반으로 각 트래픽 클래스 별 에너지 감소를 계산하였으며, 이중 본 연구에서 관심이 있는 것은 3GPP에서 정의하는 바 VoIP나 Video Telephony와 같은 대화형 클래스 (Conversational Class)와 모바일 방송국과 같은 업로드형 멀티미디어 서비스의 경우에 있어서 제안하는 알고리즘이 기존의 정규화된 신호세기를 기반으로 망을 선택하는 방식에 비해 에너지 효율성이 보다 높다는 것을 명확히 보여주고 있다.</p> <p>그림 17은 50회에 걸친 핸드오버 실행에 따른 HSDPA2WLAN/WLAN2HSDPA 핸드오버 지연시간 결과이며, 측정한 핸드오버 지연시간은 NSC 모듈이 MIP 모듈에 핸드오버 요청을 전달한 후 걸리는 지연시간으로 L2 연결 지연시간은 측정에서 배제한다.</p> <p>본 연구를 통해서 도출된 실험결과를 비추어 볼 때 HSDPA2WLAN 핸드오버 시간 (평균 \( 885 \mathrm{msec} \) )이 WLAN2HSDPA 핸드오버 시간 (평균 \( 1049 \mathrm{msec} \) )에 비해 약 \( 18.5 \%(164 \mathrm{msec}) \) 가량이 덜 지연된 것을 알 수 있다. 이는 모바일 단말까지 패킷 터널링의 분깃점이 되는 HA의 위치에 의해 결정된 결과로 WLAN으로 핸드오버 시 WLAN 네트워크를 통해서 바인딩 업데이트 메시지가 전송되어 \( \mathrm{HA} \) 에 모바일 단말의 엔트리 정보가 갱신되는 시간이 HSDPA를 통한 상용 접속망을 통해 전송되어 갱신되는 시간에 비해 월등히 짧기 때문으로 해석된다. 따라서 다중 이종접속망 상황에서 HA의 위치를 어디에 정하느냐에 따라 핸드오버 지연시간이 결정되나, 다중 이종접속망 상황에서는 이러한 핸드오버 비대칭성은 피하기 어려운 현상이 될 것이다. 또한, 무엇보다 본 연구의 목적은 중첩된 이종 무선망 상황에서 빠른 핸드오버를 지원하는 Mobile IP를 개발하는 것보다는 주어진 이종접속망 환경에서 최적의 망을 선택하고 Mobile IP를 이용하여 L3 핸드오버를 수행하는 절차 및 그 구조를 개발하는데 연구의 의의가 있으므로 보다 빠른 핸드오버 지연 시간에 대한 연구는 향후 연구과제가 될 것이다.</p>
|
AM4U 플랫폼은 ETRI에서 개발한 Qplus 운영체제가 탑재된 MCC 단말에서 운용되도록 설계된, 스마트폰 형태의 휴대단말이다. 가능한 적은 량의 쓰레드를 실행하며, 메모리 참조를 최소화하고 파일 액세스 등의 인터럽트가 발생할 수 있는 경우를 줄이는 코딩 기법을 적용하여 경량화 설계를 하였다. AM4U 구현체의 실험을 수행하기 위해 테스트배드 토폴로지를 구성하였고, TBMS(Testbed Management System)의 역할은 무선랜의 AP 출력을 조절하여 마치 MCC 단말이 이동하는 것처럼 에뮬레이션하는 것을 목적으로 한다.
|
<h2>3.3 에너지 효율적 망전환판단 모듈</h2> <p>앞 절에서 기술한 바와 같이 Mobile IP에 의해서 신호처리와 패킷 전송이 이루어지는 L3 핸드오버가 수행된다. 그러나 다중 접속망 상에서 Mobile IP는 핸드오버 정책, 비즈니스 모델 및 사용자의 선호도 등을 반영하는 핸드오버 프로세스를 수행하는 기능이 정의되어있지 못하다. 그래서 망 신호가 검출될 때 마다 핸드오버 처리를 수행하여 불필요한 신호 폭주를 일으킬 가능성이 있다. 이를 해결하는 기능 모듈이 NSD이며, 본 연구에서 제안하는 NSD는 전력소모량을 고려하여 단말의 사용시간을 최대한 연장할 수 있는 방식으로 설계되어 있다. 또한, 다중 선택요소를 망선택 정책에 공평하게 반영할 수 있는 알고리즘을 포함한다.</p> <p>제안하는 알고리즘은 모바일 단말에 적용된다. 먼저, 망전환판단 알고리즘에 필요로 되는 입력 데이터는 네트워크와 모바일 단말 자체에서 얻을 수 있다고 가정한다. 가정에서 사용되는 입력 데이터는 다음과 같다.</p> <ol type=1 start=1><li>QoS: Bandwidth, Delay, Jitter, BER</li> <li>Life time : 네트워크 인터페이스별 Tx Rx 및 idle 상태 전력 소모량</li> <li>Cost : 패킷 비용</li> <li>Traffic Class : Conversational, Up streaming, Down streaming, Interactive 및 Background 트래픽</li> <li>Battery level : 사용가능한 배터리량</li> <li>User preference : 사용자의 선호도</li></ol> <p>oS 및 Cost 정보는 네트워크 측으로부터 얻을 수 있으며, 네트워크 인터페이스별 Tx,Rx, 및 idle 상태 전력 소모량을 고려한 생존 시간 정보는 모바일 단말 자체에서 확보할 수 있다. 트래픽 클래스는 3GPP에서 정의하는 QOS 에 따른 트래픽 클래스 패턴을 적용한다. 즉, conversational, up streaming, down streaming, interactive, 및 background services 등으로 정의할 수 있다. 그림 3은 전체 네트워크 선택 알고리즘에 대한 흐름도를 보여준다.</p> <p>NSD 네트워크 선택 알고리즘의 실행 순서는 다음과 같다. 초기화 단계에서 알고리즘에 필요한 입력 파라미터 값을 설정하고, CNL (Candidate Network List)을 위한 구조체를 생성한다. 선택된 네트워크일 경우 해당 네트워크의 CNL 플래그는 1 (TRUE)로서 설정되어 각 알고리즘 단계에서 계산을 수행하는 대상이 되다. 만일 CNL플래그가 0 (FALSE)인 네트워크가 있다면, 이 네트워크는 다음 단계에서는 계산되지 않는 선택되지 못한 네트워크로 분류된다. 즉, 비트 마스컁 동작을 수행하는데 CNL 플래그를 사용한다.</p> <p>실제적인 망선택 알고리즘은 크게 단말 속도 기반 네트워크 필터링, 전력소모량 예측 알고리즘 및 AHP/GRA 기반 망선택 알고리즘 등의 세 가지 알고리즘들이 순차적이고 유기적으로 연동되어 최종적으로 최적의 망을 선택하게 된다. 본 절에서는 위 세가지 알고리즘에 대해서 자세히 알아보도록 한다.</p> <h3>3.3.1 단말 속도 기반 네트워크 선택 프로세스</h3> <p>초기화 단계 이후에는 단말 속도 기반 네트워크 필터링이 이루어진다. 모든 모바일 네트워크는 속도에 따른 지원능력이 규격으로서 정의되어 있다. 예를 들어, CDMA 계열의 네트워크는 시속 \( 300 \mathrm{Km} \) 로 이동하는 이동체에 연결을 제공하는 반면, WLAN의 경우에는 규격 상으로 \( 30 \mathrm{Km} / \mathrm{h} \) 의 제한을 갖기도 한다. 따라서 단말 속도 기반 네트워크 선택 프로세스는 단말의 현재 속도를 기준으로 이동망의 속도 지원 규격을 비교하여 불필요한 네트워크는 CNL로부터 필터링하여 다음 단계의 계산 복잡도를 줄이는 단순화 처리를 수행하게 된다.</p> <h3>3.3.2 전력소모량 예측 알고리즘</h3> <p>전력 소모량 예측 알고리즘 (power consumption prediction algorithm)은 현재의 배터리 수준, 트래픽 클래스, 모바일 단말의 네트워크 인터페이스별 전력 소모량 등을 평가하여 모바일 단말이 동작할 수 있는 시간을 추정한다. 만일 각 네트워크에 대해서 계산된 생존 시간 (Life time)이 해당 네트워크에서의 핸드오버 지연 시간에 비해 일정 수준 이상 길다면 CNL에 사용가능한 네트워크로 등록된다. 만일 그 역의 경우에 있어서는 CNL에 해당 네트워크 인터페이스는 FALSE로 리셋되어 최종 망선택 알고리즘 수행 시 배제된다. 마지막으로, 핸드오버 네트워크 최종 선택 알고리즘 (handover network final selection algorithm)은 다중 옵션 사항을 기초로 최적의 망으로 선택된 네트워크의 ID를 제시한다. 그림 4에 전력소모량 예측 알고리즘의 순서도를 도시한다.</p> <p>표 1에 모바일 단말의 예측된 사용가능 시간을 계산하기 위한 파라미터를 기술한다.</p> <p>예상 단말의 생존가능시간은 아래 식 (1) - (5)에 의해서 결정되며, 이 식들에서 사용되는 상수값들은 표 2와 표 3에 기술한다.</p> <p>\( P_{\exp e c t}(i, j)=P_{t x}(i, j) \cdot \gamma_{t x}(j)+P_{r c}(i, j) \cdot \gamma_{r x}(j) \)<caption>(1)</caption></p> <p>\( P_{t x}(i, j)=\frac{\rho(j)}{R_{\text {up }}(i)} \cdot P_{t x}^{*}(i)+\left(1-\frac{\rho(j)}{R_{u p}(i)} \cdot P_{i d l e}^{*}(i)\right. \)<caption>(2)</caption></p> <p>\( P_{r x}(i, j)=\frac{\rho(j)}{R_{\text {down }}(i)} \cdot P_{r x}^{*}(i)+\left(1-\frac{\rho(j)}{R_{\text {down }}(i)} \cdot P_{\text {idle }}^{*}(i)\right. \)<caption>(3)</caption></p> <p>\( T_{\exp e c t}(i, j)=\frac{E_{\text {battery }}}{P_{\text {expect }}(i, j)} \)<caption>(4)</caption></p> <h3>3.3.3 AHP/GRA기반 핸드오버 네트워크 최종 선택 알고리즘</h3> <p>본 연구에서는 앞서 그림 3에 도시한 바대로 핸드오버 최종 단계로서 AHP (Analytic Hierarchy Process)/ GRA (Grey Relational Analysis)를 적용한다 .</p> <p>AHP/GRA 알고리즘은 이전 단계의 전력소모량 예측 알고리즘에서 살아남은 CNL 상의 가용 네트워크들에 대해서 처리를 수행한다. 핸드오버 네트워크 최종 선택 알고리즘은 사용자의 선호도와 트래픽 클래스 등의 요소를 평가하여 최종적인 최적의 네트워크를 선택한다. 제안하는 알고리즘은 기존에 잘 알려진 네트워크 선택 알고리즘인 AHP/GRA 알고리즘을 보다 향상시킨 알고리즘이다. 기존 AHP/GRA에 비해 달라진 점은 전력사용가능시간이 추가된 것과 구조적으로 3개의 전역 요소(Global factor) 즉, QOS, 패킷 비용 (Cost) 및 전력사용 가능시간 등을 가진다는 점이며 이들 요소들은 사용자의 선호도에 의해 가중치가 적용된다. 또한, QOS와 전력사용가능시간의 지역 요소값 (Local factors)은 트래픽 클래스에 의해 가중치가 적용된다. 그림 5에 핸드오버 네트워크 최종 선택 알고리즘의 아키텍쳐를 도시한다. 아래 구조체는 제안하는 알고리즘에서 사용하는 각 전역요소들의 지역 요소값들에 적용되는 가중치 변수들을 하나의 구조체로써 정의한 예이다.</p> <p>typedef struct<p>\{<p>float Weight_Qos_BW;</p> <p>float Weight_Qos_Delay;</p> <p>float Weight_Qos_Jitter;</p> <p>float Weight_Qos_BER;</p> <p>float Weight_Cost;</p> <p>float Weight_Life_Time_Tx_pow;</p> <p>float Weight_Life_Time_Rx_pow;</p> <p>float Weight_Life_Time_Idle_pow;</p>} Weight_Network_Selection_data;</p>
|
Mobile IP를 통해 L3 핸드오버가 수행되지만, 핸드오버 정책, 비즈니스 모델 및 사용자의 선호도를 반영하는 기능이 없어 불필요한 신호 폭주를 일으키는 가능성이 있다. 이를 해결하기 위해 NSD를 제안하며, 전력소모량을 고려하여 단말의 사용시간을 최대한 연장할 수 있는 방식으로 설계되었다. 또한, 다중 선택요소를 망선택 정책에 공평하게 반영할 수 있는 알고리즘을 포함하고 있다. 입력 데이터는 QoS, Life time, Cost, Traffic Class, Battery level, User preference 등이며, CNL 플래그를 사용하여 비트 마스크 동작을 수행한다. NSD는 Mobile IP를 통해 발생하는 불필요한 신호 폭주를 방지하기 위해 제안되었으며, 전력소모량을 고려하여 단말의 사용시간을 최대한 연장할 수 있는 방식으로 설계되었다. 또한, 다중 선택요소를 망선택 정책에 공평하게 반영할 수 있는 알고리즘을 포함하고 있으며, 입력 데이터는 QoS, Life time, Cost, Traffic Class, Battery level, User preference 등이다.
|
<h2>3.4 네트워크 투명성 제공 공통접속 모듈</h2> <p>CCM 모듈은 하나의 가상 디바이스 모듈로 정의할 수 있으나, 단순한 가상 디바이스 모듈로서의 기능 이 외에 실제 네트워크 디바이스들을 통제하여 활성화/비 활성화를 수행하며, 다양한 네트워크 인터페이스에 대한 투명화 기능, 상위 프로토콜 지원 기능, 패킷 사용량 통계 기능 및 패킷 통제 기능 등을 포함한다.</p> <p>그림 6은 CCM의 시스템 아키텍쳐를 도시한 것이다. 그림 6의 아키텍쳐에서 정의된 각 기능 모듈별 기능은 다음과 같다.</p> <ol type=1 start=1><li>CCM operation CCM 초기화 및 virtual device 관련 function call을 정의</li> <li>Device switch handler : System call interface를 통해 사용자로부터 받은 디바이스 모드 정보를 바탕으로 CCM에서 선택된 해당 디바이스로 스위칭을 수행하는 기능</li> <li>statistics : CCM 디바이스를 통해 전송하고 받은 패킷의 통계(statistics) 정보 등을 유지하는 모듈</li> <li>Slave device management : 실제 네트워크 디바이스에게 CCM에 활성화 혹은 비활성화하는 기능</li> <li>Frame/packet filter : 망 전환 시 표준에서 정의한 Mobile IP 동작을 지원하는 ICMP 패킷 통제 기능</li> <li>Packet queue control : 망 전환 시 기존망으로의 불 필요한 패킷 유입을 통제하기 위한 기능</li> <li>Device attach/detach : 실제 네트워크 디바이스들을 활성화 혹은 비활성화하는 기능</li> <li>Device statistics : 실제 네트워크 디바이스 관련 통계 정보를 얻어오는 기능</li> <li>MAC Address control : 실제 네트워크 디바이스에 할당되어 있는 MAC 주소 정보 획득 기능</li></ol> <p>다중 이종네트워크 인터페이스를 가지는 단말에서 다양한 네트워크 인터페이스들을 하나의 네트워크 인터페이스로 관리할 수 있다면 여러 가지 장점을 얻을 수 있다. 특히, 이동성 관리 모듈은 Mobile IP 입장에서 네트워크 인터페이스 종속성이 있는 3가지 요소가 있는데, 첫째는 이동성 검출을 위한 ICMP Raw Socket 제어 부분에서 소켓을 바인딩하는 인터페이스를 지정하는 것이고, 둘째는 FACoA 모드로 동작하는 모바일 노드가 다른 망으로 이동 할 경우 표준에서 ARP Disable을 정의하고 있어 이를 제어하는 인터페이스 지정 부분, 그리고 세 번째는 Route Entry 추가 시 특정 인터페이스를 지정해야 하는 것이다. 이러한 세 가지의 네트워크 인터페이스 종속성을 CCM을 도입함으로써 Mobile IP를 구현 차원에서 위 세 가지 종속성 문제를 고려하지 않아도 되므로 Mobile IP 구조가 매우 단순해진다. 즉, 공통된 하나의 인터페이스인 CCM만을 관리하면 되기 때문이다. 또한, 네트워크 인터페이스의 동적인 Plug-in/Plug-out 시에 네트워크 인터페이스에 대한 관리를 상위 계충에서는 제어할 필요가 없어진다. CCM에서 새로이 삽입된 디바이스가 검출될 경우에는 자체적으로 해당 디바이스 드라이버를 로딩하여 상위 계층에서 사용할 수 있도록 준비하고, 네트워크 인터페이스가 탈착될 경우에는 역으로 해당 디바이스 드라이버를 사용하지 않도록 설정하게 된다.</p> <h2>3.5 다양한 네트워크 연결 제어 모듈</h2> <p>\NSD는 새로운 네트워크 인터페이스가 단말에 추가될 경우 확장적으로 끼워넣을 (plug-in) 수 있는 구조로 설계된다. 본 연구에서 사용한 네트워크 인터페이스는 WiBro, CDMA 2000 1X EV-DO 및 WLAN 등이며, 각 각 네트워크 인터페이스에 대해 별도의 독립적인 CM이 해당 네트워크 인터페이스 모듈들을 표준적인 방식에 따라서 관리한다. 이를 그림 7에 도시한다. 3개의 이종 네트워크 인터페이스를 이용할 경우 어떠한 네트워크 인터페이스도 사용하지 않는 상태인 LOGOUT을 포함하여 4개의 가능한 상태가 존재한다. NSD에 의해 NEXT_NETWORK로 선택되는 값에 따라서 서로 다른 프로세싱이 이루어진다. 예를 들어, WLAN의 경우 사용자인증처리를 거쳐 디바이스를 활성화시키게 되면 WLAN을 바로 사용할 수 있는 상태가 되고, WiBro의 경우에는 \( \mathrm{WiBro} \) 에서 필요로 하는 MAC 개방 및 사용자 인증 처리를 거쳐 연결성을 맺으며, CDMA의 경우에는 PPP 데몬을 활성화시키고 이를 통해 IP 주소를 할당받아 네트워크를 가용 상태로 전환시킨다.</p>
|
CCM 모듈은 단순한 가상 디바이스 모듈로서의 기능 이 외에 실제 네트워크 디바이스들을 통제하여 활성화/비 활성화를 수행하며, 다양한 네트워크 인터페이스에 대한 투명화 기능, 상위 프로토콜 지원 기능, 패킷 사용량 통계 기능 및 패킷 통제 기능 등을 포함한다. NSD는 새로운 네트워크 인터페이스가 단말에 추가될 경우 확장적으로 끼워넣을 수 있는 구조로 설계된다. 각 각 네트워크 인터페이스에 대해 별도의 독립적인 CM이 해당 네트워크 인터페이스 모듈들을 표준적인 방식에 따라서 관리한다.
|
<h1>Ⅳ. IETF Mobile IP 기반 이종망간 핸드오버</h1> <h2>4.1 이종망간 핸드오버를 위한 MIP 구조</h2> <p>앞서 언급한 바와 같이 기존의 Mobile IP 표준에서는 다중 이종 네트워크 환경에 대한 고려를 하고 있지 않다. 표준 Mobile IP에서는 FA가 브로드캐스팅하는 ICMP Mobility Agent Advertisement (MAA) 메시지를 단말의 ICMP 계층에서 수신 이전의 FA 주소와 비교하여 다를 경우 이동했음을 감지하는 L3 이동성 검출 메카니즘에 근거하고 있다. 이동성을 검출 후에는 단말의 Mobile IP 에이전트에서 바인딩 요청 (Binding Request)을 HA로 전송하여 이동 단말로 전송되어야 하는 IP 패킷을 HA가 가로채어 (Proxy ARP) 새로이 바인딩된 FA의 주소로 터널링하므로써 패킷을 물리적인 현주소로 끊임없이 송신할 수 있는 단순한 구조를 가지고 있다.</p> <p>IETF Mobile IP의 이종 다중망 상황에서의 문제점은 서로 다른 이종 네트워크 인터페이스로부터 수신되는 ICMP MAA 메시지를 ICMP 계층에서 이동성 검출 이벤트로 해석하여 Mobile IP에 이동이 발생하였음을 지속적으로 Mobile IP 에이전트에 보고하여 결과적으로 불필요한 핸드오버 프로세싱이 일어나도록 한다는 것이다. 예를 들어, 현재 모바일 단말이 \( 100 \mathrm{Km} / \mathrm{h}\)의 속력으로 움직이며 HSDPA, WLAN 및 와이브로 망이 중첩된 통신환경에 처해 있다고 가정할 때, 모바일 단말은 WLAN이나 와이브로의 규격 상 이 모바일 단말을 지원할 수 없음에도 모바일 단말의 Mobile IP 모듈은 검출되는 모든 네트워크에 대한 바인딩 업데이트를 수행하려 할 것이고 그 결과 제어 메시지 폭풍 (Control Message Storm)을 유발할 것이다. 이는 전체 네트워크에 심각한 시그널링 오버헤드를 유발하며, 단말 차원에서도 자주 발생하는 핸드오버로 인해 패킷 손실 및 프로세싱 오버헤드가 발생하게 되어 단말 성능에 악영향을 미치게 된다. 이를 해결하기 위해 다중 이종망에 대한 최적의 망선택 기능은 NSD가 수행하고 그림 2에서 제시한 망전환 제어 프로세스는 NSC에 의해 처리된다. 이에 따라 단말의 Mobile IP 에이젼트는 NSC의 제어에 의해 Mobile IP 표준에서 정의한 L3 핸드오버 프로토콜을 수행만하면 되므로 이종망 상황에 대해서는 투명해질 수 있다. 그림 8에 Mobile IP와 \NSC의 제어 관계 및 핸드오버 처리 과정을 도식화하였다.</p> <p>또한, 본 논문에서는 KTF의 상용 HSDPA망을 사용하여 Mobile IP 프레임워크를 구현해야 하였기 때문에 CDMA망에 대해서는 FACoA(FA Care of Address) 방식이 아닌 CoCoA (Colocated Care of Address) 방식을 적용하였다. 즉, WLAN 상황에서는 FACOA 스택이 적용되고, HSDPA망에서는 CoCoA 스택이 동적으로 전환되며 적용되는 구조를 가지도록 설계되었다. 물론, 이러한 동적인 프로토콜 스택의 적용도 NSC의 제어에 따르게 된다.</p>
|
이종망간 핸드오버는 단말의 Mobile IP 에이전트가 FA와 HA 사이의 통신을 통해 단말의 새로운 주소를 공유하고, 두 네트워크 간의 통신을 위해 통신 규칙을 정의하는 구조를 갖고 있다. IETF Mobile IP 기반 이종망간 핸드오버는 단말의 Mobile IP 에이전트가 FA와 HA 사이의 통신을 통해 단말의 새로운 주소를 공유하고, 두 네트워크 간의 통신을 위해 통신 규칙을 정의하는 구조를 갖고 있다. 또한 L3 이동성 검출 메카니즘과 Proxy ARP를 통해 물리적인 현주소로 끊임없이 IP 패킷을 송신할 수 있는 구조를 가지고 있다.
|
<h2>4.2 AM4U 기반의 종합적 이종망간 핸드오버 절차</h2> <p>전체 MIPv4를 기반으로 한 AM4U 시스템에서의 신호세기 (RSS)를 이용하는 VHO 절차에 대해서 그림 9에 도시한다.</p> <p>초기에 모바일 단말이 구동되면, MIPv4 MN 에이젼트 프로세스와 AM4U 프로세스를 순차적으로 실행하게된다. 본 예제에서는 AM4U가 앞서 3.4절에서 기술한 바대로 다양한 선택요소에 의해서 망을 선택할 수 있으나, 예를 단순화하기 위해 RSS 기반의 자동 망선택 정책을 가정한다. 각 CM은 자신이 관리하는 AM4U단말에 탑재된 무선 네트워크 인터페이스들로부터 입력되는 신호값들을 주기적으로 읽어 들여 NSD에 알려주고 NSD는 이 정규화 된 신호값들을 비교하여 최적의 망을 선택한다. 예를 들어, WLAN망이 선택되면 NSD는 NSC에 선택된 망인 WLAN의 ID (Next_Net= 1\( ) \) 를 넘겨주고 NSC는 MIP에 핸드오버 요청 메시지를 보낸다. 동시에 NSC는 CCM에 WLAN으로 핸드오버를 준비할 것을 요청하면, CCM은 MIP로부터의 메시지가 새로이 선택된 WLAN 디바이스로 전송되도록 한다. 이후 프로세스는 표준 MIPv4 의 절차와 동일하므로 본 논문에서는 설명을 생략한다. 이후 주기적인 신호값 추출과정 중 WLAN의 신호값에 비해 HSDPA의 신호값이 커지는 상황이 검출되면 NSD는 HSDPA를 다음 망으로 선택하고 NSC에 HSDPA의 ID (Next_Net=2)를 넘긴다. NSC는 HSDPA CM에게 PPP 연결요청을 한다. 이는 앞서 기술한 Make Before Break 정책에 의해 Old Connection의 해제에 앞서 New Connection을 우선 연결하기 위함이다. WLAN의 경우에는 연결절차가 필요 없는 비연결형 네트워크 ((Connectionless network)이므로 이 과정이 생략된다. 그러나 HSDPA는 연결지향적 네트워크 (Connection oriented network)이므로 우선 L2 연결 및 L3 주소확보를 위한 신호절차가 필요하다. 연결이 형성된 이후에는 표준적인 MIP 프로토콜에 따라서 프로세스가 진행된다. BU (Binding Update) 메시지가 수신되면 MIP 모듈은 IPC를 통해 NSC에게 BU 수신을 알리고 NSC는 Old Connection인 WLAN CM에 연결해제 명령을 전달한다. WLAN은 이에 대한 ESSID를 해제하고 해당 네트워크 인터페이스로의 패킷의 송신을 차단하는 방식으로 절차를 종료한다.</p>
|
초기에 모바일 단말이 구동되면, MIPv4 MN 에이젼트 프로세스와 AM4U 프로세스를 순차적으로 실행하게 되는데, 본 예제에서는 AM4U가 앞서 3.4절에서 기술한 대로 다양한 선택요소에 의해서 망을 선택할 수 있어 각 CM은 자신이 관리하는 AM4U단말에 탑재된 무선 네트워크 인터페이스들로부터 입력되는 신호값들을 주기적으로 읽어 들여 NSD에 알려주고 NSD는 이 정규화 된 신호값들을 비교하여 최적의 망을 선택한다.
|
<h1>Ⅲ. AM4U 아키텍쳐 설계</h1> <h2>3.1 AM4U 시스템 아키텍쳐</h2> <p>AM4U시스템은 모듈 아키텍쳐에 기반하여 각 기능 모듈의 변경, 업그레이드 혹은 새로운 서비스로 시스템을 확장하는데 용이하도록 설계되었다. 모듈화 개념에 기반한 AM4U아키텍쳐를 그림 1에 도시한다. AM4U가 가지는 시스템 모듈들은 크게 망전환제어 모듈(NSC : Network Switching Controller), 망전환판단 모듈 (NSD : Network Switching Decision Module), 망연 결성 제어 모듈 (CM : Connection Manager), 공통접속 관리자 (CCM : Common Connection Manager) 및 에러복구 관리자 (ERM : Error Recovery Manager) 등이다. 그리고 NSC의 제어에 따라 L3 핸드오버를 수행하기 위한 MIP의 모바일 노드 모듈 MIPv4 MN과 HSDPA/CDMA 2000 1X EV-DO 등이 데이터 호 접속을 수행하기 위한 PPPD (Point-to- Point Protocol Daemon) 및 성능측정을 위한 Diagnostic system과의 인터페이스 등이 AM4U 플랫폼에 포함된다.</p> <h2>3.2 망전환제어 모듈</h2> <p>AM4U 시스템에서 망전환제어모듈은 전체 네트워크 스위칭 프로세스를 제어하며, 그림 2에 망전환 제어 모듈이 수행하는 이종망간 핸드오버 시 처리되는 절차를를 도시한다. 이를 단계별로 설명하면 다음과 같다.</p> <p>1단계, AM4U 시스템이 시작되면 가장 먼저 시스템에 저장된 사용자 선호 사항에 대한 설정 파일을 읽어들인다. 예를 들어, 초기 접속 네트워크에 대한 지정, 망 전환 제어 정책, 개인 인증 정보 및 디바이스 설정 정보 등을 읽게 된다. 2단계, 망전환 제어 정책이 자동 핸드 오버 (Automatic Handover)로 설정되어 있을 경우 AM4U는 시스템의 네트워크 상태를 자동으로 모니터링하는 자동모드로 진입한다. 자동 핸드오버가 아닌 수동적인 핸드오버를 수행하도록 설정되어 있을 경우에는 바로 핸드오버 처리를 수행하는 절차로 진입한다. 2단계에서 L2 radio 네트워크 라디오 신호값 (RSSI: Radio Signal Strength Index)을 지속적이고 정기적으로 읽게 된다. 3 단계, 입력된 RSSI 값을 포함하여 다양한 네트워크 규격 및 사용자 선호도 등을 복합적으로 판단할 수 있는 망선택판단 알고리즘을 통해 최적의 네트워크를 선택한다. 4단계, 이종망간 핸드오버를 해야 한다고 판단될 경우 NSC는 CCM에 핸드오버 시작 (Handover Initiation)을 알린다. 5단계, NSC는 핸드오버 대상인 새로운 망 인터페이스를 담당하는 CM (예, WiBro_CM, CDMA_CM, WLAN CM 둥)에 새로운 망으로의 연결을 맺도록 명령한다. 6단계, NSC는 Mobile IP 모듈에 L3 핸드오버 처리를 명령하고 L3 핸드오버가 성공적으로 완료되면 7단계로 기존의 네트워크 연결을 해제할 것을 해당 CM에 명령한다. 이를 그림 2에 도시한다.</p> <p>본 연구에서 수행하는 L3핸드오버 기법은 Mobile IP를 이용하되 L2 계층에서는 Make-Before-Break 방식을 수행한다. 즉, 새로운 망으로 L2 연결을 맺고 Mobile IP에 의한 L3 핸드오버를 수행한 후 기존 망과의 L2 연결을 해제하는 방식이다. 이 방식의 장점은 기존 망을 먼저 해제하게 될 경우 Mobile IP HA(Home Agent)와 old FA(Foreign Agent) 간의 터널 상에 흐르고 있을 패킷들이 old L2 연결을 해제함으로써 손실되는 불필요한 패킷 손실을 최소화할 수 있다는 점이다. 그러나 Mobile IP 바인딩 완료 메시지 (RP: Registration Reply) 메시지를 받은 후 old L2 연결을 해제하므로 미묘한 시간적 차이로 RP 메시지 수신 후 old L2 연결 해지 처리에 비해 늦게 도착하는 old FA-HA간의 터널링되는 패킷은 손실되게 된다. 그러나 이러한 패킷 손실은 매우 미미할 것으로 사료된다.</p>
|
논문에서는 시스템은 모듈 아키텍쳐 기반으로 각 기능 모듈의 변경과 업그레이드 혹은 새로운 서비스로 시스템을 확장하는데 용이하도록 설계되었는데 망전환제어 모듈(NSC)은 전체 네트워크 스위칭 프로세스를 제어하며, L3 핸드오버를 수행하기 위한 MIPv4 MN과 HSDPA/CDMA 2000 1X EV-DO 등이 데이터 호 접속을 수행하기 위한 PPPD 및 성능측정을 위한 Diagnostic system과의 인터페이스를 포함하고 있다. 망전환제어 모듈에서 핸드오버 시 처리되는 절차를 설명한다. 손실되는 불필요한 패킷 손실을 최소화할 수 있다는 점을 제시한다.
|
<h3>5.2.2 구문(syntactic) 매칭</h3> <p>서비스 이름(ServiceName)과 설명(Description)은 문자열로 구성되어 있다. 문자열에 대해 문자 일치 방법만 사용하면 너무 제한된 탐색이 이루어질 수 있기 때문에 좀더 유연한 매칭을 위해 정보검색 분야에서 널리 사용되고 있는 TF-IDF (Term Frequency-Inverse Document Frequency) 방법을 사용하여 매칭의 유사도를 구한다.</p> <p>TF-IDF 방법에서 각 단어의 가중치(term weight) \( w_{i k} \) 는 해당 문서에서 각 단어의 빈도 TF와 역문헌빈도(IDF)의 곱으로 나타낸다. 즉 \[ w_{i k}=\frac{t f_{i k} \log \left(N / n_{k}\right)}{\sqrt{\sum_{k=1}^{t}\left(t f_{i k}\right)^{2}\left[\log \left(N / n_{k}\right)^{2}\right.}} \]</p> <p>여기서, \( t_{i k} \) 는 \( i \) 번째 문서에서 단어 \( k \) 의 빈도이며, \( N \) 은 전체 문서의 수, \( n_{k} \) 는 \( k \) 가 출현한 문서의 수이다. 이를 이용한 질의와 문서 간의 유사도 \( \operatorname{sim}\left(Q, D_{i}\right) \) 측정은 cosine 방법으로 측정된다. 즉, \[ \operatorname{sim}\left(Q, D_{i}\right)=\frac{\sum_{j=1}^{t} w_{q j} \times w_{i j}}{\sqrt{\sum_{j=1}^{t}\left(w_{q j}\right)^{2} \times \sum_{j=1}^{t}\left(w_{i j}\right)^{2}}} \]</p> <p>여기서, \( Q=w_{q l}, w_{q 2}, \ldots w_{q t} \) 이고 \( D_{i}=w_{i 1}, w_{i 2}, \ldots w_{i t} \)이다.</p> <p>위 식을 이용하여 서비스 이름과 설명 유사도를 각각 계산할 수 있으며, 전체적으로 질의 템플릿 Q와 지식베이스에 있는 웹 서비스 S간의 구문 유사도(syntactic similarity) \( \operatorname{Syn} \operatorname{Sim} \)은 다음과 같이 계산된다.</p> <p>\( \operatorname{Syn} \operatorname{Sim}=\frac{w_{1} N a m \text { Sim }+w_{2} \text { DesSim }}{w_{1}+w_{2}} \)</p> <p>여기서, NamSim은 서비스 이름 유사도, DesSim 설명 유사도이며, \( w_{1} \) 과 \( w_{2} \) 는 각각의 가중치이다. 결과 값은 0 과 1 사 이의 실수값을 리턴한다.</p> <h3>5.2.3 시맨틱 매칭</h3> <p>단순한 키워드 기반 구문 매칭 방법은 의미(semantic) 있는 검색을 할 수가 없다. 전통적인 이 방식은 웹 서비스 발견 및 조합 과정에 반드시 사람의 개입을 필요로 함으로써 복잡한 비즈니스 환경에 적용하기 어렵다. 따라서 웹 서비스의 능력(capability)에 관한 의미 정보를 취급함으로써 이러한 제약을 완화하고 개방형 환경에서 동적 웹 서비스의 발견과 조합, 그리고 실행이 가능하게 할 수 있다.</p> <p>기존의 시맨틱 매칭 방법들은 웹 서비스의 입 •출력항목에 대한 의미 표현만을 기반에 두고 탐색을 수행하였다. 그러나 입 출력항목의 의미 특성이 동일하다고 하더라도 실제 서비스 내용에는 차이가 있을 수 있으므로 서비스 입 • 출력의 의미 일치만으로는 요구되는 기능을 발견할 수 없다. 좀 더 효과적으로 사용자가 원하는 서비스를 발견하기 위해서는 웹 온톨로지에 기반을 둔 지능적인 서비스 매칭 방법이 필요하다.</p> <p>본 논문에서 제안하는 시맨틱 매칭 알고리즘의 기본적인 원리는 질의 템플릿의 입력항목을 사용하여 원하는 출력을 산출해 낼 수 있는 웹 서비스들을 찾는 것이다. 이를 위해서 선택되는 웹 서비스는 분드시 템플릿의 출력항목을 포함하고 있어야만 하고, 이 서비스의 입력항목들은 템플릿의 입력항목에 포함되어 있어야만 한다. 이러한 원리를 기반으로 웹 서비스 틈색 알고리즘을 작성하면 (그림 4)와 같다. (그림 4)에서 \( \operatorname{Discovery}()\) 함수는 질의 템플릿 Q를 지식베이스에 있는 모든 웹 서비스 j와 비교한다. 만일 매치가 발견되면 기록되고 우선순위에 의해 정렬된다. \( \operatorname{Matching}()\) 함수는 먼서 템플릿 출력항목 Q.Os를 웹 서비스 출력항목 S.Os와 비교하여 유사도를 계산하고, 매치가 실패하지 않는다면 반대로 웹 서비스 입력항목 S.IS와 템플릿 입력항목 Q.Is를 비교한다.</p> <p>위 알고리즘에서 어떤 서비스들은 정확하게 매치되어 최종 결과로 선택되어 질 수도 있지만, 정확하지 않더라도 무조건 탈락되지 않고 상호 포함관계에 따라 우선순위가 정해 질 수도 있다. 따라서 본 연구에서는 웹 온톨로지 기반 유사성 측정기법을 적용하여 시맨틱 유사도를 구한다. OWL-S의 IOPE는 내장 데이타 타입이나 온톨로지에서 정의된 개념으로 기술될 수 있다. 따라서 입 출력항목 사이의 유사성은 두 가지 경우, 즉 내장 데이터 타입과 온톨로지 개념으로 구분하여 측정한다.</p>
|
TF-IDF방법은 정보검색 분야에서 매칭의 유사도를 위해 보편적으로 사용되고 있는 방법으로 이를 구하기 위해서는 단어의 가중치 문서간의 유사도가 필요며 단어의 가중치는 역문헌빈도와 단어빈도의 곱으로 구할 수 있고 문서간의 유사도는 코사인방법으로 구할 수 있다.
|
<h1>6. 워크플로우 실행</h1> <p>워크플로우 시작에서부터 점차적으로 하나씩 새로운 서비스가 첨가되어 웹 서비스 프로세스가 완성되고 나면 워크플로우 실행계획, 즉 WS-BPEL 스펙으로 자동 변환되어 실행엔진에 배치되고 워크플로우가 실행된다. OWL-S는 Sequence, If-Then-Else, Repeat-Until과 같은 프로세스 제어 구성자는 지원하고 있으나 실시간 환경에서 비지니스 프로세스의 조합 실행 기능은 제공하지 못하고 있다. 이러한 필요성에 따라 최근엔 WS-BPEL, WSCI, BPSS 등 여러 가지 웹 서비스 조합언어가 발표되었으나 이들 언어들은 시맨틱 개념을 지원해 주지 못하고, 수동으로 작업을 해야 하는 단점이 있다. 따라서 본 연구에서는 OWL-S 기반 동적 웹 서비스 조합 기법을 제안하였고, 완성된 워크플로우는 WS-BPEL 스타일의 실행계획으로 변환되어 BPEL 구현 엔진인 BPWS4J 에서 웹 서비스 조합이 실행되는 모듈을 구현하였다.</p> <p>SemanticBPEL 조합 시스템은 클라이언트-서버 프로그래밍 구조로 되어 있다. 클라이언트 측 프로세스 디자이너는 "드래그 \(&\) 드롭" 인터페이스 방식으로 워크플로우를 작성한다. 사용자로부터 질의 템플릿이 주어지면 다단계 웹 서비스 탐색 방법을 적용하여 우선순위별 후보 서비스 리스트 를 보여주고, 이들 중 가장 적합한 웹 서비스를 선택한다. 이러한 방식으로 점차적으로 하나씩 새로운 웹 서비스가 첨가되고 나면 최종 워크플로우가 완성된다.</p> <p>일단 워크플로우가 완성되고 나면 이를 서버 쪽에 전송하여 WS-BPEL 스팩으로 변환하고 BPWS4J 엔진에 배치시켜야 한다. 이를 위해 프로세스 디자이너에서는 완성된 워크플로우를 그래픽 형태로 서버에 전달한다. 서버는 이 그래프를 받아서 그래프 파서(Graph Parser)를 호출한다. 그래프 파서는 워크플로우를 파싱하여 관련된 WSDL과 WS-BPEL 파일을 만들어 클라이언트 측에 출력한다. 여기서 사용자가 '확인' 버튼을 클릭하면 서버 쪽의 BPEL 배치함수를 부른다.</p> <p>서버 쪽의 BPEL 배치함수는 IBM BPWS4J 엔진을 대신해서 기동된다. 이는 현재의 BPWS4J 엔진이 단지 웹 기반 관리자 툴을 통해서만 배치를 허용하기 때문에 엔진 그 자체로는 자동적인 BPEL 배치가 불가능하다. 따라서 프로그래밍 인터페이스가 지원되는 엔진 프록시를 만들어야 한다. 처리방법은 IBM 웹 서비스 Gateway 컴포넌트를 초기화한 후 SOAP RPC(Remote Procedure Call) 채널을 통해 WS-BPEL 문서를 BPWS4J 엔진에 배치한다.</p> <p>지금까지 설명한 워크플로우 실행 내용은 (그림 6)에서 보여주고 있다. 각 구획에서 SemanticBPEL 구성원들을 구 분하고 구성원들 간의 상호 작용을 통한 웹 서비스 조합 실행 과정을 액티비티 다이어그램을 사용하여 기술하였다.</p>
|
본 연구에서는 제안하는 워크 플로우는 OWL-S 기반 동적 웹 서비스 조합 기법을 기반으로 한다. 워크 플로우는 새로운 서비스가 첨가되면서 웹 서비스가 프로세스가 완성되고, 그 이후에 변환 되어 실행 엔진에 배치되는 실행계획을 거쳐 최종 실행된다. 구체적으로 보면 다단계 웹서비스 탐색을통해 서비스 리스트를 우선 순위별로 작성하고 이들 중 가장 적합한 웹 서비스를 선택한다. 이렇게 웹서비스가 추가되면 최종 워크 플로우가 완성되고 그 이후, 서버 쪽에 전송하여 WS-BPEL 스팩으로 변환하고 BPWS4J 엔진에 배치시키는 단계를 거친다.
|
<h1>1. 서 론</h1> <p>최근 IT 업계 전반에서 SOA(Service Oriented Architecture)는 큰 화두가 되고 있다. 이는SOA가 현재의 비즈니스 환경변화에 가장 적절히 대응할 수 있는 최적의 IT 전략이라고 보고 있기 때문이다. SOA는 오늘날과 같은 급속한 환경변화에 적시에 적응할 수 있는 유연성 있는 IT 시스템으로써 조직 내-외부의 프로세스와 애플리케이션들을 각각 서비스라는 기본적인 기능들로 나누어 이들 서비스들을 조립하여 원하는 기능을 구성한다. 하지만 SOA는 소프트웨어 아키텍처로 이러한 아키텍처를 구현하기 위한 구체적인 기 술들의 모음은 웹 서비스(web services)라 할 수 있다. 윁 서비스는 XML, SOAP, WSDL, UDDI, BPEL 등의 표준을 기본 구조로 하고 있으며 이러한 기술들은 SOA에서 요구되는 이기종 분산 플랫폼 상의 복잡한 애플리케이션 통합 문 제를 유연하게 해결할 수 있는 다양한 인터페이스를 제공하고 있다.</p> <p>그렇지만, 오늘날 웹 서비스의 눈부신 발전과 활발한 도입에도 불구하고 아직까지는 기업의 내부 통합 프로젝트에서만 이들이 사용되고, 외부 서비스들이 '온 디맨드(on demand)' 방식으로 연결되는 가상 엔터프라이즈 환경에서는 아직 활용되지 못하고 있는 실정이다. 이러한 주된 이유는 현재의 웹 서비스 기술들이 동적인 웹 서비스 발견 및 통합, 즉 반자동화된 웹 서비스 조합에 대한 적절한 기법을 제공하지 못하기 때문이다. 현재의 기술들은 자동 또는 반자동화를 위한 시맨틱 개념이 부족하여 프로그래머에 의한 수동으로 모든 작업이 수행되고 있다.</p> <p>현재 웹 서비스 조합에 관한 연구는 크게 두 가지 방향으로 추진되고 있다. 첫째는 IBM, Microsoft, BEA 등 대형 컴퓨터 업체들이 주도적으로 추진하고 있는 비즈니스 프로세스 관리(BPM: Business Process Management) 기법을 기반으로 한 웹 서비스 조합이다. WS-BPEL(Web Services Business Process Execution Language)과 같은 프로세스 실행 언어를 사용하는 이러한 기법들은 예외 상황이나 트랜잭션 처리와 같은 비즈니스 환경에서 요구되는 실질적인 전체 기능을 지원하고 있다. 그렇지만 이러한 기법의 주된 단점은 정적 조합 기법으로써 서비스 선택 및 프로세스 관리가 사전 에 수동으로 이루어져야만 한다. 이기족 분신 환경에서 수동으로 이러한 작업을 수행하는 것은 너무 시간이 많이 소비되고 복잡한 작업이 요구된다.</p> <p>둘째는 주로 학계에서 추진되고 있는 OWL-S(Web Ontology Language-Services)와 같은 시맨틱 웹을 기반으로 한 웹 서비스 조합이다. OWL-S는 자동적인 웹 서비스 발견 및 통합을 실현하기 위하여 기계 가독형으로 웹 서비스 기능을 묘사할 수 있는 메카니즘, 즉 온톨로지(ontology)를 사용한 다. 이에 따라 호환 가능한 웹 서비스들 간의 동적 통합이 가능하고, 웹 서비스 조합 실행 시에 서비스 실시간 탐색이 가능하다. 그러나 이러한 기법은 아직 성숙된 기술은 아니며, 실제 적용을 위해서는 BPWS4J와 ActiveBPEL과 같은 BPEL 스타일의 워크플로우 실행엔진이 필요하다.</p> <p>본 연구에서는 반자동 웹 서비스 조합 시스템을 구현하기 위해 위에 기술한 WS_BPEL 기법과 OWL-S 기법의 장점만을 채택한 새로운 SemanticBPEL 조합 기법을 제안한다. WS_BPEL 기법은 실제 비즈니스에 널리 사용되고 있으나, 정적 기법이어서 수동으로 조합을 수행해야 하므로 작업하기 어렵고, 시간이 많이 소비되며, 에러가 발생되기 쉽다. 이를 보완하기 위해 OWL-S 기법을 적용하면 동적으로 웹 서비스 발견 및 통합이 가능할 수 있다.</p> <p>본 연구와 유사한 반자동 웹 서비스 조합에 관한 연구는 METEOR-S 프로젝트에서 찾아볼 수 있다. METEOR-S는 워크플로우 기반 시맨틱 웹 서비스 조합 시스템으로서 시맨틱 템플릿을 작성하고 실행 프로세스를 만들어 이를 실행 엔진에서 수행하는 일련의 과정을 구현하고 있다. 그러나 이 시스템은 실제 비즈니스 적용보다는 이론에 더 많이 치중된 연구로서 엔터프라이즈 플랫폼에서는 아직 활용되지 못하는 실험실 수준인 단점이 있다. WS-Composer는 OWL-S를 사용한 반자동 웹 서비스 조합 시스템으로써, 조합을 수행하는 동간에 자체 탐색 알고리즘을 적용하여 목표 지향적인 대화식 조합 기법을 제안하고 있다. 그러나 이 시스템은 WS-BPEL은 고려하지 않았기 때문에 비즈니스 전반적인 워크플로우 처리 능력은 제공하지 못하고 있다. 스탠포드 대학 KSL 연구실에서는 웹 서비스 탐색 중계자인 SDS(Semantic Discovery Service'를 구현하였다. SDS에 서는 동적 웹 서비스 발견을 위해 WS_BPEL를 중심으로 OWL-S 개념을 도입한 보텀-업(bottom-up) 방식을 제안하 였다. 그러나 이 논문에서는 동적 웹 서비스 발견에 대한 방법론은 제시하고 있으나 본 연구에서 수행하고자 하는 웹 서비스 조합 기법에 대한 언급은 없다.</p> <p>본 연구에서는 기존의 연구들과는 달리 워크플로우 구성 및 질의 템플릿 작성, 동적 웹 서비스 발견 및 통합, 그리고 워크플로우 자동실행 등 비즈니스 프로세스 수명주기(life cycle) 전체 과정을 다루고 있다. 특히, 반자동 웹 서비스 조합 시스템을 구현하기 위해 본 논문에서는 다단계(multi-phase) 웹 서비스 탐식 방법을 새로 제안한다. 이 방법에서는 1단계로 분류코드에 따라 후보 웹 서비스 집합을 필터링(filtering)하고, 2단계로 구문 및 시맨틱 매칭 방법에 의해 우선순위별 서비스 리스트를 출력하며, 3단계로 QoS(Quality of Service) 정보를 이용하여 이들을 정제(refinement)하여 최종 결과물을 산출한다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서 관련 연구를 살펴보고 3장에서 하나의 가상 시나리오를 설명한다. 4장에서 시스템 구조를 소개하고 5장에서 웹 서비스 발견 및 통합 기법을 기술한다. 그리고 6장에서 워크플로우 실행 과정을 서술하고 7장에서 실험 및 분석을 수행한다. 마지막으로 8장에서 결론을 내린다.</p>
|
정적 기법인 WS_BPEL 기법은 수동 조합 기법으로 작업이 어렵고, 시간이 오래 걸리며, 에러 발생 가능성이 높다. 이에 반자동 웹 서비스 조합이 가능하며 동적인 웹 서비스 발견 및 통합을 위해, WS_BPEL 기법에 OWL-S 기법을 적용하여 다단계 웹 서비스 탐색이 가능한 SemanticBPEL 조합 기법을 제시한다. 또한 워크플로우 구성 및 질의 템플릿 작성, 동적 웹 서비스 발견 및 통합, 그리고 워크플로우 자동실행과 같은 비즈니스 프로세스 수명주기의 전 과정을 다루고자 한다.
|
<h1>3. 시나리오</h1> <p>본 연구를 위해 먼저 현실적으로 실제 일어날 수 있는 하나의 가상 시나리오를 설명하고 여기에서 야기되는 새로운 이슈들을 살펴본다.</p> <p>"학회 참석을 위한 여행 계획을 작성하라"와 같은 질의에 대해 먼저 설계자는 프로세스 디자이너(process designer)를 통해 (그림 1)과 같은 워크플로우(Workflow)를 작성한다. 전통적인 워크플로우 구조에는 순차, 병행, 선택, 반복 등이 있다.</p> <p>(그림 1)에서 회사 직원이 학회 참석을 원할 때 먼저 내부 결재 과정을 거친다. 그림에서 이 부분은 '시작'으로 표시되어 있으며, 워크플로우의 복잡성을 피하기 위해 이 부분은 자세히 표시하지 않았다. 일단 승인이 완료되면 학회정보와 사용자정보를 얻고 항공권 및 호텔예약이 이루어진다. 학회정보 태스크는 학회이름으로 날짜, 기간, 개최장소 등에 대한 정보를 얻는다. 이 정보를 얻기 위해 학회등록 웹 서비스가 선택되고 워크플로우에 링크된다. 사용자정보 태스크는 사내 웹 서비스를 사용하여 사원 ID로 사원 신상정보 를 검색한다. 항공권예약 태스크는 학회날짜, 기간, 장소, 그리고 신상정보를 이용하여 항공권예약을 수행한다. 마지막으로 호텔예약 태스크는 호텔예약 웹 서비스를 사용하여 여행일정에 따라 필요한 호텔예약이 이루어진다. 일단 항공권 과 호텔예약이 끝나면 확인과 조정 작업이 이루어지는데, 이 부분은 '끝'으로 표시되어 있다.</p> <p>설계자는 (그림 1)가 같은 워크플로우를 거의 완성하였으나, 다만 항공권예약 태스크는 적절한 웹 서비스를 찾지 못하였다. 이를 완성하기 위해 설계자는 적합한 항공권예약 웹 서비스를 찾아서, 기존 워크플로우에 이 웹 서비스를 결합 (binding)시켜야만 한다. 여기에서 설계자에게 두 가지 큰 문제가 발생하게 된다. 첫째, 탐색 문제: 기존 시스템과는 달리 인터넷 상에는 수없이 많은 웹 서비스들이 존재하므로 이들 중에서 가장 적당한 것을 찾는 일은 너무 시간이 많이 소비되고 지루한 일이 된다. 이러한 작업을 수동으로 수행하는 것은 거의 불가능하게 보이며 이를 효율적으로 지원할 수 있는 웹 서비스 탐색 메카니즘이 제공되어야 한다. 둘째, 통합 문제: 일단 웹 서비스가 발견되었더라도 완벽하게 워크플로우에 일치되고 상호 운용 가능하리라고는 보장할 수 없다. (그림 1)에서 설계자는 발견된 항공권예약 웹 서비스의 입력부분을 학회등록과 사용자정보 웹 서비스의 출력부분과 연결시켜야 하고, 출격부분을 호텔예약 웹 서비스의 입력부분과 연결되어야 한다. 하지만 발견된 웹 서비스가 입출력 인터페이스 부분에서 구조적으로 또는 의미적으로 상이할 수 있으므로 이 작업을 효율적으로 지원할 수 있는 통합 메카니즘이 필요하다.</p>
|
연구를 위해 가상 시나리오를 설명하고 새로운 이슈를 살펴보았을 때, 어떤 질의에 대해 설계자는 우선 프로세스 디자이너를 통해 워크플로우를 작성한다. 이러한 워크플로우 구조에는 순차,병행,선택,반복 등으로 구성된다. (그림 1)에서 설계자는 웹 서비스의 입력부분을 학회등록과 사용자정보 웹 서비스의 출력부분과 연결시켜야 하고, 출격부분이 호텔예약 웹 서비스의 입력부분과 연결되어야 하는데 구조적으로나 의미적으로 상이할 수 있어 효율적으로 작업을 지원할 수 있는 메커니즘이 필요하다.
|
<h1>4. 시스템 구조</h1> <p>WS-BPEL 기법과 OWL-S 기법을 융합한 SemanticBPEL 조합 시스템의 전체적인 구조는 (그림 2)와 같으며, 서비스 공급자(provider), 서비스 사용자(requester), 그리고 서비스 중개자(broker)로 구성되어 있다. 이는 SOA의 기본 구조를 따르고 있다. 서비스 중개자는 계획 에이전트(planning agent), 탐색 엔진(search engine), 그리고 등록 모듈(register module)로 이루어져 있으며, SOA의 ESB(Enterprise Service Bus) 역할을 수행한다.</p> <p>SemanticBPEL 조합 시스템은 처음부터 완전히 새롭게 개발된 것이 아니라 본 연구실에서 이미 개발되어 있는 관련 시스템들을 기반으로 추가 기능들이 확장 - 발전되었다. 본 연구실에서는 이전에 ASP(Application Service Provider)를 위한 워크플로우 기반 서비스 중개자 시스템인 IMP(Internet MarketPlaces)를 개발하였다. 이후, 웹 서비스 기술이 이 기종 분산 컴퓨터 프로그램들을 통합할 수 있는 하나의 강력한 수단으로 많은 관심을 받게 됨에 따라 IMP를 동적 웹 서비스 조합을 위한 DWSC(Dynamic Web Service Composition)시스템으로 그 기능을 확장 발전시켰다. 그렇지만 DWSC시스템에서는 비즈니스 워크플로우 전체 과정을 다룬 것이 아니라 웹 서비스 매칭 알고리즘만 소개되었다. DWSC의 다음 버전인 시맨틱과 워크플로우 혼합(hybrid) 시스템에서는 DWSC 자체 워크플로우 실행엔진의 기능적 한계 때문에 BPWS4J 엔진으로 대치되었고, GUI 기반 워크플로우 디자이너가 새로 개발되었다. 한편, 본 연구의 SemanticBPEL 조합 시스템에서는 기존의 DWSC 기능과는 달리 비즈니스 프로세스 수명 주기 전체 과정의 반자동화를 다루게 되며, 동적 웹 서비스 발견 및 통합 문제를 해결하기 위해 다단계 웹서비스 탐색 방법이 제안된다.</p> <p>SemanticBPEL 조합 시스템에서 공급자는 메타 데이터를 사용하여 웹 서비스를 등록할 수 있어야 하고 사용자는 계획 에이전트를 이용하여 웹 서비스 조합 및 실행을 수행할 수 있어야 한다. 공급자는 자신의 웹 서비스를 등록하기 위해 등록 모듈을 접속한다. OWL-S로 작성된 웹 서비스 객체는 OWL-S 파서에 의해 파싱된 후 웹 서비스 등록기(register)에 전달되고, WSDL은 바로 웹 서비스 등록기에 전달된 후 지식 베이스(knowledge base)에 저장된다. 서비스 사용자는 프로세스 디자이너를 사용하여 워크플로우를 완성하고 계획 에이전트로부터 이를 WS-BPEL 스팩으로 변환한 후 WS4J 엔진에 워크플로우를 배치(deploy)한 후 웹 서비스 조합을 실행한다.</p> <p>사용자 처리과정을 좀 더 자세히 살펴보면, 사용자는 먼저 프로세스 디자이너를 사용하여 비즈니스 프로세스를 작성하는데, 탐색이 요구되는 태스크는 지식베이스로부터 적합한 후보 서비스들이 발견되도록 먼저 질의 템플릿을 작성한다. 그리고 난 후 탐색 엔진은 질의 템플릿을 기반으로 웹 서비스 발견 과정을 수행한다. 특히 본 논문에서는 다단계 웹 서비스 탐색 방법을 통해 유사 값에 의한 우선순위별 후보 서비스들을 리턴한다. 이들 중 사용자가 가장 적합한 웹 서비스를 선택하면 프로세스 디자이너는 프로세스 전후 관계에 따라 새로운 웹 서비스를 기존 워크플로우에 결합한다. 최종적으로 이 워크플로우는 계획 에이전트에 의해 WS-BPEL 로 변환되고 이 실행 계획은 BPWS4J 엔진에 의해 프로세스가 실행된다.</p>
|
SemanticBPEL 조합 시스템의 전체구조는, 서비스 공급자(provider),서비스 사용자(requester),그리고 서비스 중개자(broker)로 구성된다. 서비스 중개자는 계획 에이전트(planning agent), 탐색 엔진(search engine), 그리고 공급자는 웹 서비스를 등록 후 사용자는 웹 서비스 실행을 공급자는 등록 모듈을 접속하고,다수의 사용자는 프로세스 디자이너를 사용 워크플로우를 완성 후 계획 에이전트로부터 WS-BPEL 스팩으로 변환 후 WS4J 엔진에 워크플로우를 배치한 후 웹 서비스 조합을 실행한다.
|
<h1>7. 실험 및 분석</h1> <p>실험의 목적은 본 돈문에서 제안하는 다단계 웹 서비스 탐색 방법의 우수성을 보이는 것이다. 전통적인 웹 서비스 탐색 방법은 UDDI를 이용한 키워드 기반 검색만 지원하고 있다. 이너한 키워드 기반 검색 방법에 비해 다단계 웹 서비스 탐색 방법이 얼마나 효율적으로 수행되는지 두 방법을 비교•분석하였다.</p> <p>실험은 MS Window Server 2003 버전에 Apache Tomcat 5.5와 Axis 1.3이 설치된 \( 3.20 \mathrm{GHz} \) Intel CPU에서 수행되었다. WS-BPEL로 작성된 워크플로우 실행은 IBM BPWS4J 엔진에서 수행되었고, 프로세스 디자이너 구현을 위한 그래픽 툴은 opengraph graphing 팩키지를 사용하였다. 그리고 OWL-S 파서와 등록기는 매릴랜드 대학의 OWL-S API 모듈을 이용하였으며, 이런 툴들을 기반으로 한 시스템 구현 작업은 IBM Eclipse 개발 환경에서 수행되었다.</p> <p>시맨틱 웹 서비스들은 현재 연구가 활발히 진행되고 있는 분야이므로 아직까지 적합한 실세계 테스트 데이터들이 이용 가능하지 않다. 따라서 다단계 웹 서비스 탐색 방법의 성능을 분석하기 위해 xmethods.net에서 제공하고 있는 기존의 웹 서비스들을 이용하였다. 이 사이트로부터 508개의 WSDL 파일을 다운로드 받아 OWL-S 온톨로지와 NAICS 분류체계에 맞게 수정하여 지식레이스에 저장하였다.</p> <p>평가 방법은 정보검색에서 가장 보편적으로 사용되고 있는 재현율(recall)과 정확률(precision)을 사용한다. 본 실험의 경우는 서비스 집합과 질의 모두 웹 서비스이므로 재현율과 정확률은 다음과 같이 정의된다.</p> <p>재현율 \( =\frac{\text { 검색된 서비스들 중 같은 부류에 속하는 웹 서비스의 수 }}{\text { 같은 부류에 속하는 웹 서비스의 수 }} \)</p> <p>정확률 \( =\frac{\text { 검색된 서비스들 중 같은 부류에 속하는 웹 서비스의 수 }}{\text { 검색된 웹 서비스의 수 }} \)</p> <p>실험은 기존의 키워드 기반 검색 방법과 제안된 다단계 탐색 방법 중 1단계(필터링), 2단계(유사도 측정), 그리고 3단계(정제)에 대해 각각 검색된 웹 서비스의 수와 재현율-정확률을 측정하였다. 이에 대한 결과는 (그림 7), (그림 8) 과 같다.</p> <p>재현율과 정확률은 모두 높을수록 성능이 좋다. 하지만 이들은 서로 반비례의 관계가 있어 한쪽을 높이면 다른 한 쪽이 내려가는 것이 보통이다. 1단계는 탐색 효율을 향상시키기 위해 NAICS 분류체계에 따라 전체 웹 서비스들 중에서 후보 웹 서비스 집합을 단순히 필터링시키는 것이다. 실험 결과 1 단계에서 검색된 웹 서비스의 수는 키워드 검색보다 횔씬 많다. 이는 xmethods.net에 등록된 웹 서비스들이 아직까지는 다양한 산업분야에 걸쳐서 개발된 것이 아니라 주로 컴퓨터 분야에 치우쳐 있어서 이러한 내용을 위주로 검색을 수행했기 때문이다. 향후 웹 서비스 개발이 다양한 분야로 확산되면 필터링은 큰 효과를 볼 수 있을 것이다. 1단계에서는 최종 결과 가능성이 있는 후보 서비스들을 임시 저장소에 여과시키는 과정이므로 재현율은 상당히 높은 반면 정확률은 상당히 낮은 경향을 보이고 있다.</p> <p>2단계는 1 단계의 결과를 가지고 구문 및 시맨틱 매칭을 수행하여 유사도가 0인 서비스들을 제외시킨 우선순위별 리스트를 구하는 것이다. 유사도가 0인 것은 질의와 전혀 관계없는 서비스들이므로 이들을 제거하면 정확률을 향상시킬 수 있다. 실험 결과 2단계에서 검색된 웹 서비스의 수는 상당히 많이 줄어들었으며, 재현율과 정확률도 키워드 검색에 비해 각각 \( 25 \%, 22 \% \) 개선된 것을 알 수 있다.</p> <p>한편, 3단계는 QOS 제약조건에 위배되는 서비스들을 제거하여 품질이 좋은 서비스만 정제하는 단계이므로 재현율 및 정확률 향상과는 큰 관련이 없다. 측정된 QOS 매트릭스 값을 기반으로 질의 제약조건을 적용한 결과 검색된 웹 서비스의 수는 예측된 바과 같이 2단계.보다 약간 줄어들었다. 이로 인해 재현율과 정확률을 다시 계산한 결과 재현율은 조금 하락하고, 정확률은 조금 상승되었다. 이러한 실험 분석 결과는 다단계 웹 서비스 탐색 방법이 기존의 키워드 기반 검색 방법보다 성능이 우수함을 보여주고 있다. 검색 시간도 수없이 많은 웹 서비스들이 존재할 경우 빠른 필터링 기법에 따카 상당한 성능 향상이 기대된다.</p>
|
이 실험은 제안된 다단계 탐색 방법의 우수성을 알아보기 위해 웹서비스의 수와 재현율-정확률을 측정하는 3단계 과정을 설명하였다. 1단계는 최종결과 가능성을 가진 후보들을 임시저장소에 여과시키는 필터링 과정이고, 2단계는 1단계의 결과로 유사도가 0인 서비스를 제외시켜 우선순위별 리스트를 얻는 것이다. 그리고 3단계는 QOS 제약조건에 위배되는 서비스들을 제거하는 단계이다. 이런 결과를 분석한 결과, 기존의 키워드 기반 검색방법보다 다단계 웹 서비스 탐색 방법의 성능이 우수함을 알 수 있었다.
|
<h1>2. 관련연구</h1> <p>웹 서비스 조합에 관한 연구는 두 가지 방향, 즉 BPM 기반과 시맨틱 기반 웹 서비스 조합 기법으로 진행되고 있다. 이 장에서는 이들에 대한 기술 동향을 먼저 기술하고, 본 시스템과 유사한 관련연구들을 살펴본다.</p> <h2>2.1 BPM 기반 웹 서비스 조합 기법</h2> <p>BPM은 실시간으로 비즈니스 프로세스를 변경하고, 개별적으로 관리되었던 비즈니스 프로세스를 수명주기 전체에 걸쳐서 일관성 있게 관리하기 위한 경영관리 기법이다. 전통적인 BPM은 프로세스 가시화와 자동화 측면에서는 매우 매력적이었지만, 조직 내 - 외부의 다양한 자원에 대한 유연성은 떨어졌고 재사용성도 비교적 약한 모습을 보여줬다. 그러나 최근의 SOA 기반 BPM에서는 프로세스 가시성과 자동화를 재고하면서도 유연하게 자원들을 사용할 수 있고 재사용의 장점도 제공하고 있다.</p> <p>현재의 BPM 표준들은 BPM 핵심기능이라 할 수 있는 프로세스 모델링(예, BPMN,UML), 실행(예, WS-BPEL, XPDL, WSCI), 그리고 모니터링(예,BPQL, BAML)에 초점이 갖추어저 있다. 이들 중 웹 서비스와 관련이 있는 표준은 WS-BPEL이며, WS-BPEL은 기본적으로 비즈니스 프로세스를 구현하는 언어이다. SOA 기반 BPM에서는 그래픽 모델링 툴에서 비즈니스 프로세스를 모델링하면 이 그래픽 데이터는 웹 서비스들의 조합인 WS-BPEL로 변환되고 BPM 실행엔진에 의해 프로세스가 실행된다.</p> <p>WS-BPEL이 비즈니스 커뮤니티에서 성공할 수 있었던 가장 큰 요소는 첫째, 비즈니스 분야에서 성공적으로 활용되고 있는 기존의 워크플로우 관리 기법을 바탕으로 개발되었기 때문에 비즈니스 프로세스의 상호 관계를 모델링하기가 매우 쉬웠으며, 둘째로는 IBM, Microsoft, BEA, SAP 등 주요 IT 벤더들이 자사의 많은 관련 제품들을 WS-BPEL 기반으로 구성함에 따라 다른 기술들보다 산업 전반에 빠르게 전파될 수 있었다. WS-BPEL이 SOA 오케스트레이션(orchestration) 언어가 되기에는 아직 부족한 점이 많음에도 불구하고 이젠 많은 유명 연구기관들로부터 확고한 표준으로 보고되고 있다.</p> <h2>2.2 시맨틱 기반 웹 서비스 조합 기법</h2> <p>OWL-S는 가장 최근에 발표된 시맨틱 기반 웹 서비스 언어이다. OWL-S 온톨로지는 기계 가독형으로 웹 서비스 기능을 묘사할 수 있는 메카니즘을 제공한다. 이 메카니즘은 자동화된 웹 서비스 발견 및 통합을 가능하게 만든다.</p> <p>OWL-S는 서비스를 기술하기 위해 presents, describedBy, supports의 세 가지 속성을 선언하고 있으며, 이는 서비스 프로파일(Profile), 서비스 모델(Model), 서비스 그라운딩(Grounding)의 세 가지 클래스로 구성된다. 즉 OWL-S는 기계가 처리할 수 있는 형태로 서비스를 표현하기 하기 위해 세 가지 클래스를 이용하여 서비스 온톨로지를 기술한다. 서비스 프로파일은 에이전트가 서비스를 탐색하는데 필요한 정보를 제공하고 있으며, 서비스 모델 및 그라운딩은 에이전트가 서비스를 사용할 수 있도록 충분한 정보를 제공하고 있다. 본 연구에서는 서비스 탐색 및 통합 문제를 해결하기 위해 주 로 서비스 프로파일을 이용한다.</p> <p>서비스 프로파일 클래스를 자세히 살펴보면 서비스 제공자에 대한 정보(what organization provides the service), 서비스를 처리하기 위한 기능에 대한 정보(what function the service computes), 그리고 서비스의 특성을 구체화한 특징(features that specify characteristics of the service)에 관한 정보를 포함하고 있다. 서비스 제공자에 대한 정보는 서비스를 제공하는 조직의 연락처 및 관련된 정보를 포함한다. 기능에 대한 정보는 서비스에 의해 처리되는 변환 내용을 담고 있다. 구체적으로 설명하면, 서비스의 실행을 위해 요구되는 입력(input)과 생성된 출력(output), 그리고 서비스 실행 전에 요구되는 외부적 조건 및 서비스를 통한 효과에 대한 정보를 기술하고 있으며 프로파일에서는 이러한 정보를 전제조건(preconditions)과 효과(effects)로 명시하고 있다(이를 IOPE 라고 한다). 마지막으로 특징에 관한 정보는 제공된 서비스의 카테고리(category), 품질 등급(quality rating), 서비스 매개변수(parameter)를 포함하고 있다.<표 1>는 서비스 프로파일 온톨로지 내용을 기술한 것이다.</p> <h2>2.3 반자동화된 웹 서비스 조합 시스템</h2> <p>본 연구와 가장 유사한 시스템으로는 조지아 대학 LSDIS 연구실에서 진행되고 있는 METEOR-S 프로젝트에서 찾아볼 수 있다. METEOR-S는 본 연구와 비슷하게 시맨틱 템플릿을 사용하여 이를 워크플로우 실행계획으로 변환한 후 실행엔진에서 웹 서비스 조합을 실행하는 일련의 과정을 기술하고 있다. 그러나 이 시스템은 실제적인 적용에 중점을 둔 것보다는 이론에 더 많이 치중된 연구로서 각 프로세스 수행 과정이 본 연구와 전혀 다르다. 웹 서비스 매칭 알고리즘은 [11]에서 제안한 알고리즘을 확장한 것으로서 본 논문에서와 같은 OWL-S 온톨로지 처리 메카니즘은 고려하지 못하고 있으며, QoS 처리의 ILP(Integer Linear Programming) 모듈은 너무 이론적이어서 실제 비즈니스 프로세스에 적용하기에는 비현실적이다. 또한 본 연구에서는 METEOR-S와는 달리 엔진 프록시를 자체 개발하여 독자적인 워크플로우 실행환경을 구축하고 있다.</p> <p>매릴랜드 대학 Mindswap 연구실에서 개발한 WS-Composer는 OWL-S 기반 반자동 웹 서비스 조합 시스템으로서, 조합을 수행하는 동안에 웹 서비스 필터링 및 선택을 지원하는 matchmaking 알고리즘을 사용하여 목표 지향적이고 대화식 조합 기법을 제안하고 있다. 그러나 이 시스템에서는 BPM 기법은 고려하지 않았기 때문에 비즈니스 환경에서 요구되는 전체 기능을 제공하지 못하고, 워크플로우 실행엔진이 미비한 아직 성숙된 기술이 아닌 단점이 있다. 스탠포드 대학 KSL 연구실에서는 동적 웹 서비스 발견을 위해 WS-BPEL를 중심으로 OWL-S 개념을 도입한 보텀-업(bottom-up) 방식을 제안하였다. 이 연구실에서는 WS-BPEL 구현 엔진인 BPWS4J가 확장 가능하지 못하기 때문에 웹 서비스 탐색을 위한 중개자로써 SDS를 구현하였다. SDS는 비록 동적 웹 서비스 발견은 지원하고 있으나, 본 논문에서 수행하고자 하는 웹 서비스 조합 전반적인 내용에 대해서는 고려하고 있지 않다.</p>
|
WS-BPEL은 BPM 기반 웹 서비스의 비즈니스 프로세스를 구현하는 언어로 비즈니스 분야에서 성공적으로 활용되고 있는 기존의 워크플로우 관리 기법을 바탕으로 개발되었다. 비즈니스 프로세스의 상호 관계를 모델링하기 쉬우며, IBM, Microsoft, BEA, SAP 등 주요 IT 벤더들이 자사의 많은 관련 제품들을 WS-BPEL 기반으로 구성함에 따라 다른 기술들보다 산업 전반에 빠르게 전파될수 있는 장점이 있고, 시맨틱 기반 웹 서비스 언어인 OWL-S는 기계 가독형으로 웹 서비스 기능을 묘사할 수 있는 메카니즘을 제공하고, 자동화된 웹 서비스 발견 및 통합을 가능하게 만든다.
|
<h2>3.4 추천을 위한 콘텐츠 메타데이터 설계</h2> <p>소비자의 감성과 소비유형을 포함하는 참조그룹에 대하여 적절한 콘텐츠를 추천하기 위해서는 개별 콘텐츠에 대하여 소비자 참조그룹에 대한 추천등급(선호도)을 메타데이터로 구성해야 한다. (그림 6)은 소비자의 참조그룹에 대하여 콘텐츠 추천을 위한 RecommendationSet Description Scheme 이다. 소비자 감성(Affection)과 소비유형(ConsumptionType)에 대한 콘텐츠 선호도(Preferences)를 유지함으로써 소비자의 감성과 소비유형에 따라 추천이 가능하도록 한다. 소비 유형은 효용적 동기(Utility)와 쾌락적 동기(Pleasure)에 따라 \( \mathrm{low} / \mathrm{high} \) 값을 갖는다.</p> <p>(그림 7)은 RecommendationSet을 포함하는 Contents Recommendation Description Scheme의 예를 보인다. 콘텐츠 ' Moviel'(4번 라인)은 소비자의 감성이 '행복(happiness)' 이고(10번 라인), 소비유형이 '저실용/고쾌락(low-utility/high-pleasure)'일 때(11-14번 라인), 선호도(Preferences) '10'으로 추천될 수 있다(15번 라인).</p> <h2>3.5 콘텐츠 추천 알고리즘</h2> <p>콘텐츠 추천 알고리즘에서 먼저 고려되어야 할 사항은 언 제 소비자에게 콘텐츠를 추천할 것인가와 콘텐츠에 대한 소비자의 선호정보(Preferences)를 어떻게 최신으로 유지할 것 인가이다.</p.<p>본 연구에서는 소비자 프로파일 항목 중에서 content 항목에 값이 없는 경우를 콘텐츠 추천 시점으로 한다. 소비자 프로파일의 content 항목에 값이 있다는 것은 소비자가 해당 콘텐츠를 요청했다는 것을 의미하며, 이 경우에는 해당 콘텐츠를 전달한다. 반대로 content 항목에 값이 없는 경우에는 소비자가 콘텐츠를 요청하지 않았다는 것을 의미하며, 이 경우에는 추천 콘텐츠 목록을 전달한다.</p> <p>콘텐츠에 대한 소비자의 선호정보(Preferences)를 최신으로 유지하기 위해서는 추천된 콘텐츠를 소비자가 요청했을 경우 또는 콘텐츠를 소비한 후에 선호정보를 입력했을 경우, 선호정보를 갱신해 주어야 한다. 따라서 콘텐츠 추천 알고리즘에서는 소비자가 추천된 콘텐츠를 요청하였을 경우 또는 선호정보를 입력했을 경우에 선호정보를 갱신한다. 소비자의 프로파일로부터 소비자가 어떠한 소비유형에 속하는지를 분류하고, 소비자의 감성정보를 이용하여 선호도가 높은 콘텐츠를 순위화하여 추천하는 콘텐츠 추천 알고리즘은 다음과 같다.</p> <p>ContentsRecommendation 알고리즘에서 소비자가 특정 콘텐츠에 대한 서비스를 요청하였는지 또는 콘텐츠를 추천 할 것이지를 확인하는 방법은 소비자 프로파일의 특성 중에서 content 항목의 값을 이용한다. content항목의 값이 없는 경우(2번 라인)에는 콘텐츠의 추천이 필요한 것이므로 추천 콘텐츠 목록을 전달하고(3-4번 라인), content 항목의 값이 있는 경우(6번 라인)에는 특정 콘텐츠를 요청한 것이므로 해당 콘텐츠의 선호정보를 갱신하고 (7번 라인) 해당 콘텐츠를 전달한다.</p>
|
소비자의 감성과 소비유형을 포함하는 참조그룹에 대하여 적절한 콘텐츠를 추천하기 위해서는 개별 콘텐츠에 대하여 소비자 참조그룹에 대한 추천등급(선호도)을 메타데이터로 구성해야하므로 본 연구에서는 소비자 프로파일 항목 중에서 content 항목에 값이 없는 경우를 콘텐츠 추천 시점으로 한다.콘텐츠 추천 알고리즘에서 고려 사항은 언제 소비자에게 콘텐츠를 추천할 것인가와 콘텐츠에 대한 소비자의 선호정보(Preferences)를 어떻게 최신으로 유지할 것 인가인데 콘텐츠 추천 알고리즘에서는 소비자가 추천된 콘텐츠를 요청했을 시와 선호정보를 입력했을 경우에 선호정보를 갱신한다.
|
<h1>요 약</h1> <p>협업여과 기법은 추천 시스템에서 널리 사용되는 기술이지만, 소비자의 참조그룹을 선정하는 방법에 따라 추천의 정확도가 달라지는 특성을 가지고 있다. 이에 본 논문에서는 콘텐츠 추천의 정확도를 높이기 위하여 소비자의 감성과 소비유형을 참조그룹으로 하여 협업여과기반으로 콘텐츠를 추천하는 기법을 제안한다. 소비자의 감성을 기쁨, 슬픔, 혐오, 행복, 이완 다섯 가지로 구분하고, 소비유형을 저실용/저쾌락, 저실용/고쾌락, 고실용/저쾌락, 고실용/고쾌락 네 가지로 구분하여 콘텐츠 추천 기법의 성능을 분석한 결과, 본 논문에서 제안하는 기법으로 콘텐츠를 추천한 경우가 소비자 감성과 소비유형을 고려하지 않은 전체 참조그룹으로 추천한 경우 보다 정확도가 향상됨을 확인하였다.</p> <h1>1. 서 론</h1> <p>최근 인터넷의 발달로 다양한 정보의 홍수 속에서 소비자가 원하는 콘텐츠를 찾는 것이 점차 어려워지고 있다. 따라서 소비자가 원하는 콘텐츠를 찾아내고, 찾아낸 콘텐츠를 순서대로 순위화 해주는 콘텐츠 추천 기법의 중요성이 부각되고 있 다. 그러나 지금까지의 콘텐츠 추천기법들 대부분은 소비자의 선호도에 기반한 것들이고[1], 최근에 들어서 소비자의 상황 인식(Context-aware)에 기반한 추천기법들이 연구되고 있으나[10][17], 소비자의 감성을 이용한 연구는 많지 않은 상태이다. 그 이유는 소비자의 감성을 파악하는 것이 어려웠으며, 구분할 수 있는 감성의 종류도 많지 않았기 때문이다.</p> <p>하지만, 유비쿼터스 시대가 도래함에 따라 BSN(Body Sensor Network)을 이용한 소비자의 다양한 감성측정이 가능하게 되었다[18]. 또한 현대의 소비자 욕구는 대중적인 수준에서 개인적인 수준으로 변화하여 자신의 감성에 맞는 콘텐츠를 요구하는 방향으로 변화해가고 있기 때문에, 소비자의 감성은 콘텐츠를 선택하는 매우 중요한 요소 중 하나로 부각되고 있다[13]. 따라서 이러한 소비자의 변화에 대응하여 소비자의 감성에 따라 적절한 콘텐츠를 제공해 주는 기술이 콘텐츠를 공급하는 측에서 요구되고 있다[9].</p> <p>추천 시스템을 구성하는 방법에는 크게 내용기반 추천 기법(Content-based Filtering)과 협업여과 추천 기법(Collaborative Filtering)이 있다. 내용기반 추천 기법은 소비자의 선호 정 보를 제공 받아 그와 가장 유사한 아이템을 검색해 주는 기법이며, 협업여과 추천 기법은 추천할 대상 콘텐츠에 대한 다른 소비자들의 평가를 입력받아 분석한 후, 비슷한 소비자끼리 묶어서 선호할만한 콘텐츠를 추천하는 기법이다. 개인의 선호정보를 바탕으로 한 내용기반 추천 기법은 공학적인 관점에서 볼 때 매우 상식적인 접근이지만, 사용자가 입력한 좁은 프로파일 안에서만 추천할 수 있으며, 사용자의 온전한 선호 정보 프로파일을 얻기가 쉽지 않다. 또한, 이 기법은 개인별 다량의 경험적 데이터를 필요로 하고, 경험해 보지 못한 것에 대해서는 추천할 수 없는 단점을 가지고 있다[11]. 협업여과 추천 기법은 이러한 내용기반 추천기법 의 문제점을 해결하기 위해 다른 소비자의 평가를 기반으로 소비자에게 추천을 생성하는 기법이다[12]. 협업여과 추천 기법은 대상 아이템이 상세한 설명 정보를 갖고 있지 않거나 컴퓨터가 프로세싱하기 어려운 분야의 것이어도 문제없이 잘 동작하며, 소비자로부터 상세한 선호 정보가 수집되지 않은 경우에도 잘 동작한다. 또한, 사용자의 선호정보와 콘텐츠 사이의 유사성을 계산하기 위한 복잡한 과정을 수행 하지 않고도 양질의 추천을 제공할 수 있다[11]. 이러한 장점으로 협업여과 추천 기법은 성공적이라 평가되어 왔지만, 추천 대상에 대한 다른 소비자의 평가가 어느 정도 축적되어 있어야 하고, 새로운 아이템이 추가되었을 때, 다른 소비자가 그에 대한 평가를 입력하기 전까지 해당 콘텐츠는 추천될 수 없는 문제점을 가지고 있다. 또한 협업여과 추천 기법은 현재의 소비자와 높은 유사도를 갖는 사람들의 그룹인 소비자 참조그룹을 선정하는 방법에 따라 추천의 정확도가 달라질 수 있다는 어려움이 있다.</p.<p>본 논문에서는 콘텐츠 추천의 정확도를 높이기 위하여 소비자의 감성과 소비유형을 이용하여 적절한 콘텐츠를 추천하는 협업여과 추천 기법을 제안한다. 제안하는 시스템에서 이용되는 소비자의 감성은 기쁨, 슬픔, 혐오, 행복, 이완 다섯가지이고, 구분되는 소비유형은 저실용/저쾌락, 저실용/고쾌락, 고실용/저쾌락, 고실용/고쾌락 네 가지이다. 영화와 음악 콘텐츠에 대한 실험을 통하여 본 논문에서 제안하는 추천기법이 소비자 감성과 소비유형을 고려하지 않은 전체 참조그룹으로 추천한 경우보다 정확도가 향상될 뿐만 아니라, 어느 한 가지만 고려한 경우보다도 정확도가 향상됨을 확인한다.</p> <p>본 논문은 다음과 같이 구성된다. 2장에서는 협업여과 추천 기법, 감성정보를 이용한 콘텐츠 추천 기법 및 소비자 유형 분류기법에 대한 기존 연구들을 살펴본다. 3장에서는 소비자의 감성과 소비유형에 기반한 추천 기법을 제안하고, 4 장에서는 추천 기법의 성능을 평가한다. 마지막으로 5장에서는 결론 및 향후 연구방향에 대하여 서술한다.</p>
|
소비자가 원하는 콘텐츠를 추천해주는 기법에는 크게 내용기반 추천 기법과 협업여과 추천 기법이 있다. 기존에는 소비자의 선호 정보를 제공받아 유사한 아이템을 검색해주는 내용기반 추천 기법이 많이 사용되었으나, 현대 소비자의 욕구는 자신의 감성에 맞는 콘텐츠를 요구하는 방향으로 변화해가고 있기에 협업여과 기법이 더 효과적이다. 하지만 협업여과 기법의 경우 소비자의 참조그룹을 선정하는 방법에 따라 추천의 정확도가 달라지는 특성을 가지고 있다. 따라서 본 논문에서는 정확도를 높이기 위해 소비자의 감성과 소비유형을 참조그룹으로 하여 협업필터링 기반으로 콘텐츠를 추천하는 기법을 제안하고 기법의 성능을 분석한 결과 소비자 감성과 소비유형을 고려하지 않은 전체 참조그룹으로 추천한 경우보다 정확도가 향상됨을 확인하였다.
|
<h1>3. 소비자 감성과 소비유형에 기반한 콘텐츠 추천 기법</h1> <p>본 장에서는 개발하고자 하는 콘텐츠 추천 시스템에 대하여 서술한 뒤, 협업여과 추천기법에 기반하면서 소비자의 함성과 소비유형을 이용하는 콘텐츠 추천 기법에 대하여 설명한다.</p> <h2>3.1 콘텐츠 추천 시스템 구성도</h2> <p>협업여과 추천 기법에서 추천의 효과를 높이기 위해서는 참조그룹을 선정하는 것이 중요하다. 참조그룹이란 현재의 소비자와 높은 유사도를 갖는 사람들의 집합을 말한다. 본 논문에서는 참조그룹을 선정함에 있어 두 가지 요소를 고려 한다. 한 가지는 소비자의 감성이고, 또 다른 하나는 소비유형이다. 본 논문에서 소비자의 감성은 기쁨, 슬픔, 혐오, 행 복, 이완의 다섯 가지로 구분되며, 소비유형은 저실용/저쾌락, 저실용/고쾌락, 고실용/저쾌락, 고실용/고쾌락의 네 가지 로 구분된다. 따라서 5 개의 감성과 4 개의 소비유형을 조합하여 20개의 참조그룹을 선정한다. 콘텐츠 추천 시 한 사람의 소비자는 현재의 감성과 소비유형에 따라 20개의 참조 그룹 중 하나의 그룹에 매핑되고, 해당 그룹의 소비자들이 선호하는 콘텐츠를 추천받게 된다.</p> <p>본 논문에서 제안하는 추천 시스템의 개념은 (그림 2)와 같다. 소비자는 감성정보가 포함된 프로파일 정보와 함께 콘텐츠 추천시스템에 접속한다. 추천 시스템은 소비자의 프로파일 정보를 이용하여 소비자의 소비유형을 분류하고, 소비자 감성정보와 소비유형정보를 이용하여 참조그룹을 선정 한다. 그 다음 추천 시스템은 소비자의 참조그룹이 선호하는 콘텐츠를 검색하여 순위별로 소비자에게 추천 콘텐츠 목록을 전달한다.</p> <p>이러한 콘텐츠 추천 시스템의 구성도는 (그림 3)과 같다. 소비자 유형 분류기(Classifier)는 소비자 프로파일을 이용하여 Rule Base의 규칙을 기반으로 소비자의 소비유형을 분류하고, 감성정보와 함께 해당 소비자의 참조그룹을 선정한다. 콘텐츠 추천기(Recommender)는 콘텐츠 메타데이터를 이용하여 해당 소비자의 참조그룹이 선호하는 콘텐츠를 순위화하여 추천 콘텐츠 목록을 작성하여 소비자에게 전달한다.</p> <h2>3.2 소비자 프로파일 구성</h2> <p>소비자 프로파일은 개인에 특화된 서비스를 제공하기 위 하여 소비자의 선호도, 단말기의 성능, 소비자가 처한 상황 등에 대한 정보들로 구성된다. 프로퐈일 정보를 표준화된 형태로 구성하기 위하여 초기에는 CC/ PP, UAProf, UPS 등 이 제안되었으며, 클라이언트와 서버 간의 요청과 응답 시 헤더정보로 전달된다. 차세대 이동통신 서비스에 적용하기 위하여 감성을 포함한 다양한 상황정보를 프로파일로 표현하기 위한 연구들이 진행되고 있다. 이러한 연구들의 소비자 프로파일 구성방법을 바탕으로 콘텐츠 추천에 필요한 프로파일을 구성하면 다음과 같다.</p> <p>- UserProfile(성별, 직업, 연령, 결혼여부, ..., 감성, 콘텐츠URL) 성별, 직업, 연령, 결혼여부 등과 같은 인구통계학적 특성 정보는 회원가입 등과 같이 소비자에게 입력을 요구함으로써 획득될 수 있다. 감성정보는 간단하게는 소비자의 입력으로부터 얻어질 수 있으며, BSD(Body Sensor Network)를 통하여 자동으로 획득될 수도 있다. 콘텐츠URL은 브라우저를 통하여 소비자가 특정 콘텐츠를 선택하는 것으로 얻어진다.</p> <h2>\( 3.3 \) 소비자 유형 분류</h2> <p>본 논문에서는 소비자의 소비유형을 판단하기 위하여 다 기준 의사결정(Multi-Criteria Decision Making) 중의 하나인 단순가중치 기법(Simple Weighted Method)을 이용한다. 단순가중치 기법은 의사결정에 필요한 요소의 평가치에 가중치를 곱해 모든 요소에 대한 합을 구하고, 각 대안에 대한 총 점수가 구해지면 가장 큰 점수를 갖는 대안을 선택하는 것이다. 단순가중치 기법으로 소비유형을 판단하기 위하여 (그림 4)와 같이 Profile과 Weight 두 개의 테이블이 이용된다. Profile 테이블은 소비자의 프로파일 항목이 소비자 소비유형에 대하여 해당하는지에 대한 정보이며, Weight 테이블은 프로파일 항목에 대한 소비자 소비유형의 가중치이다. (그림 4)의 Profile과 Weight 테이블의 각 항목 \( \mathrm{P}_{\mathrm{mn}} \) 과 \( \mathrm{W}_{\mathrm{mn}} \) 에서 m 은 소비자 소비유형이며, n 은 프로파일의 항목의 개수이다.</p> <p>소비자 프로파일로부터 Profile 테이블을 작성하는 방법으로는 규칙기반(Rule Base)의 형태를 이용한다. 소비자 프로파일이 입력되면, 소비자 유형 분류기(Classifier)는 Rule Base의 규칙들과 비교한다. 소비자 프로파일의 특성이 해당 규칙과 일치하면 Profile 테이블의 해당 위치에 규칙에 정해진 값을 할당한다. 규칙(Rule)들은 다음과 같은 형태로 저장 된다.</p> <p>\( R_{11} \) : if sex="female" then \( V_{11}=1 \), else \( V_{11}=0 \) \( \mathrm{R}_{12} \) : if job="housewife" then \( \mathrm{V}_{12}=1 \), else \( \mathrm{V}_{12}=0 \)</p> <p>Weight 테이블은 오프라인에서 경험적으로 계산된다. 본 연구는 추천의 정확도 개선에 있기 때문에 Weight 테이블의 가중치는 정확도를 기반으로 계산한다. 가중치를 계산하는 방법은 각 프로파일 항목 값에 해당하는 소비자 집합을 대상으로 상위 5개의 선호콘텐츠를 선정하고, 각 소비자가 해당 콘텐츠를 선호하는지에 대하여 정확도를 계산한다. 예를 들어, 여성 전체집합을 대상으로 한 상위 5개의 선호콘텐츠 집합이 \( \left\{\mathrm{C}_{1}, \mathrm{C}_{2}, \mathrm{C}_{3}, \mathrm{C}_{4}, \mathrm{C}_{5}\right\} \) 이고, 여성 소비자 \( \mathrm{A} \) 의 선호콘텐츠 집합이 \( \left\{\mathrm{C}_{1}, \mathrm{C}_{2}, \mathrm{C}_{3}, \mathrm{C}_{11}, \mathrm{C}_{12}\right\} \) 일 때, 정확도는 3/5이 고 이에 해당하는 \( \mathrm{W}_{\mathrm{ij}} \) 의 가중치는 0.6 이 된다. Profile 테이블과 Weight 테이블을 바탕으로 네 가지의 소비자 소비유형에 대한 예측치는 단순가중치 기법에 따라 다음 (수식 1) 과 같이 계산된다.</p> <p>\( G_{i}=\sum_{j=1}^{n} P_{i j} \times W_{i j} \) for \( i=1,2,3,4 \)<caption>(1)</caption></p> <p>여기에서 \( \mathrm{P}_{\mathrm{ij}} \) 는 소비유형에 대한 소비자의 프로파일 항목의 평가치이고, \( \mathrm{W}_{\mathrm{ij}} \) 는 해당 항목에 대한 가중치이다. 또한, \( \mathrm{G}_{i} \) 는 소비자가 해당 소비유형에 속할 예측치이다. 소비자의 프로파일이 해당 소비유형에 포함되는 항목이 많고, 해당 항목의 가중치가 높을수록 \( \mathrm{G}_{i} \) 는 큰 값을 갖는다. \( \mathrm{G}_{i} \) 의 값이 크면 해당 소비유형에 속할 가능성이 크다는 의미이며, 따라서 본 논문에서는 \( \mathrm{G}_{\mathrm{i}} \) 값이 최대인 i 가 해당 소비자의 소비유형을 지시하는 색인(index)이 된다. (그림 5)는 30대의 미혼인 직장인 여성의 소비유형을 판단하는 예이다. \( \mathrm{G}_{3} \) 의 값이 \( 1.27 \) 로 다른 소비유형의 예측치보다 크기 때문에, 이 경우에는 소비자의 소비유형을 고실용/저쾌락 판단한다.</p> <p>이러한 방법으로 소비자의 소비유형을 판단하는 User Classification 알고리즘은 다음과 같다.</p>
|
본 장에서는 개발하기 위해 계획 중인 콘텐츠 추천 시스템에 대하여 설명하고, 협업여과 추천기법를 기반으로 하여 소비자의 함성과 소비유형을 이용하는 콘텐츠 추천 기법에 대하여 설명한다. 협업여과 추천 기법에서 추천의 효과를 향상시키기 위해서 무엇보다 중요한 것은 참조그룹을 선정하는 것이다. 소비자 유형 분류기(Classifier)는 소비자 프로파일을 이용하여 Rule Base의 규칙을 기본으로 하는 소비자의 소비유형을 체계적으로 분류하는 한편, 감성정보와 해당 소비자의 참조그룹을 선정하게 된다. 소비자 프로파일의 구성요인은 개인에게 특화된 서비스를 제공하기 위해 소비자 선호도, 단말기 성능, 소비자의 상황 등에 대한 정보 등으로 설명할 수 있다. 본 논문에서는 소비자의 소비유형을 정확하게 판단하기 위한 다 기준 의사결정(Multi-Criteria Decision Making) 가운데 하나인 단순가중치 기법(Simple Weighted Method)을 이용하고자 한다.
|
<h1>VI. 실험 및 분석</h1> <p>본 연구는 위스콘신 대학의 XML 데이터 뱅크에서 제공하는 데이터들을 사용하여 제안하는 방법의 효율성을 실험하였다. 이 데이터 뱅크는 bibliography, club, company profiles, stock quotes, department, personal information, movies, actor와 같은 8개의 DTD를 제공한다. XML 문서들의 군집화를 실험하기 위해 각 DTD에 대하여 10 개씩의 문서들을 생성하여 모두 80 개의 문서들을 사용하였다.</p> <h2>1. DTD의 정보가 있을 때의 군집화 결과</h2> <p>DTD의 정보가 있는 XML 문서들을 군집화하기 위하여 각 DTD에 대응하는 DTD 비트벡터와 각 문서에 대응하는 문서 비트벡터를 만들어 사용하였다. 그림 5는 80 개의 문서들에 대한 군집화의 결과이다. 각 DTD에 대하여 제대로 군집화 된 문서들의 수(NCC)와 잘못 군집화 된 문서들의 수(NIC)를 계산하였다. 그림에서 보는 것처럼 모든 문서들이 제대로 군집화가 되는 것을 알 수 있다. 이것은 당연한 결과로서 서로 다른 DTD들에 의해 생성되는 문서들간에 경로들이 같은 경우가 일부 있을 수 있으나 대부분은 서로 다르기 때문에, 주어진 문서의 문서 비트벡터는 대응하는 DTD 비트벡터와 가장 큰 bit-wise AND 연산 값을 갖기 때문이다.</p> <p>그림 6은 각 DTD 비트벡터의 1 의 비트 수(NTB), 즉 경로들 수와 해당 그릅에 속한 문서들의 문서 비트벡터들의 1의 평균 비트 수 NDB이다. 그림에서 Department가 가장 큰 값을 갖는 이유는 Department DTD가 가장 많은 #PCDATA를 갖고 있기 때문이다. 즉, Department DTD에 대응하는 트리가 가장 많은 리프 노드들을 갖기 때문이다. 그림에서 Company와 Stock의 DTD 비트벡터의 1 의 비트 수와 해당 그룹에 속한 문서들의 문서 비트벡터들 1의 평균 비트 수가 같은 이유는 Company나 StockDTD에는 특수 기호인 ?나 *가 포함되지 않았기 때문에 DTD에 표기된 모든 원소가 DTD에 의해 생성되는 문서에도 나오기 때문이다.</p> <h2>2. DTD의 정보가 없을 때의 군집화 결과</h2> <p>DTD의 정보가 없는 XML 문서들을 군집화하기 위하여 각 문서에 대응하는 문서 비트벡터를 만들어 사용하였다. 그림 7은 80개의 문서들에 대해 계층 군집화의 단일 연결 알고리즘을 적용한 성장 그래프이다. 그림에서 가로축은 문서이며 세로축은 유사도 척도이다. 각 문서는 이해를 돕기 위하여 다음의 번호로 표기하였다: Actor (1~5), Club (6~10), Bibliography (11~15), Movie (16~20), Department (21~25), Personal (26~30), Company (31~35), Stock (36~40). 그림에서 보듯이 모든 문서들은 제대로 군집화가 되었음을 알 수가있다. 그림에서 Department 문서들(21~25)이 가장 먼저 군집화가 되는 것을 알 수 있다. 이것은 Department DTD가 #PCDATA를 가장 많이 갖고 있기 때문에 해당 문서들의 문서 비트벡터들은 1비트를 가장 많이 포함하고 있기 때문이다.</p> <p>그림 8은 80개의 문서들에 대해 계층 군집화의 완전 연결 알고리즘을 적용한 성장 그래프이다. 그림에서 보듯이 군집화는 제대로 되지만 군집화 되는 순서는 그림 7과는 약간 다른 것을 알 수 있다. 예를 들어, 그림 7에서는 모든 Department 문서들(21~25)이 가장 먼저 군집화 되나 그림 8에서는 Department 문서 21의 경우 Company (31~35) 문서들이 다 군집화 된 후에 Department의 다른 문서들과 군집화 되는 것을 알 수가 있다. 그 이유는 완전 연결 알고리즘의 경우 두 군집사이의 거리는 각 군집에 있는 패턴 간 거리 중에서 가장 긴 거리로 정의하기 때문이다. Department 문서들의 경우 교직원, 학부, 대학원 정보로 구성되나 문서에 따라 학부 또는 대학원 정보만 가질 수도 있다. 일부 Department 문서들(23~25)의 경우는 학부와 대학원 정보를 모두 갖고 있기 때문에 공유하는 1의 비트가 많아 먼저 군집화가 된다. 그러나 문서 22 는 대학원 정보만 갖고 있고 문서 21은 학부 정보만 갖고 있기 때문에 문서 21이 가장 먼 거리에 있는 문서 22와 군집화를 할때에는 공유하는 1의 비트가 작아 Company 문서들보다 늦게 군집이 수행됨을 알 수 있다.</p>
|
XML 데이터 뱅크에서 8개의 DTD를 데이터를 제공하였는데 이를 바탕으로 XML 문서들의 군집화가 얼마나 효율적인지를 알아보려고 한다. 각 DTD에 대하여 10 개씩의 문서들을 생성 최종으로 80 개의 문서들을 하여 실험해보았다. DTD가 있는 XML 문서들의 군집화를 위해 각 DTD에 대응하는 DTD 비트벡터와 각 문서에 대응하는 문서 비트벡터를 만들어 사용하였으며 DTD의 정보가 없을 경우에는 XML 문서들을 각 문서에 대응하는 문서 비트벡터를 만들어 사용했다.
|
<h1>II. 관련 연구</h1> <p>다양한 XML의 증가로 인해 XML 데이터를 조직하고 군집화 하는 필요성이 증대되고 있다. 최근에 XML 문서들의 구조 뿐 아니라 내용을 고려하는 군집화 기법들이 연구되고 있다. 벡터 공간 모델에 표현되는 XML 문서들에 K-means 군집화 기법을 적용하는 연구가 있었다. 이 표현에서 각 문서는 N차원 벡터로 표현되며, 이 때 N은 문서의 특징들로 텍스트 특징들, 태그 특징들, 그리고 이 둘을 합한 특징들로 구성된다. 이 방법은 오직 XML 문서의 내용만을 고려한다. 문서간의 구조에 대한 공통 구조의 존재 여부를 0,1 로 표현하는 비트를 이용하여 비트맵 인덱스에 기반한 군집화 기법이 제안되었다. BitCube는 3 요소 즉, 문서, 경로, 단어의 3 차원 비트맵 인덱스로 표현된다. BitCube 인덱스들은 문서들을 분할해서 군집화하기 위해 bit-wise 거리 척도를 활용한다. 그러나 이 방법은 비트맵 인덱스를 생성하기 위해서 수작업을 필요로 한다. XML 데이터를 위한 특징들로 문서로부터 추출한 내용 정보와 태그 경로들로부터 유도되는 구조 정보들을 사용하는 방법이 제안되었다. 이 방법은 XML 문서 트리들을 트랜잭션 데이터 즉, 분류별의 속성들을 가진 객체들로 사상하는 것을 허용하는 XML 표현 모델의 정의 안에서 트리 투플이라는 개념을 소개하며 군집화 기법이 XML 트랜잭션의 영역 안에서 개발되고 적용되었다. 반면에 XML 문서의 구조를 이산 함수로 변환하는 방법이 연구되었다. 이산 함수는 FFT에 의해서 주파수 영역으로 변환된다. FFT의 결과는 \( \mathrm{x} \) 와 \( \mathrm{y} \) 의 값들을 포함하는 복소수 쌍들이며 \( \mathrm{n} \)차원 벡터들로 간주되어 유클리디안 거리 척도를 사용하여 비교된다. 이 방법은 오직 문서들의 구조만을 고려한다. 반면 XML 문서내의 특징들의 발생에 근거해서 문서 트리들을 다차원 유클리디안 공간의 벡터들로 변환한 후 주성분 분석 PCA을 적용하여 차원을 줄인 후 줄어든 차원 공간에서 \( \mathrm{K}- \) 평균 군집화 알고리즘을 사용하여 적절한 분류를 시도하는 연구가 있었다. 다양한 구조를 가지는 XML 문서의 경로 구조를 중심으로 빈발 고조에 대한 유사성 기반의 점진적 클러스터링 기법을 제안되었다. XML 문서를 구성하는 원소의 순서와 발생 빈도를 동시에 고려할 수 있는 순차패턴을 이용하여 일정한 지지도를 만족하는 빈발 구조 패턴을 추출하여 유사 구조 문서를 그룹화 하여 주요 항목 기반의 클러스터를 생성하고, 클러스터 할당 이익에 대한 연산을 동해 점진적 클러스터링을 수행하였다.</p>
|
최근 XML 데이터 군집화의 필요성이 증대되고, XML 문서 구조뿐 아니라 내용을 고려하는 군집화 기법들도 연구되고 있다. 이 방법은 XML 문서의 내용만을 고려하며 문서 간 공통 구조의 존재 여부를 0, 1로 표현하는 비트를 이용한 비트맵 인덱스에 기반한 군집화 기법이 제안되었다. 문서, 경로, 단어의 3차원 비트맵 인덱스로 표현되는 BitCube 인덱스들은 bit-wise 거리 척도를 활용한다. 반면 XML 문서의 특징에 근거하여 문서 트리를 다차원 유클리디안 공간의 벡터들로 변환, 줄어든 차원 공간에서 \( \mathrm{K}- \) 평균 군집화 알고리즘을 사용하여 분류를 시도하는 연구가 있었다. 다양한 구조를 갖는 XML 문서의 경로 구조를 중심으로 점진적 클러스터링 기법도 제안되었다.
|
<h1>I. 서론</h1> <p>인터넷의 성장은 전 세계에 존재하는 모든 데이터와 정보의 접근을 쉽게 만들면서 많은 데이터들이 다양한 형태의 정보로 생성되는데 이바지하고 있다. 인터넷이 점점 성장하고 발전할수록, 더 많은 정보들은 XML과 같이 구조적으로 풍부한 문서 형태로 존재하게 되었다. 웹에서 문서가 많아질수록, 이와 같이 구조적으로 풍부한 문서들을 자동적으로 검색하고 관리하는 응용들이 요구된다.</p> <p>XML은 원소들을 포함하며 각 원소는 시작 태그 종료 태그, 두 태그 사이의 텍스트 데이터로 구성된다. 사용자가 태그를 자유롭게 정의할 수 있기 때문에, 태그는 데이터를 표현할 뿐 아니라 데이터의 의미를 표현할 수 있다. XML의 원소들은 내포 구조로 구성되기 때문에, XML은 정렬된 라벨 트리로 모델링 될 수 있다. 이 트리에서 각 노드는 문서의 태그와 대응하며 태그의 이름으로 라벨 된다. 트리의 부모와 자식 노드간의 관계는 문서에서 내포 관계에 대응한다.</p> <p>데이터 군집화의 일반적인 목적은 다음 단계의 데이터 처리를 위해 여러 종류의 데이터들로부터 연관된 정보를 추출하는 것이다. 군집화 된 데이터들은 데이터들 간에 일종의 경향 또는 규칙성을 보이고 심지어 주목할 가치가 있는 관련 지식을 보여주기까지 한다. XML 문서들에 대한 군집화는 유사한 문서들의 그룹을 만들어 특정한 카타고리 안에서 검색과 처리를 용이하게 하기 위함이다. XML 문서에 대한 적절한 군집화는 체계적인 문서 관리와 문서 저장을 위해서도 효율적이다. 또한 일반적이지 않은 문서가 쉽게 발견되기에 시스템 보호에도 도움이 된다.</p> <p>본 논문은 XML 문서들을 효율적으로 군집화하기 위해서 XML 문서의 특징으로 비트벡터를 제안한다. 비트 벡터는 XML 문서에 대응하는 트리의 경로를 통해서 만들어진다. 두 문서의 유사도는 대응하는 두 비트벡터들간의 bit-wise AND 연산을 통하여 측정된다. 본 논문은 같은 DTD들에서 생성된 문서들을 유사한 문서로 간주하여 같은 그룹으로 군집화를 시킨다. 본 논문은 비트벡터를 사용하여 XML 문서들의 DTD 정보가 존재할 때와 존재하지 않을 때 문서들을 군집화 하는 두 가지 다른 방법들을 제안한다. 실험 결과는 제안하는 방법들을 통해 군집화가 잘 이루어지고 효율적임을 보인다.</p> <p>본 논문의 구성은 다음과 같다. II장에서는 XML 군집화 관련 연구에 대해 기술하고, III 장은 XML 문서로부터 비트 벡터를 생성하는 방법을 제안한다. IV장은 XML 문서가 DTD 정보를 갖고 있을 때, 문서를 군집화하기 위한 문서 비트 벡터와 DTD 비트 벡터를 제안한다. V 장은 XML 문세가 DTD 정보가 없을 때, 문서를 군집화하기 위하여 계층 군집화 기법에 비트 벡터를 적용하는 방법을 제안한다. VI 장은 실제 데이터를 통한 실험을 통하여 제안한 방법이 효율적인지를 조사한다. 마지막으로 VII 장은 결론을 낸다.</p>
|
인터넷의 성장은 온 세계에 모든 데이터와 정보의 접근을 간단하게 만들면서 여러 데이터들이 다양한 형태의 정보로 생성되고 XML은 원소들을 포함하며 각 원소는 시작 태그 종료 태그, 두 태그 사이의 텍스트 데이터로 되어 있으며 유사도는 대응하는 두 비트벡터들간의 bit-wise AND 연산을 통하여 측정된다.
|
<h1>5. 실험 및 결과</h1> <h2>\( 5.1 \) 실험 환경 및 하이퍼 파라미터</h2> <p>본 논문에서 제안한 시스템을 실험한 컴퓨터 사양은 CPU:Intel Xeon Gold 6134 3.2GHz, GPU: NBVIDIA QuadroGP100, RAM: \( 32 \mathrm{~GB} \) 이다. 모델구축에 사용한 라이브러리는Pytorch-cuda, FastText를 사용하였으며 구현 언어는Python이다.</p> <p>데이터 셋은 종 데이터 셋에서 학습용 \( 70 \% \), 검증용 \( 15 \% \),평가용 \( 15 \% \) 로 분리하여 사용하였다. 학습 시 설정한 하이퍼파라미터는 다음과 같다. 훈련 데이터의 batch_size는 32,epoch은 28, 인코더의 layer는 3, 디코더의 layer은 2 , hidden_size는 512 로 설정하였으며, 실험에 사용한 컴퓨터의 사양과 학습 데이터의 크기를 고려하여 설정하였다.epoch는 검증 뎨이터로 모델 평가를 진행 하였을 때 가장높은 유사도를 보이는 횟수로 설정하였다.</p> <h2>\( 5.2 \) 실험 방식 및 평가지표</h2> <p>실험에 사용한 평가용 데이터 셋의 문장의 길이는 짧게는3 단어로 이루어진 문장부터 최대 50 단어로 이루어진 문장으로 이루어겨 있다. 실험에 사용한 판독고보고서의 경우 외부 유출이 금지된 보호 데이터이기 때문에 가공된샘플 데이터로 진행한 결과를 보여준다. Beam 탐색기법의 하이퍼 파라미터(Beam_k)는 5 이며, army_type(지상군, 해군, 공군, 전력), location(좌표)은 입력할 문장의가장 앞에 더해져 모델에 입력된다.</p> <p>모델에 대한 평가지표는 평가용 데이터 셋에서 목표 문장을 하나씩 끼내온 후, 각 문장에서 한 단어씩 증가 시키며 모델에 입력 후 생성한 문장과 목표 문장의 유사도를 즉정하였다. 문장의 유사도 평가는 2-gram 방식으로 진행하였고, 문장의 유사도가 높을수록 정확한 문장을 추천한다.</p> <h2>\( 5.3 \) 결과 및 토론</h2> <p>자연어 생성 문제는 문장의 길이에 영향을 많이 받기 때문에, 문장의 길이가 1~15단어, 16~35 단어, 36~50 단어를가지는 문장들을 그룸화 하여 각 그룹 당 입력된 단어의 길이에 따른 유사도를 Fig. 6 그래프로 시각화 하였다. Fig. 6 그래프를 보면 문장의 총 길이와는 관계없이 입력되는 단어의수가 증가할수록 유사도가 증가하고, 평가용 문장의 길이가짧을수록 각 기법들의 유사도 편차가 근 것을 확인 할 수 있다. 입력된 단어가 적을 때 유사도가 작은 이유는 첫 번째 단어로 유추할 수 있는 문장들이 무수히 많기 때문이다.</p> <p>디코딩 기법들 종류들을 살펴보면 Beam 탐색기법의 하이퍼 파라미터의 숫자는 \( 4.2 \) 절 에서 언급한 것과 같이 5 이상부터는 크게 차이가 나지 않는 것을 확인할 수 있다. 또한 기존 Greedy 탐색 기법 보다 Beam 탐색 기법이 유사도 점수가 높은 것을 확인할 수 있다.</p> <p>하지만 Beam 탐색 기법의 하이퍼 파라미터의 크기가 커질수록 시간 복잡도와 공간 복잡도가 기하급수적으로 커지므로 적절한 크기의 하이퍼 파라미터를 설정할 필요가 있다.</p>
|
자연어 생성 문제는 문장의 길이에 영향을 많이 받기 때문에, 문장의 길이가 1~15단어, 16~35 단어, 36~50 단어를가지는 문장들을 그룹화 하여 각 그룹 당 입력된 단어의 길이에 따른 유사도를 알아보았다. 다음으로, 디코딩 기법들의 종류를 살펴보면 Beam 탐색기법의 하이퍼 파라미터의 숫자는 5 이상부터는 크게 차이가 나지 않았으며 기존 Greedy 탐색 기법 보다 Beam 탐색 기법이 유사도 점수가 높았다.
|
<h1>4. 단어 기반 문장 생성을 위한 디코딩 방법</h1> <h2>\( 4.1 \mathrm{Greedy} \) 탐색 기법</h2> <p>일반적으로, 문장 생성은 단어들의 시퀀스를 통해 아웃풋 으로 단어를 예즉하는 방식이다. 이를 위해 Seq2Seq 모델의 디코더는 각각의 타임 스텝에서 전체 단어 사전에 대한 확률 분포를 예즉한다. 따라서 단어를 생성하기 위해 모델의 예즉 확률 분포를 이용해 단어로 변환하는 과정이 필요하다. 문장 생성에 있어 최적의 값을 찾는 것은 어렵기 때문에 우리는 문장 생성을 위해 휴리스틱 탐색 기법을 사용해야 한다. 일반적 으로 사용되는 Greedy 탐색 기법은 각 단어를 예측할 때, 단어들의 확률 분포에서 가장 확률이 높은 단어를 선택하기 때 문에 담색 속도가 빠른 알고리즘이다. 다만, 최적의 해를 보장하지 않아 앞의 시퀀스가 잘못되었을 경우 원하는 값과 멀어진다는 단짐이 있다. Greedy 탐색 기법의 수식은 다음 Equation (6)과 같으며, Equation (6)에서 \( \hat{y} \) 은 예즉 값을 의미한다.\[\hat{y}=\operatorname{argmax} \log P\left(y_{t} \mid c_{t}, y_{t-1}\right)\]<caption>(6)</caption></p> <h2>4.2 Beam 탐색 기법</h2> <p>Greedy 담색 기법의 특징인 국소적으로는 최적의 단어를 선택하지만 전역적으로는 아닐 수 있는 단점을 개선한 알고리즘으로 Beam 탐색 기법이 있다. Beam 탐색 기법은 매순간 가장 높은 확률의 단어를 찾는 Greedy 탐색 기법과 달리, 가장 높은 확률의 문장 혹은 단어를 예즉한다. Beam 탐색 기법은 Greedy 탐색기법에서 타임 스텝 마다 하이퍼 파라미터인 \( \mathrm{K} \) 개의 문장들로 확장하고, 예즉한 각 단어들의 확률의 점수를 계산한 후, 가장 확률이 높은 \( \mathrm{K} \) 개의 문장을 남기고 나머지를 제거한다. 매 타임 스텝마다 \( K \) 개의 문장을 유지하여 최종적으로 \( \mathrm{K} \) 개의 문장이 남게 되고, 이것이 우리가 예측한 \( \mathrm{K} \) 개의 문장들이 된다. \( \mathrm{K} \) 의 개수는 5 ~10이 적절하다고 한다. Beam 담색 기법의 계산식은 각 단어의 예즉 확률 \( f_{\theta} \) 을 모두 합하여 문장의 확률을 구하는 방식이며 다음 Equation (7)과 같다.\[\hat{Y}=f_{\theta}\left(c_{t}, y_{<t}^{1}\right) \cup f_{\theta}\left(c_{t}, y_{<t}^{2}\right) \cup \ldots \cup f_{\theta}\left(c_{t}, y_{<t}^{n}\right)\]<caption>(7)</caption></p> <p>Beam 담색을 진행하면서 점수는 \( \log \) 값을 더하여 계산되기 때문에 문장의 길이가 길어질수록 확률 점수가 낮아진다는 단점이 있다. 이는 긴 문장을 제대로 출력하지 못한다는 문제로 이어진다. 이를 방지하기 위해 출력 문장의 길이에 상관없도록 점수를 타임 스텝의 크기만큼 나누어 정구화 함으로써 단점을 개선하였다. 최종적으로, 점수 계산법은 다음과같으며 소문자 t는 타임 스텝을 의미한다.\[ \operatorname{score}\left(y_{1}, \ldots, y_{t}\right)=\log \left(y_{1}, \ldots,\left.y_{t}\right|_{t}\right)=\frac{1}{t}\sum_{t=1}^{T}\operatorname{argmax} \log P(\hat{Y})\]<caption>(8)</caption></p> <p> <h2>\( 4.3 \) 단어 기반 모델 Beam 탐색 기법</h2> <p>기존 Beam 탐색 기법은 인코더에 문장이 입력된 후 디코더의 출력 층에서 진행되는 방식이며, 본 논문에서 제안하는시스벰은 문장이 아넌 단어 하나가 입력되었을 때도 문장을 추천해주는 시스템으로 구상되었기 때문에 단어 단위로 탐색하는 Beam 탐색 기법을 제안한다.</p> <p>의사 코드를 줄 단위로 설명하자면 다음과 같다. 사용자가단어 혹은 문장을 입력한다(2줄). Beam_k 개의 문장이 모두\( \langle e o s\rangle \) 로 끝날 때 까지 밑의 과정 반복한다.(3줄) 〈eos〉로 끝난 문장은 모든 문장이〈eos〉로 끝날 때 까지 대기한다(5줄 8줄). 입력 받은 문장을 인코더에 입력 후 ContextVector를 받는다.(9줄) 디코더에 인코더에서 받은 ContextVector를 넣어 높은 확률 순으로 정렬된 단어리스트를 받는다.(10줄) 기존 문장과 Beam_k의 개수만큼 단어들을 합친다(11줄 12줄). 생성된 문장들 중 높은 확률 순으로 Beam_k개수만큼 저장 후 위 과정을 반복한다(13줄).</p>
|
단어들의 시퀀스를 통해 아웃풋으로 단어를 예측하여 문장을 생성하는 탐색 기법들을 살펴보면, 단어들의 확률 분포에서 가장 확률이 높은 단어를 선택하기 때문에 탐색 속도가 빠른 Greedy 탐색 기법, 매 순간 가장 높은 확률의 단어를 찾는 Greedy 탐색 기법과 달리, 가장 높은 확률의 문장 혹은 단어를 예측하는 Beam 탐색 기법, 그리고 인코더에 문장이 입력된 후 디코더의 출력 층에서 진행되는 방식인 기존 Beam 탐색과 달리, 단어 단위로 탐색하는 단어 기반 모델 Beam 탐색 기법이 있다. 본 논문에서 제안하는 시스템은 단어가 하나가 입력되었을 때도 문장을 추천해주는 시스템 이므로 단어 기반 모델 Beam 탐색 기법을 제안한다.
|
<h1>3. 모델 구축</h1> <p>Table 1은 본 논문에서 사용하는 용어 데이터에 대해 정의한다. \( X \) 는 인코더에 들어갈 영상 판독 문장을 의미하며 \( x \) 은 각 문장의 요소 단어를 의미한다. \( Y \) 는 디코더 학습에서필요한 문장을 의미하며 \( \langle\operatorname{sos}\rangle \) 는 시작 토큰\( \langle\operatorname{eos}\rangle \) 는 종료 토큰을 의미한다. \( V \) 는 학습에 사용한 데이터들의 단어 집합을 의미하며 \( W \) 는 문장을 의미한다. \( T \) 는 각 문장의 길이를의미하고, \( t \) 는 각 단어가 입력되는 시점을 의미한다. 마지막으로 \( c_{t} \) 는 인코더의의 마지막 hidden State인 ContextVector를 의미한다.</p> <h2>3.1 언어 모델</h2> <p>언어 모멜은 문장의 각 단어에 확률을 할당하는 모델이다.이는 NLP(Natural Language Processing) 분야에서 핵심기술 중 하나이다. \( w \) 는 하나의 단어, 데문자 \( W \) 는 단어들의모음인 문장이라고 가정하며, \( \mathrm{n} \) 개의 단어가 등장하는 문장의확률 식은 다음 Equation (1)과 같다.\[P(W)=P\left(w_{1}, w_{2}, \ldots, w_{n}\right)\]<caption>(1)</caption></p> <p>언어 모델은 문장의 각 단어에 확률을 할당하기 위해 이전단어들이 주어졌을 때, 다음 단어를 예즉한다. 전체 문장의확률은 조건부 확률을 이용해 Equation (2)와 같이 표현할수 있다.\[P(W)=\prod_{i}^{n} P\left(w_{n} \mid w_{1}, w_{2}, \ldots, w_{n-1}\right)\]<caption>(2)</caption></p> <p>Conditional 언어 모델은 기존 문장 확률 식에 Sequence- to-Sequence(Seq2Seq) 모델에서 사용하는 인코더의 마지막 Vector인 Conditional Context Vector \( \left(c_{t}\right) \) 를 추가하여 일반화한 모델이며, 수식은 다음 Equation (3)과 같다.\[P(W)=P\left(w_{n} \mid c_{t}, w_{1}, w_{2}, \ldots, w_{n-1}\right)\]<caption>(3)</caption></p> <h2>3.2 단어 임베딩</h2> <p>3.1 의 언어 모델을 구현하기 위해서는 문장의 각 단어들을숫자로 변환할 필요가 있다. 여러 변환 방법들 중 단어 임베딩 기법은 단어를 컴퓨터가 이해하기 쉬운 벡터로 표현하고, 서로 유사한 단어의 벡터는 임베딩 공간에 가까운 위치에 배치 되도록 고안된 기법이다. 이는 모델이 단어의 의미 정보를 이해하고 문장을 생성하는데 장점을 가진다. 이를 제안한 기법으로는 Word2Vec, Glove, FastText 등이 있다. 본 논문에서는 여러 임베딩 기법들 중 학습 속도가 빠르고, 판독보고서의 휴먼 오류를 완화하기 위해 Subword로 단어들을 임베딩 하여 오타문제와 학습한 단어가 아닌 단어가입력되었을 때 발생하는 OOV(Out-Of- Vocabulary)문제에 강한 FastText모델을 채택하였다.</p> <h2>3.3 Recurrent Neural Network</h2> <p>단어 임베딩을 통해 벡터의 형태로 임베딩 된 데이터들을 신경 언어 모델(Neural Language Model)을 사용하여 학습한다. 여러 신경 언어 모델들 증 Audio, Text 등의 Se-quential 데이터를 처리하는 모델은 일반적으로 RNN(Re-current Neural Network)을 사용하여 구축한다. RNN은 가변적인 길이 시퀀스를 입력으로 사용할 수 있고, 데이터에서 장기적인 종속성(long-term dependency)을 학습할수 있다는 장점이 있다. 그러나 기울기 소실 혹은 폭주 문제가 발생하는 경우가 존재여, 문장의 길이가 길어질수록 문장의 앞부분을 충분히 활용하지 못하는 문제가 있다. 판독 보고서의 경우 길이가 짧은 문장부터 긴 문장까지 다양함으로 RNN을 사용한 모델은 적절하지 않다. 이를 개선한 모델로 LSTM(Long Short-Term Memory)과 GRU(Gated RecurrentUnits)모델이 제안되었다. 문장 생성 문제에서 LSTM과 GRU 모델을 비교하였을 때, LSTM이 성능이 경미하게 좋았지만, GRU 모델 또한 크게 차이 나지 않는다. 다만 학습속도 측면에서는 \( \mathrm{GRU} \) 모델의 구조가 더 간단하여 더 빠르기 때문에 본 논문에서는 LSTM과 성능 차이가 크지 않고 속도가 빠른 GRU 모델을 채택하였다.</p> <h2>3.4 Sequence-to-Sequence 학습</h2> <p>Seq2Seq은 인코더-디코더 모델로써, 각 모델에 RNN 모델을 사용하여 입력 시퀀스를 반은 후, 출력 시퀀스를 생성하는 모델이다. 이는 가변적인 입/출력 시퀀스 길이를 처리할 수 있는 장점이 있이 NMT, ChatBot, Dialog System 등 다양한 분야에서 사용되고 있다.</p> <p>Seq2Seq에서 인코더는 입력 문장으로부터 Context Vec-tor를 생성한다. 디코더는 출력 시퀀스를 생성하기 위해서 입력 시퀀스에서 압축된 정보인 Context Vector를 디코더의첫 번째 hidden state로 활용한다. 각 타임 스텝 단어는 다음 Equation (4)와 같은 조건부 확률로 정의된다.\[P(Y)=\prod_{t}^{T} P\left(y_{t} \mid c_{t}, y_{<t}\right)\]<caption>(4)</caption></p> <p>이를 log-최대 우도법(Maximum Likelihood Estima-tion)을 위한 조건부 확률로 변환하면 다음 Equation (5)와 같이 정의된다.\[\log P(Y)=\sum_{t}^{T} \log P\left(y_{t} \mid c_{t}, y_{<t}\right)\]<caption>(5)</caption></p> <h2>3.5 Attention 기법</h2> <p>Attention 기법은 디코더의 각 타임 스텝 마다 인코더를 다시 참조하는데 이는 각 타임 스텝 마다 인코더의 전체 부분을 동일하게 보는 것이 아니라, 현재 예즉해야 할 디코더의 부분과 연관 있는 인코더 부분을 집중적으로 참조한다. 이를통해 문장을 생성하면서 다음 단어를 예측할 때, 이전 단어증 가장 관련 있는 단어와 있는 단어를 선택하게 되어 문장의길이가 길어질 경우 성능이 뗠어지는 Seq2Seq모델의 단점을완화시키며 성능을 항상할 수 있다.</p> <p>본 연구에서 사용하는 모델을 Fig. 3의 형태로 도식화하였다. 기존 Seq2Seq 모델과 다르게 디코더 모델에서 문장이 아넌 단어만 출력 후 이를 반복하는데, 디코더 모델에서 Atten- tion Mechanism을 사용함으로써 Seq2Seq 모델의 단짐을완화함과 동시에 장점을 유지하였다.</p> <h2>3.6 단어 기반 모델 훈련 방법</h2> <p>인코디에 입력된 단어들의 다음 단어를 디코더에서 출력하도록 학습이 진행된다. 먼저 전체 데이터의 배치 사이즈의 개수만큼 반복하며, 입력된 단어들로 인코더의 Context Vector를 구한 후 디코더에서 각 단어의 다음 단이를 예측하도록 학습을 하는데, 디코디에서 예측한 단어를 기존 입력반은 단어들과 합처 다시 인코디의 Context Vector를 구한 후 다음 단어를 학습하는 과정을 반복한다. 디코더가 문장의 끝을 나타내는 토큰인 \( \langle e o s\rangle \) 를 예즉하도록 학습하게 되면 하나의 배치가 끝나게 된다. 각 예측 마다 손실함수를 최소화시키는 방향으로 경사하강법과 역 전파 알고리즘을 사용하며 학습을 진행한다.</p>
|
본 논문은 여러 임베딩 기법들 중에서 학습 속도가 빠르고, 판독보고서의 휴먼 오류 완화를 위해서 Subword로 단어들을 임베딩하여 오타문제와 학습한 단어가 아닌 다른 단어가 입력시 발생되는 OOV(Out-Of- Vocabulary)문제에 강한 FastText모델을 채택했다. 단어 임베딩을 통해서 벡터의 형태로 임베딩 되어진 데이터들을 신경 언어 모델을 사용해서 학습하고, Seq2Seq은 인코더-디코더 모델로써, 각 모델에 RNN 모델을 사용해서 입력 시퀀스를 받은 후에 출력 시퀀스를 생성하는 모델이다. Attention 기법은 디코더의 각 타임 스텝 마다 인코더를 다시 참조하고 이는 각 타임 스텝마다 인코더 전체를 동일하게 보지않고 현재 예측해야 될 디코더 부분과 연관이 있는 인코더 부분을 집중적으로 참조하며, 인코디에 입력되는 단어들의 다음 단어를 디코더에서 출력되어지도록 학습을 진행한다.
|
<h1>요 약</h1> <p>군사 분야에서 사용 중인 기존 영상 판독 시스템은 판독관들이 직집 영상을 분석 및 식벌하여 관련 내용을 보고서에 작성하고 전파하는 방식으로진행되는데 이 과정에서 반복 작업이 빈번하여 업무 과부하가 발생한다. 본 논문에서는 이러한 문제를 혜결하고자. 기존의 문장 단위로 동작하는 Sex2Seq 모델을 단어 단위로 동작할 수 있는 알고리즘을 제안하고, Attention 기법을 적용혜 정확도를 향상시키고자 한나. 또한 Beam 탐색 기법을응용하여 특정 지역의 과거 식별내용을 바탕으로 현재 식별 문장을 다양하게 추친하고자 한다. 실염을 동혜 Beam 탐색 기법이 기존 Greedy 탐색기법보다 효과적으로 문장을 추친하는 것을 확인하였고, Beam의 크기가 클 때 추친의 정확도가 높아지는 것을 확인하였다.</p> <h1>1. 서 론</h1> <p>군사 분야에서 사용하는 기존 판독 시스템은 판독관들이영상을 분석하여 식별된 내용을 정보의 형태로 기록하고 전파하는 방식을 사용한다. 이러한 기존 방식은 단순히 영상에서 개체의 형태, 종류 등의 정적인 정보를 인식하는데 초점을 맞추고 있고, 분석 결과는 판독관이 검증하는 과정을 통하여 판독 보고서의 형태로 저장된다. 군사적인 목적 중 징후감시를 수행하기 위하여 표적들 간의 관계 및 앞으로 발생할행위에 대한 예측정보가 중요한뎨, 이를 추론하는 것은 과거정보에 대한 판독관들의 경험과 숙련도에 의존적이기 때문에이는 반복 작업이 빈번하여 판독관들의 업무 과 부화를 일으킬 수 있다.</p> <p>본 논문에서는 그동안 축적된 판독 보고서의 데이터를 기반으로 인공지능 언어 모델을 구축하여 영상 판독관들에게과거 데이터를 제공함과 동시에 과거 데이터 기반 핵심 문장을 추천 해주는 시스벰을 제안한다. 실제 판독보고서는 군사기밀임으로 데이터로 작성된 판독보고서임을 밝힌다.</p> <p>문장 생성을 위한 기존 언어 모델인 Seq2Seq 모델은 인코더에 문장이 입력된 후 디코더에서 문장을 출력하는 방식을사용하기 때문에 인코더의 입력 값으로 단어를 하나씩 입력할 수 없다. 본 논문에서는 Attention 기법을 적용한디코더에서 인코더에 입력된 단어들의 다음 단어를 예즉하도록 모델을 학습하고, 출력 시에는 기존 입력받은 단어들과 디코더에서 예측한 단어를 다시 인코더에 넣어 다음 단어를 예측하는 방식을 사용하여 위의 문제를 해결하였다.</p> <p>또한 출력 시에 기존 Greedy 탐색 기법을 확장한 Beam탐색 기법을 사용하여 기존 Greedy 탐색 기법보다 높은유사도를 가지는 문장들을 추천해주는 것을 실험을 통해 확인하였다. 또한 사용자에게 더 다양한 문장을 추친해 줌으로써 기존 문장 추친 시스템의 한계를 벗어나 판독 보고서를 작성하는 판독관들의 업무 효율을 높여 업무 과 부화를 줄일 수있다.</p>
|
군사 분야의 기존 판독 시스템은 판독관들이 영상을 분석하여 식별된 내용을 기록하고 전파하는 방식이였지만, 반복 작업이 빈번하고 판독관들의 업무 과부하가 발생될 수 있다. 본 논문에서는 Sex2Seq 모델을 단어 단위로 동작 가능하도록 하는 알고리즘을 제안하였고 Attention 기법을 이용하여 정확도를 높이고자 하였다.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.