passage
stringlengths 5
922k
| summary
stringlengths 0
10.2k
|
---|---|
<h1>Ⅲ. 채널용량 유도</h1><p>페이딩 채널상에서의 채널용량을 유도하기 위해선 해당채널 모델의 PDF와 해당 시스템의 AWGN 채널용량을 이용하여 다음과 같이 구할 수 있다.</p><p>\( \bar{C}_{\text {Fading }}=\int_{0}^{\infty} \bar{C}_{A W G N} \cdot p_{\gamma}(\gamma) d \gamma \)<caption>(1)</caption></p><p>본 고에서 고려하는 채널모델은 Hoyt 페이딩 모델이며 dual-branch MRC 기법을 적용했을 경우의 PDF는 다음과 같이 주어진다.</p><p>\( \begin{aligned} p_{\gamma}(\gamma)=& a^{2} b^{\lambda} \sum_{k=0 t=0}^{\infty} \sum_{k ! t ! \Gamma(\lambda+2)}^{\infty} \frac{(2 k-1) ! !(2 t-1) ! !}{k !} \\ & \times \gamma^{\lambda+1} e^{-b \gamma}{ }_{1} F_{1}(2 k+1 ; \lambda+2 ; c \gamma), \end{aligned} \)<caption>(2)</caption></p><p>수식의 간결한 전개를 위하여 다음과 같이 정의한다.</p><p>\( a=\frac{1+q^{2}}{2 q \sqrt{1-\rho^{2}} \bar{\gamma}} \quad b=\frac{\rho\left(1+q^{2}\right)}{\sqrt{8}\left(1-\rho^{2}\right) \bar{\gamma}}, \quad c=\frac{1-q^{4}}{2 q^{2}\left(1-\rho^{2}\right) \bar{\gamma}} \).</p><p>\( q(0 \leq q \leq 1) \) 은 Hoyt 모델의 페이딩 인덱스, \( \rho(0 \leq \rho \leq 1) \)은 두 안테나 수신신호 간 상관도를 나타낸다. 또한 \( \lambda=2(k+t) \) 이고, \( { }_{1} F_{1}(x ; y ; z) \) 와 \( \Gamma(x) \) 는 각각 hypergeometric 함수와 감마 함수를 나타낸다.</p><p>한편, 대역확산 워터마킹 시스템의 AWGN채널에서의 채널용량은 다음과 같이 주어진다.</p><p>\( C_{S S W}=\frac{f_{h}}{2 N \ln 2} \ln \left(\frac{\left(f_{h} H W R+2 N^{2}\right) \gamma+f_{h}}{f_{h} H W R \gamma+f_{h}}\right) \)<caption>(3)</caption></p><p>여기에서 \( f_{h} \) 는 호스트 시스템의 샘플링 주파수, \( N \)은 PN 시퀀스의 주기, HWR은 호스트-워터마킹 신호의 전력비, \( \gamma \) 는 수신 워터마킹-채널잡음 전력비를 나타낸다.</p><p>페이딩 채널 환경에서 채널용량 수식을 유도하기 위해 수식 (2)와 (3)을 수식 (1)에 대입하면 수식 (4)와 같이 채널용량 수식을 전개할 수 있다. 수식 (4)의 적분항</p><p>\( \bar{C}=\frac{f_{h} a^{2} b^{\lambda}}{2 N \ln 2} \sum_{k=0 t=0}^{\infty} \sum_{0}^{\infty} \frac{(2 k-1) ! !(2 t-1) ! !}{k ! t ! \Gamma(\lambda+2)} \sum_{f=0}^{\infty} \frac{\Gamma(2 k+f+1) \Gamma(\lambda+2) c^{f}}{f ! \Gamma(2 k+1) \Gamma(\lambda+f+2)} \int_{0}^{\infty} \ln \left(\frac{\left(f_{h} H W R+2 N^{2}\right) \gamma+f_{h}}{f_{h} H W R \gamma+f_{h}}\right) \gamma^{\lambda+f+1} e^{-b \gamma} d \gamma \),<caption>(4)</caption></p><p>\( \int_{0}^{\infty} \ln \left(\left(f_{h} H W R+2 N^{2}\right) \gamma+f_{h}\right) \gamma^{\lambda+f+1} e^{-b \gamma} d \gamma \) \( =-\left.\ln \left(\left(f_{h} H W R+2 N^{2}\right) \gamma+f_{h}\right) e^{-b \gamma} \sum_{j=1}^{\lambda+f+2} \frac{(\lambda+f+1) !}{(\lambda+f+2-j) ! b^{j}} \gamma^{\lambda+f+2-j}\right|_{0} ^{\infty} \gamma^{\lambda+f+2-j} e^{-b \gamma} d \gamma \) \( +\sum_{j=1}^{\lambda+f+2} \frac{(\lambda+f+1) !}{(\lambda+f+2-j) ! b^{j}} \int_{0}^{\infty} \frac{1}{\gamma+\frac{f_{h}}{f_{h} H W R+2 N^{2}}} \)<caption>(5)</caption></p><p>\( \begin{aligned} \int_{0}^{\infty} \frac{1}{\gamma+\frac{f_{h}}{f_{h} H W R+2 N^{2}}} \gamma^{\lambda+f+2-j^{-b \gamma}} d \gamma=\\ &\left(\frac{f_{h}}{f_{h} H W R+2 N^{2}}\right)^{\lambda+j+2-j \frac{b f_{h}}{f_{h} H W R+2 N^{2}}} \Gamma(\lambda+f+3-j) \Gamma\left(-(\lambda+f+2)+j, \frac{b f_{h}}{f_{h} H W R+2 N^{2}}\right) \end{aligned} \)<caption>(6)</caption></p><p>\( \begin{aligned} \bar{C}=& \frac{f_{h} a^{2} b^{\lambda}}{2 N \ln 2} \sum_{k=0}^{\infty} \sum_{t=0}^{\infty} \frac{(2 k-1) ! !(2 t-1) ! !}{k ! t ! \Gamma(\lambda+2)} \sum_{f=0}^{\infty} \frac{\Gamma(2 k+f+1) \Gamma(\lambda+2) c^{f \lambda+f+2}}{f ! \Gamma(2 k+1) \Gamma(\lambda+f+2)} \sum_{j=1}^{(\lambda+f+1) !} \frac{b^{j}}{} \\ & \times\left[A^{\lambda+f+2-j} e^{b \lambda} \Gamma(-(\lambda+f+2)+j, b A)-B^{\lambda+f+2-j} e^{b B} \Gamma(-(\lambda+f+2)+j, b B)\right] \end{aligned} \)<caption>(7)</caption></p><p>은 로그함수, 지수함수 그리고 거듭제곱항을 포함하고 있다. 일반적으로 이와 같은 형태의 적분식은 풀리지 않으므로 적분표를 이용하여 근사화 하여 전개한다. 이를 위해서 로그항의 특성을 이용하여 분모와 분자에 관한 수식을 분리한다. 수식 (5)는 수식 (4)의 적분항의 분자에 관한 수식만을 분리한 것으로, [7,2.321 .2]를 이용하여 부분적분올 수행한 결과를 나타낸다. 수식 (5)의 부분적분 결과를 보면 다시 적분항을 포함하고 있는데, 이 역시 바로 풀리지 않으므로 [7,3.383 .10]을 이용하여 감마함수를 이용하여 근사화 할 수 있다. 수식 (4)의 분모에 관한 적분식 역시 이와 같은 과정을 거쳐 최종적으로 상관도를 갖는 Hoyt 페이딩 채널에서 대역확산 워터마킹 시스템의 채널용량 수식 (7)을 얻을 수 있다.</p><p>수식 (7)에서 간결한 채널용량 수식 표현을 위해 \( A=\frac{f_{h}}{f_{h} H W R+2 N^{2}}, B=\frac{1}{H W R} \) 로 나타냈다. 수식 (7)의 채널용량 수식은 다양한 시스템 변수와 채널 변수를 통해 채널용량이 결정됨을 보이고 있다.</p>
|
페이딩 채널상에서의 채널용량 유도를 목표로 Hoyt 페이딩 모델이며 dual-branch MRC 기법을 사용하였다. 한편, 대역확산 워터마킹 시스템의 AWGN채널 또한 사용하였고 채널용량 수식 표현을 위해 \( A=\frac{f_{h}}{f_{h} H W R+2 N^{2}}, B=\frac{1}{H W R} \) 로 나타냈다.
|
<h1>Ⅱ. 시스템 구현</h1> <h2>1. 차량 신호 인터페이스</h2> <h3>가. 차량 신호 H/W 구성</h3> <p>주행 중 또는 정지 상태에서의 동작 상태를 알기 위해서는 차량 내 장착된 아날로그 및 디지털센서 정보를 획득함으로써 알 수 있다. 차량 신호 중 아날로그 형태의 신호는 TPS(Throttle Position Sensor), ABS(Anti-lock Braking System) Wheel Sensor, A/Bag Accelerometer sensor, Air Flow Sensor등이 있고, 디지털 형태의 신호로는 차속(speed), 엔진회전수(\( \mathrm{rpm} \)), brake, gear position lever, 방향 지시등, wiper, seat belt등이 있다. 이러한 아날로그 및 디지털 신호 중 본 연구에서 필요한 신호는 brake 차량 speed 신호만을 사용하는데 이는 최소한의 차량 인터페이스를 하기 위함이다. 차량 신호를 획득하기 위한 인터페이스 회로는 크게 두 가지 방법을 사용한다.</p> <h3>나. 차량 신호 S/W 구성</h3> <p>차량 신호를 마이크로프로세서에서 처리하는 방법은 크게 두 가지 있다. 첫 번째는 인터럽트로 처리하는 것이고(그림 3), 두 번째는 rising/falling을 주기적으로 확인하여 처리하는 방법(그림 4)이다. 두 가지 방법이 각각 장/단점이 있는데 인터럽트 처리 방법은 프로그램의 처리 부담을 줄이면서 빠른 신호 변화를 감지할 수 있다. Rising/falling 처리 방법은 필요시에 해당되는 신호의 변화를 확인하는 방법으로 프로그램의 처리 부담이 적지만 신호의 변화를 감지 못할 경우도 있다. 본 연구에서는 차량 신호 감지 방법으로 두 가지 방법을 다 사용하였는데, 차량 신호의 변화가 그다지 빠르지 않은 브레이크 신호 감지는 첫 번째 방법을 사용하였고, 차량 속도는 구형파가 속도에 따라 가변적으로 발생하기 때문에 두 번째 방법을 사용하였다.</p> <h2>2. 가속도 / 자이로 센서 인터페이스</h2> <h3>가. 가속도 / 자이로 센서 인터페이스 H/W 구성</h3> <p>본 연구에서 적용한 운전 패턴 분석을 위해서는 운전자의 차량 주행을 분석하기 위한 센서가 필요한데 이러한 용도로 사용하는 것이 가속도 및 자이로 센서이다. 가속도센서는 두개를 사용하였는데 하나는 차량의 전방 또는 후방 방향으로의 직선 움직임을 감지하기 위한 것이고, 다른 하나는 좌/후 방향으로의 직선 움직임을 감지하기 위한 것이다. 이러한 가속도 센서는 아날로그의 전압 값으로 출력이 되며 마이크로프로세서의 A/D converter pin으로 연결된다.</p> <p>\( 5 \mathrm{G} \)의 가속도 센서 인터페이스 회로는 어느 방향으로도 직선 움직임이 없을 시 출력 단자에서는 \( 2.5 \mathrm{V} \)의 전압이 발생한다. 어느 한 방향(\( \mathrm{X} \)축+방향)으로 움직임이 있을시 기준 전압과 최대 전압 \( 5 \mathrm{V} \)사이의 값이 \( \mathrm{G} \)값에 따라 \( 2.5 \mathrm{V} / 5 \mathrm{G} \)(\( 1 \mathrm{G} \) 당 \( 0.5 \mathrm{V} \) 증가) 비율로 출력된다. 다른 방향(\( \mathrm{X} \)축-방향)으로 움직임이 있을시 기준 전압과 \( 0 \mathrm{V} \)사이의 값이 \( \mathrm{G} \)값에 따라 \( 2.5 \mathrm{V} / 5 \mathrm{G} \)(\(1 \mathrm{G} \) 당 \( 0.5 \mathrm{V} \) 감소) 비유로 출력된다.</p> <p>자이로 센서는 차량의 좌에서 우측 방향 또는 우에서 좌측 방향으로의 회전움직임을 감지하는 위해 사용되는데 이러한 자이로 센서는 아날로그의 전압 값으로 출력이 되며 마이크로프로세서의 A/D converter pin으로 연결된다.</p> <p>\( + \)/\( - \)\( 70 \mathrm{deg} / \mathrm{sec} \) 특성을 갖는 자이로 센서 인터페이스 회로는 좌우 어느 방향으로도 회전 움직임이 없을 시 출력 단자에서는 \( 2.5 \mathrm{V} \)의 전압이 발생한다. 어느 한 방향(좌측방향)으로 움직임이 있을시 기준 전압과 최대 전압 \( 5 \mathrm{V} \) 사이의 값이 \( 2.5 \mathrm{V} /-70 \mathrm{deg}\)(약 \( 0.036 \mathrm{V} / \mathrm{deg} \)) 비율로 출력된다. 다른 방향(우축 방향)으로 움직임이 있을시 기준 전압과 \( 0 \mathrm{V} \) 사이의 값이 \( 2.5 \mathrm{V} /+70 \mathrm{deg} \)(약\( 0.036 \mathrm{V} / \mathrm{deg} \) ) 비유로 출력된다.</p> <h3>나. 가속도 / 자이로 센서 인터페이스 S/W 구성</h3> <p>가속도 및 자이로 센서에서 출력되는 신호는 이상적인 경우에 noise가 없어야 하지만 실제로는 주변 환경에 따라 또는 보드의 특성에 따라 신호의 변화가 심하다. 또한 전압 형태로 출력되는 센서 신호를 마이크로 프로세서에 내장된 A/D 변환기로 변환 시 약간의 오차가 발생하는데 이는 마이크로프로세서 A/D 변환기의 해상도가 \( 8 \mathrm{bit} \) 또는 \( 10 \mathrm{bit} \) 이기 때문에 에러가 발생한다. 가속도 및 자이로 센서 값을 처리하는 과정은 그림 5와 같다.</p>
|
차량 신호 중 아날로그 형태의 신호는 TPS, ABS Wheel Sensor, A/Bag Accelerometer sensor, Air Flow Sensor등이 있고 디지털 형태의 신호로는 차속, 엔진회전수, brake, gear position lever, 방향 지시등, wiper, seat belt 등이 있다. 이러한 아날로그 및 디지털 신호 중 해당 실험에서 필요한 신호는 brake 차량 speed 신호만을 사용하며 이는 최소한의 차량 인터페이스를 하기 위함이다. 차량 신호를 마이크로프로세서에서 처리하는 방법은 크게 두 가지 있는데 첫째는 인터럽트로 처리하는 것이고 두 번째는 rising/falling을 주기적으로 확인하여 처리하는 방법이다. 인터럽트 처리 방법은 프로그램의 처리 부담을 줄이면서 빠른 신호 변화를 감지할 수 있으며 Rising/falling 처리 방법은 필요시에 해당되는 신호의 변화를 확인하는 방법으로 프로그램의 처리 부담이 적지만 신호의 변화를 감지 못할 경우도 있다. 본 실험에서는 차량 신호 감지 방법으로 두 가지 방법을 다 사용하였으며 차량 신호의 변화가 그다지 빠르지 않은 브레이크 신호 감지는 첫 번째 방법을 사용하였고 차량 속도는 구형파가 속도에 따라 가변적으로 발생하기 때문에 두 번째 방법을 사용하였다. 운전 패턴 분석을 위해서는 운전자의 차량 주행을 분석하기 위한 센서로 가속도 및 차량의 회전움직임을 감지하기 위해 사용되며 아날로그의 전압 값으로 출력되어 마이크로프로세서의 A/D converter pin으로 연결되는 자이로 센서를 사용한다.
|
<h3>라. 급감속</h3> <p>(1) 급감속 알고리즘 및 시뮬레이션</p> <p>급감속이란 주행 중에 급격히 속도를 감속하는 경우와 정지 상태가 되도록 브레이크 페달을 과도하게 조작하는 경우이다. 이러한 운전 패턴은 갑작스런 정지로 인한 추돌 및 충돌 위험이 발생하기 때문에 앞차와의 충돌 혹은 추돌이 발생할 가능성이 높다.</p> <p>이러한 주행 패턴시 횡가속도는 거의 변화가 없고 종감속도만 그림 17과 같이 발생을 한다. 이러한 종감속도의 변화량을 속도에 비례하여 기준치를 정함으로서 위험 운전 여부를 판단한다. 이때 종감속도의 증가치(\( + \)값이) 발생시를 가속도 판정을 하며 단위는 \( \mathrm{G}(\mathrm{m} / \mathrm{sec} 2) \)이다.</p> <p>(총감속도 \( / \) 속도) \( >\) 급가속 기준치<caption>(5)</caption></p> <p>위와 같은 판단 기준을 근거로 급차선 변경을 판정하기 위한 처리 방법은 그림 18 과 같다.</p> <p>(2) 급감속도 실험 결과</p><p>급추월 차선 변경은 그림 17의 시뮬레이션 결과에서 알 수 있듯이 종감속도의 변화가 그래프의 아래쪽으로(실제로는 전방 방향으로) 크게 발생을 한다. 그림 19는 시속 \( 40 \mathrm{Kph} \)에서 급감속을 하여 거의 정지 상태까지 감속 시 종감속도(첫 번째 그래프)가 크게 하강하는 것을 알 수 있다.</p> <h3>마. 급선회</h3> <p>(1) 급선회 알고리즘 및 시뮬레이션</p> <p>급선회란 도로의 선회 구간으로 차량 진입시 선회 상황에 맞지 않는 속도로 진입하여 주행하는 경우 또는 과도한 핸들 조작으로 인한 위험이 발생하는 경우이다. 또한 교차로에서 좌회전 시에 과도한 속도로 회전하는 경우도 포함된다. 이러한 운전 패턴은 과도한 핸들 조작으로 인한 위험이 발생하기 때문에 옆 차선 차량과의 추돌이 발생하거나 맞은편 차선의 차량과 충돌 발생 그리고 차선 이탈로 인한 인도 진입시 보행자 안전을 위협할 수 있다.</p> <p>이러한 급선회 주행 패턴은 종가속도/종감속도의 변화는 거의 없고, 횡가속도의 변화는 있지만 그 정도가 별로 크지 않다. 그리고 선회량 변화는 그림 20과 같이 크게 발생한다. 이러한 선회량의 변화량을 속도에 비례하여 기준치를 정함으로서 위험 운전 여부를 판단한다. 이때 선회량의 단위는 \( \mathrm{deg} / \mathrm{sec} \)이다.</p> <p>(선회량 변화 \( / \) 속도) \( >\) 급선회 기준치<caption>(6)</caption></p> <p>(2) 급선회 실험 결과</p> <p>급선회는 그림 20의 시뮬레이션 결과에서 알 수 있듯이 선회량 \( \mathrm{deg}/\mathrm{sec} \) 변화가 그래프의 위쪽 또는 아래쪽으로(실제로는 죄회전 또는 우회전) 크게 발생을 한다. 그림 22는 시속 \( 57 \mathrm{Kph} \)에서 급선회를 할 경우에 종가/감속 및 횡가속도 변화가 있지만 크지를 않다. 하지만 선회량(세 번째 그래프)은 크게 변화는 것을 볼 수 있다.</p>
|
주행중에 급격히 속도를 감속하는 급감속의 판정 처리 결과 그림 18과 같이 나타났고, 급선회의 경우 그림 22와 같이 나타났다.
|
<h3>나. 급추월 차선 변경</h3> <p>(1) 급추월 차선 변경 알고리즘 및 시뮬레이션</p> <p>급추월 차선 변경이란 그림 10과 같이 선행차를 뒤따라 가지 않고 연속적인 급격한 핸들 조작을 통행 앞차를 추월하여 주행하는 것을 의미하는 것으로 주행 속도에 비해 핸들 조작이 급격이 이루어지는 경우나 차선 변경 시 속도를 급격히 증가하는 경우 차선 변경 시 전후, 좌우 도로 상황을 확인이 미흡한 경우에 발생한다. 이와 같은 급추월선 차선 변경으로 인해 변경한 차선내의 앞 뒤차와 충돌 혹은 추돌, 맞은편 차량 또는 이륜차와 충돌 그리고 무리한 주행으로 인한 타 차량과 사고가 발생할 가능성이 발생한다.</p> <p>이러한 주행 패턴시 종가속도는 거의 변화가 없고 횡가속도만 그림 11과 같이 발생을 한다. 이러한 횡가속도의 변화량을 속도에 비례하여 기준치를 정함으로서 위험 운전 여부를 판단한다. 이때 식 (2), (3)을 동시에 만족하여야만 위험 운전으로 판단이 된다. 식 (2) 또는 (3)만 발생 시 이는 단순히 급차선 변경 위험 운전으로 구분된다.</p> <p>(왼쪽 횡가속도\( / \)속도) \( >\) 급차선 변경 기준치<caption>(2)</caption></p> <p>(오른쪽 횡가속도\( / \)속도) \( >\) 급차선 변경 기준치<caption>(3)</caption></p> <p>위와 같은 판단 기준을 근거로 급차선 변경을 판정하기 위한 처리 방법은 그림 11과 같다.</p> <p>(2) 급추월 차선 변경 실험 결과</p> <p>급추월 차선 변경은 그림 12의 시뮬레이션 결과에서 알 수 있듯이 횡가속도의 변화가 좌우로(그래프상에서는 상하로) 크게 작용한다. 그림 13에서 차속이 약 \( 50 \mathrm{~km} / \mathrm{h} \)에서 횡가속도 변화가(두 번째 그래프)가 상하로(실제 차량에서는 좌우로)심하게 이루어지는 것을 알 수 있다.</p> <h3>다. 급가속</h3> <p>(1) 급가속 알고리즘 및 시뮬레이션</p> <p>급가속이란 주행 중에 급격히 속도를 증가하는 경우와 정지 또는 저속으로 주행 중 가속 페달을 과도하게 조작하여 급출발하는 경우이다. 이러한 운전 패턴은 갑자스런 출발로 인한 추돌 및 충돌 위험이 발생하고 급가속시 발생되는 운전자의 신체적 압박으로 인해 전후 좌우의 안전 확인이 소홀하여 앞 뒤차와 충돌 혹은 추돌 또는 무리한 주행으로 인한 타 차량과의 사고가 발생할 가능성이 있다. 이와 같은 급가속 주행 패턴은 횡가속도는 거의 변화가 없고 종가속도만 그림 14와 같이 발생을 한다. 이러한 종가속도의 변화량을 속도에 비례하여 기준치를 정함으로서 위험 운전 여부를 판단한다. 이때 종가속도의 증가치(+값이) 발생시에 가속도 판정을 하며 단위는 \( \mathrm{G}(\mathrm{m} / \mathrm{sec} 2) \)이다.</p> <p>(종가속도\( / \)속도) \( >\) 급가속 기준치<caption>(4)</caption></p> <p>위와 같은 판단 기준을 근거로 급차선 변경을 판정하기 위한 처리 방법은 그림 15와 같다.</p> <p>(2) 급가속도 실험 결과</p> <p>급추월 차선 변경은 그림 14 의 시뮬레이션 결과에서 알 수 있듯이 종가속도의 변화가 그래프의 위쪽으로(실제로는 후방 방향으로) 크게 발생을 한다. 그림 16은 시속 \( 20 \mathrm{Kph} \)에서 급가속으로 \( 40 \mathrm{Kph} \)까지 증가 시 종가속도(첫 번째 그래프)가 크게 상승하는 것을 알 수 있다.</p>
|
급격한 핸들 조작을 통행 앞차를 추월하여 주행하는 것을 의미하며 선행차를 뒤따라 가지 않고 차량과 사고가 발생할 가능성이 급추월선 차선 변경으로 인해 충돌한다.
|
<h2>4. 고대역 위상 결정 방법</h2><p>고대역 여기 신호의 스펙트럼과 고대역 스펙트럼 포락선 에너지를 결합하면 최종 고대역 스펙트럼이 결정되고, IDFT (inverse discrete Fourier transform)를 수행하기 위하여 최종적으로 고대역 스펙트럼의 위상을 결정해야 한다.</p><p>저대역과 고대역 위상 사이에는 의미 있는 상관관계가 존재하지 않으므로 저대역으로부터 고대역 위상을 추정하는 기법은 사용하지 못한다. 기존의 위상 결정 방법에는 하모닉 부호화에서 사용하는 프레임 위상 연속성을 보장하는 방법과, SBR에서 사용하는 저대역 위상 복사 방법 등이 있다. 본 논문에서는 프레임 연속성을 높여 왜곡을 감소시키는 것을 목표로 위상을 결정한다.</p><p>제안하는 인공 대역 확장 방법은 프레임 단위로 구현되고, 인접한 프레임 간의 신호 연속성을 높이기 위해 \( 50 \% \) 중첩 가산을 사용한다. 그러나 중첩 영역에서 두 신호의 상관도가 낮으면 중첩 영역에서 복원된 신호의 왜곡이 발생한다. 또한, 위상은 주파수별 성분이 결합될 때 시간 축에서 각 성분의 상대적 위치를 결정하고, 그 결과 최종 시간 축 포락선 (temporal envelope)을 결정한다. 따라서 제안하는 방법은 대역 확장에서 프레임 사이의 신호 연속성을 최대로 하도록 위상을 정한다.</p><p>IDFT를 수행하기 직전 단계의 최종 광대역 스펙트럼을 \( 500 \mathrm{~Hz} \) 부대역으로 구분하며, 14개의 부대역 중 저대역 7개의 부대역은 입력 협대역 신호이고, 고대역 7개의 부대역은 확장된 신호를 나타낸다. 저대역의 위상을 구하고 \( 500 \mathrm{~Hz} \) 부대역 단위로 벡터로 표현하여 코드 벡터를 정의하고, 그에 따라 7개의 코드 벡터로 구성된 위상 코드북 (codebook)을 생성한다. 다음, 아래 설명과 같이 고대역의 각 부대역 단위로 코드북에서 최적의 위상을 선택한다.</p><p>고대역 위상은 각 부대역 단위로 독립적으로 결정한다. 이전 프레임에서 합성한 고대역의 각 부대역 단위별 시간 축 신호 \( p(n) \) 를 구한다. 여기서, \( n \) 은 시간 축 샘플 인덱스이다. 또한, 현재 프레임에서 고대역의 각 부대역 단위별로 \( k \) 번째 위상 코드 벡터를 사용할 경우의 시간 축 신호 \( q_{k}(n) \) 를 구한다. 다음, 인접한 두 프레임의 중첩 영역에서 각 부대역 단위별로 \( p(n) \) 와 \( q_{k}(n) \) 의 상관관계를 구하고, 최대값을 가지는 \( k \) 를 검색하여 최종 부대역 위상을 결정한다. 모든 고대역 위상을 결정한 후에 최종적으로 IDFT를 수행하고 중첩-가산 동작을 수행하여 대역이 확장된 신호를 출력한다.</p><p>위상을 주파수 샘플 단위가 아니라 부대역 단위로 결정하는 이유는, 시간 축 파형의 포락선이 인접한 주파수 위상의 상호 관계에 의해 결정되기 때문에 주파수 샘플 단위로 위상을 결정할 경우 시간 축 포락선을 조정할 수 없기 때문이다. 또한, 부대역 단위로 위상을 결정하면 원본 신호가 가지는 인접한 주파수 위상의 상호 관계를 유지할 수 있는 장점을 가진다. 저대역 위상으로부터 위상 코드북을 정의할 때, 코드 벡터 사이의 중첩을 허용하여 코드북의 크기를 증가시키면 위상 선택 성능을 향상시킬 수 있으나, 선택을 위한 계산량이 증가하므로 본 논문에서는 7개의 코드 벡터만 사용한다.</p><p>표 1은 SBR의 저대역 위상 복사 방법과 제안한 위상 결정 방법으로 복원한 신호에 대하여, 인접한 두 프레임의 중첩 영역에서 부대역 단위로 신호의 평균 상관도를 보여준다. 제안한 방법을 사용한 경우에 상관도가 더 높아지는 것을 확인할 수 있다.</p>
|
IDFT를 수행하기 위해선 고대역 스펙트럼의 위상을 결정해야 하므로 본 논문에서는 대역 확장에서 프레임 사이의 신호 연속성을 최대로 하여 위상을 정하는 방법을 제안한다. 본 논문에서는 프레임 연속성을 높여서 왜곡을 감소시키고 목표를 위상을 결정하여 해당 방법을 사용한 경우에 상관도가 높아지는 것도 확인이 가능하다.
|
<h2>3. 스펙트럼 포락선의 고대역 확장</h2><p>본 논문에서 제안하는 스펙트럼 포락선의 고대역 확장은 NMF 방법을 사용한다. 기존의 NMF 방법은 고대역의 포락선을 DFT 주파수 단위로 확장하지만 본 논문에서는 부대역 단위로 NMF를 수행하여 고대역을 확장하는 방법을 제안한다. 제안한 방법을 사용하면 기존의 방법에 비하여 매우 많은 계산량을 감소시킬 수있다.</p><p>NMF는 (1)과 같이 프레임 \( t \) 에서 0이상의 원소값을 가지는 벡터 \( X_{t} \) 를 기저 (basis) 벡터 \( b_{j} \) 와 이득 (gain) \( g_{j, t} \) 의 조합으로 가장 근사적으로 표현한다.</p><p>\( X_{t} \approx \sum_{j=1}^{J} g_{j, t} b_{j} \)<caption>(1)</caption></p><p>여기서 \( J \) 는 기저 벡터의 개수를 나타내며, \( g_{j, t} \) 는 프레임\( t \) 에서 \( j \) 번째 기저 벡터의 이득을 나타내며, \( g \) 와 \( b \) 의 모든 원소값은 0이상이다.</p><p>모든 프레임의 \( X_{t} \) 을 동일한 기저 벡터로 모델링하기 위하여 (1)의 모든 \( t(1 \leq t \leq K) \) 를 결합하여 (2)와 같은 행렬 표현식을 얻을 수 있다.</p><p>\( X \approx B G \)<caption>(2)</caption></p><p>여기서 \( X=\left[\begin{array}{lll}X_{1} & \cdots & X_{K}\end{array}\right], B=\left[\begin{array}{lll}b_{1} & \cdots & b_{j}\end{array}\right],[G]_{j, t}=g_{j, t} \) 를 나타낸다. \( X \) 가 주어질 때, \( X \) 를 (2)와 같이 기저 행렬과 이득의 조합으로 가장 근사적으로 표현하기 위하여 (3)과 (4)로 표시되는 갱신 방법을 사용할 수 있다.</p><p>\( B \leftarrow B . \times \frac{\frac{X}{B G} G^{T}}{1 G^{T}} \)<caption>(3)</caption></p><p>\( G \leftarrow G . \times \frac{B^{T} \frac{X}{B G}}{B^{T} 1} \)<caption>(4)</caption></p><p>여기서 1은 모든 원소값이 1이고 행과 열의 길이가 \( X \)와 같은 행렬을 나타낸다.</p><p>NMF 기반으로 포락선을 확장하기 위해 전체 광대역 훈련 데이터의 프레임별 스펙트럼 포락선 \( X_{t} \) 로 구성된 \( X \) 에 대하여 \( B \) 와 \( G \) 를 구하고, 각 프레임에서 포락선 확장할 때 \( B \) 를 활용해야 한다. 그러나 NMF 행렬의 크기가 증가할수록 계산량이 급격하게 증가한다. 따라서 본 논문에서는 DFT 주파수 단위의 스펙트럼 포락선으로 \( X \) 를 표현하지 않고, 일정한 부대역별로 포락선 에너지를 구하여 \( X \) 로 사용한다. 부대역별 에너지로 주파수 포락선을 조정하는 방법은 SBR (spectral bandwidth replication) 기술에서 사용되어 우수한 성능을 나타내고 있으므로 제안한 방법도 이와 유사한 방식을 사용한다.</p><p>그림 3은 제안한 스펙트럼 포락선의 고대역 확장 방법을 나타낸다. Step 1은 훈련 과정이고, 훈련에 사용되는 광대역 신호는 샘플링 주파수가 \( 16 \mathrm{kHz} \) 이고 최대 주파수가 \( 7 \mathrm{kHz} \) 인 신호이고, 총 \( K \) 개의 프레임을 가진다.</p><p>먼저, 각 프레임 신호의 16차 LPC 계수를 구한 후 LPC 계수에 대한 512-포인트 DFT를 수행하여 광대역 스펙트럼 포락선을 얻는다. 스펙트럼 포락선은 \( 500 \mathrm{~Hz} \) 대역폭을 가지는 총 14개의 부대역으로 구분하여 각 부대역의 에너지를 계산한다. 이와 같은 방법으로 \( 14 \times K \) 크기의 \( X \) 가 정의되고, (3)과 (4)에 따라 \( B \) 와 \( G \) 를 구한다. 본 논문에서는 총 512개의 기저 벡터를 사용하여 \( B \)의 크기가 \( 14 \times 512 \) 가 되고, (5)와 같이 표현된다. 이렇게 구해진 \( B \) 는 스펙트럼 포락선을 고대역으로 확장할 때 모델로 사용된다.</p><p>\( \left[\begin{array}{ccc}x_{1,1} & \cdots & x_{1, K} \\ \vdots & \ddots & \vdots \\ x_{14,1} & \cdots & x_{14, K}\end{array}\right]input data \approx\left[\begin{array}{ccc}b_{1,1} & \cdots & b_{1,512} \\ \vdots & \ddots & \vdots \\ b_{14,1} & \cdots & b_{14,512}\end{array}\right]basis \times\left[\begin{array}{ccc}g_{1,1} & \cdots & g_{1, K} \\ \vdots & \ddots & \vdots \\ g_{512,1} & \cdots & g_{512, K}\end{array}\right] gain\)<caption>(5)</caption></p><p>NMF 기반의 스펙트럼 포락선 확장은 그림 3의 step 2와 3단계로 수행한다. 현재 프레임의 협대역 스펙트럼 포락선이 주어지면 \( 500 \mathrm{~Hz} \) 단위의 부대역별 에너지를 구하여 \( X^{\prime} \) 를 정의하며, 협대역은 총 7개 부대역을 가지므로 \( X^{\prime}\)는 \(7 \times 1 \) 크기의 벡터이다. 다음, step 2와 같이 \( B \) 의 첫 7개의 열에 해당하는 \( 7 \times 512 \) 크기의 \( B^{\prime} \)를 정의하고, (4)를 사용하여 \( X^{\prime} \approx B^{\prime} G^{\prime} \) 를 만족하는 \( 512 \times 1 \) 크기 \( G^{\prime} \) 를 구하고, 이 관계는 (6)으로 표현된다. \( G^{\prime} \) 는 협대역 기저 벡터를 어떻게 결합하면 주어진 협대역 포락선 에너지가 되는지를 정의하며, 결국 협대역 스펙트럼 포락선 에너지의 특성을 통합적으로 보여준다.</p><p>\( \left[\begin{array}{c}x_{1}^{\prime}{ }_{1} \\ \vdots \\ x^{\prime}{ }_{7}\end{array}\right] \approx\left[\begin{array}{ccc}b_{1,1} & \cdots & b_{1,512} \\ \vdots & \ddots & \vdots \\ b_{7,1} & \cdots & b_{7,512}\end{array}\right] \times\left[\begin{array}{c}g_{1}^{\prime} \\ \vdots \\ g_{512}^{\prime}\end{array}\right] \)<caption>(6)</caption></p><p>마지막으로, Step 3과 같이 \( B G^{\prime} \) 를 구하여 \( 14 \times 1 \) 크기의 \( X \) "를 구하면(7)이 된다. 즉, 고대역에 해당하는 기저 벡터 성분을 포함하여 전체 기저 벡터를 \( G^{\prime} \)에 따라 결합한 결과가 \( X \) "이며, 이는 협대역의 기저 벡터 결합 구조를 광대역에 동일하게 적용한 결과이므로, \( X \) "의 고대역 영역 원소값이 원하는 고대역 포락선의 부대역별 에너지가 된다.</p><p>\( \left[\begin{array}{ccc}b_{1,1} & \cdots & b_{1,512} \\ \vdots & \ddots & \vdots \\ b_{14,1} & \cdots & b_{14,512}\end{array}\right] \times\left[\begin{array}{c}g_{1}^{\prime} \\ \vdots \\ g_{612}^{\prime}\end{array}\right]=\left[\begin{array}{c}x^{\prime \prime} \\ 1 \\ x^{\prime \prime} \\ 14\end{array}\right] \)<caption>(7)</caption></p>
|
본 논문에서는 기존의 NMF 방식보다 많은 계산량을 감소시킬 수 있는 부대역 단위로 NMF를 수행하여 고대역을 확장하는 방법을 제안한다. 이 방법은 SBR 기술에서도 사용되고 있는 부대역벌 에너지로 주파수 포락선을 조정하는 방법과 유사하다.
|
<h1>I. 서 론</h1><p>기존의 협대역 \( (0.3 \sim 3.4 \mathrm{kHz}) \) 음성 통신 서비스는 고역 정보의 손실로 인하여 고품질의 서비스를 제공하는데 한계를 가진다. 이를 해결하기 위하여 최근 광대역 \( (0.05 \sim 7 \mathrm{kHz}) \) 음성 통신 서비스가 시도되고 이를 위한 광대역 음성 부호화기가 개발되었으며, 초광대역 \( (0.05 \sim 14 \mathrm{kHz}) \) 통신을 위한 부호화기도 개발되었다. 광대역 및 초광대역 음성 서비스는 협대역 서비스 보다 음성의 명료성과 자연성 등에서 뛰어난 품질을 제공한다. 그러나 새로운 서비스를 제공하기 위해 통신 네트워크 변경이 필요하고 전송 데이터가 증가하므로, 기존 통신 서비스를 일시에 광대역으로 변환하는 것은 한계가 있다. 따라서 동일한 데이터 전송량을 사용하고 네트워크 변경 없이 광대역 음성 서비스를 제공하기 위한 방법으로 인공 대역 확장 (artificial bandwidth extension, ABE)을 사용할 수 있다.</p><p>인공 대역 확장은 추가적인 정보의 전송 없이 주어진 협대역 신호로부터 고대역 정보를 추정하여 광대역 신호를 합성하는 기술이다. 인공 대역 확장 기술은 소스 필터 모델 (source-filter model)을 사용하여 구현할 수 있다. 이 방법에서 협대역 음성 신호는 선형 예측 분석에 의하여 여기 신호 (excitation signal)와 스펙트럼 포락선 (envelope)으로 모델링 되며, 각각의 고대역 성분을 추정하여 대역을 확장하고, 확장된 여기 신호와 스펙트럼 포락선을 이용하여 최종 광대역 음성을 합성한다.</p><p>여기 신호의 대역을 확장하는 방법으로 주파수 영역에서의 스펙트럼 폴딩 (spectral folding) 기법이 제안되었다. 그러나 이 방법은 고대역의 하모닉 구조를 원본과 유사하게 생성하지 못하므로 복원된 신호의 음성 품질을 저하시키는 문제를 가진다.</p><p>스펙트럼 포락선의 대역 확장 방법으로 HMM (hidden Markov model) 또는 GMM (Gaussian mixture model) 등과 같은 확률 모델 기반 방법이 개발되었다. 이 방법들은 신호의 여러 특성을 모델링하기 위하여 다수 모델을 사용하고, 각 프레임 신호의 특성에 해당하는 모델을 선택한다. 그러나 음성 신호의 특성이 모호하거나 여러 특성이 혼합된 경우가 자주 발생하므로, 만일 특성 분류가 잘못되어 잘못된 모델을 선택하면 심각한 성능 저하가 발생할 수 있다. 또한, 최종 광대역 합성 과정에서 스펙트럼 위상에 대한 조정 과정이 없으므로 잘못된 위상에 의한 신호 왜곡이 발생하여 성능이 저하되는 요인으로 작용한다.</p><p>본 논문에서는 이와 같은 기존 인공 대역 확장 기술의 문제점을 해결하고 우수한 품질의 고대역 신호 합성을 위하여 하모닉 구조를 유지하는 여기 신호 확장 기술, 부대역 (sub-band)별 에너지를 기반으로 NMF (non-negative matrix factorization) 방법을 사용하는 스펙트럼 포락선 확장 기술, 그리고 시간 영역에서 프레임 사이의 상관관계를 기반으로 위상을 결정하는 기술을 포함하는 새로운 인공 대역 확장 기술을 제안한다. 제안하는 여기 신호 확장 기술은 저대역 하모닉 구조가 고대역으로 확장되도록 하여 대역 확장 성능을 향상시키며, NMF 방법으로 고대역 에너지를 추정하여 특성 분류 없이 하나의 기저 행렬로 포락선을 확장한다.</p><p>위상은 중첩된 프레임 영역에서의 상관관계를 높이도록 결정하여 합성된 신호의 왜곡을 감소시킨다. 주관적 청취 평가를 통하여 제안한 방법으로 확장된 신호의 품질이 협대역 신호보다 우수한 것을 확인하였다.</p>
|
인공 대역 확장 (artificial bandwidth extension, ABE) 은 추가적인 정보의 전송 없이 주어진 협대역 신호로부터 고대역 정보를 추정하여 광대역 신호를 합성하는 기술로써 이를 사용하여 동일한 데이터 전송량을 사용하고 네트워크 변경 없이 광대역 음성 서비스를 제공할 수 있다. 스펙트럼 포락선의 대역을 확장할 수 있는 방법으로 HMM (hidden Markov model), GMM (Gaussian mixture model) 등과 같은 확률 모델 기반의 방법이 개발되었다. 본 논문에서 제안하는 여기 신호 확장 기술, 부대역 (sub-band)별 에너지를 기반으로 NMF (non-negative matrix factorization) 방법을 활용한 스펙트럼 포락선 확장 기술, 새로운 인공 대역 확장 기술 등은 기존의 인공 대역 확장 기술이 가지고 있는 문제점을 해결하고, 우수한 품질의 고대역 신호를 합성하기 위함이다.
|
<h1>II. 제안한 인공 대역 확장 기술</h1><h2>1. 개요</h2><p>그림 1은 본 논문에서 제안하는 인공 대역 확장 기술의 전체 구조를 나타낸다. 입력되는 협대역 신호는 샘플링 주파수가 \( 8 \mathrm{kHz} \) 이고 AMR-NB (adaptive multi-rate narrow-band) 음성 부호화기로 부호화 및 복호화된 신호이다. 대역 확장 기술은 통신 단말기의 최종 출력단에 적용되고, 현재 가장 대표적인 협대역 통신 부호화기가 AMR-NB이므로, AMR-NB로 복원된신호를 입력으로 사용한다. 전체 대역 확장 동작은 \( 50 \% \)중첩 (overlap) 되는 프레임 단위로 수행되며, 프레임길이 \( 20 \mathrm{~ms} \) 와 프레임율 (frame rate) \( 10 \mathrm{~ms} \) 를 사용한다.</p><p>협대역 입력 신호는 선형 예측기를 사용하여 여기 신호와 16차 LPC 계수로 분리하고, 각각에 256-point DFT (discrete Fourier transform)를 적용하여 각각의 스펙트럼을 구하고, 각 스펙트럼을 주파수 영역에서 독립적인 방법으로 고대역으로 확장한다. 여기서, LPC 계수의 스펙트럼이 입력 신호의 스펙트럼 포락선에 해당한다. 고대역의 여기 신호와 스펙트럼 포락선이 결정되면 최종적으로 고대역 위상을 결정하여 광대역 신호를 생성한다.</p><p>본 논문에서 제안하는 인공 대역 확장 기술의 여기 신호와 스펙트럼 포락선의 고대역 확장 방법, 그리고 고대역 위상 결정 방법은 각각 2절, 3절, 4절에서 자세히 설명한다.</p><h2>2. 여기 신호의 고대역 확장</h2><p>하모닉 구조는 음질에 큰 영향을 미치므로 여기 신호의 고대역 확장은 저대역의 하모닉 구조가 고대역으로 불연속 없이 확장되는 것을 목표로 한다. 하모닉 구조는 주파수 영역에서 주기적인 스펙트럼 피크 형태로 나타난다. 따라서 고대역에 동일한 주기로 유사한 모양의 스펙트럼 피크를 생성하면 되고, 저대역과 고대역 경계에 불연속이 없어야 한다. 이와 같은 배경에 따라 본 논 문에서는 상관관계 기반으로 스펙트럼 중첩-가산을 사용하는 방법을 제안하며, 그림 2를 기반으로 상세한 동작을 설명하면 다음과 같다.</p><p>그림 2의 첫 그림에서, 저대역 여기 신호 스펙트럼의 마지막 구간에 \( N / 2 \) 의 길이를 가지는 구간 \( A \) 를 설정한다. 본 논문에서 \( N \) 은 \( 1 \mathrm{kHz} \) 로 설정하였으며 이 값은 실험에 의한 값이므로 변경할 수 있다. 다음, 나머지 스펙트럼 영역에서 \( A \) 와 크기 상관도 (magnitude correlation)가 가장 높은 구간을 검색하고, 검색된 구간의 시작 지점에서 \( N \) 의 길이를 가지는 구간 \( B \)를 설정한다. 그리고 그림과 같이 \( B \) 의 첫 \( 0 \sim N / 2 \) 구간과 \( A \) 에 윈도우를 적용하고 중첩-가산을 수행하여 스펙트럼 길이를 \( N / 2 \) 만큼 증가시킨다(빗금 친 영역). \( A \) 와 \( B \) 가 높은 상관도를 가지므로 \( B \) 는 \( A \) 와 유사한 스펙트럼 모양을 가지고, 따라서 빗금 친 영역은 \( A \) 와 유사한 하모닉 구조를 가지며 불연속 없이 연결된다.</p><p>위에서 확장된 \( N / 2 \) 영역을 다시 새로운 \( A \) 로 설정하고, \( A \) 와 가장 높은 상관도를 가지는 \( B \) 를 찾고, 위와 동일한 방법으로 중첩-가산을 수행하여 추가로 \( N / 2 \) 영역만큼 길이를 확장한다. 이렇게 확장된 영역은 역시 이전 스펙트럼과 불연속 없이 유사한 하모닉 구조를 가지게 된다. 이상의 과정을 확장된 구간이 \( 7 \mathrm{kHz} \) 가 될 때까지 계속 반복하여 확장된 여기 신호의 스펙트럼을 구한다. 이 방법을 사용하면 피치 주파수를 검색하지 않고</p><p>자동으로 해당 피치 주파수를 가지는 고대역 스펙트럼을 생성할 수 있다.</p><p>하모닉 구조가 없는 무성음 (unvoiced) 신호일 경우, 스펙트럼은 주기성이 없는 불규칙 모양을 가진다. 이 경우, 위 방법에 따라 높은 상관도를 가지는 \( B \) 영역을 사용하여 대역을 확장하면 불규칙 모양이 자동적으로 고대역으로 확장되므로 고대역에서도 무성음 스펙트럼이 얻어진다. 따라서 제안하는 방법을 사용하면 유성음/무성음 구분이 필요 없고, 모든 신호에 동일한 방법을 적용하여 원하는 성질의 스펙트럼을 고대역으로 확장할 수 있다.</p>
|
본 논문에서 제안하는 인공 대역 확장 기술은 협대역 입력 신호를 선형 예측기를 사용하여 여기 신호와 LPC 계수로 분리하고, 각각에 DFT (discrete Fourier transform)를 적용하여 구해진 스펙트럼을 주파수 영역에서 독립적인 방법으로 고대역으로 확장하여 고대역의 여기 신호와 스펙트럼 포락선이 결정되면 최종적으로 고대역 위상을 결정하는 방법을 취한다. 여기 신호의 고대역 확장은 저대역에서 고대역으로 불연속 없이 확장되어야 하므로 상관관계에 기반한 스펙트럼 중첩-가산을 사용함으로써 모든 신호에 동일한 방법을 적용하여 원하는 성질의 스펙트럼을 고대역으로 확장할 수 있다.
|
<h1>III. 성능 평가</h1><p>주관적 청취 평가를 통하여 제안한 방법의 성능을 평가하였다. 성능 평가는 제안한 방법으로 대역 확장된 광대역 신호, AMR-NB 로 복원된 협대역 신호, AMR-WB로 복원된 광대역 신호를 비교하여 진행한다. 성능 평가에는 NTT speech DB의 Korean 음성 신호를 사용하였고, 각 신호는 8 9초의 길이를 가진다. 총 96개의 신호 중 72개의 신호는 NMF 기저 행렬을 구하는 훈련 단계에 사용하였고, 나머지 24개 신호에 대한 대역 확장 성능을 평가하였다. 평가에 참여한 평가자는 총 5명이고, 조용한 사무실 환경에서 헤드폰을 통하여 청취하였다.</p><p>그림 4는 원본 광대역 신호와 제안한 방법으로 고대역이 확장된 신호의 스펙트로그램을 보여준다. 그림 4(b)에서 보듯이 대역 확장된 신호는 (a)의 하모닉 구조를 매우 유사하게 표현하고 있고, 저대역과 고대역 사이의 하모닉 구조 연속성을 유지하는 것도 확인할 수 있다.</p><p>청취 평가는 CCR (comparison category rating) 방식을 사용하여 수행한다. CCR 평가 방식은 청취자에게 두 개의 음성 샘플을 들려주고 첫 번째 샘플에 대한 두 번째 샘플의 상대적 성능을 평가한다. 성능은 총 7개의 단계로 평가하며, 3은 'Much Better', 2는 'Better', 1은 'Slightly Better', 0은 'About the Same', -1은 'Slightly Worse', -2는 'Worse', -3은 'Much Worse'를 의미한다.</p><p>그림 5는 제안한 기술을 이용하여 광대역으로 확장된 신호의 품질을 CCR 평가 방식을 통하여 측정한 결과이며, \( y \) 축의 rate는 전체 평가 신호와 모든 평가자에 대하여 각 점수가 선택된 개수의 백분율을 나타낸다. 각 그래프의 A vs. B 에서 양수 값은 B가 A보다 음질이 좋은 것을 의미한다.</p><p>그림 6은 각 평가 항목별로 전체 신호에 대한 평균을 \( 95 \% \) 신뢰구간과 함께 보여준다. "proposed ABE vs. AMR-NB "항목에서 신뢰구간이 0과 겹치지 않고 -1과 겹치므로, 제안한 방법의 음질이 AMR-NB 보다 청각적으로 뚜렷하게 우수한 것을 보여준다. 또한, "proposed ABE vs. AMR-WB" 점수가 "AMR-NB vs. AMR-WB" 점수보다 신뢰구간의 겹침 없이 0에 더 근접하므로, AMR-NB 보다 제안한 방법의 음질이 AMR-WB에 청각적으로 더 근접함을 알 수 있다.</p><p>이상의 주관적 평가로부터 제안한 방법으로 대역 확장된 신호의 음질이 원 협대역보다 우수한 것을 확인하였다. 또한, AMR-WB, 제안한 방법, AMR-NB순으로 성능이 우수한 것을 확인할 수 있다. 물론, 제안한 방법의 성능이 AMR-WB보다 많이 낮은 것을 알 수 있으며, 이는 저대역 정보만으로 고대역 정보를 추정하여 신호를 합성하므로 성능 향상에 근본적인 한계가 있기 때문이다.</p>
|
성능 평가는 제안한 방법으로 대역 확장된 광대역 신호, AMR-NB로 복원된 협대역 신호, AMR-WB로 복원된 광대역 신호를 비교하며 진행하였는데, 대역 확장된 신호는 하모닉 구조를 매우 유사하게 표현하고 있고, 저대역과 고대역 사이의 하모닉 구조 연속성을 유지하는 것도 확인할 수 있다. 또, 제안된 ABE와 AMR-NB 비교할 때 제안한 방법의 음질이 청각적으로 뚜렷하게 우수한 것을 보여주었고, 제안된 ABE와 AMR-WB를 비교할 때에도 제안한 방법의 음질이 AMR-NB보다 청각적으로 더 근접한 것을 알 수 있으므로 주관적 평가로부터 제안한 방법으로 대역 확장된 신호와 음질이 원 협대역보다 우수하다고 확인되었다.
|
<h1>Ⅲ. 컨텍스트 후보 결정</h1> <p>스테레오 파라미터는 PS 비트 열 중 대부분을 차지하므로 우선 이들에 대한 확률 분포를 살펴볼 필요가 있다. 이를 위해서 그림 1과 2에서 일련의 샘플들을 이용하여 IID과 ICC의 양자화 인덱스와 주파수 차동 코딩 혹은 시간 차동 코딩이 적용된 인덱스들의 확률 분포를 파라미터 밴드수 M이 10과 20일 때에 대해 보이고 있다. 우선 그림 1(a)에서 IID 양자화 인덱스는 0이 가장 확률이 높고 좌우로 갈수록 확률이 낮아지며, 그림 1(b)의 ICC 양자화 인덱스는 상대적으로 넓게 퍼져있다. 한편, 그림 2에서는 IID와 ICC의 주파수 및 시간 차동 코딩 모두 그 인덱스가 0에 가까운 것이 확률이 높고 좌우로 갈수록 확률이 낮아진다. 이상의 결과에서 스테레오 파라미터 인덱스의 확률 분포는 IID과 ICC가 서로 다르지만, 이들 모두에 대해서 특정 시간-스테레오 밴드에서의 양자화 인덱스는 시간 및 스테레오 밴드 상에서 인접한 양자화 인덱스들과 값이 매우 유사함을 알 수 있다.</p> <p>이에 의해 특정 소스 인덱스에 대한 컨텍스트 인덱스 후보는 시간-스테레오 밴드 상에서 가장 인접한 인덱스들 및 이의 조합으로 구성한다. 즉, 그림 3에서 스테레오 파라미터 양자화 인덱스 \( \mathrm{x}(\mathrm{k}, \mathrm{i}) \)를 소스로 할 때, 사용 가능한 컨텍스트는 이를 둘러싸고 있는 8개의 인덱스들이다. 한편, 일반적인 코딩 방법에서 시간 순서 별로 낮은 스테레오 밴드부터 높은 스테레오 밴드로 순차적으로 복호화를 진행하는 것을 고려하면, \( \mathrm{x}(\mathrm{k}, \mathrm{i}) \)를 복호화할 때 동일 시간에서의 스테레오 밴드 인덱스가 더 크거나 시간적으로 더 미래의 경우는 그 값들을 알 수 없다. 따라서, \( \mathrm{x}(\mathrm{k}, \mathrm{i}) \)를 복호화할 때 사용 가능한 컨텍스트는 그림 3과 같이 \( \mathrm{x}(\mathrm{k}-1, \mathrm{i}-1), \mathrm{x}(\mathrm{k}, \mathrm{i}-1), \mathrm{x}(\mathrm{k}+1, \mathrm{i}-1), \mathrm{x}(\mathrm{k}-1, \mathrm{i}) \)의 4개로 제한된다.</p> <p>컨텍스트는 그림 3의 4개 스테레오 파라미터 양자화 인덱스들에 대해 1개부터 4개까지의 조합을 사용하는 것이 가능하다. 그러나, 3개 이상 사용할 경우 컨텍스트 값의 전체 경우의 수가 너무 많아지기 때문에, 실제 구현에 있어 메모리 사용량 등을 고려하여 1개 및 2개의 조합을 사용하는 것으로 제한한다. 우선 컨텍스트를 인덱스 1개, 소스를 \( \mathrm{x}(\mathrm{k}, \mathrm{i}) \)로 구성할 경우 다음의 4가지 경우가 발생한다. 단, 각 경우에서 컨텍스트 및 소스의 순이다.</p> <ol type=1 start=1><li>\( \mathrm{x}(\mathrm{k}-1, \mathrm{i}), \mathrm{x}(\mathrm{k}. \mathrm{i}) \)</li> <li>\( \mathrm{x}(\mathrm{k}-1, \mathrm{i}-1), \mathrm{x}(\mathrm{k} . \mathrm{i}) \)</li> <li>\( \mathrm{x}(\mathrm{k}, \mathrm{i}-1), \mathrm{x}(\mathrm{k} . \mathrm{i}) \)</li> <li>\( \mathrm{x}(\mathrm{k}+1, \mathrm{i}-1), \mathrm{x}(\mathrm{k} . \mathrm{i}) \)</li></ol> <p>또한, 컨텍스트로 2개의 인텍스를 사용할 경우 컨텍스트를 2개의 인덱스의 조합, 소스는 \( \mathrm{x}(\mathrm{k}, \mathrm{i}) \)로 구성한다. 이 경우 컨텍스트의 경우의 수는 \( { }_{4} \mathrm{C}_{2}=6 \)개가 되지만, 일반적으로 근접한 인덱스들의 유사도가 높음을 고려하여 추가 조건으로써 컨텍스트에 사용되는 양자화 인덱스들이 시간 및 스테레오 밴드 인덱스 차이가 각각 1 이하의 인접한 경우로 제한한다. 이에 의해 다음의 4가지 경우가 가능하며, 단 각 경우에서 컨텍스트 및 소스의 순이다.</p> <ol type=1 start=5><li>\( \mathrm{x}(\mathrm{k}-1, \mathrm{i}) \)와 \( \mathrm{x}(\mathrm{k}-1, \mathrm{i}-1), \mathrm{x}(\mathrm{k}, \mathrm{i}) \)</li> <li>\( \mathrm{x}(\mathrm{k}-1, \mathrm{i}) \)와 \( \mathrm{x}(\mathrm{k}, \mathrm{i}-1), \mathrm{x}(\mathrm{k}, \mathrm{i}) \)</li> <li>\( \mathrm{x}(\mathrm{k}-1, \mathrm{i}-1) \)과 \( \mathrm{x}(\mathrm{k}, \mathrm{i}-1), \mathrm{x}(\mathrm{k}, \mathrm{i}) \)</li> <li>\( \mathrm{x}(\mathrm{k}, \mathrm{i}-1) \)과 \( \mathrm{x}(\mathrm{k}+1, \mathrm{i}-1), \mathrm{x}(\mathrm{k}, \mathrm{i}) \)</li></ol> <p>한편, 이상의 8가지 컨텍스트 및 소스 후보에 대해서 최적의 후보를 정하기 위해서는 refresh 프레임 여부와 스테레오 밴드를 고려해야 한다. 우선 refresh 프레임의 경우 이전 시간의 정보를 사용할 수 없으므로, 첫 번째 스테레오 밴드(\( \mathrm{k}=1 \))는 사용할 수 있는 컨텍스트가 없고, 둘째부터 마지막까지의 스테레오 밴드(\( 2 \leq \mathrm{k} \leq \mathrm{M} \))는 \( \mathrm{x}(\mathrm{k}-1, \mathrm{i}) \)만 컨텍스트로 사용할 수 있으므로 ①만 사용 가능하다. non-refresh 프레임의 경우, 첫째 스테레오 밴드 (\( \mathrm{k}=1 \))는 사용할 수 있는 인덱스가 \( \mathrm{x}(\mathrm{k}, \mathrm{i}-1), \mathrm{x}(\mathrm{k}+1, \mathrm{i}-1) \)로 제한되며, 따라서 ③, ④, ⑧ 등 3가지만 사용할 수 있다. 둘째부터 마지막 전까의 스테레오 밴드(\( 2 \leq \mathrm{k} \leq \mathrm{M}-1 \))는 모든 후보를 사용할 수 있으며, 마지막 스테레오 밴드(\( \mathrm{k}=\mathrm{M} \))는 \(\mathrm{x}(\mathrm{k}+1, \mathrm{i}-1)\)를 사용할 수 없으므로 ④, ⑧을 제외한 나머지를 사용할 수 있다. 이상의 내용을 정리하면, 상황별 사용가능한 컨텍스트와 소스 조합의 후보는 다음과 같이 정리된다.</p> <ol type=a start=1><li>Refresh 프레임\( (\mathrm{k}=1) \): 없음</li> <li>Refresh 프레임\( (2 \leq \mathrm{k} \leq \mathrm{M}) \):</li> <li>Non-refresh 프레임\( (\mathrm{k}=1) \) : ③, ④, ⑧</li> <li>Non-refresh 프레임\( (2 \leq \mathrm{k} \leq \mathrm{M}-1) \): ①-⑧</li> <li>Non-refresh 프레임\( (\mathrm{k}=\mathrm{M}) \): ①-③, ⑤-⑦</li></ol>
|
스테레오 파라미터는 PS 비트 열 중 대부분을 차지하고 있으며, 스테레오 파라미터 인덱스의 확률 분포는 IID과 ICC가 서로 다르지만 양자화 인덱스들은 매우 유사하다. 컨텍스트 인덱스 후보는 시간-스테레오 밴드 상에서 가장 인접한 인덱스들 및 이의 조합으로 구성되며 컨텍스트는 4개 스테레오 파라미터 양자화 인덱스들에 대해 1개부터 4개까지의 조합을 사용하는 것이 가능하다. 이렇게 만들어진 8가지 컨텍스트 및 소스 후보에 대해서 최적의 후보를 정하기 위해서는 refresh 프레임 여부와 스테레오 밴드를 고려해야 한다.
|
<h1>Ⅱ. Enhanced aacPlus의 PS 코딩</h1> <p>Enhanced aacPlus의 PS에서는 스테레오 파라미터로 Inter-channel Intensity Differences(IIDs)와 Inter-Channel Coherence(ICC)를 사용한다. 이들 파라미터는 신호를 시간 영역에서 서브밴드 영역으로 변환한 후에 추출 및 적용된다. 또한, 데이터 양을 줄이기 위해서 서브밴드들을 적절히 묶어서 스테레오 밴드 단위로 처리하며, 스테레오 밴드 수 M은 비트율에 따라서 10 혹은 20 중 하나가 된다. 우선 IID는 스테레오 신호에서 왼쪽 채널 신호 1 과 오른쪽 채널 신호 r 사이의 레벨 차이를 의미하며, b번째 스테레오 밴드에 대해 다음과 같이 정의된다.</p> <p>\( \operatorname{IID}(b)=10 \log _{10}\left(\frac{e_{l}(b)}{e_{r}(b)}\right) \).<caption>(\(1\))</caption></p> <p>단, \( \mathrm{e}_{\mathrm{x}}(\mathrm{b}) \)는 다음처럼 정의되며, \( n^{\prime}=-\frac{1}{2} L+1+n \)을 의미한다.</p> <p>\( e_{X}(b)=\sum_{k=k_{l}}^{k_{h}} \sum_{n=0}^{L-1}\left|X\left(k, n^{\prime}\right)\right|^{2}+\epsilon \),<caption>(\(2\))</caption></p> <p>여기에서 \( X \)는 1 혹은 \( r \)을 의미하고, \( X(k, n) \)은 서브밴드 영역의 신호로써 \( \mathrm{k} \)와 \( \mathrm{n} \)은 각각 서브밴드 및 시간 인덱스이고, \( \mathrm{k}_{1} \)과 \( \mathrm{k}_{\mathrm{h}} \)는 \( \mathrm{b} \)번째 스테레오 밴드의 시작 및 마지막 서브밴드 인덱스이고, \( \mathrm{L} \)은 스테레오 파라미터가 적용되는 세그멘트의 길이이고, \( \varepsilon \)은 분모가 0이 되는 것을 방지하기 위한 매우 작은 값이다.</p> <p>공간 파라미터 중 ICC는 두 채널 신호 사이의 상관관계 정보를 의미하며 다음과 같이 정의된다.</p> <p>\(ICC(b) = \left\{\begin{array}{l} \sqrt{\frac{1-\min \left(\frac{\operatorname{Re}\left(e_{R}(b)\right)}{\sqrt{e_{l}(b) e_{r}(b)}}, 1\right)}{2}}, \\ if ~ b<5 for ~ M=10 ~ or \\ ~ b<11 ~ for ~ M=20, \\ \sqrt{\frac{1-\min \left(\frac{\left|e_{R}(b)\right|}{\sqrt{e_{l}(b) e_{r}(b)}}, 1\right)}{2}}, \\ otherwise. \end{array}\right. \)<caption>(3)</caption></p> <p>Enhanced aacPlus의 PS에서는 스테레오 파라미터들의 값을 양자화하여 전송하는데, 양자화 인덱스는 IID의 경우는 -7에서 7까지, ICC의 경우는 0에서 7까지의 값 중 하나를 가진다. k번째 스테레오 밴드 및 \( \mathrm{i} \)번째 시간 인덱스에 해당하는 양자화된 스테레오 파라미터의 인덱스를 \( \mathrm{x}(\mathrm{k}, \mathrm{i}) \)라고 할 경우, 이 인덱스들은 정보량을 더욱 줄이기 위해서 다음과 같은 주파수 차동 코딩(Frequency Differential Coding, FDC) \( x_{f d}(k, i)=\left\{\begin{array}{l}x(k, i), \text { if } k=0 \\ x(k, i)-x(k-1, i) \\ \text { otherwise }\end{array}\right. \)<caption>(5)</caption>혹은 시간 차동 코딩(Time Differential Coding, TDC) \( x_{t d}(k, i)=x(k, i)-x(k, i-1) \)<caption>(6)</caption>을 수행하고 이에 대해 추가적인 허프만 코딩을 각각 적용하여 비트 수가 더 낮은 방법을 비트열로 생성하고 전송한다.</p> <p>Enhanced aacPlus는 무선 통신 환경에 사용할 목적을 가지므로 에러가 발생하는 경우가 있을 수 있으며, 이 때 시간 차동 코딩만을 연속적으로 수행하면 에러의 전파를 피할 수 없다. 따라서, 부호화기에서 미리 정해진 주기마다 refresh 프레임을 구성하며, 이때는 항상 주파수 차동 코딩을 사용하게 된다.</p>
|
nhanced aacPlus의 PS에서는 IIDs와 ICC를 사용하고 신호를 시간 영역에서 서브밴드 영역으로 변환한 후에 추출 및 적용하며 데이터 양을 줄이기 위해서 서브밴드들을 처리하고 무선 통신 환경에 사용할 목적을 가지므로 에러가 발생하는 경우가 있을 수 있으며 부호화기에서 미리 정해진 주기마다 refresh 프레임을 구성하며, 이때는 항상 주파수 차동 코딩을 사용하게 된다.
|
<h1>초 록</h1> <p>본 논문에서는 enhanced aacPlus의 Parametric Stereo(PS)에서 스테레오 파라미터의 컨텍스트 적응 코딩을 위해 최적의 컨텍스트를 제안한다. 스테레오 파라미터의 양자화 인덱스에 대해 컨텍스트 후보는 시간-스테레오 밴드 도메인에서 소스 인덱스와 인접한 인덱스 값 및 이들의 조합으로 8개가 제안되었으며, 리프레시 프레임 여부 및 스테레오 밴드에 따라서 다시 4개의 상황에 대해 이들 중 사용가능한 후보들을 이용하였다. 실험에 의해 상황별로 최적의 컨텍스트가 제안되었고, 추후 이들을 이용하여 기존의 방법보다 더 좋은 성능을 가지는 PS의 코딩 방법이 가능할 것으로 기대된다.</p> <h1>Ⅰ. 서 론</h1> <p>최근의 저비트율 오디오 코덱에서는 파라미터 기반의 채널 확장 기술이 많이 사용되고 있다. 3GPP의 enhanced aacPlus와 MPEG4 High Efficiency Advanced Audio Coding(HE-AAC) v.2에서는 Parametric Stereo(PS) 툴을 이용하여 부호화 시 스테레오 신호를 모노 신호로 다운믹스하고 AAC로 부호화 및 동시에 스테레오 파라미터들(stereo parameters)을 추출하여 양자화하고 그 인덱스를 이용해 비트열을 구성한다. 또한, 복호화 시에는 다운믹스 모노 신호와 스테레오 파라미터들을 이용하여 일종의 업믹스(upmix) 과정을 통해 다시 스테레오 신호로 복원하게 된다. MPEG Surround에서는 이와 유사한 과정을 다채널 오디오 신호에 적용하여 최종적으로 다채널 혹은 바이노럴(binaural) 신호를 재생하며, 이의 2채널용 수정 버전은 음성과 음악을 모두 지원하는 코덱인 Unified Speech and Audio Coding(USAC)에서 모노-스테레오 확장 기술로 채택된 바 있다.</p> <p>PS의 스테레오 파라미터들 및 MPEG Surround에서 이에 해당되는 공간 파라미터들(spatial parameters)은 비트열을 구성하는 중요 정보로써 비트열의 대부분을 차지하며, 따라서 이들의 코딩 방법을 바꾸거나 추가하는 방법으로 성능을 개선하는 연구들이 최근에 제안된 바 있다. 예를 들어, 원래 기술 대비 손실 기술로써 MPEG Surround의 공간 파라미터 중 Chan-nel Level Differences(CLDs)에 대해 Virtual Source Location Information(VSLI)로 대체하여 음질은 변화가 없으면서도 비트율을 낮추는 방법이 제안되었다. 또한, 원본 대비 무손실 기술인 Pilot-Based Coding(PBC)을 원래의 코딩 구조에 추가하여 MPEG Surround의 공간 파라미터들을 부호화 및 복호화하는 기술이 제안되었고, 이는 MPEG Surround의 표준에 채택된 바 있다. PBC는 enhanced aacPlus의 PS 기술에도 기존 코딩 방식에 추가되는 형태로 제안되었다.</p> <p>한편, 최근 USAC에서는 코딩 성능을 더욱 높이기 위해서 양자화된 스펙트럼 데이터 등에 대해서 컨텍스트 적응 산술 코딩 방법이 사용되고 있다. 본 논문에서는 PS에 대해 컨텍스트 적응 코딩을 적용하기 위한 사전 작업으로서, 특히 표준 성능의 부호화 및 복호화 SW가 모두 개방되어있는 enhanced aacPlus를 대상으로 하여 스테레오 파라미터들에 대한 가장 효율적인 컨텍스트를 찾는 것을 목표로 한다.</p>
|
최근 저비트율 오디오 코덱에서 많이 사용되고 있는 파라미터 기반의 채널 확장 기술로서 PS의 스테레오 파라미터들 및 MPEG Surround에서 이에 해당되는 공간 파라미터들(spatial parameters) 코팅 방법을 향상시키는 연구와 코딩 성능을 높이기 위해서 양자화된 스펙트럼 데이터를 사용한 컨텍스트 적응 산술 코딩 방법 등이 있는데, 본 논문에서는 enhanced aacPlus의 Parametric Stereo(PS)에서 최적의 스테레오 파라미터의 컨텍스트 적응 코딩 방법을 찾고자 한다.
|
<h1>Ⅱ. 움직임 추정</h1><p>일반적으로 디지털 영상 안정화 시스템은 카메라 떨림에 대한 비디오의 흔들림을 제거하여 화질을 개선하기 위해 사용되었고, 움직임 추정과 움직임 보상의 두 가지 모듈로 구성된다. 움직임 추정 모듈은 시간적으로 인접한 프레임간 움직임 벡터(frame motion vector; FMV) 를 계산하고 움직임 보상 모듈은 추정된 움직임 벡터를 사용해서 기준 프레임에 대한 상대적 위치의 흔들림을 제거한다.</p><p>영상의 움직임 추정을 위하여 일반적으로 2차원 평면의 어파인 변환(affine transformation)을 이용한다. 어파인 변환을 위해서는 연속되는 두 영상에서 서로 다른 3개 이상의 대응점이 필요하다. 이러한 특징점들은 영상에서 전반적으로 균일하게 나오기 어렵고, 잘못 계산된 대응점으로 인해 오차가 증폭되기 때문에 여러 개의 블록(block) 영역을 설정한 후, 주파수 영역에서 위상 정합을 이용해서 움직임 벡터를 추정하는 방법이 안정적이다.</p><p>움직임을 예측하기 위한 첫 단계로 미리 지정한 다수의 영역에서 움직임 벡터를 추정해야 하는데, 이것을 지역 움직임 벡터(local motion vector; LMV)라고 부르고 여러 LMV들의 정보를 종합한 대표 움직임 벡터를 전역 움직임 벡터(global motion vector; GMV)라고 부른다. 이때 GMV는 앞서 설명한 FMV와 같은 의미를 갖는다. LMV 추정을 위해서 기존에는 블록 정합을 사용하였다. 정합에 사용되는 판단 조건들은 점, 에지 패턴, 위상, 다중 해상도의 특징 등이 있으며, 성공적인 정합의 조건으로 해당 영역에 의미 있는 패턴이 존재한다는 것이 보장되어야 한다. 그렿지 않을 경우 움직임 추정에서 많은 오차 값을 내포하고 있다.</p><p>제안된 움직임 추정 알고리듬은 그림 3과 같이 (ⅰ)LMV 추출을 위한 위상 정합(phase correlation), (ⅱ) 움직임 추정 오차를 최소화하기 위한 벡터 양자화(vector quantization) 그리고 (ⅲ) GMV 예측(estimation)의 3단계로 구성된다.</p><p>일반적으로 움직임 추정에 사용되는 영역은 영상의 왜곡이 적은 중앙부분을 사용하지만 제안한 방법은 객체가 주로 영상 중앙부분에 존재한다는 가정 하에 객체가 존재하지 않는 영상의 외곽 부분에서 움직임을 추정한다. 움직임 추정 방법으로 연속된 두 영상의 중첩된 영역을 추출하기 위해서는 영상의 주파수 공간으로 변환하고, 영상의 위상 성분을 이용해서 중첩 영역과 이동성분을 추출할 수 있다. 위상 정합은 주파수 영역에서 푸리에 변환(fourier transform)을 이용한 것으로 수식 (1)과 같이 공간 영역에서의 두 영상은 \( d_{1}, d_{2} \) 만큼 이동되어 있다는 가정에 의해 식 (2)처럼 주파수로 나타낼 수 있으며, 여기서 \( \hat{f} \) 는 \( f \) 의 푸리에 변환이다.</p><p>\( f_{k+1}(x, y)=f_{k}\left(x-d_{1}, y-d_{2}\right) \),<caption>(1)</caption></p><p>\( \hat{f}_{k+1}(u, v)=\hat{f}_{k}(u, v) \exp \left\{-j 2 \pi\left(u d_{1}+v d_{2}\right)\right\} \),<caption>(2)</caption></p><p>\( k \) 와 \( k+1 \) 번째 프레임 사이의 위상차를 계산하기 위해서 식(3)과 같이 정규화된 상호 전력 스펙트럼(normalized cross spectrum)을 사용할 수 있고 \(*\)는 켤레 복소수를 나타낸다.</p><p>\( \frac{\hat{f}_{k+1}(u, v) \hat{f}_{k}^{*}(u, v)}{\left|\hat{f}_{k+1}(u, v) \hat{f}_{k}^{*}(u, v)\right|}=\exp \left\{-j 2 \pi\left(u d_{1}+v d_{2}\right)\right\} \)<caption>(3)</caption></p><p>실험에서는 \( 64 \times 64 \) 크기의 LMV을 4개 지정하여 위상 정합을 하였다.</p><p>GMV는 추정된 다수의 LMV들의 결합으로 결정된다. 일반적으로 모든 LMV들이 항상 완벽하게 추정되진 않는다. 경우에 따라서 하나 혹은 그 이상의 LMV의 추정 오차로 인해 정상적인 GMV 결정이 불가능할 수도 있다. 이러한 GMV 결정 과정의 오차를 최소화하기 위해 PTZ 카메라의 회전속도가 빠르지 않다는 가정 하에 벡터 양자화를 사용하여 부정확한 LMV에 의한 영향을 최소화 한다. PTZ 카메라의 경우 입력되는 영상은 \( Z \) 축의 회전이 일어나지 않고 다만 \( X, Y \) 축의 이동 움직임만을 검출할 수 있다. 이러한 이동 검출을 하기 위해서 우리는 LMV들의 가능한 조합을 미리 코드 북으로 저장한 후 추정된 LMV들의 집합에 가장 근접한 벡터 패턴을 선택한다. 코드 북은 그림 4(a)와 같이 4개의 지역에 대한 벡터들의 집합 구조를 가지며 그림 4(b)와 같이 벡터 방향과 크기로 구성되어 있다.</p><p>\( X \) 를 현재 영상의 4개의 지역에서 추출된 벡터의 집합, \( U \) 를 코드 북으로 정의하면 대체 패턴의 측정 방법은 코드 북에서 유클리드 거리가 가장 가까운 패턴을 선택하는 방법을 사용하였다. \( X \) 와 \( U \) 사이의 유클리드 거리를 \( D(X, U) \) 라 하면 이것의 최소화 과정은 다음 식과 같다.</p><p>\( \arg ~\min \{D(X, U)\}, D(X, U)=\sqrt{\sum_{n=0}^{m}\left(\bar{x}_{n}-\bar{u}_{n}\right)^{2}} \)<caption>(4)</caption></p><p>코드 북은 이동, 크기, 회전에 대한 이상적인 LMV 들의 집합으로 구성되어 있지만 PTZ카메라의 경우 수평 이동을 포함한 수직이동 각도에 따라 회전과 같은 벡터들이 나올 수 있다. 그림 5는 프레임마다 계산된 GMV 를 누적한 움직임 결과를 보여준다.</p>
|
화질 개선을 위해 사용된 디지털 영상 안정화 시스템은, 프레임간 움직임 벡터를 계산하는 움직임 추정 모듈과 기준 프레임의 흔들림을 제거하는 움직임 보상 2가지 모듈로 구성된다. 영상의 움직임 추정에 필요한 어파인 변환에는 3개 이상의 대응점이 필요한데, 이 특징점들이 잘못 계산되면 오차가 증폭되므로 여러 개의 블록(block) 영역을 설정 후, 주파수 영역에서 위상 정합을 이용해 움직임 벡터를 추정하는 편이 안정적이다. 성공적인 정합을 위해서는 점, 에지 패턴, 위상, 다중해상도 등 영역에 의미 있는 패턴이 존재해야 한다. 일반적으로 움직임 추정에는 영상의 외곽 부분을 사용한다. 또한 움직임 추정 방법으로 두 영상의 중첩 영역을 추출하려면 주파수 공간으로의 변환, 그리고 위상 성분을 이용할 수 있다.
|
<h1>Ⅲ. 파노라마 배경 생성</h1><p>배경 생성 알고리듬은 기존에 매니폴드 투영, 모자이크 방식 등등 많은 파노라마 영상을 만드는 방법들이 존재하지만 연산량이 크며 특징점 기반의 이미지 모자이크 방법은 적절한 대응점을 구하지 못할 수도 있다. 제안된 방법은 실제 파노라마 영상을 만드는 것이 목적이 아니라 객체 추출을 위한 파노라마와 같이 긴 배경을 만드는 것이 목적이다. 따라서 두 영상의 정합 위치를 찾는 시간을 줄이기 위해 Ⅱ절에서 소개된 방법으로 결정된 GMV를 사용하여 두 인접 프레임의 겹침 지역(overlapping region)을 추정한 후, 두 영상을 (ⅰ) 실린더 투영하고 (ⅱ) 지역 재 정렬(local alignment)을 수행하고 겹침 지역의 일그러짐을 최소화하기 위해 (ⅲ) 스티칭(stitching)과, (ⅳ) 브렌딩(Blending)을 수행하여 파노라마 배경을 생성한다.</p><p>영상내의 모든 프레임을 사용하여 배경을 생성하는 것은 시간과 비용이 많이 들고, 하나의 잘못된 프레임에 의해서 파노라마 배경 전체에 영향을 미칠 수 있으며 카메라의 영상들은 밝기 자동 조절 장치 (automatic gain control; AGC)에 의한 전역적인 밝기 변화 때문에 동일한 대상이라도 카메라의 각도에 따라 서로 다른 밝기 값을 가진다. 따라서 전역 움직임을 이용하여 겹침 지역이 \( 30 \sim 40 \% \) 가 되는 영상들을 획득하고 획득된 영상 사이에서 평균 밝기 값을 동일하게 해준다. 또한 외곽 부분의 왜곡에 의한 추정 오차를 줄이기 위하여 그림 6와 같이 실린더 투영기법을 적용하여 입력 영상을 실린더 좌표로 투영시킨다.</p><p>실린더 투영은 원본영상의 한 점을 실린더의 한 점의 위치로 이동시키는 방법으로서, 실험에서 사용한 실린더의 반지름은 \( R=\sqrt{f^{2}+\left(\frac{\text { width }}{2}\right)^{2}} \) 이며, 여기서 \( f \) 는 PTZ 카메라의 초점거리를 나타내고, 카메라의 내부변수(internal parameters)에 의해 초기화 되며 width 는 영상의 가로 폭이다. 원 영상에서 실린더 투영으로 얻어진 새로운 좌표 \( (u, v) \) 는 식 (5)과 같이 역 투영으로 계산된다.</p><p>\( \left(f \tan \frac{u}{v}, f \frac{v}{R \cos \left(\frac{u}{R}\right)}\right)=\left(f \frac{R \sin \frac{u}{R}}{R \cos \frac{u}{R}}, f \frac{v}{R \cos \left(\frac{u}{R}\right)}\right) \) \( =\left(f \frac{R \sin \left(\frac{u}{R}\right)}{\sqrt{R^{2}-R^{2} \sin ^{2}\left(\frac{u}{R}\right)}}, f \frac{v}{\sqrt{R^{2}-R^{2} \sin ^{2}\left(\frac{u}{R}\right)}}\right) \)<caption>(5)</caption></p><p>그리고 \( u \approx R \sin (u / R) \) 와 같은 근사화를 사용해서 실린더 좌표의 한 점을 \( (u, v)=(R \theta, v) \) 와 같이 나타낼 수 있으며, 다음과 같이 영상의 한 점으로 나타낼 수 있다.</p><p>\( \left(f \frac{u}{\sqrt{R^{2}-u^{2}}}, f \frac{v}{\sqrt{R^{2}-u^{2}}}\right) \).<caption>(6)</caption></p><p>원본영상에서 실린더 평면으로의 빠른 투영을 위해 그림 7(a)과 같이 \( X, Y \) 축에 대칭적인 4개의 지역 중 한 지역의 투영 위치를 계산한 뒤 나머지 지역은 계산된 투영위치에서 대칭적인 위치로 대체하여 사용할 수 있다.</p><p>예측된 GMV는 이웃한 프레임간의 상대적인 값으로서, 실제 영상을 완벽하게 정합시키지 못하여 고스트(Ghost) 현상이 생기며 실린더에 투영된 두 영상의 겹침 지역은 더 이상 최적의 겹침 영역이 아닐 수 있기 때문에 영상 내에 재 정렬이 필요하다. 따라서 최적의 겹침 지역을 계산하기 위해 두 영상의 겹침 지역을 가장 유사한 블록의 정합 오차를 계산함으로써 최적의 위치를 재 추정할 수 있다. 기존의 블록 정합 알고리즘은 계산이 많기 때문에 그림 7(b)와 같이 6방향의 오차를 측정하기 가장 적은 오차 방향으로 이동한 다음 추가로 주변 3방향을 측정하여 오차가 가장 적은 위치를 찾도록 하는 hexagonal search 방법을 사용하였다. 지역 재정렬은 그림 8과 같이 겹침 지역에 있는 오른쪽 영상에서 템플릿을 생성하고 왼쪽 영상에 정합을 수행하여 가장 적은 오차를 가진 지역으로 정합시킨다.</p><p>정렬된 영상은 스티칭 기법에 의해 두 영상의 오차가 가장 적은 접합 부분을 생성하고 생성된 접합 부분을 따라 브렌딩을 하여 겹치는 경계 면을 부드럽게 만든다. 스티칭 기법은 그림 9 와 같이 겹침 지역의 오차 비용(cost map)을 추출하기 위에서 아래로 전체의 오차비용(total cost map)을 누적시킨다. 누적된 비용 중 가장 아래 행에 있는 최종 누적 중에서 가장 적은 누적 비용을 선택하고 이전의 최소 누적 비용과 비교하여 가장 적은 값을 갱신한다. 식 (7)은 전체 누적 비용을 계산하는 식이고 식 (8)은 누적 비용에서 접합 부분을 찾는 식이다. 접합 부분을 찾을 때 만약 한 행에서 누적 비용 영역이 존재하지 않을 경우 행 전체를 검사하여 비용이 가장 적은 영역을 선택하고 나머지 영역이 같은 값일 때는 같은 방향의 비용이 가장 적은 영역을 선택 한다.</p><p>\(Total Cost (x, y) =Cost(x, y)+ MIN( Total Cost (x-1, y-1), Total Cost (x, y-1), Total Cost(x+1, y-1)) \)<caption>(7)</caption></p><p>\(Total Cost (x, y) = MIN(Total Cost(x, y+1)-Cost(x, y+1), Total Cost (x-1, y+1)-Cost(x-1, y+1) Total Cost(x+1, y+1)-Cost(x+1, y+1)) \)<caption>(8)</caption></p>
|
배경 생성 알고리즘 중 파노라마 영상을 만드는 많은 방법들이 존재하나, 연산량이 크며 적절한 대응점을 구하지 못할 수도 있다. 제안된 방법은 객체 추출을 위한 파노라마와 같이 긴 배경을 만드는 것이 목적이다. GMV를 사용하여 두 영상 간 정합 위치를 찾는 시간을 최소화하고, 두 인접 프레임 간 겹침 지역을 추정한 뒤 실린더 투영하여 지역 재정렬을 수행한다. 겹친 지역의 일그러짐을 최소화하기위해 스티칭과 브렌딩을 수행하여 파노라마 배경을 생성한다.
|
<h1>Ⅳ. 움직임 객체 추적</h1> <p>영상의 차분 방법은 객체를 가장 손쉽게 추출할 수 있는 기법이지만, 안정된 동작을 위해서는 객체가 없는 정확한 배경 생성이 필요하다. 그림 10(a) 는 입력영상이고. 그럼 10(b) 는 겹침 영역이 \( 40 \% \) 인 2장의 영상으로 생성한 파노라마 배경 영상이며 현재 카메라가 보고 있는 배경 영역이다. 그림 11(a)는 파노라마 배경영상과 입력영상의 차분영상으로서 배경이 입력영상과 완벽하게 일치하지 않기 때문에 객체 주변과 수평, 수직 에지 부분에 많은 부정합 잡음이 발생하는 것을 볼 수 있다. 이러한 잡음을 줄이고 연속적으로 객체를 추적하기 위하여 프레임간 움직임을 보상하여 정확한 객체 마스크를 추출한다. 그림 11(b)는 현재 프레임과 이전 프레임의 차분으로 카메가 움직임과 다른 부분을 객체의 움직임으로 생각하고 이용한다. 그림 11(c) 는 배경 차분 영상에서 이웃 프레임의 차분 영상을 병합한 영상으로 객체의 외곽성분(silhouette)을 추출할 수 있다. 추출된 객체의 외곽성분은 다음 프레임에서 같은 크기를 가진 객체와 비교하여 추적한다.</p> <p>추적중인 객체가 카메라의 FOV를 벗어나지 않도록 객체의 중심이 카메라의 중심에서 멀어지면 카메라 중심에 객체의 중심이 오도록 카메라를 움직여서 추적을 한다.</p> <h1>Ⅴ. 실 험</h1> <p>실험에서는 제안된 움직임 예측 방법을 이용하여 파노라마 배경을 생성하는 실험을 하기 위해 그림 12,13과 같이 각각 실내와 실외에서 카메라의 움직임을 추정하여 겹침 지역이 \( 40 \% \) 인 영상을 획득하고 파노라마 배경을 생성한 결과이다. 실험 결과에서 실외 환경이 실내 환경 보다 더 선명한 영상을 취득할 수 있기 때문에 실외 파노라마 배경 영상이 실내 영상보다 좋은 결과를 보인다.</p> <p>파노라마 배경 영상과 입력 영상의 차분을 이용하여 객체가 존재하는 영역을 추출하고 객체를 추적하는 알고리즘을 적용하여 모의실험을 하였다. 객체 분리를 위해서는 정확한 움직임 추정과 배경 생성이 필요하다. 특징점을 이용한 배경생성의 경우 대응점의 개수에 따라 연산시간이 증가하거나 잘못된 대응점에 의한 오차가 발생할 수 있는 단점이 있다. 제안한 방법의 효율성과 안정성을 특징점을 이용한 방법과 비교한 결과를 다음과 같이 제시한다. 실험에서는 특징점을 위해서 해리스 코너(harris corner) 추출 방법을 사용하였다. 표 2는 그림 14의 환경에서 180도 회전하였을 때 제안된 방법과 특징점을 이용한 방법의 카메라 움직임의 누적 값을 비교 제시한다. 표에서도 확인할 수 있듯이 제안된 방법이 특징점을 이용한 방법보다 누적된 이동량이 일정하고 오차가 적기 때문에 더 안정적이다. 또한 특징점을 이용한 방법은 특징점의 개수에 따라 연산시간이 최대 2.7초에서 최소 0.1초까지 가변적이고 제안된 방법은 \( 64 * 64 \) 크기의 4개 지역을 사용하여 모든 구간에서 0.1초 미만으로 일정하였다.</p> <p>생성된 파노라마 배경은 입력 영상에서 객체를 추출하고 객체가 카메라의 FOV 범위에 오도록 PTZ 카메라를 동작시켜 지속적인 추적이 가능하게 한다. 그림 15는 카메라에 입력되는 영상에서 객체의 마스크를 추출하고 추적하는 결과 영상이다.</p> <p>살험에서 PTZ카메라의 주위를 180도 움직이는 객체를 연속적으로 추적할 수 있었다. 또한 제안된 방법은 객체의 외각성분을 이용하여 그림 15의 499프레임과 610프레임과 같이 잡음이 많은 경우에도 객체를 추적할 수 있었다.</p> <h1>Ⅵ. 결 론</h1> <p>본 논문에서는 PTZ 카메라를 이용한 객체 추적을 위해 효율적으로 실린더 파노라마 배경영상을 생성하고 입력 영상과 배경영상의 배경 차분방법을 통해 객체 마스크를 추출하였다. 또한 카메라의 움직임을 추정하여 객체를 분리하는 배경 안정화 방법을 결합하여 객체를 연속적으로 추적하는 방법을 제안하였다.</p> <p>제안된 방법은 PTZ 카메라를 이용하여 배경을 생성하고 배경 차분방법을 이용하여 쉽게 객체를 추출하고 카메라 주변의 객체를 추적할 수 있음을 보였다. 파노라마 배경 생성과 입력영상간의 불일치를 줄여서 정합 오차를 최소화 했다. 앞으로 PTZ 카메라를 다양한 환경에 적용하여 객체의 형태추적 및 얼굴인식과 같은 영역으로 발전해 나아갈 수 있을 것이다.</p>
|
제안된 움직임 예측 방법을 이용한 파노라마 배경을 생성하는 실험을 위해 실내와 실외에서 카메라의 움직임을 추정하여 겹침 지역이 \( 40 \% \) 인 영상을 획득하고 파노라마 배경을 생성, 차분 영상을 이용하여 객체를 추출하고 추적하는 알고리즘을 실험한 결과, 실외 환경이 실내 환경보다 더 선명한 영상을 취득할 수 있었고, 제안한 방법이 특징점을 이용한 방법보다 누적된 이동량이 일정하고 오차가 적어 안정적이라는 것을 확인하였다.
|
<h1>II. 관련연구</h1><h2>2.1 적조예측에 대한 관련연구</h2><p>다음은 국내외에서 연구되는 적조 발생의 예측에 대한 관련연구이나. 송병호 등의 연구는 사례기반 추론을 이용한 적조 예측 모니터링 시스템을 구현 및 설계하였다. 이들의 제안방법은 추론을 위해서 기존의 적조 발생 자료로 사례베이스를 생성하고, kNN알고리즘을 이용하여 가장 유사성이 높은 사례를 검색하였다. 그러나 이들이 사용한 kNN은 매우 단순한 방법이며, 수치형 영역의 사례기반 처리에는 제한이 있는 형태이다. 또한 이들의 방법은 단순히 기존 적조발생 자료와 입력 자료와의 유사도를 기반으로 유사도가 가장 높은 적조발생 자료를 선택하여서 입력 자료가 적조인지를 판별하는데 그치고 있다. Fdec- riverola 등의 연구는 적조를 위한 예측 시스템을 제안하였다. 이들의 방법은 신경망과 퍼지의 혼합방법에 기반을 둔 사례기반 방법을 이용하였다. 이들의 방법은 새로운 입력 자료가 들어오면 사례베이스로부터 사례를 검색하여 재사용하고,새로운 해결 방안이 필요하면 새로운 해결 방법에 맞도록 수정하여서 새로운 사례를 만들어 문제를 해결하고 사례베이스에 저장 한다. 즉 구체석인 방법으로는 사례 검색단계에서 자기 조직화 특징 지도(SOFM, self organized feature map) 신경망을 이용하여서 사례를 검색하고, 재사용 단계에서는 RBF (radial bassis function) 신경망을 이용하여 문제에 적합한 사례를 사용하며, 문제에 적합한 사례가 없으면 사례수정단계에서 퍼지를 이용하여 새로운 사례 및 해결 방법을 만든다. 마지막으로는 사례유지단계에서는 퍼지와 RBF 자기 조직화 특징 지도 신경망을 사용하여 새로운 사례베이스를 구축하였다. 본 논문의 저자들의 이전 연구에서는 신경망과 SVM (support vector machine)을 이용하여서 적조 발생을 예측할 수 있는 방법을 제안하였다. 적조를 예측할 수 있도록 적조자료를 전처리하여서 모형화 하였으며, 모형화된 자료를 기반으로 적조 발생 예측을 위하여 역전파 신경망, 회귀 신경망, SVM 분류기를 각각 이용하였다. 제안방법의 비교 실험 결과 SVM 분류기를 이용한 방법 가장 높은 정확률을 보였다. 이 방법은 적조의 단순한 발생만을 예측하는 이원 분류에 기반을 두고 있다. 저자들의 또 다른 제안방법은 적조 발생 및 발생 적조의 생물 밀도를 예측하기 위하여 퍼지 추론을 사용하는 적조 발생 예측 방법을 제안하였다. 이 방법은 이전 저자들이 제안한 방법에 비하여 더 좋은 성능을 보였으며, 적조 생물의 생물 밀도를 어느 정도 예측이 가능 하였다. 또한 저자들은 나이브베이스 분류기와 퍼지 추론을 이용하여서 적조 발생 예측의 성능을 향상 시키는 방법을 제안하있다.</p><h2>2.2 앙상블 학습</h2><p>앙상블 학습은 분류 및 예측 분류자의 성능 향상을 위해서 제안된 방법이다. 앙상블 학습은 기본 분류기(base classifiers) 집합인 앙상블을 구성하고, 앙상블의 복수의 학습결과를 하나의 강한 분류기(a single strong classifier)와 결합하여 최종 결과를 계산한다. 앙상블을 구성하는 이유는 단일 분류자만으로 학습이 어려운 복잡한 패턴들을 여러 개의 하위 패턴으로 나누어 효과적으로 학습할 수 있다. 또한 단일 분류자 보다 앙상블 학습결과가 더 높을 정확률을 제공한다.</p><p>앙상블 학습에가 가장 일반적으로 사용되는 방법은 bagging과 boost가 있다. bagging은 \( n \) 개의 학습자료에서 복원추출 방법으로 \( \mathrm{k} \) 개의 bootstrap 분석용 자료를 생성하여서 각각의 분류기를 구성한다. 최종 결과는 각각의 분류기의 결과와 강한 분류기인 bagging의 결합함수를 이용하여서 식(1)과 같이 계산된다.</p><p>\( C\left(x_{l}\right)=\frac{1}{k}\left(\sum_{j=1}^{k} \alpha_{j} C_{j}\left(x_{l}\right)\right) \)<caption>(1)</caption></p><p>여기서 \( \left(x_{1}\right) \mathrm{i} \) 번째 관측 값에 대한 최종 결과, \( \mathrm{k} \) 는 bootstrap의 개수,\( \alpha_{j} \) 는 \( \mathrm{j} \) 번째 분류자의 정확률, \( C_{j}\left(x_{1}\right) \) 는\( \mathrm{i} \) 번째 학습벡터에 대한 \( \mathrm{j} \)번째 분류기의 학습결과이다.</p><p>boost 학습방법 중에서 가장 일방석으로 사용되는 방법은 AdaBoost방법이 있다. AdaBoost 방법은 분류기를 순차적으로 생성하고, 학습 자료를 이전의 분류기의 결과를 기반으로 추출된 각 결과 값을 사용한다. 처음 학습 자료의 가중치는 동일한 상태에서 시작하여한다. 분류기에 의해서 오분류된 분류 값에는 높은 가중치를 주고, 정분류된 분류 값에는 낮은 가중치를 부여함으로써 분류 값의 학습 자료에 대한 가중치를 재조정한다. 이러한 과정을 통하여서 가중치가 재조정된 분류값들을 통하여서 새로운 학습 자료가 생성되어서 가중치가 증가한 학습 자료가 많이 선택됨으로써 분류하기 힘든 학습 자료를 더 잘 분류하도록 한다.</p>
|
Fdec- riverola 등의 예측 시스템은 신경망과 퍼지의 혼합방법을 기반으로 사례기반 방법을 이용한다. Fdec- riverola 등의 예측 시스템은 새로운 입력 자료가 들어오면 사례베이스로부터 사례를 검색하여 재사용하고,해결 방안이 필요할 시 해결 방법에 맞도록 수정하여서 새로운 사례를 만들어 문제를 해결하고 사례베이스에 저장 한다. 사례유지단계에서 새로운 사례베이스 구축은 퍼지와 RBF 자기 조직화 특징 지도 신경망을 사용한다. 앙상블 학습은 기본 분류기 집합인 앙상블을 구성하고, 앙상블의 복수의 학습결과를 하나의 강한 분류기와 결합하여 최종 결과를 계산한다. AdaBoost 방법은 분류기를 차례대로 생성한 후 학습 자료를 이전의 분류기의 결과를 토대로 추출된 각 결과 값을 사용한다.
|
<h1>I. 서 론</h1><p>적조(red tide)란 유해적조 생물의 일시적인 대량 번식으로 바다물의 색깔이 적색, 황색, 적갈색으로 변하는 자연현상으로써, 연안 환경 및 생태게에 악영향을 미치며 앙식장의 어패류를 집단 폐사시키면 수산업에 피해를 일으킨다. 국내의 적조에 의한 피해는 90년대 이후로 적조의 주원인 생물이 수산물과 인간에게 유독한 와편모조 변화되면서 양식장 등 수산업에 큰 피해를 주고있다. 특히 95년에는 역대 최대인 764억 원의 피해를 보였으며, 매년 여름 우리나라 남해안에서 발생하고 있으나 점차 동해안 및 서해안으로 영역이 증가하는 추세에 있다. 그러나 최근 3년간은 수산업에는 큰 피해가 없었으나 매년 방재 및 적조 예방에 밚은 예산을 소모하고 있다. 최근에는 지속적인 적조에 대한 피해가 없으나 언제 해양환경이 변해서 적조 피해가 국내의 수산업에 다시 발생할 지는 아무도 예측하지 못하고 있다. 국내에서는 60여 종의 적조 생물들이 있으미, 이중 수산업에 피해를 미치는 유해적조가 총 7종이 있고, 이들은 어패류를 치사시키는 적조생물, 패류를 독화시키기나 식중독을 일으키는 적조생물 등으로 구분할 수 있다. 우리나라 연안에서 출현하여 어류나 패류를 직접 치사시키는 독성물질을 생성하는 종은coclodinium polyrkoides, heterosigma akashiwo, gymnodinium mikimotoi, gyrodinium sp 등 4종이 있으며, 굴, 홍합 등 패류를 독화시켜 독화된 패류를 사람이 먹으면 마비성 패독증을 일으키는 종은 alexandirum tamarense,dinophysis acuminate, nitzschia pungens f. multiseries 등 3종이 있다. 이들 중에서 국내에서는 특히 coclodinium polykrikoides에 의한 앙식업의 피해가 가장 크다 .</p><p>적조에 의한 양식장의 피해가 매년 발생함에 따라서 적조에 대한 많은 연구가 진행되고 있다. 그러나 적조에 대하여서 연구되는 분야는 적조원인 생물의 생리적 특성 및 환경변화에 대한 생물의 반응이 주로 연구되고 있으며, 이들 적조의 생화학적 특성 및 환경 영향에 대한 부분은 상당히 연구되어 활용하는 수준에 있다. 특히 적조에 대한 연구 분야 중에서 적조발생 예측연구는 예측 결과를 분석하여서 필요시 가두리 양식 장의 이동 및 방재 준비를 통하여서 적조에 의한 앙식장의 피해를 최소화 시킬 수 있을 것이다. 그러나 적조 발생의 예측에 대한 국내의 연구는 아직 미흡한 편에 있다.</p><p>국내에서 발생하는 적조는 서해, 남해안 등 발생 범위가 다양하고, 발생해역으로부터 해류를 따라서 빠르게 이동하는 특성을 가지고 있다. 이러한 적조의 다양한 발생 범위와 빠른 확산 때문에 직접 적조를 탐지하여서 적조의 피해를 대비하는 것에는 한계가 있다. 적조 피해는 미리 적조 발생을 예측하여서 최소화 시킬수 있다. 적조 발생은 과거에 발생한 적조 정보와 적조 발생 지역의 현재의 해양 환경 정보를 비교하여서 예측이 가능하다. 다음은 국내에서 연구된 적조생물의 특성 및 환경영향에 대한 연구이다. 이문옥 등의 연구에서는 적조 생물에 따라 다르지만 규조류나 편모조규는 1일 1회 2분열을 하므로 10일 정도 지나면 적조를 인식할 수 있는 적조기준밀도 \( (1,000 \mathrm{cells} / \mathrm{ml}) \) 에 도달하는 것을 보고, 적조발생 전 10일 동안의 해양환경조건이나 기상조건이 우리나라 적조발생의 해명에 중요하다고 보았다. 이러한 전제하에서 각 해역별로 적조가 발생하기 전 10일 동안의 표층 수온, 강수량 및 일사랑을 조사하여 적조가 어떠한 환경에서 발생하는지를 조사하있다.</p><p>김용민 등의 연구에서는 국내에 가장 피해를 많이 준 유해적조인 cochlodinium p.의 발생은 주로 고수온과 저염분에 의해 지배되는 것으로 보이고, 적조 발생 전 집중 호우가 관측된 후 염분농도가 급격히 감소한 경우에 많이 발생하는 것을 보였다.</p><p>이러한 적조와 환경인자의 관계에 대한 연구를 기반으로 본 논문에서는 적조발생 10일전의 해양환경자료를 이용하여서 적조 발생 예측의 성능을 항상할 수 있는 방법을 제안한다. 제안방법은 통영지역에서 발생한 과거의 cochlodinium p.의 적조발생정보와 적조예측일 이전 10일간의 해양환경자료에 앙상블 학습을 이용하여 적조 발생 예측의 성능을 향상시킨다. 본 논문에서는 앙상블 학습에 의사결정 트리와 Adaboost(adaptive boosting) 분류기를 이용하있다.</p><p>본 논문의 구성은 다음과 같다. II장에서는 적조발생예측에 대한 관련연구와 앙상블 분류기에 대하여 알아보고, III장에서는 제안방법을, IV장에서는 적조발생예측에 대한 실험 평가 결과를, V장에서는 결론 및 향후 연구 방향을 제시한다.</p>
|
유해적조 생물의 일시적인 대량 번식으로 발생하는 적조는 어패류를 집단 폐사 등으로 양식장에 큰 피해를 미치지게 된다. 적조발생에 관한 연구를 통해 필요시 가두리 양식 장의 이동 및 방재 등을 통하여 양식장의 피해를 최소화할 수 있을 것으로 예상되지만 국내의 연구는 미흡한 편이다. 우리나라의 적조는 범위의 다양성과 빠른 이동의 특성이 있기 때문에 환경인자와의 관계를 파악하여 미리 예측하는 것이 중요하다.
|
<h2>3.2 앙상블을 이용한 분류기 생성</h2><p>대표적인 앙상블 학습 방법에는 bagging과 boosting이 있다. Bricman은 bagging과 같은 앙상블 학습은 불안정한 학습 분류기의 성능을 크게 향상시킬 수 있으나, 안정 적인 학습 분류기에서는 효과적인 성능 항상이 보이지 않는다고 주장 하였다. 즉, 의사결정트리와 같은 불안정한 분류기는 학습 자료의 변화에 민감하게 반응하여 의사결정트리 구조가 변경되는 등 분류기에 큰 영향을 주어서 좋은 성능향상을 보인다. 그러는 반면, 신경망이나 SVM 학습 분류기는 학습 자료가 변화하더라도 유사한 분류기를 반복적으로 생성하므로 분류기 사이의 상관관계가 높아져 뚜렷한 성능 향상을 보이지 않는나. 또한 boosting의 경우 분류하기 힘든 관측 값에 대해서 높은 가중치를 주어 분류를 잘 유도하기 때문에 일반적으로 bagging과 비교하였을 때 boosting이 매우 효과적으로 오차를 감소시킨다고 알려젔다.</p><p>본 논문에서 이러한 이전 연구결과를 기반으로 적조 발생 예측에 bagging에는 의사결정트리를 이용한 앙상블 학습을, boosting에는 일반적으로 종은 성능을 보이는 AdaBoost방법을 적용하여 분류기를 생성한다.</p><h3>3.2.1 bagging 앙상블 학습에 의한 의사결정트리 분류기 생성</h3><p>본 논문에서는 bagging 앙상블 학습을 사용되는 기본 분류기로 의사결정트리 방법 중에서 가장 많이 사용하는 필수 방법인 CART(classification and regression tree) 방법을 사용한다. CART 방법은 전체 자료집합으로 부터 시작하여 반복해서 두개의 자식 노드를 생성하기 위해 모든 예측 변수를 사용하여 자료 집합의 부분집합을 분리함으로써 의사결정트리를 생성한다. CART에서는 속성 선택을 위한 기준으로 식(4)과 같은 엔트로피 매트릭스를 사용한다.</p><p>\( I_{G}(f)=\sum_{t=1}^{m} f_{i}\left(1-f_{l}\right)=\sum_{t=1}^{m}\left(f_{l}-f_{l}^{2}\right)=\sum_{t=1}^{m} f_{l}-\sum_{t=1}^{m} f_{i}^{i}=1-\sum_{t=1}^{m} f_{i}^{i} \)<caption>(4)</caption></p><p>여기서 \( f_{i} \) 는 \( i \) 번 자료가 분기되는 분류이다.</p><p>다음 그림 2는 2002년부터 2007년까지 6년간의 자료를 전처리한 학습 자료와 식(4)의 CART 앙상블 학습방법을 이용하여서 의사결정트리 분류기를 생성하여 도식한 것이다.</p><p>본 논문에서는 적조 발생의 예측을 위해서 의사결정트리를 기본 분류기로 하여서 앙상블의 bagging 학습을 한다. 적조 발생 예측을 위헤 생성하는 앙상블 학습모형은 다음과 같다. 먼저 전처리된 6년간의 적조발생 및 관련 해양환경 학습 자료로 부터 40개의 bootstrap 표본을 추출하고 각 bootstrap에 CART분류기 모형을 적합 한다. 본 논문에서는 bootstrap 표본의 개수를 40개로 결정한 이유는 1부터 200까지 표본을 증가 시키면서 실험결과 40일 때의 정확률이 가장 높았기 때문이다. 다음으로 식(1)을 이용하여서 40개의 분류기를 결합한다. 식(1)의 결과 40개의 분류기 중에서 가장 큰 값을 가지는 분류기를 최종 분류기로 정한다.</p><h3>3.2.2 AdaBoost에 의한 분류기 생성</h3><p>AdaBoost 학습방법은 \( n \) 개의 학습 자료와 \( k \) 개의 기본 분류기과 구성된 앙상블 \( C=\left\{C_{l}, C_{2}, \ldots, C_{k}\right\} \) 와 \( k \) 번째 분류자의 오류률 \( \left(e_{k}\right) \) 인 식(5)과 같은 단순평균으로 계산된다.</p><p>\( e_{k}=\frac{1}{n} \sum_{i=1}^{n} L\left(C_{k}\left(x_{i}\right), y_{i}\right), L\left(C_{k}\left(x_{i}\right), y_{i}\right)=\left\{\begin{array}{l}1 C_{k}\left(x_{i}\right) \neq y_{i} \\ 0 C_{k}\left(x_{i}\right)=y_{i}\end{array}\right. \)<caption>(5)</caption></p><p>여기서,\( x_{i} \)는 \( i \)번째 학습 자료의 벡터이고, \( y_{i} \div i \) 번째 학습 자료의 분류이머, \( C_{k}\left(x_{1}\right) \) 는 \( k \) 번째 학습벡터 \( x_{i} \) 에 대한 \( \mathrm{k} \) 번째 분류기의 학습결과이다. \( L() \) 은 분류평가 함수로 분류 결과가 맞으면 0이고 맞지 않으면 1이다.</p><p>\( k+1 \) 번째 분류기에서 \( i \) 번째 학습 자료에 부여되는 가중치는 다음 식(6)으로 조정되어 오분류된 학습 자료에 더 높은 가중치가 부과된다.</p><p>\( w_{k+1}(i)=w_{k}(i) \exp \left(\alpha_{k} L\left(C_{k}\left(x_{i}\right), y_{i}\right), \alpha_{k}=\ln \left(\frac{\left(1-e_{k}\right)}{e_{k}}\right)\right. \)<caption>\( (6) \)</caption></p><p>식(5)을 이용하여서 오분류된 학습 자료에 높은 가중치가 부여되며 \( \mathrm{k}+1 \) 번째 분류기의 학습 자료를 구성할때 가장 높은 오분류 자료가 포함될 가능성이 높기 때문에 boost 방법은 오분류 자료에 초점을 맞춘 학습을 진행할 수 있다. \( \mathrm{j}\)번째학습 자료의 최종 결과는 강한 분류기인 boosting 분류기를 통하여서 bagging의 식(1) 과 같이 계산된다.</p>
|
일반적으로 오차 감소에는 bagging보다 boosting이 효과적이라는 연구결과를 기반으로 적조 발생 예측을 위해 bagging에는 의사결정 트리를 이용한 앙상블 학습을, boosting에는 일반적으로 종은 성능을 보이는 AdaBoost방법을 적용하여 분류기를 생성하였다.
|
<h1>Ⅳ. 통합보안제어 시스템 운영 결과</p> <h2>가. TB 환경에서 DDoS 대응 관련 기술 연동시험</h2> <p>개발된 협력대응기반 정보공유 시스템이 전역 네트워크 차원에서 제공가능한지 시험하기 위하여 시험망을 구축하고 그림 7과 같은 시나리오 순으로 검증하였다.</p> <p>시험망은 실제 DDoS 대응시스템, 봇넷 탐지 시스템과 지능형악성코드 자동분석 및 경유/유포지 탐지시스템을 연동되어 구성하였으며, 전역차원의 네트워크 보안제어기술 적용이 가능함을 검증하였다. 검증을 위한 통합 시나리오는 다음과 같은 순서로 구성한다.</p> <ul> <li>악성코드유포서버에서 악성코드 감염/확산 (Netbot or N0ise Bot) 시험을 위하여 봇넷을 구성한다(가상 머신에서 사전준비 상태로 대기)</li> <li>악성코드분석서버에서 보안정보 공유시스템으로 유포지정보 전송(유포지에 대한 Action이 모호함)한다.</li> <li>보안정보 공유시스템에서 전파문 작성하고 이를 전역네트워크 시스템으로 전송/전역차원의 공유기능을 제공한다.</li> <li>DDoS 공격을 이미 설치된 Netbot 등의 툴킷을 이용하여 발생시킨다</li> <li>ETRI 개발 DDoS대응시스템에서 보안정보공유 시스템으로 공격로그를 전송한다</li> <li>봇넷탐지/관제 시스템에서 C&C 정보를 보안정보 공유시스템으로 전송한다</li> <li>보안정보 공유시스템에서 전파문 작성 및 전송 (DNS Sinkhole 정책전송)한다.</li> <li>봇넷 C&C 서버에서 공격대상 변경 및 공격 차단 확인한다.</li></ul> <p>위와 같은 DDoS 대응 및 봇탐지 등 관련 보안시스템 연동시험을 통하여 안전한 네트워크 인프라 구축 및 서비스 제공이 전역네트워크 차원에서 제공 가능함을 알 수 있었다. 만약 이러한 통합보안제어 프레임워크가 실 네트워크에 제공된다면 악성코드의 생성과정부터 탐지하여 네트워크 위협 사전 인지 및 차단이 가능할 것이다. 뿐만 아니라 탐지된 공격 정보의 전역 차원의 공유로 인하여 통합보안제어 프레임워크가 구축되지 않은 site의 위협차단 또한 가능하게 될 것이다.</p> <p>향후 실 네트워크 환경 및 트래픽을 통한 검증이 제공가능하면 훨씬 더 적용가능성은 높아질 것이다.</p> <h2>나. 실 ISP트래픽 적용 및 운용</h2> <p>협력대응기반의 정보공유 시스템은 전역 네트워크에서 통합보안제어 프레임워크가 실제 데이터 및 운영센터에서 적용가능한지 시험하기 위하여 약 9일 동안 적용하였으며, 본장에서는 이를 시범운영한 결과를 기술한다. 본 시험에서는 제공된 보안로그 정보가 프레임워크를 통하여 탐지되는 과정과, 이를 분석하여 제공하는 보안상황관제 기술이 제공되었으며 대응기술 적용은 시험범위에서 제외되었다.</p> <p>그림 8은 공격 피해지별 로그수, 공격패킷수와 공격량을 분석한 결과를 그래프로 보여주고 있다.</p> <p>그림 9는 공격 시간별 로그수, 공격패킷수와 평균공격량을 분석한 결과를 그래프로 보여주고 있다.</p> <p>그래프를 보면 공격은 보통 18시를 기준으로 증가하여 2시에서 10시 사이에 최고값을 보이고 있으며, 이벤트 로그 수와 공격 패킷수와 반드시 비례하지 않는다는 것을 보여주고 있다. 그리고 최대 공격량은 27일 오전 0시에서 4시 사이에 \( 2 \mathrm{Gbps} \) 정도이며, 오후 6시에서 8시 사이에 250억개의 패킷을 이용한 공격이 발생하였음을 알 수 있다. 평균공격량도 비례하여 크게 증가하지 않는 것으로 보아 지역별 공격분석 그래프에서 예측하였던 플러딩류의 공격이 발생하였음을 알 수 있다.</p> <p>지금까지 실 ISP 데이터를 검증한 협력대응기반 보안정보공유 시스템의 운영결과에 대하여 살펴보았다. 협의된 통합보안제어 인터페이스를 통하여 해당 ISP의 기존 보안장비로부터 보안 로그정보를 제공받아 감시대상 네트워크의 보안상황을 직관적으로 파악할 수 있었다. 하지만, 실제 공격이 발생한 시간 및 장소 등에서 수집된 대규모의 비정상 트래픽이 제공되지 않고, 이를 이용한 명확한 결과확인이 어려워 보안로그정부 분석에 의한 검증에 의존할 수밖에 없었다.</p> <p>개별 ISP별로 관리되고 있는 이러한 보안이벤트 정보가 네트워크 전역차원에서 통합·운영된다면 통합보안제어 프레임워크 구축에 의한 국가차원의 사이버 인프라 보안이 실현가능할 것이다.</p>
|
실제 DDoS 대응시스템, 봇넷 탐지 시스템과 지능형악성코드 자동분석 및 경유/유포지 탐지시스템을 연동하여 시험망을 구성하였다. 전역 네트워크 차원에서 보안제어기술 적용이 가능함을 검증하였고, 안전한 네트워크 인프라 구축 및 서비스 제공이 가능함을 알 수 있었다. 협력대응기반의 정보공유 시스템은 전역 네트워크에서 통합보안제어 프레임워크가 실제 데이터 및 운영센터에서 적용가능한지 시범운영하였고, 협의된 통합보안제어 인터페이스를 통하여 감시대상 네트워크의 보안상황을 직관적으로 파악할 수 있었다.
|
<h1>I. 서 론</h1> <p>국가 주요 IT 인프라에 대한 사이버 공격이 급증 추세에 있으며, APT 공격과 같은 새로운 공격 패러다임의 전환으로 인해 피해 수준과 규모가 심각해지고 있다.</p> <p>이와 같은 APT 공격은 지능적이고, 지속적이며, 특정 조직 또는 그룹을 대상으로 명확한 목표를 달성하기 위하여 확장된 방식으로 진행되고 있다. 결국에는 어떠한 대응방법도 이를 차단하지 못하도록 공격이 성공할 때까지 공격이 계속 된다는 심각한 문제를 갖고 있다. 궁극적으로는 공격한다는 것을 알고도 막지 못하는 상황을 발생시켜, 단지 일시적인 테러리즘 수단의 성격보다는 빈번하게 표적 공격화 되어 국가 사이버 인프라를 다양한 경로로 위협하고 있다.</p> <p>지금까지 발생한 대규모 공격 중 2003년 1.25 대란은 사고 발생 10분 만에 전 세계 \( 90 \% \)의 취약성을 가진 호스트를 감염시켰고, 약 5일간 피해가 약 10억 달러에 이르렀으며, 2009년 국내에서 발생한 7.7 DDOS는 감염된 좀비가 115,044 대에 피해액은 363~544억으로 추정되었다. 하지만 최근 발생한 3.4 DDoS 공격에서는 기존 7.7 DDoS 분석경험을 기반으로 이용자, 서비스, 그리고 네트워크 간 협력대응을 통하여 신속한 분석 및 공격탐지가 가능하였으며 피해의 확산도 조기 차단하여 큰 피해 없이 마무리 되었다. 7.7 DDoS 공격 분석 및 대응에 38시간, 3.4 DDoS 공격 때는 10시간 수준으로 추정하고 있다.</p> <p>현재 대부분의 기관들이 사이버위협 대응을 위하여 기존 보안장비 및 솔루션을 제공하고 있으나 대부분 공격을 받고 서비스가 중단된 후에야 공격을 인지한다든지, 인지된 공격에 대한 분석을 통해 보안장비에 해당 기능을 설정하거나 백신을 만들어 배포하는 수준이다. 악성코드 유포지 IP 차단, 네트워크 및 서버 용량 증설, 목표지 임시 회피와 같은 다양한 방법으로 대규모 공격 상황에 처하지 않도록 하고 있지만 이러한 대응방안으로는 정상 및 비정상 트래픽 탐지가 완전히 제공되지 않고, 비정상으로 탐지된 트래픽의 경우 무조건 차단하도록 하고 있어 제대로 된 대응기술 및 체계가 제공되지 않고 있음을 알 수 있다. 개별 네트워크 및 ISP 차원의 대응이 아닌, 협력대응기반의 정보공유 프레임워크와 같은 전역네트워크 차원의 다양한 대응전략이 요구된다.</p> <p>본 논문은 Ⅱ장에서 최근 네트워크 위협 동향과 적용 보안 솔루션, 그리고 이를 적용하는 국내 주요센터의 현황, 한계 및 요구사항에 대하여 알아본다. Ⅲ장에서 통합보안제어 기술의 필요성과 구성기술의 상세 구현내용에 대하여 알아보고, Ⅳ장에서는 본 시스템을 일정기간 실 ISP 환경에서 적용 및 운영한 결과에 대하여 기술한다. 마지막으로 Ⅴ장 결론에서는 전역네트워크 차원의 보안기술 실현 가능성과 향후 발전방향에 대하여 기술한다.</p>
|
국가 주요 IT 인프라에 맞선 사이버 공격이 늘어나고 있으며 더불어 새로운 공격 패러다임의 전환으로 인해 피해 수준과 규모가 심각해지고 있는 시점에 이에 대하여 전역네트워크 차원의 다양한 대응전략이 필요로하다. 해당 논문에서는 최근 네트워크 위협 동향과 적용 보안 솔루션과 적용 현황, 한계 및 요구사항, 통합보안제어 기술의 필요성과 구성기술의 상세 구현내용에 대하여 알아본 후 본 시스템을 일정기간 실 ISP 환경에서 적용 및 운영한 결과에 대하여 기술하고 전역네트워크 차원의 보안기술 실현 가능성과 향후 발전방향에 대하여 설명한다.
|
<h2>2. 공격 탐지 및 대응 솔루션</h2> <p>지금까지 각 기관의 정보보호 시스템 구축은 각각의 침해유형에 대처하기 위해 Firewall, IPS, IDS, DDoS 전용장비 등을 이용하여 구성하고 있다. 하지만 대상기관 간의 협력부족과 전역차원의 제어 장비 미비 및 개인정보보호 법상의 문제 등으로 인하여 점차 고도화되고 지능적인 공격유형의 대처에 한계점이 있으며 대부분 자체적으로 운영되고 있다.</p> <p>위와 같은 개별 네트워크 보안장비의 한계를 극복하기 위하여 모든 보안장비들을 중앙 통제 및 모니터링하고 보안 이벤트들 사이의 연관성을 분석해 좀 더 효과적인 공격 탐지가 가능한 통합보안관리(ESM :Enterprise Security Management) 시스템이 출현하였으나 기존 보안솔루션의 탐지 한계 및 새로운 공격에 대한 정보 부재 등으로 인하여 적극적인 대응할 수 없고, 탐지된 정보의 정규화 등으로 인하여 특정 상황의 이상징후 탐지에 한계를 갖는다.</p> <p>최근 TMS(Threat Management System) 및 RMS(Risk Management System)와 같은 능동적인 보안 솔루션이 출현하면서 이의 기반기술로 발전하고 있는 추세이지만, TMS·RMS 기술 역시 이미 발생한 공격 상황에 대한 정보를 기반으로 인터넷 상의 위협을 예\(\cdot\)경보하는데 중점을 두고 있어 기존 보안 솔루션과 크게 차별화하기 어렵고, 로컬 차원의 보안 솔루션이라는 한계가 있어 전역 차원의 실제 공격이 발생하기 전에 위협 상황을 사전 인지하기 위한 솔루션으로 활용하기는 어려운 상황이다.</p> <h2>3. 공격 대응 솔루션 운영현황</h2> <p>국가정보통신망을 보호하기 위하여 국가사이버안전센터(NCSC)가 운영되고 있으며, 민간차원의 안전한 인터넷 서비스 제공을 위하여 인터넷침해대응센터(KISC)가 운영되고 있다. 지금까지 발생하였던 대부분의 네트워크 위협이 이러한 센터를 중심으로, 국가차원의 협력 대응체계 및 기술로 제공 가능하였으나, 최근 발생하는 새로운 패러다임의 공격 대응에는 한계가 있다고 할 수 있다.</p> <p>최근 발생한 대규모의 공격 탐지는 대부분 ISP 중심으로 탐지되었으며, 피해상황이 공격이 확산되지 않는 것에 대부분의 초점을 두고 있다. 악성코드 및 대규모 공격 확산 방지를 위하여 ISP 는 자사 관리망의 공격현황 및 안정성에만 집중하였으며, 심지어 악성코드 및 DDoS 감시까지도 유입트래픽을 중심으로 운영하여 자사망을 향한 외부공격 차단에 주력하고 있다.</p> <p>하지만 기본적으로 자사 내부자산 보호 정책 및 기술 지원, 자사 이익의 극대화에 비즈니스 모델이 중점이 되어 있어서 자사 유출트래픽이 타 ISP에 대한 DDoS 공격의 원인을 제공하여도 일차적 보안 감시·차단 대상에서는 제외하는 등 국가전역 네트워크 차원의 제어 프레임워크나 시스템운영을 찾아보기 어려운 형편이다.</p> <p>최근 APT 등 발전된 공격으로 인하여 국가 전역 차원의 대규모 공격 발생 시 국가 중요 인프라가 마비될 수 있어, 네트워크 위협 차단을 위한 보안 기술 및 솔루션 개발 필요성이 증대되고 있다. 하지만 지금과 같은 ISP간 협력 구조 및 개인정보보호 법적규제 등을 고려한다면 단순히 필요성만으로 ISP 협조를 이끌어 내기는 어려운 상황이다. 법적인 규제를 위반하지 않는 국가 전역 네트워크 인프라 위협에 대한 비상상황 재정의 및 개별 ISP 비즈니스 모델에 영향을 최소화할 수 있는 접근방안이 요구된다.</p>
|
국가정보통신망을 보호하기 위해서는 국가사이버안전센터가, 민간차원의 보호를 위해서는 인터넷침해대응센터가 운영되고 있다. 지금까지는 개별 네트워크 보안장비(Firewall, IPS, IDS, DDoS 전용장비 등)를 통해 정보보호 시스템을 구축했으나, 고도화된 공격 대처에 한계를 보여 통합보안관리(ESM) 시스템이 출현했다. 그러나 이 역시 특정 상황의 탐지에 한계가 있어서 TMS, RMS 기술을 도입했다. 하지만 이 기술은 로컬 차원의 보안이기에 실제 공격의 사전 인지 솔루션으로 활용하기 어렵다. 최근 발생한 대규모 공격은 국가 중요 인프라가 마비될 수 있어 위협적인데, ISP 중심으로 탐지되어 관련 보안 기술 개발의 필요성이 증대되고 있다. 법적 규제를 위반하지 않는 선에서 국가 네트워크 인프라 공격대응 솔루션으로의 접근방안이 요구된다.
|
<h1>Ⅲ. 협력대응기반의 보안정보 공유시스템</h1> <p>지금까지 네트워크 위협동향, 국가차원의 대응방안과 체계 및 한계상황에 대하여 알아보았다. 본장에서는 이러한 한계상황을 극복하기 위한 협력대응기반 보안정보 공유 시스템을 제안하고, 본 시스템에서 제공하는 통합 보안제어 기술의 필요성과 구성, 설계 및 구현내용에 대하여 설명한다.</p> <h2>1. 통합보안제어기술 필요성 및 요구사항</h2> <p>대형화되는 DDoS 공격을 비롯한 각종 사이버공격을 효과적으로 대응하기 위해서 ISP 협력에 의한 전역 네트워크 차원의 보안 정보공유체계 및 프레임워크 필요성이 대두되고 있다. 여기에서 보안 정보란 알려지거나 알려지지 않은 공격, 위협, 취약성, 침입 악성 행위 등과 관련된 정보들을 총칭한다. 이러한 보안 정보들을 상호고유하기 위한 기술과 표준은 지속적으로 진행되고 있다.</p> <p>지금까지 국내 대부분의 ISP들은 자체적으로 네트워크 위협 대응기술제공을 위하여 ESM, TMS·RMS, DDoS 대응 시스템, 좀비 PC 및 C&C 서버 탐지 보안 장비를 보유·운영하고 있어 이를 전역차원에서 통합분석 하여야 한다. 하지만 장비별 성능·기능 측면에서 격차가 존재하여, 이를 ISP간 협력단계를 거치지 않고 동일하게 적용한다면 공유수준 및 제공범주의 불균형적 상황이 심각할 것으로 예상된다.</p> <p>뿐만 아니라 지금까지 국내 ISP 들의 보안 이벤트 공유는 거의 부재상황이며, 서로 경쟁관계인 각 기관들끼리 자발적인 협력을 통해 전역네트워크 차원의 보안 정보 공유환경 구축은 어려울 것으로 생각된다. ISP는 기본적으로 자사 관리망의 보안상황과 안전성에 집중하는 경향이 있으며 특히 자사 망 서비스·서버·생존성을 가장 우선시하고 있어서 국가차원의 요구사항이 제공되지 않는다면 자발적인 협력은 한계를 가지고 있다고 하겠다.</p> <p>이에 따라, 2010년 5월 방송통신위원회 주재로 발족된 “네트워크 보호 연구개발협력회의” 와 같은 국가차원의 사이버위협 대응을 위한 전역차원의 보안프레임워크 구축을 위한 노력이 지속되어야 한다. 아울러 ISP사업자와 국가 간 통합보안제어 필요성에 대한 공감대 형성을 위하여 각 기관별 보안정보공유를 위한 로그정보 및 인터페이스 협의 등의 노력도 지속적으로 추진해야 한다.</p> <p>다음 표 3은 네트워크 보호 연구개발 협력회의 때 각 ISP에 요청되었던 침해사고 수집유형(예)을 보여주고 있다. ISP 자체적으로 분석하는 자료와 보안장비로부터 제공받은 원시 로그자료를 구분하여 수집가능성을 항목별(봇넷대응, DDoS 대응 및 통합보안관제)로 분류한다.</p> <p>ISP 분석자료 수집을 위하여 봇넷 대응정보와 좀비 PC 정보를 개인정보보호 범주 내에서 제공 장비(자체 개발 장비 및 외산장비 등)의 수준별로 수집하고, ISP 원시 보안로그 정보수집을 위하여 DDoS 대응정보와 통합보안관제 정보로 분류하여 요청한다.</p> <p>DDoS 대응정보는 현재 대부분의 시스템에서 제공하는 플로우 정보, DDoS 공격 정보 및 트래픽정보가 제공가능한지 확인한다. 통합보안관제 정보는 플로우 및 공격유형과 트래픽 정보가 제공가능한지 확인한다.</p> <p>여러 ISP의 다양한 네트워크 보안장비로부터 수집된 공격트래픽 탐지 정보를 공유하여 전역적 협력대응기반의 보안프레임워크 구축이 가능하며, 이러한 프레임워크를 기반으로, 전역차원의 통합보안관제 서비스가 제공 가능하다.</p> <p>향후 전역차원의 헙력대응기반 보안 프레임워크를 기반으로 악성코드가 백본으로 유입되는 접속점을 찾아 대규모 공격 발생의 사전인지 및 조기차단이 가능하도록 설계한다.</p> <h2>2. 협력대응기반의 보안정보 공유시스템 설계</h2> <h3>가. 통합보안제어 기술 개념</h3> <p>국가·사회적으로 위협이 되고 있는 정보유출 목적의 APT 공격의 증가와 DDoS 공격의 잦은 발생은 개별 ISP 자체적 공격 대응으로는 체계적이고 종합적인 실시간 보안제어체계 운용의 한계를 나타낸다.</p> <p>본 협력대응기반의 보안정보 공유기술은 ISP사업자와 국가 간 통합보안제어 필요성에 대한 공감대 형성뿐 아니라 ISP 연동구간 트래픽을 제어함으로 추가적인 네트워크 인프라 증설비용 절감이 가능하도록 설계한다. 다음 그림 1은 전역차원의 통합보안제어 기술 개념도이다.</p> <p>공격탐지 정확도 향상을 위하여 여러 ISP에서 수집된 보안이벤트 연관성 분석결과를 활용한다. 즉 국가 전역차원의 보안상황 해결로 개별 ISP 운영 시 보안에 따른 문제를 최소화 시켜주고, 기 개발된 기술은 개별 ISP에 적용할 수 있어 미래의 공격에 대비하는 이중의 효과가 있다.</p> <p>전역차원의 통합보안제어 프레임워크 구축을 위해 다양한 ISP에서 제공된 이종보안장비의 정보를 표준포맷으로 제공받고, 이 정보를 통합 분석하여 전역 네트워크 차원의 보안상황 관제서비스 및 제어, 네트워크 위협 사전 인지 및 대응 서비스 제공이 가능하다. 추후 탐지된 의심도메인 탐지정보기반 공격량 예측 발령 서비스 및 공격근원지 추적서비스 기능도 적용가능하다.</p> <h3>나. 통합보안제어 기술 구성</h3> <p>협력대응기반의 정보공유시스템에서 제공하는 통합보안제어기술은 여러 ISP의 이종보안장비로부터 정보 수집을 위한 에이전트, 공유정보 전달을 위한 보안정보 공유프로토콜 및 에이전트로부터 수집된 보안정보 관리, 제어 및 대응을 위한 서버 시스템으로 구성되며 다음 그림 2와 같다.</p> <p>여러 ISP로부터 탐지된 정보를 통합보안제어 서버에 전달하여 분석하고, 분석된 정보를 대상 네트워크 전체가 공유함으로써 보호하고자 하는 전역네트워크 보안을 위한 다양한 보안제어가 가능한 구조를 나타낸다.</p> <p>통합보안제어 에이전트 시스템에서는 ISP의 기존 네트워크 보안장비로부터 제공받은 보안이벤트 수집을 제공하는 통합관제 시스템 외에 DDoS 대응시스템과 같은 보안장비로부터 이종보안이벤트 수신이 실시간으로 이루어져야 하며, 수집된 보안이벤트 정보가 공격유형 파싱 정규화 기능을 통하여 전역차원의 연관성 분석이 가능한 표준 포맷으로 재정의 되고, 정보공유 프로토콜을 통하여 서버에 전달되어야한다</p> <p>통합보안제어 서버시스템은 다양한 에이전트 시스템으로부터 수신된 보안이벤트를 분석, 경보계산 및 통계 처리하여 통합보안관제를 위한 시각화 데이터 작성 등의 기능을 제공하여야 한다. 통합분석기능은 에이전트로부터 수신된 이벤트정보를 누적하여 공격 발생 시간 별 및 피해지별, 특징 별 분석기능을 제공하고, 경보계산은 지금까지 각 기관별로 산정하던 취약점 점수와 공격상황정보 연관성 분석을 통하여 전역 네트워크 차원에서 발생한 공격 당 해당 점수를 산정하도록 한다. 산정된 점수를 기반으로 위협 등급을 분류하며 위협상황 전파 등의 대응기술도 제공된다.</p>
|
대형화되는 DDoS 공격을 비롯한 각종 사이버공격을 효과적으로 대응하기 위해서 ISP 협력에 의한 전역 네트워크 차원의 보안 정보공유체계 및 프레임워크 필요성이 대두되고 있어 이에 대한 대응책으로 본 연구에서는 협력대응기반 보안정보 공유 시스템을 제안한다. 각 ISP는 기본적으로 자사 관리망의 보안상황과 안전성에 집중하는 경향이 있으며 특히 자사 망 서비스·서버·생존성을 가장 우선시하고 있어 국가차원의 요구사항이 제공되지 않는다면 자발적인 협력은 한계를 가지고 있어 이에 대한 변화를 위해 협력대응기반의 보안정보 공유기술은 ISP사업자와 국가 간 통합보안제어 필요성에 대한 공감대 형성뿐 아니라 ISP 연동구간 트래픽을 제어함으로 추가적인 네트워크 인프라 증설비용 절감이 가능하도록 설계하여야 하며, 이런 설계는국가 전역차원의 보안상황 해결로 개별 ISP 운영 시 보안에 따른 문제를 최소화 시켜주고, 기 개발된 기술은 개별 ISP에 적용할 수 있어 미래의 공격에 대비하는 이중의 효과가 있을뿐만이 아니라 전역차원의 통합보안제어 프레임워크 구축을 위해 다양한 ISP에서 제공된 이종보안장비의 정보를 표준포맷으로 제공받고, 이 정보를 통합 분석하여 전역 네트워크 차원의 보안상황 관제서비스 및 제어, 네트워크 위협 사전 인지 및 대응 서비스 제공이 가능하며 추후 탐지된 의심도메인 탐지정보기반 공격량 예측 발령 서비스 및 공격근원지 추적서비스 기능도 적용 가능하다는 강점을 가진다.
|
<h2>3. 협력대응기반의 보안정보 공유시스템 구현</h2> <p>지금까지 설계한 부분이 실 ISP환경에서 운용 가능하도록 초당 \( 7 \sim 8\)천개 이상의 이벤트 처리, 다양한 보안 이벤트 신뢰성 보장을 위한 통합 I/F 정의, 정보공유 프로토콜의 전달성능, 전역차원의 제어를 위한 20분 이내 차단정책 적용 등 보안 프레임워크 동기화가 가능하도록 구현한다. 각 개별 시스템의 구현 상세내용은 다음과 같다.</p> <h3>가. 통합보안제어 서버시스템</h3> <p>통합보안제어 서버시스템은 전역 네트워크에서 발생하는 보안상황을 신속하고 정확하게 파악할 수 있도록 네트워크의 공격상황, 좀비 PC 및 C&C 서버의 확산 현황을 3D 시각화 엔진과 지리정보를 연계하여 시각화함으로써 네트워크 보안상황을 직관적으로 파악하고 신속하게 대응할 수 있도록 한다.</p> <p>여러 ISP로부터 제공받은 보안이벤트정보를 지리정보와 연계하여 어느 지역에서 공격이 발생하였는지, 공격의 종류 및 포트 등이 제공될 뿐 아니라, 실시간으로 네트워크 전역을 모니터링하며, DDoS와 같은 대규모의 공격 발생 시 보안상황 관제센터에서 대상 IP 를 확인하고, 이를 차단하기 위한 정책을 즉시 생성 및 전달할 수 있다.</p> <p>지금까지 전화, 이메일 등으로 전달되던 텍스트기반의 보안상황전파문이 시스템 화된 자동화전파기능으로 동기화되어 실제 공격 탐지에서부터 이의 대응정책 생성, 전달, 적용까지 20여분 내에 가능하게 되었다. 이러한 지리정보 기반의 3D 보안상황 시각화를 통하여 전역네트워크에서 발생하는 보안위협을 직관적으로 파악할 수 있다. 공격 실시간 탐지, 자동화된 보안상황 전파를 통한 협력 대응, 위협 조기차단 등이 가능하다.</p> <p>그림 3은 통합보안제어 서버의 보안상황 3D 시각화가 구현된 화면을 보여주고 있다.</p> <p>그림 4를 보면 국내 각 ISP별로 발생한 공격을 지역별로 차트를 이용하여 나타내고 있다. 공격이 많이 발생하는 지역 및 사이트를 관제화면을 통하여 쉽게 파악 가능하다. 개별 ISP 별 공격현황을 색깔(ISP 1 : 파랑, ISP 2 노랑, ISP 3 : 빨강 등) 등을 이용하여 구분하고, 공격 량 또한 차트의 높이 등으로 구분할 수 있도록 하였다. 본 화면을 통하여 ISP별 보안현황을 직관적으로 파악할 수 있다.</p> <p>그림 5 는 통합보안제어 서버의 경보 통계 2D 화면을 보여준다. 어느 지역에서 발생한 공격인지, 시간별 공격량을 통계정보로 보여주고, 이러한 정보를 기반으로 전체보안상황 등급을 5단계(정상, 관심, 경계, 주의, 심각)로 보여주고 있다(현재는 보안로그 정보 통합분석에 의하여 경계상황임을 나타냄).</p> <h3>나. 통합보안제어 에이전트시스템</h3> <p>통합보안제어 에이전트시스템은 전역 네트워크에서 발생하는 보안상황을 신속하고 정확하게 파악할 수 있도록 여러 ISP의 이종 보안장비로부터 보안이벤트를 실시간으로 수집하는 기능을 제공한다. 지금까지 사이버공격에 대한 개별 ISP의 대응을 국가차원에서 통합제어할 때 가장먼저 요구되는 기능으로, 다양한 이종 보안 이벤트포맷을 하나의 통합이벤트 포맷으로 수집하여 누락 없이 서버시스템으로 전달한다.</p> <p>지금까지 DDoS 대응을 위한 국가 R\&D 연동 시스템을 대상으로 통합 이벤트 포맷협의가 추진되었지만 향후 전역 네트워크 차원으로 확장된다면 표준포맷 정규화부분에 대한 표준화작업이 진행되어야 할 것이다. 그림 6은 통합보안제어 에이전트 시스템의 응답메시지 상세내역을 보여주고 있다.</p> <p>통합보안제어 에이전트 시스템의 경우 이종보안이벤트 정보가 실시간으로 누락되지 않고 제공되어야하며 표준포맷으로 정규화시 개별 ISP 특성정보가 누락되지 않도록 하여야 한다.</p> <h3>다. 보안정보공유 프로토콜</h3> <p>통합보안제어 서버시스템과 에이전트 시스템 간 실시간 이벤트 전달을 위한 정보공유프로토콜을 IETF와 같은 국제표준에서 정의하는 표준 프로토콜을 기반으로 제공가능 하도록 한다. 보안정보공유 프로토콜은 다양한 보안정보를 안전하게 공유할 수 있도록 보안과 편의성을 고려하였으며, 보안로그정보, 봇넷 탐지정보 및 악성코드 탐지 정보 등의 보안정보 공유 지원과 보안정보 공유 시 프로토콜의 상태를 모니터링 하는 관리기능도 제공하도록 구현한다.</p> <p>실제 구현에서는 Syslog 표준 프로토콜과 RID 표준 프로토콜이 보안이벤트 전달과 상황전파문 전달을 위하여 구현되었으며, 경보전달을 위한 데이터 포맷 및 교환절차는 IDMEF 를 기반으로 구현한다. 보안정보가 마스킹, 요약 및 필터링 등의 공유정책에 의하여 ISP별로 제어 가능하도록 한다.</p> <p>프로토콜 메시지 전달 성능과 보안로그 데이터 전달 성능을 분리하여 측정하였으며 기본적인 프로토콜 메시지 전달 성능은 보안로그 성능의 5배 이상을 처리하여 제공 프로토콜로 인하여 성능 문제가 발생하지 않도록 구현한다.</p>
|
통합보안제어 서버시스템은 전역 네트워크에서 발생하는 보안상황을 빠르고 정확하게 파악할 수 있도록 네트워크 공격상황, 좀비 PC 및 C&C 서버의 확산 현황을 시각화하여 네트워크 보안상황을 직관적이고 신속하게 대응할 수 있도록 해준다. 통합보안제어 에이전트시스템은 전역 네트워크에서 발생하는 보안상황을 신속하고 정확하게 파악할 수 있도록 ISP의 보안장비로부터 보안이벤트를 실시간으로 수집한다. 보안정보공유 프로토콜은 보안정보를 공유하도록 지원하는 동시에 보안정보 공유 시 프로토콜 상태를 모니터링하는 관리기능도 제공한다.
|
<h1>3. 한국어 워드넷 재구성</h1><p>본 논문에서 사용한 한국어 워드넷은 (그림 2)의 구조로 구성되어 있어 이해가 쉽고 다양한 정보를 얻을 수 있다는 장점이 있다. 본 논문에서는 이 스키마를 이용하여 어휘 개념 유사도 행렬을 구성한다. 또한 주어진 키워드의 동의어 및 하위어는 실제 문장을 생성하는 단계에서 추출하기도 한다. 그러나 (그림 2)의 한국어 워드넷의 기본 구조는 많은 정보를 표현하기 위하여 어휘 개념 유사도 행렬 구성에는 필요하지 않은 데이터 필드를 가지고 있으며, 또한 데이터가 지나치게 세분화되어 유사도 행렬을 구성할 때 오버헤드를 유발시켜 성능을 저하시키는 문제를 가지고 있다. 따라서 본 논문에서는 이러한 문제를 해결하기 위하여 주어진 한국어 워드넷의 기본 구조를 유사도 행렬 구성에 맞추어 재구성하였다.</p><p>어휘 개념간의 유사도 측정에서는 한/영 키워드 변환 및 관련 정보 추출에서 관계 사이의 조인 연산이 빈번히 이루어지는데, 질의 처리에 있어서 가장 많은 시간을 사용하는 조인 연산을 줄이기 위해서 (그림 2)의 속성 중에서 불필요한 속성들을 제거하여 기본 구조를 재구성하였다. 또한 하나의 속성에 복수개의 값을 허용하면 속성의 크기의 최대값을 예상하기 어려워 구현시 비효율적인 공간 사용이 초래되고, 또한 질의를 통해 추출한 속성 값 전체를 실제 사용을 위하여 재가공하여야 되는 추가적인 과정이 필요하다.</p><p>본 논문에서는 재구성을 진행할 때, 실제로 전체 한국어 워드넷 공간에서 유일한 값을 가지는 synsetOffset 속성을 SynsetIdx라 명칭을 바꾸어 모든 관계의 주키(primary key)로 결정하고, Synset, Tran 관계에서 중복적으로 주키로 되어 있는 idx 속성을 제거하여 공간 사용을 줄이고 동시에 접근을 더욱 간단하게 하였다. 그리고 여러 번의 조인 연산을 통하여 입력된 한국어 어휘에 대한 영어 어휘를 찾아 이를 변환하던 것을 stdDic 및 synset 관계의 주키들의 비교를 통하여 보다 간소화시켰다. 또한 synset, hypernym, hyponym 관계는 모두 idx, offset과 같이 동일한 필드로 구성되기 때문에, ISA 관계로 이들을 하나로 결합시킴으로써 한국어 워드넷 구조를 더욱 단순화할 수 있었다. 재구성 결과를 함수종속성의 폐포와 후보키를 고려하여 BCNF(Boyce-Codd Normal Form)정규화의 조건을 맞추어 테이블을 재구성하면 (그림 3)과 같은 새로운 구조가 된다.</p>
|
본 논문에서 사용한 한국어 워드넷은 (그림 2)의 구조로 구성되어 있어 이해가 쉽고 다양한 정보를 얻을 수 있다는 장점이 있고, 이 스키마를 이용하여 어휘 개념 유사도 행렬을 구성한다. 재구성을 진행할 때, 실제로 전체 한국어 워드넷 공간에서 유일한 값을 가지는 synsetOffset 속성을 SynsetIdx라 명칭을 바꾸어 모든 관계의 주키(primary key)로 결정하고, Synset, Tran 관계에서 중복적으로 주키로 되어 있는 idx 속성을 제거하여 공간 사용을 줄이고 동시에 접근을 더욱 간단하게 하였다. 재구성 결과를 함수종속성의 폐포와 후보키를 고려하여 BCNF(Boyce-Codd Normal Form)정규화의 조건을 맞추어 테이블을 재구성하면 (그림 3)과 같은 새로운 구조가 된다.
|
<h1>1. 서 론</h1><p>인터넷의 발전으로 오프라인에서 주로 시행되던 교육 및 평가 시스템이 온라인으로 확장되어 각종 교육기관에 의해 시행되고 있다. 과거에는 오프라인의 지필고사를 위주로 치루어졌던 TOEFL과 같은 평가가 현재는 Internet-Based Test (IBT) 방식으로 바뀌고 있는 것이 예다. 이와 같은 국제시험 뿐만 아니라 많은 평가가 오프라인 영역에서 온라인 영역으로 이동하고 있으며, 이러한 시험을 대비하는 교육 방식 역시 온라인으로 급속히 이동하고 있다. 온라인 교육에서는 필히 온라인 평가가 요구되는데, 온라인 평가에서는 주로 문제 은행이라는 방대한 자료가 구축되어야 하지만, 이를 위해서는 문제를 출제하는데 필요한 많은 자원이 소모된다. 만일 이러한 자원이 뒷받침되지 않으면 수험자는 반복되어 출제되는 문제의 유형 또는 내용을 암기하여 문제를 풂으로써, 정상적인 평가가 불가능하게 된다.</p><p>이와 같은 문제를 최소화하기 위해 문항 생성을 자동으로 하여 더 적은 비용으로 매우 다양한 문항을 반자동으로 생성하는 연구가 제시되고 있다. 그러나 이 연구는 매우 많은 문항을 짧은 시간에 생성할 수는 있으나, 이 시스템은 어휘 온톨로지 상에서 주변에 있는 어휘들을 대체어로 제시하는 수준이기 때문에 주어진 문장과 유사한 문항을 생성할수는 있지만, 유사한 정도를 조절할 수 없어 새로이 생성된 문제의 난이도를 제어할 수 없다는 문제를 가지고 있다.</p><p>따라서 본 연구에서는 자동으로 생성되는 문항의 유사도를 조절함으로써 문제의 난이도를 조절할 수 있도록 하였다. 기존의 연구에서도 워드넷(WordNet)을 한국어로 번역한 한국어 워드넷을 사용하여 유사한 문항을 동적으로 생성할 수 있었으나, 본 연구에서는 이러한 한국어 워드넷의 구조를 보다 적극적으로 이용하여 유사도를 조절함으로써 보다 다양한 난이도의 문제를 출제할 수 있도록 한다. 선택형 문제에서 오답은 문제의 난이도 및 학습자의 대상 어휘에 대한 이해도 평가에 중요한 역할을 한다. 따라서 본 연구에서는 정답 문항의 어휘와 새로이 만들어지는 오답 문항의 어휘의 유사도를 워드넷에서 제공하는 Synset, Hypernym, Hyponym 과 같은 계층적 특성을 이용하여 조절함으로써 새로이 생성되는 문제의 난이도를 조절할 수 있도록 하였다. 어휘간 개념 유사도의 측정을 위해서, 본 논문에서는 [9], [10]에서 제시된 측정방법을 구현하여 사용자가 이들 두 가지 방법 중에서 본인의 의도에 더 적합한 방법을 선택할 수 있도록 하였다.</p><p>본 연구에서는 말뭉치 데이터에서 추출되는 어휘의 관련도 (relatedness) 대신 워드넷의 계층구조에서 추출되는 어휘의 유사도 (similarity)를 활용하였다. 이는 새로운 문장을 생성하는데 있어, 그 전체적인 의미가 얼마나 변하는가에 따른 난이도 조절을 목표로 하기 때문이다. 만일 유사도가 아닌 관련도를 사용한다면, 새로이 생성된 문장은 문맥상 기존 문장과 비교하기 어려운 전혀 별도의 문장이 된다.</p><p>새로운 문장을 생성하기 위해서, 출제자는 먼저 자신이 참고할 만한 기존의 문장을 입력하거나 저장된 파일에서 불러오고, 원하는 유사도를 입력한다. 시스템은 한국어 형태소 분석기를 사용하여 문장에서 키워드를 추출하고, 동시에 각 키워드와 주어진 유사도를 가지는 후보 어휘들을 한국어 워드넷에서 찾고 그 결과를 출제자에게 제시한다. 마지막으로 출제자는 후보 어휘 중에서 적절한 어휘를 선택하여 새로운 문항을 생성한다.</p><p>본 연구에서 구현한 난이도를 고려한 문항의 자동 생성 시스템을 이용하여 출제자는 보다 빠르고 간편하게 보다 다양한 문항을 생성할 수 있었으며, 테스트 결과 학생들에게 보다 높은 난이도의 문제를 간편하게 제시할 수 있었다.</p>
|
TOEFL가 같은 평가가 과거, 오프라인 지필고사 위주였다면 현재는 IBT방식으로 바뀌고 온라인 평가는 방대한 자료 구축과 자원이 필요한 관계로 워드넷을 활용하여 어휘의 관련도보다 유사도에 촛점을 두었다. 이에 관한 목표는 새로운 문장 대비 난이도 조절이기 때문이며, 이를 고려한 자동 생성 시스템 덕분에 출제와 학생들이 편리하다.
|
<h1>2. 워드넷에서의 유사도 측정</h1><p>워드넷은 1985년 프린스톤(Princeton)대학 인지과학연구실에서 연구되어 발전된 것으로써, 최초에는 어휘들의 연관성을 나타내기 위하여 고안되었으며 최근에는 언어처리, 정보검색 등의 분야에서 매우 활발하게 활용, 연구되고 있다.</p><p>(그림 1)은 한국어 워드넷 [7]의 기본 체계를 보여준다. 워드넷의 계층적 특성을 한국어 워드넷을 통하여 살펴보면, Synset이란 동의어(synonym)관계를 의미하며 (그림 1)에서의 {수단, 방편}과 같이 의미가 비슷하여 하나의 집합을 이루는 노드를 말한다. 이 Synset은 워드넷 상에서 하나의 개념을 표현한다. Hypernym은 Synset을 보다 추상적으로 표현한 상위단어를 말하며 (그림 1)에서는 {인공물}이 {수단, 방편}의 Hypernym이 된다. Hyponym이란 상위단어에 대한 좀 더 구체적인 단어를 말하는데 (그림 1)에서는 {수송기, 수송차} 가 {수단, 방편 }의 Hyponym이 된다.</p><p>본 연구에서는 워드넷에서 Synset간의 Hyponym과 Hypernym 관계를 활용하여 어휘간 또는 개념간 유사도를 계산하였는데 [13]에서 제시된 바와 같이 성능면에서 큰 차이가 없고 대량의 데이터를 구축할 필요가 없는 [9]과[10]에서 제시한 방식을 사용하였다. [9]와 [10]에서 제시한 방식으로 어휘간 또는 개념간 유사도를 계산하였는데, 이 알고리즘에 대한 간략한 설명은 다음과 같다.</p><p>[9]에서 제시된 알고리즘은 두 개념 사이의 관계를 두 개념 사이의 경로(path)의 길이에 기반을 두어 다음과 같이 추정하였다.</p><p>\( \operatorname{rel}_{H S}\left(c_{1}, c_{2}\right)=C-\operatorname{len}\left(c_{1}, c_{2}\right)-k * d \)<caption>(1)</caption></p><p>여기서 C와 K는 상수이고, \( \operatorname{len}(a, \beta) \) 는 개념 \( a \)와 개념 \( \beta \)사이의 가장 가까운 경로를 이루고 있는 간선의 개수이다. 그리고 \( d \)는 경로의 방향 전환 회수를 의미한다. 이 방법은 두 개념 사이의 간선의 개수가 적고, 경로의 방향 전환이 없는 경우에 더욱 유사한 개념으로 정의한다. 예를 들어 \( c_{1} \)이 {트럭}, \( c_{2} \) 가 {자동차} 일 때 두 개념 사이의 유사도를 구하기 위해 (1)식을 따르면 \( \operatorname{len}\left(c_{1}, c_{2}\right) \) 는 5가 되고 {wheeled_vehicle}에서 경로의 방향이 전환되므로 C를 20, K를 0.5로 하였을 때 두 개념간의 유사도는 14.5가 된다. 반면에 '수송기'와 '수송차'는 동일 개념이므로 \( \operatorname{len}\left(c_{1}, c_{2}\right)^{\prime} \) 가 0, 경로 방향 전환 횟수가 0이 되므로 유사도가 20이 되고, {트럭}과 {실체}는 'len \( \left(c_{1}, c_{2}\right) \)가 8이 되므로 유사도는 12가 된다.</p><p>한편, [10]에서는 개념 \( c_{1} \) 과 \( c_{2} \) 간의 유사도를 다음과 같이 추정한다.</p><p>\( \operatorname{sim}_{L C}\left(c_{1}, c_{2}\right)=-\log \frac{\operatorname{len}\left(c_{1}, c_{2}\right)}{2 D} \)<caption>(2)</caption></p><p>여기서 D는 두 개념을 동시에 포함하는 계층 체계의 전체적인 깊이(depth)를 의미한다. 따라서 이 방법은 두 개념간의 경로를 이루는 간선의 개수가 작고 두 개념을 포함하는 전체 계층 구조의 깊이가 깊을수록 유사도가 높아지는 특징을 가진다. 그러나 워드넷에서의 유사도 계산은 동일 트리에 위치하는 개념들 간에서만 이루어지기 때문에 사실상 비교에 있어서는 의미가 없다고 볼 수 있다. 따라서 단순히 최단 거리가 짧은 두 개념간의 유사도가 더 높은 결과를 보인다.</p>
|
어휘들의 연관성을 나타내기 위해 고안된 후 최근에는 언어처리, 정보검색 등의 분야에서 매우 활발하게 활용 연구되고 있는 워드넷에서 Synset은 동의어 관계를 의미하는데 이는 의미가 비슷하여 하나의 집합을 이루는 노드를 말한다. 본 연구에서는 Synset간의 Hyponym과 Hypernym관계를 활용한 어휘간 또는 개념간 유사도를 계산하였는데 두 개념간의 경로를 이루는 간선의 개수가 작고 두 개념을 포함하는 전체 계층 구조의 깊이가 깊을수록 유사도가 높아지는 특징을 가졌고 최단 거리가 짧은 두 개념간의 유사도가 더 높은 결과를 보였다.
|
<h1>IV. 기판 크기에 따른 방사패턴 특성</h1><p>본 장에서는 표 2에서 보인 평균 AEP의 방사 특성이 좋은 경우와 나쁜 경우의 기판크기를 가지는 2소자 E-평면 배열 안테나의 빔 주사각도 \( \theta_{0} \)에 따른 주 빔 이득과 주 빔 방향 \( \theta_{m} \)을 평균 AEP와 함께 살펴본다. 여기서 빔 주사각도 \( \theta_{0} \)는 배열 요소의 최대 이득이 발생되는 각도이며 주 빔 방향 \( \theta_{m} \)은 배열 안테나의 주 빔 이득이 최대가 되는 각도이다.</p><h2>1. 유전상수가 2.2인 기판</h2><p>그림 10에 유전상수가 2.2이고 \( d=0.5 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 경우 \( \left(d_{E}=0.35 \lambda_{0}\right) \)와 나쁜 경우 \( \left(d_{E}=0.7 \lambda_{0}\right) \)의 기판크기를 가지는 2소자 E-평면 배열 안테나의 빔 주사각도 \( \theta_{0} \)에 따른 주 빔 이득, 주 빔 방향 \( \theta_{m} \)과 \( \theta \)에 따른 평균 AEP를 보인다. Broadside 배열 안테나에서 주 빔의 반 전력 빔 폭(half power beam width: HPBW)은 안테나 소자의 수가 적을수록 단위 안테나 간 거리가 작을수록 증가한다. 또한 빔 주사 시 빔 주사각도 \( \theta_{0} \)가 커질수록 반 전력 빔 폭은 증가한다. 가장 기본적인 배열 구조인 2소자 배열 안테나는 배열 요소가 가지는 주 빔의 빔 폭이 매우 넓기 때문에 평균 AEP와 배열 요소의 곱으로 얻어지는 배열 안테나의 특성은 평균 AEP에 따라 크게 좌우된다.</p><p>그림 10(a) 에서 \( d_{E}=0.35 \lambda_{0} \)와 \( 0.7 \lambda_{0} \)인 경우 모두 빔 주사각도에 따른 주 빔 이득의 변화는 평균 AEP의 이득 변화와 비슷함을 볼 수 있다. \( d_{E}=0.35 \lambda_{0} \)인 경우에는 평균 AEP에서 덥이 발생되지 않기 때문에 빔 주 사각도에 따른 주 빔 이득 변화에서도 큰 딥이 관찰되지 않는다. \( d_{E}=0.7 \lambda_{0} \) 인 경우에는 평균 AEP의 \( \theta= \pm 30^{\circ} \) 부근에서 딥이 발생되어 빔 주사각도가 \( \theta_{0}=\pm 30^{\circ} \) 근처일 때 주 빔 이득이 감소되고 주 빔 방향 \( \theta_{m} \)이 급격히 변화하는 것을 볼 수 있다. 그림 10(a)에서 \( \left|\theta_{0}\right| \)가 약 \( 50^{\circ} \) 보다 큰 경우 기판 크기에 상관없이 평균 AEP의 이득이 급격히 감소되며 이에 따라 빔 주사 오차가 증가하는 것을 그림 10(b)를 통해 확인할 수 있다. 주 빔 방향 \( \theta_{m} \)이 급격히 변화하는 이유는 그림 11을 이용하여 자세히 설명한다.</p><p>그림 11에는 \( d=0.5 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 경우 \( \left(d_{E}=0.35 \lambda_{0}\right) \) 와 나쁜 경우 \( \left(d_{E}=0.7\right. \) ( \left.\lambda_{0}\right) \) 의 기판크기를 가지는 2소자 E-평면 배열 안테나의 평균 AEP와 특정 빔 주사각도에서의 방사패턴과 정규화된 배열 요소를 보인다. 그림 11(a)는 \( d_{E}=0.35 \lambda_{0} \)인 경우 평균 AEP와 \( \theta_{0}=60^{\circ} \)일 때 배열안테나의 방사패턴과 정규화된 배열 요소를 도시한 것이다. 정규화된 배열 요소는 \( \theta=60^{\circ} \)에서 최대 이득을 가지지만 반 전력 빔 폭이 매우 넓다. 이이 비해 평균 AEP는 \( 60^{\circ} \)보다 작은 각도에서 이득이 크기 때문에 배열 안테나의 방사 패턴은 \( \theta=60^{\circ} \) 에서 최대 이득을 가지지 못하고 \( \theta = 29.4^{\circ} \)에서 최대 이득을 가지게 된다. 이에 따라 \( \theta_{0}=60^{\circ} \)일 때 주 빔 방향 \( \theta_{m} \)은 \( 29.4^{\circ} \)가 되어 빔 주사각 오차는 \( 30.6^{\circ} \) 로 매우 크며 주 빔 이득은 \( \theta=29.4^{\circ} \)에서 평균 AEP가 가지는 이득에 비례하여 크게 줄어들지 않음을 알 수 있다.</p><p>그림 11(b)는 \( d_{E}=0.7 \lambda_{0} \)인 경우 평균 AEP와 \( \theta_{0} \)가 \( 30^{\circ} \)와 \( 35^{\circ} \) 일 때 배열안테나의 방사패턴과 정규화된 배열 요소를 도시한 것이다. 정규화된 배열 요소는 \( \theta=30^{\circ} \)와 \( 35^{\circ} \)에서 각각 최대 이득을 가지지만 반 전력 빔 폭이 매우 넓다. 이에 비해 평균 AEP는 \( \theta=28.8^{\circ} \)에서 발생하는 딥으로 인해 \( \theta=-0.4^{\circ} \) 와 \( 40.7^{\circ} \)에서 이득 첨두치를 가진다. 이에 따라 \( \theta_{0}=30^{\circ} \)일 때 주 빔 방향 \( \theta_{m} \)은 \( 8.8^{\circ} \)가 되지만 \( \theta_{0}=35^{\circ} \)일 때 주 빔 방향 \( \theta_{m} \)은 \( 35.8^{\circ} \)가 되어 \( \theta_{0} \)가 \( 5^{\circ} \) 증가될 때 \( \theta_{m} \) 은 \( 27^{\circ} \) 증가된다.</p><p>그림 12에 \( d=0.7 \lambda_{0} \) 인 경우 평균 AEP의 방사 특성이 좋은 경우 \( \left(d_{E}=0.35 \lambda_{0}\right) \) 와 나쁜 경우 \( \left(d_{E}=1.0 \lambda_{0}\right) \)의 기판크기를 가지는 2소자 E-평면 배열 안테나 빔 주사각도 \( \theta_{0} \) 에 따른 주 빔 이득, 주 빔 방향 \( \theta_{m} \)과 \( \theta \)에 따른 평균 AEP를 보인다. 그림 12(a)에서 \( d_{E}=0.35 \lambda_{0} \)인 경우 broadside 방향 근처에서의 주 빔 이득이 \( d_{E} =1.0 \lambda_{0} \)인 경우에 비해 크며 빔 주사각도에 따른 주 빔 이득 변화에서 딥이 관찰되지 않음을 볼 수 있다. \( d_{E}= 1.0 \lambda_{0} \)인 경우 평균 AEP에서 나타나는 \( \theta=-38^{\circ}, 2^{\circ} \), \( 40^{\circ} \) 부근의 딥은 해당 각도 근처에서 주 빔 이득을 저하시키고 \( \theta_{0} \) 에 따른 \( \theta_{m} \) 변화를 증가시킨다.</p><p>표 4에는 유전상수가 2.2이고 \( d=0.5,0.7 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 경우와 나쁜 경우의 기판크기를 가지는 2 소자 E-평면 배열 안테나의 주요 방사 특성을 정리하여 보인다. 표 4 에서 평균 AEP의 방사 특성이 좋은 기판 크기를 가지는 2소자 E-평면배열 안테나는 평균 AEP에서 딥이 발생하지 않으며 \( \theta_{0} \)에 따라 주 빔 이득이 지역적으로 최소가 되거나 빔 주사 오차가 급격히 커지는 빔 주사 각도가 발생하지 않음을 볼 수 있다. 그러나 평균 AEP의 방사 특성이 나쁜 기판 크기를 가지는 경우에는 평균 AEP에서 딥이 발생하는 각도 근처에서 주 빔 이득이 감소하고 빔 주사 오차가 증가함을 볼 수 있다.</p>
|
표 2의 평균 AEP의 방사 특성이 좋은 경우와 나쁜 경우의 기판크기를 가지는 2소자 E-평면 배열 안테나의 빔 주사각도 \( \theta_{0} \)에 따른 주 빔 이득과 주 빔 방향 \( \theta_{m} \)을 평균 AEP와 함께 살펴보고자 하며, 그림 10에 유전상수가 2.2이고 \( d=0.5 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 경우 \( \left(d_{E}=0.35 \lambda_{0}\right) \)와 나쁜 경우 \( \left(d_{E}=0.7 \lambda_{0}\right) \)의 기판크기를 가지는 2소자 E-평면 배열 안테나의 빔 주사각도 \( \theta_{0} \)에 따른 주 빔 이득, 주 빔 방향 \( \theta_{m} \)과 \( \theta \)에 따른 평균 AEP를 보인다. 그림 11은 \( d=0.5 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 경우, \( \left(d_{E}=0.35 \lambda_{0}\right) \) 와 나쁜 경우 \( \left(d_{E}=0.7\right. \) ( \left.\lambda_{0}\right) \) 의 기판크기를 가지는 2소자 E-평면 배열 안테나의 평균 AEP와 특정 빔 주사각도에서의 방사패턴과 정규화된 배열 요소를 보이고, 그림 12에 \( d=0.7 \lambda_{0} \) 인 경우 평균 AEP의 방사 특성이 좋은 경우 \( \left(d_{E}=0.35 \lambda_{0}\right) \) 와 나쁜 경우 \( \left(d_{E}=1.0 \lambda_{0}\right) \)의 기판크기를 가지는 2소자 E-평면 배열 안테나 빔 주사각도 \( \theta_{0} \) 에 따른 주 빔 이득, 주 빔 방향 \( \theta_{m} \)과 \( \theta \)에 따른 평균 AEP를 나타내며, 표 4는 유전상수가 2.2이고 \( d=0.5,0.7 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 경우와 나쁜 경우의 기판크기를 가지는 2 소자 E-평면 배열 안테나의 주요 방사 특성을 정리한다.
|
<h1>II. 기판 크기에 따른 능동소자패턴</h1><h2>1. 능동소자패턴</h2><p>마이크로스트립 패치 안테나를 이용한 배열 안테나 설계 시 유전상수가 크기나 두꺼운 기판을 사용하는 경우 접지된 유전체 기판을 따라 진행하는 표면파의 크기는 커진다. 표면파는 단위 안테나 간의 상호결합을 발생시키거나 기판 가장자리에서 회절되어 배열 안테나의 방사 특성을 저하시킬 수 있다. 본 장에서는 유전상수가 서로 다른 기판을 이용하여 표면파의 크기가 큰 경우와 작은 경우 2소자 E-평면 배열 안테나의 기판 크기에 따른 단위 안테나의 평균 능동소자패턴 (active element pattern: AEP) 특성을 살펴보았다.</p><p>능동소자패턴은 하나의 안테나 소자만 급전시키고 나머지 다른 안테나 소자는 정합된 부하로 종단시킨 경우의 방사패턴으로 안테나 간 상호결합 효과를 포함하는 방사패턴이다. 배열 안테나의 방사패턴은 각 안테나의 AEP와 배열 요소 (array factor: AF)와의 곱으로 정확히 표현되기 때문에 AEP를 분석하는 것은 배열 안테나의 방사패턴을 예측하는데 있어 중요하다. 안테나 소자의 수가 매우 많은 배열 안테나의 경우 중심 안테나 소자의 AEP는 안테나 소자의 개수가 무한개인 배열 안테나의 단위 안테나가 가지는 AEP와 매우 흡사하며, 모든 안테나 소자의 AEP를 중심안테나 소자의 AEP 또는 평균 AEP로 대체하여 배열 요소와 곱함으로써 위상 배열 안테나의 방사패턴 특성을 높은 정화도로 빠르게 예측할 수 있다. 안테나 소자의 개수가 적은 경우에도 중심안테나 소자의 AEP 또는 평균 AEP로 모든 안테나 소자의 AEP를 대체하여 비교적 높은 정확도로 배열 안테나의 방사패턴 특성을 예측할 수 있다.</p><p>그림 1에는 동축 프로브 급전 마이크로스트립 패치 안테나를 이용한 2소자 E-평면 배열 안테나의 구조도를 보인다. 그림 1에서 단위 패치 안테나의 길이와 폭은 각각 \( L \)과 \( W \), 패치 안테나 중심에서 동축 프로브 급전 위치까지의 거리는 \( x_{f} \)로 나타내었다. 논문 기술의 편의를 위해 두 패치 안테나 소자의 중심 간 거리는 \( d \), 패치 안테나 소자의 중심에서 E-평면(x-z 평면) 방향 기판 가장자리까지의 거리는 \( d_{E}\),H-평면 (y-z 평면) 방향 기판 가장자리까지의 거리는 \( d_{H} \)로 나타내었다.</p><p>본 논문에서는 유전상수가 서로 다른 기판을 이용하여 동작 주파수가 \( 5 \mathrm{GHz} \)인 마이크로스트립 패치 안테나를 설계하였다. 설계에 사용된 기판은 유전상수가 각각 2.2 와 10.8인 Taconic 사의 TLY-5와 CER-10으로 기판의 두께는 \( 3.2 \mathrm{~mm} \)로 동일하다. 유전상수가 10.8, 2.2인 CER-10 (TLY-5) 기판을 이용하여 설계한 \( 5 \mathrm{GHz} \) 마이크로스트립 패치 안테나의 패치 크기는 \( L \times W=7.2 \mathrm{mm} \times 6 \mathrm{~mm}(18 \mathrm{~mm} \times 17 \mathrm{~mm}) \)이고 \( x_{f}=1.12 \mathrm{~mm}(3.8 \mathrm{mm} )\)이다.</p><p>그림 2는 마이크로스트립 패치 안테나를 이용한 2소자 배열 안테나에서 여러가지 방사 원으로 구성되는 패치 안테나 1의 E-평면 능동소자패턴 개념도이다. 패치 안테나 1의 AEP는 직접 급전된 패치 안테나 1의 방사, 기판 가장자리에서의 회절에 의한 방사, 상호결합에 의한 인접 패치 안테나 2의 기생방사의 합으로 결정된다. 유전상수가 작고 얇은 기판을 이용하는 경우에는 표면파의 크기가 작기 때문에 패치 안테나 1의 AEP는 주로 직접 급전된 패치 안테나 1의 방사에 의해 견정된다. 그러나 유전상수가 크고 두꺼운 기판을 이용하는 경우에는 표면파의 크기가 크기 때문에 그림 2의 세 가지 주요 방사 원 간의 간섭 현상이 패치 안테나 1의 AEP를 결정한다. 주요 방사 원 간에 발생할 수 있는 상쇄 간섭은 AEP에 딥(dip)을 발생시킬 수 있다.</p><p>안테나 소자의 수가 매우 많은 배열 안테나의 경우 기판 가장자리에서 발생하는 회절현상은 배열의 가장자리 부근에 위치한 단위 안테나의 AEP에 큰 영향을 주지만 배열의 중심 부근에 위치한 단위 안테나의 AEP에 미치는 영향은 크지 않다. 그러나 안테나 소자의 수가 적은 경우 기판 가장자리에서 발생하는 회절 현상이 배열 안테나를 구성하는 모든 단위 안테나의 AEP에 영향을 미칠 수 있다. 따라서 기판 크기에 따른 단위 안테나의 AEP 해석은 안테나 소자의 수가 적은 배열 안테나의 방사 특성을 해석하는데 있어 중요하다.</p>
|
2소자 E-평면 배열 안테나의 기판 크기에 따른 안테나의 평균 능동소자패턴의 특성을 유전상수가 다른 두 개의 기판을 이용하여 확인한다. 능동소자패턴은 높은 정확도로 배열 안테나의 방사패턴의 특성을 정확하게 예측할 수 있다. 동작 주파수가 \( 5 \mathrm{GHz} \)인 마이크로스트립 패치 안테나를 유전상수가 서로 다른 두 개의 기판을 통해 설계한다. 안테나의 수가 늘어날 경우 가장자리에서 발생하는 회절현상이 중심의 것보다 큰 영향을 준다. 즉 기판 크기에 따라서 AEP 해석을 차별점을 두어 해석해야한다.
|
<h2>2. 유전상수가 10.8인 기판</h2><p>그림 13에 유전상수가 10.8이고 \( d=0.5 \lambda_{0} \) 인 경우 평균 AEP의 방사 특성이 좋은 경우 \( \left(d_{E}=0.35 \lambda_{0}\right) \)와 나쁜 경우 \( \left(d_{E}=1.0 \lambda_{0}\right) \)의 기판크기를 가지는 2소자 E-평면 배열 안테나의 빔 주사각도 \( \theta_{0} \)에 따른 주 빔 이득, 주빔 방향 \( \theta_{m} \)과 \( \theta \) 에 따른 평균 AEP를 보인다. 그림\( 13(\mathrm{a}) \)에서 \( d_{E}=0.35 \lambda_{0} \) 인 경우 평균 AEP에서 딥이 관찰되지 않으므로 빔 주사각에 따른 주 빔 이득 변화에서도 딥이 관찰되지 않는다. 그러나 평균 AEP의 이득이 broadeside \( \left(\theta=0^{\circ}\right) \) 방향에서 벗어날수록 크게 감소하여 \( \theta_{0} \)가 증가함에 따라 2소자 배열 안테나의 빔 주사 오차가 증가하는 것을 그림 \( 13(\mathrm{~b}) \)를 통해 확인할 수 있다.</p><p>\( d_{E}=1.0 \lambda_{0} \)인 경우에는 평균 AEP의 \( \theta=0^{\circ} \)와 \( \pm 40^{\circ} \) 부근에서 큰 딥이 발생되므로 빔 주사각도가 \( \theta_{0}=0^{\circ} \)와 \( \pm 40^{\circ} \) 근처로 주사될 때 주 빔 이득이 감소되고 \( \theta_{m} \)이 급격히 달라짐을 볼 수 있다. 그림 13(b)에서 \( d_{E}=1.0 \lambda_{0} \) 일 때 빔 주사각도 \( \theta_{0}=-50^{\circ}, 0^{\circ}, 60^{\circ} \)인 경우 2소자 배열안테나의 주 빔 방향 \( \theta_{m} \)이 급격하게 달라진 것을 볼 수 있는데 그 이유는 그림 14를 이용해 설명한다.</p><p>그림 14에는 유전상수가 10.8이고 \( d=0.5 \lambda_{0} \)인 경우 \( d_{E}=1.0 \lambda_{0} \)의 기판크기를 가지는 2소자 E-평면 배열 안테나의 평균 AEP와 특정 빔 주사각도에서의 방사패턴과 정규화된 배열 요소를 보인다. 그림 14(a)는 평균 AEP와 \( \theta_{0}=\pm 5^{\circ} \)일 때 배열안테나의 방사패턴과 정규화된 배열 요소를 도시한 것이다. \( \theta_{0}=\pm 5^{\circ} \)일 때 정규화된 배열 요소는 \( \theta=\pm 5^{\circ} \)에서 최대 이득을 가지며 평균 \( \mathrm{AEP} \)는 \( \quad \theta=-1.3^{\circ} \)에서의 딥으로 인해 \( \theta=-12.2^{\circ} \)와 \( 12.3^{\circ} \) 에서 이득 첨두치를 가진다. 이에 따라 \( \theta_{0}=-5^{\circ} \)일때 \( \theta_{m} \)은 \( -11.7^{\circ} \)가 되지만 \( \theta_{0}=5^{\circ} \)일 때 \( \theta_{m} \)은 \( 11.5^{\circ} \)가 되어 \( \theta_{0} \)가 \( 10^{\circ} \) 증가될 때 \( \theta_{m} \)은 \( 23.2^{\circ} \) 증가된다.</p><p>그림 14(b)는 평균 AEP와 \( \theta_{0}=55^{\circ} \)와 65일 때 배열 안테나의 방사패턴과 정규화된 배열 요소를 도시한 것이다. \( \theta_{0}=55^{\circ} \)와 \( 65^{\circ} \)일 때 정규화된 배열 요소는 \( \theta=55^{\circ} \)와 \( 65^{\circ} \)에서 최대 이득을 가지며 \( \theta=15^{\circ} \) 근처에서 이득이 급격하게 감소한다. 평균 AEP는 \( \theta=41.7^{\circ} \)에서의 넓고 깊은 딥으로 인해 \( \theta=12.3^{\circ} \)와 \( 68.4^{\circ} \) 에서 이득 첨두치를 가진다. 이에 따라 \( \theta_{0}=55^{\circ} \)일 때 \( \theta_{m} \) 은 \( 12.7^{\circ} \)가 되지만 \( \theta_{0}=65^{\circ} \) 일 때 \( \theta_{m} \)은 \( 68.4^{\circ} \)가 되어 \( \theta_{0} \)가 \( 10^{\circ} \) 증가될 때 \( \theta_{m} \) 은 55.7ํ증가된다.</p><p>그림 15에는 유전상수가 10.8이고 \( d=0.7 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 경우 \( \left(d_{E}=0.35 \lambda_{0}\right) \)와 나쁜 경우 \( \left(d_{E}=0.95 \lambda_{0}\right) \)의 기판크기를 가지는 2소자 E-평면 배열 안테나의 빔 주사각도 \( \theta_{0} \) 에 따른 주 빔 이득, 주 빔 방향 \( \theta_{m} \)과 \( \theta \)에 따른 평균 AEP를 보인다. 그림 \( 15(\mathrm{a}) \) 의 \( d_{E}=0.35 \lambda_{0} \)인 경우 평균 AEP에서 딥이 관찰되지 않고 빔 주사각에 따른 주 빔 이득 변화에서도 딥이 관찰되지 않으며 \( \left|\theta_{0}\right| \) 가 증가함에 따라 빔 주사 오차가 증가함을 볼 수 있다. \( d_{E}=0.95 \lambda_{0} \) 인 경우에는 평균 AEP의 \( \theta=-43.7^{\circ},-0.2^{\circ}, 42.9^{\circ} \) 에서 매우 큰 딥이 발생되므로 빔 주사각도가 \( \theta_{0}=\pm 40^{\circ} \)와 \( 0^{\circ} \) 근처에서 주 빔 이득이 저하되고 \( \theta_{0} \) 에 따른 \( \theta_{m} \)의 변화가 매우 크게 나타났다.</p><p>표 5에는 유전상수가 10.8이고 \( d=0.5,0.7 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 경우와 나쁜 경우의 기판크기를 가지는 2소자 E-평면 배열 안테나의 주요 방사 특성을 정리하여 보인다. 표 5에서 \( d=0.5 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 기판 크기를 가지는 2소자 E-평면 배열 안테나는 평균 AEP에서 딥이 발생하지 않으며 \( \theta_{0} \)에 따라 주 빔 이득이 지역적으로 최소가 되거나 빔 주사 오차가 급격히 커지는 빔 주사 각도가 발생하지 않음을 볼 수 있다. \( d=0.7 \lambda_{0} \)인 경우 평균 AEP의 방사 특성이 좋은 기판 크기를 가지는 2소자 E-평면 배열 안테나 평균 AEP에서 딥이 발생 하였지만 평균 AEP의 방사 특성이 나쁘 기판 크기를 가지는 경우에 비해 딥의 크기가 작아 주 빔 이득이 상대적으로 작게 감소되고 빔 주사 오차가 작게 증가함을 볼 수 있다. 표 5에서 안테나 소자 간 간격에 관계없이 평균 AEP의 방사 특성이 나쁜 기판 크기를 가지는 경우에는 평균 AEP에서 딥이 발생하는 각도 근처에서 주 빔 이득이 크게 감소하며 빔 주사 오차가 매우 커짐을 볼 수 있다.</p>
|
그림 13은 유전상수가 10.8이고 \( d=0.5 \lambda_{0} \) 일 때 2소자 E-평면 배열 안테나의 빔 주사각도 \( \theta_{0} \)에 따른 주 빔 이득, 주빔 방향 \( \theta_{m} \)과 \( \theta \) 에 따른 평균 AEP를 나타내고 그림 14에는 유전상수가 10.8이고 \( d=0.5 \lambda_{0} \)일 때 기판크기가 \( d_{E}=1.0 \lambda_{0} \)인 2소자 E-평면 배열 안테나의 평균 AEP와 특정 빔 주사각도에서의 방사패턴과 배열 요소를 보여준다. 그림 15에는 유전상수가 10.8이고 \( d=0.7 \lambda_{0} \)일 때 2소자 E-평면 배열 안테나의 빔 주사각도 \( \theta_{0} \) 에 의한 주 빔 이득과 주 빔 방향 \( \theta_{m} \)과 \( \theta \)에 따른 평균 AEP를 나타내며 표 5는 유전상수가 10.8이고 \( d=0.5,0.7 \lambda_{0} \)일 때 2소자 E-평면 배열 안테나의 주요 방사 특성을 보여주고 있다.
|
<h1>I. 서 론</h1><p>마이크로스트립 패치 안테나를 단위 안테나로 이용하는 위상 배열 안테나는 수평방향으로 방사되는 필드(field)와 기판을 따라 전달되는 표면파 (surface wave)에 의한 상호결합 현상으로 인하여 방사 특성이 저하될 수 있다. 마이크로스트립 패치 안테나를 프론트엔드 모듈과 집적시키기 위해 유전상수가 높은 기판을 사용하거나 대역폭을 향상시키기 위해 두꺼운 기판을 사용할 경우 접지된 유전체 기판을 따라 진행하는 표면파의 크기가 커지기 때문에 상호결합이 크게 발생한다. 안테나 간의 상호결합을 줄이기 위한 방법으로 표면파의 전파를 억제시키는 EBG (electromagnetic bandgap) 구조 또는 DGS (defected ground structure)에 대한 연구 내용이 다수 발표되었다. 이와 같은 연구에서는 배열 안테나를 구성하는 안테나 소자 사이에 EBG 구조 또는 DGS를 삽입하여 접지된 유전체 기판을 따라 진행하는 표면파를 차단함으로써 안테나 소자 사이의 상호결합을 억제시키는 방법을 제시하였다. 그러나 대부분의 EBG 구조 또는 DGS를 이용하여 상호결합을 억제시키는 연구에서 기판 가장자리에서 발생하는 회절은 크게 고려되지 않았다.</p><p>현대 통신 시스템의 요구사항을 만족시키기 위한 기지국용 배열 안테나 또는 자동차에 사용되는 배열 안테나는 안테나 소자의 수가 적기 때문에 배열 안테나의 방사 패턴이 기판 가장자리에서의 회절에 의해 크게 영향을 받을 수 있다. 최근 기판 가장 자리에서 회절되는 필드를 차단하여 단일 패치 안테나의 방사 특성을 향상 시키는 연구 내용이 발표되었지만 배열 안테나의 경우 기판 가장자리에서의 회절을 고려하는 내용의 연구는 찾아보기 힘들다. 따라서 기판 가장자리에서 회절이 배열 안테나의 방사 특성에 미치는 영향을 분석하는 연구가 필요하다.</p><p>본 논문에서는 마이크로스트립 사각 패치 안테나를 이용하여 유한한 기판 크기를 가지는 2소자 E-평면배열 안테나를 설계하고 기판 크기를 변화시켜 가며 기판 가장자리의 회절이 배열 안테나의 방사 특성에 미치는 영향을 전산모의 실험을 통해 살펴보았다. 또한 단위 안테나 간의 상호결합으로 인한 기생방사가 배열 안테나의 방사 특성에 미치는 영향도 함께 분석하였다. 전산모의에는 Ansys사의 HFSS (High Frequency Structure Simulator)가 이용되었다.</p><p>본 논문의 구성은 다음과 같다. 제 II장에서는 서로 다른 유전상수를 가지는 기판을 이용하여 2소자 E-평면 선형 배열 안테나의 기판 크기에 따른 평균 능동소자패턴 특성을 분석한다. 제 III장에서는 기판 크기에 따른 단위 안테나 사이의 상호결합 특성을 살펴보고 상호결합으로 인한 기생방사가 배열 안테나의 방사 특성에 미치는 영향을 살펴본다. 제 IV 장에서는 2소자 E-평면 배열 안테나의 평균 능동소자패턴을 이용하여 빔 주사각도에 따른 배열 안테나의 방사패턴 특성을 분석한다. 마지막으로 제 V장에서는 본 논문의 결론을 맺는다.</p>
|
위상 배열 안테나에서 마이크로스트립 패치 안테나를 단위 안테나로 활용하면 방사 특성이 저하될 수 있다. 이는 EBG구조 쪼는 DGS구조로 개선할 수 있지만 동시에 가장자리에서의 회절은 고려되지 않는다. 본 연구에서는 2소자 E-평면배열 안테나를 설계하고 가장자리의 회절이 미치는 영향을 실험을 거쳐 분석한다.
|
<p>다음 절에서 설명하는 가변 밀도 스크램블링 기법은 바이트 단위로 데이터를 변환하지만, 4 비트로 구성된 니블(nibble) 단위로 데이터를 변환할 수도 있다. 또는 바이트를 2개의 니 블로 나누고 각 니블마다 변환 테이블을 따로 만들어 변환할 수 있다. 셀 당 2 비트 또는 4 비트를 저장하는 MLC 또는QLC 플래시 메모리의 경우 스크램블링 기법은 바이트 또는 니블 단위로 데이터를 변환하여 셀 상태를 조절할 수 있다. 그러나 셀당 3 비트를 저장하는QLC 의 경우 셀 상태를 조절 하기 위해서는 24 비트 단위로 데이터를 변환하거나, 24 비트 를 3 바이트 또는 6 개의 니블로 나누고 각 바이트 또는 니블 단위로 변환 테이블을 만들어 변환해야 한다.</p> <h1>3. 가변 밀도 스크램블링: 회전판 기법</h1> <p>데이터를 순수하게 랜덤화하는 기존의 스크램블링 기법과 다르게 가변 밀도 스크램블링 기법은 데이터 스크램블링을 수행하면서 생성하는 코드의 밀도를 다르게 만든다. 이 장에 서는 코드밀도를 조절하기 위해 필요한 조건과 방법에 대해 설명한다.</p> <p>설명을 위해 스크램블 이전 데이터를 플레인 코드(plain code), 스크램블링이 생성한 데이터를 사이퍼 코드(cipher code)라 부른다. 스크램블링 기법은 플레인 코드를 사이퍼 코드로 변환하며, 논문에서는 8비트 플레인 코드를 8비트 사이퍼 코드로 변환한다고 가정한다. 플래시 메모리에 데이터를 기록하는 경우 메모리에서 위치를 지정하는 주소 \( \operatorname { addr } \)과 기록하고자 하는 코드 \( \mathrm { d } \)가 주어진다. 이를 이용하여 데이터 쓰기 동작은 write(addr, d)로 표현할 수 있다. 그리고 데이터 읽기 동작은 addr에서 코드를 읽어 이를 반환하는 read (addr)로 표현할 수 있다. 플래시 메모리의 주소 addr은 로우 번호, 컬럼 번호, 그리고 기타 플레인이나 다이 번호 등의 조합으로 표현될 수 있다. 또는 펌웨어나 소프트웨어 수준에 서 블록 번호, 페이지 번호, 페이지 내 오프셋 등의 조합으 로 표현할 수도 있다. 스크램블링하는 함수를 encode(라고 하면, 이 함수는 주소 \( \operatorname { addr } \) 과 데이터 \( \mathrm { d } \) 를 인자로 가지는 encode(addr, d)로 표현될 수 있다. 스크램블링 후 데이터 를 기록하는 동작은 write(addr, encode(addr, d))로 표현 된다. 디스크램블링을 수행하는 함수를 decode(addr, e)라 고 하면, 디스크램블링을 수행하면서 데이터를 읽어오는 동작은 decode(addr, read(addr))로 표현할 수 있다. 위에서 read(addr)은 주소 addr로부터 사이퍼 코드를 읽어 decode0) 함수에 전달하며, decode() 함수는 사이퍼 코드를 플레인 코드로 변경한 후 이를 반환한다.</p>
|
가변 밀도 스크램블링 기법은 데이터를 랜덤화하면서 생성하는 코드의 밀도를, 8비트 플레인 코드를 8비트 사이퍼 코드로 변환하는 write(addr, d)와 read(addr) 동작을 encode(addr, d), decode(addr, e)로 표현할 수 있다. MLC/QLC 플래시 메모리의 경우 바이트 또는 니블 단위로 데이터를 변환하여 셀 상태를 조절할 수 있고, QLC의 경우 24비트 단위로 변환하거나 3바이트 또는 6개의 니블로 나누고 각 바이트 또는 니블 단위로 변환 테이블을 만들어 변환해야 한다.
|
<h1>5. 실험 결과</h1> <h2>5.1 코드 출현 빈도 분석</h2> <p>3장에서 설명한 대로 가변 밀도 스크램블링이 가능하려면 플레인 코드가 비균일 분포를 가지고 있어야 한다. 이를 확인하기 위해 Table 1 과 같이 실제 사용되는 컴퓨터 시스템에서 데이터 코드의 출현 빈도를 조사하였다. 윈도우 시스템의 시스템 폴더인 C: \Windows, C: \Program Files, 그리고 C: \Program File (x86)의 경우 데이터 코드의 출현 빈도 차이가 매우 크다. 그리고 대부분의 윈도우 시스템에서 거의 동일한 출현 빈도를 보여준다. 이러한 현상은 Linux 시스템의 바이너리나 라이브러리 폴더에서도 비슷하게 나타난다.</p> <p>사용자 데이터까지 포함한 결과는 컴퓨터마다 차이를 보여주지만 여전히 특정 코드는 빈번히 출현하고 어떤 코드는 그 발생 빈도가 매우 낮다. Fig. 9는 사용자 데이터까지 포함하도록 윈도우 시스템이 설치된 노트북 컴퓨터의 \( \mathrm { C } : \backslash \) 드라이브와 리눅스 시스템이 설치된 서버 컴퓨터의 루트 디렉터리에서 측정한 데이터 코드 출현 빈도를 보여준다. 두 시스템에서 공통적으로 \( 0 \times F F \) 와 \( 0 x 00 \) 값을 가지는 데이터 코드가 상당히 많이 발생한다. 출현 빈도가 가장 높은 \( 0 \times 00 \) 코드를 제외하고 확대한 코드 분포를 보면 각 데이터 코드마다 출현 빈도에 상당한 편차가 있음을 확인할 수 있다. 이러한 비균일 코드 분포는 본 논문에서 제안한 가변 밀도 스크램블링 기법이 데이터 코드 출현 빈도의 차이에 비례하여 코드 밀도 차이를 만들 수 있다는 것을 의미한다.</p> <h2>5.2 가변 밀도 스크램블링 기법의 실험 결과</h2> <p>본 논문에서 제안한 가변 밀도 스크램블링 기법을 평가하 기 위해 \( 1: 1 \) 변환 기법, 회전판 기법, 그리고 클래스 분할 기법을 구현하였으며, Table 2는 각 기법의 이름과 특징을 보 여준다. Raw는 데이터 코드들을 변환하지 않고 플레인 코드 그대로 플래시 메모리에 기록한다. M0는 1:1 변환 기법을 구현한 것이다. M1은 회전판 기법을 구현한 것으로 shift0함수 에서 정규분포를 사용한다. \( \mathrm { M } 2 \)는 클래스 분할 기법으로 \( 10 \% \) 의 확률로 클래스를 변환한다. M0-M2의 세 가지 기법 모두 데이터 코드 출현 빈도에 따라 정렬된 FT 테이블과 셀 상태가 중앙에 가까운 순으로 정렬된 PDT 테이블을 이용하여 생성된 인코딩과 디코딩 테이블을 사용하였다. MLC의 경우 PDT 테이블에서 제일 높은 순위의 코드는 상태 \( \mathrm { S } 2 \) 를 가지며, \( \mathrm { QLC } \)에서는 상태 \( \mathrm { S } 7 \)을 가진다.</p>
|
실험 결과는 컴퓨터마다 데이터 코드 출현 빈도에 상당한 차이가 있었으며, 가장 높은 빈도를 가진 0x00 코드를 제외하고는 각 데이터 코드마다 출현 빈도에 상당한 편차가 있었다. 본 논문에서 제안한 가변 밀도 스크램블링 기법은 1:1 변환 기법, 회전판 기법, 그리고 클래스 분할 기법을 구현하여 데이터 코드 출현 빈도의 차이로 인해 코드 밀도 차이를 만들 수 있다.
|
<p>실제 사용되는 컴퓨터 시스템의 데이터를 이용하여 가변 밀도 스크램블링 기법의 효과를 측정하였다. 먼저 윈도우즈와 리눅스 환경에서 중요 폴더에 대해 데이터 코드의 출현 빈도를 조사하였다. 조사 결과 데이터 코드들간에 출현 빈도의 차이가 존재하며, 이러한 차이를 이용하여 스크램블링을 수행할 때 코드의 밀도를 조절하는 실험을 수행하였다. 특히 플래시 메모리 셀 상태를 중간 상태로 만드는 코드를 더 많이 생성하도록 하였으며, 실험 결과는 더 많은 셀의 상태가 중간 상태 또는 이와 가까운 상태를 가지고 있음을 보여주었다.</p> <p>논문의 구성은 다음과 같다. 2장에서 관련 연구를 설명하며, 3장에서 코드 밀도를 조절하기 위한 회전판 기법을 설명 한다. 4장에서 밀도를 조절하는 또 다른 구현 방법인 클래스 분할 기법을 설명하고 5장에서 플래시 메모리에 적용한 실험 결과를 제시한다. 마지막으로 6장에서 논문을 끝맺는다.</p> <h1>2. 관련 연구</h1> <p>통신이나 저장장치에서 데이터 변환은 널리 사용된다. 예 를 들면, 통신을 위해 8B/10B 방식으로 데이터를 1: 1 로 변환하기도 하며, 대역폭을 모두 사용하도록 데이터를 랜덤화 하는 스크램블링 기법을 사용하기도 한다. 일부 저장장치의 경우에도 스크램블링 기법을 사용하여 저장하는 데이터를 랜덤화한다.</p> <p>플래시 메모리는 비트 변환마다 에너지를 사용하고 수명이 단축된다. 이러한 비트 변화를 줄이기 위해 제안된 Bit-flipping 기법은 저장될 데이터를 일정 크기의 청크로 분할하고 셀에 저장되어야 할 비트에 대해 미리 정의된 조건에 따라 비트를 변경할 것인지를 결정한다. 비트가 정의된 조건에 따라 변경되어 저장되고 이 청크가 플리핑되었는지 확인하기 위한 플리핑 비트가 플래시 메모리 페이지의 \( \mathrm { OOB } \) 영역에 저장된다. 이에 더해 플리핑 비트는 데이터를 읽기 위해 반드시 보호해야 한다. 이를 위해 추가적인 ECC 정보가 저장될 공간이 있어야 한다.</p> <p>플래시 메모리는 읽기, 프로그램, 그리고 소거 연산을 지원 한다. 읽기와 프로그램 연산은 페이지 단위로 이루어지며, 소거 연산은 페이지 집합인 블록 단위로 수행된다. 플래시 메모 리의 초기 상태는 소거 상태로 프로그램 이전에 반드시 소거 연산이 수행되어야 한다. Fig. 1은 플래시 메모리 셀 상태를 보여준다. 셀 당 2 비트를 저장하는 MLC 플래시 메모리 셀은 소거 후 \( \mathrm { S } 0 \) 상태를 가지며, 프로그램 동작은 셀의 임계전압을 바꾸어 셀 상태를 S1-S3으로 바꾼다.</p>
|
컴퓨터 시스템의 데이터를 이용해 가변 밀도 스크램블링 기법의 효과를 측정했더니 데이터 코드들간에 출현 빈도의 차이가 존재해 이를 이용해 스크램블링을 수행할 때 코드의 밀도를 조절하는 실험을 수행했고, 실험 결과 더 많은 셀이 중간 상태나 이와 가까운 상태를 가지고 있었다. 플래시 메모리는 비트 변환마다 에너지를 사용하고 수명이 단축되니 비트 변화를 줄이기 위해 Bit-flipping 기법이 제안되었다.
|
<p>코드의 밀도를 다르게 만들기 위해서는 다음 세 가지 조건과 방식이 충족되어야 한다. 먼저, 플레인 코드에 비균일성이 존재해야 한다. 플레인 코드가 랜덤한 형태를 가지는 경우 밀도가 다른 사이퍼 코드를 만들어내기 어렵다. 다음으로 플레인 코드의 비균일성을 목적하는 코드 형태로 바꾸기 위한 자료구조가 필요하다. 마지막으로 비균일 확률 밀도 함수를 이용한 랜덤넘버 생성이 필요하다.</p> <p>본 논문에서는 플레인 코드에서 비균일한 형태를 얻기 위해 플레인 코드들의 출현 빈도를 이용한다. 이러한 플레인 코드의 출현 빈도의 차이를 이용하면 밀도가 다른 사이퍼 코드를 생성할 수 있다. 특히 출현 빈도의 차이에 비례하여 밀도 차이를 만들 수 있다.</p> <p>다음으로 플레인 코드의 출현 빈도 순서에 맞게 원하는 사이퍼 코드로 변환하는 자료구조가 필요하다. 가변 밀도 스크램블링 기법은 \( 1: 1 \) 변환 기법은 아니지만 출현 빈도를 기반 으로 밀도를 조절하기 위해 출현 빈도 순서에 맞춰 원하는 코드를 대응시키는 테이블이 필요하다. Fig. 2에서 FT는 8비트 플레인 코드들을 출현 빈도 순으로 정렬한 테이블이다. 8 비트 코드 '0', '255' '32', '1' 순으로 출현 빈도가 높으며, 이 들은 FT 테이블에서 순위 \( 0,1,2,3 \) 을 차지한다. Fig. 2에서 PDT 테이블은 셀당 4 비트를 저장하는 QLC에서 셀 상태를 가운데 상태로 만드는 코드순으로 정렬한 것이다. \( \mathrm { QLC } \) 는 S0-S15까지 16개 상태가 존재하며, 이들 상태에 비트 ' 1111 ', ' 1110 ', ' 1100 ', ..., '0111'을 할당한다고 가정하였 다. 그리고 S0-S15 상태마다 숫자 0-15를 대응시키면, 가운데 상태는 7.5가 된다. 그리고 \( \mathrm { PDT } \) 테이블은 셀 상태를 가운 데 상태인 7.5에 가깝게 만드는 순서로 코드를 정렬한 것이다.</p> <p>FT와 PDT를 이용하여 플레인 코드를 사이퍼 코드로 변환 하는 인코딩 테이블과 역으로 변환하는 디코딩 테이블을 만 들 수 있다. Fig. 3에서 ET와 ECC는 인코딩 테이블로서 플레인 코드 '1'은 순위 3을 가지고 이에 \( 1: 1 \) 로 대응되는 사이퍼 코드는 '93'이다. 또한 DT와 DCC는 디코딩 테이블로서 사이퍼 코드 '93'은 순위 3을 가지며, 이에 1:1로 대응되는 플레인 코드는 '1'이다. Fig. 3의 ECC는 Fig. 2의 PDT와 같 고 Fig. 3의 DCC는 Fig. 2의 FT와 같으며, 이름만 다를 뿐 같은 테이블이다.</p>
|
본 연구는 플레인 코드의 출현 빈도를 활용하여 비균일한 형태를 얻는 것을 목표로 한다. 이 출현 빈도의 차이는 밀도가 다른 사이퍼 코드를 생성하는데 사용되며, 이 차이는 밀도 차이를 만드는데 이용된다. 이를 위해, FT와 PDT를 활용한 인코딩 및 디코딩 테이블을 구성하여, 출현 빈도에 따라 플레인 코드를 원하는 사이퍼 코드로 변환한다.
|
<p>가변 밀도 스크램블링 기법이 충족해야 하는 마지막 조건으로 shift() 함수가 가져야 하는 속성에 대해 설명한다. 위에서 설명한 예에서 shift() 함수는 '-128'에서 '127' 사이의 값을 반환한다. 만약 shift0함수가 Fig. 6(a)와 같이 \( 100 \% \) 의확률로 ' 0 '을 반환한다면 제안하는 기법은 결국 \( 1: 1 \) 로 변환하는 기법이 된다. 그렇지 않고 Fig. 6(b)와 같이 '-128'에서 ' 127 ' 사이의 값을 동일한 확률로 반환하면 제안하는 기법은 순수한 랜덤화 기법과 동일하다. 만약 shift() 함수가 Fig. 6 의 (a), (c) 또는 (d)와 같이 균일하지 않은 확률 밀도에 따라 값을 반환한다면, 특히 0 에서 멀어질수록 그 값의 리턴 확률이 떨어진다면 순위가 높은 코드의 밀도가 높아진다. 즉 \( 1: 1 \)로 대응되는 코드에서 가까운 곳으로 쉬프트될 확률이 먼 곳으로 쉬프트될 확률보다 높아 \( 1: 1 \) 로 변활될 때 가지는 순위 관계가 생성되는 사이퍼 코드들 사이에도 존재한다.</p> <p>코드들이 가지는 순위 관계를 정형화된 형태로 표현하면 다음과 같다. 두 플레인 코드 \( d_ { i } \) 와 \( d_ { j } \) 사이에 순위 관계가 존재하고 \( d_ { i } \) 의 순위가 \( d_ { j } \) 보다 높으면 이를 \( d_ { i } >d_ { j } \) 로 표현한다. \( d_ { i } \) 가 \( n \) 번 인코드되어 만들어진 사이퍼 코드 집합과 \( d_ { j } \) 가 \( n \) 번 인코드되어 만들어진 사이퍼 코드 집합 \( E_ { i } \) 와 \( E_ { j } \) 가 다음과 같다.</p> <p>\( E_ { i } = e_ { 0 } ^ { i } , e_ { 1 } ^ { i } , e_ { 2 } ^ { i } , \ldots, e_ { n-1 } ^ { i } \) \( E_ { i } =e_ { 0 } ^ { j } , e_ { 1 } ^ { j } , e_ { 2 } ^ { j } , \ldots, e_ { n-1 } ^ { j } \)<caption>(1)</caption></p>
|
\(1:1\)로 대치되는 코드에서 가까운 곳으로 쉬프트될 확률이 먼 곳으로 될 확률보다 높아 변환될 때 갖는 순위 관계가 생기는 사이퍼 코드들 사이에도 존재한다. 코드들의 순위관계를 정형화하면 \(E_{i}=e_{0}^{i},e_{1}^{i},e_{2}^{i},\ldots,e_{n-1}^{i}\)\(E_{i}=e_{0}^{j},e_{1}{j},e_{2}^{j},\ldots,e_ {n-1}^{j}\)와 같다.
|
<h1>요 약</h1> <p>기존 데이터 스크램블링 기법은 랜덤한 코드를 생성한다. 이와 다르게 우리는 생성하는 코드의 밀도를 다르게 만드는 가변 밀도 스크램블링 기법을 제안한다. 먼저 코드 밀도를 다르게 만드는 조건과 방법에 대해 설명한다. 다음으로 가변 밀도 스크램블링 기법을 플래시 메모리에 적용하여 특정 셀 상태가 더 많이 발생하도록 한다. 특히 플래시 메모리의 에러율을 제한하기 위하여, 가변 밀도 스크램블링 기법은 코드의 밀도를 조절하여 모든 셀 상태 중 중간 상태를 가지는 셀 비율을 높일 수 있다. 윈도우즈와 리눅스 시스템의 데이터에 가변 밀도 스크램블링 기법을 적용하였으며, 실험 결과는 가변 밀도 스크램블링 기법이 중간과 가까운 상태를 가지는 셀의 비율을 증가시킴을 보여준다.</p> <h1>1. 서 론</h1> <p>통신에서 데이터 스크램블링은 주어진 대역폭을 사용하기 위해 그리고 저장장치에서는 중요한 정보를 감추거나 에러율을 일정 수준 이내로 제한하기 위해 사용된다. 이러한 목적으 로 사용되는 대부분의 데이터 스크램블링 기법은 데이터를 순수하게 랜덤화한다.</p> <p>플래시 메모리에서는 고유의 특성 때문에 읽기 또는 프로그램 간섭이나 리텐션 에러가 발생하며, 이러한 에러는 플래시 메모리 셀에 저장된 데이터의 형태와 관계가 있다. 특히 프로그래밍 된 셀의 상태에 따라 에러율이 달라지며, 이 러한 에러 문제를 해결하는 방법들 중 하나는 플래시 메모리 셀에 저장된 데이터가 편향적이지 않도록 데이터를 랜덤화하 는 스크램블링 기법을 적용하는 것이다.</p> <p>기존의 스크램블링 기법들은 대부분 데이터를 순수하게 랜덤화한다. 이와는 다르게 본 논문에서는 스크램블링을 수행 하면서 생성하는 코드의 밀도를 다르게 생성하는 가변 밀도 스크램블링 기법을 제안한다. 그러나 코드 밀도를 다르게 만들기 위해서는 몇 가지 조건이 필요하며, 논문에서는 먼저 코드 밀도를 다르게 만들기 위한 조건과 방법에 대해 설명한다. 구체적으로 데이터가 가져야 하는 조건, 적절한 자료구조, 그 리고 비균일 확률 밀도 함수를 이용한 랜덤넘버 생성에 대해 설명한다.</p> <p>다음으로 가변 밀도 스크램블링 기법을 플래시 메모리에 적용한다. 데이터를 순수하게 랜덤화하는 기존 스크램블링 기법은 플래시 메모리 셀들이 균등하게 모든 상태를 가지도록 만든다. 그 결과 평균적으로 셀들은 중간 상태를 가지며 인접 셀과의 상태 차이를 일정 수준으로 제한한다. 모든 셀 상태가 균등하게 나타나도록 하는 기존 스크램블링 기법과 다르게 가변 밀도 스크램블링 기법은 중간 상태를 가지는 코드를 더 많이 생성하며, 더 많은 셀이 중간 상태를 가지게 만든다.</p>
|
기존 기법과 달리 우리는 생성하는 코드의 밀도를 다르게 생성하는 가변 밀도 스크램블링 기법을 제안한다. 윈도우즈 및 리눅스 시스템의 데이터에 가변 밀도 스크램블링 기법을 적용했고, 실험 결과에서 가변 밀도 스크램블링 기법이 중간과 가까운 상태가 되는 셀의 비율을 증가시킴을 보여준다. 본 논문은 스크램블링을 수행하면서 생성하는 코드의 밀도를 달리 생성하는 가변 밀도 스크램블링 기법에 대해 제안을 한다. 모든 셀 상태가 균등하게 표시되는 기존 스크램블링 기법과 달리 가변 밀도 스크램블링 기법은 중간 상태를 가지는 코드에 대해 더 많이 생성을 하고, 더 많은 셀이 중간 상태를 가지도록 만든다.
|
<p>\( \operatorname { AvgRANK } \left (E_ { i } \right ) \)와 \( \operatorname { AvgRANK } \left (E_ { j } \right ) \)를 코드 집합 \( E_ { i } \)와 \(E_ { j } \) 의 평균 순위라고 하자. 이 때 \( d_ { i } >d_ { j } \) 이면 \( \operatorname { AvgRANK } \left (E_ { i } \right )>\operatorname { AvgRANK } \left (E_ { j } \right ) \) 관계가 성립한다.</p> <h1>4. 가변 밀도 스크램블링: 클래스 분할 기법</h1> <p>이 절에서는 비균일 확률 밀도 함수를 사용하지 않고 가변 밀도 스크램블링 기법을 구현하는 클래스 분할 기법에 대해 설명한다. 클래스 분할 기법은 플레인 코드와 사이퍼 코드를 순위에 따라 몇 개의 클래스로 나누고 플레인 코드에 대응되 는 클래스에 있는 사이퍼 코드 중 하나로 변환하는 것이다.</p> <p>Fig. 7을 보면 ECC와 DCC에 256개의 플레인 코드와 사이퍼 코드가 존재한다. 이를 16개의 클래스로 분할하면, 각 클래스에는 16개의 코드가 존재한다. 플레인 코드 ' 255 '의 인코딩은 다음과 같이 이루어진다. ET로 부터 플레인 코드 '255'의 순위가 1 이며, Fig. 7의 ECC에서 보듯이 이는 클래스 0 에 속함을 알 수 있다. 그러면 클래스 분할 기법은 플레인 코드 '255'를 클래스 '0'에 있는 16 개의 사이퍼 코드 중 하나로 변환한다. 구체적으로 0-15 값을 반환하는 shift16A(addr)이 제공하는 랜덤넘버를 이용하며 순위를 조정한다. Fig. 7의 예 에서는 shift16A0가 15 를 리턴하며, 순위 1 에 리턴 값 15를 더한 후 클래스 내부에서 환형으로 순회하여 새로운 순위 0에 있는 사이퍼 코드 ' 221 '를 선택한다.</p> <p>디코딩 과정은 다음과 같다. 먼저 DT로부터 사이퍼 코드 '221'의 순위 0을 알아낸다. 순위 0은 클래스 ‘0'에 속하며, 이제 shift16A(addr)이 제공하는 랜덤넘버를 이 순위에서 빼서 새로운 순위를 결정한다. Fig. 7의 예에서는 shift16A(addr)가 15 를 리턴하며, 이를 순위 0에서 빼고 환형으로 순회하여 새로운 순위 1에 있는 플레인 코드 ' 255 '를 선택한다.</p> <p>위에서 설명한 것과 같이 클래스 분할 기법은 플레인 코드를 특정 클래스에 속한 사이퍼 코드 중 하나로 변환하는데, 이 경우 스크램블링 정도가 약하게 된다. 스크램블링 정도를 높이기 위해서 특정 확률로 클래스 자체를 변경할 수 있다. 클래스 변경을 위해 Fig. 8에서와 같이 prob(addr) 함수와 shift16B(addr) 함수가 사용된다. prob(addr)은 특정 확률로 TRUE를, 나머지 확률로 FALSE를 반환하며, shift16B(addr)은 0에서 15 사이의 값을 반환한다. 만약 prob(addr)이 TRUE를 리턴하면 shift16B(addr)이 반환하는 값을 클래스 번호에 더한 후 환형으로 순회하여 새로운 클래스를 선택한다. 이와 같이 일정한 확률로 클래스번호를 조정하여 스크램블링 정도를 조절할 수 있으며, prob(addr)이 \(100 \%\) TRUE를 반환하는 경우 클래스 분할 기법은 순수한 랜덤화 기법이 된다. 위 예 에서 shift16A(addr), shift16B(addr), 그리고 prob(addr)은 동일한 주소 addr에 대해 항상 동일한 값을 반환한다.</p>
|
클래스 분할 기법은 플레인 코드와 사이퍼 코드를 몇개의 클래스로 나누고, 플레인 코드에 대응되 는 클래스에 있는 사이퍼 코드 중 하나로 변환할때 ,스크램블 정도가 약하게 되는데, 그정도를 높이기 위해서 특정 확률로 클래스 자체를 변경할 수 있다. 만약, prob(addr)이 100 퍼센트 TRUE를 반환하는 경우 순수한 랜덤화 기법이 된다.
|
<p>뒤에서 설명하겠지만 스크램블링 기법은 \( 1: 1 \) 로 대응되는 코드로 변환하지 않고 랜덤넘버로 순위를 조정하여 해당 순 위의 코드로 변환하며, 앞으로 이를 쉬프트(shift)라 부른다. 쉬프트 할 때 논리적으로 ECC와 DCC를 환형 테이블로 간주다. 그런데 이엔트리 '0'와 엔트리 ' 255 ' 사이에 쉬프트되는 경우 순위가 붕괴된다. 예를 들어 엔트리 '0'과 '1', '1'과 '2' 는 순위가 점진적으로 차이가 나지만, 엔트리 '0'과 '255'는 점진적이지 않고 양 극단의 순위를 가진다. 그 결과 엔트리 '0'과 '255' 사이를 쉬프트할 때 순위가 붕괴하여 원하는 데 로 코드 밀도를 조절할 수 없게 된다. 이 문제를 해결하기 위 하여 ECC와 DCC를 회전판(Wheel) 형태로 재구성한다. Fig. 4는 ECC와 DCC를 회전판 형태의 EW와 DW로 재구성 한 모습과 그 사용 방법을 보여준다. 특히 EW와 DW에서 코드들은 순위가 점진적으로 감소하다가 전진적으로 증가하는 형태를 가지고 있어 어떠한 방향으로 쉬프트 하더라도 순위 가 붕괴하지 않는다. ECC와 DCC를 회전판 형태의 EW와 DW로 변환하고 ET와 DT가 이들을 가리키도록 만든다.</p> <p>Fig. 5는 회전판 기법을 사용하는 인코딩과 디코딩 알고리즘이다. 이 알고리즘과 Fig. 4의 플레인 코드 '255'를 변환 과정을 함께 살펴보자. 먼저 플레인 코드 '255'로부터 ET를 거쳐 회전판 EW에서의 인덱스인 wh_index를 구한다. 그리고 저장주소 addr를 인자로 '-128'에서 '127' 사이의 랜덤넘버를 생성하는 shift0 함수를 호출하여 랜덤넘버 \( \mathrm { s } \) 를 얻는다. 그리고 wh_index에서 \( \mathrm { s } \) 를 더하여 EW 엔트리를 새로 계산 하고 이곳에서 사이퍼 코드 '220'을 가져온다.</p> <p>사이퍼 코드 ' 220 '의 디코딩 과정은 다음과 같다. 사이퍼 코드 '220'으로 부터 DT를 거쳐 회전판 DW에서의 인덱스 wh_index를 구한다. 그리고 저장주소 addr를 인자로 shift0 함수를 호출하여 랜덤넘버 \( s \) 를 얻는다. 다음으로 wh_index 에서 \( \mathrm { s } \) 를 빼서 EW 엔트리를 새로 계산하고 이곳에서 플레인 코드 '255'을 가져온다. shift() 함수는 동일한 주소 addr에 대하여 동일한 값을 반환한다.</p>
|
스크램블링 기법은 랜덤 넘버를 사용하여 코드의 순위를 조정하여 변환하는데, 순위가 0과 255 사이로 쉬프트되는 경우 순위가 붕괴될 수 있다. 이 문제를 해결하기 위해 ECC와 DCC를 회전판 형태로 재구성하였으며, Fig. 4에서는 EW와 DW로 재구성된 모습과 사용 방법을 보여준다. 이러한 스크램블링 기법은 1:1로 대응되는 코드로 변환하지 않고 순위를 조정하는 것을 쉬프트라고 부른다.
|
<p>실험은 Table 1과 같이 노트북, 테스크톱, 그리고 서버에 서 수행되었의며, 이들은 거의 비슷한 실험 결과를 보였다. Fig. 10은 실험 결과 중 Notebook I에서 수행된 실험 결과 이다. MLC와 QLC 두 가지의 플래시 메모리 타입에서 Raw 의 결과는 특정 셀의 상태가 두드러지게 높게 나오는 형태를 보여주고 있다. 특히 \( \mathrm { MLC } \) 의 경우 \( \mathrm { S } 2, \mathrm { QLC } \) 의 경우 \( \mathrm { S } 10 \) 의 빈도가 높은데, 그 이유는 가장 빈번히 출현하는 플레인 코드 \( 0 \times 00 \) 의 셀 상태가 \( \mathrm { S } 2 \) 와 \( \mathrm { S } 10 \) 이기 때문이다. \( 1: 1 \) 변환기법을 사용하는 경우 빈번히 출현하는 플레인 코드에 대응되는 사이퍼 코드들은 MLC의 경우 셀 상태 \( \mathrm { S } 2 \) 와 \( \mathrm { S } 3 \), 그리고 QLC 의 경우 S7과 S8 상태를 가진다. 그 결과 Fig. 10 에서 보듯 이 이 두 상태 비율이 높게 나온다.</p> <p>회전판 기법(M1)과 클래스 분할 기법(M2)은 확률적으로 스크램블링 하면서 가운데 셀 상태를 가지는 코드를 많이 생성하여 비슷한 결과를 보인다. MLC의 경우 4개의 셀 상태 중 두 개가 중앙에 가까운 상태이기 때문에 Fig. \( 10( \mathrm { a } ) \) 에서 보듯이 확률적 스크램블링 기법이나 \( 1: 1 \) 변환기법의 차이가 크지 않다. 그러나 QLC 결과인 Fig. \( 10( \mathrm { ~b } ) \) 에서 이들은 차이를 보이는데, 확률적 스크램블링 기법의 경우 셀 상태는 \( 1: 1 \) 변환기법보다는 더 넓게 퍼져 있으면서 중앙에 가까운 셀 상태들의 빈도가 높다. 이러한 실험 결과는 가변 밀도 스크램블링 기법 이 우리가 목표한 대로 스크램블링을 수행하면서도 더 많은 셀들의 상태를 중앙에 가깝게 만들 수 있음을 보여준다.</p> <h1>6. 결 론</h1> <p>랜덤한 코드를 생성하는 기존 스크램블링 기법과 달리 본 논문에서는 변환된 코드의 밀도를 다르게 만드는 가변 밀도 스크램블링 기법을 제안하였으며, 이 기법을 플래시 메모리 에 적용하여 셀 상태를 중앙에 위치시키는 코드의 밀도를 높게 만들었다. 실제 시스템에 저장된 데이터로 제안한 기법의 효과를 측정하였으며, 실험 결과는 가변 밀도 스크램블링 기 법이 목표 상태에 근접한 셀의 밀도를 높일 수 있음을 보여준다. 이와 같이 더 많은 셀 상태를 중앙에 가깝게 만들면 셀 간 간섭을 줄여 에러율을 개선할 수 있을 것으로 기대되며, 향후 연구에서 셀 상태에 따른 에러율을 측정할 예정이다. 아울러 데이터 패턴에 따라 동적으로 인코딩과 디코딩 테이블을 재구성하는 동적 기법도 연구할 계획이다. 또한 효율적인 하드웨어 구현도 향후 연구 주제이다.</p>
|
회전판 기법(M1)과 클래스 분할 기법(M2)은 가변 밀도 스크램블링으로 중앙에 가까운 셀 상태를 생성하여 유사한 결과를 보인다. 가변 밀도 스크램블링은 변환된 코드의 밀도를 다르게 만들어 플래시 메모리에 적용하여 셀 상태를 중앙에 위치시킨다. 실험 결과는 가변 밀도 스크램블링이 목표한 상태에 근접한 셀의 밀도를 높일 수 있음을 보여주며, 셀 간 간섭을 줄여 에러율을 개선할 수 있는 잠재력을 갖고 있다. 향후 연구에서는 셀 상태에 따른 에러율을 더 자세히 평가할 예정이다.
|
<p>프로그래밍할 때 바꾸는 상태 차이를 Programming Distance(PD)로 정의할 수 있다. 이러한 PD가 작을수록 프로그램 속도가 빨라지고 셀의 손상을 낮추어 수명이 늘어난다. 이러한 목적으로 다양한 데이터 변환기법들이 연구 되었다. ACS(Adaptive code selection) 기법은 페이지를 프로그래밍하기 전에 0의 개수를 카운트하고 그 개수가 페이지 크기의 절반보다 크면 셀의 변화가 작아지도록 코딩 방법을 변경한다. 이와 유사하게 \( \mathrm { NRC } ( \mathrm { Nibble } \) remapping coding) 기법은 기록할 데이터를 세그먼트로 나누고 세그먼트에 출현하는 코드의 빈도에 따라 변환 데이터를 결정한다. 그리고 변환 정보는 플래시 메모리 페이지의 \( \mathrm { OOB } \) 영역에 기록된다. ELSE(Endurance enhancing lower state encoding) 기법은 페이지 간의 관계 및 데이터 의존성을 활용하여 셀이 낮은 전압으로 프로그램이 되도록 데이터를 변환하여 기록한다. 특히 MLC나 TLC에서 페이지 간의 관계를 고려하여 변환 동작을 수행한다.</p> <p>플래시 메모리의 경우 \( \mathrm { PD } \) 를 작게 만드는 것이 목표가 아닐 수 있다. 예를 들면 플래시 메모리에서 읽기 동작을 수행 할 때 목표 셀과 같은 컬럼에 있는 셀에는 Fig. 1 의 바이패스 전압이 가해진다. 그리고 \( \mathrm { S } 0 \) 와 같이 셀이 가지는 임계전압과 바이패스 전압 간의 차이가 클수록 읽기 간섭 에러 확률이 높 아진다[16]. 반대로 셀이 \( \mathrm { S3 } \) 상태를 가지는 경우 플로팅 게이 트의 전자가 감소하면서 발생하는 리텐션 에러 확률이 높다 [16]. 이처럼 셀이 양 극단 상태를 가지는 경우 에러 확률이 높다고 할 수 있다. 물론 셀이 S1이나 S2와 같은 중간 상태를 가질 때도 프로그래밍 방식에 따라 에러 확률이 높게 나타나기도 하지만, 이는 프로그래밍할 때 증가시키는 전압을 변경 하여 조절할 수 있다. 이러한 점을 고려하여 다음 절에서 설명하는 가변 밀도 스크램블링 기법은 셀 상태를 중간에 가깝게 만들려고 한다. 그렇지만 중간이 아닌 다른 상태가 에러율 감소에 도움이 된다면 가변 밀도 스크램블링 기법은 셀을 원하는 상태로 만들 수 있다.</p> <p>플래시 메모리에서 사용하는 스크램블링 기법은 에러율이 높은 데이터 패턴의 생성을 제한하기 위해 0 과 1 의 개수를 랜덤화한다. 이와 같은 데이터 랜덤화는 데이터와 함께 저장 되는 에러 교정 코드의 교정 능력 이내로 에러율을 제한한다. 대다수의 스크램블링 기법들은 성능과 비용상의 이유로 XOR 연산을 사용한다. 이들은 먼저 데이터의 논리주소를 시드(seed) 값으로 제공하여 키를 생성하고, 저장될 데이터와 키를 대상으로 XOR 연산을 수행한다. 이렇게 랜덤화되어 저장된 데이터에 대해 동일한 키로 XOR연산을 적용하면 원래 데이터 코드를 얻을 수 있다. 보안을 강화하기 위해 키를 생성할 때 전역 카운터 변수를 사용할 수도 있으며, 스크램블링 성능을 높이기 위해 플래시 컨트롤러의 ECC 로직과 연계하거나 플래시 메모리 칩내의 버퍼를 활용할 수도 있다. 본 논문에서 제안하는 가변 밀도 스크램블링 기법의 경우에도 일부 기능을 플래시 컨트롤러에서 하드웨어 로직 형태로 구현할 수 있다.</p>
|
ACS 기법은 페이지를 프로그래밍하기 전에 페이지 내의 0의 개수를 확인하고, 개수가 페이지 크기의 절반보다 크다면 코딩 방법을 변경하여 셀의 변화를 최소화한다. ELSE 기법은 페이지 간의 관계와 데이터 의존성을 활용하여 셀을 낮은 전압으로 프로그래밍하도록 데이터를 변환하여 기록한다. 이에 반해 가변 밀도 스크램블링 기법은 셀의 상태를 중간 상태로 유지하도록 조절하여 보안을 강화한다. 이를 위해 전역 카운터 변수를 사용하여 키를 생성하거나, 플래시 컨트롤러의 ECC (Error Correction Code) 로직과 연계하거나, 플래시 메모리 칩 내의 버퍼를 활용할 수 있다. 본 논문에서 제안하는 가변 밀도 스크램블링 기법은 플래시 컨트롤러의 하드웨어 로직 형태를 통해 일부 기능을 구현할 수 있다.
|
<h2>5.2 얼굴 추적 결과</h2> <p>(그림 3)과 (그림 4)는 본 논문에서 제안하는 방법을 이용한 얼굴 추적 결과의 주요 프레임을 보여준다. (그림 3)은 실내에서 촬영된 조명 변화 영상의 예이며 (그림 4)는 실외에서 촬영된 영상의 예다. (그림 3)과 (그림 4)의 (a)는 Lee의 방법을 이용하여 얼굴을 추적한 결과로 조명의 상태가 크게 변하기 때문에 조명이 변화하기 시작할 때부터 얼굴을 올바르게 추적하지 못했다. 반면 (b)는 본 논문에서 제시한 방법을 이용한 얼굴 추적 결과로 환경이나 장소 등에 따라 얼굴의 조명 상태가 크게 변하지만 모든 영상에서 올바르게 얼굴을 추적하였다. Sim의 방법은 모든 변화 가능한 조명 상태의 얼굴 영상을 모두 학습하지만 본 논문에서 제시한 방법은 사용자로부터 비교적 고른 조명상태를 가진 1 개의 학습 영상만으로 학습한 후 모든 실험 영상에서 사용자의 얼굴을 추적한다.</p> <p>실내 영상은 태양 빛과 임의적인 조명의 변화에 따라 추출되는 얼굴 영상이 부분적으로 밝거나 어둡게 왜곡된 영상이 획득된다. 또한 야간에 실내등을 이용하여 전체 조명을 변화시킴으로써 프레임간의 얼굴 밝기 차이가 큰 영상을 실험 영상으로 사용하였다. 실외 영상의 경우 태양 빛에 의한 직접적인 얼굴 밝기 변화뿐만 아니라 음영으로 인한 왜곡을 포함한다. 본 논문에서는 음영에 의한 얼굴 왜곡을 (그림 5)와 같이 얼굴 자체의 굴곡으로 인해 발생되는 왜곡(Self Occlusion)과 건물이나 나무 등과 같은 주변 환경에 의해 발생되는 왜곡(External Occlusion)으로 정의하고 실험 영상에는 두 가지 얼굴 왜곡을 모두 포함하여 실험하였다.</p> <p>얼굴을 추적하기 위해 시스템은 매 프레임마다 100 개의 얼굴 샘플을 생성하고 Manifold를 이용하여 가장 적합한 얼굴을 추정한다. 모든 얼굴 샘플은 20 \( \times \)20 의 크기로 조정되기 때문에 매 프레임에서의 연산 시간은 동일하다. 본 논문에서 제안된 방법은 매 프레임에서 약 \( 350 \mathrm { ~ms } \) 의 시간이 소요되었다.</p> <h2>5.3 얼굴 인식 결과</h2> <p>비디오 기반의 실험 영상에서 얼굴 인식 성능을 평가하기 위해 본 논문에서는 각 사람의 확률분포함수를 매 프레임마다 비교하였다. (그림 6)은 매 프레임마다의 사용자 간의 확률분포함수의 변화를 보여준다. 그래프에서 붉은 선은 실제 입력된 올바른 사용자의 확률을 나타내고 그 외의 선은 시스템에 등록되어 있는 나머지 사람의 확률을 나타낸다. (그림 3)과 (그림 4)와 같이 본 논문에서 제안한 방법은 지속적인 조명의 변화에서도 항상 올바르게 사용자를 인식하였다. 본 논문의 방법에서 사용자의 인식률이 저하되는 원인은 조명의 변화보다는 샘플링 결과에 따른 얼굴 피팅(Fitting)에 보다 많은 영향을 받았다.<표 2>는 실험에 사용된 20 명의 사용자에 대한 개인별 인식률을 보여주며 20명의 전체 사용자에 대해 평균 \( 93.9 \% \) 의 인식률을 보였다.</p> <p> <표 3>은 히스토그램 평활화(Histogram Equalization), 감마 보정(Gamma Correction), 로그 이미지(Log Image), SSR 모델 등의 대표적인 조명 보상 기법과 본 논문에서 제안한 전처리 방법 간의 얼굴 인식률을 비교한 결과이다. 얼굴 인식은 YalefaceB 데이터에서 정면 조명 영상 10 장으로 PCA를 통해 간단한 Eigenface 분류기를 학습하고 나머지 640 장에 대한 얼굴 인식 결과를 측정하였다. PCA의 축의 개수가 증가함에 따라 기존의 방법은 히스토그램 평활화가 \( 73.6 \% \) 로 가장 높은 인식률을 보인 반면 본 논문에서 제안한 방법은 \( 91.1 \% \) 로 기존의 다른 전처리 방법에 비해 크게 인식률을 향상시킬 수 있었다.</p> <h1>6. 결 론</h1> <p>본 논문에서는 각 얼굴 포즈를 선형적으로 근사하여 이를 가우시안 혼합모델로 구성하고 매 프레임마다 가중치를 갱신함으로써 비디오 영상에서 효율적으로 얼굴을 추적하고 인식하는 방법을 제안하였다. 그리고 임의의 조명 상태를 가진 입력 얼굴 영상으로부터 SSR 방법과 사전 정의된 범위에서의 평활화 방법을 이용하여 보다 향상된 반사율을 획득하고 학습된 매니폴드로부터 새로운 조도를 추정하여 두 특징을 결합함으로써 조명 정규화 된 얼굴 영상을 획득하였다.</p> <p>본 논문에서 제안한 방법은 조명 변화에 의해 얼굴의 밝기가 전체적 또는 부분적으로 크게 변하는 실내 영상과 얼굴의 굴곡으로 인해 발생되는 그림자에 의한 왜곡(Self Occlusion), 주변 환경으로 인해 발생되는 그림자에 의한 왜곡(External Occlusion)을 모두 포함하는 실외 영상을 이용하여 기존의 다른 연구에 비해 효과적으로 얼굴 영역을 추적하고 인식할 수 있음을 보였다.</p> <p>그러나 실외환경에서 얼굴을 추적하고 인식할 때, 본 논문에서 제안한 방법은 강한 태양빛에 의하여 얼굴의 그림자가 매우 선명할 경우 때때로 얼굴 추적에 실패하였다. 진한 그림자는 시스템이 추정한 반사율에 크게 영향을 미치기 때문에 본 논문의 방법으로 얼굴 조명을 정규화 할 경우, 그림자로 인한 에지 영역을 완벽하게 정규화 하기 어렵다. 그러므로 이러한 그림자를 제거하여 보다 항상된 얼굴 추적 및 인식을 시도하는 것이 앞으로 나아가야 할 방향이라 하겠다.</p>
|
본 논문은 Sim의 방법이 아닌 다른 방법을 제시하였으며, 사용자로부터 1개의 학습 영상만으로 학습 후 모든 실험 영상에서 사용자의 얼굴을 추적하였으며 실내영상에서는 임의적인 조명 변화에 따라 왜곡된 영상이 획득되며 실외 영상의 경우 얼굴 밝기와 음영에 의한 왜곡도 포함되어 획득된다. 비디오 기반 실험에서 얼굴 인식 성능을 평가하기 위해 각 사람의 확률분포함수를 매 프레임마다 비교하였으며 그 결과 20명의 전체 사용자에 대해 평균 \( 93.9 \% \) 의 인식률을 보였다.
|
<h1>4. 비디오 기반 얼굴 추적 및 인식</h1> <p>비디오 기반 얼굴 추적을 위해 먼저 현재 프레임 \( F_ { t } \) 에서 이전 프레임의 얼굴 추적 결과 \( \mathrm { x } _ { t-1 } ^ { * } \) 을 중심으로 갖는 가우시안 분포로써 후보 얼굴 \( \mathrm { x } _ { t } \) 를 샘플링한다. 샘플링 된 각 후보 얼굴마다 식(13)의 확률분포함수가 계산되고 시스템은 식(14)와 같이 가장 큰 확률분포함수를 갖는 후보 얼굴을 현재 프레임에서의 얼굴 위치로 추적한다.</p> <p>\( \mathrm { x } _ { t } ^ { * } = { } _ {\mathrm { x } _ { t } } ^ {\arg \max } P \left ( \mathrm { x } _ { t } \right ) \)<caption>(14)</caption></p> <p>여기서 \( P \left ( \mathrm { x } _ { t } \right ) \) 는 식(13)의 확률분포함수이다.</p> <p>시스템은 식(14)를 이용해 추적된 얼굴 영역 \( x_ { t } ^ { * } \) 을 입력으로 현재 사용자를 인식한다. 시스템에 \( S \) 명의 사람이 등록되어 있을 때, 시스템은 각 사람마다 독립적으로 식(9)와 같은 매니폴드를 사전 학습한다. 입력 영상 \( x_ { t } ^ { * } \) 는 \( S \) 명의 사람마다 확률분포를 계산하고 시스템은 식(14)와 유사하게 가장 높은 확률분포를 갖는 사람 \( s ^ { * } \) 를 현재 입력된 사람으로 인식한다.</p> <p>\( s ^ { * } = { } _ { s } ^ {\operatorname { argmax } } P_ { s } \left ( \mathrm { x } _ { t } ^ { * } \right ) \)<caption>(15)</caption></p> <p>본 논문에서 제안하는 프레임웍의 전체적인 알고리즘은<표 1>과 같다.</p>
|
비디오 기반 얼굴 추적에서는 먼저 전 프레임의 얼굴 추적 결과를 중심으로 한 가우시안 분포를 활용하여 현재 프레임에서 후보 얼굴을 샘플링한 후 확률분포함수가 가장 큰 후보를 현재 프레임에서의 얼굴 위치로 추적한다. 그 후에는 추적된 얼굴 영역으로 현재 사용자를 인식하며, 여기에서도 마찬가지로 확률분포가 가장 높은 사람을 현재 입력된 사람으로 인식한다.
|
<h2>2.2 조도 특징 추정</h2> <p>식 (2)와 같이 얼굴 영상은 반사율과 조도의 곱으로 계산될 수 있다. 조도는 얼굴 영상의 조명과 음영을 포함한다. 그러므로 정규화 된 반사율 \( \hat{R} \) 과 조명 정규화 된 조도 \( \dot{L} \) 을 결합하여 식 (5)와 같이 조명 정규화 된 얼굴 영상 \( \dot{I} \) 을 추정할 수 있다.</p> <p>\( \dot{I}(x, y)=\hat{R}(x, y) \dot{L}(x, y) \)<caption>(5)</caption></p> <p>식 (5)와 마찬가지로 식(6)과 같이 조명 정규화 된 얼굴 영상으로부터 조명 정규화 된 조도를 계산할 수 있다.</p> <p>\( \dot{L}(x, y)=\frac{\dot{I}(x, y)}{\hat{R}(x, y)} \)<caption>(6)</caption></p> <p>임의의 조명을 가지고 있는 입력 얼굴 영상 \( I \) 의 조명 정규화 된 조도 \( \dot{L} \) 을 추정하기 위해 학습 영상으로부터 추정된 조도를 이용한다. 학습 영상은 조명 정규화 된 영상이기 때문에 추정된 조도는 조명의 변화를 포함하지 않는 조명 정규화 된 조도이다.</p> <p>\( i \) 번째 학습 영상 \( I_{i}^{\text {tra }} \) 은 식(3), (4)와 식(6)을 이용하여 반사율 \( \hat{R}_{i}^{\text {tra }} \) 과 조도 \( \dot{L}_{i}^{\text {tra }} \) 의 결합으로 분해할 수 있다. 반사율은 조명의 영향을 받지 않기 때문에 임의의 조명을 갖는 입력 영상 \( I \) 의 조명 정규화 된 조도 \( \dot{L} \) 은 추정된 반사율 \( \hat{R} \) 과 \( i \) 번째 학습 영상의 반사율 \( \hat{R}_{i}^{\text {tra}} \) 의 비율로써 식 (7)과 같이 추정할 수 있다.</p> <p>\( \gamma_{i}=\frac{\hat{R}(x, y)}{\hat{R}_{i}^{\text {tra }}(x, y)}=\frac{\dot{L}(x, y)}{\dot{L}_{i}^{\text {tra }}(x, y)} \)<caption>(7)</caption></p> <p>본 논문의 매니폴드 프레임웍에서는 \( K \) 개의 포즈 분포에 대해 식(7)을 이용하여 \( K \) 개의 조도를 추정하고 식(8)과 같이 각 분포의 가중치 합으로 최종적인 조명 정규화 된 조도를 추정한다.</p> <p>\( \dot{L}(x, y)=\sum_{i=1}^{K} \alpha_{i} \gamma_{i} \dot{\bar{L}}_{i}^{\text {tra }}(x, y) \)<caption>(8)</caption></p> <p>여기서 \( \dot{\bar{L}}_{i}^{t r a} \) 은 \( i \) 번째 포즈 분포의 평균 영상으로부터 추정된 조도이고 \( \gamma_{i} \) 는 식(7)을 이용하여 계산된 \( i \) 번째 포즈에 대한 반사율간의 비율이다. 그리고 \( \alpha_{i} \) 는 \( i \) 번째 포즈 분포에 대한 가중치이다.</p> <h2>2.3 조명 정규화 된 얼굴 영상 추정</h2> <p>임의의 조명을 갖는 얼굴 영상 \( I \)는 식(2)와 같이 정규화 된 반사율 \( \hat{R} \) 과 조도 \( \hat{L} \) 의 결합으로 표현된다. 본 논문에서는 \( I \) 로부터 SSR 모델을 이용하여 추정된 반사율에 사전 정의된 범위 안에서 히스토그램 평활화하여 정규화 함으로써 반사율 \( \hat{R} \) 을 추정하였다. 그리고 식(8)과 같이 매니폴드 프레임웍으로부터 조명 정규화 된 조도 \( \dot{L} \) 을 추정하였다. 조명 정규화 된 얼굴 영상 \( \dot{I} \) 는 식(5)와 같이 정규화 된 반사율 \( \hat{R} \) 과 조명 정규화 된 조도 \( \dot{L} \) 의 결합으로 추정할 수 있다.</p>
|
본 논문에서 식(2)와 같이 얼굴 영상은 반사율과 조도의 곱으로 계산되므로 정규화 된 반사율 \( \hat{R} \)과 조명 정규화 된 조도 \( \dot{L} \)을 결합하여 식(5)와 같이 조명 정규화 된 얼굴 영상 \( \dot{I} \)을 추정 가능하다. 임의의 조명을 갖는 얼굴 영상 \( I \)는 식(2)와 같이 정규화 된 반사율 \( \hat{R} \) 과 조도 \( \hat{L} \) 의 결합으로 표현된다. 본 논문에서는 \( I \) 로부터 SSR 모델을 이용해 추정된 반사율에 사전 정의된 범위 안에서 히스토그램 평활화하여 정규화 함으로써 반사율 \( \hat{R} \) 을 추정했다.
|
<h1>5. 실험 결과</h1> <p>본 논문에서 제안하는 방법의 성능을 평가하기 위해 20 명의 사람으로부터 임의의 조명 상태를 지속적으로 변화시킨 실내 영상과 옥상이나 도로, 공원과 같은 실외 환경에서 촬영한 실험 영상을 이용하여 얼굴을 추적 및 인식하고 Lee의 방법과 성능을 비교하였다. 또한 다양한 조명의 변화를 포함하는 YalefaceB 데이터를 이용하여 본 논문에서 제안한 전처리 방법을 적용했을 경우와 기존의 이미지 보정 기법을 적용했을 경우의 인식률을 비교하였다.</p> <h2>5.1 전처리</h2> <p>YalefaceB는 조명변화에 대한 얼굴 인식 성능 평가에 널리 사용되는 실험 영상 중 하나이다. YalefaceB는 10 명의 사람을 각 사람마다 8 개의 얼굴 포즈로 나누고 포즈마다 서로 다른 65 개의 조명 영상을 갖는 이미지로 총 5,200장(10명\( \times \)8포즈\( \times \)65 조명=5,200)의 조명변화를 갖는 얼굴 영상을 제공한다. 본 논문에서는 YalefaceB로부터 정면 포즈 영상 650 장을 이용하여 비교적 조명 변화가 적은 정면 조명의 영상 10 장을 학습 영상으로 사용하고 나머지 640 장의 영상을 이용하여 실험하였다.</p> <p>조명 변화에 대한 얼굴 추적 및 인식 성능을 평가하기 위한 대표적인 비디오 영상이 아직 존재하지 않는다. 따라서 본 논문에서는 20명의 사용자로부터 다양한 조명 상태를 포함하는 실내 영상과 옥상이나 도로, 공원 등과 같은 실외 환경에서 획득한 영상을 이용하여 비디오 기반 얼굴 추적 및 인식 실험에 사용하였다. 사용자는 6 명의 여성과 14 명의 남성으로 구성되며 각 사용자마다 비교적 고른 조명 상태에서의 영상 1 개를 획득하여 학습 영상으로 사용하였다. 그리고 다양한 조명 변화와 얼굴 포즈 변화를 포함하는 영상을 사용자마다 2~4 개 획득하여 실험 영상으로 사용하였다. 획득한 모든 영상은 \( 15 \mathrm{fps} \) 이며 약 30초의 길이를 갖는다. 실험에 사용된 실내 영상은 창문을 통한 태양빛을 이용하여 사용자의 얼굴에 측광이나 역광으로 환경 변화를 주거나 책상 위의 스탠드, 거울 등을 이용하여 얼굴의 조명 상태를 지속적으로 변화시켰다. 실외 영상은 사용자의 얼굴이 직접적으로 태양빛을 받기 때문에 학습 영상과는 전혀 다른 조명 상태를 가지며 도로나 공원에서 획득한 영상은 움직이는 카메라를 이용하여 나무나 건물 등으로 인한 음영에 따른 조명 변화를 포함한다. 또한 모든 영상은 사용자 개개인에 따라 자연스러운 임의의 얼굴 포즈 변화를 포함한다.</p> <p>시스템의 학습을 위해 먼저 학습 영상으로부터 수동적으로 사용자의 얼굴을 추출하였다. 추출된 얼굴은 20\( \times \)20 크기의 영상으로 크기를 조정되고 K-means 알고리즘을 이용하여 7개의 포즈로 분류하였다. 사용자의 매니폴드 모델을 구성하기 위해 분류된 포즈 영상은 PCA를 이용하여 각 포즈 분포를 근사한다. 포즈 분포의 차원 \( M \) 은 클수록 시스템의 성능을 향상시키지만 속도를 저하시킨다. 본 논문에서는 적절한 포즈 분포의 차원 \( M \) 을 정하기 위해 포즈 분로를 이루는 고유값을 누적하여 \( 90 \% \) 가 되는 \( M \) 을 선택하였다.</p>
|
본 논문에서 제안하는 방법을 평가하려고 20명의 사람으로부터 임의의 조명 상태를 지속적으로 변화시킨 실내외 환경에서 촬영한 영상을 이용해 얼굴을 추적 및 인식하고 Lee의 방법과 성능을 비교했다. YalefaceB로부터 정면 포즈 영상을 이용해 비교적 조명 변화가 적은 정면 조명의 영상 10 장을 학습 영상으로 사용하고 나머지 640 장의 영상을 이용하여 실험했다. 적당한 포즈 분포의 차원 M을 정하기 위해 포즈 분포를 이루는 고유값을 누적하여 \( 90 \% \) 가 되는 M을 택했다.
|
<h1>3. 포즈 기반 매니폴드 모델</h1> <p>얼굴 영상은 얼굴의 포즈에 따라서 매우 다른 이미지로 표현될 수 있다. (그림 2)는 학습 영상으로부터 추출된 얼굴 영상들로 이러한 포즈에 따른 얼굴 이미지의 차이를 보여준다. 얼굴 포즈에 따른 이미지의 변화를 처리하기 위해 각 포즈에 대해 선형적인 모델을 생성하고 이러한 선형 모델을 가우시안 혼합 모델을 이용하여 표현함으로써 비선형적인 얼굴 모델을 추정할 수 있다.</p> <p>\( \mathrm{K} \) 개의 포즈로부터 근사된 가우시안 혼합 모델의 확률 분포 함수는 식(9)와 같이 정의된다.</p> <p>\( P(\mathrm{x})=\sum_{i=1}^{K} \alpha_{i} \operatorname{Gauss}\left(\mathrm{x} \mid \mu_{1}, \Sigma_{i}\right) \)<caption>(9)</caption></p> <p>여기서 \( \mu_{i} \) 와 \( \Sigma_{i} \) 는 각각 \( i \) 번째 가우시안 성분의 평균벡터와 공분산 행렬을, \( \alpha_{i} \) 는 \( i \) 번째 가우시안 성분의 가중치를 나타낸다. \( i \) 번째 포즈 가우시안 분포의 평균 벡터 \( \mu_{\mathrm{i}} \) 와 공분산 행렬 \( \Sigma_{i} \) 는 학습 영상에서 \( i \) 번째 얼굴 포즈에 해당되는 학습 영상으로부터 근사화하며 가우시안 확률 분포 Gauss \( \left(\mathrm{x} \mid \mu_{\mathrm{i}}, \Sigma_{\mathrm{i}}\right) \) 는 가우시안 Likelihood로써 추정한다. N차원의 입력 이미지에 대해 가우시안 Likelihood는 식(10)과 같다.</p> <p>\( P\left(x \mid \Omega_{\mathrm{i}}\right)=\frac{\exp \left[-\frac{1}{2}\left(\mathrm{x}-\mu_{\mathrm{i}}\right)^{\mathrm{T}} \Sigma_{\mathrm{i}}^{-1}\left(\mathrm{x}-\mu_{\mathrm{i}}\right)\right]}{(2 \pi)^{\frac{N}{2}}\left|\Sigma_{\mathrm{i}}\right|^{\frac{1}{2}}} \)<caption>(10)</caption></p> <p>[10]과 [15]에 따르면 \( i \) 번째 가우시안 분포 \( \Omega_{i} \) 는 PCA를 이용하여 구성된 어파인 부분 공간(Affine subspace) \( \widehat{\Omega}_{i} \) 로써 근사할 수 있다. \( \widehat{\Omega}_{i} \) 는 \( i \) 번째 얼굴 포즈에 속하는 학습 영상이 주어졌을 때, 집합 \( \left\{\mu_{\mathrm{i}}, \Sigma_{\mathrm{i}}, \Phi, \Lambda\right\} \) 을 계산함으로써 추정된다. 여기서 \( \mu_{i} \) 는 데이터의 평균벡터이고 \( \Sigma_{i} \) 는 공분산 행렬, \( \Phi \) 는 \( \Sigma_{i} \) 의 고유값의 큰 고유벡터를 순서대로 \( \mathrm{M} \) 개 \( (M \ll N) \) 포함하여 데이터를 고유공간으로 투영하기 위한 행렬이며 \( \Lambda \) 는 대각 성분 \( \Lambda_{j j}=\lambda_{j} \) 로 \( \Phi \) 의 고유벡터에 해당 하는 고유값을 가지는 대각행렬이다.</p> <p>입력된 얼굴 영상 \( I \) 는 근사된 고유공간 \( \widehat{\Omega_{i}} \) 에 선형적으로 투영되어 \( y=\left[y_{1}, \ldots, y_{M}\right]^{T}=\Phi^{T}\left(I-\mu_{i}\right) \) 의 고유 얼굴을 얻는다. 식(5)의 Likelihood는 \( \widehat{\Omega}_{i} \) 에 의해 근사된 고유 얼굴을 이용하여 식(10)과 같이 두 개의 가우시안 분포의 곱으로 표현될 수 있다.</p> <p>\( P\left(\mathrm{x} \mid \widehat{\Omega_{\mathrm{i}}}\right)=\left[\frac{\exp \left(-\frac{1}{2} \sum_{j=1}^{M} \frac{y_{j}^{2}}{\lambda_{j}}\right)}{(2 \pi)^{\frac{\mathrm{M}}{2}} \prod_{j=1}^{\mathrm{M}} \lambda_{\mathrm{j}}^{\frac{1}{2}}}\right]\left[\frac{\exp \left(-\frac{\epsilon^{2}(x)}{2 \rho}\right)}{(2 \pi \rho)^{\frac{N-M}{2}}}\right] \)<caption>(11)</caption></p> <p>여기서 \( \mathrm{M} \) 은 부분 공간 \( \widehat{\Omega}_{i} \) 의 차원 수이고 \( \epsilon^{2}(x) \) 는 재구성 에러(Residual reconstruction error)로 식(12)와 같이 정의된다</p> <p>\( \epsilon^{2}(\mathbf{x})=\sum_{j=M+1}^{N} y_{j}^{2}=\left\|\mathrm{x}-\mu_{\mathrm{i}}\right\|^{2}-\sum_{j=1}^{M} y_{j}^{2} \)<caption>(12)</caption></p> <p>식(11)에서 파라미터 \( \rho \) 는 \( \frac{1}{N-M_{j}} \sum_{M+1}^{N} \lambda_{j} \) 를 사용하거나 혹은 간단하게 \( \frac{1}{2} \lambda_{M+1} \) 을 사용한다. 본 논문에서는 후자를 선택하여 실험하였다.</p> <p>식(11)을 이용하면 식(9)를 다음 식(13)과 같이 바꾸어 쓸 수 있다.</p> <p>\( P(\mathrm{x})=\sum_{i=1}^{K} \alpha_{i} P\left(\mathbf{x} \mid \widehat{\Omega}_{i}\right) \)<caption>(13)</caption></p> <p>\( \alpha_{i} \) 는 \( i \) 번째 포즈의 확률 분포 \( P\left(\mathrm{x} \mid \widehat{\Omega}_{\mathrm{i}}\right) \) 에 대한 가중치 파라미터로 입력된 영상의 얼굴 포즈와 유사한 포즈 분포에서 높은 가중치를 갖는다.</p> <p>비디오 기반의 입력 영상은 프레임간의 연속성을 갖는다. 그러므로 프레임간의 연속성을 고려할 때 보다 효율적으로 얼굴을 추적 및 인식할 수 있다. 본 논문에서는 First order Markov 가정으로 현재 프레임에서 추적 및 인식한 결과를 이용하여 다음 프레임의 각 포즈분포의 가중치를 추정한다. \( t \) 시점에서 추정된 각 확률분포 및 가중치 파라미터를 이용하여 EM알고리즘을 통해 \( t+1 \) 시점에서의 가중치 파라미터를 추정한다. EM알고리즘은 다음과 같은 두 가지 단계를 반복적으로 수행한다.</p> <p>▶ Initial: \( \alpha_{i}^{0}=\frac{1}{I} \)</p> <p>▶ E-step: \( h_{i}^{t}(\mathrm{x})=\frac{\alpha_{i}^{t} P\left(\mathrm{x} \mid \widehat{\Omega_{i}}\right)}{\sum_{j=1}^{K} \alpha_{j}^{t} P\left(\mathrm{x} \mid \widehat{\Omega}_{j}\right)} \)</p> <p>▶M-step: \( \alpha_{i}^{t+1}=\frac{h_{i}^{t}(\mathrm{x})}{\sum_{j=1}^{K} h_{j}^{t}(\mathbf{x})} \)</p> <p>시스템은 E-step에서 \( t \) 시점의 새로운 입력 \( \mathrm{x} \) 의 기댓값으로 사전 확률 \( h_{i}^{t}(\mathrm{x}) \) 을 계산한다. \( K \) 개의 사전확률이 계산되면 M-step에서는 입력에 대한 결합 Likelihood(J-oint Likelihood)를 최대화한다. EM알고리즘은 점증적으로 Likelihood를 수렴하기 때문에 학습 데이터의 전체 Likelihood에서 지역적 최대값(Local Maximum)을 찾을 수 있다. 따라서 입력 얼굴에 대해 각 포즈 분포의 가중치를 올바르게 갱신할 수 있다.</p>
|
3절에서는 얼굴 포즈에 따른 이미지의 변화를 처리하고자 각 포즈에 대해 선형적인 모델을 생성하고 이러한 선형 모델을 가우시안 혼합 모델을 통해 표시하여 비선형적인 얼굴 모델을 추정하기 위한 \( \mathrm{K} \) 개의 포즈로부터 근사된 가우시안 혼합 모델의 확률 분포 함수는 식 \( P(\mathrm{x})=\sum_{i=1}^{K} \alpha_{i} \operatorname{Gauss}\left(\mathrm{x} \mid \mu_{1}, \Sigma_{i}\right) \) (9)이고 연구에서는 First order Markov 가정으로 현재 프레임에서 추적 및 인식한 결과를 활용해 다음 프레임의 각 포즈분포의 가중치를 산출하였으며 EM알고리즘은 점증적으로 Likelihood를 수렴하기 때문에 학습 데이터의 전체 Likelihood에서 지역적 최대값을 구하고 포즈 분포의 가중치를 정확하게 변경한다.
|
<h1>2. 얼굴 조명의 정규화</h1> <p>Lambertian 모델을 가정하면 이미지 \( I(x, y) \) 는 반사율 (Reflectance)과 조도(Illuminance)의 곱으로 식(1)과 같이 표현할 수 있다.</p> <p>\( I(x, y)=R(x, y) L(x, y) \)<caption>(1)</caption></p> <p>여기서 \( R(x, y) \) 과 \( L(x, y) \) 는 점 \( (x, y) \) 에서의 반사율과 조도를 나타낸다. 반사율 \( R(x, y) \) 은 이미지의 알베도(Albedo)와 표면 법선(Surface normal)에 의해서만 변화하기 때문에 조명 변화에 영향을 받지 않는다. 그러나 이미지는 2 차원 정보이기 때문에 정확한 반사율을 추정하는 것은 쉽지 않다. 식(1)은 다음과 같이 다시 전개할 수 있다.</p> <p>여기서 \( \hat{R}(x, y) \) 는 얼굴의 구조적 정보만을 포함하며 \( \hat{L}(x, y) \) 는 얼굴의 조명과 음영 정보를 포함한다.</p> <h2>2.1 반사율 추정</h2> <p>Retinex는 고급 레벨의 동적 범위 압축과 색의 불변성을 갖는 이미지 향상 기법이다. Retinex 알고리즘은 이미지 \( I(x, y) \) 의 비율로써 반사율을 추정하고 저주파 버전으로써 조도를 추정한다. SSR 모델은 Land의 가장 최근 버전으로 이미지에서 한 점 \( (x, y) \) 의 \( \mathrm{SSR} \) 은 다음 식(3)과 같이 정의된다.</p> <p>\( R(x, y)=\log I(x, y)-\log [F(x, y) \otimes I(x, y)] \)<caption>(3)</caption></p> <p>여기서 \( R_{i}(x, y) \) 는 Retinex 출력 결과이고 \( I(x, y) \) 는 입력 영상의 픽셀 값이다. 그리고 \( \otimes \) 는 컨볼루션(Convolusion) 연산을 나타내며 \( F(x, y) \) 는 가우시안 필터 함수이다.</p> <p>\( \mathrm{SSR} \) 모델을 이용하여 추정된 반사율은 (그림 1(a)) 와 같이 좁은 형태의 히스토그램 분포를 가지며 입력 영상의 조명에 따라 얼굴 구조가 부분적으로 약하게 표현되는 문제점을 갖는다((그림 1(a))에서는 조명에 따라 턱 선의 형태가 약하게 나타나는 예를 보여준다). 본 논문에서는 이러한 반사율을 사전 정의된 범위 안에서 히스토그램 평활화하여 정규화 함으로써 보다 정확한 반사율 \( \hat{R} \) 을 추정한다.</p> <p>영상의 밝기 레벨이 범위 [0, 1]로 정규화 된 값이라고 가정할 때, 특정 범위 \( \left[\theta_{\min }, \theta_{\max }\right] \) 에서의 밝기 레벨 \( \hat{s} \) 는 다음과 같이 얻어진다.</p> <p>\( \hat{s}=T(r)=\int_{\theta_{\min }}^{r} P(x) d x \)<caption>(3)</caption></p> <p>여기서 \( P(x) \) 는 주어진 영상의 밝기 레벨에 대한 확률 밀도 함수(PDF)를 나타낸다. 일반적으로 히스토그램 평활화는 이미지의 히스토그램 전체에 대해 균등화를 수행하는 반면 식(3)의 범위적 히스토그램 평활화는 히스토그램의 특정 범위로 균등회를 수행한다. 따라서 식(3)의 \( \hat{s} \) 는 다음 식(4)와 같이 영상의 밝기 레벨 범위를 변화시킨다.</p> <p>\( \hat{s}:[0,1] \longrightarrow\left[\theta_{\min }, \theta_{\max }\right] \) where \( 0 \leq \theta_{\min }<\theta_{\max } \leq 1 \)<caption>(4)</caption></p> <p>(그림 1(b)) 는 식(3)을 이용하여 반사율 영상에 범위적 히스토그램 평활화를 적용한 예를 보여준다.</p>
|
본 논문에서는 Lambertian 모델을 가정했을 경우 이미지 \( I(x, y) \)를 수식으로 나타내면 \( I(x, y)=R(x, y) L(x, y) \)이고, SSR 모델은 Land의 가장 최근 버전으로 이미지에서 한 점 \( (x, y) \)의 \( \mathrm{SSR} \)을 수식으로 나타내면 \( R(x, y)=\log I(x, y)-\log [F(x, y) \otimes I(x, y)] \)라는 것을 확인할 수 있다. 반사율을 미리 정의된 범위 안에서 히스토그램 평활화하여 정규화하면 보다 정확한 반사율 \( \hat{R} \)을 추정할 수 있다.
|
<h1>1. 서 론</h1> <p>최근 몇 년 동안 정지 영상분만 아니라 비디오 영상에 대한 얼굴 검출이나 얼굴 추적, 얼굴 인식 등에 대한 많은 연구가 진행 되어 왔다. 특히 비디오 영상 기반의 시스템은 정지 영상 기반의 시스템에 비해 생체 인증이나 비디오 감시 시스템, 인간과 로봇간의 상호 작용 등의 보다 많은 분야에서 응용될 수 있다. 하지만 비디오 영상에서 얼굴을 추적하거나 인식하는 일은 얼굴의 포즈 변화나 얼굴 표정의 변화, 주변 조명이나 장소, 시간 등 환경에 대한 영향을 크게 받는 문제점을 가진다. 특히 얼굴 조명의 변화와 포즈의 변화는 얼굴을 추적하거나 인식할 때 발생하는 주된 문제로 꼽을 수 있다. 이러한 조명과 얼굴 포즈의 변화를 많이 포함한 영상에서 얼굴을 추적하고 인식하는 일은 매우 중요한 문제이며 이를 해결하기 위한 다양한 연구가 진행되어 왔다.</p> <p>카메라로부터 입력된 얼굴 영상은 주위 조명이나 얼굴의 형태, 조명에 따른 그림자 등에 의해 입력되는 얼굴의 픽셀 값이 크게 달라진다. 이러한 조명 변화에 강건한 얼굴 인식을 하기 위한 방법은 조명 변화에도 픽셀 값이 크게 변하지 않는 근적외선 카메라(Near infrared camera)를 이용하는 방법과 일반적으로 사용되는 카메라(Visual camera)를 이용하지만 정규화 과정을 통해 영상을 정규화 한 후 얼굴 인식을 하는 방법으로 나눌 수 있다.</p> <p>근적외선을 이용하여 획득한 얼굴 영상은 주위 조명 변화에 민감하지 않으며 보다 정확한 얼굴 인식을 가능하게 한다. 그러나 근적외선 기반 얼굴 인식은 근적외선 얼굴 영상간의 매칭을 기반으로 하기 때문에 항상 사용자는 근적외선으로 입력된 얼굴 영상으로 시스템에 등록되어 있어야만 한다. 얼굴 인식이 응용되는 많은 분야에서 비주얼 영상을 이용한 얼굴 등록을 요구하기 때문에 이러한 적외선 영상을 등록하는 일은 쉽지 않다.</p> <p>얼굴의 조명 변화를 정규화 하기 위한 연구들은 크게 두 가지로 분류된다. 첫 번째는 이미지 전체를 정규화 하는 방법으로 히스토그램 평활화 (HE), Shape-from-shading, Quotient image relighting 방법 (QI) 등이 있다. 그러나 이러한 방법은 전체 이미지를 정규화 하는 과정에서 얼굴의 특징을 왜곡하는 문제점을 갖기 때문에 효과적으로 얼굴을 인식하기 어럽다. 두 번째는 얼굴 인식에 있어 조명 상태에 영향을 받지 않는다고 생각되는 얼굴의 특징을 이용하여 얼굴 인식을 수행하는 방법으로 Single Scale Retinex (SSR) 모델이나 Logarithmic total variation (LTV) 모델, Self quotient image (SQI) 등이 있다. 이러한 방법들은 얼굴 영상으로부터 조도(Illuminance)와 반사율(Reflectance)을 추정하고 조명 변화에 영향을 받지 않는 반사율을 이용한다. 반사율은 물체의 알베도(Albedo)와 표면 법선(Surface normal)에 의해서만 변화하기 때문에 조명의 영향을 받지 않지만 이미지의 2 차원 정보만으로 정확한 반사율을 추정하는 것은 쉽지 않다. 또한 조도에 포함되는 얼굴 정보를 함께 고려해야 보다 정확한 얼굴 인식을 할 수 있다.</p> <p>동영상의 경우 매 프레임마다 얼굴 영상을 처리해야 하기 때문에 보다 빠른 계산 속도가 요구된다. SSR 모델은 반복 과정 없이 정의된 가우시안 필터의 분산 값을 이용하여 단순한 계산만으로 반사율 영상을 추정할 수 있다. 그러므로 SSR 모델을 사용할 경우 매우 빠르면서도 LTV 모델과 유사한 결과를 얻을 수 있는 장점을 갖는다. 본 논문에서는 SSR 모델을 이용하여 빠르게 얼굴의 반사율을 추정하고 정규화 과정을 통해 보다 정확한 반사율을 획득한다.</p> <p>비디오 영상에서 다양한 포즈의 얼굴을 추적하고 인식하기 위해 Lee는 사람의 얼굴을 몇 개의 구분되는 포즈로 나누고 각 포즈를 선형적인 방법으로 근사하였다. 그리고 각 포즈를 학습 영상으로부터 직접 계산된 변환 확률을 이용하여 연결하였다. 또한 에서 입력받은 얼굴 영상을 이용하여 모델을 갱신함으로써 보다 효율적인 인식을 도모하였다. 그러나 포즈 간의 변환 확률을 학습 영상 내의 포즈 변환 횟수로부터 직접적으로 계산하였기 때문에 학습 영상이 충분한 수의 얼굴 포즈를 포함하지 않거나 입력 영상에서의 얼굴 포즈의 변화가 학습 영상과 다른 경우 올바르게 포즈를 인식하지 못한다. 비디오 기반의 얼굴 포즈 인식에서 학습 영상에 의존적이지 않은 포즈간의 변환 확률을 계산하기 위해서는 실제 입력되는 프레임간의 얼굴 포즈 변화에 따라 연속적으로 확률이 갱신되어야 한다.</p> <p>Sim은 각 사람의 얼굴 영상 전체를 PCA를 통하여 저차원의 데이터로 투영한 이후 가우시안 혼합 모델로 근사하고 이 모델을 이용하여 확률분포함수를 구함으로써 얼굴 인식을 시도하였다. 이때 학습 영상에 다양한 포즈나 조명 상태의 얼굴을 포함시킴으로써 포즈 및 조명에 대해 좋은 인식률을 보였다. 그러나 이러한 방법은 이미지 전체를 저차원으로 투영하기 때문에 [10]의 방법에 비해 많은 정보가 손실되며 만약 입력되는 영상의 얼굴 포즈나 조명 변화가 실험 영상에 포함되어 있지 않은 경우 좋은 성능을 보이기 어렵다. 보다 효율적인 인식을 위해서는 입력되는 얼굴 영상과 학습 영상과의 차이를 최소화하기 위한 전처리 과정이 필요하다.</p> <p>본 논문에서는 한 사람의 얼굴을 몇 개의 구분되는 포즈로 나누고 [10]과 같이 각 포즈를 PCA를 이용하여 선형적인 방법으로 근사하였다. 그러나 [10]의 방법과는 다르게 근사된 포즈 분포들의 가우시안 혼합 모델로 전체 얼굴의 매니폴드를 표현함으로써 다양한 얼굴 포즈에 대해 효과적으로 인식하는 방법을 제안한다. 비디오 기반의 입력 영상에서 프레임간의 얼굴 포즈 변화를 효율적으로 인식하기 위해 본 논문에서는 매 프레임마다 입력되는 얼굴 영상에 따라 EM알고리즘을 이용하여 각 분포의 가중치를 갱신하고, 갱신된 가중치를 다음 프레임에서 얼굴 포즈간의 변환 확률로 이용한다. 제안된 방법은 학습 영상에 의존적이지 않으면서 비디오 기반의 연속적인 입력 얼굴에 대해 효율적으로 얼굴 포즈 인식을 수행한다.</p> <p>입력된 얼굴 영상에서 조명을 정규화하기 위해 본 논문에서는 SSR 모델을 이용하여 입력 영상을 반사율과 조도로 분해한다. 반사율은 주로 얼굴의 구조적인 정보를 포함한다. 그러나 얼굴 영상이 다양한 조명을 포함할 경우 반사율은 보다 약한 구조적 정보를 갖는다. 본 논문에서는 이러한 반사율을 사전 정의된 범위 안에서 히스토그램 평활화를 수행함으로써 보다 정확한 반사율을 획득한다. 입력 영상으로부터 분해된 조도는 조명 변화에 의한 대부분의 왜곡을 포함한다. 왜곡을 포함하지 않는 조도를 추정하기 위해 조명 변화를 포함하고 있지 않은 영상들로부터 학습 된 매니폴드 모델로부터 새로이 입력 영상의 조도를 추정하고 이를 반사율과 결합함으로써 실내 환경이나 실외 환경으로부터 획득한 영상에서 효율적으로 얼굴을 추적 및 인식한다.</p> <p>본 논문의 구성은 다음과 같다. 2절에서 얼굴 조명의 정규화를 위해 SSR 모델을 이용한 반사율 추정과 정규화 방법을 소개하고 조명 왜곡을 포함하지 않은 조도의 추정 방법을 설명한다. 두 특징을 결합하여 조명 정규화 된 얼굴 영상을 재구성한다. 3절에서는 가우시안 혼합 모델과 모델의 학습 방법, 그리고 모델로부터 추정할 수 있는 확률분포 함수를 소개하고 4절에서 이를 이용하여 얼굴을 추적하고 인식하는 방법을 설명한다. 5 절에서 실험결과를 통해 본 논문에서 제시하는 방법이 기존의 연구보다 우수한 성능을 가짐을 보이고 6절에서 결론을 맺는다.</p>
|
얼굴 인식에서 얼굴 조명의 변화와 포즈의 변화는 주된 문제이므로 이러한 변화를 많이 포함된 영상에서 얼굴을 인식하고 추적하는 것은 매우 중요하다. 조명 변화에도 정확한 얼굴 인식을 위한 방법에는 조명 변화에도 픽셀 값이 크게 바뀌지 안흔 근적외선 카메라를 이용하는 것과 일반적인 카메라를 이용하고 정규화 과정을 거치는 방법이 있다. 본 논문에서는 한 사람의 얼굴을 몇 개의 구분되는 포즈로 나누고 각 포즈를 PCA로 선형적인 방법으로 근사화 한 후, SSR 모델을 이용하여 조명을 정규화하여 입력 영상은 반사율과 조도로 분해하였다.
|
<h1>요 약</h1> <p>본 연구에서는 UHF 대역의 18000-6 Type C Class Generation 2(이하 Gen2) 표준의 충돌방지 알고리즘을 사용하여 개선된 충돌방지 알고리즘을 제안하고 이를 토대로 충돌방지 유닛을 설계하였다. Gen2 표준은 슬롯 알로하 알고리즘 계열에서 비교적 높은 성능을 가지는 증가형 방식을 채택하여 사용하고 있으며, 이를 위해 Q 알고리즘을 제시하고 있다. 하지만 슬롯 카운터 선택 파라미터 Q에 따른 초기 \(Q_ { f p } \)값에 대한 정확한 정의가 되어 있지 않아, 잘못된 값 선택으로 인한 성능의 저하가 우려된다. 따라서 본 연구에서 태그인식시간, 데이터 처리량, 시스템 효율을 증가 시킬 수 있는 개선된 Q알고리즘을 제안하였다. 제안한 Q 알고리즘에 의하여 \( 5 \% \)정도의 시스템 효율 성능 향상과 \( 9 \% \)정도의 태그인식시간 감소를 얻을 수 있었다.</p> <h1>Ⅰ. 서 론</h1> <p>RFID(Radio Frequeny IDentification)란 사물에 부착된 정보를 송.수신하고 이와 관련된 서비스를 제공하는 기술을 일컫는다. RFID 시스템에서는 태그에 극소형 칩을 부착해 많은 정보를 저장할 수 있으며, 상품에 태그의 부착이 용이하고 바코드에 비해 장거리 정보 송.수신이 가능하다.</p> <p>특히 유통 및 물류분야에 사용될 \( 900 \mathrm { MHz } \) RFID 시스템은 각종 물품에 전자태그를 부착해 자동으로 물품 명세와 가격, 유통경로 및 기한 등을 파악할 수 있어 유통 및 물류에 혁신을 가져올 기술로 각광 받고 있다. 또한 앞으로 센서 기술과 칩 소형화 기술 등이 더욱 발전하면 정보률 능동적으로 획득하고 처리하는 능력까지 갖추게 되어 바코드가 하던 역할과는 비교할 수 없을 정도로 많은 일들을 해낼 수 있을 것으로 기대되고 있다.</p> <p>일반적으로 RFID 시스템에서 사용되는 태그는 수동형과 능동형이 있다. \( 900 \mathrm { MHz } \) RFID 시스템에서는 수동형 태그가 사용되는데, 그 능력이 매우 제한적이어서 다른 태그들과 통신을 할 수 없고 단지 리더와만 통신이 가능하다. 리더는 무선 채널을 통하여 각각의 태그들과 통신을 하는데, 모든 태그들이 리더가 보낸 신호를 동시에 받게 되고 리더는 전송요구에 응답을 한다.이 때 하나의 리더가 동시에 응답한 여려 개의 태그를 인식해야 하는 문제가 발생하는데 이를 태그 충돌이라고 한다. 여러 개의 태그를 충돌 없이 인식하기 위해서는 이러한 태그 충돌 문제를 해결하는 충돌방지 알고리즘이 필요하고, 이는 \( 900 \mathrm { MHz } \) RFID 시스템에서 가장 핵심 기술로서 인식되고 있다.</p>
|
본 연구는 Gen2 표준의 충돌방지 알고리즘을 사용하여 개선된 알고리즘과 충돌방지 유닛을 제안한다. Gen2 표준은 Q 알고리즘을 제시하여, 슬롯 알로하 알고리즘 계열에서 효과적인 증가형 방식을 채택하여 사용한다. 그러나 잘못된 값 선택으로 인한 성능의 저하가 우려되는데, 이는 슬롯 카운터 선택 파라미터 Q에 따른 초기값에 대한 정확한 정의가 되어있지 않기 때문이다. 본 연구에서 제안하는 알고리즘은, 태그인식시간, 데이터 처리량, 시스템 효율을 증가시킨다. 제안된 알고리즘은 시스템 효율 성능을 향상시키고 태그인식시간을 감소시켰다.
|
<p>현재 사용되고 있는 충돌 방지 알고리즘은 크게 이진 탐색 방식(Binary Search Algorithm)과 슬롯 알로하 방식(Slotted ALOHA Algorithm)으로 나눌 수 있고,슬롯 알로하 방식은 기본 프레임 알로하 방식, 동적 슬롯 알로하 방식, 태그 수 추정 알로하 방식으로 나눌 수 있다.</p> <p>동적 슬롯 알로하 기반의 충돌방지 알고리즘은 전송 시간을 여러 개의 타임 슬롯으로 분할하여 각각의 태그들이 슬롯을 임의로 선택하여 전송하는 방식으로 동작 한다. 효율적인 태그식별을 위하여 슬롯개수는 전체슬롯중 식별 슬롯이 차지하는 비율이 가장 높게 나올 수 있도록 설정한다. 태그개수에 비해 지나치게 큰 슬롯개수는 태그들 사이의 충돌 발생률을 증가시킨다. 이와 같이 영역내의 태그개수와 설정된 슬롯개수는 시스템 효율을 결정한다. 하지만 RFID 시스템은 기존의 무선통신과는 달리 영역내의 태그개수에 대한 추정(estimation)이 우선시 되어야하고 추정된 태그개수에 근거하여 시스템 효율을 가장 높일 수 있는 슬롯개수를 설정하는 것이 바람직하다.</p> <p>따라서 본 논문은 Gen2기반 RFID 시스템에서의 슬롯 알로하 기반 충돌방지 알고리즘과 관련하여 태그개수 추정과 슬롯개수 설정에 초점을 맞춰 기존 연구들을 살펴보았고, 태그개수를 추정할 수 있는 새로운 기법으로 슬롯개수 설정 시 시스템 효율이 최대가 되는 기법을 제안하였고, 시뮬레이션을 통하여 기존 기법과 비교, 분석 하였다.</p> <p>본 논문의 구성은 다음과 같다. Ⅱ장에서는 Gen2의 충돌방지 알고리즘에 대해서 알아보고 기존 방식의 문제점을 제시한다. Ⅲ장에서는 제안하는 RFID시스템의 충돌방지 알고리즘에 대해 설명한다. 그리고 Ⅳ장에서는 시뮬레이션을 통해 성능을 분석하고 마지막으로 Ⅴ장에서 결론을 맺는다.</p> <h1>Ⅱ. 본 론</h1> <h2>2.1 Gen2 충돌방지 알고리즘 및 문제점</h2> <p>Gen2 표준은 기본적으로 동적 슬롯 알로하 알고리즘을 채택하고, 슬롯 카운터 선택 알고리즘을 이용하여 증가형 방식을 적용하고 있다. 그림 1은 Probabilistic Slotted 알고리즘의 기본 동작 과정을 나타내고 있다.슬롯 카운터 선택 알고리즘은 태그가 리더로부터 슬롯 카운터 파라미터인 Q값을 전송받아 총 슬롯 개수인 \( 2 ^ { Q } \)값 내에서 자신이 응답할 슬롯 값을 랜덤하게 선택하여 응답하는 방식이다. 슬롯 카운터 선택 알고리즘에서는 Q값을 변경하기 위한 파라미터로 가중치 C와 Q의 실수 값인 \( Q_ {\text { fp } } \)가 사용된다. \( Q_ {\text { fp } } \)는 최소 0 에서 최대 15 사이의 값을 가질 수 있으며, 가중치 C 는 0.1에서 0.5사이의 값을 갖는다. 태그 응답에 따라 기존의 \( Q_ {\text { fp } } \)값에 가중치 C를 더하거나 빼는 것을 반복함으로써 Q값을 설정한다. Q값이 변경되면 태그에 다시 전송하고 변경된 Q값을 받은 태그는 \( 2 ^ { Q } \)범위 내에 새로운 랜덤 값을 생 성하게 된다.그림 2 는 표준에서 제시하는 Q 알고리즘 흐름도이다. 그러나 표준에서는 몇 가지 정의되지 않은 부분이 있 어 알고리즘 구현 시에 어려움이 따른다. 먼저, 초기 Q값이 정해져 있지 않다. 적절한 Q값을 설정하지 못한다 면 초기에 Q 알고리즘은 많은 반복 수행을 거쳐야 한다.또한 Q에 따론 가중치C값을 정의해두고 있지 않으며,단지 Q값이 클 경우에는 상대적으로 작은C 를, Q 값이 작은 경우에는 큰 C값이 변하게 되면 태그는 그 때마다 새로운 랜덤수를 생성하여야 한다.그러므로 영역 내의 태그를 읽는 시간이 중가하게 되고 이에 따라 리더의 성능은 저하된다. 따라서 본 연구에서는 이러한 문제점을 개선한 새로운 충들방지 알고리즘을 제안한다.</p>
|
본 논문은 Gen2기반 RFID 시스템에서의 슬롯 알로하 기반 충돌방지 알고리즘과 관계가 있는 태그개수 추정과 슬롯개수 설정에 중점을 둬 기존 연구들을 확인해보았고 태그개수를 추정할 수 있는 새로운 기법으로 슬롯개수 설정시 시스템 효율이 최대가 되는 기법을 제시했고, 시뮬레이션을 통하여 기존 방법과 비교하고 분석했다.Gen2 표준은 기본적으로 동적 슬롯 알로하 알고리즘으로 정하고, 슬롯 카운터 선택 알고리즘을 사용하여 증가형 방식을 사용하고 있지만 표준에서는 몇 가지 정리되지 않은 부분이 있어 알고리즘 조성시에 어려움이 생기는 데 이런 문제점을 새롭게 고친 충돌방지 알고리즘을 제시한다.
|
<p>상기 과정 중 \( \mathrm { RN } 16 \)의 성공적인 수신은 오직 한 개의 태그만 응답하였을 경우이며 응답이 없거나 다수개의 태그 응답으로 인해 충돌이 발생한 경우는 실패로 여겨진다.</p> <p>실제 구현에 있어서 충돌감지가 어렵기 때문에 일반적으로 수신된 신호에 대해 디코딩이 가능하면 성공한 것으로 여기고 불가능하면 충돌이 발생한 것으로 간주 한다. EPC의 성공적인 수신은 수신정보에서 CRC에러가 발생하지 않을 경우이며 CRC 의 에러가 발생한 경우는 실패로 여겨지게 되며 구현에 따라 재전송을 요구하거나 단순히 다음 슬롯으로 넘어갈 수 있다. 만약, 응답 명령(ACK)에 대한 태그 응답이 없을 경우는 전 단계에서 디코딩한 RN16에서 에러가 발생 했음을 의미하며 이는 다수 개의 태그가 동시에 응답하여 발생할 가능성이 높음으로 충돌이 발생한 것으로 간주한다. 일반적으로 RN16 단계에서는 충돌 여부 판단이 힘들며 그 다음단계인 응답 명령의 수신여부에 따라 충돌여부를 판단하게 된다.</p> <p>슬롯의 송/수신 과정이 끝나면 다음 슬롯을 시작할지, 새 라운드를 시작할지 아니면 식별이 종료가 되었는지를 판단하는 단계이다. 라운드 시작 시에 Q 값을 설정하게 되는데 식별된 태그 수와 태그 수 추정방식 \( n ^ {\prime } =2.39 C \)에 의해 남은 태그 수를 합산하여 전체 태그 수를 식(9)에 의해 계산할 수 있다.</p> <p>\( Q= \log _ { 2 } n \)<caption>(9)</caption></p> <p>따라서 태그개수 \( n \)이 주어졌을 때 시스템 효율이 최대가 되는 슬롯개수 N 은 식(8)에 의해 계산되고, 최적의 Q 값은 식(9)에 의해 설정할 수 있다.</p> <h1>Ⅳ. 시뮬레이션</h1> <h2>4.1 시뮬레이션 구현 환경</h2> <p>시뮬래이션 구현 환경은 태그, 리더를 MatLab을 이용하여 모델링 하였으며 모의실험에서 설정된 파라미터들은 표 1,2 와 같다. 태그의 개수는 0개에서 무한개까지 설정할 수 있으나 본 논문에서는 현실적인 상황을고려하여 1000 개까지 한정하였다.</p> <h2>4.2 성능평가 인덱스</h2> <h3>(1) 태그 인식시간(Identification Time)</h3> <p>기존의 태그 연구에선 태그 인식시간을 모든 태그들이 리더에 인식될 때까지 시간으로 정의하며 식(10)과 같이 나타낸다.</p> <p>\( N_ {\text { Total } } = \sum_ { i } L_ { i } \)<caption>(10)</caption></p> <p>여기서 \( L_ { i } \) 는 i 번째 라운드의 슬롯 개수를 의미한다. 식(10)은 태그를 인식하기 위해 소요된 슬롯 개수를 의미한다. 상기 식(10)에 따라 태그인식시간은 슬롯 전송에 소요된 시간과 관계없이 모든 슬롯에 소요된 전송시간이 고정되어 있는 것이 아니라 리더와 태그 통신 중 명령어 전송 횟수, 즉, Tari(데이터 전송시간)에 따라 슬롯에 소요된 전송시간은 서로 다르다. 따라서 본 논문에서는 태그인식시간을 식 (11)과 같이 정의한다.</p>
|
태그 개수 n이 주어졌을 때의 최적의 Q 값은 \( Q= \log _ { 2 } n \)이다. 본 실험의 시뮬레이션 구현 환경은 태그, 리더를 MatLab을 이용하여 모델링 하였다. 태그 인식 시간과 관련하여 기존의 태그 연구에서는 태그의 인식 시간을 모든 태그들이 리더에 인식될 때까지 걸린 시간으로 정의한다. 이는 \( N_ {\text { Total } } = \sum_ { i } L_ { i } \)와 같다.
|
<p>\(Identification Time =T_ {\text { Select } } + T_ { 4 } + T_ {\text { Query } } + T_ { 1 } + T_ { R N 16 } \) \( + T_ { 2 } + T_ { A C K } + T_ { 1 } + T_ { E P C } + T_ { 2 } + \ldots \)<caption>(11)</caption></p> <h3>(2) 데이터 처리량(Throughput)</h3> <p>본 논문에서는 Gen2의 데이터 처리량을 다음 식(12)과 같이 정의한다.</p> <p>throughput \( = \frac {\text { Total Transmission Bits } } {\text { Identification Time } } (b p s) \) \( = \frac {\sum_ { i } \left ( \text { Transmission Bits in the } i ^ {\text { th } } \text { Sucoessful Stot) } \right . } {\text { Identification Time } } \) \( = \frac {\text { Data Rate } \times \sum_ { i } \left (i ^ {\text { th } } \text { Sucoessful Stot Tirne } \right ) } {\text { Identification Time } } \) \( = \) Data Rate \( \times \frac {\text { Total Successful Stot Time (onlyconsidering Traffic) } } {\text { Identification Time } } \)<caption>(12)</caption></p> <h3>(3) 시스템 효율(System Efficiency)</h3> <p>Gen2 알고리즘에선 식별 슬롯, 빈 슬롯, 충돌발생 슬롯에 소요된 전송시간이 고정되어 있는 것이 아니라 서로 다르기 때문에 식별슬롯의 개수를 판별하는 것보다 식별 슬롯에 소요된 전송시간을 판별하는 것이 더 바람직하다. 따라서 본 논문에서는 시스템 효율을 식(13)과 같이 정의한다.</p> <p>Systern Efficiency \( = \frac {\text { Total Successful Time } } {\text { Identification Time } } \)<caption>(13)</caption></p> <h2>4.3 성능평가 결과</h2> <p>그림 4 는 태그 개수를 0개에서부터 1000 개까지 증가시킬 경우, 이 때 측정된 각각의 태그인식시간을 보여주고 있다. 그림 4 와 같이 태그의 개수가 증가함에 따라 태그인식시간이 증가하는 것을 볼 수 있다. 제안한 알고리즘을 사용 했을 경우, 태그 개수가 500 개가 넘으면서 기존의 충돌방지 알고리즘보다 약 0.6초 \( (9 \%) \) 정도의 태그 인식시간이 향상되는 것을 볼 수 있다. 그림 5는 태그 개수를 0개에서부터 1000개까지 증가시킬 경우, 이 때 측정된 각각의 데이터 처리량을 보여주고 있다. 그림 5와 같이 기존의 충돌방지 알고리즘을 사용했을 경우, 데이터 처리량이 \( 74 \mathrm { kbps } \)를 기준으로 나타나는 것을 볼 수 있다. 제안한 알고리즘을 사용했을 경우, 기존의 충돌방지 알고리즘보다 \( 4 \mathrm { kbps } \sim 5 \mathrm { kbps } \)가량 데이터 처리량이 향상되는 것을 볼 수 있다. 그림 6은 태그 개수를 0개에서부터 1000개까지 증가 시킬 경우, 이 때 측정된 시스템 효율을 보여주고 있다.</p>
|
성능평가 결과 태그 개수가 0개에서부터 1000개까지 증가하면 태그 인식 시간이 증가하지만 이 알고리즘을 사용했을 경우 태그 개수가 500개가 넘으면서 기존의 충돌방지 알고리즘보다 데이터 처리량이 데이터 처리량이 약 0.6초 \( (9 \%) \) 정도 인식시간이 향상되어 데이터처리량이 \( 74 \mathrm { kbps } \)로 나타나 기존의 충돌방지 알고리즘보다 \( 4 \mathrm { kbps } \sim 5 \mathrm { kbps } \) 향상된다.
|
<p>위의 식(6)을 다시 정리하면 식(7)과 같이 나타낼 수 있다.</p> <p>\( N= \frac { 1 } { 1-e ^ { - \frac { 1 } { n } } } \)<caption>(7)</caption></p> <p>상기 수식을 테일러 급수(Taylor series)를 이용하여 전개하면 다음의 식(8)과 같다.</p> <p>\( N= \frac { 1 } { 1-e ^ { - \frac { 1 } { n } } } = \frac { e ^ {\frac { 1 } { n } } } {\left (e ^ {\frac { 1 } { n } } -1 \right ) } \approx \frac { 1 + \frac { 1 } { n } } { 1 + \frac { 1 } { n } -1 } \approx n \)<caption>(8)</caption></p> <p>태그개수가 주어지면 상기 식(8)을 이용하여 최적의 슬롯개수를 대입법으로 구할 수 있다. 특히 Gen2는 슬롯개수를 슬롯개수 로그 형태인 Q값으로 설정하게 되어있기 때문에 구체적인 N값의 계산보다는 시스템 효율이 최대가 되는 \( Q \) 값을 계산하면 된다. 따라서 본 논문에서는 태그개수 n 과 슬롯개수N 의 관계식에 의하여 슬롯개수를 설정한다. 즉 슬꼿개수 N은 주어진 태그 개수에 식별효율이 최대가 되는 최적의 슬롯개수이다.</p> <h2>3.2 제안하는 알고리즘</h2> <p>본 논문에서 제안하는 Gen2 충돌방지 알고리즘의 흐름도는 그림 3과 같다.우선 태그 선택단계는 선택 명령의 인자와 태그 식별자 정보를 비교하여 매칭되는 태그의 특정 플래그를 임의로 설정함으로서 태그 식별과정에서 원하는 태그들과 통신이 이루어질 수 있도록 한다. 매칭되지 않은 태그들은 대기(ready) 상태에 머물게 된다. 이러한 기능은 전체 태그를 서브 그릅으로 나누어서 식별할 수 있음을 의미한다.슬롯의 송/수신과정은 라운드의 시작 명령인 질의 (QUERY) 명령이나 재질의(QUERYREP) 명령으로 시작하며 이에 대한 응답으로 태그는 16 비트의 랜덤한 값인 RN16을 리더로 송신한다. 성공적으로 RN16 을 수신 한 경우, 리더는 이를 인자로 응답(ACK) 명령을 태그 로 전송하며 이를 수신한 태그 중 해당 RN16을 송신한 태그만 자신의 태그 식별자 EPC 를 리더로 송신한다. CRC 에러검사를 거쳐 성공적으로 수신하였다고 판단 된 경우, 한 개의 태그가 식별된 것이다. 다음 슬롯의 송/수신을 위하여 리더는 재질의 명령을 다시 태그로 전송하며 태그는 RN16으로 응답하며 상기과정을 반복 한다.</p>
|
본 연구에서는 Gen2 충돌 방지 알고리즘의 흐름과 함께 \( N = \frac { 1 } { 1-e ^ { - \frac { 1 } { n } } } \approx n \)에 대한 수식을 제시하였다. 라운드 시작 시 질의(QUERY) 또는 재질의(QUERYREP)를 통해 슬롯의 송/수신이 이루어지며, 성공적으로 RN16을 수신한 경우 해당 RN16을 송신한 태그만 태그 식별자 EPC를 송신한다. 그리고 이후 CRC 에러검사를 거친 후 성공적으로 수신되면 한 개의 태그가 식별되었다고 판단한다.
|
<h1>Ⅲ. 제안하는 충돌방지 알고리즘</h1> <h2>3.1 태그 개수 추정기법</h2> <p>n개의 태그가N개의 슬롯을 사용하여 리더와 통신할 경우 하나의 슬롯 내에 t 개의 태그가 존재할 확률은 이항분포(binomial distribution)를 따르며 다음의 식과 같이 나타낼 수 있다.</p> <p>\( B_ { n, \frac { 1 } { N } } (t) = \left ( \begin {array} { l } n \\ t \end {array} \right ) \left ( \frac { 1 } { N } \right ) ^ { t } \left (1- \frac { 1 } { N } \right ) ^ { n-t } \)<caption>(1)</caption></p> <p>그러므로 한 프레임 혹은 라운드 동안 읽을 수 있는 평균 태그개수는 S로 표기하고 식(2), 평균 빈 슬롯 개수는 E로 표기하고 식(3)과 같이 나타낼 수 있다.</p> <p>\( S=n \left (1- \frac { 1 } { N } \right ) ^ { n-1 } \)<caption>(2)</caption></p> <p>\( E=N \left (1- \frac { 1 } { N } \right ) ^ { n } \)<caption>(3)</caption></p> <p>슬롯개수의 설정은 시스템 효율이 최대가 되는 슬롯 개수를 설정함으로서 가능하다. 시스템 효율 T는 식(4)과 같이 정의하고 있다.</p> <p>\( T= \frac {\text { 식별된슬롯 개수 } } {\text { 전체 슬롯 개수 } } \)<caption>(4)</caption></p> <p>위의 식(4)을 다시 정리하면 식(5)과 같이 나타낼 수 있다.</p> <p>\( T= \frac { S } { N } = \frac { n } { N } \left (1- \frac { 1 } { N } \right ) ^ { n-1 } \)<caption>(5)</caption></p> <p>태그개수 \( n \) 이 주어졌을 때 시스템 효율이 최대가 되는 슬롯개수 N은 식 (5)를 n에 대하여 미분하여 그 결과를 0으로 하는 힘수를 구함으로서 얻을 수 있다.</p> <p>\( \frac { d T } { d N } =- \frac { n } { N ^ { 2 } } \left (1- \frac { 1 } { N } \right ) ^ { n-1 } + \frac { n } { N } (n-1) \left (1- \frac { 1 } { N } \right ) ^ { n-2 } \frac { 1 } { N ^ { 2 } } =0 \)<caption>(6)</caption></p>
|
하나의 슬롯에 t 개의 태그가 있는 확률은 이항분포로 나타낼 수 있으며, n 개의 태그가 N 개의 슬롯과 통신할 때 평균 태그 개수(S)와 평균 빈 슬롯 개수(E)는 각각 식(2)와 식(3)으로 표기된다. 시스템의 효율을 최대화하기 위해 슬롯 개수를 설정할 수 있으며, 태그 개수 n 에 대해 식(5)를 미분하여 결과가 0이 되는 슬롯 개수 N 을 구할 수 있다.
|
<h1>4. 실험 결과 및 분석</h1> <h2>4.1실험 데이터</h2> <p>학습 말뭉치로는 1,705,935문장(18,529,683)어절의 조선일보 신문기사(이하 신문기사 말뭉치)를 사용하였다. 평가 말뭉치로는 100여명의 대학생 휴대폰에서 실제로 수집한 1,038개의 문자메시지(이하 휴대폰 평가 말뭉치)를 사용하였다. 실험의 신뢰성 확보를 위해서 신문기사 말뭉치에 10배 교차검증(10-fold cross validation)을 수행하여 올바른 문자열을 철자 오류로 잘못 판단하는 비율을 측정하였다. 휴대폰 평가 말뭉치는 통신어와 신조어를 포함하는 실제 철자 오류문장에 대한 제안 모델의 성능을 평가하기 위해 구축한 것이다. 휴대폰 평가 말뭉치를 이용한 실험은 신문기사 말뭉치 전체를 학습하여 구축한 시스템을 이용하였다. 휴대폰 평가 말뭉치는<표 4>와 같이 3가지 형태(원본 문장, 공백을 모두 제거한 문장, 원본에서 띄어쓰기만 교정한 문장)로 가공하여 실험을 진행하였다. 원본 휴대폰 평가 말뭉치는 약 25Kbyte크기에 1,038개의 문자메시지로 구성되며 1,835개의 어절로 이루어졌다.</p> <p> <표 4>에서 보는 것과 같이 교정사전의 오류문자열과 매칭된 문자열은 실제 오류문자열이거나 옳은 문자열이 부분 매칭된 경우로 나뉜다. 교정사전은 평가 말뭉치 수집과는 무관하게 별도로 구축하였으며, 통신언어 어휘집에서 중의성이 많은 1음절 어휘와 적용 가능성이 매우 낮은 어휘들을 제거하는 방법으로 구축하였다. 또한 인터넷 검색과 대학생들에게 설문을 통해 자주 틀리는 어휘들을 평가 말뭉치 수집 이전에 수작업으로 추가하였다. 결론적으로 평가 말뭉치와는 완전히 독립적으로 1,990개의 오류문자열과 교정문자열의 쌍을 포함하는 교정사전을 구축하였다.</p> <h2>4.2 평가 방법</h2> <p>제안 모델을 평가하기 위해서 오교정률(miss-correction rate)과 이진 분류기 성능 측정 방법을 사용하였다. 신문기사 말뭉치는 일반적으로 철자 오류의 비율이 낮은 편에 속한다. 그러므로 교정사전에 등록된 오류 문자열이 신문기사 말뭉치에서 나타났다면 옳은 문자열이 부분 매칭된 것일 가능성이 높다. 이러한 가정을 뒷받침하기 위해서 신문기사 말뭉치와 매칭된 문자열의 철자오류 여부를 판단하는 실험을 수행했으며, 그 결과 \( 5 \% \)만이 실제 철자 오류 문자열이었다. 본 논문에서는 상기한 가정에 기초하여 제안 시스템이 옳은 문자열을 틀리게 교정하는 비율인 오교정률을 계산한다. 오교정률은 신문기사 말뭉치에 식 (5)를 사용하여 10배 교차 검증으로 계산한다. 신문기사 말뭉치에 철자 오류가 \( 5 \% \) 포함되어 있지만 식 (5)의 분모와 분자에 오류의 영향이 모두 미치기 때문에 실제 오교정률과 계산된 오교정률 사이에 심각할 정도의 큰 차이는 없을 것으로 생각된다.</p> <p>오교정률 \( =\frac{\text { 제안시스템이 교정한문자열의 수 }}{\text { 테스트 데이터와 교정사전 내 오류문자열이 매칭된수 }} \)<caption>(5)</caption></p> <p>이진 분류기 성능 측정 방법은<표 5>를 기반으로 식(6)~(9)를 계산하는 것이다. 본 논문에서는 휴대폰 평가 말뭉치에 제안 시스템을 적용시켜<표 >를 얻고, 이를 기반으로 식 \( (6) \sim(9) \)와 같은 다양한 척도를 이용하여 제안 모델의 성능 측정을 하였다.</p> <p>정확률 \( =\frac{\text { true positive }}{\text { true positive }+\text { false positive }} \)<caption>(6)</caption></p> <p>재현율 \( =\frac{\text { true positive }}{\text { true positive }+\text { false negative }} \)<caption>(7)</caption></p> <p>\( F 1- \) 척 도 \( (F 1- \) measure \( )=\frac{2^{*} \text { 정확률*재현율 }}{\text { 정확률 }+\text { 재현율 }} \)<caption>(8)</caption></p> <p>위양성률 \( ( \) false \( - \) positive rate \( )=\frac{\text { false positive }}{\text { true positive }+\text { false positive }} \)<caption>(9)</caption></p>
|
학습 말뭉치의 경우 1,705,935문장의 조선일보 신문기사를 사용하였으며, 평가 말뭉치의 경우 대학생 100여명의 휴대폰에서 수집한 1,038개의 문자메시지가 사용하였다. 휴대폰 평가 말뭉치는 통신어와 신조어를 포함하고 있는 실제 철자 오류문장에 대한 제안 모델의 성능 평가를 목적으로 구축한 것이다. 휴대폰 평가 말뭉치를 이용한 실험은 신문기사 말뭉치 전체 학습을 통하여 구축한 시스템을 활용하였다.
|
<h1>요 약</h1> <p>인터넷 및 모바일 환경의 빠른 발전과 함께 신조어나 줄임말과 같은 철자 오류들을 포함하는 텍스트들이 활발히 통용되고 있다. 이러한 철자 오류들은 텍스트의 가독성을 떨어뜨림으로써 자연어처리 응용들을 개발하는데 걸림돌이 된다. 이러한 문제를 해결하기 위해서 본 논문에서는 철자오류 교정사전과 신문기사 말뭉치를 이용한 철자 오류 교정 모델을 제안한다. 제안 모델은 구하기 쉬운 신문기사 말뭉치를 학습 말뭉치로 사용하기 때문에 데이터 구축비용이 크지 않다는 장점이 있다. 또한 교정사전 기반의 단순 매칭 방법을 사용하기 때문에 띄어쓰기 교정 시스템이나 형태소 분석기와 같은 별도의 외부 모듈이 필요 없다는 장점이 있다. 신문기사 말뭉치와 실제 휴대폰에서 수집한 문자 메시지 말뭉치를 이용한 실험 결과, 제안 모델은 다양한 평가 척도에서 비교적 높은 성능(오교정률 \(7.3 \% \), F1-척도 \(97.3 \% \), 위양성율 \(1.1 \% \))을 보였다.</p> <p>키워드 : 철자 오류 교정 모델, 신문기사 말뭉치, 철자 오류 교정 사전</p> <h1>1. 서 론</h1> <p>인터넷, 메신저 또는 휴대폰 등을 사용하여 문자를 주고 받을 때는 자신의 의도를 빠르게 표현해서 전달해야 하기 때문에 철자 오류가 발생하는 경우가 빈번하다. 이런 철자 오류들은 타이핑(typing) 실수 또는 맞춤법 지식의 부재 때문에 발생하는 기본적 철자 오류와 일부러 맞춤법에 어긋나게 적는 의도적 철자 오류로 나눌 수 있다. 의도적 철자 오류는 구어체적 특성을 가지는 오류가 많으며 신조어, 비속어, 줄임말, 약어, 은어, 맞춤법 파괴 등이 섞여 발생한다. 또한 의도적 철자 오류는 유행 및 시기에 따라 변화하며 새로 생성되고 사라지는 특징을 가진다. 이와 같은 철자 오류를 포함한 문장은 형태소 분석을 기반으로 한 정보 추출 또는 정보 검색 등의 상위 자연어 처리 응용의 성능을 떨어뜨린다. 따라서 이런 철자 오류의 특성에 맞는 철자 오류 교정 시스템이 필요하다. 본 논문에서는 교정 사전과 신문기사 말뭉치를 이용하여 통계적으로 철자 오류를 교정하는 시스템을 제안한다. 제안 시스템은 실용성을 높이기 위해서 철자 오류 문자열의 추가와 삭제가 쉬운 교정 사전을 기반으로 한다. 또한 효율적인 통계 학습을 위해서 철자 오류가 비교적 적고 수집이 용이한 신문기사를 학습 말뭉치로 사용한다. 사용자로부터 문장이 입력되면 제안 시스템은 단순한 패턴 매칭(pattern matching) 방법을 이용하여 교정 사전에 등록된 문자열을 철자 오류 후보 문자열로 분류한다. 그리고 신문기사를 이용하여 학습된 문맥정보를 기반으로 철자 오류 후보 문자열이 진짜 오류 문자열인지를 판단한다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서 철자 오류 표정에 관한 연구들을 살펴보고, 3장에서는 제안하는 철자 오류 교정 모델을 자세히 설명한다. 4장에서 실험 데이터 및 평가척도를 설명하고, 다양한 실험 결과를 보인다. 마지막으로 5장에서 결론을 맺는다.</p> <h1>2. 관련연구</h1> <p>철자 오류에 관한 기존 연구로는 일반 사전을 사용한 방법, 형태소 분석결과를 이용한 방법, 자소 단위 철자 오류 교정 방법, 교정사전을 사용한 방법 등이 있었다. 일반 사전을 사용한 철자 교정은 주로 영어권 국가들이 사용하는 방법으로 모든 입력문장의 각 단어들을 일반 사전에서 검색한 후, 일반 사전에 존재하지 않는 단어는 철자 오 류라고 가정한다. 철자 오류로 가정된 문자열은 편집거리(edit-distance), 메타폰(metaphone) 알고리즘 등을 사용하여 해당 단어와 사전의 단어 중 거리가 가까운 교정 후보를 생성한다. 그리고 생성된 여러 교정 후보들 중 정답에 가장 가까운 단어를 선택하여 교정하는 방법이다. 이러한 일반 사전 기반의 방법은 모든 철자 오류 후보 단어들을 미리 구축해야 하는 단점이 있으며, 용언의 활용이 많은 한국어의 경우에는 어휘의 기본형을 찾는데 따르는 비용이 클 뿐만 아니라 잘못된 기본형을 찾을 가능성이 높다는 단점이 있다. 형태소 분석 결과를 이용한 방법은 형태소분석기에서 분석이 실패한 어절은 철자 오류가 포함된 오류어절로 판단한다. 오류어절에 대해 교정규칙정보와 말뭉치통계정보를 적용하여 철자 오류를 교정한다. 형태소 분석기를 사용하는 방법은 형태소 분석기의 성능에 의존적이며 철자 오류 교정 문제에 형태소 분석 문제가 추가되어 복잡도가 증가하는 단점이 있다. 자소 단위 철자 오류 교정 방법은 자소 단위의 변환확률을 이용한다. 자소 변환확률은 오류가 포함된 말뭉치와 그 말뭉치를 수작업으로 표정한 말뭉치를 자소단위로 일대일 대응시켜 계산한다. 자소 단위 철자 교정 방법은 오류가 포함된 말뭉치를 수작업으로 교정하여 병렬말뭉치를 생성해야 하는 단점이 있다. 표정사전을 사용한 방법은 단계별 사전과 형태소 분석 결과를 이용하기 때문에 위에서 언급한 단점들을 복합적으로 포함한다. 이러한 기존 철자오류 교정 모델들이 가지고 있는 문제점들을 해결하기 위해서 본 논문에서는 신문기사나 교과서와 같이 철자 오류가 거의 없는 말뭉치만을 이용하여 통계적으로 철자 오류를 교정하는 방법을 제안한다.</p>
|
인터넷 및 모바일 환경의 빠른 발전과 함께 신조어나 줄임말과 같은 철자 오류들을 포함하는 텍스트들이 활발히 통용되고 있으며 이러한 철자 오류들은 텍스트의 가독성을 떨어뜨림으로써 자연어처리 응용들을 개발하는데 걸림돌이 된다. 이러한 문제를 해결하기 위해서 본 논문에서는 철자오류 교정사전과 신문기사 말뭉치를 이용한 철자 오류 교정 모델을 제안하며 제안 모델은 구하기 쉬운 신문기사 말뭉치를 학습 말뭉치로 사용하기 때문에 데이터 구축비용이 크지 않다는 장점이 있고 또한 교정사전 기반의 단순 매칭 방법을 사용하기 때문에 띄어쓰기 교정 시스템이나 형태소 분석기와 같은 별도의 외부 모듈이 필요 없다는 장점이 있다.
|
<h2>3.2 철자 오류 교정</h2> <p>교정 후보 집합 열이 생성되면 철자 오류 교정은 식 (1)과 같이 다수의 교정 후보 중에서 문맥에 맞는 최적의 교정 문자열을 찾는 문제로 해석될 수 있다.</p> <p>\( M\left(S_{1 \ldots n}\right)=\arg \max _{C_{1 \ldots n}} P\left(C_{1 \ldots n} \mid S_{1 \ldots n}\right) \)<caption>(1)</caption></p> <p>식 (1)에서 \( S_{i} \)는 \( i \)번째 교정 후보 집합을 나타내며, \( C_{i} \)는 \( S_{i} \)에 포함된 하나의 교정 후보이다. \( n \)은 생성된 교정 후보 집합의 수이다. 식 (1)을 예를 들어 도식적으로 표현하면 (그림 3)과 같다.</p> <p>식 (1)을 만족하는 \( C_{i \ldots n} \)를 구하기 위해 \( P\left(C_{1 \ldots n} \mid S_{1 \ldots n}\right) \)을 베이즈 정리를 이용해 풀면 식 (2)와 같다.</p> <p>\( M\left(S_{1 \ldots n}\right)=\arg \max _{C_{1 \ldots n}} P\left(C_{1 \ldots n} \mid S_{1 \ldots n}\right) \)\( \\=\arg \max _{C_{1 \ldots n}} \frac{P\left(S_{1 \ldots n} \mid C_{1 \ldots n}\right) P\left(C_{1 \ldots n}\right)}{P\left(S_{1 \ldots n}\right)} \)\( \\ \approx \operatorname{arg~max}_{C_{1 \ldots n}} P\left(S_{1 \ldots n} \mid C_{1 \ldots n}\right) P\left(C_{1 \ldots n}\right) \)\( \\ \approx \operatorname{arg~max}_{C_{1 \ldots n}} \prod_{i=1}^{n} P\left(S_{i} \mid C_{i}\right) P\left(C_{i}\right) \)<caption>(2)</caption></p> <p>식 (2)에서 \( P\left(C_{i}\right) \)는 교정 후보인 \( C_{i}^{e r r o r} \) 또는 \( C_{i}^{\text {correct가 }} \) 나타날 확률로써 본 논문에서는 학습 말뭉치에서 후보 문자열이 출현한 수를 기초로 하여 식 (3)과 같이 계산한다.</p> <p>\( P\left(C_{i}\right) \approx \frac{\operatorname{freq}\left(C_{i}\right)}{\operatorname{freq}\left(C_{i}^{\text {error }}\right)+\operatorname{freq}\left(C_{i}^{\text {correct }}\right)} \)<caption>(3)</caption></p> <p>식 (3)에서 \( \operatorname{freq}\left(C_{i}^{e r r o r}\right) \)와 \( \operatorname{freq}\left(C_{i}^{\text {correct }}\right) \)는 \( i \)번째 교정 후보 집합에 포함된 오류문자열과 교정문자열이 학습 말뭉치에서 출현한 횟수를 각각 의미한다. 예를 들어서, (그림 2)의 2번째 교정 후보 집합에서 '욕시'가 나타날 확률은 '\(\mathrm{P}(\text{욕시}) =\mathrm{freq}(\text{욕시})/(\mathrm{freq}(\text{욕시})+\mathrm{freq}(\text{역시}))\)'이며, '역시'가 나타날 확률은 '\(\mathrm{P}(\text{역시}) =\mathrm{freq}(\text{역시})/(\mathrm{freq}(\text{욕시})+\mathrm{freq}(\text{역시}))\)'이다.</p> <p>식 (2)의 \( P\left(S_{i} \mid C_{i}\right) \)는 교정 후보 집합에서 특정 교정 후보가 선택될 확률로써 본 논문에서는 식 (4)와 같이 주변 문맥을 이용하여 계산한다.</p> <p>\( P\left(S_{i} \mid C_{i}\right) \approx \prod_{k=1}^{m} P\left(f_{i}^{k} \mid C_{i}\right) \)<caption>(4)</caption></p> <p>식 (4)에서 \( f_{i}^{k} \)는 \( C_{i} \)의 문맥으로 사용되는 \( k \)번째 자질이며, \( m \)은 사용된 자질의 수이다. 예를 들어서, 문맥으로 사용하는 자질이 교정 후보 좌우 1음절 이라면 \( m \)은 2가 되며, (그림 2)의 2번째 교정 후보 집합에서 '욕시'가 선택될 확률은 '\(\mathrm{P}(\mathrm{S}_{2} \mid \text{욕시}) = \mathrm{freq}(\text{뉴욕시})/\mathrm{freq}(\text{욕시})*\mathrm{freq}(\text{욕시에})/\mathrm{freq}(\text{욕시})\)'이다.</p> <p>학습 시스템은 학습 말뭉치에서 교정사전의 문자열이 출현한 수와 식 (4)에 사용되는 자질이 출현한 수를 저장한다. 본 논문에서는 식 (4)에 사용된 자질에 따라 다양한 모델을 만들었으며, 각 모델이 사용하는 자질은 4.3절에서 자세히 설명한다. 확률 계산이 끝나면 비터비(Viterbi) 알고리즘을 사용하여 최적의 교정 후보열을 결정한다.</p>
|
교정 후보 집합 열이 생성되면 철자 오류 교정은 다수의 교정 후보 중에서 문맥에 맞는 최적의 교정 문자열을 찾아 학습 말뭉치에서 후보 문자열이 출현한 수를 기초로하여 계산한다. 학습 시스템은 학습 말뭉치에서 교정사전의 문자열이 출현한 수와 식 \( P\left(S_{i} \mid C_{i}\right) \approx \prod_{k=1}^{m} P\left(f_{i}^{k} \mid C_{i}\right) \)에 사용되는 자질이 출현한 수를 저장하여 확률 계산이 끝나면 비터비 알고리즘을 사용하여 알맞은 교정 후보열을 결정한다.
|
<h1>요 약</h1> <p>본 논문은 수면 환경이 개인 수면에 미치는 영향 분석과 최적 수면 환경을 산출하는 연구이다. 입출력 데이터 집합을 선정하고 뉴로-퍼지 기법을 이용해 최적화된 수면 환경 정보를 산출한다. 수면 지속 시간을 고려한 최적의 수면 환경을 제공한다. 제안된 방법을 통해 산출된 각성 비율은 \( 12 \% \)이며, 기존 연구에 비해 최소 \( 5 \% \) 낮은 각성 비율을 얻었다.</p> <h1>1. 서 론</h1> <p>일상생활에서 수면은 자연스럽게 반복되며 휴식을 취하는 행위를 말한다. 무의식 상태에서 상대적으로 감각 기관이 활동을 중단하며 대부분의 신체 활동도 최소화 하는 것이 특징이다. 자극에 대한 반응이 줄어드는 것으로 수면 중 각성과 구별되며, 쉽게 의식을 되돌릴 수 있다는 점에서 동물의 겨울잠이나 혼수상태와는 구분된다.</p> <p>수면의 질에 영향을 미치는 요인은 크게 내적 요인과 외적 요인으로 구분지어 설명된다. 내적요인은 수면 중 뇌파, 심박의 변화와 같이 내적으로 발생하는 요인이며, 외적요인은 수면 환경 온도, 습도, 이산화탄소 농도, 조도 등의 요소가 있다. 내적요인을 추적하기 위한 방법들은 대부분 외적요인인 수면 환경의 영향을 받는다․ 수면 시 체온은 주변 기온의 영향을 받으며 수면 환경이 너무 덥거나 추울 경우 혹은 호흡량(산소 섭취량)이 부족할 경우처럼 쾌적하지 못한 수면 환경은 각성 상태를 유도하게 된다. 따라서 쾌적한 수면 환경은 수면 중 각성을 방지할 수 있으므로 양질의 수면 유도에 중요한 요소이다.</p> <p>이에 따라 수면 중 다양한 환경 제어 방법이 제안되어 왔다. 하지만 이러한 연구는 수면 중 실제 신체 상태를 반영하지 않고 실험 참여자 개인의 수면 만족도에 기반을 두거나 계절에 따른 외부의 기온이나 기타 환경적인 상태 변인만 고려하여 최적 수면 환경을 산출하고자 하였다. 이처럼 수면 환경 제어 방식은 개인의 수면 환경 선호도나 신체 변화 상태를 반영하지 못하는 한계가 존재한다.</p> <p>앞서 설명한 일관적인 수면 환경 제어 방식의 문제를 해결하고자, 본 연구는 수면 상태를 측정할 수 있는 머리띠 형태의 디바이스(Head Mounted Device, HMD)로 수면 단계 중 각성 상태를 수집하고 환경 센서를 이용하여 수면 환경을 수집한다. 수집된 두 종류의 신호를 함께 고려하여, 수면 환경에 따른 개인 수면 각성을 산출하고 개인 최적화된 수면 환경을 산출한다. 또한 실시간으로 해당 환경으로 유도할 수 있는 방법을 제안한다.</p>
|
본 논문에서는 수면 환경이 개인 수면에 미치는 영향을 분석하고, 입출력 데이터 집합을 선정하고 뉴로-퍼지 기법을 이용해 최적 수면 환경을 산출하였으며, 실험 결과 논문에서 제안한 방법을 통해 산출된 각성 비율은 \( 12 \% \)이며, 기존 연구에 비해 최소 \( 5 \% \) 낮은 각성 비율을 보였다.
|
<h1>3. 본 론</h1> <p>퍼지시스템(Fuzzy System)은 시스템을 정량적으로 분석하여 인간의 추론 능력을 근사시킨 시스템 분석 방법이다. 입력 데이터 집합의 관계가 모호한 특징이어도 경험적으로 알려져 있거나, 정성적으로 연관성이 확인된 시스템에 효과적이다. 퍼지이론은 설정된 소속 함수에 의해 지식이 표현되며, 추론된 IF-THEN 규칙들의 조합에 의한 분석 방법이다. 다양한 입력 변수에 의해 정성적으로 표현된 애매모호한 값을 정량적으로 표현하는데 효과적이다. 그러나 전문가의 제언으로 만들어진 규칙에 기인해야 더욱 효과적인 특징이 있으므로 상대적으로 주관적인 소속 함수를 갖는 단점이 있다.</p> <p>반면에 신경망 시스템(Artificial Neuro System)은 실험이나 경험에 의해 생성된 정보를 학습하여 데이터들의 상호 관계를 스스로 확인 할 때 효과적이다. 이러한 두 방법을 결합하는 연구에서는 인공신경망의 가중치 값에 의한 분산으로 지식이 표현된다. 뉴런들의 특성을 추출하고, 역전파와 같은 최적화 기능을 활용한 다중합 연산을 통해 학습된다. 특정 환경에서의 실험이나 반복적으로 발생하는 경험으로부터 수집된 데이터를 학습하여 그들의 상관관계를 스스로 정립할 수 있으며 객관적인 분석이 가능하다. 더불어 전문가 지식 기반의 제언을 따르며 객관적인 규칙 설계를 통해 유용성이 강화될 수 있다.</p> <p>뉴로-퍼지 시스템(Neuro-Fuzzy System)은 신경망 시스템의 학습 기법을 이용하여 퍼지시스템에 적용한 방법으로, 인간의 사고 작용과 같이 학습하고 인식하는 기능을 하는 지능적인 시스템을 만드는 것을 목표로 하는 모델이다. Fig. 1과 같이 크게 총 4단계로 구분되어진다. 인공신경망을 사용함으로써 퍼지시스템 규칙을 자동적으로 알맞게 결정한다. 입력받은 정보를 이용하여 규칙을 생성하고 규칙들로부터 얻어진 출력 결과 값을 합하여 입력된 정보에 의한 출력 기대 값으로 산출된다. 전문성을 위해 경험적인 정보를 추가하며 규칙을 생성하는데, 입력 정보가 경험적으로 알려져 있으며, 보다 전문적인 정보일수록 뉴로-퍼지시스템의 유용성은 강화된다.</p> <h2>3.1 파라미터 추출</h2> <p>실험이 진행되는 동안 수집한 수면 외적 요인인 환경 정보로부터 파라미터를 추출한다. 파라미터는 실험이 진행되는 동안 수집한 온도, 습도, 이산화탄소 농도이며, 실제 수면에 미치는 영향은 각성으로 확인한다. HMD 형태의 1채널 뇌파밴드인 Sleep Zeo를 착용하고 실험을 실시한다. 분당 2 Sample의 분해능을 갖으며 수집된 데이터 중 수면의 각성 상태로 출력된 정보를 사용한다.</p> <p>실제 수면이 시작한 순간부터 1시간 동안의 수면 외적 요인인 환경 정보와 수면 단계를 함께 수집한다. 수면 외적 요인이 실제 수면에 미치는 영향을 확인하기 위해 수집된 온도, 습도, 이산화탄소 농도(환기량)의 정보를 특징 값으로 산출한다. 선정된 특징 값은 1시간 동안의 평균값이다. 대조군으로 사용할 수면 단계는 Sleep Zeo로 부터 수집한다. 수집된 수면 단계는 Deep Sleep, Light Sleep, REM(Rapid Eyes Movement, REM), Wake 총 4단계로 구성되어 있으며, 사용자가 환경에 영향을 받아 각성하는 Wake단계를 한 시간 내 발생한 비율로 계산하여 표현한다. 입력변수 \( x_{1} \)은 온도의 평균값이며 \( x_{2} \)는 습도 \( x_{3} \)는 이산화탄소 농도이다. 출력변수 \( y \)은 해당 시간에서의 각성 비율이다. 10일 동안 5시간 씩 수집된 수면 환경 정보는 입력변수마다 전체 50개의 정보를 갖게 된다. 입력변수 \( x_{1}, x_{2}, x_{3} \) 하루 5시간 씩 10일 동안 수집되어 전체 50개의 정보를 갖으며 이 때 출력변수 \( y \)은 해당 환경에서의 각성 비율이다. 수집 된 한 시간 단위의 수면 외적 요인의 특징 값과 수면 단계 중 각성의 비율은 각각 뉴로-퍼지 시스템의 입력 데이터 집합과 출력 데이터 집합으로 사용한다.</p>
|
뉴로-퍼지 시스템은 실험이나 경험에 의해 만들어진 정보를 학습하여 데이터들의 상호 관계를 스스로 확인하는 신경망시스템의 학습 기법을 이용하여 시스템을 정량적으로 분석하여 인간의 추론 능력을 근사시킨 퍼지 시스템에 적용한 방법으로, 인간의 사고 작용과 같이 학습하고 인식하는 기능을 하는 지능적인 시스템을 만드는 것이 목표인 모델이다. 실험을 진행하는 동안 온도, 습도, 이산화탄소 농도의 파라미터를 수집한 수면 외적 요인인 환경 정보로부터 추출한다.
|
<h1>2. 관련 연구</h1> <p>기계적 환경(Case1)과 자연 환경(Case2)에서 실험을 진행한 연구에서는 수면 환경 요인이 미치는 영향은 수면의 만족도를 기반으로 측정한다. 실제 실험자의 자연 환경에서의 실험은 실내 온도 \( 27.5^{\circ} \mathrm{C} \), 습도 \( 59 \% \sim 90 \% \), 이산화탄소 농도 \( 500 \sim 1100 \mathrm{ppm} \)으로 나타났다. 그러나 자연 환경에서는 응답자의 \( 80 \% \) 이상이 매우 덥다는 불괘함을 표현하였으며 외부 날씨에 따라 습도의 영향이 큰 특징이 있다. 기계적 제어를 이용한 실험에서는 \( 20^{\circ} \mathrm{C} \)의 온도를 유지하도록 실험을 진행하며 실제 측정된 온도는 \( 22^{\circ} \mathrm{C} \sim 25^{\circ} \mathrm{C} \)이다. 두 방법의 실험을 따르면 환경적 요인은 고려해야 할 점이 많으며 독립적인 환경 요소만으로는 수면의 영향 분석을 입증하기는 어렵다.</p> <p>습도와 온도 노출 환경에서의 수면 단계 및 체온에 대한 수면 영향 분석 연구에서는 수면 환경을 초반과 후반으로 분할하여 환경을 다르게 하는 실험을 진행했다. 초반 3시간 45분 동안 \( 26^{\circ} \mathrm{C}, 50 \% \) 환경에서 실시한 후 후반 3시간 45분에는 \( 32^{\circ} \mathrm{C}, 80 \% \)로 변경시킨 후 피부 온도와 피 실험자의 수면 단계의 분석을 실시했다. 환경 변화에 따른 수면 단계의 변화를 검출 실험으로 초기 단계의 습한 열 노출은 수면 단계 분포 및 체온 조절에 영향을 미치기 때문에 수면 초기 단계의 공기 조절은 이후 수면 시간대보다 효과적이다.</p> <p>여름철 야간 수면 실태와 실내온도 조건에 따른 수면 중 신체 변화를 연구하여 쾌적 수면을 위한 온열 환경을 제시하는 연구에서는 다양한 수면 환경을 조성하고 변인에 대한 만족도를 통해 결과를 분석한다. 주변 환경에 대한 수면 만족 설문 조사 결과 너무 덥거나 습하지 않은 환경에서의 만족도가 가장 높았으나 실제 평균 피부 온도 차이는 \( 0.1^{\circ} \mathrm{C} \sim 1^{\circ} \mathrm{C} \) 정도 차이로 나타났으며 수면 지속 시간에 따른 온도 변화가 필요하다고 한다. Table 1에서 살펴본 바와 같이 기존 연구들은 일관된 온도나 습도 이산화탄소 농도(환기량)와 같이 특정 환경만을 최적 수면 환경으로 선정하여 수면의 지속 시간이나 환경 변화에 따른 신체 상태를 고려하지 못한다. 또한 대부분의 기존 연구에서는 습도나 이산화탄소 농도(환기량)보다는 온도에 집중되어 있으며, 각각의 환경 요인이 수면의 질에 끼치는 영향을 설명하기에는 한계가 있다. 수면의 원리를 이용하여 수면 지속 시간을 고려하는 연구에서는 온도 변화에 따른 수면 만족도 고려하였지만 이 역시 실시간적인 신체 상태를 반영하지 못하고 있다.</p> <p>따라서 본 연구에서는 실제 수집한 환경 정보와 피 실험자의 각성 정보를 이용하여 수면 중 환경 요인이 인체에 미치는 영향을 확인한다. 뿐만 아니라 수면 환경 정보를 이용하여 개인 최적화된 수면 요인 산출하고 숙면으로 유도하는 분석 방법을 제안한다.</p>
|
수면의 환경적 요인은 변수가 많으므로 독립적인 환경 요소로는 수면 영향을 입증하기는 어렵다. 또한 기존 연구들은 특정 환경만을 최적 수면 환경으로 선정하여 수면의 지속 시간이나 환경 변화에 따른 신체 상태를 고려하지 못하며, 연구가 온도 변수에 집중되어 있어 습도나 이산화탄소 농도(환기량)같은 환경 요인의 영향을 설명하지 못한다. 따라서 본 연구에서 수집한 환경 정보와 피 실험자의 각성 정보를 이용하여 환경 요인이 수면 중 인체에 미치는 영향을 확인하고, 개인 최적화된 수면 요인을 산출하여 숙면 유도 가능한 분석 방법을 제안코자 한다.
|
<h1>4. 결 과</h1> <p>본 논문은 수면 외적 요인인 환경 요소의 정보와 사용자의 제어 요소를 분석하는 방법을 제안하였다. 본 논문에서는 여름철 수면 환경에서 실험을 시행한다. 실험 대상자의 평소 수면 만족은 외부 환경 변화에 큰 영향이 없는 실험자로서 극단적인 환경이 아닌 환경(온도 \( 29^{\circ} \mathrm{C} \), 습도 \( 50 \% \), 이산화탄소 농도 \( 700 \mathrm{pp} \) )에서 무리 없이 수면을 한다. 수집된 10일의 수면 데이터를 활용하여 제안하는 방법을 적용한 결과 특정 사용자의 사용자 환경에 맞는 환경 정보를 판단할 수 있었다.</p> <p>수집된 수면 데이터를 입면 시각 기준으로 Fig. 4와 같이 한 시간 간격으로 절삭하여 해당 시간에 대한 입력 데이터 집합과 출력 데이터 집합을 선정하였다. 시간의 연속성을 고려해 첫 시간을 제외한 나머지 시간의 데이터에서는 이전 시간의 입력 데이터 집합과 출력 데이터 집합을 함께 고려하여 이전 시간의 환경 요소에 대한 영항을 함께 고려했다. 기존 연구에서 제안하는 환경 제어와 비교 했을 때 수면 중 환경이 각성에 미치는 영향 요소는 온도, 습도, 이산화탄소 농도(환기량)가 고려되었으며 연구에 따라 고려하지 않은 요소도 존재했다. 입면으로부터 기상 직전까지 매 시간마다 수면 환경 요인인 온도, 습도, 이산화탄소 농도를 수집하고 그 때의 실험자의 수면 단계를 수집한다. 온도, 습도, 이산화탄소 농도를 입력 데이터 집합으로 선정하고 그 때의 각성상태를 출력 데이터 집합으로 선정한다. 뉴로-퍼지를 적용하여 출력된 결과는 Fig. 4이며 이산화탄소-습도, 이산화탄소-온도, 습도-온도의 환경에서 사용자의 각성비율을 표현한다. 3차원 그래프에서 높은 영역으로 표시될수록 각성의 비율이 높은 환경을 출력하는 것이며 그 순간의 환경정보를 확인 할 수 있다. 데이터가 부족한 경우에서는 그렇지 않은 경우보다 정확도가 감소할 수 있지만 뉴로-퍼지의 학습 기반의 정보 분석을 통해 그래프의 연장된 추세를 바탕으로 예측하여 결과를 추론할 수 있다.</p> <p>본 논문에서 제안하는 Case5 환경에서는 Table 2와 같이 온도에 대한 영향요인으로 각성비율 약 \( 12 \% \)가 발생하였다. 그러나 습도, 이산화탄소 농도에 대한 각성비율은 발생하지 않았다. 본 연구에서 제안하는 뉴로-퍼지를 통해 추론된 결과에서 실험자의 각성은 발생하였으나, 습도나 이산화탄소 농도의 요인을 통한 각성은 발생하지 않았다. 이는 뉴로-퍼지 연구에서 개인마다 가장 최적의 결과를 출력해주는데 본 실험에서는 각성이 발현하지 않는 영역으로 추론해주었기 문이다. 기존 연구 중 모든 영향 요인을 고려한 두 실험 중 Case1에서는 온도 \( 18 \% \), 습도 \( 5 \% \) 이산화탄소 농도 \( 0 \% \) 정도의 각성을 유발하는 요인이 있었고 Case2에서는 온도 \( 18 \% \), 습도 \( 38 \% \), 이산화탄소 농도 \( 17 \% \)의 각성 비율로 출력되었다. 기존 연구에서 제안하는 환경 중 가장 낮은 각성 비율 출격한 연구 Case 4는 이산화탄소 농도(환기량)를 고려하지 않았으며 전체 수면에서 온도는 본 연구보다 \( 5 \% \) 정도 낮았지만 습도에서는 \( 10 \% \) 정도 높은 각성 비율을 유발하는 것으로 나타났다. 본 논문에서 제안하는 환경 Case5에 비해 이산화탄소 농도(환기량)을 고려하지 않았음에도 약 \( 5 \% \) 많은 수치이다.</p> <p>그러나 기존 연구를 재현하는 실험에서 본 논문이 제안하는 환경과 완벽하게 동일한 환경으로 통제하지 못했다. 특히 실험 환경이 여름철 수면 환경으로 한정적이다. 뿐만 아니라 기존 연구에서 실험한 피 실험자와 본 연구에서 실험한 피실험자의 대상이 서로 다른 신체적 특성을 가졌기 때문에 기존 연구에서 제안한 방법에 대한 신체적 변화가 기존 연구에서의 결과와는 차이가 있을 수 있었다. 하지만 기존 연구 재현 실험과 본 논문에서 제안하는 실험대상자는 동일인물 이었으며 신체적 특성에 대한 차이는 크기 않았다.</p>
|
본 논문은 수면 외적 요인인 환경 요소와 사용자의 제어 요소를 분석하는 방법을 제안함에 있어 10일간의 수면 데이터를 활용하여 적용한 결과 특정 사용자의 환경에 맞는 환경 정보를 판단할 수 있었는데, 기존 연구의 환경 제어와 비교하여 수면 중 환경이 각성에 미치는 영향 요소로 온도, 습도, 이산화탄소 농도(환기량)가 고려되어 개인마다 가장 최적의 결과를 출력해주는 뉴로-퍼지를 통해 추론된 결과로는 실험자의 각성은 발생하였으나, 습도나 이산화탄소 농도의 요인을 통한 각성은 없었던 것으로 나타났다.
|
<h2>3.2 뉴로-퍼지 시스템의 소속 변수 선정</h2> <p>뉴로-퍼지 시스템을 사용하기 위해 입력 데이터 집합과 출력 데이터 집합으로 구성된 훈련 데이터 집합이 필요하다. 뉴로-퍼지 모델에서 입력 벡터와 출력 벡터가 주어질 때 단일 퍼지화와 규칙 생성, 중간 평균 디퍼지화를 사용하여 결과를 추론한다.</p> <p>입력 데이터 집합은 실제 수면 실험 동안 수집한 수면 외적 요인인 환경 정보에서 온도, 습도, 이산화탄소 농도를 사용한다. 각 환경 정보는 입면 시작으로부터 한 시간 단위로 구분하며 각 시각 내 입력 데이터의 평균값을 입력 값으로 선정한다.</p> <p>출력 데이터 집합은 실제 수면 동안 수집한 수면 단계 중 각성 단계를 이용한다. 수면 중 각성 단계를 검출하며 한 시간 대비 각성 단계의 비율을 결과 값으로 선정한다.</p> <h2>3.3 퍼지 추론 시스템의 생성</h2> <p>구축한 퍼지 시스템은 입력 데이터 집합 기반으로 독립적인 변수 3개의 소속 함수와 출력 데이터 집합 기반의 변수 1개를 갖도록 설정한다. 뉴로-퍼지 시스템에서 소속 함수는 미분 가능한 형태의 연속성을 가져야 한다. 소속 함수는 다양한 분포 중 가우시안 분포를 선정하였으며, 입력 데이터 값의 특징을 고려하여 한 입력 변수 당 3개의 가우시안 분포를 설정하며 가우시안 함수의 중간 값과 표준편차를 설정한다.</p> <p>생성할 뉴로-퍼지 모델은 4층 구조이다. 첫 번째 층은 \( L_{1} \)로 표기하며 입력 층이다. 입력 층에서는 입력 데이터 집합이 입력되는 층이다. 각 시간대 별로 뉴로-퍼지를 구성하여 온도 \( \left(x_{1}\right) \), 습도 \( \left(x_{2}\right) \), 이산화탄소 농도 \( \left(x_{3}\right) \)가 입력된다. 각각 두번째 층 \( L_{2} \)는 퍼지 변수층으로씨 입력 집합 \( x \)에 대한 소속 정도를 계산한다. 이 층에는 입력 개수만큼 총 3개의 그룹으로 이루어져 있으며 각 그룹은 3개의 퍼지 규칙 수 만큼 이루어진다. \( m \in L_{2} \)번째 그룹, 각 규칙의 뉴런 출력은 가우스 소속 함수의 출력으로 Fquation (1)과 같다. 이 때 한 입력변수 당 가우스 함수의 정보는 3개이다. 따라서 \( L_{2} \)에서 생성된 전체 소속 함수는 9개가 생성된다.</p> <p>\[ \mu=\exp \left(-\frac{\left(x^{2}-w\right)^{2}}{\sigma^{2}}\right) \]<caption>(1)<caption></p> <p>이 때 \( L_{1} \)와 \( L_{2} \)사이에서 선정되는 가중치 \( w \)와 \( \sigma \)는 퍼지 소속 함수 가우시안의 중앙값과 폭이다.</p> <p>세 번째 층 \( L_{3} \)은 다중 곱셈 연산에 의해 규칙이 Fig. 3과 같이 생성되는 층이다. 퍼지 분석에 사용하는 데이터만을 이용하여 규칙을 생성하기 때문에 각 입력 소속 함수의 데이터 범주 내에서 분석이 이루어진다. 이 층에서 생성된 뉴런은 퍼지 규칙의 수와 같으며 뉴런의 출력은 Equation (2)와 같다.</p> <p>\[ \mu(x)=\prod_{27 \in L_{2}} \mu x \]<caption>(2)<caption></p> <p>\( L_{2} \)층에서 생성된 소속 함수의 특징과 입력 소속 함수의 값이 IF-THEN 규칙으로 생성된다. 규칙을 통해 생성된 각각의 영향을 분석하여 네 번째 층 \( L_{4} \)에서 최종 출력 값을 표현한다. 입력 벡터 \( x \)에 대하여 뉴런의 출력은 Equation (3)이며, \( \nu \)는 총 27개의 규칙 뉴런과 출력 뉴런을 연결하는 가중치이다. 다중합 연산을 통해 해당 시각대 별로 각성에 영향을 미치는 입력 요인을 확인 할 수 있다.</p> <p>\[ y(x)=\frac{\sum_{27 \in L_{3}} \mu x w}{\sum_{27 \in L_{3}} \mu x} \]<caption>(3)<caption></p>
|
뉴로-퍼지 모델에서 입력 및 출력 벡터 정보를 이용, 단일 퍼지화, 규칙 생성, 중간 평균 디퍼지화를 통해 결과를 추론할 것이며, 이때 입력 데이터 집합은 실제 수면 실험 간 수집된 온도, 습도, 이산화탄소 농도이며 출력 데이터 집합은 수집된 수면 단계 중 각성 단계이다. 결과적으로 퍼지 시스템은 입력 데이터 집합 기준 독립변수 3개의 소속 함수와 출력 데이터 집합 기준 변수 1개를 갖도록 설정하며, 소속 함수는 가우시안 분포를 기반으로 입력 변수 당 3개의 가우시안 분포를 설정하였다.
|
<h2>3.4 퍼지 추론 시스템의 훈련</h2> <p>퍼지 시스템의 파라미터를 최적화하기 위해 역전파 알고리즘을 사용한다. 시스템에 훈련 입력과 출력 정보가 들어오면 이미 계산된 시스템의 출력 값을 다시 훈련하여 퍼지 규칙을 재정의하는 방법이다. 특징벡터의 값이 입력 층으로 들어가면 연결강도가 곱해져 모든 합을 구한 후 은닉 층의 활성화 함수로 전달된다. 이와 은닉 층의 계산 결과 값은 같은 방법으로 다시 출력 층으로 전달되어 신경망의 출력 값으로 계산된다. 따라서 원하는 목표 출력 값에 대한 신경망의 출력값 오차는 Equation (4)와 같이 정의된다.</p> <p>\[ E_{n}=\frac{1}{2} \sum_{k}\left(y_{n}-t_{n}\right)^{2} \]<caption>(4)<caption></p> <p>이 평균오차를 최소화하기 위해 다음식과 같이 연결강도를 변화시키는 식을 사용한다. 역전파 알고리즘을 적용하여 모든 훈련 데이터 오차의 합으로 사용하면 된다. 오차의 가중치에 대한 값을 계산하기 위해 Equation (5)를 사용한다. Equation (6)은 입력에 대한 출력의 지역적 민감도(local sensitivity)를 측정하는 용도로 사용 가능하다.</p> <p>\[ \begin{array}{l} V(n+1)=V(n)-\alpha(n) \nabla J(V(n)) \\ \end{array} \]<caption>(5)<caption></p> <p>\[ \begin{array}{l} \nabla J(V)=\left[\frac{\partial J(V)}{\partial V_{1}}, \cdots, \frac{\partial J(V)}{\partial V_{27}}\right]^{T} \end{array} \]<caption>(6)<caption></p> <p>위의 과정은 오차가 원하는 수렴 조건에 만족될 때까지 반복되면서 최종적으로 얻은 학습 결과는 연결 강도에 저장되어 새로운 정보에 대한 판단에 적용된다. 이는 훈련을 중단하는 기준으로 이용한다. 시스템의 훈련은 허용 오차율과 세대의 반복을 설정하여, 입력 소속 함수들이 지정된 허용 오차 내에 들어간 후 중지된다. 훈련 오차는 훈련 데이터의 출력 값과 같은 훈련 데이터 입력에 대응되는 퍼지 시스템의 출력 간 차이를 뜻한다.</p> <h2>3.5 퍼지 시스템의 테스팅</h2> <p>생성된 뉴로-퍼지 시스템은 각각 한 시간 단위로 생성된 시스템이다. 입면으로부터 한 시간 간격으로 생성된 뉴로-퍼지 시스템은 하나의 상태를 갖는다. 수면 시간 동안 수면 외적 환경 요인은 시간에 따라 자연스럽게 변화하는 특징이 있다. 따라서 수집된 입력, 출력 데이터 셋을 이용한 뉴로-퍼지 시스템은 매 시간마다의 수면에 대한 각성 비율을 파악할 수 있다.</p> <h2>3.6 퍼지 시스템의 훈련</h2> <p>한 시간 동안의 수면 환경 정보를 이용한 뉴로-퍼지 시스템은 Fig. 4와 같이 출력된다. \( X \)축 입력 값과 \( Y \)축 입력 값의 영향을 분석하여 출력된 뉴로-퍼지 시스템이다. 3차원 평면에서 푸른색을 나타내는 영역은 낮은 출력 값을 표현하며, 노란색으로 나타나는 영역은 높은 출력 값을 표현한다. 출력값이 낮을수록 각성의 비율이 낮은 환경이다. 각 시간마다 피 실험자가 각성하는 환경과 해당 요소를 분석하여, 개인 최적화된 숙면 환경인 푸른색 영역으로 유도하는 환경 요소를 산출한다.</p>
|
퍼지 시스템의 파라미터 최적화를 위해 역전파 알고리즘을 사용하며, 연결강도의 변화를 통해 평균오차를 최소화한다. 퍼지 시스템의 훈련은 허용 오차율의 세대 반복을 설정한 뒤, 입력 소속 함수들이 허용 오차 내에 들어가면 중지된다. 이때 수집된 입출력 데이터 셋을 이용한 뉴로-퍼지 시스템은 매 시간 수면중의 각성 비율을 파악할 수 있으며, 피 실험자가 각성하는 조건을 분석하여 개인에 최적화된 숙면 환경으로 유도할 수 있는 환경 요소를 계산한다.
|
<h1>요 약</h1> <p>토르 (Tor, The Onion Router)와 같이 다수의 가상 컴퓨터 및 네트워크를 경유함으로써 이용자의 인터넷 접속에 대한 추적을 어렵게 하는 익명 암호통신 네트워크는 데이터 송수신 과정에서의 사용자 및 데이터 프라이버시 보호를 그 운영목적으로 하고 있다. 하지만 이러한 익명 암호통신 네트워크를 통한 불법 콘텐츠 공유 및 무기거래 등 부적절한 용도로의 악용 및 오용에 있어, 기존의 탐지 기법을 적용하거나 적절한 대응책을 마련하기에는 어려움이 따른다. 본 논문에서는 익명 암호통신에서도 특정 사이트에 대한 접근 정보를 높은 정확도로 유추할 수 있는 웹사이트 핑거프린팅 (website fingerprinting) 기법을 확장하여, 특정 사이트 뿐 아니라 알려지지 않은 사이트에 대헤서도 서비스 유형을 특정하고 분류하는 방법을 강구함으로써 악의적 목적에 활용될 수 있는 은닉 사이트 또는 잠재적 불법 사이트에 대환 식별 방안을 제시한다.</p> <h1>1. 서 론</h1> <p>정보통신기술의 발달과 더불어 공개 채널을 사용하는 인터넷의 대중화로 검열 및 도청 등에 따른 사용자 및 데이터에 대한 프라이버시 침해 우려가 커지면서, 데이터 송신 전에 암호화를 수행하는 암호통신 기술을 적용하는 사례 또한 급격히 증가하고 있다. 하지만 암호통신은 개인정보보호를 넘어 악의적 목적을 지닌 사용자에 의한 불법 콘텐츠 공유, 마약 및 무기류 거래, 개인정보 매매, 악성코드 배포 등에 악용될 가능성이 증가함에 따라 암호통신 트래픽에 대한 분석의 중요성 또한 꾸준히 증가하고 있다. Zscaler에 따르면 암호 통신을 이용한 공격이 해마다 \( 314 \% \)씩 증가하는 추세를 보이며, SonicWall에 따르면 암호통신을 이용한 위협은 전년 대비 \( 21 \% \) 증가한 것으로 보고되었다. 이는 사용자 및 데이터 프라이버시 보존을 위한 암호통신을 수행하는 경우라 하더라도 악의직 목적으로 운영될 수 있는 사이트에 대한 특정과 해당 사이트에 접근하는 사용자 트래픽 분석의 필요성을 반증하는 것이라 할 것이다.</p> <p>대표적 익명 암호통신 프로젝트인 토르(TOR: The Onion Routing)에서는 전 세계에 물리적으로 분산된 다수의 가상 컴퓨터 및 라우터를 주기적으로 변경하여 경유하면서 계층화된 암호 패킷을 복호화함으로써 네트워크 우회 및 익명화를 제공한다. 하지만 최근 소개된 웹사이트 핑거프린팅(website fingerprinting) 기법은 머신러닝 기법을 활용하여 사용자가 접속하는 웹사이트를 높은 확률로 식별할 수 있다. 하지만 학습된 특정 웹사이트에 대한 접근 및 학습되지 않은 사이트에 대한 접근 여부만을 판단하기 때문에 딥 웹(deep web) 등 대중에게 알려지지 않거나 사전에 데이터를 수집하기 어려운 웹 사이트에 대해서는 사용자가 접근하는 사이트가 어떤 서비스를 제공하는지 특정하기 어렵다는 제한이 있다. 따라서 본 논문에서는 특정 사이트에 대한 식별에서 나아가 웹사이트의 서비스 유형에 따른 특징을 분석하고 분류하는 방법을 모색함으로써 알려지지 않은 불법 또는 악용 가능성이 있는 사이트에 대한 분류를 수행한다.</p>
|
이 논문은 익명 암호통신 네트워크를 악용한 불법 콘텐츠 공유와 무기거래 등에 대응하기 위한 새로운 접근 방식을 제안한다. 웹사이트 핑거프린팅 기법을 확장하여, 특정 사이트뿐 아니라 알려지지 않은 사이트에 대해서도 서비스 유형을 특정하고 분류할 수 있게 함으로써 잠재적 불법 사이트를 식별하는 방안을 강구하였다. 이에 더해, 사용자와 데이터에 대한 프라이버시 침해를 방지하기 위해 데이터 송신 전 암호화를 수행하는 암호통신 기술의 활용도 증가하고 있다는 점을 언급하였다.
|
<h2>3.2 전처리</h2> <p>본 연구에서는 \( [10,11] \)에서 활용한 트래픽 내에서 각 패킷의 방항성만 고려한 \( 1 \)차원 특징 벡터를 활용하였으며, Sirinam et al. 의 연구에서 논의되었던 성능향상을 위한 패킷 방향과 함께 패킷 크기까지 고려할 수 있도록 머신러닝 학습을 위한 고정 길이 입력으로 트래픽마다 \( 5,000 \)개의 패킷까지만 고려하였다.</p> <h2>3.3 학습 데이티셋 레이블링</h2> <p>학습 및 검증, 테스트 과정에서 기존 연구와 제안 기법의 성능 분석을 위하여 아래와 같이 각 사이트에 대한 레이블링을 수행하였다.</p> <ul> <li>웹사이트 각각에 대한 레이블</li> <li>\( 4 \)개 서비스 유형에 대한 레이블</li> <li>특정 서비스(지도/뉴스/쇼핑/스트리밍) 해당 여부에 대한 이진 레이블</li></ul> <h2>3.4 학습 결과</h2> <p>\( 1 \)) 웹사이트별 트래픽 패턴</p> <p>기존 연구에서의 동일 웹사이트에서의 트래픽은 유사한 패턴을 보임을 확인할 수 있는데, 날씨 정보를 제공하는 darksky.net 웹사이트에 대하여 서로 다른 시점에 웹사이트 접속 트래픽을 수집하여 시각화한 결과는 Fig. \( 2 \)와 같다. \( \mathrm { x } \)축은 시간의 경과를 나타내며, \( \mathrm { y } \)축은 해당 시점에 송수신되는 데이터의 양을 의미하며, 사이한 시점에 수집한 트래픽이라 하더라도 동일 웹사이트 접근에서는 유사한 트래픽 패턴을 보이는 것을 확인할 수 있다.</p> <p>\( 2 \)) Open World에서의 웹사이트/서비스 분류</p> <p>Open World (OW) 분류는 학습 데이터에 사용되지 않은 웹사이트를 입력으로 하여, 분류 정확도를 파악하는 것으로, 전세계 모든 웹사이트에 대한 데이터셋을 충분히 확보하지 못하는 상황에서 알려지지 않은 웹사이트의 식별 및 해당 웹사이트가 제공하는 서비스 유형을 유추하기 위한 방법이다. 일반적인 웹사이트 핑거프린팅에서는 주요 관심 웹사이트를 선정하여 특정 웹사이트의 접근 여부만을 판별하는 이진 분류를 적용하는 반면, 본 연구에서는 학습에 사용되지 않은 웹사이트라 하더라도 서비스 유형에 따라 학습된 모델을 이용하여 제공되는 서비스 유형을 유추하는 것을 목표로 한다.</p> <p>Fig. \( 3 \)은 패킷 방향만을 고려한 경우로, 서비스별 분류 정확도는 \( 0.68250 \) ( \( 29 \) epoch)으로 가장 높게 나타났다. epoch은 모든 학습 데이터셋에 대하여 완료 학습 사이클의 수를 의미하며, 전체 데이터셋을 사용하여 몆 번의 반복 학습을 거쳤는지를 epoch의 수로 표현하였다. 나머지는 특정 서비스 유형별 이진 분류를 수행할 때의 결과로 여러 유형을 한 번에 분류하는 것보다 상대적으로 높은 정확도를 보인다. 지도 서비스는 \( 0.77250 \) ( \( 28 \) epoch), 뉴스 서비스는 \( 0.94500 \) ( \( 27 \) epoch), 쇼핑 서비스는 \( 0.6500 \) ( \( 25 \)~ \( 27 \) epoch), 스트리밍 서비스는 \( 0.74250 \) ( \( 27 \) epoch)의 정확도를 보였다.</p>
|
본 연구에서는 해당 웹사이트가 학습에 사용되지 않았더라도 서비스 유형에 따라 학습된 모델을 이용하여 제공되는 서비스 유형을 유추하는 새로운 방안을 제시한다. 각 패킷의 방항성만을 고려한 1차원 특징 벡터를 활용하였으며, 패킷 방향과 함께 패킷 크기까지 고려할 수 있도록 트래픽마다 5,000개의 패킷까지만 고려하였다. 동일 웹사이트에 접근시 유사한 트래픽 패턴을 보이는 점을 활용하여, 알려지지 않은 웹사이트의 식별 및 해당 웹사이트가 제공하는 서비스 유형을 유추하기 위해 Open World 분류를 사용하였다. 또한, 기존 연구와 제안 기법의 성능 비교 분석을 위하여 학습 데이터셋 레이블링을 수행하였다.
|
<p>\( 3 \)) Open World에서의 서비스 분류 정확도 개선</p> <p>Open World (OW)에 대한 분류 성능은 Closed World (CW)에 비하여 일반적으로 낮은 정확도를 나타내는데, Sirinam et al. 에서는 Open World에서도 \( 90.7 \% \)의 높은 정확도를 보이는 것에 비하여 본 실험에서는 \( 37.5 \)~ \( 46.0 \% \)의 낮은 정확도로 선행 연구 결과와 큰 차이를 보인다. 이는 [ \( 11 \)]에서 사용한 데이터셋의 \( 10 \% \)로 학습을 수행한 데이터셋의 부족에 따른 것과 동일 서비스를 제공하는 웹사이트의 편차에 따른 것으로 볼 수 있다.</p> <p>서비스 유형별 예측 정확도를 높이기 위하여 서비스 유형별 이진 분류기와 \( 4 \)개 서비스 유형에 대한 분류의 예측 확률을 조합하여 예측 정확도를 높이고자 하였다. 서비스 유형별 이진 분류에서 가장 높은 확률과 가장 낮은 확률은 전체 예측에 큰 영향을 미치므로 배제하고 전체 서비스 유형 분류기와 서비스별 이진 분류기에서의 예측 확률의 비율 \( ( \alpha: \beta) \)을 달리하여 정확도를 Table \( 2 \)와 같이 계산하였다. 서비스 유형 분류와 서비스별 이진 분류기의 반영 비율을 \( 4:1 \)로 설정한 경우, 분류 정확도가 최대 \( 78 \% \)까지 높아지는 것을 확인하였다.</p> <h1>4. 결 론</h1> <p>본 연구에서는 암호통신 네트워크에서 사전에 학습된 특정 웹사이트의 접속여부를 판단하는 웹사이트 핑거프린팅을 확장하여, 암호통신을 이용하는 사용자가 접근하는 웹사이트에서 제공하는 서비스 유형을 분류하는 방법을 모색하였다. 실험을 통하여 서비스 유형과 각 서비스 이진 분류기를 조합함으로써 Open World에서도 최대 \( 78 \% \)의 정확도로 서비스 유형을 분류할 수 있음을 확인하였다. 향후 패킷의 다양한 특성 등의 조합을 통하여 특정 웹사이트 뿐 아니라 알려지지 않은 웹사이트에서 제공하는 서비스 유형에 따른 분류 정확도를 높일 수 있는 기법에 대한 기초가 될 것으로 생각하며, 향후 연구에서는 다양한 앙상블 기법을 적용하여보다 많은 서비스 유형에 대한 암호통신에서의 서비스 유형 분류 연구를 수행할 계획이다.</p>
|
본 연구에서는 웹사이트 핑거프린팅을 확장해서 사용자가 접근하는 사이트의 유형을 분류하였다. 서비스 유형 분류와 이진분류기 비율을 4대 1로 설정하였을 때 정확도가 78%까지 증가하였다. 이후 연구에서는 다양한 앙상블 기법으로 다양한 서비스 유형의 분류 연구를 수행할 계획이다.
|
<h1>2. 관련 연구</h1> <p>암호통신 네트워크 분석은 포트 기반 분석, 심층패킷분석, 트래픽 분석 등으로 분류될 수 있다. 포트 기반 분석은 동적 포트 할당에 따라 신뢰도가 떨어지며, 심층패킷분석(deep packet inspection, DPI)은 암호통신으로 인한 페이로드의 접근이 제한되어 높은 정확도를 확보하기 어렵다. 트래픽 분석은 통계적 특성 및 행위 정보를 입력으로 하는 머신러닝 기법을 활용한 분석 기법으로 전문가에 의한 특징 추출 및 각 데이터에 대한 레이블링(labeling)이 수작업으로 이루어지는 것에 기반하고 있어, 충분한 데이터 확보가 어렵다는 제약이 있다. 이에 수작업 기반 트래픽 분석에서의 효율성 저하를 극복하기 위한 암호통신 분석 연구가 활발히 이루어지고 있다.</p> <h2>2.1 익명 암호통신 네트워크</h2> <p>대표적인 익명 암호통신 네트워크인 토르(Tor)는 Fig. 1과 같이, 사용자가 궁극적으로 접속하고자 하는 웹사이트가 아닌 엔트리 노드(entry node)에 접속을 하면 토르 네트워크 내의 여러 중계 노드(relay node)를 거처 최종 노드(exit node)에서 사용자의 요청 및 응답을 대신 주고받기 때문에 사용자가 접근하는 웹사이트를 직접 확인하기 어렵게 한다.</p> <h2>2.2 딥러닝 활용 암호통신 트래픽 분석</h2> <p>딥러닝을 활용한 암호통신 트래픽 분석은 암호문에 대한 복호화 과정을 거치지 않은 상태에서 수집된 트래픽의 특징만을 학습함으로써 암호문을 분류하는 것으로, 정확도 향상을 위한 다수의 연구가 발표되었다. Chen et al. 은 수작업에 의한 특징 추출 및 오프라인 분석의 한계점 극복을 위하여 합성곱 신경망(CNN)을 적용하여 온라인 트래픽 분석이 가능한 프레임워크를 개발하였다. Wang et al. 은 분할 정보 기반의 머신러닝을 활용하는 경우 발생하는 국부 최적해 문제를 해결하기 위하여 1차원 CNN을 활용하여 암호통신에서 비선형 관계로 표현되는 사용자 행동을 특정하는 오프라인 분석 기법을 제시하였다. Lotfollahi et al. 은 머신러닝에서 수작업 의존에 따른 전반적 특징 추출의 한계점 개선을 위하여 CNN과 SAE(stacked auto-encoder)의 두 가지 딥러닝 기법을 활용하여 자동으로 VPN을 이용한 통신을 식별하는 'deep packet' 기법을 제시하였다. 딥러닝 학습을 위한 데이터셋의 불균형 문제를 해결하기 위한 연구도 다양하게 이루어지고 있는데,Vu et al. 은 AC-GAN (auxiliary classifier-GAN)을 활용하여 불 균형 데이터셋을 합성한 후 SVM, 의사결정 트리, random forest를 통하여 학습하고 트래픽을 식별하는 방법을 제시하였다. Rezaei와 Liu 는 인위적 스크립트로 만들어져 레이블된 데이터가 실제 트래픽과 다른 분포를 가지는 제약을 극복하고자 샘플링된 시계열 특징을 이용한 준지도 CNN 기반 딥러닝 기법을 통하여 오프라인으로 암호통신을 분석하는 기법을 제시하였다. Aceto et al. 은 모바일 기기에서 일관된 데이터셋의 확보가 어려운 상황에서 패킷의 헤더와 페이로드로부터 CNN, LSTM, SAE, MLP를 활용한 딥러닝 학습을 통하여 온라인 분석을 수행하고 사용된 애플리케이션 식별을 위한 연구를 수행하였다.</p>
|
암호통신 네트워크의 트래픽 분석은 수작업 기반의 레이블링으로 인한 효율성 저하 문제를 극복하기 위한 암호통신 분석 연구가 활발히 이루어지고 있다. 익명 암호통신 네트워크인 토르(Tor)는 접속하고자 하는 웹사이트가 아닌 네트워크 내의 여러 중계 노드를 거처 요청 및 응답을 대신 주고받기 때문에 사용자가 접근하는 웹사이트를 직접 확인하기 어렵고, 딥러닝을 활용한 암호통신 트래픽 분석은 암호문에 대한 복호화 과정을 거치지 않고 수집된 트래픽의 특징만으로 암호문을 분류하여 정확도 향상을 위한 다수의 연구가 발표되었다.
|
<h1>I. 서 론</h1> <p>최근 위치 기반 서비스(Location Based Service:LBS)는 여러 분야와 결합되어 다양한 서비스가 제공되고 있는데, 이를 위한 기반 기술로서 측위(localization)의 중요성이 부각되고 있다. 특히, 실내 지역은 GPS(Global Positioning System) 신호의 수신이 불가능하여 무선 센서 네트워크를 활용한 측위 알고리즘이 활발하게 연구되고 있다. 무선 센서 네트워크를 구성하는 각각의 센서들은 일반적으로 저 전력, 저 사양의 하드웨어로 구성되어 있으므로 이를 이용한 측위 알고리즘들은 정확성과 더불어 간단한 구조와 빠른 연산 속도가 요구된다.</p> <p>현재 제안된 알고리즘들 중에서 위의 요구 사항을 만족시키는 대표적인 알고리즘으로 WCL(WeightedCentroid Localization) 알고리즘이 있다. 다른 알고리즘에 비해 WCL 알고리즘은 각 고정 노드의 좌표 정보만알고 있으면 \(O(n) \)의 연산량으로 간단하게 측위 연산을 수행할 수 있어 연산 속도와 자원적인 면에서 효율적이다. 성능 면에서도 자유 공간에서 평균 6 \( \% \)의 측위 오차성능을 보여 무선 센서 네트워크에 적용시키기 적합하다.</p> <p>하지만 WCL 알고리즘은 고정 노드의 신호가 도달하지 않는 음영지역의 영향으로 전송 범위에 따라 성능편차가 크므로 최적의 성능을 얻기 위해서는 항상 고정노드의 전송 범위를 전체 네트워크 범위의 96 \( \% \) 범위로설정해야 하는 점과 중점 지향 방식의 측위 알고리즘 특성상 각 고정 노드의 전송 범위 외곽지역에서 최대오차가 급격히 증가하는 문제점이 있다. 본 논문에서는 WCL 알고리즘의 문제점을 해결하고 성능도 평균 오차는 5배, 최대 오차는 3배 이상 개선한SRS(Successive Region Setting) 알고리즘을 제안한다. 제안된 알고리즘은 각 고정 노드로부터 받은 신호 세기를 비교하여 사용자 노드가 위치할 가능성이 있는 구역을 순차적으로 좁혀나가고 최종적인 추정 구역이 설정되면 추정 구역의 양쪽 경계점과 가중치를 이용하여 사용자의 위치를 계산하는 방식을 사용한다.</p> <p>전송 범위 감소에 따라 신호가 전송되지 않는 음영지역이 증가하여 측위 정확성이 감소하는 WCL 알고리즘과는 다르게 SRS 알고리즘은 추정 구역 설정 시음영지역 정보도 이용하여 설정하므로 전송 범위 변화에 따른 영향을 거의 받지 않는다. 또한, anchor-based 방식의 대표적인 CL(Centroid Localization), WCL 알고리즘과 같은 중점 지향 방식이 아니라 신호 세기를 비교하여 결정된 기준 노드로부터 추정 구역을 축소하는 방식이므로 각 고정 노드의 전송 범위 외곽지역에서 나타나는 급격한 측위 오차 증가 문제도 발생하지 않는다.본 논문의 구성은 다음과 같다. Ⅱ장의 관련 연구에서는 기존 센서 네트워크의 측위 알고리즘 분류에 대해언급하고 본 연구와 비교 대상인 WCL 알고리즘에 대한 설명과 문제점을 제기한다. Ⅲ장에서는 SRS 알고리즘을 위한 가정과 수행 방식을 기술하고, Ⅳ장에서는제안된 SRS 알고리즘과 WCL 알고리즘에 대하여 시뮬레이션을 통하여 성능을 비교 분석하였다. Ⅴ장에서 본 논문의 결론을 맺는다.</p>
|
현재 제안된 WCL알고리즘이 있는데 본 논문에서 WCL 알고리즘의 문제점을 해결하고 성능도 평균 오차는 5배, 최대 오차는 3배 이상 개선한SRS 알고리즘을 제안하고 각 고정 노드로부터 받은 신호 세기를 비교하여 사용자 노드가 위치할 가능성이 있는 구역을 순차적으로 좁혀나가고 최종적인 추정 구역이 설정되면 추정 구역의 양쪽 경계점과 가중치를 이용하여 사용자의 위치를 계산하는 방식을 사용한다.
|
<p>WCL 알고리즘은 CL 알고리즘의 측위 오차 감소를 위하여 고정 노드의 좌표에 사용자 노드와 고정 노드 사이의 거리 정보를 변환한 가중치 값을 곱하는 방법을 이용한다. 먼저, 거리 정보를 계산하기 위하여 사용자 노드는식 (2)와 같이 각각의 고정 노드로부터 수신 받은 비콘 신호의 RSSI로 수신 신호의 전럭 \( \left (P_ { R x } \right ) \) 을 계산하고 계산된 \( P_ { R x } \) 를 식 (3)의 Friis 자유공간 전파 모델에 대입하여 사용자 노드와 고정 노드 사이의 거리를 결정한다. 식 (3)에서 결정된 거리( \(d \))를 이용하여 식 (4)와 같이 가중치를 계산하고 계산된 가중치를 식 (1)에 대입하여 식 (5)와 같이 측위 연산을 수행한다. \( W_ { i j } { } ^ { 1 } \div \mathrm { C } \mathrm { i } \) 번째 사용자 노드가 \(j \) 번째 고정 노드로부터 계산된 가중치를 의미한다.</p> <p>\( R S S I=10 \cdot \log \frac { P_ { R x } } { P_ {\text { Ref } } } \quad[R S S I]=d B m \) \( P_ {\text { Ref } } =1 m W \)<caption>(2)</caption></p> <p>\( P_ { R x } =P_ { T x } \cdot G_ { T x } \cdot G_ { R x } \left ( \frac {\lambda } { 4 \pi d } \right ) ^ { 2 } \)<caption>(3)</caption></p> <p>\( W_ { i j } = \frac { 1 } {\left (d_ { i j } \right ) ^ { g } } \)<caption>(4)</caption></p> <p>\( \hat { U } _ { i } (x, y)= \frac {\sum_ { j=1 } ^ { N } \left (W_ { i j } \cdot A_ { j } (x, y) \right ) } {\sum_ { j=1 } ^ { N } W_ { i j } } \)<caption>(5)</caption></p> <p>자유 공간 전파 환경에서 WCL 알고리즘은 평균 6 \( \% \)정도의 측위 오차 성능을 보여 CL 알고리즘에 비해 3배정도 성능이 향상되는 것을 시뮬레이션을 통해 확인할수 있다.</p> <h2>3. WCL 알고리즘의 문제점</h2> <p>WCL 알고리즘은 간단한 구현으로 평균 6 \( \% \)대의 측위오차를 보여 기존의 CL 알고리즘에 비해 3배 정도 성능개선 효과를 얻을 수 있으나 1장에서 언급한 것처럼 고정노드의 전송 범위에 따라 성능 편차가 크고 전송 범위 외곽지역에서 측위 오차가 크다는 문제점 때문에 실제 실내 환경에 적용하기 어려운 측면이 있다.고정 노드의 전송 범위에 따른 성능 변화를 그림 1에서 보이고 있다. 그림 1은 43 \( \mathrm { m } \) \( \times \) 43 \( \mathrm { m } \)의 네트워크 환경에서 고정 노드 전송 범위를 1 \( \mathrm { m } \) 간격으로 30 \( \mathrm { m } \)∼ 43 \( \mathrm { m } \)(69.7674 \( \% \)∼100 \( \% \))사이에서 변화시키면서 얻은 WCL 평균 오차이다. 결과를 보면 전송 범위에 따라서 평균 측위오차가 6 \( \% \)∼23 \( \% \)로 약 17 \( \% \) 정도 차이가 나는 것을 확인할 수 있다. 그림 2는 그림 1과 같은 43 \( \mathrm { m } \) x 43 \( \mathrm { m } \)에서 사용자 노드를 1 \( \mathrm { m } \) 간격으로 배치 시켰을 때의 시뮬레이션 결과이다. WCL 알고리즘의 다른 문제점인 전송 범위 외곽지역에서 최대 오차가 발생하는 것을 확인할 수 있다. 위의 문제점들은 다양한 형태와 여러 장애물에 따라 가변적으로 전송 범위를 변화시켜 시스템을 구축해야 하는 실제 실내 환경에 응용되기 힘들고 전력적으로 제한된 센서의 특성 상 전송 범위를 축소시키면서 전력소모를 감소시켜야 하는 경우 성능이 저하될 수 있다. 다른 문제점인 외곽지역에서 발생하는 최대 오차는 전체적인 시스템의 혼란을 야기시킬 수 있기 때문에 실제 환경에 적용시키기 위해서는 반드시 개선되어야 할 사항이다.</p>
|
WCL 알고리즘은 CL 알고리즘의 측위 오차를 줄이기 위해 고정 노드의 좌표에 사용자 노드 및 고정 노드 간의 거리 정보를 변형시킨 가중치 값을 곱할 수 있는 방법을 사용한다. 자유 공간 전파 환경에서 WCL 알고리즘은 평균 6%정도의 측위 오차 성능을 이며 CL 알고리즘에 비교하여 3배의 성능을 향상시켜 시뮬레이션을 통해 확인한다. 또 다른 문제점으로 외곽지역에서 발생되는 최대 오차는 전체적인 시스템의 혼란을 발생하기 때문에 실제 환경에 적용하기 위하여 무조건개선되어야 할 항목이다.
|
<p>\( \begin {aligned} B_ { H } & = \left \{\begin {array} { ll } B_ { 1 } , & A_ { 3 } \text { 로부터 신호를 수신한 경우 } \\ B_ { 2 } , & A_ { 3 } \text { 로부터 신호를 수신하지 못한 경우 } \end {array} \right . \\ B_ { L } &= \left \{\begin {array} { ll } B_ { 2 } , & A_ { 3 } \text { 로부터 신호를 수신한 경우 } \\ B_ { 3 } , & A_ { 3 } \text { 로부터 신호를 수신하지 못한 경우 } \end {array} \right . \end {aligned} \)<caption>(6)</caption></p> <p>양쪽 경계점의 좌표를 계산하기 위해서는 예상 경계점 \(B_ { 1 } \) , \(B_ { 2 } \) 그리고 \(B_ { 3 } \) 의 좌표를 계산해야 한다. \(B_ { 1 } \) 과 \(B_ { 3 } \) 경계점의 좌표는 식 (7), (8)과 같이 기준 노드의 좌표와 거리 반경으로 간단하게 계산할 수 있지만 \(B_ { 2 } \) 의 경우에는 \(A_ { 1 } \) 의 거리 반경과 \(A_ { 3 } \) 의 전송 범위 반경의교점이므로 식 (9)와 (10)으로 표현되는 두 원의 교점을이용하여 계산해야 한다. 식 (10)의 \(Tr \)은 각 고정 노드의 최대 전송 범위를 의미한다</p> <p>\( B_ { 1 } (x, y)=A_ { 1 } (x, y) + \left (d_ { 1 } / \sqrt { 2 } , d_ { 1 } / \sqrt { 2 } \right ) \)<caption>(7)</caption></p> <p>\( B_ { 3 } (x, y)=A_ { 1 } (x, y) + \left (d_ { 1 } , 0 \right ) \)<caption>(8)</caption></p> <p>\( \left (x-A_ { 1 } (x) \right ) ^ { 2 } + \left (y-A_ { 1 } (y) \right ) ^ { 2 } =d_ { 1 } ^ { 2 } \)<caption>(9)</caption></p>
|
\(B_ { 1 } \) 과 \(B_ { 3 } \) 경계점의 좌표는 기준 노드의 좌표와 거리 반경으로 간단히 계산되나, \(B_ { 2 } \)는 \(A_ { 1 } \) 의 거리 반경과 \(A_ { 3 } \) 의 전송 범위 반경의 교점이기 때문에 두 원의 교점을 이용하여 계산한다.
|
<p>\( \left (x-A_ { 3 } (x) \right ) ^ { 2 } + \left (y-A_ { 3 } (y) \right ) ^ { 2 } = \operatorname { Tr } ^ { 2 } \)<caption>(10)</caption></p> <p>수식을 간단하게 하기 위하여 \( A_ { 1 } (x, y) \) 의 좌표를 \( (0,0) \) 이라 가정하면, \( A_ { 3 } (x, y) \) 의 좌표는 \( A_ { 1 } \) 과 네트워크 범위 \( N_ { r } \) 을 이용하여 \( \left (0, N_ { r } \right ) \) 이 되므로 식 (9) 와 (10)은 식 (11), (12)로 변경되고 \( B_ { 2 } \) 의 좌표는 식 (13)과 같이 구할 수 있다.</p> <p>\( x ^ { 2 } + y ^ { 2 } =d_ { 1 } ^ { 2 } \)<caption>(11)</caption></p> <p>\( x ^ { 2 } + \left (y-N_ { r } \right ) ^ { 2 } =T ^ { 2 } \)<caption>(12)</caption></p> <p>\( B_ { 2 } (x, y)= \left ( \pm \sqrt { d_ { 1 } ^ { 2 } -R ^ { 2 } } , R \right ) \)<caption>(13)</caption></p> <p>여기서 \( R= \frac { N_ { r } ^ { 2 } + d_ { 1 } ^ { 2 } -T_ { r } ^ { 2 } } { 2 N_ { r } } , 0 \leq B_ { 2 } (x, y) \leq N_ { r } \)</p> <p>최종적인 추정 구역의 설정과 설정된 추정 구역의 상 \( \cdot \)하측 경계점의 좌표가 계산되면 사용자 노드의 추정위치 \( ( \hat { U } ) \)는 식 (15)와 같이 양쪽 경계점의 중점으로 계산된다. 그러나 양쪽 경계점의 중점으로 사용자 노드의위치를 계산하면 연산은 간단하지만 사용자 노드의 실제 위치가 특정 경계점에 근접해 있어도 항상 추정 구역 내의 중점으로 수렴하는 현상이 나타난다. 이를 해결하기 위하여 본 논문에서는 가중치를 설계하였다. 가중치 설계 원리에 대한 내용은 3절에서 언급한다.기준 노드나 인접 노드의 방향성이 다른 경우에도 경계점 좌표 계산에 관한 기본 식은 같고 x, y 좌표 축변환 또는 + , - 연산의 차이만 있으므로 본 논문에서는 생략하였다.</p> <p>\( \hat { U } (x, y)= \left (B_ { H } (x, y) + B_ { L } (x, y) \right ) / 2 \)<caption>(15)</caption></p> <h2>3. 가중치 설계 원리</h2> <p>사용자 노드의 중점 수렴 현상을 방지하기 위한 가중치는 추정 구역의 양쪽 경계점과 인접 노드 중에서신호 세기가 가장 큰 인접 노드를 이용하여 설계하였다. 상대적으로 거리가 가까운 인접 노드와 상측 경계점 사이의 거리를 \(d_ { BH } \) , 하측 경계점 사이의 거리를 \(d_ { BL } \) 이라 정의하면 그림 11과 같이 사용자 노드가 상측경계점으로 다가갈수록 인접 노드와의 거리( \(d_ { 2 } \) )는 \(d_ { BH } \) 와 같아지고 반대로 하측 경계점에 다가갈수록 \(d_ { BL } \) 과 같아진다. 식 (16)으로 표현되는 \(d_ { 2 } \) 의 범위를 이용하여 식 (17)과 같이 가중치를 설계하면 가중치 값은 사용자 노드가상측 경계점에 가까울수록 1에 가까워지고 하측 경계점에 근접할수록 0으로 수렴하므로 이를 이용하여 사용자노드가 어느 경계점 근처에 있는지를 판단 할 수 있다.설계된 가중치를 위의 사용자 노드 좌표 계산 식(15)에 대입하면 SRS 알고리즘을 위한 최종적인 사용자 노드의 좌표는 식 (18)과 같이 된다.</p> <p>\( d_ { B L } \leq d_ { 2 } \leq d_ { B H } \)<caption>(16)</caption></p> <p>\( W= \frac { d_ { 2 } -d_ { B_ { L } } } { d_ { B_ { H } } -d_ { B_ { L } } } , \quad 0 \leq W \leq 1 \)<caption>(17)</caption></p> <p>\( \hat { U } (x, y)=W \cdot B_ { H } (x, y) + (1-W) \cdot B_ { L } (x, y) \)<caption>(18)</caption></p>
|
가중치는 사용자 노드의 중점 수렴을 방지하기 위해 추정 구역의 양쪽 경제점과 인접 노드 중 가장 큰 세기의 인접 노드를 이용해 설계하는데 가중치를 설계하면 가중치 값은 사용자 노드가 사용자 노드가 상측 경계점에 가까울수록 1에 수렴하고 하측 경계점에 근접할수록 0으로 수렴해서 사용자 노드가 어느 경계점 근처에 있는지를 판단 할 수 있으며, 설계된 가중치를 위의 사용자 노드 좌표 계산 식에 대입하면 SRS 알고리즘을 위한 최종적인 사용자 노드의 좌표가 된다.
|
<h3>다. 인접 노드의 최대 전송 범위를 이용한 추정구역 최소화</h3> <p>전력 소모를 줄이기 위하여 무선 센서 네트워크에서는 개별 고정 노드의 전송 범위가 전체 네트워크 영역을 포함하도록 하지 않는 것이 일반적이다. 이와 같은전력 제한된 무선 센서 네트워크에서는 그림 7과 같이고정 노드마다 신호가 도달되지 않는 음영지역이 발생하게 된다. 기존의 제안된 알고리즘들은 사용자 노드가특정 고정 노드로부터 신호를 수신하지 못하는 음영지역에 위치하게 되면 좌표 계산 시 이용할 수 있는 고정노드 수가 적어지므로 음영지역이 증가 할수록 측위의정확성이 저하되는 특성을 가진다.</p> <p>성능 저하의 주된 원인인 음영지역 문제를 다른 관점에서 고려해보면 특정 고정 노드에게서 신호를 수신하지 못했다는 것은 사용자 노드가 그 노드의 전송 범위밖에 위치하고 있다는 것을 의미하는 정보가 될 수 있다. 따라서 음영지역과 관련된 정보는 사용자 노드가전체 네트워크 범위 내에서 대략적인 자신의 위치 정보를 획득할 수 있는 지표로 이용될 수 있다.본 알고리즘에서는 이와 같은 음영지역 정보를 인접노드들의 전송 범위에 적용시켜 최종적인 추정 구역을 결정하는데 사용한다. 기준 노드 결정 후 인접 노드들의 거리를 비교하는 단계에서 사용자 노드는 2개의 인접 노드로부터 모두 신호를 수신했는지 여부를 판단한다. 만약 하나의 인접 노드로부터만 신호를 수신하였으면 다른 인접 노드의 전송 범위 밖에 위치해 있는 것을알 수 있고 반대로 2개의 인접 노드로부터 모두 신호를 수신하였으면 상대적으로 멀리 있는 인접 노드의 전송범위 안에 자신이 위치하고 있다고 추정하게 된다.</p> <p>그림 8의 예는 기준 노드가 \(A_ { 1 } \) 이고 다음으로 가까운 인접 노드가 \(A_ { 2 } \) 로 결정 되었을 때, \(A_ { 3 } \)인접 노드로부터의 신호 수신 여부에 따른 추정 구역의 결정을 보이고 있다. 그림 (a)는 \(A_ { 3 } \) 로부터 수신하지 못한 경우 \(A_ { 3 } \)의 전송 범위 밖으로 사용자 노드의 추정 구역을 결정하는 것을 나타내고, 그림 (b)는 \(A_ { 3 } \)로부터 신호를 수신한 경우 1점 쇄선과 \(A_ { 3 } \) 의 전송 범위 안쪽으로 추정 구역을 결정하는 것을 보이고 있다.</p> <h3>라. 사용자 노드의 좌표 계산</h3> <p>위의 3 단계를 거쳐 최종적인 추정 구역이 결정되면 사용자 노드의 좌표를 계산할 수 있다. 사용자 노드의위치 계산은 최종적으로 설정된 추정 구역의 양쪽(상 \( \cdot \)하측) 경계점 좌표와 가중치를 이용하여 계산되므로 먼저 추정 구역의 상 \( \cdot \)하측 경계점 좌표를 구해야 한다. 그림 9에서 기준 노드가 \(A_ { 1 } \) 이고 다음으로 가까운 인접 노드가 \(A_ { 2 } \) 인 경우의 각 추정 구역을 구분하는 모든예상 경계점들의 위치를 나타내고 있다. 위의 다 항에서 언급한 바와 같이 최종적인 추정 구역은 사용자 노드가 \(A_ { 3 } \) 인접 노드로부터 신호를 수신하면 그림 9의 \(B_ { 1 } \) 과 \(B_ { 2 } \) 경계점 사이로 결정되고, \(A_ { 3 } \)인접 노드로부터 신호를 수신하지 못하면 \(B_ { 2 } \) 와 \(B_ { 3 } \) 사이로 결정된다.이와 같이, \(A_ { 3 } \) 인접 노드로부터의 수신 여부에 따라 결정되는 추정 구역이 다르므로 각 경우에 따라서 상 \( \cdot \)하측 경계점의 설정도 변하게 된다. 그림 10의 (a)와 같이 사용자 노드가 \(A_ { 3 } \) 로부터 신호를 수신하면 상측 경계점( \(B_ { H } \) )은 \(B_ { 1 } \) 으로 하측 경계점( \(B_ { L } \) )은 \(B_ { 2 } \) 로 결정하고, 반대로 그림 10 (b)와 같이 \(A_ { 3 } \) 로부터 신호를 수신하지 못하면 \(B_ { H } \) 는 \(B_ { 2 } \) 로 \(B_ { L } \) 은 \(B_ { 3 } \) 로 결정한다. 식 (6)에서 \(A_ { 3 } \) 인접 노드로부터의 수신 여부에 따른 상 \( \cdot \)하측 경계점 설정을 정의하고 있다</p>
|
해당 알고리즘은 음영지역 정보를 인접 노드들의 전송 범위로 활용하여 최종 추정 영역을 결정한다. 이 과정에서 기준 노드를 정한 후, 사용자 노드는 두 인접 노드에서 모두 신호를 수신하였는지 확인한다. 한 인접 노드로부터만 신호를 수신하였다면, 이는 다른 인접 노드의 전송 범위 밖에 위치함을 알 수 있다. 반면 두 인접 노드로부터 모두 신호를 수신하였다면, 이를 통해 자신이 상대적으로 멀리 있는 인접 노드의 전송 범위 내에 위치하고 있다고 추정하게 된다.
|
<h1>Ⅱ. 관련 연구</h1> <h2>1. 측위 알고리즘 분류</h2> <p>센서 네트워크의 측위 알고리즘은 크게 거리 기반(range-based) 방식과 거리 독립(range-free) 방식으로 분류된다. 거리 기반 방식은 신호 도달 시간을 이용하는 ToA(Time of Arrival), 신호 도달 시간 차이를 이용하는 TDoA(Time Difference of Arrival),전파의 도래각을 측정하는 AoA(Angle of Arrival) 그리고 수신 신호의 전파 세기를 이용하는 RSSI(Received Signal Strength Indicator) 방식으로 구분된다. 위의 방식들 중 ToA나 TDoA는 고정 노드들의 시간 동기화를 위하여 GPS 장비가 필요하고, AoA 방식은 다각도의 전파를 수신할 수 있는 안테나 등의 추가적인 하드웨어 장비가 필요하여 비용 대비 성능이 낮은 단점이 있다.</p> <p>이에 반해 고정 노드의 이차원 좌표 값을 이용하는 anchor-based, 노드 사이의 hop 거리를 이용하는 hop-based, 삼각형으로 구성된 비콘 노드로 위치를 추정하는 area-based 방식으로 구분되는 거리 독립 방식은 별도의 하드웨어 장비가 필요 없어 거리 기반 방식에 비해 비용이 저렴하다는 장점이 있다. 거리 독립 방식 중에서도 anchor-based 방식은 측위연산 수행 시 고정 노드의 좌표 정보만을 요구하므로 메모리 소비가 적어 자원이 한정된 센서 네트워크에 적합한 방식이다.</p> <h2>2. WCL 알고리즘</h2> <p>Anchor-based 방식을 사용하는 측위 알고리즘들은 일반적으로 CL 알고리즘 기반으로 제안되었다. CL 알고리즘은 식(1)과 같이 \( \mathrm { N } \) 개의 고정 노드의 좌표들의 평균값으로 사용자 노드의 위치를 계산한다. 여기서 \( \widehat { U } _ { i } (x, y) \) 는 측위 알고리즘으로 추정된 \( i \) 번째 사용자 노드의 위치를 의미하며 \( A_ { j } (x, y) \) 는 \( \mathrm { j } \) 번째 고정 노드의 좌표이다.</p> <p>\( \widehat { U } _ { i } (x, y) = \frac { 1 } { N } \sum_ { j=1 } ^ { N } A_ { j } (x, y) \)<caption>(1)</caption></p> <p>CL 알고리즘은 식 (1)과 같이 계산이 간단하고 고정 노드의 좌표 정보를 제외한 다른 정보가 필요 없으므로 메모리 소비도 적어 제한된 성능을 가진 센서 네트워크에 적합하다는 장점이 있지만 사용자 노드의 추정 위치가 항상 고정 노드 좌표의 평균값으로 결정되어 고정 노드 수가 적을수록 측위 오차가 높다는 단점이 있다.</p>
|
센서 네트워크의 측위 알고리즘은 거리 기반(range-based) 방식과 거리 독립(range-free) 방식으로 분류되며, 거리 독립 방식은 anchor-based, hop-based, area-based 등으로 구분되며 비용이 저렴하고 메모리 소비가 적어 자원이 한정된 센서 네트워크에 적합하다. CL 알고리즘은 고정 노드의 좌표 값을 이용하여 사용자 노드의 위치를 계산하며 계산이 간단하고 메모리 소비가 적지만 고정 노드 수가 적을수록 측위 오차가 높다는 단점이 있다.
|
<p>내부 에너지는 식 (7)와 같이 스네이크 포인트의 1차 미분과 2차 미분의 합으로 이루어 진다. 내부에너지의 최소화하는 반복과정은 스네이크 포인트를 연결하는 곡선을 부드럽게 한다.</p> <p>\( E_ { i n t } \left (v_ { i } \right )= \alpha \left \|v_ { i } -v_ { i-1 } \right \| ^ { 2 } + \beta \left \|v_ { i-1 } -2 v_ { i } + v_ { i + 1 } \right \| ^ { 2 } \)<caption>(7)</caption></p> <p>내부에너지의 하나인 1차 미분에서 얻은 Continuity에너지는 현재 스네이크 포인트 \( v_ { i } \)와 다음 포인트 \( v_ { i } + 1 \)간의 거리가 전체 스네이크 포인트간의 평균거리에 의해 최소화 되면서 \( M \)개의 스네이크 포인트들이 등 간격을 유지하도록 하는 에너지이다. 그러나 이러한 기존의 방법은 오목한 윤곽을 갖는 객체에서는 성공하지 못한다. 오목한 윤곽에서는 스네이크 포인트간의 길이가 더 필요함으로 스네이크 포인트의 평균거리를 최소화하는 대신 \( v_ { i } \)와 \( v_ { i-1 } \)의 차의 절대값과 \( v_ { i } \)와 \( v_ { i + 1 } \)의 차의 절대값의 차를 이용하여 스네이크 포인트를 안쪽 깊숙이 오목한 윤곽까지 이동하였다. 식 (8)에 정의하였다.</p> <p>\( E_ { c o n } \left (v_ { i } \right )= \frac {\left | \left \|v_ { i-1 } -v_ { i } \right \|- \left \|v_ { i } -v_ { i + 1 } \right \| \right | } {\operatorname { con } _ {\max } } \)<caption>(8)</caption></p> <p>여기서 \( \mathrm { COn } _ {\max } \) 는 검색윈도우내의 최대값을 나타낸다.</p> <p>2 차 미분 항인 Curvature 에너지는 현재 스네이크 포인트와 이웃한 포인트가 이루는 벡터의 합의 크기로 나타낼 수 있고, 그 값이 작은 쪽으로 스네이크 포인트를 이동시킨다. 일반적으로 초기 스네이크 포인트는 객체의 외부에 설정하고 내부로 수렴 되는데, 객체의 오목한 윤곽에서는 스네이크 포인트가 윤곽에 도달하기 전에 직선을 이루는 구간에서 Curvature 에너지가 최소값 '0'이 되어 오목한 윤곽까지 수렴되지 못하는 문제점이 있다. 이러한 문제를 해결하기 위해 스네이크 포인트에서의 접선벡터(Tangent Vector) \( T \), 법선벡터(Normal Vector) \( N \), 종법선벡터(Binormal Vector) \( B \)을 사용하여 포인트가 윤곽에 수렴하는 방법을 제안하였다. 접선벡터는 1 차 미분으로 얻을 수 있다. \( v_ { i } \)에서 1차 미분은 \( v_ { i + 1 } -v_ { i } \)로 근사화한다. 식 (9)에 정의한다. 법선벡터는 접선벡터의 미분, 즉 2차 미분으로 얻을 수 있고 식 (10)에 정의한다. 종법선 벡터는 \( B \left (v_ { i } \right )=T \left (v_ { i } \right ) \times N \left (v_ { i } \right ) \)로 정의되고, 접선 및 법선 벡터를 알면 종법선 벡터를 식 (11)을 이용하여 얻을 수 있다.</p> <ul> <p>\( T \left (v_ { i } \right ) \approx v_ { i + 1 } -v_ { i } \)<caption>(9)</caption></p>
|
스네이크 포인트의 1차 미분과 2차 미분의 합으로 이루어진 내부에너지를 최소화하는 반복과정을 통해 스네이크 포인트를 연결하는 곡선을 부드럽게 할 수 있다. 내부에너지는, 현재 스네이크 포인트 \( v_ { i } \)와 다음 포인트 \( v_ { i } + 1 \)간의 거리가 전체 스네이크 포인트간의 평균거리에 의해 최소화 되면서 \( M \)개의 스네이크 포인트들이 등 간격을 유지시키게 하는 Continuity 에너지와, 현재 스네이크 포인트와 이웃한 포인트가 이루는 벡터의 합의 크기로 나타낼 수 있는 Curvature 에너지로 구분된다.
|
<p>\( C_ { i } = \left \{ v_ { i } ^ { b } , v_ { i } ^ { 1 } , v_ { i } ^ { 2 } , \cdots, v_ { i } ^ { e } \mid i=0,1,2, \cdots N-1 \right \} \)<caption>(5)</caption></p> <p>여기에서 \( v_ { i } ^ { b } \) 및 \( v_ { i } ^ { e } \)는 \( C_ { i } \)의 시작 및 최종 스네이크 포인트이다. \( N \)는 윤곽의 수이다.</p> <h1>3. 복수객체 윤곽 추출을 위한 개선된 스네이크 알고리즘</h1> <p>Kim과 Jang은 매우 불규칙한 윤곽을 갖는 객체 및 호리병 모양의 윤곽을 갖는 객체의 윤곽을 추출하는 알고리즘을 제안하였다. 초기 스네이크 포인트가 객체의 윤곽에 수렴한 후 스네이크 포인트를 증가하여 객체 윤곽을 정확하게 추출하게 하였고, 호리병 모양의 객체윤곽 추출 문제를 해결하기 위해 Frenet Formula를 이용해 스네이크 포인트가 매우 오목한 윤곽까지 수렴하는 방안을 성공적으로 제안하였다. 그러나 이 방법은 단일 객체에 성공적으로 적용하였고, 본 논문에서는 이 방법을 복수객체에 적용하는 알고리즘을 제안한다. 다음의 내용은 [6]에 자세하게 설명하였다.</p> <p>스네이크 포인트를 이동하게 하는 에너지 함수는 식 (6)과 같이 내부에너지(Internal Energy) \( E_ { i n t } \left (v_ { i } \right ) \)와 외부에너지 (External Energy) \( E_ {\text { ext } } \left (v_ { i } \right ) \)의 합으로 나타낸다.</p> <p>\( E_ {\text { snake } } (v)= \sum_ { i=0 } ^ { M-1 } \left (E \rho \left (v_ { i } \right ) + E_ {\text { ext } } \left (v_ { i } \right ) \right ) \)<caption>(6)</caption></p> <p>여기에서 \( v_ { i } = \left (x_ { i } , y_ { i } \right ) \)는 \( i \)번째 스네이크 포인트이고, \( x_ { i } \)와 \( y_ { i } \)는 \( i \)번째 스네이크 포인트의 \( x \)와 \( y \)의 좌표이다. \( M \)은 전체 스네이크 포인트의 개수이다.</p>
|
Frenet Formula를 이용해 단일 객체에 성공적으로 적용하였고 복수객체에 적용하는 알고리즘을 제안하고자 한다.
|
<p>복수객체의 윤곽을 추출하기 위해서는 Choi는 스네이크를 분리하고 연결하는 알고리즘을 제안하였지만, 정의한 임계 값이 너무 많아 영상의 내용에 따라 성능이 결정된다. 그리고 에너지 함수를 반복 계산할 때 마다 스네이크 포인트를 증가함으로 소요 시간이 많이 걸리는 문제점이 있다. Velasco는 Growing Snakes을 제안하여 복수객체에 대한 윤곽추출을 하였지만 GVF에 에너지 맵 계산으로 많은 시간이 소요된다. 본 논문에서는 정의한 임계 값을 사용하지 않고, 에너지 함수를 반복할 때 마다 스네이크 포인트 수가 증가하지 않는 윤곽 검출 알고리즘을 제안한다.</p> <p>논문의 구성은 다음과 같다. 먼저 2장에서는 외적 및 내적을 사용하여 초기에 복수객체를 포함한 윤곽을 고속으로 분리하고 연결하여 각각이 윤곽이 단일 개체만을 포함하는 방법을 제안한다. 3장에서는 각각의 윤곽에 포함된 단일 객체의 윤곽을 추출하는 개선된 능동윤곽모델 알고리즘을 설명한다. 4장 및 5장에서는 실험결과 및 결론을 설명한다.</p> <h1>2. 고속 스네이크 분리 및 연결 알고리즘</h1> <p>(그림 1) (a)는 큰 원 과 작은 원 객체가 2개 있는 영상이다. 초기 스네이크 포인트를 순서적으로 연결하여 얻은 폐곡선은 초기 스네이크 윤곽(Initial Snake Contour, \( \mathrm { C } _ { 0 } \) )이다. 세그먼트 \( \left (S_ { i, i + 1 } \right ) \) 및 세그먼트 벡터 \( \left ( \overrightarrow { S_ { i, i + 1 } } \right ) \)는 시작 포인트 \( \left (v_ { i } \right ) \)와 끝 포인트 \( \left (v_ { i + 1 } \right ) \)을 연결하여 얻은 선 및 벡터이다. 세그먼트 단위 벡터 \( \left ( \overrightarrow { s_ { i, i + 1 } } \right ) \)는 식 (1)에 정의한다.</p> <p>\( \overrightarrow { s_ { i, i + 1 } } = \overrightarrow { S_ { i, i + 1 } } / \left \| \overrightarrow { S_ { i, i + 1 } } \right \| \)<caption>(1)</caption></p> <p>여기에서 \( \| \cdot \| \)는 길이를 나타낸다.</p> <p>에너지 함수를 최소화하는 반복 연산을 하면 스네이크 포인트가 객체의 윤곽 방향으로 이동하면서 스네이크 포인트 \( v_ { k } \)는 \( S_ { i, i + 1 } \)와 교차하게 된다. (그림 1) (b)는 스네이크 포인트가 세그먼트를 교차하는 영역을 확대한 그림이다. 스네이크 포인트가 교차하면 객체 윤곽 추출에 필요한 스네이크 포인트만 분리하여 연결하고, 필요 없는 스네이크 포인트는 삭제한다. 스네이크 포인트의 분리, 연결, 삭제 연산을 통해 만들어진 스네이크 윤곽의 수는 객체의 수와 같아야 하고, 단일 객체를 포함하는 각각의 스네이크 윤곽은 계속된 에너지 함수의 최소화하는 연산을 통해 윤곽 내에 있는 객체의 윤곽을 추출하여야 한다. 본 논문에서는 미리 정의한 임계 값 및 시간이 많이 소요되는 에지 맵을 이용하는 않는 고속 알고리즘을 제안한다.</p>
|
본 논문은 에너지 함수를 반복할 때마다 스네이크 포인트 수가 증가하지 않는 새로운 윤곽 검출 알고리즘을 제안한다. 에너지 함수를 최소화하는 과정에서 스네이크 포인트는 객체의 윤곽을 따라 이동하게 된다. 이 알고리즘은 미리 정의된 임계 값이나 많은 시간을 필요로 하는 에지 맵을 사용하지 않는 고속 알고리즘이다.
|
<p>\( N \left (v_ { i } \right ) \approx v_ { i-1 } -2 v_ { i } + v_ { i + 1 } \)<caption>(10)</caption></p> <p>\( B \left (v_ { i } \right )=T \left (v_ { i } \right ) \times N \left (v_ { i } \right )= \left | \begin {array} { l } x_ { i } ^ { T } y_ { i } ^ { T } \\ x_ { i } ^ { N } y_ { i } ^ { N } \end {array} \right |= \left (x_ { i } ^ { T } y_ { i } ^ { N } -y_ { i } ^ { T } x_ { i } ^ { N } \right ) \overrightarrow { e_ { z } } \)<caption>(11)</caption></p></ul> <p>스네이크 포인트가 에너지 최소화 연산을 통해 객체의 윤곽 방향으로 이동하면서 최종적으로는 객체의 윤곽에 정지하여야 한다. 스네이크 포인트를 객체의 윤곽에 정지하기 위해서는 외부에너지를 사용하는데 본 논문에서는 영상의 에지 정보를 사용하여 윤곽의 에지에서 최소값을 갖도록 하여 스네이크 포인트를 객체의 윤곽에 정지시킨다. 식 (12)로 정의 한다.</p> <p>\( E_ {\text { ext } } \left (v_ { i } \right )=- \gamma \left | \nabla f \left (v_ { i } \right ) \right | ^ { 2 } \)<caption>(12)</caption></p> <p>본 논문에 사용할 개선된 전체 에너지함수는 식 (13)와 같이 정의하였다.</p> <p>\( E_ {\text { snake } } (v)= \sum_ { i=0 } ^ { M-1 } \left ( \alpha E_ {\text { con } } \left (v_ { i } \right ) + \beta E_ { c u r } \left (v_ { i } \right ) + \gamma E_ { e x t } \left (v_ { i } \right ) \right . \)<caption>(13)</caption></p> <p>매개변수는 \( \alpha \) 는 스네이크 포인트의 간격과 오목한 윤곽에서 스네이크 포인트를 얼마나 깊게 이동시킬 수 있는지를 결정하는 변수이다. 매개변수 \( \beta \)는 스네이크 포인트를 윤곽방향으로 이동시키는 변수이고 \( \gamma \)는 스네이크 포인트를 객체의 윤곽에 정지시키는 변수이다. 매개변수인 \( \alpha, \beta \) 그리고 \( \gamma \)의 가중치는 스네이크 포인트를 객체의 윤곽에 정지시키는데 중요한 변수이다. \( \gamma \)의 가중치를 \( \alpha \) 및 \( \beta \)보다 더 크게 설정하여 스네이크 포인트가 객체의 윤곽에 도달하면 정지하록 하였다. 여기서 매개변수 \( \alpha=1.0, \beta=1.0 \) 그리고 \( \gamma= \) \( 1.2 \) 의 가중치를 설정하였다.</p>
|
스네이크 포인트는 에너지 최소화 연산을 통해 객체의 윤곽을 따라 이동하며, 결국에는 객체의 윤곽에서 정지해야 한다. 이런 윤곽에서의 정지는 외부에너지 사용이 필요하며, 본 연구에서는 영상의 에지 정보를 활용해 윤곽의 에지에서 최소값을 갖도록 설정한다. 여기서 사용하는 개선된 전체 에너지 함수는 주어진 식 (13)과 같이 정의되며, 매개변수 \( \alpha \)는 스네이크 포인트의 간격과 오목한 윤곽에서 스네이크 포인트가 얼마나 깊게 이동할 수 있는지를 결정하는 요소이다.
|
<h2>2.1 세그먼트 교차를 결정하는 법</h2> <p>(그림 2)에 3개의 세그먼트 \( S_ { i, i + 1 } , S_ { k-1, k } \), 및 \( S_ { k, k + 1 } \) 가 있다. (그림 2) (a)는 3개의 세그먼트가 교차하지 않는 경우이므로 스네이크 포인트를 분리, 연결, 삭제할 필요가 없다. 에너지 함수의 최소화하는 연산을 계속하면 스네이크 포인트가 객체의 윤곽 방향으로 이동한다. (그림 2)(b)와 (c)는 스네이크 포인트가 객체의 윤곽방향으로 이동하면서 세그먼트가 교차하거나 접촉한 경우이다. 이런 경우에는 불 필요한 스네이크 포인트는 제거하고, 객체의 윤곽 추출에 필요한 스네이크 포인트는 분리하고 연결한다. 이 연산을 하면 스네이크 포인트를 연결한 순서는 변경됨으로 스네이크 윤곽을 구성하고 있는 스네이크 포인트의 순서를 재 구성한다.</p> <h2>2.2 스네이크 포인트의 제거, 분리 및 연결</h2> <p>(그림 3)은 스네이크 포인트 제거에 대해 설명한다. \( vi \)와 \( v k-1 \)를 연결한 벡터를 \( \overrightarrow { A_ { 1 } } \)과 단위벡터는 \( \overrightarrow { a_ { 1 } } \)으로 정의한다.. \( v i \)와 \( v k \)를 연결한 벡터를 \( \overrightarrow { A_ { 2 } } \)이며 단위벡터는 \( \overrightarrow { a_ { 2 } } \)이다. \( v i \) 와 \( v_ { k + 1 } \)을 연결한 벡터를 \( \overrightarrow { A_ { 3 } } \)이며 단위벡터는 \( \overrightarrow { a_ { 3 } } \)이다. \( S_ { i, i + 1 } \)을 연장하면 평면이 2개의 영역으로 나누어진다. \( S_ { k-1, k } \)와 \( S_ { k, k + 1 } \)가 한쪽 영역에만 놓여 있으면 \( S_ { i, i + 1 } \)와 교차하지 않고, 양쪽 영역 또는 접촉하면 교차하게 된다. 세그먼트가 한쪽 영역에 있는지 양 쪽 영역에 걸쳐 있는지를 결정하기 위해서는 \( S_ { i, i + 1 } \)의 기준으로 외적 벡터 \( \overrightarrow { b_ { k } } \)인 식 (2)을 정의한다.</p> <p>\( \overrightarrow { b_ { k } } = \overrightarrow { s_ { i, i + 1 } } \times \overrightarrow { a_ { k } } \)for \( k=1,2,3 \)<caption>(2)</caption></p>
|
세그먼트가 교차하지 않는 경우에는 스네이크 포인트를 분리, 연결, 삭제할 필요가 없으나 객체의 윤곽 방향으로 이동하면서 세그먼트가 교차나 접촉할 경우에는 불필요한 스네이크 포인트는 제거하고, 필요한 스네이크 포인트는 분리하고 연결하는 작업이 필요하다.
|
<p>식 (2)는 \( S_ { k-1, k } \)와 \( S_ { k, k + 1 } \)가 한쪽 영역에 놓여 있으면 \( \overrightarrow { b_ { k } } \)의 \( \mathrm { z } \) 성분의 부호는 같고, 그렇지 않으면 부호가 다르다. \( S_ { k-1, k } \)와 \( S_ { k, k + 1 } \)의 끝점이 \( S_ { i, i + 1 } \)의 선에 있으면 \( \overrightarrow { b_ { k } } \)의 \( \mathrm { Z } \) 성분의 부호는 0이 된다. 교차한 스네이크 포인트의 \( \overrightarrow { b_ { k } } \)의 부호는 다르므로 불 필요한 스네이크 포인트는 \( v_ { k } \)가 된 \( \overline { s_ { k, k-1 } } \)다. 스네이크 포인트를 제거하는 방법은 식 (3)에 정의한다.</p> <p>value \( = \left ( \overrightarrow { b_ { 1 } } \cdot \overrightarrow { b_ { 2 } } \leq 0 \overrightarrow { b_ { 2 } } \cdot \overrightarrow { b_ { 3 } } \leq 0 \right ) \)<caption>(3)</caption></p> <p>여기에서 • 는 내적을 설명한다.</p> <p>value=1이면, \( v_ { k } \) 를 제거하고, 그렇지 않으면 \( v_ { k } \) 를 제거하지 않는다.</p> <p>스네이크 포인트가 제거되면 앞과 뒤에 있는 스네이크 포인트는 순서적으로 연결되지 않고 분리된다. 분리된 스네이크 포인트는 객체의 윤곽을 추출할 수 있도록 적절하게 연결하여야 한다. 스네이크 포인트를 연결하는 기준은 (그림4)에 같이 같은 쪽에 스네이크 포인트를 연결한다. 연결하는 식은 식 (4)에 정의한다.</p> <p>value \( = \overrightarrow { s_ { i, i + 2 } } \cdot \overrightarrow { s_ { k, k + 1 } }< \overrightarrow { s_ { i, i + 1 } } \cdot \overrightarrow {\left (-s_ { k-1, k } \right ) } \)<caption>(4)</caption></p> <p>value \( =1 \)이면, \( v_ { i } \)를 \( v_ { k + 1 } \)에, \( v_ { i + 1 } \)를 \( v_ { k-1 } \)에 각각 연결하고, 그렿지 않으면, \( v_ { i } \)를 \( v_ { k-1 } \)에, \( v_ { i + 1 } \)를 \( v_ { k + 1 } \)에 연결한다. 분리 및 연결 연산 후에 스네이크 윤곽을 구성하는 스네이크 포인트의 순서는 식 (5)와 같이 재배열하여 새로운 스네이크 윤곽을 얻는다.</p>
|
value \( = \left ( \overrightarrow { b_ { 1 } } \cdot \overrightarrow { b_ { 2 } } \leq 0 \overrightarrow { b_ { 2 } } \cdot \overrightarrow { b_ { 3 } } \leq 0 \right ) \)을 사용해 스네이크 포인트를 제거하면 앞두에 있는 스네이크 포인트는 분리되게 된다. 객체의 윤곽을 추출하기 위해 이렇게 분리된 스네이크 포인트를 연결시켜 준다.
|
<h1>요 약</h1> <p>객체 윤곽을 추출하는 대부분의 기존 방법들은 단일객체의 윤곽검출에 대해 연구하였다. 그러나, 실 세계에서는 복수객체가 일반적이다. 본 논문에서 제안한 복수객체 윤곽추출 알고리즘은 2 단계로 구성된다. 첫 번째 단계는 외적 및 내적을 사용하여 초기에 복수객체를 포함한 윤곽을 고속으로 분리하고 연결하여 각각이 윤곽이 단일 개체만을 포함하는 방법을 제안한다. 두 번째 단계는 각각의 윤곽에 포함된 단일 객체의 윤곽을 추출하는 개선된 능동윤곽모델 알고리즘을 설명한다. 여러 실험영상에 대한 실험결과는 다른 방법과 비교하여 속도가 빠르며 정확하게 윤곽을 추출한다.</p> <h1>1. 서 론</h1> <p>객체윤곽 추출은 내용기반 검출시스템 및 대화형 멀티미 디어시스템에서 매우 중요하다. 이러한 시스템을 사용하여 서비스를 성공적으로 제공하기 위해서는 영상질의를 하는데 기본 정보로 객체 모양을 사용한다. 실 영상에서는 단일객체 보다는 복수 객체가 일반적이고 복수객체 윤곽을 효율적으로 추출하면 활용되는 분야가 다양화 될 것으로 기대된다. 복수 객체의 윤곽추출의 일반적인 방법은 먼저 복수객체를 단일객체로 분리하고, 그 다음 단일 객체의 모양 즉 윤곽을 추출하여야 한다.</p> <p>복수객체의 윤곽추출에는 여러 방법이 제안되었다. 예를 들면, 영역분할이나, Watershed 등의 알고리즘이 제안되었지만, 본 논문에서는 복수객체의 윤곽추출을 위한 능동윤곽 모델에 대해 초점을 둔다. 정의된 에너지 함수를 최소화하는 과정을 통해 객체의 윤곽을 추출하는 능동윤곽모델(Active Contour Model; Snake)은 물체인식, 컴퓨터 및 로봇비전, 컴퓨터그래픽, 의료영상처리 분야에서 성공적으로 사용하고 있다. 이 방법은 단순한 객체의 윤곽을 효율적으로 검출할 수 있는 장점이 있지만 많은 제약이 있다. 대표적인 제약은 초기 스네이크 포인트가 윤곽을 추출하려는 객체에 가깝게 설정하여야 하고, 객체 윤곽이 불규칙성이 없는 원형 모양을 이루는 단일 객체이어야 한다. 초기 스네이크 포인트 위치 및 객체의 불규칙성 문제를 해결하기위해 많은 방법이 제안되었다. Xu는 GVF(Gradient Vector Flow) 방법을 제안하였다. 오목한 윤곽을 추출하기 위해 외부에너지로 단순히 에지 정보를 이용하지 않고 에지의 공간 확산을 통해 얻은 GVF 에너지 맵을 이용해 객체의 오목한 윤곽까지 검출할 수 있었다. 그러나, GVF 에너지 맵을 계산하는데 많은 시간이 필요하고, 호리병 모양의 윤곽을 갖는 객체에 대해서는 좁은 입구에서 GVF 에너지의 집중 현상으로 안쪽 윤곽까지 수렴하지 못한다. Kim과Jang은 불규칙한 윤곽 및 호리병 모양의 객체윤곽추출 문제를 해결하는 알고리즘을 제안하였다. 불규칙한 윤곽 추출을 위해 초기 스네이크 포인트가 객체 윤곽에 도달하면 2개의 스네이크 포인트를 연결하는 직선과 객체 윤곽의 거리를 계산하여 임계 값 보다 크면 스네이크 포인트를 증가하고 임계값 보다 작으면 스네이크 포인트를 삭제하는 방법을 제안하였다. 호리병 모양의 객체 윤곽추출을 위해 Frenet Formula를 이용해 스네이크 포인트가 매우 오목한 윤곽까지 수렴하는 방안을 제안하였다. 그러나 이러한 방법들은 단일객체에는 성공적으로 적용되지만 복수 객체에는 적용하지 못하는 한계점이 있다.</p>
|
복수 객체의 윤곽 추출을 위해 능동 윤곽 모델에 초점을 둔 본 논문에서는 초기 스네이크 포인트의 위치 및 불규칙한 객체 윤곽에 대한 문제를 해결하기 위해 다양한 방법들이 제안되었다. 그러나 GVF (Gradient Vector Flow) 에너지 맵을 계산하는데 많은 시간이 소요되고, 호리병 모양의 윤곽을 가진 객체에 대해서는 GVF 에너지의 집중 현상으로 인해 안쪽 윤곽까지 수렴하지 못하는 문제가 있다. 이에 Kim과 Jang은 불규칙한 윤곽 및 호리병 모양의 객체 윤곽 추출 문제를 해결하기 위한 알고리즘을 제안하였지만 이 방법 또한 복수 객체에 성공적으로 적용하지 못하는 결론이 도출되었다.
|
<h1>1. 서 론</h1> <p>버스 정보 시스템(BIS)은 GPS가 포함된 차내 장치 OBE를 통해 차량으로부터 수신된 정보를 노선, 통과구간, 정류장 등의 기반정보로 가공하여 시민들에게 버스 도착 예정 시간과 버스의 현재위치 등의 정보를 제공한다. 버스 도착 시간 예측 정보 제공은 대중교통의 편의성 개선에 능동적인 역할을 수행하고 있다. 버스 도착시간 예측을 위한 대표적인 방법으로는 이동평균필터, 동적 선형 모형, 회귀 모형 등의 기법이 있으며 구간별로 계산된 데이터 테이블을 이용하는 방법이다.</p> <p>일반적으로 버스정보 시스템에 사용되는 예측 모형은 도로의 교통흐름, 신호 주기, 이상 상황, 데이터 결측 등의 상황을 고려하지 않은 모델이다. 또한 시스템에서 수집되는 데이터는 시간정보와 위치, 거리 등의 기반정보에 의존하여 계산된 단순 데이터로 교통흐름과 신호 주기를 반영하여 모델링을 수행하기는 매우 어렵다. 은닉 마르코프 모델은 관측데이터에 은닉된 상태의 요소가 포함된다고 가정하고 데이터 순서의 확률을 계산하여 관찰된 결과로 은닉상태를 도출하는 모델이다. 은닉 마르코프 모델은 이러한 제약 조건에서 효과적인 모델로 적용될 수 있다.</p> <p>버스 노선의 운행시간은 구간 통행시간과 승객이 승/하차하는 정차시간이 포함된다. 그러나 현재의 시스템에서는 정차시간 예측을 위한 적합한 모델이 없으며, 정류장을 통과하는 이벤트가 생성되는 시점의 시간으로 예측 데이터를 보정하는 방법을 이용하고 있다. 이러한 방법은 시스템의 연산 부하를 줄여 실시간 정보를 제공하는데 이점이 있으나 시간이 보정된 정류장에서 가까운 정류장의 정확도가 높고, 통과하는 정류장이 많을수록 도착 시간 예측이 부정확해지는 문제가 있다. 운행거리가 짧고 통과하는 정류장의 수가 적은 소규모 버스정보 시스템에 적합한 예측 방법이며 정류장의 수가 많아질수록 이벤트 수가 증가한다.</p> <p>도착 예정시간을 모델링하는 방법인 이동평균필터, 동적 선형모형 등의 방법으로 정류장의 특징을 반영한 정차시간을 예측하기 위해서는 정류장별로 데이터를 분류할 필요가 있다. 이러한 경우 정류장의 수 혹은 유사한 특징으로 묶은 그룹의 수에 따른 데이터 테이블이 필요하게 된다. 이는 시스템의 부하로 작용되어 실시간 연산을 요하는 버스정보 시스템에 적합하지 않다. 일반화 가법 모형은 자료의 특성을 반영한 연결함수와 반응변수에 영향을 미치는 설명변수를 사용하여 변수간의 관계를 분석하고 반응변수에 적합한 모형을 도출하는 방법이다. 관찰 데이터에서 도출되는 특징을 반영할 수 있는 모델로서 정차시간을 모델링하는데 효과적으로 적용될 수 있다.</p> <p>본 논문에서는 2015년 한해 수집된 순천시 버스 정보 시스템의 데이터를 이용하여 구간 통행속도 예측 방법으로 은닉 마르코프 모델을 사용하고, 정차시간 예측을 위해 일반화 가법모형을 사용한 혼합 모델을 구축했다.</p>
|
차량으로부터 수신된 정보를 가공하여 버스 도착 예정 시간과 버스의 현재위치 등의 정보를 제공하는 버스 정보 시스템(BIS)은 대표적으로 이동평균필터, 동적 선형 모형, 회귀 모형 등의 기법이 있으나 이는 구간별로 계산된 데이터 테이블을 이용해야 하는 제약이 있어, 본 논문에서는 구간 통행속도 예측 방법으로 은닉 마르코프 모델을 사용하고, 정차시간 예측을 위해 일반화 가법모형을 사용한 혼합 모델을 구축하였는데, 은닉 마르코프 모델은 관측데이터에 은닉된 상태의 요소가 포함된다고 가정하고 데이터 순서의 확률을 계산하여 관찰된 결과로 은닉상태를 도출하는 모델이고 일반화 가법 모형은 자료의 특성을 반영한 연결함수와 반응변수에 영향을 미치는 설명변수를 사용하여 변수간의 관계를 분석하고 반응변수에 적합한 모형을 도출하는 방법으로서 효과적이다.
|
<h2>2. 관련 연구</h2> <p>일반화 가법 모형(Generalized Additive Model)은 일반화 선형 모형(Generalized Linear Model)의 속성에 가법 모형을 적용한 통계적 모형이다. 일반화 가법 모형은 선형(linear) 관계의 모형으로 적합하기 어려운 설명변수와의 관계를 평활(spline) 함수로서 모형을 적합한다. 일반화 가법모형은 지수 분포족의 특성을 갖는 반응변수에 대한 가법적 비선형(non-linear) 모형이다.</p> <p>반응변수 \( \mu=E(Y) \)와 공변량 \( X=\left(x_{1}, \cdots x_{p}\right) \)는 다음과 같은 확률모델로 표현된다.</p> <p>\( \mu=E\left(Y \mid x_{1}, \cdots x_{p}\right) \)<caption>(1)</caption></p> <p>연결함수(link function, \( g \) )는 설명변수와의 연결구조를 나타내며, 예측치에 대한 연결함수와의 구조는 Equation (2)와 같이 표현된다.</p> <p>\( \eta=g(\mu)=s_{0}+\sum_{j=1}^{p} s_{j}\left(x_{j}\right) \)<caption>(2)</caption></p> <p>여기서 \( s_{0}, s_{1}\left(x_{1}\right), \cdots, s_{p}\left(x_{p}\right) \)의 추정은 연결함수로 교정된 반응변수에 가중치를 부여한 값으로 계산된다. 일반화 가법 모형은 비선형 관계를 표현하기 위해 설명변수에 비모수적인 평활함수(Smoothing spline fuction)가 사용된다. 일반화 가법모형에서는 \( x_{j} \) 의 가법적 효과를 나타내는 평활함수 \( s_{j}\left(x_{j}\right) \)의 추정이 필요하다.</p> <p>\( s_{k}\left(x_{k}\right)=E\left[Y-s_{0}-\sum_{k \neq j} s_{j}\left(x_{j}\right) \mid x_{k}\right] \)<caption>(3)</caption></p> <p>Equation (3)은 가법모형의 조건부 기댓값으로 다음과 같은 Backfitting 알고리즘을 통해 추정된다.</p> <ol type=1 start=1><li>초기화 : \( s_{j}=s_{j}^{(0)}, j=1, \cdots p \)</li> <li>반복 : \( j=1, \cdots, p, 1,2, \cdots, p, \cdots \\s_{j}=s_{0} R_{j}\left(Y-s_{0}-\sum_{k \neq j} s_{k} \mid x_{j}\right)\)( \( R_{j} \) : Cubic smoothing spline)</li> <li>\( \hat{s}_{j} \) 의 값이 기준치 이하일 때 까지 2)의 과정을 반복한다.</li></ol> <h1>3. 데이터 분석</h1> <h2>3.1 정차시간 분석</h2> <p>본 논문에서 사용된 자료는 분석 대상 도시 버스정보시스템의 2015년 실제 운행 노선에서 수집된 데이터이다. 수집된 데이터의 정류장은 2298개소이며 데이터의 이상치(outlier)를 포함한 평균 정류장 정차시간은 26초이다. 하나의 노선은 최소 5개 이상의 정류장을 통과하며 순환노선의 경우 최대 149개의 정류장을 통과한다. 노선은 평균적으로 56개의 정류장을 통과한다. 정차시간의 데이터는 정류장에서 승객들의 승/하차가 없는 무정차통과, 버스의 시/종점, 순환노선의 대기지점의 데이터가 이상치로 반영된다.</p> <p>Fig. 1은 2015년 4월 한달간 수집된 자료로서 이상치를 제외한 1일부터 30일까지의 시간대별 평균이다. 버스정보 시스템의 노선 기반자료를 활용하여 시/종점, 순환노선의 대기 정류장을 제외했다. 또한 버스의 고장으로 인한 대기, 시간동기화 오류 등의 시스템 문제 등에 의한 이상치가 나타난다. 각 노드별 정차시간 데이터의 사분위 범위(inter quartile range; IQR)를 계산하고 3사분위수(\(75\%\)) + \( 1.5~ \mathrm{X} ~\mathrm{IQR} \) 보다 크면 이상치로 판단하여 제거했다.</p> <p>Fig. 1에서 정차시간의 자료는 기본적으로 매우 유사한 패턴을 보인다. 그러나 2015년 4월의 주말인 4, 5, 11, 12, 18, 19, 25, 26일의 경우 주중의 형태(shape)와 다르게 나타난다. 정차시간 패턴은 주중 패턴과 공휴일을 포함한 주말 패턴의 두 가지 범주로 나뉠 수 있으며, 이에 따라 예측 모형은 두 가지로 고려된다.</p> <p>Fig. 2는 평일의 시간대별 분포표이다. 8시경과 18시경의 출/퇴근 시간대의 영향으로 인해 정차시간이 높게 나타나며, 평일 시간대별 분포의 정차시간은 최저 7.8초 최고 18.41초 중앙값은 15.12초이다.</p> <p>Fig. 3은 주말의 시간대별 분포표이다. 8시경과 18시경의 출/퇴근 시간대의 영향이 없으며, 8시부터 22시까지의 분포는 변량이 크지 않다. 주말 시간대별 분포의 정차시간은 최저 2초 최고 19.38초 중앙값은 13.99초이다. 5~8시 구간과 22시~23시 구간의 매우 짧은 정차시간이 존재하며 주중의 통계량에 비해 변량은 크지 않다.</p> <p>주중 데이터에서 출/퇴근 시간대 특징이 나타난다. 정류장 이용패턴(정류장 위치 등)에 따른 일부 특정 구간이 주 중/주말 패턴에 차이를 나타내는 중요한 특징으로 작용된다.</p> <h2>3.2 구간별 속도 분석</h2> <p>버스정보 시스템에 구축된 데이터는 노드. 링크를 이용하며 노드는 교차로, 도로 시/종점, 속성 변화점, 도로시설물(버스 정류장) 등의 속성을 의미하며, 링크는 노드와 노드 사이를 연결하는 거리를 포함하는 속성이다. 버스 정보 시스템에서 수집되는 데이터는 정류장의 출발/도착 데이터이다. 분석 대상 도시의 정류장은 평균 8개의 노선이 통과한다. 링크의 거리 데이터는 모두 상이하다. 구간마다 공통의 속성을 적용하기 위하여 출발/도착 데이터의 시간차를 구하고 기반정보의 구간거리로 속도(\(\mathrm{km} / \mathrm{h}\))로 변환했다.</p> <p>Fig. 4는 수집된 데이터를 5 분단위로 샘플링하고 하루단위로 같은 시간에 나타나는 그룹의 평균을 구한 평일의 시간대별 속도 분포표이다. 6시 이전과 22 시 이후의 시간대에서 교통흐름이 매우 원활하여 이동속도가 높게 나타나며, 6시 이후와 22시 사이에는 평균속도를 보인다. 구간속도는 최저 \( 21.9 \mathrm{~km} / \mathrm{h} \), 최고 \( 78.8 \mathrm{~km} / \mathrm{h} \) 이며, 중앙값은 \( 36.9 \mathrm{~km} / \mathrm{h} \) 이다. 속도 데이터는 교통흐름에 영향이 있으며, 교통이 혼잡한 출/퇴근 시간의 영향이 구간마다 다르게 나타난다. 교통 혼잡은 구간에 따라 그 형태가 매우 상이하게 나타난다. 예측 데이터의 정확도를 높이기 위해서는 각 구간별로 패턴 테이블을 구축함으로서 구간별 영향이 고려되어야 한다.</p> <p>Fig. 5는 데이터 분석을 위해 선택한 도심방향 구간의 시간대별 도표이다. 이 구간은 아파트단지가 밀집된 분석 대상 도시의 중심 주거지역이다. 점선은 평균을 나타내며 시간대별 박스 내부의 실선은 중위수를 표시했다. 8시와 18시에서 출/퇴근시간대의 영향이 나타난다. 8시에 중위수가 18시보다 낮게 나타나며 퇴근시간대보다 출근시간대의 영향이 더 크다.</p> <p>Fig. 6은 Fig. 5의 진행방향이 반대인 주거지역 방향 구간의 시간대별 도표이다. 7시, 17시, 18시, 19시에서 출/퇴근 시간대의 영향이 나타난다. 17, 18, 19시인 퇴근시간대의 영향이 더 크다.</p> <p>Fig. 7은 주거지역 방향 구간으로 데이터를 5분 간격 샘플링 속도를 나타낸 도표이다. 시간에 따른 영향을 보이고 있으나, 세부적으로 샘플링 시간대에서 변동 폭이 크게 나타나는 형태를 보인다. 이러한 변동 폭은 일시적인 교통흐름의 변화(신호주기 등)에 의해 나타난다. 은닉 마르코프 모델은 관측데이터에 은닉된 상태 요소의 포함을 가정하고 데이터 순서의 확률을 계산하여 관찰된 결과로 은닉상태를 도출하는 모델이다. 은닉 마르코프 모델은 이러한 제약 조건에서 효과적인 모델로 적용될 수 있다.</p>
|
일반화 기법 모형은 선형관계에 적합하기 어려운 설명변수와의 관계를 평활 함수로 설명한다. 일반화 가법 모형으 데이터분석으로 도시 버스정보시스템의 운행 노선에서 수집된 데이터를 토대로 설명한다. 본 논문에서 제안하고 있는 데이터 분석의 정차시간 분석방법은 실제 버스정보시스템에서 수집한 운행 정보를 토대로 행해진다. 순환노선의 버스에서 정차시간 데이터는 사분위 범위를 계산하고 이상치를 확인하며 특정 구간에 대한 특징의 차이를 이용해 예측모형을 만든다.
|
<h3>가. 핵심 보드의 구현</h3> <p>EVT 시스템의 핵심 보드에는 고속패턴생성기 (PG), PCI Controller, Emulator, LVDS Buffer, JIG, MUX 그리고 아날로그 신호측정을 하는 Measure 보드가 있다. 고속패턴 생성기는 사용자가 검사 패턴을 프로그램 할 수 있도록 유연하게 구성되어 있으며 최대의 해상도는 QXGA (\( 2046 \times 1536 \))까지 지원된다. PG에는 FPGA와 DSP가 탑재된 Multi-processor 구조이며 각각의 Processor가 독립적 Pipeline 방식으로 동작하여 병렬 처리 구조를 갖도록 구현하였다.</p> <p>그림 5(a)는 구현된 고속 패턴 생성기 (PG)와 이로부터 인가된 패턴의 한 예를 보여 준다. PCI Controller는 MUX, Measure Unit 및 Emulator와 Address Data Line으로 연결되어 Main PC와 통신을 할 수 있게 하는 가교 역할을 한다. MUX와 Measure 보드는 MUX Control로부터 선택된 신호의 전압을 PG의 Sync 신호와 동기를 맞춰 측정하여 그 결과를 PC로 전달한다. Emulator는 LCD Module에서 나오는 RSDS 출력 신호를 받아 그 신호를 재구성하여 실제 데이터와 비교하여 그 결과를 PC로 전달한다. 그림 2와 그림 3은 위에서 설명한 핵심보드로 이루어진 EVT 시스템의 개념도와 구성도를 각각 보여준다.</p> <h3>나. Application의 구현</h3> <p>EVT 시스템의 검사방식은 크게 자동식 실행방식 (Auto Run)과 단계식 실행방식 (Step Edit)의 두 가지로 나뉜다. 자동식 실행방식 (Auto Run)은 사용자가 검사 패턴, 아날로그 신호, 측정 임계값, 검사 시나리오 등등을 미리 정의한 후 이에 대해 일괄 (Batch) 처리하는 방식이며 단계식 실행방식 (Step Edit)은 검사 흐름의 편집, 검사 대상 신호를 선정할 수 있는 Mux의 설정, 명령의 선택, 측정 기준값 및 동기 등을 설정할 수 있는 대화식(Interactive) 처리 방식이다. 그림 4 (a)와 (b)는 각각 자동식 실형 방식 (Auto Run)과 단계식 실행 방식 (Step Edit) 처리의 흐름을 순서도로 보여준다.</p> <h3>다. 기구 및 장치</h3> <p>EVT 시스템의 기구 설계 시에는 고도의 재현성 및 신뢰성을 고려한 항목에 대한 검토가 선행되어야 한다. 기구 구성은 PCB 모듈을 Probing하기 위한 모듈 출력단자 JG 부를 비롯하여 PCB로부터의 Main LCD 출력 연결부, Up/Down 구동부, LCD Input Connector 연결부, 구동 Stage로 이루어져 있다. 그림 5 (b)는 각 구성부를 통합한 EVT 시스템 장비의 사진이다.</p> <h1>Ⅲ. 실 험</h1> <p>성능 테스트는 117개의 구동모듈 샘플 (S사의 17" LCD 구동 모듈 - GH17LS, \( 1280 \times 1024 \))을 사용하였다. 검사에는 7여개의 Test 패턴을 사용하였으며 그림 5 (a)는 그 한 예이다. 본 성능 비교 실험에서는 각 구동모듈 샘플 및 Test 패턴에 대해 EVT 시스템의 검출 결과를 기록하고 같은 환경에서 목시검사를 각각 시행한 후 그 결과를 비교 판정하였다. 검출력 실험 결과 기존 RGB Gray 패턴 검사 중 하위 \( \mathrm{Bit} \) 이상으로 인한 미세한 Gray 단차 불량에 대해서도 높은 신뢰성으로 검출이 가능하였다. T/T 비교를 위한 기존 방식은 BST를 탑재한 목시검사용 패턴 검사기와 영상기반의 시스템을 기준으로 하였다. 표 1과 2는 EVT 시스템의 검출력 실험 결과 및 영상기반 시스템과의 처리시간 (T/T)을 비교한 표이다. 구현된 시스템은 기존의 육안검사 부분을 Emulator Unit의 하드웨어로 대체함으로써 처리시간 (T/T)을 기존 방식에 비해 \( 1 / 3 \)이하로 줄였다.</p> <p>특히 EVT 시스템은 입/출력 신호를 단순히 하드웨어적으로 비교하는 간단한 방법을 도입함으로써 복잡도가 높고 처리시간이 많이 필요한 영상처리 알고리듬을 탑재한 영상기반의 기존방식에 비해 디지털 패턴에 대한 검사만을 기준으로 약 3배 이상 향상된 처리시간을 보여 주었다.</p>
|
EVT 시스템의 검사방식를 위해 자동식 실행방식과 단계식 실행방식의 두 가지로 검사가 가능한 어플리케이션을 구현 하였으며, 기구 구성은 모듈 출력단자 JG 부, PCB로부터의 Main LCD 출력 연결부, Up/Down 구동부, LCD Input Connector 연결부, 구동 Stage로 이루어져 있다. 성능 테스트는 117개의 구동모듈 샘플을 사용하였고, 실험 결과 RGB Gray 패턴 검사 중 하위 \( \mathrm{Bit} \) 이상으로 인한 미세한 Gray 단차 불량에 대해서도 높은 신뢰성으로 검출이 가능하였다.
|
<h1>Ⅱ. 본 론</h1> <h2>1. 기존의 자동 기능 검사 방법</h2> <p>기존의 자동 기능 검사 방법으로는 전기적 검사나 영상 기반 검사의 방식이 있다. 반도체 디바이스 시장의 경박화 및 단소화 현상이 가속되면서 일반적인 Probe Pin을 사용하는 방식으로는 In-Circuit 검사기술을 적용하기에 한계점에 도달하였다. 이를 극복하기 위해 1980년대 중반, JTAG (Joint Test Action Group)에 의하여 그림 1 (a)와 같은 Boundary Scan 방식이 개발되었고, 1990년에 IEEE는 이를 검사표준안으로 채택하였다. 그러나 BST와 같은 전기적 검사만으로는 Timing이 주요한 변수가 되는 LCD 장비에서는 검출할 수 없는 구동불량이 존재한다. 한편 영상기반의 자동검사방법은 보편적으로 이루어지는 패턴에 대한 목시 검사를 그대로 따라하는 개념으로 육안대신 카메라를 사용하여 무결점이 확인된 LCD 패널에서 출력되는 패턴영상을 획득하고 이를 처리하고 분석하여 구동모듈의 기능적인 결함을 검출하는 방법이다. 이러한 방식으로 BST 방식에서 검출하지 못하는 구동 불량을 그림 1 (b)와 같은 영상기반 검사기에서 검출할 수 있다. 하지만 영상 기반 검사는 장비의 가격이 고가이며 입력된 영상에서의 Gray Scale의 구분이 불명확하여 미검 발생의 가능성이 높을 뿐 아니라 영상획득에 일관성이 결여될 수 있고 알고리듬에 적용되지 않은 불량은 미검 처리 되는 등 검출 결과의 재현성이 떨어지며 처리시간이 많이 걸리는 등의 단점이 있다. 그러므로 기존의 대표적인 자동검사방법을 혼재하여 동시에 사용한다 하더라도 비용의 증가 외에 각각의 단점으로 인해 자동검사 시스템의 성능 저하 요인이 존재한다.</p> <p>이 논문에서는 위와 같은 현재의 자동 검사 방식의 결점을 개선하기 위해 전기적 검사와 영상기반의 검사의 장점만을 통합한 EVT (Emulated Vision Tester) 시스템을 제안하고 구현하였다. 다음 장에서는 EVT 시스템의 구체적인 개념과 그 구현 내용에 대해 설명한다.</p> <h2>2. EVT (Emulated Vision Tester)</h2> <p>EVT 시스템은 Pattern Generator에서 인가된 입력 패턴 신호와 구동 모듈을 통한 후 출력되는 디지털 신호를 직접 비교하여 패턴의 이상 여부를 검사하는 새로운 개념의 하드웨어적인 검사방법이다. 아울러 아날로그 신호 (전압, 저항, 파형 등)도 사용자가 선택적으로 신속 정확하게 검사할 수 있는 하드웨어적인 방법이다. 그림 2는 EVT 시스템의 개념도를 보여준다. 우선 고속 패턴 생성기(PG)에서 패턴이 생성되면 그 데이터가 검사 대상인 구동모듈 PCB와 지그 PCB로 입력되고 출력 신호가 Interface Board에 전달되면 이를 표준화된 Data 형식으로 변환시킨 후 각 부분별로 이 신호 데이터를 PIC 인터페이스 보드를 통해 PC로 전송한다. 전송이 완료되면 PC에서는 패턴생성기로부터 생성된 원패턴 데이터를 바탕으로 구동모듈의 출력신호를 비교 분석하여 그 결과를 출력하고 각각의 입력 패턴과 출력 패턴의 영상을 재구성하여 사용자가 시각적으로 확인할 수 있도록 하였다.</p> <p>EVT 시스템은 구성은 크게 기구부, Hardware 부 및 Application부로 나뉜다. 기구부에서는 검사대상의 Loading부를 2 Bay 방식으로 구성하여 검사대상을 적재할 수 있도록 하고 구동 모듈의 출력 단자를 Jig를 통하여 체결한다. Hardware부에는 고속 패턴 생성기(PG), EVT Processor를 구성하는 핵심 보드들, 그리고 이 핵심 보드들과 PC를 연결하는 PCI 인터페이스 보드로 구성되어 있다. Application에서는 기구 및 Hardware를 제어하고 알고리듬을 실행하며 데이터베이스를 유지 관리하며 사용자 인터페이스 (UI)를 제공한다. 다음 절에서는 이상에서 설명한 구성부들 중 Hardware 핵심 보드, 알고리듬 및 Application의 구현, 그리고 기구 및 장치의 구성에 대해 상세히 설명한다.</p>
|
LCD 장비에서 일어나는 구동장치 이상을 찾아내기 어려운 단점을 지닌 전기적 검사와 고가의 장비가격, 검출결과의 미비한 재현성, 장시간의 처리시간 등의 단점을 지닌 영상 기반 검사에서 두 검사 방식의 결점들을 보완하고자 각각의 장점만을 통합하여 EVT 시스템을 제안하고 구현하였다. EVT 시스템은 물리적인 검사방법으로 패턴 생성기와 구동 모듈을 통한 입력 패턴 신호와 출력 디지털 신호를 직접 비교함으로써 패턴의 이상 여부를 검사하는 새로운 방법이다.
|
<h1>요 약</h1> <p>본 논문에서는 LCD 구동 모듈 PCB의 기능 검사를 위한 자동 검사 시스템인 EVT (Emulated Vision Tester)를 제안하고 구현하였다. 기존의 대표적인 자동검사 방법으로는 전기적 검사나 영상기반 검사방식이 있으나 전기적 검사만으로는 Timing이 주요한 변수가 되는 LCD 장비에서는 검출할 수 없는 구동불량이 존재하며 영상기반 검사는 영상획득에 일관성이 결여되거나 Gray Scale의 구분이 불명확하여 검출결과의 재현성이 떨어진다. EVT 시스템은 Pattern Generator에서 인가된 입력 패턴 신호와 구동 모듈을 통한 후 출력되는 디지털 신호를 직접 비교하여 패턴을 검사하고 아날로그 신호 (전압, 저항, 파형)의 이상 여부도 신속 정확하게 검사할 수 있는 하드웨어적인 자동 검사 방법이나. 제안된 EVT 검사기는 높은 검출 신뢰도와 빠른 처리 속도 그리고 간결한 시스템 구성으로 원가 절감 및 전공정 검사 자동화의 실현을 가능케 하는 등 많은 장점을 가진다.</p> <h1>Ⅰ. 서 론</h1> <p>LCD 디스플레이 산업군은 2000년대 들어 괄목할 만한 성장을 거듭하고 있으며, 향후에도 지속적인 성장이 예상되어지는 산업이다. 그 중에서도 특히 LCD 구동 모듈은 막대한 규모의 시장을 형성하고 있으며 차세대 주요 성장 동력사업 중의 한 분야이다. 매년 증가하는 LCD 디스플레이의 수요와 날로 치열해 지는 가격경쟁에 적절히 대처하기 위해서는 관련 부품 생산 공정의 효율화 및 자동화가 반드시 필요하다. 특히 생산 공정의 마지막 단계인 검사공정 자동화에 대한 많은 연구가 있었다. 본 논문에서는 LCD 디스플레이의 구동모듈 PCB의 자동 기능 검사에 대해 기존의 여러 가지 방법들을 살펴보고 이를 개선하는 시스템을 제안하고 구현하였다.</p> <p>기존의 LCD 구동 모듈의 자동 기능 검사 방법으로는 전기적 검사나 영상 기반 검사의 방식이 있다. BST(Boundary Scan Test)와 같은 전기적 검사는 ICT 단계에서 Probe Pin만으로는 검사가 어렵거나 불가능한 부품의 검사에 유용한 검사 방법이다. 하지만, Timing이 주요한 변수가 되는 LCD 장비에서는 검출할 수 없는 구동 불량이 존재한다. 한편 영상기반 검사는 장비의 가격이 고가이며 Gray Scale의 구분이 불명확하며 영상획득에 일관성이 결여되어 검출 결과의 재현성이 떨어지는 단점이 있다. 본 논문의 EVT 시스템은 Pattern Generator에서 생성된 입력 패턴 신호와 이를 인가받아 구동 모듈 PCB에서 출력되는 디지털 신호를 직접 비교하여 패턴 이상 여부를 검사하는 새로운 개념의 자동 검사 방법이다. 본론에서는 기존의 검사방법에 대한 설명과 그 장단점을 고찰하고 EVT 시스템의 개념과 구현의 구체적인 내용에 대해 설명한다. 아울러 기존의 방법과 그 성능을 비교하여 정리하였다. 결론에서는 본 논문의 내용을 요약하고 향후 연구 방향에 대해서 논의한다.</p>
|
본 논문에서는 LCD 구동 모듈 PCB의 기능 검사를 위한 자동 검사 시스템인 EVT를 제안하고 구현하였는데, 기존의 대표적인 자동검사 방법으로는 전기적 검사나 영상기반 검사방식이 있으나 전기적 검사만으로는 검출결과의 재현성이 떨어진다. 본 논문에서는 LCD 구동 모듈 PCB의 기능 검사를 위한 자동 검사 시스템인 EVT (Emulated Vision Tester)를 제안하고 구현하였고, 기존의 검사방법에 대한 설명과 그 장단점을 고찰하고 EVT 시스템의 개념과 구현의 구체적인 내용에 대해 설명한다.
|
<h1>III. 시스템 모델</h1> <h2>1. Non-Gaussian Nosie</h2> <p>본 논문에서는 수중에서의 비가우시안 노이즈로서 Alpha Stable 노이즈를 적용하여 사용하였다. Alpha Stable 노이즈는 일반적으로 Impulse 노이즈라고 불린다. 일련의 랜덤 변수들이 주어졌을 때, 이들이 IID(Independent Identical Distribution) 이면서 각각 가우시안 분포를 갖게 되면 이들을 Alpha stable noise라고 부른다. Alpha Stable Noise의 특성함수는 다음 식 (2)와 같다. 여기서 \( \alpha \)는 Stability Parameter이며, \( \beta \)는 Skewness Parameter, \(c\)는 Scale Parameter, \( \mu \)는 Location Parameter이다.</p> <p>\( \gamma=(1-i \beta \operatorname{sgn}(t) \tan (\pi \alpha / 2)) \)<caption>(1)</caption></p> <p>\( f(x)=\frac{1}{2 \pi} \int_{-\infty}^{\infty} e^{\mu-\gamma|c t|^{\alpha}-i x t} d t \)<caption>(2)</caption></p> <p>\( N=(1-e) N_{\text {Gausssian }}+e N_{\text {Nongaussian }} \)<caption>(3)</caption></p> <p>식 (3)은 모의실험에서 사용한 노이즈 모델의 혼합방법을 나타낸다. 포함 비율 \( \mathrm{e} \)는 비가우시안 노이즈가 포함되어 있는 비율을 나타낸다.</p> <p>식 (1)에서 \( \alpha=2 \) 일 때, 평균값이 0 , 분산이 \( 2 \gamma \)인 Gaussian 분포를 따르게 된다. 그리고 \( \alpha=1 \) 이고 \( \beta= \) 0 일 때 Cauchy분포를, \( \alpha=0.5 \) 이고 \( \beta=1 \) 일 때 Lèvy분포를 따르게 된다.</p> <h2>2. Particle filter</h2> <p>Particle filter는 Sequential Importance Sampling이라는 이론이 소개되면서 연구가 시작되었다. 그 후 과도한 계산량으로 인하여 연구결과가 미미하였으나, Resampling 개념이 도입된 Sequential Importance Resampling으로 연산시간이 단축됨으로서 연구가 확대되었다.</p> <p>Particle filter는 연속 공간상의 위치 추정을 위한 효율적인 베이즈 필터의 한 방법으로, 관측된 측정값들과 시스템 모델로부터 얻은 랜덤 상태변수를 이용하여 현재 상태 변수들의 확률분포를 추정해 나가는 것에 목적을 두고 있다. 이 필터는 비 선형성이 너무 커서 예측하기가 어렵고, 상태나 측정치에 대한 확률 정보가 없을 때 사용된다. 예를 들면 로봇의 위치추정과 물체의 추적, 게임에서의 인공지능 등이 있다. 커다란 문맥에서 Particle Filter는 Trial and Error에 기반을 두는 시뮬레이션을 통한 에측 기술로 Monte Carlo Sampling 방법을 이용한 Recursive Bayesian Filter를 구현하게 된다.</p> <p>이 장에서는 MBK 시스템에서 위치를 추정하기 위한 ODPF의 과정을 자세히 표현한다. ODPF의 초기 과정은 초기 Particle 집단의 위치 설정이다. 초기 Particle들의 위치 \( x_{(0, i)} \)의 생성식은 식 (4)와 같다. \( x_{(0, i)} \)는 초기 단계에서 \( \mathrm{i} \) 번째의 Particle을 나타낸다. \( x(0) \)는 처음 물체의 위치이며 \( \mu \)와 \( \sigma^{2} \)는 초기 Particle 집단의 평균 값과 분산을 나타낸 것이다.</p> <p>\( x_{(0, i)}=x(0)+P_{(0, i)}\left(\mu, \sigma^{2}\right) \)<caption>(4)</caption></p> <p>움직이는 물체를 추정을 위한 ODPF는 3단계로 구성된다. 예측 단계에서는 상태 전이 모델에 따라 이전의 Particle 집단의 위치를 이동한 후 새로운 위치를 구한다. 식 (5)에서 \( x_{p(k, i)} \)은 \( \mathrm{k} \)번째 단계에서 \( \mathrm{i} \)번째 사전 Particle을 나타낸다. \(\mathrm{f} \)는 \(\mathrm{k-1} \)번째 단계의 위치에서 \( \mathrm{k} \)번째 단계의 위치로 이동할 때 영향을 주는 변수이며, \( \mathrm{g} \)는 입력 값이 \( \mathrm{k} \)번째 단계의 위치에 영향을 주는 변수이다. \( N\left(\mu_{n}, R_{n}\right) \)는 평균값이 \( \mu_{n} \), 분산이 \( R_{n} \)인 측정 잡음을 나타낸다.</p> <p>\( x_{p(k, i)}=f \times x_{(k-1, i)}+g \times u+N\left(\mu_{n}, R_{n}\right) \)<caption>(5)</caption></p> <p>갱신 단계에서는 센서로 측정한 정보를 이용하여 새로운 위치 상태에 대한 가중치를 계산한다. 즉, 예측 과정에 의해 예측된 Particle 들에 대하여 가중치를 획득하는 것이다. 가중치를 계산하는 방식은 통계적 발생 가능성 인자를 기반으로 한 분포 재해석 기법을 이용한다. 식 (6)은 측정 모델이며, 식 (7)과 식 (8)은 분포 재해석 기법을 사용한 가중치의 계산식이다. 식 (6)에서 \( y_{k} \)는 \( \mathrm{k} \)번째 단계에서 실제로 측정한 물체의 위치이며, 식 (7)에서 \( v_{(k, i)} \)는 \( \mathrm{k} \)번째 단계의 \( \mathrm{i} \)번째 Particle의 위치 \( x_{p(k, i)} \)와 실제 측정 위치 \( y_{k} \)의 오차거리, \( p_{i} \)는 Particle \( x_{(k, i)} \)에 대한 가중치를 나타넨다. 식 (8)은 통계적 발생 가능성 인자 (Maximum Likelihood)를 이용한 가중치 \( p_{i} \)를 정규화를 하기 위한 식이다.</p> <p>\( y_{k}=f \times x_{k}+g \times u+N\left(\mu_{n}, R_{n}\right) \)<caption>(6)</caption></p> <p>\( p_{i}=P\left(y_{k} \mid x_{p(k, i)}\right) \)\( =P\left(v_{(k, i)}=y_{k}-x_{p(k, i)}\right) \)\( \sim \frac{1}{(2 \pi)^{m / 2}|R|^{1 / 2}} e^{\left(-\frac{v_{k}^{T} R_{n}^{-1} v_{k}}{2}\right)} \)<caption>(7)</caption></p> <p>\( q_{i}=\frac{p_{i}}{\sum_{j=1}^{N} p_{j}} \)<caption>(8)</caption></p> <p>마지막으로 리샘플링 단계에서는 식 (9)에서 나타내었듯이 식 (8)에서 구한 \( q_{i} \)을 이용하여 새로운 가중치를 계산하고, 이를 이용하여 \( \mathrm{k} \)번째 단계의 \( \mathrm{i} \)번째 사후 Particle \( x_{(k, i)} \)을 선정한다. \( \mathrm{U}(0,1] \)은 \( (0,1] \) 범위 안에서의 균등 분포 (Uniform Distribution)를 따르는 랜덤 변수이다. 예측, 갱신, 리샘플링 단계를 반복하는 ODPF의 과정을 수행하며, 이를 통하여 정확한 위치를 추정할 수 있게 된다.</p>
|
Practice filter는 베이즈 필터의 일종으로서 관측된 측정값과 무작위의 상태변수를 이용해 변수의 확률분포를 구하는 데 목적이 있다. 이를 이용해 움직이는 물체, 로봇, 게임상의 인공지능 등 예측이 어려운 연속 공간상의 대상에 대한 위치를 추정할 수 있으며 이는 예측, 갱신, 리샘플링 3단계의 ODPF과정을 통해 이뤄진다.
|
<h1>요 약</h1> <p>본 논문은 노이즈가 비 정규 분포를 따르는 수중 환경에서 비 선형 필터 기법에 따른 Mass-Damper-Spring (MBK) 시스템 위치 추정에 관한 연구 내용이다. 최근 위치 추정에 사용되는 필터는 확장 칼만 필터 (EKF: Extended Kalman Filter) 와 파티클 필터(Particle Filter)가 주목 받고 있다. EKF는 가우시안 잡음 (Gaussian Noise) 이 존재하는 비선형 시스템에서 정확도가 높은 알고리즘으로 널리 사용되고 있지만, 수중 환경과 같이 비 가우시안 잡음이 존재하는 경우 사용에 많은 제약이 따른다. 이에 본 논문에서는 상태예측을 기반으로 둔 EKF와 비교하여, 통계적 발생 가능성 인자 (Maximum Likelihood) 에 기반한 분포 재해석 기법을 이용한 개선된 ODPF (One-Dimension Particle Filter)를 제안한다. 모의 실험을 통하여 non-Gaussian noise가 존재하는 수중 환경에서 EKF와 제안한 Particle filter를 사용한 위치 추정 결과를 비교 분석하였으며, 계산 용량 및 통계 샘플이 충분한 경우 ODPF가 EKF 대비 정확한 위치 추정 결과를 제공하는 것을 확인하였다.</p> <h1>I. 서 론</h1> <p>지상의 자원 소모로 인해 발생한 수중 자원개발 및 수중 생태계의 보호, 기후 변화에 따른 재해방지 등을 위하여 해양 환경의 연구가 이루어지고 있다. 이러한 연구들로 인하여, 수중에서의 위치 파악 기술은 중요한 이슈로 떠오르게 되었다.</p> <p>최근 위치 추정에 주로 사용되고 있는 필터는 칼만필터 (Kalman Filter) 이다. 칼만 필터는 상태를 예측하고 발생 할 수 있는 오류를 최소화 하여 위치의 근사값을 추정하는 기술이다. 그 중, 칼만필터에서 선형성을 완화시켜 비선형으로 확장한 확장 칼만 필터 (EKF: Extended Kalman Filter) 가 주목되고 있다. 지상에서 EKF는 네이게이션이나 GPS등에 많이 사용되고 있는 추세이다.</p> <p>하지만 EKF는 초기 추정이 틀리거나 추정된 공분산 매트릭스가 실제 공분산 매트릭스가 틀릴 경우 오차가 심해진다. EKF는 오류 성분과 측정값이 가우시안 분포를 가지고 있고 선형적인 움직임을 가정하기 때문에, 비가우시안 노이즈 성분이 있고 비선형적인 특성이 있는 수중 환경에서는 큰 오차를 가지게 되는 단점을 가지고 있다. 따라서 본 논문에서는 비선형적이고 비가우시안 노이즈가 존재하는 수중환경에서의 위치 추정을 위하여 EKF 대신 Particle Filter를 사용하는 방식을 제안한다. Particle Filter는 사전 분포 (Prior Distribution) 와 사후분포 (Posterior Distribution) 와 같은 베이지안 조건 확률 (Bayesiand Conditional Probability) 에 기반으로 한 필터 기법이다. 이 필터는 선형화 단계의 필요가 없고 노이즈의 분산이 커짐에도 비교적 정확한 결과 값을 가지게 된다.</p> <p>본 논문에서는 비가우시안 노이즈가 존재하는 수중 환경에서 1차원 Mass-Damper-Spring (MBK) 시스템을 사용하여 One-Dimension Particle Filter (ODPF)와 EKF의 위치추정을 모의실험하고, 그 성능을 비교분석을 하였다. 본 논문의 구성은 다음과 같다. II장에서는 Particle filter를 이용한 연구에 대해 소개를 하였다. III장에서는 본 논문의 모의실험에서 사용한 noise 모델과 본 논문에서 제안하는 ODPF을 설명하였다. IV장에서는 III장에서 설명한 시스템 모델을 적용하여 모의실험을 실시하고 결과를 비교분석 하였다. 그리고 마지막으로 V장에서 결론을 맺었다</p> <h1>II. 관련 연구</h1> <p>물체의 위치 추적 밋 추정의 경우 비선형 시스템이 대부분이다. 비선형 시스템에서의 EKF의 경우 시스템의 선형화를 거처 위치를 추정하지만, Particle Filter의 경우는 선형화 단계가 필요치 않으며 노이즈의 분산에 영항을 받지 않는다. 따라서 Particle Filter는 비선형 시스템에서 위치 추정을 위해 많이 사용되고 있다.</p> <p>물체의 위치를 추정하기 위하여 카메라 영상을 통하는 연구가 있다. 이 연구들은 영상안의 물체에서 특이점을 정하는 것에서부터 시작된다. 연구 중 한 가지는 영상정보의 \( \mathrm { x } \), \( \mathrm { y } \) 방향의 명함의 기울기를 측정하는 식을 사용하여 관측 모델링을 한 후, Particle Filter를 사용하여 특징점 추적을 실시하여 추정한다. 또 다른 연구는 영상에서 색상 히스토그램과 방향성 기울기 히스토그램 기술들을 혼합한 방식으로 물체의 특징점을 측정하고 이 데이터를 Particle Filter를 이용하여 물체를 추정한다.</p> <p>지상에서 GPS (Global Positioning System)는 짧은 시간에 대한 오차가 크고 INS (Inertial Navigation System)는 장시간에 대한 누적오차가 발생한다는 단점을 보안하기 위하여 GPS과 INS을 결합하여 위치추정을 하는 연구가 진행되고 있다. 이 연구는 Particle Filter에 Unscented Transform을 적용하여 필터링하는 기술을 제안하고 있다. 로봇의 위치 추정하는 한 연구는 SLAM (Simultaneous Localization Mapping)에서 Particle filter를 적용하여 자신의 위치를 추정하고 지도를 만들고 있다. 이 연구에서는 수신된 거리정보와 예측된 Particle을 가지고 거리정보에 대한 분포도를 만들고, 이를 바탕으로 추정 신뢰도를 계산하여 자신의 위치정보를 갱신하는 연구를 진행하였다.</p>
|
본문에서는 노이즈가 비 정규 분포를 따르는 수중 환경에서 비선형 필터 기법에 따른 Mass-Damper-Spring시스템 위치 추정에 관한 연구로써 EKF와 Particle Filter의 성능을 비교분석 하였다. EKF는 측정값이 가우시안 분포를 가지고 있기 때문에 비가우시간 노이즈성분이 있는 수중환경에서는 큰 오차를 가져오기 때문에 Particle Filter를 사용하는 방식을 제안하며, Particle Filter는 사전분포와 사후분포가 같은 베이지안 조건 확률에 기반한 것으로 선형화 단계의 필요가 없고 노이즈의 분산이 커짐에도 정확한 값을 가진다.
|
<h1>IV. 모의실험</h1> <p>본 논문에서는 수중환경에서 동일한 조건에서의 EKF와 ODPF의 위치 추적 확률을 비교하였다. 정확한 비교를 위하여 노이즈 모델에서의 비 가우시안 노이즈의 비율을 변화시켰다. 노이즈 모델에서 포함 비율 \( \mathrm{e} \)를 0에서부터 0.5까지 0.1의 단위로 변화시켰으며, Process와 Measurement의 노이즈 성분에 각각 적용시켰다. 표1은 모의실험에서 사용한 Alpha Stable Noise의 파라미터 값을 나타내었다.</p> <p>초기 물체의 위치 \( x(0) \)는 \( 2 \mathrm{m} \)로 설정하였으며, 측정모델에서 변수 \( \mathrm{f}, \mathrm{g} \)와 입력 \( \mathrm{u} \)는 다음과 같다.</p> <p>\( f=e^{-1 / 5}, \quad g=\frac{e^{-1 / 5}-1}{-2}, \quad u=1 \)</p> <p>MBK 시스템 모델에서 변수 \( \mathrm{f} \)와 \( \mathrm{g}, \mathrm{u} \)의 값이 크면 클수록 실제 모델의 위치 변화는 커지게 된다. 본 실험에서는 큰 값의 노이즈 성분을 추가하였기 때문에 상대적으로 작은 값으로 결정하였다.</p> <p>ODPF에서 초기 Particle 집단의 평균값 \( \mu \)은 실제 위치에 대한 정보를 모르는 상태에서부터 위치를 측정하기 때문에 0으로 설정하였으며 분산 \( \sigma^{2} \)의 값은 비 가 우시안 노이즈의 분산보다 큰 2의 값으로 설정하였다. 초기 Particle 집단의 분산은 위치를 추적하는 시간에 영향을 준다. 그러나 이 논문에서는 분산에 대한 추적 결과를 비교하는 것이 목적이 아니기에 다루지 않았다.</p> <p>모의실험에서 ODPF의 랜덤 변수의 값은 100개로 설정하였다. Measurement는 10초간 0.5초의 간격으로 실시하였다. 그림 1, 2, 3, 4, 5, 6은 각각 포함비율 \( \mathrm{e} \)를 0에서 0.5로 변화시켰을 때의 결과 그래프이다. 원으로 표현된 적색 선은 실제 위치를 나타내며 별로 표현된 청색 선은 ODPF를 사용하여 추적한 위치이며 십자로 표현된 녹색 선은 EKF를 사용하여 추적한 위치이다.</p> <p>모의실험의 그래프에서 약 2초 이후에 ODPF를 사용한 경우가 실제 위치를 근사하게 따라가게 됨으로서 그래프가 겹치는 것을 확인할 수 있다. 따라서 비가우시안 노이즈가 존재하는 환경에서 EKF를 사용한 경우보다 ODPF를 사용하였을 때 정확한 위치를 추정하는 것을 알 수 있다.</p> <p>본 논문에서 오차는 실제위치와 추정위치로 정의하였으며 각 모의실험에서의 오차의 평균과 표준편차는 표 2와 같다. 모의실험 결과표에서 비 가우시안 노이즈가 존재하지 않을 경우 EKF와 ODPF는 큰 차이를 보이지 않지만, 비가우시안 노이즈가 존재 할 경우 EKF보다 ODPF를 사용했을 때 추정 위치 오차가 적다는 것을 알 수 있었다.</p>
|
본 논문에서는 수중환경에서 동일한 조건에 EKF와 ODPF의 위치 추적 확률을 비교 하였다. 정확한 비교는 비 가우시안 노이즈의 비율을 0.5까지 01.의 단위로 변화 시켰고 Process와 Measurement의 노이즈 성분에 적용 시켰다.
|
<h1>요 약</h1> <p>본 논문은 차량의 엔진 및 내부 고장을 잘 알지 못하는 차량운전자들을 위해 휴대기기를 이용한 차량의 운행, 고장, 이상 정보를 모니터링하고 인터넷 환경에서 자료를 조회할 수 있는 서버시스템 운용에 관한 것이다. 운행 중 실시간으로 차량의 상태를 알려주기 위하여 기존의 네비게이션 및 GPS 위주의 텔레메틱스 기술에서 벗어나 차량 내부 망(In-Vehicle Network)에 연결된 엔진, 트랜스미션, 브레이크, 에어백 등의 제어장치인 ECU(Electronics Control Unit) 및 각종 센서들로부터의 데이터 획득을 위해 차량내의 OBD-II(On-Board Diagnostics) 커넥터에 직접연구 개발한 차량 정보 수집 장치를 연결한다. 또한, 무선 통신통신이 가능한 휴대기기(휴대폰, PDA, PMP, UMPC 등)에 차량 진단 프로그램을 탑재하여 차량 주행 중에 발생되는 운행, 고장, 이상 정보를 실시간으로 수집 및 분석한다. 이상 징후 발생 시 알림 메시지를 발생하여 차량의 이상에 대해 신속히 대처 할 수 있다. 이와 동시에, 휴대기기를 통해 수집된 차량 정보 데이터는 무선통신망을 통해 차량 관리 전문회사의 서버로 전송되고, 체계적인 차량 관리에 활용될 수 있도록 하기 위해 구축된 서비스 시스템에서 조회 및 활용되어지게 된다. 따라서 차량에 대한 지식이나 상식이 부족한 모든 운전자에게 차량 관리에 대한 편리함을 제공하여 안전운전 및 경제운전에 관련된 운전이력관리 등의 서비스를 제공할 수 있다. 이러한 편리성을 제공하고자 본 연구에서는 차량에 탑재되는 차량 정보 수집 장치와 운전자가 사용 중인 개인의 무선통신 휴대기기와 인터넷망으로 연계되는 차량 진단 및 모니터링이 가능한 시스템을 구성하였고, 자료의 조회 관리 기술을 연구하였다.</p> <h1>I. 서 론</h1> <p>21세기 사람들은 통신에 대한 범위를 단지 컴퓨터 또는 휴대폰으로만 생각하지 않고 모든 사물 간, 사람 간 그리고 사람과 사물 간의 커뮤니케이션으로 확대 해석되고 있다. 또한 유비쿼터스 시대에 접어들어 광대역 통신의 급속한 발전으로 유무선 인터넷 환경에 적용되는 다양한 응용분야가 급속히 확산되고 있는 추세이다. 특히 단순통화기능의 휴대폰에서 각종 자료관리가 가능한 스마트폰, PMP 보급이 확산되어지고 있어, 이동 중에도 데이터의 접근이 가능케 되었다. 이와 같은 내장형 시스템은 미리 정해진 특정 기능을 수행하기 위해 컴퓨터의 하드웨어와 소프트웨어가 조합된 전자 제어 시스템을 말하며, 필요에 따라서는 일부 기계가 포함될 수도 있다.</p> <p>컴퓨터와 통신을 하고 주행 중인 차량내의 시스템과 통신을 효과적으로 연계해 언제, 어디서나 각종 데이터의 검색이나 수정 등을 가능토록 하는 관리가 필요하며, 제한적인 플랫폼에서 원활한 동작을 위해 장비를 적절히 제어할 수 있는 소규모의 운영체제와 응용 프로그램을 구현할 수 있는 파일시스템, 또한 이동 중인 차량에 맞게 시스템이 구축되어야 한다. WiBro 및 WiMax시대를 맞아 현대인의 이동이 많고 방대해지면서 가정보다 외부나 자동차에서 생활하는 시간이 늘어나면서 누구나 언제, 어디서나 인터넷이 가능하고 위치정보 서비스, MP3 그리고 멀티미디어 동영상이 가능한 시스템을 원하고 이동 중 차량에 문제가 생겼을 경우 적절한 대응책을 찾고 진단 수리하고 싶어한다.</p>
|
본 논문은 차량운전자들이 엔진과 내부 고장을 알지 못하는 경우, 휴대기기를 이용해 차량의 상태를 실시간으로 모니터링하고 인터넷 환경에서 자료를 조회할 수 있는 서비스 시스템을 구축하여 차량 관리에 편리함을 제공하는 것을 목적으로 한다. 이를 위해 OBD-II 커넥터에 연결된 차량 정보 수집 장치와 통신 가능한 휴대기기에 차량 진단 프로그램을 탑재하여 운행, 고장, 이상 정보를 실시간으로 수집하고 이상 징후 발생 시 알림 메시지를 발생하여 차량의 이상에 대해 신속히 대처할 수 있게 한다.
|
<h1>III. 기존 시스템 분석 및 제안 시스템의 구성</h1> <p>다음은 기존 기술들에 대한 분석을 통하여 차량진단 및 모니터링 서비스에 대한 여러 가지 기능을 제안한, 모바일통신 휴대기기를 사용한 차량진단 및 모니터링 기술의 전체적인 구성요소와 흐름에 대하여 살펴본다.</p> <h2>1. 기존 방식과의 비교</h2> <p>차량 진단 및 상태 모니터링 방법은 크게 OBD-II를 이용하여 차량 통신을 통해 데이터를 수집하는 방법과 차량 엔진룸의 장치와 직접 차속 및 RPM 등을 유선으로 연결하여 사용하는 방법이 있다. 후자의 경우 전문 지식이 없는 일반 사용자가 사용하기 어려우며, 와이어링 하네스에 의한 각종 노이즈가 유입되어 차량의 데이터를 검증할 수 없으며, 차량의 고장 우려가 상존한다. 또한 기존 OBD-II를 통한 차량 정보 수집 방법 역시 차량 정보 수집 장치 외에 모니터링을 위한 별도의 단말기 설치가 필수적이거나 근거리 무선 통신을 사용하는 경우는 별도의 AP(Access Point) 설치 및 통신 거리가 제한적이라는 단점을 가지고 있었다.</p> <p>이에 본 논문에서는 차량 진단 및 모니터링을 위해 개인용 모바일통신 휴대기기에 차량 진단용 프로그램을 탑재하여 차량 상태를 모니터링하고, 차량 고장, 이상 발생 시 알림 기능을 주는 것을 특징으로 한다. 또한 모바일통신 및 인터넷을 통한 차량 관리 서버에 접속 시 차량 이력 및 통계에 관한 Report를 제공하며, 관리자나 사용자가 각 부분별 알림수치를 기입할 수 있는 컨피규레이션 모드를 제공한다.</p> <h2>2. 연구 고찰한 전체 시스템 구성</h2> <p>그림 2는 모바일통신 휴대기기를 사용한 차량진단 및 모니터링 기술의 전체 시스템 구성도를 나타낸다. 본 연구범위는 차량내의 OBD-II 커넥터를 통하여 차량에 장착되는 차량 정보 수집 장치와 차량 정보 모니터링 및 차량 데이터를 차량 정보 관리 서버로 전송하기 위한 모바일통신 휴대기기, 차량 데이터의 가공 및 분석을 위한 차량 정보 관리 서버로 구성되어졌다.</p> <p>차량 정보 수집 장치는 차량의 정보 데이터를 수집하고 블루투스로 연결된 모바일통신 휴대기기를 통해 차량 정보 데이터를 제공하고 휴대기기의 모바일통신를 통해 차량 정보 관리 서버로 차량 데이터를 전송한다. 차량 정보 관리 서버는 차량의 정보 데이터를 가공하여 차량 정보에 관한 Web/Report 서비스를 제공한다.</p> <h3>(1) 차량 전장 장치</h3> <p>차량의 정보 데이터는 엔진, 트랜스미션, 브레이크, 에어백 등의 제어와 상태 모니터는 차량에 장착된 ECU(Electronic Control Unit)에 의하여 기능이 수행되는데, ECU는 자동차의 기능과 성능에 따라 장착되는 수량과 기능이 다르나, 표준화된 OBD-II 커넥터를 통하여 차량정보 수집 및 진단과 점검을 위한 외부기기와 연결을 가능하게 한다.</p> <h3>(2) 차량정보 수집 모듈</h3> <p>차량 정보 수집 장치는 OBD-II 커넥터에 연결되어 표준화된 K-Line(ISO9141/14230) 또는 CAN(ISO15765) 통신 방식의 차내 통신망을 통하여 차량내의 ECU와 접속하여 ECU가 제어하거나 관리하는 정보를 실시간으로 수집 및 분석, 가공하여 저장한다. 이후 모바일통신 휴대기기의 운행정보 요청이나 차량의 고장, 이상 발생 시 모바일통신 휴대기기와 블루투스 통신을 통해 진동이나 벨소리로 운전자에게 알림 정보를 주거나 차량 정보를 디스플레이 한다.</p> <h3>(3) 무선통신 휴대기기</h3> <p>모바일통신 휴대기기는 블루투스로 연결된 차량 정보 수집 장치로부터 차량 운행에 관련된 정보를 수신받아 저장 및 디스플레이하고, 저장된 차량 정보 데이터를 모바일통신를 통해 차량 관리 서버로 전송한다.</p> <h3>(4) 차량 관리용 네트워크 서버</h3> <p>전송받은 차량 데이터를 가공하여 차량 이력을 관리하고, 사용자의 웹을 통한 조회를 통해 이력정보 및 통계정보 등의 누적된 차량 데이터를 토대로 차량 상태 관리에 대한 정보를 Web/Report해준다.</p> <h2>3. 자료 서비스 흐름</h2> <p>그림 3은 모바일통신 휴대기기를 사용한 차량진단 및 모니터링 시스템의 자료 서비스 흐름을 나타낸다. 자료 서비스 흐름을 기반으로 과정을 설명하면 아래와 같다.</p> <p>첫째, 차량내의 OBD-II 커넥터에 차량 정보 수집 장치를 접속한다. 모바일통신 휴대기기에는 차량 진단 프로그램을 탑재하고 차량 정보 수집 장치와의 블루투스 연동 및 차량 등록과정을 수행한다. 둘째, 차량 정보 수집 장치는 차량으로부터 차량 데이터를 주기적으로 수집 및 분석, 가공하여 저장을 하고, 모바일통신 휴대기기의 정보 요청 시에는 저장된 차량 정보를 블루투스를 통해 전송한다. 또한 차량에서 고장코드(DTC : Dynamic Traction Control) 발생이나 기준값을 초과하는 이상 상태 값(배터리 저전압, 고전압, 냉각수 온도, 엔진 오일 온도 이상 등) 발생 시에도 모바일통신 휴대기기로 차량 위험을 알리는 이벤트 데이터를 송신한다. 셋째, 모바일통신 휴대기기에서 차량 정보 수집 장치로부터 수신받은 운행, 고장, 이상 정보를 화면에 디스플레이하고, 고장코드 관련 이상 상태 이벤트 발생 시에는 휴대기기의 진동이나 벨소리를 통해 알림 메시지를 표시한다. 또한 기기에 저장된 차량 정보 데이터를 모바일통신망을 통해 관련 서버로 전송이 가능하다. 넷째, 차량 관리 서버는 모바일통신 휴대기기로부터 수신받은 차량 데이터를 가공하여 차량 이력을 관리하고 통계 자료를 산출하며 이력을 토대로 운전에 대한 안전운전 지수 및 경제운전지수를 산출하여 웹 조회를 통한 Report를 제공한다.</p>
|
차량 진단 및 상태 모니터링 방법은 크게 OBD-II를 이용하여 개인용 모바일통신 휴대기기에 차량 진단용 프로그램을 탑재하고 휴대기기의 모바일통신를 통해 차량 정보 데이터를 제공하고 차량 정보 관리 서버로 차량 데이터를 전송하며 차량의 정보 데이터를 가공하여 차량 정보에 관한 Web/Report 서비스를 제공한다.
|
<p>기존 연구는 차량의 이상여부를 진단할 수 있는 문제점을 해결하고 서비스를 제공하기 위해, WiBro 단말을 활용하여 차량관련 자료를 조회하였으나, 본 연구에서는 차량내의 OBD-II(On-Board Diagnostics)를 통한 차량 내부 ECU(Electronics Control Unit)와 접속하여 차량 정보를 획득하는 차량 정보 수집 장치와 개인의 모바일통신 휴대기기를 통해 차량 진단 및 차량 정보를 간략히 관리하고 보다 체계적인 데이터를 관리하기 위해 인터넷망으로 통한 시스템을 구축하여 자기 차량의 상태 및 운전 행위를 모니터링할 수 있도록 하였다. 이를 활용하여 자신의 운전 이력과 차량상태에 대하여 포괄적인 분석을 할 수 있게 되었으며, 이를 활용하여 보다 다양한 응용 서비스를 할 수 있도록 하였다.</p> <h1>II. 상태 자료 공유 연동플랫폼 요구사항</h1> <p>그림 1은 미국에서 배기가스 규제용으로 개발되었으나 일반적으로는 자동차의 진단을 위한 정보수집 장치로 주로 사용되고 있는 OBD-II 커넥터와 차량 내의 장치가 연결된 차량정보 수집장치 블록도를 보여주고 있다. 차량정보 수집장치는 \(16 \mathrm { Bit } \) 마이크로컨트롤러와 차량 ECU와 통신할 수 있는 K‐line Transceiver(ISO 9141 INTERFACE), 차량정보를 저장할 수 있는 EEPROM, DISPLAY 단말과의 통신을 위한 RS–232 Transceiver, 수집장치 내부의 시각설정을 위한 RTC, 표시장치인 LED로 구성된다.</p> <p>차량진단 및 모니터링을 위한 기존기술은 복잡한 네트워크 구성으로 인해 하드웨어 비용이 증가하는 문제점이 있으며, CDMA 모뎀이 내장된 경우에는 이동통신사의 별도 가입을 해야하는 등 추가 비용이 발생하며, 차량 진단 장치와 유선으로 연결하는 경우 와이어링 하네스에 의한 각종 노이즈가 유입되어 커넥터 내구성에 의한 고장의 우려가 있다.</p> <p>이러한 차량 운행 및 상태 자료 공유 연동 플랫폼의 정의에 따른 시스템에 있어서 자료의 획득 및 연동기술은 다음 기능을 제공하는 것을 목적으로 한다.</p> <h2>(1) 요구사항</h2> <ul> <li>In-Vehicle Network 및 CAN 통신 기능</li> <li>차량 데이터 전송을 위한 차량정보 수집 장치와 개인용 모바일통신 휴대기기와의 블루투스를 통한 연동 기능</li> <li>모바일통신 휴대기기의 무선통신망을 통한 차량 관리 서버로의 차량 데이터 전송 기능</li> <li>차량 관리 서버의 차량 데이터 분석 및 가공, Report 기능</li> <li>개인별 알림기능을 조정할 수 있는 컨피규레이션 모드 및 매뉴 제공</li></ul> <h2>(2) 기대효과 및 활용방안</h2> <ul> <li>차량의 운행, 고장, 이상상태 알림 및 정보수집</li> <li>모바일통신 휴대기기를 통한 실시간 차량 운행, 고장, 이상 상태 알림으로 안전 및 경제 운전 도모</li> <li>차량 데이터의 모바일통신를 통한 차량 관리 서버 전송에 의한 차량 정보의 이력, 상태 관리</li> <li>차량과 모바일통신 휴대기기간의 양방향 자료 연동플랫폼</li> <li>차량운행 정보, 상태 정보의 적정 값과 유의값 조정 등을 할 수 있는 컨피그레이션 부분</li> <li>연동솔루션의 Internet service, 응용 부가 서비스</li></ul>
|
이 연구는 차량의 상태 및 운전 행위를 모니터링하는 시스템을 제안한다. 기존 WiBro 기반의 차량 정보 조회 방식 대신, 이 시스템은 차량의 OBD-II를 통해 ECU에 직접 접속하고, 이 정보를 개인의 모바일 기기를 통해 관리한다. 그러나 기존의 네트워크 구성은 복잡하며, 하드웨어 비용 증가, 이동통신사 별도 가입 필요 등의 문제가 있다. 따라서 이 연구에서는 마이크로컨트롤러, K-line Transceiver, EEPROM, RS-232 Transceiver, RTC 및 LED를 통해 정보를 수집하고 표시하는 장치를 제안한다. 이 시스템은 차량 운행 및 상태 정보의 획득과 공유를 목표로 한다.
|
<h1>1. 서론</h1><p>수많은 자료를 효율적으로 다루기 위해 정보처리기술이 발달하고 있으며 대표적으로 인터넷 검색 서비스가 있다. 검색 결과가 너무 많아 한번에 보기가 어려울 경우, 현재의 검색시스템은 검색 결과의 유사도나 인기도 순으로 자료를 나열하여 사용자의 검색을 돕는다. 또한 일부 검색시스템들은 군집화 기술을 사용하여 유사한 자료들을 묶어서 보여줌으로써 사용자의 편의성을 높이고 있다. 이 군집화기술의 정확률이 향상된다면 더 편리하게 검색에 이용될 수 있을 것이며, 더 많은 영역에서 군집화를 사용할 수 있을 것이다.</p><p>일반적으로 검색 결과 문서들에 대한 군집화의 경우, 검색 결과의 문서 크기가 작고 수가 적기 때문에 계층적 군집화가 적합하며, 그 중에서도 특히 속도와 정확률 면에서 집단평균연결(Average-Link) 군집화가 가장 적합한 것으로 알려져 있다.</p><p>문서 군집화 과정에서 두 문서의 유사도나, 문서와 군집 사이의 유사도를 구하기 위해 두 개체가 공통적으로 가지는 단어를 이용한다. 검색 결과를 문서 군집화하는 측면에서 볼 때 여러 문서에서 반복적으로 나타나는 '불용어(stop-word)'들을 유사도 계산에서 제거할 필요가 있다. 그러나 색인화 과정에서 불용어를 제거하는 검색시스템과는 달리 군집화에서는 이런 불용어에 낮은 가중치를 부여하여 유사도 계산에 사용하는 것이 유용할 수 있다. 본 논문에서는 군집화 과정에서 흔히 쓰이면서 가치가 낮은 단어를 '범용어(common-word)'로 정의하고, 여러 검색 결과들을 비교하여 범용어를 자동으로 수집하는 새로운 방법을 제안한다.</p><p>계층적 군집화 과정에서는 문서와 문서 사이의 유사도나 아직 완성되지 않은 군집과의 유사도를 통해 군집을 구성해 나간다. 이 과정에서 특정 군집에 문서를 포함시키는 것이 유사도 계산에 의한 최상의 결정이더라도, 군집화가 계속 진행되면서 군집들의 성격이 변한다면, 형성된 군집 내의 문서들은 오류일 가능성이 있다. 이러한 오류들은 계층적 군집에서 상위 군집 내의 문서들에서 발견된다. 또한 군집화 과정에서 미분류 문서를 남기기도 한다.</p><p>이러한 오류 및 미분류 문서들은 최초 형성된 군집을 대상으로 군집과 문서 간의 유사도를 재계산하여 가장 유사한 군집으로 재분류함으로써 해결할 수 있다. 본 논문에서는 재분류 가중치로 단어의 역군집빈도(ICF, Inverse Cluster Frequency)를 사용하여 재분류 유사도 함수를 제안한다. 이 방법은 군집화 알고리즘과는 완전히 독립되며, 문서(단말 노드)간의 유사도를 구할 수 있다면 적용가능하다.</p><p>본 논문의 2장에서는 관련 연구를 살펴보고, 3장에서 범용어를 수집하고 가중치를 계산하는 방 법을, 4장에서는 범용어를 사용하기 위해 선택한 군집화 알고리즘을 살펴본다. 그리고 5장에서 군집화 이후의 재분류 가중치 및 유사도 함수를 이용한 알고리즘을 설명하고, 6장에서 범용어와 재분류를 적용한 실험 결과를 분석한다. 마지막으로 7장에서 결론 및 향후 연구 방안을 논의한다.</p>
|
일부 검색 시스템들은 군집화 기술을 사용하여 사용자의 편의성을 높이고 있다. 일반적으로 검색 결과 문서에 대한 군집화의 경우 집단평균연결 군집화가 가장 적합한 것으로 알려져 있다. 본 논문에서는 범용어를 자동으로 수집하는 새로운 방법과 단어의 역군집빈도를 사용하여 재분류 유사도 함수를 제안한다.
|
<h1>7. 결론 및 향후 연구 방안</h1><p>본 논문은 문서 군집화의 정확률을 향상시키기 위해서 범용어 수집과 재분류 알고리즘을 제안하였다. 두 방법을 실험하기 위해 네이버 지식인 검색 결과를 대상으로 "내적 유사도 함수"와 "집단 평균 연결 군집화"을 사용하였으며, 정확률을 객관적으로 측정하기 위해 네이버 지식인 카테고리를 사용하였다.</p><p>본 논문이 제안하는 군집화용 범용어를 수집하는 방법은 검색 시스템용 불용어 수집 방법과 달리 여러 문서 집단에 공통으로 존재하는 단어를 찾는다. 이렇게 수집한 범용어를 비교 실험하기 위해 범용어로 수집된 단어들을 불용어로 사용하여 군집화하였다. 실험한 결과 중에서는 범용어에서 가중치가 일정 수준 이하인 단어만 불용어로 사용하는 것이 가장 정확률이 높았으나 범용어를 사용한 정확률 보다는 낮았다.</p><p>범용어 자동 수집 알고리즘에서 무작위로 선택하는 단어의 개수와, 한 번에 검색하는 문서의 개수는 경험적으로 선택했을 뿐이며, 수집되는 범용어와 계산되는 그 가중치는 무작위로 검색어를 선택하기 때문에 매번 변할 수 있다는 문제점이 있다. 또한 알고리즘의 중단 조건은 무작위로 선택되는 검색어에 의해 지나치게 빠르게 수집을 중단시킬 수 있다. 따라서 범용어 수집은 앞으로 더 연구해야할 부분이 많다.</p><p>군집화가 끝난 후 ICF를 단어 가중치에 추가하고, 문서와 군집 사이의 유사도를 새로 계산하여 재분류한 결과 \( 96.68 \% \)에서 \( 98.49 \% \)로 정확률이 향상되어 전체 오류 중 \( 54.52 \% \)가 개선되었다. 대부분의 미분류 문서가 재분류에 의해 가장 유사한 군집으로 분류된 것이 크게 작용한 것으로 분석된다. 퍼지 이론을 이용한 동적 재분류와 실험 환경은 다르지만 본 논문이 제안하는 재분류는 개선 비율이 높고 안정적으로 작동하여 사용자의 의사 결정 없이 항상 적용할 수 있다. 그리고 하나의 문서는 하나의 군집에만 포함되게 하며 알고리즘의 복잡도는 문서 수에 선형이라는 차이점도 있다.</p><p>본 논문이 제안하는 재분류 방법은 하나의 문서를 미리 분류된 기존 군집 중 어디에 포함시킬지를 결정하는 부분에서 점진적 군집화와 유사점이 있다. 점진적 군집화는 대량의 문서를 빠르게 처리 가능하고 새로 추가되는 문서들도 빠르게 분류하는 장점이 있기 때문에 점진적 군집화에 적용할 방법을 연구하고 비교해 볼 필요가 있다.</p><p>이번 실험 분석을 통해 재분류는 미분류가 발생하여 재현율이 떨어지는 군집화에 적합할 것으로 예상된다. 만약 재분류의 특성을 더 파악한다면 다른 군집화에 대해서도 이것을 적용하기에 적합한지 미리 알 수 있고 정확률 향상 정도를 예측할 수 있을 것이다. 따라서 재분류를 다양한 군집화에 적용하여 결과를 분석하는 실험 연구가 필요하다.</p>
|
이 논문에서 문서 군집화의 정확도를 향상시키기 위한 방법으로 범용어 수집과 재분류 알고리즘을 제안하였다. 범용어 수집 방법은 여러 문서 집단에 공통으로 존재하는 단어를 찾는것이고 재분류 방법은 점진적 군집화와 유사점이 있으며 이는 많은 장점이 있기 때문에 점진적 군집화에 적용할 방법을 연구하고 그것과 비교해 볼 필요가 있다. 결과적으로 재분류의 특성을 통하여 다양한 군집화에 대해서 적용이 용이한지 미리 알 수 있으며 정확률 향상 정도를 예측할 수 있을 것이다.
|
<h1>4. 웹 검색 결과 군집화</h1><p>이 장에서는 본 논문에서 범용어와 재분류를 실험 연구하기 위해 사용한 WSRC를 간략히 설명한다. WSRC란 검색 결과에서 정보를 효과적으로 찾기 위해 결과들을 군집화하는 것이다.</p><p>WSRC는 서버보다는 클라이언트에서 수행하기에 적합하며, 현실적으로 검색 결과를 다운받는 시간을 고려하면 상위 일부분만을 군집화할 수 있다. 그리고 시간을 더 효율적으로 활용하기 위해 검색 결과로 나타나는 링크와 짧은 설명을 포함하는 토막(Snippet)만을 다루는 것이 좋다. 이런 이유로 WSRC에서는 군집화할 문서의 크기가 작고 수가 적기 때문에 계층적 군집화가 적합하다. 그 중에서도 특히 속도와 정확률 면에서 집단평균연결(Average-Link) 군집화가 가장 적합하다.</p><p>\( \operatorname{sim}(a, b)=\sum_{i=1}^{n} w_{a i} \times w_{b i} \)<caption><수식 1>내적 유사도</caption></p><p>연결 군집화를 위해서는 두 개체 간 유사도를 구하는 유사도 함수가 필요하다. 일반적으로 문서 유사도 함수는 두 문서가 가지는 공통된 단어가 많을수록 그리고 가중치가 높을수록 유사도를 높게 계산하며, 두 문서의 크기로 정규화 하는 부분도 포함한다. 그러나 본 논문은 토막의 크기가 대부분 일정하기 때문에 정규화를 하지 않는 내적 유사도<수식 1>를 사용한다.</p><p>단어의 가중치를 계산하기 위해서 본 논문에서 제시하는 범용어만을 사용하며, 범용어가 아닌 단어의 가중치는 1이다.<수식 1>에서 \( \mathrm{a} \)와 \( \mathrm{b} \)는 문서이며 \( \mathrm{i} \)는 단어, \( \mathrm{n} \)은 단어의 개수이다. 그리고 \( w_{a i} \)는 단어 i의 범용어 가중치와 문서 \( \mathrm{a} \) 안에서 단어 \( \mathrm{i} \)의 빈도수를 곱한 값이다.</p><p>연결 군집화는 모든 문서가 하나의 군집이 될 때까지 결합을 진행하거나 적정 시점에서 멈추기 위한 조건에 따라 중단될 수 있다. 본 논문에서는 총 3개의 중단 조건을 사용한다. 첫 번째 조건은 가장 유사한 쌍의 유사도가 일정 유사도 이하인 경우다. 두 번째는 총 군집의 수가 2개만 남은 경우다.</p><p>세 번째 중단 조건은 설명을 위해 몇 가지 정의가 필요하다. 일정 크기 이하의 작은 군집은 충분히 결합되지 않은 것으로 간주하여 미분류 군집이라고 하고, 이 군집에 포함된 문서는 미분류 문서라고 정의한다. 반대로 미분류가 아닌 경우 각각 분류 군집, 분류 문서라고 정의한다. 세 번째 중단 조건은 미분류 문서가 일정량 이하이고 분류 군집이 2개이며, 그 2개가 가장 유사한 쌍인 경우다. 따라서 분류 군집의 개수가 1개가 되지 않도록 중단한다.</p>
|
본 논문에서 범용어와 재분류를 실험 연구하기 위해 사용된 WSRC에 대해 설명한다. WSRC는 검색 결과에서 정보를 효과적으로 찾기 위해 결과들을 군집화하는 것이다. WSRC는 보통 클라이언트에서 수행하며, 계층적 군집화인 집단평균연결 군집화를 사용한다. 분류 군집의 개수는 1개가 되지 않도록 중단되게 설계되었다.
|
<h1>2. 관련 연구</h1><p>문서 군집화에 대한 연구는 다양한 목적과 관점에 따라 여러 가지 방법으로 진행되어 왔다. 특히 컴퓨터와 인터넷이 발전하고 웹 문서가 많아지면서 다양한 웹 문서 군집화가 연구되었다. 문서 군집화에는 다양한 알고리즘이 존재하며, 크게는 계층적/비계층적 알고리즘으로 나뉘고 각자의 장단점이 알려져 있다. 비록 알고리즘들의 방법은 다르지만 대부분 문서간의 공통된 단어를 찾으며 단어의 가 중치를 계산하여 적용한다는 공통점이 있다.</p><p>빠르고 정확한 문서 군집화를 위해 가치가 없는 불용어에 대한 연구가 있었고, 불용어가 군집화의 성능에 좋다는 실험 결과가 있다. 불용어와는 반대로 일부 중요 단어(자질어)만을 수집하는 연구도 있었다. 그리고 불용어에도 낮은 가중치를 부여하여 정확률을 향상시킨 연구가 있었다. 본 논문에서도 불용어 대신에 낮은 가중치를 부여하는 단어(이하 범용어)를 사용하여 웹 검색 결과 군집화에 사용하는 방법을 제안한다.</p><p>검색 시스템에서 무작위로 선택한 단어로 검색한 결과 문서들을 분석하여 불용어를 수집하는 연구가 있었다. 이 방법은 검색 시스템에서 사용하기 위한 것이며, 본 논문에서는 웹 검색 결과 군집화(WSRC, Web Searching Results Clustering)에 적합한 새로운 수집 방법을 제안한다. 본 논문이 제안하는 방법과의 가장 큰 차이점은 여러 개의 검색 결과 문서 집단에서 공통으로 나타나는 단어를 범용어로 수집한다는 것이다. 이러한 단어가 군집화에서도 서로 다른 군집 간에 동시에 존재할 확률이 높은 것이기 때문이다.</p><p>문서 군집화에서 단어의 가중치는 다양한 형태로 사용되며 정확률에 큰 영향을 줄 수 있다. 전통적으로 단어빈도(TF, Term Frequency)와 문서빈도(DF, Document Frequency)를 사용하고 있으며, 각각 상황과 목적에 맞추어 다양한 방법으로 응용하고 있다. 본 논문에서도 범용어 가중치를 계산하기 위해 WSRC 환경을 고려한 방법을 제안한다.</p><p>군집이 형성된 후에도, 사용자마다 차별되는 요구와 필요에 따라 군집 구조가 변하거나 문서가 재배치되는 동적 재분류 방법이 있다. 또한 군집들의 개수나 구조의 변화 없이, 문서의 배치만을 바꾸어 더 높은 정확률을 위해 계속해서 반복 재분류하는 방법도 연구되었다.</p><p>대량의 문서를 빠르게 군집화하기 위한 점진적 군집화(Incremental Clustering)가 연구되었다. 점진적 군집화는 미리 군집화된 정보를 기반으로 나머지 문서들을 선형적으로 처리하는 것으로 속도가 빠른 장점이 있다. 또한 추가적으로 발생하는 문서들을 처리할 수 있어 WSRC에서 계속되어 검색되는 문서들을 추가적으로 군집화하기에 적합하다.</p><p>본 논문에서는 군집화된 정보를 기반으로 하는 점진적 군집화의 특징을 응용한 새로운 재분류 알고리즘을 제안한다. 점진적 군집화의 대상이 이미 군집화된 문서가 된다는 점을 고려하여, 문서와 군집간의 유사도 함수를 제안하였으며 문서와 그 문서를 포함한 군집 간의 유사도에서 예외 처리를 추가하였다.</p>
|
문서 군집화에는 여러 알고리즘이 있고 크게는 계층적/비계층적 알고리즘으로 분류되고 있다. 본 논문에서는 불용어 대신 범용어룰 웹 검색 결과 군집화에 사용하는 방법을 제안하고 범용어의 가중치 산출을 위해 WSRC 환경을 고려했다. 또 문서와 군집간의 유사도 함수를 연구하였고 문서와 군집 간의 유사도에서 예외 처리를 추가로 덧붙였다.
|
<h1>5. 재분류</h1><p>문서 군집화 알고리즘은 문서를 잘못 분류하기도 하고, 상황에 따라 미분류 문서를 남기기도 한다. 본 논문에서는 이런 오류들을 찾아 올바른 군집으로 재분류하는 알고리즘을 제안한다. 재분류 알고리즘은 (그림 2)와 같이 범용어를 사용한 군집화 이후에 적용된다. 재분류를 통해 군집 결과에서 아주 작은 군집(미분류 문서)들이 적합한 다른 군집으로 분류되고 군집들이 전체적으로 조금씩 변하게 될 것이다.</p><h2>5.1 재분류 가중치</h2><p>군집화가 긑난 후에는 단어를 포함하는 군집의 수를 이용해 가중치를 계산할 수 있다. 만약 어떤 단어가 다른 단어에 비하여 더 많은 군집에서 나타난다면 가중치가 낮아야하고, 반대로 적은 군집에서 나타난다면 높아야 한다. 이것은 의미 그대로 역군집빈도(ICF)를 뜻하며, 본 논문에서는 재분류 가중치를 계산하기 위해<수식 2>를 사용하였다.</p><p>\( r_{i}(t+1)=r_{i}(t) / C F_{i}(t) \)<caption><수식 2>재분류 가중치</caption></p><p>\( r_{i}(t) \)는 재분류 횟수 \( \mathrm{t} \)에서 단어 \( \mathrm{i} \)의 가중치이다. 최초의 재분류에서 \( \mathrm{t} \)는 1이며 \( r_{i}(0) \)은 군집화에서 사용한 가중치를 그대로 사용할 수 있다. 본 논문에서는 \( r_{i}(0) \)으로 범용어 가중치를 사용하였다. 재분류가 반복될수록 \( t \)가 증가하며 가중치는 계속 누적되어 높고 낮은 가중치들의 격차가 뚜렷해진다.</p><h2>5.2 재분류 유사도 함수</h2><p>어떤 문서가 올바른 군집에 분류되었다면 그 문서와 그 문서를 포함하는 군집과의 유사도가 다른 군집과의 유사도 보다 높을 것이다. 만약 아니라면 잘못 분류된 것으로 간주할 수 있고, 가장 유사도가 높은 군집으로 재분류할 수 있다. 미분류 문서도 이와 비슷하게 가장 유사도가 높은 군집으로 분류할 수 있다.</p><p>문서와 군집의 유사도를 구하기 위해서, 집단평균연결의 방법을 사용할 수 있다. 그러나 군집화와는 달리 재분류에서는 오직 하나의 문서와 크기가 다양한 군집 사이의 유사도만 계산한다는 차이점이 있다. 하나의 커다란 군집 안의 모든 문서가 비록 공통된 주제를 가질 수는 있어도, 모두 다 공통된 단어를 가지기는 힘들다. 오히려 군집이 작을수록 모든 문서가 공통된 단어를 가지기 쉽다. 재분류 대상인 문서와 아주 유사한 문서들을 포함하는 군집이라도 다른 문서 또한 많이 포함된다면 유사도의 평균값은 낮을 것이다. 따라서 본 논문에서는 재분류라는 상황에 맞추어 평균을 구하는 과정에 조절이 가능한<수식 3>을 제안한다.</p><p>\(\operatorname{rsim}(C, a)=\frac{\sum w_{C i} \times w_{a i}}{\mid C^{k}}\)<caption><수식 3>재분류 유사도 함수</caption></p><p><수식 3>에서 \( \mathrm{a} \)는 문서, \( \mathrm{C} \)는 군집, \( \mid \mathrm{Cl} \)는 군집이 포함하는 문서의 수, \( \mathrm{i} \)는 단어를 의미한다. 그리고 \( w_{C i} \)는 \( \mathrm{C} \)에서 \( \mathrm{i} \)의 빈도수와 재분류 가중치를 곱한 값이며, \( w_{a i} \)는 \( \mathrm{a} \)에서 \( \mathrm{i} \)의 빈도수와 재분류 가중치를 곱한 값이다. 상수 \( \mathrm{k} \)는 수식을 재분류에 최적화하기 위한 값으로 실험을 통하여 구할수 있다. 만약 단순한 평균값이 가장 높은 정확률을 보인다면 \( \mathrm{k} \)는 1이 될 것이다.</p><h2>5.3 재분류 과정</h2><p>재분류는 각 문서와 군집간의 유사도를 측정하여 가장 유사한 군집으로 문서를 옮기는 것이다. 단, 문서는 미분류 군집으로는 옮기지 않으며, 자기 자신과의 유사도를 측정하지 않는다. 재분류 진행의 예가 (그림 3)에 나타나 있다.</p><p>(그림 3)에서 14번 문서가 재분류 되었고 5번 문서가 재분류 중인 모습이다. 중앙의 1, 2번 군집이 이전 군집화(또는 재분류)로 형성된 것이며, 우측의 \(N1, N2\)번 군집이 재분류로 새로 형성 중인 군집이다. 5번 문서는 본래 1번 군집에 포함되어 있으나 자기 자신과의 유사도를 측정하지 않기 위하여 일시적으로 제거되어 점선으로 표시되었다. 결국 5번 문서는 2번 군집과의 유사도가 더 높기 때문에 재분류 결과 \(N2\)번 군집으로 분류되었다.</p><p>이 알고리즘은 결과에 변화가 없을 때까지 반복이 가능하다. 그러나 현실적으로 시간을 고려해야하기 때문에 고정된 횟수만큼 반복할 것을 제안한다.</p>
|
본 논문에서는 문서 군집화 알고리즘의 오류들을 찾아 올바른 군집으로 재분류하는 알고리즘을 제안한다. 군집화가 끝난 후에는 군집의 수를 이용해 가중치를 계산하고, 어떤 단어가 다른 단어에 비해 더 많은 군집에서 나타난다면 가중치가 낮아진다. 문서와 군집의 유사도를 구하기 위해 집단평균연결의 방법을 사용한 재분류 유사도 함수를 제안한다. 마지막으로 각 문서와 군집의 유사도를 측정하여 문서를 옮기는 방법을 반복한다.
|
<h1>6. 실험 및 평가</h1><p>실험을 위해서 객관적으로 미리 분류된 정답이 필요하다. 본 논문은 네이버 지식인의 글들을 검색하고, 지식인 카테고리 번호를 통해 정답을 확인하는 실험을 하였다. 비록 군집과 카테고리는 \(1:1\) 대응하는 개념은 아니지만 실험 결과의 객관성을 위해 이를 사용하였다.</p><h2>6.1 네이버 지식인 카테고리</h2><p>네이버 지식인의 글들은 카테고리 번호를 가진다. 비록 군집화에서 분류하는 것이 카테고리로 분류하는 것과 동일한 기준을 가지지는 않지만 충분히 비교 가능하다. 만약 두 문서의 내용이 크게 달라 다른 군집으로 분류될 정도라면 카테고리도 다를 것이기 때문이다. 반대로 카테고리가 같은 두 문서가 다른 군집에 분류되었다면 둘 중 하나는 오답일 것이다.</p><p>이 카테고리는 트리 구조를 가지며, 최대 깊이는 4이며 대체로 3까지 이어진다((그림 4) 참조). 카테고리 연결에서 특정 카테고리를 선택하면 모든 자식 카테고리도 군집으로 연결된 것으로 간주한다.</p><p>카테고리는 사람이 결정하며, 비슷한 글이라도 다양한 관점에서 다른 카테고리를 선택할 수 있다. 따라서 군집 하나가 여러 개의 카테고리를 가질 수 있다. 정확한 실험을 위해 군집-카테고리 연결 정보는 사람이 직접 작성한다.<표 2>는 검색어 '비'에 대한 군집-카테고리 연결의 일부를 나타내고 있다.</p><h2>6.2 실험 방법</h2><p><표 2>처럼 군집-카테고리 연결 정보가 사람에 의해 구축되면, 다음 작업은 실제 군집과의 연결이다. 예를 들어 '비'로 검색하고 군집화하면 실제로 3개의 군집이 형성되지만 어느 것이 '소나기' 군집인지 구분해야 한다.</p><p>먼저 '소나기'에 속해야할 모든 카테고리의 문서로부터 단어들을 수집한다. 그리고 이 단어들로 군집과의 내적 유사도<수식 1>을 계산한다. 가장 유사도가 높은 군집이 '소나기' 군집이 된다. 이 방법은 군집화의 정확률이 일정 수준 이상이 되면 컴퓨터를 통해 자동화 가능하다.</p><p>문서는 그 문서를 포함하는 군집이 그 문서의 카테고리와 연결되지 않았다면 오답으로 처리한다. 따라서 미분류 문서도 모두 오답이다.</p><p>실험에 사용된 모든 군집화의 중단 조건은 동일하다. 중단 조건에서 사용되는 모든 상수(유사도 제한, 미분류 기준 등)도 동일하게 적용하였다.</p><h2>6.3 검색어와 검색된 문서들</h2><p>본 논문에서는 실험을 위해 중의적이거나, 고유 명사로서 의미가 여러 개인 검색어를 20개 선택하였다. 한국어 처리에서 중의성 해소가 힘든 단음절 단어 {비, 배, 차}를 포함하고 고유 명사 {빅뱅, 레오파드} 등을 포함한다.</p><p>20개의 단어로 각각 550개의 문서를 검색하였고, 몇몇 검색어는 550개 보다 적은 결과만이 검색되어 총 10,971개의 문서가 검색되었다. 그 중에서 8,092개의 문서가 군집-카테고리 연결 정보에 포함되어 정답세트을 구성한다. 나머지 문서는 카테고리 정보가 모호하거나 잘못된 경우다.</p>
|
중의적이거나, 고유 명사로서 의미가 여러 개인 검색어를 선택하고 네이버 지식인의 글들을 검색하여 사람이 분류한 카테고리와 자식 카테고리를 이용하여 카테고리의 문서로부터 단어들을 수집한다. 수집된 단어들로 군집과의 내적 유사도를 계산하여 가장 유사도가 높은 군집을 생성하며 군집화의 정확률이 일정 수준 이상이 되는 것들은 컴퓨터를 통해 자동화를 하였고 이런 방법으로 군집-카테고리 연결 정보에 포함된 정답세트을 구성할 수 있다.
|
<h2>2. 제안된 지능형 패턴분류기</h2> <p>본 논문에서 제안된 지능형 패턴분류기는 다항식 기반 방사형 기저함수 신경회로망으로 기존의 신경회로망에서 전처리 부분을 결합해 4가지의 기능적 모듈로 동작한다.</p> <h3>가. 제안된 지능형 패턴분류기 구조</h3> <p>기존의 신경회로망 은닉층의 활성함수로 많이 쓰이는 가우시안 함수 대신에 제안된 지능형 패턴분류기에서는 활성함수로 FCM 클러스터링을 사용하였다. 클러스터링은 데이터의 분류에서 사용되는 알고리즘으로 데이터 안의 유사한 패턴, 속성, 형태 등의 기준을 통하여 데이터를 분류하여 내부의 구조를 찾아내는 알고리즘이다. 전처리 과정을 거친 입력데이터가 은닉층으로 들어오면 특징 데이터는 FCM 클러스터링을 통해 클러스터 개수만큼의 중심점과 데이터 사이의 소속정도를 나타내는 소속값을 계산하여 이를 활성함수의 적합도 개념과 동일하게 사용하였고 식(5)와 같다.</p> <p>\( u_{i k}=\frac{\left(1 /\left\|y_{k}^{\prime}-v_{i}\right\|^{2}\right)^{1 / m-1}}{\sum_{j=1}^{c}\left(1 /\left\|y_{k}^{\prime}-v_{i}\right\|^{2}\right)^{1 / m-1}}=\frac{1}{\sum_{j=1}^{c}\left(\frac{d_{i k}}{d_{j k}}\right)^{2 / m-1}} \)<caption>(5)</caption></p> <p>\( \mathrm{d}_{\mathrm{ik}} \) 는 식(6)와 같이 유클리드 거리로 표현된다.</p> <p>\( d_{i k}=d\left(y_{k}^{\prime}-v_{i}\right)=\left[\sum_{j=1}^{s}\left(y_{k i}^{\prime}-v_{i j}\right)^{2}\right]^{1 / 2} \)<caption>(6)</caption></p> <p>여기서 \( u_{i k} \) 는 0과 1사이의 값이며, \( \mathrm{i} \) 번째 클러스터에 속해져 있는 \( y_{k}^{\prime} \) 의 \( \mathrm{k} \) 번째 데이터의 소속정도이며, \( v_{i} \) 는 \( \mathrm{i} \)번째 클러스터 중심벡터이다. \( \mathrm{j} \) 는 \( (j=1,2, \ldots, s) \) 특성 공간상의 변수이며, \( \mathrm{m} \) 은 퍼지화 계수이다.</p> <p>은닉층과 출력층 사이의 연결가중치는 1차 선형식으로 구성하였으며 식(7)과 같다.</p> <p>Linear \( f_{i}\left(Y^{\prime}\right)=a_{i 0}+\sum_{j=1}^{n} a_{i j} y_{i} \)<caption>(7)</caption></p> <p>1차 선형식의 다항식 계수를 추정하는 방식으로 WLSE(weighted Least Square Estimation) 을 사용하여 각 파라미터를 독립적으로 구하여 로컬 학습을 하였으며 독립적으로 구하기 때문에 실제 출력과 비교가 쉽고 해석능력도 향상된다는 장점이 있다.</p> <p>\( a_{j}=\left(X_{j}^{T} U_{j} X_{j}\right)^{-1} X_{j} U_{j} Y, \quad\left(a_{j}=a_{j 0}, a_{j 1}, \ldots, a_{j k}\right) \)<caption>(8)</caption></p> <p>여기서 \( a_{j} \) 는 추정하고자 하는 \( \mathrm{j} \) 번째 다항식의 계수, \( \mathrm{Y} \) 는 출력데이터, \( U_{j} \) 는 \( \mathrm{j} \) 번째 입력공간에 대한 입력 데이터들의 소속값을 의미한다. \( X_{j} \) 는 \( \mathrm{j} \) 번째 국부 모델의 계수를 추정하기 위한 입력 데이터 행렬을 의미한다. 본 논문에서 사용한 \(1\) 차 선형식일 경우 다음 식 (9)처럼 정의 된다.</p> <p>\( X_{j}=\left(\begin{array}{cccc}1 & x_{11} & \cdots & x_{1 k} \\ 1 & x_{21} & \cdots & x_{2 k} \\ \vdots & \vdots & \ddots & \vdots \\ 1 & x_{p 1} & \cdots & x_{p k}\end{array}\right) \quad U_{j}=\left(\begin{array}{cccc}u_{j 1} & 0 & \cdots & 0 \\ 0 & u_{j 2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & u_{j p}\end{array}\right) \)<caption>(9)</caption></p> <p>여기서 \( \mathrm{p} \) 는 전체 데이터의 수이다. 분류기의 최종 출력은 은닉층에서 구한 소속행렬과 다항식의 선형 조합으로 구성하였으며 식(10)과 같다.</p> <p>\( g_{q}(Y)=\sum_{i=1}^{c} \dot{R}_{i}(Y) f_{i q}(Y) \)<caption>(10)</caption></p> <p>\( \dot{R}_{i} \) 는 정규화된 적합도를 의미하며, \( q(q=1, \ldots , class) \) 는 출력층의 노드를 가리키는 동시에 클래스를 나타낸다.</p> <h3>나. 제안된 지능형 패턴분류기 최적화</h3> <p>진화알고리즘은 컴퓨터가 다룰 수 있는 모든 문제를 해결 할 수 있다. 하지만 문제 영역에 대한 지식이 충분치 않고, 해결 방안이 알려져 있지 않은 문제나 국부적인 탐색에 의존했던 문제에서 전역 해를 찾고자 할 때 진화알고리즘을 사용하는 것이 바람직하다. 즉, 반복적이고 경험적인 발견을 통해 해를 찾아야하는 문제에 사용한다. 본 논문에서는 차분 진화 알고리즘을 적용하여 제안된 지능형 패턴분류기의 성능을 결정하는 파라미터를 동조하였다.</p> <p>차분 진화 알고리즘 (DE : Differential Evolution) 은 Price와 Stom에 의해 벡터 차분을 사용하여 Chebychev 다항곡선의 내삽문제를 해결하는 과정에서 개발되었다. 차분 진화 알고리즘은 통계적 임의 탐색법인 유전자 알고리즘과 유사한 알고리즘이다. 유전자 알고리즘과 차분진화 알고리즘은 초기 개체를 샘플링하고, 교배(Crossover), 변이(Mutation), 선택(Selection)과정을 거처 적합도가 개선되는 새로운 개체들을 추출해낸다는 공통점이 있다. 하지만 유전자 알고리즘에서 발생하는 지역극소를 해결하였고, 또한 구조와 연산이 단순하여 수렴성이 뛰어나고 알고리즘의 제어 파라미터가 적어 병렬처리에 적합하다는 장점을 가지고 있다. 다음은 차분 진화 알고리즘의 수행 단계이다.</p> <p>[step 1] 초기집단 생성 (랜덤 값으로 \( \mu \) 개의 개체를 초기화, 각 개체는 \( \mathrm{n} \) 개의 목적 변수로 구성)</p> <p>\( P(t)=a_{1}(t), a_{2}(t), \cdots, a_{\mu}(t) \)<caption>(11)</caption></p> <p>[step 2] 집단내의 모든 개체의 목적함수를 평가</p> <p>\( \Phi(t)=\Phi\left(a_{1}(t)\right), \cdots, \Phi\left(a_{\mu}(t)\right) \)<caption>(12)</caption></p> <p>[step 3] 모든 개체 \( (\mathrm{i}=1, \cdots, \mu) \) 에 대하여 차분 변화를 위한 개체 \( a_{r 1}, a_{r 2}, a_{r 3} \) 를 선택하여 교배용 벡터(13)를 만들고 이를 교배 대상 벡터와 교배(14)</p> <p>\( v_{i}(t)=a_{r 3}(t)+F \cdot\left(a_{r 2}(t)-a_{r 1}(t)\right) \)<caption>(13)</caption></p> <p>\( x_{i}^{\prime}(t)=v_{i}(t) \times a_{i}(t) \)<caption>(14)</caption></p> <p>[step 4] 모든 개체의 목적함수를 평가</p> <p>[step 5] 종료조건을 확인하고 만족되지 않으면 \( \mathrm{t}=\mathrm{t}+1 \) 으로 하고 [step 3]으로 복귀</p>
|
신경회로망 은닉충의 활성함수로 가우시안 함수 대신에 제안된 지능형 패턴분류기에서는 FCM 클러스터링을 제안하고 FCM 클러스터링은 은닉충과 출력층의 연결 가중치를 1차 선형식으로 추정하는 방식으로 WLSE을 사용하여 각 피라미터를 독립적으로 구하기 떄문에 실제 출력과 비교가 쉽고 해석능력이 향상시킬수 있다. 하지만, 문제 영역의 지식이 불충분하고 해결 방안을 모르는 문제나 국부적인 탐색에 의존했던 문제는 진화알고리즘을 사용하는 것이 바람직하다. Price와 Stom의 벡터 차분을 사용하고 Chebychev 다항곡선 내샵문제를 해결하는 과정에서 개발된 차분 진화 알고리즘은 구조와 연산이 단순하여 수렴성이 좋고 알고리즘 제어 파라미터가 적어 병렬처리에 적합하다는 장점이 있다.
|
<h1>Ⅱ. 본 론</h1> <h2>1. 이미지 전처리 기법</h2> <p>제안된 분류기로 인식률을 산출하기 위해서는 입력 이미지 잘 다듬는 것이 매우 중요한 사실이다. 입력 이미지를 전처리 과정 없이 그대로 사용 할 수도 있겠지만, 그렇게 되면 사진의 왜곡된 부분이나 실제 얼굴영역이 아닌 다른 부분으로도 인식을 수행 할 수 있기 때문에 전처리 과정은 매우 중요하다. 본 논문에서는 조명에 의한 인식률을 최소화하기 위해 히스토그램 평활화를 실시하였고, 이미지에서 얼굴 영역만을 분리하기 위해 Adaboost 알고리즘을 사용하였다. 또한 이미지의 표현을 최대화하기 위해 특징추출 알고리즘인 (2D)\({}^{2}\)PCA를 사용하였다. 전처리 과정을 거친 데이터를 제안된 분류기의 입력으로 사용하여 인식률을 산출하였다.</p> <h3>가. 히스토그램 평할화</h3> <p>히스토그램이란 도수 분포의 상태를 기둥 모양의 그래프로 나타낸 것으로 우리는 이미지의 한 픽셀의 값을 그래프로 나타내었다. 히스토그램 평활화는 좁은 명암 영상의 밝기 분포를 균일한 분포를 나타낼 수 있도록 변환해주는 영상 처리의 한 기법으로 명암의 분포를 재분배 및 새로운 값으로 설정하는 과정을 의미한다. 명암이 일정하게 되면 희고 검은 부분이 명확하게 드러남으로써 좀 더 깔끔한 영상이 되고 특징 추출 알고리즘을 사용하기 위해서도 이미지의 화질을 개선시키는 것이 좀 더 많은 특징을 표현할 수 있기 때문에 히스토그램 평활화는 얼굴 인식 사용에 있어 인식률을 개선시키는데 매우 중요한 역할을 차지하고 있다.</p> <p>히스토그램 평활화는 다음 세 단계를 거쳐 영상을 화질을 개선시킨다.</p> <p>[단계 1] 영상의 히스토그램 생성.</p> <p>[단계 2] 식(1)을 이용하여 히스토그램의 정규화 및 누적합을 계산.</p> <p>\[ h(i)=\frac{G}{N} \times H(i) \]<caption>(1)</caption>G : 영상의 밝기 N : 영상의 크기 H(i) : 정규화 누적값 h(i) : 보정 값</p> <p>[단계 3] 입력영상의 화소 위치에 새로운 출력 맵핑</p> <h3>나. Adaboost 알고리즘을 이용한 얼굴영역 추출</h3> <p>Adaboost 개념은 예측 성능이 조금 떨어지는 규칙이지만 이들을 조합하여 더 높은 성능을 발휘하는 효과적인 방법을 찾는 것으로 즉 약한 분류기가 결합하여 성능이 우수한 강한 분류기 하나를 만들겠다는 의미이다. Harr-like Feature를 이용하는데 Harr-like Feature란 Harr-like Filter에 의해 계산되며, 0 또는 1의 값을 갖는다. Harr-like Feature의 형태는 무수히 많이 존재 할 수 있으며, 각각은 물체 분류를 위한 Classifier로서 사용된다. 하지만 Harr-like Filter만으로 강건하게 물체 분류를 하는 것은 불가능하기 때문에 이를 해결하기 위하여 Adaboost 알고리즘을 사용하였다. 무수히 많은 Harr-like Filter들 중 가장 효과적인 것들만을 선택하고, 이들을 선형 조합하여 최종 Classifier를 구성하는 것이다.</p> <p>그림 3은 연속적인 연결 구조를 나타내며 얼굴영역을 찾아가는 과정을 나타내었다.</p> <h3>다. 특징 추출 기법 (2D)\({}^{2}\) PCA를 이용한 차원축소</h3> <p>제안된 분류기의 입력으로 사용하기 위한 마지막 단계인 \( (2 \mathrm{D})^{2} \)PCA 과정은 이미지를 표현하는데 있어 매우 중요하다. 기존의 PCA방법은 입력받은 이차원의 이미지를 1차원으로 변환 후 특징 추출 및 차원을 축소하는 과정을 의미하는 것이고, (2D)\({}^{2}\)의 의미는 두 방향 이차원이라는 뜻으로 입력받은 이차원 데이터를 일차원으로 변환하는 과정 없이 횡에서 한번 열에서 한번 특징 추출 및 차원을 축소하는 과정을 의미한다. 이론적으로 같은 알고리즘이나 차원을 축소하는 크기에 있어 큰 차이를 보인다. \( 112 * 92 \) 의 사진을 벡터화하면 \( 10304 * 1 \) 이 된다. 따라서 공분산 행렬의 크기는 \( 10304 * 10304 \) 이 되어 계산이 매우 복잡해지고 공분산의 고유벡터를 정확히 구하는데 어려움이 따른다. 하지만 2차원 PCA는 2차원 이미지 자체를 행렬로 두고 공분산 행렬을 구하기 때문에 공분산 행렬의 크기가 \( 112 * 112 \) 와 \( 92 * 92 \) 밖에 되지 않아 데이터 처리하는데 있어 기존 일차원 PCA 보다 데이터 차원이 낮다.</p> <p>본 논문에서는 히스토그램 평활화와 Adaboost알고리즘을 거친 이미지를 (2D)\({}^{2}\)PCA 알고리즘을 이용하여 차원을 축소하는 과정을 전처리 과정 마지막에 수행하였고, 단계 설명은 다음과 같다.</p> <p>[단계 1] 전체 학습이미지 데이터의 개수를 \( \mathrm{M} \) 개, 이때 \( \mathrm{n} \) 번째 학습이미지를 \( A_{n}{ }^{R \times C} \) 행렬 \( (\mathrm{n}=1,2, \cdots, \mathrm{M}) \) 로, 학습이미지의 샘플들의 평균 이미지를 \( \bar{A}^{R \times C} \) 로 나타낸다고 하자. 이때 이 학습이미지 세트들의 이미지 열의 공분산 행렬 \( R G_{t} \) 는 다음의 식으로 계산된다.</p> <p>\( R G_{t}=\frac{1}{M} \sum_{n=1}^{M}\left(A_{n}-\bar{A}\right)^{T}\left(A_{n}-\bar{A}\right) \)<caption>(2)</caption></p> <p>[단계 2] \( R G_{t} \) 와 같이 행의 공분산 행렬 \( L G_{t} \) 는 다음의 식으로 계산된다.</p> <p>\( L G_{t}=\frac{1}{M} \sum_{n=1}^{M}\left(A_{n}-\bar{A}\right)\left(A_{n}-\bar{A}\right)^{T} \)<caption>(3)</caption></p> <p>공분산행렬 \( R G_{t}^{R \times R} \) 행렬이 되고, \( L G_{t}{ }^{C \times C} \) 행렬이 된다.</p> <p>[단계 3] 공분산 행렬 \( R G_{t}^{R \times R} \) 의 고유 값 \( \lambda_{R}{ }^{R \times R} \) 과 이에 대응하는 고유벡터 \( U_{R}{ }^{R \times R} \) 을 계산한다.</p> <p>[단계 4] 단계 3과 같이 공분산 행렬 \( L G_{t}{ }^{C \times C }\) 의 고유 값 \( \lambda_{L}{ }^{C \times C} \) 과 이에 대응하는 고유벡터 \( U_{L}{ }^{C \times C} \) 을 계산한다.</p> <p>[단계 5] 단계 3 , 단계 4에서 나온 고유 값 \( \lambda_{R}{ }^{R \times R} \) 와 \( \lambda_{L}{} ^{C \times C} \) 대해 고유 값이 큰 순서대로 다시 재배열하고, 재배열된 고유 값에 대해 고유 벡터도 재배열한다.</p> <p>[단계 6] 재배열된 고유벡터들을 줄이고 싶은 차원의 수 \( \mathrm{d} \) 만큼 차원을 줄이게 되면 \( U_{d R}{ }^{R \times d} \cdot U_{d L}{}^{C \times d }\) 이 된다.</p> <p>[단계 7] \( \mathrm{d} \) 만큼 차원을 줄인 벡터 \( U_{\mathrm{d} R}{}^{ R \times d} \) 와 \( U_{d L}{}^{ C\times d} \) 가지고 실제 전체 이미지를 얻는 식은 다음과 같다.</p> <p>\( \widetilde{A_{j}}=\sum_{j=1}^{M} U_{d R}^{\prime} \times A_{j} \times U_{d L}, \widetilde{A}^{d \times d}=\left[\widetilde{A_{1}}, \widetilde{A_{2}}, \cdots, \widetilde{A_{M}}\right] \)<caption>(4)</caption></p>
|
얼굴 인식 분류기에 입력 이미지를 전처리 없이 그대로 사용하면 사진의 실제 얼굴영역이 아닌 다른 부분을 인식할 수 있어 전처리 과정이 매우 중요하다. 전처리 과정 중에 하나인 히스토그램 평활화는 명암을 일정하게 하고, 희고 검은 부분을 명확하게 해줌으로써 화질을 개선하여 얼굴 인식률을 개선하는데 중요한 역할을 한다. Adaboost는 성능이 조금 떨어지는 약한 분류기들을 결합하여 우수한 성능의 분류기를 하나 만들겠다는 개념의 전처리이다. 특징 추출 기법 (2D)\({}^{2}\) PCA방법은 입력 받은 이차원의 데이터를 일차원으로 변화하는 과정 없이 특징을 추출하고 차원을 축소하는 과정을 의미한다. 이러한 전처리 과정들을 거친 데이터를 본 논문이 제안하는 분류기에 입력하여 사용함으로써 인식률을 산출한다.
|
<h1>요 약</h1> <p>ITS와 ETC 기술은 새로운 도로의 건설 없이 교통 능률과 이동 안전성을 개선하는 것을 목표로 현다. 이를 실현하는 한 방법으로 요즘 DSRC가 각광을 받고 있다. 2007년 5월에 공표된 중국 DSRC 표준은 낮은 비트 전송율, 단문 메시지 그리고 단순한 MAC 제어를 가지고 있다. DSRC 시스템 사용자들은 전지 1개로 1년 이상의 긴 사용기간을 원한다. 본 논문에서는 초저전력 소비 구조의 SoC를 설계하고자 한다. 몇몇 디지털 논리 개념과 아날로그 전력 제어 논리가 전력 소비를 줄이기 위한 기법으로 사용되었다. SoC 동작 모드, 클릭 속도, 동작 전압 범위, 웨이크업 신호 검출기, 아날로그 비교기, 그리고 내부 전압 조정기(IVR)와 외부 전력 스위치(EPS) 등이 설계된 블럭들이다. 시뮬레이션으로 확인한 SoC 전력 소비는 동작모드에서는 \(8.5 \mathrm { mA } \)@ \(20 \mathrm { Mhz } \), \(0.9 \mathrm { mA } \)@ \(1 \mathrm { Mhz } \) 이하이며, 전력 정지 모드에서는 \(5 \mathrm { uA } \) 이하였다. SoC는 2008년 8월에 설계를 완료하고, 2008년 11월에 \( 0.18 \mu \mathrm { m } \) CMOS공정으로 제작을 마쳤다.</p> <h1>Ⅰ. 서 론</h1> <p>ITS(Intelligent Traffic System, 지능형 운송 시스템)와 ETC(Electronic Toll Collection, 전자 통행료 징수) 기술은 새로운 도로의 건설 없이 교통 능률과 이동 안전성을 개선하는 것을 목표로 한다. 즉 운전자의 안전과 운전 편이성을 증진시키기 위하여 개발되었으며, 전체 교통 체증을 감소시키거나, 사고들을 공지하는 것들을 포함한다. 그것들을 실현하는 한 방법으로 DSRC(Dedicated Short Range Communication, 전용 최단거리 통신)이 요즘 많이 사용되고 있다.</p> <p>DSRC는 그림 1에서 보이는 바와 같이 RSE(Road Side Equipment, 도로 측 설비)와 OBU(On-Board Unit, 이동체 장비) 사이에 안정된 통신을 제공한다.</p> <p>DSRC 시스템은 그 응용 범위를 넓혀가고 있는데, 특히 안전 증대와 정보 교환을 위하여 차량-대-차량이나 차량-대-기반시설 사이의 통신에 적용되고 있다. 최근에는 ETC(Electronic Toll Collection, 전자 통행료 징수)에 적용되고 있다. 유럽과 미국은 각각 \( 5.8 \mathrm { GHz } \)와 \( 5.9 \mathrm { GHz } \) 주파수대들을 사용하여 유사한 시스템을 추구하고 있다. 한국과 일본에서 현재 사용되고 있는 DSRC 시스템은 여러 개의 칩셋 부품과 다수의 외부 부품들을 가지고 있는 혼합 부품 형태로 구현되어 있다.</p> <p>고속도로 네트워크가 계속 건설되고 있는 중국의 경우, 가장 긴 고속도로가 있는 장쑤성 지역에서는 반자동 인력 통행료 징수 온라인 시스템을 구축하였다. 그것은 중국의 지역들 사이에 첫번째이다. 지역 경제와 교통 운송의 발달과 더불어, ETC 온라인 시스템은 절박하게 요구된다.</p> <p>ETC 시스템의 기능으로는 차량 확인, 통행료 징수, 경로 확인, 차량 통과 등을 포함한다. 현재 중국에서 ETC 시스템은 베이징 지역으로 확대되고 있다. 중국 DSRC 시스템 개발자들은 DSRC 시스템이 1개의 전지 전력 공급으로 1년 이상 동작할 수 있기를 바라고 있다.</p> <p>본 논문에서 우리는 초저전력을 소비하는 DSRC SoC 구조를 제안한다. Ⅱ장에서는 발표된 중국 DSRC 표준을 설명하고, Ⅲ장에서는 설계한 SoC 구조를 설명한다. Ⅳ장에서는 초저전력 소비를 위해 적용된 기술을 설명하고, 마지막으로 Ⅴ장에서 결론을 서술한다.</p>
|
ETC와 ITS 기술은 신규 도로의 건설 하지 않는 이동의 안전성과 교통의 능률을 개선하고자 한다. 이를 위한 방법으로 DSRC가 대두 되고 있으며, 초저전력 소비 구조의 SoC를 구축한다. 즉, 운전의 편이성과 운전자의 안전을 위하여 개발된 것으로, 전체적인 교통 체증을 줄어거나 사고들을 알려주는 것을 포함한다. ETC 시스템의 기능은 통행료 징수, 차량 확인, 경로 확인, 차량 통과 등이 포함된다.
|
<h1>II. 중국 DSRC 표준</h1><p>중국 DSRC 표준은 2007년 5월에 발표되었으며, 다음과 같이 모두 5개의 부분으로 이루어져 있다.<ul><li>GB/T 20851.1-2007 : 물리적 계층</li><li>GB/T 20851.2-2007 : 데이터 링크 계층</li><li>GB/T 20851.3-2007 : 애플리케이션 계층</li><li>GB/T 20851.4-2007 : 설비 애플리케이션</li><li>GB/T 20851.5-2007 : 물리적 계층에 중요한 파라미터들의 테스트 방법</li></ul></p><p>중국 표준에 따르면, 반송 주파수는 \( 5.8 \mathrm{GHz} \) 주파수대이고, 그것은 단순한 낮은 비트 전송속도이다. DSRC 통신의 프로토콜은 HDLC(High-Level Data Link Control)와 유사하다.</p><p>그림 2는 GB/T 20851.1-2007의 DSRC 프레임 포맷을 보여주고 있다.</p><ul><li>깨움(Wakeup) 신호 : DSRC의 앞부분에 있는 수십 \(\mathrm{ms}\) 동안의 \( 14 \mathrm{MHz} \) 클록 신호. 이 신호는 오직 RSE로부터 전송된다. OBU는 이 신호를 받으면 반드시 활성 모드로 동작 모드를 바꾸어야 한다.</li><li>프리앰블(Preamble) : 개시 깃발(open flag) 전에 0에서 16비트까지의 0(zero)가 존재할 수 있다.</li><li>개시 깃발 / 종료 깃발(closing flag) : 깃발은 유일한 이진수 패턴인 0111 1110이다. 그것은 프레임 경계를 나타내어, 프레임의 각각 필드(field)들의 위치에 대한 기준을 제공한다. 하나의 깃발이 한 프레임의 종료 깃발로 사용됨과 동시에 다음 프레임의 열기 깃발로서도 사용될 수 있다.</li><li>주소 필드 : 시작 깃발을 따르는 필드가 주소 필드이다. 그것의 사이즈는 32비트에 이른다. 여러 개의 프로그램할 수 있는 숫자들로 주소 필드를 검사하여 수신된 프레임을 허용할 것인지 말 것인지를 결정할 수 있다.</li><li>데이터 필드 : 정보 필드로서 FCS 필드 앞에 온다. 그것은 바이트의 연속으로 이루어진다.</li><li>FCS 필드 : 종료 깃발에 선행하는 8비트, 16비트, 또는 32비트가 FCS 필드이다. FCS는 오류 검출 코드로서 프레임의 남아있는 비트들로부터 계산된다(깃발 비트 제외). 사용되는 코드는 순환 중복 검사(Cyclic Redundancy Check)이다. 전송 프레임의 FCS 필드는 다음의 생성 다항식 중 하나에 의해 만들어진다. CRC8\( \left(x^{8}+x^{7}+x^{3}+x^{2}+1\right)\), CRC-CCITT\(\left(\mathrm{x}^{16}\right. \) \( \left.+x^{12}+x^{5}+1\right) \) 또는 CRC32\( \left(x^{32}+x^{26}+x^{23}+x^{22}+x^{16}+x^{12}\right. \) \( \left.+x^{11}+x^{10}+x^{8}+x^{7}+x^{5}+x^{4}+x^{2}+x+1\right) \)</li><li>포스트앰블(Postamble) : 0에서 16비트까지의 0(zero)가 종료 후에 있을 수 있다.</li></ul>
|
HDLC와 유사한 2007년 5월에 발표된 중국 DSRC 표준을 설명한다. 해당 논문에서는 DSRC의 앞부분에 있는 클록 신호인 깨움 신호, 개시 깃발 전에 0에서 16비트까지의 0가 있을 수 있는 프리앰블, 프레임 경계를 나타내며 프레임의 각 필드 위치에 대한 기준을 제공하는 개시 깃발 등의 프레임 포맷을 서술한다.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.