passage
stringlengths
5
922k
summary
stringlengths
0
10.2k
<p>따라서 새로운 바이어스 기법은 입력 신호의 크기가 작을 때는 드레인 바이어스 전압 \( V_ { D D } \) 를 \( 10 \mathrm { ~V } \) 로 고정시켜 class \( \mathrm { AB } \) 동작을 하게하고, 입력 신호가 클 때는 \( V_ { D D } \) 를 \( 10 \mathrm { ~V } \) 에서 \( 32 \mathrm { ~V } \) 사이에서 변화시켜 envelope tracking 동작을 하도록 한다. 이는 class \( \mathrm { AB } \) 와 envelope tracking의 결합이라고 할 수 있다. 이 방법은 \( V_ { D D } \) 가 문턱전압 근처까지 낮아지지 않으므로 기존 envelope tracking 전력 증폭기의 선형성을 크게 개선할 수 있다. 또한, 평균효율 저하는 크지 않다.</p> <h3>나) 드레인 바이어스 전압과 입력 신호 크기의 관계</h3> <p>기존의 envelope tracking 전력 증폭기에서 드레인 바이어스 전압은 그림 4 에서처럼 \( V_ { D D \min } \) 과 \( V_ { D D \max } \) 사이에서는 \( V_ { D D } \) 를 \( \left |V_ { i } \right | \) 에 편의상 선형적으로 매핑한다. 이러한 방법 역시 드레인 바이어스 전압에 따른 트랜지스터의 선형성 특성을 제대로 반영하지 못한 것이다. 입력 신호의 크기에 대응하는 트레인 바이어스 전압을 결정하는 새로운 방식은 다음과 같다.</p> <p>그림 6 은 \( V_ { D D } = 10 \mathrm { ~V } , 20 \mathrm { ~V } , 30 \mathrm { ~V } \) 에서 입력 신호의 크기 \( \left |V_ { i } \right | \) 에 따론 전력 이독 (그림 \( 6( \mathrm { a } ) \) ) 과 출력 전압의 위상(그림 \( 6( \mathrm { ~b } )) \) 울 나타낸 것이다. 따라서 각각은 \( \mathrm { AM } - \mathrm { AM } , \mathrm { AM } - \mathrm { PM } \) 특성이다. 각 드레인 바이어스 천압에 대응하는 입력 전압은 이러한 \( \mathrm { AM } - \mathrm { AM } \) 및 \( \mathrm { AM } - \mathrm { PM } \) 특성을 개선하도록 결정한다. 그림 \( 6( \mathrm { ~b } ) \) 의 \( \mathrm { AM } - \mathrm { PM } \) 특성에서 드레인 바이어스 전압과 입력 신호의 크기에 따라 위상 변화가 아주 큰 것을 알 수 있다. 이는 전력 증폭기의 선형성을 크게 저하시키게 된다. 따라서, 입력 전력의 크기에 따라 위상 변화가 크지 않도록 드레인 바이어스 전압을 결정하였는데 그림에서는 점으로 표시되어 있다. 이렇게 선택된 점은 그림 6 (a)의 \( \mathrm { AM } - \mathrm { AM } \) 특성에서는 전력 이득이 \( \mathrm { P } _ {\mathrm { ldB } } \) 이내에 위치하는 것을 알 수 있다.</p> <h2>3. 여러 가지 바이어스 기법 비교</h2> <p>본 연구에서 제안된 바이어스 기법이 \( \mathrm { W } \)-CDMA 기지국용 전력 증폭기의 효율과 선형성 특성에 어떠한 영향을 미치는 지 살펴보기 위하여, 여러 가지 바이어스 기법에 대하여 시뮬레이션을 수행하였다. 그림 7은 본 연구에서 고려된 네 가지 바이어스 기법 각각의 \( \left |V_ { i } \right | \) 와 \( V_ { D D } \) 의 관계를 나타낸 그림이다. 게이트 바이어스 전압은 \( V_ { G G } = 4.04 \mathrm { ~V } \) 로 고정되어 있다.</p> <p>바이어스 기법 1은 일반적인 전력 중폭기 바이어스 기법으로서 드레인 바이어스 \( V_ { D D } \) 가 \( 28 \mathrm { ~V } \) 로 고정되어 있는 경우이다. 이는 envelope tracking 전력 증폭기가 어느 정도 효율 및 션형성 개선 효과가 있는지 비교 대상이 될 것이다.</p> <p>바이어스 기법 2는 기존 envelope tracking 전력 증폭기 바이어스 기법으로서 입력신호 크기에 따라 \( V_ { D D } \) 를 \( 3 \mathrm { ~V } \) 와 \( 32 \mathrm { ~V } \) 사이에서 선형적으로 조절하는 바이어스 기법이다.</p> <p>바이어스 기법 3 과 4 는 본 연구에서 새로이 제안된 방법이다. 바이어스 기법 3 은 드레인 바이어스 전압의 최소값을 \( 10 \mathrm { ~V } \) 로 증가시킨 것이다. 바이어스 기법 4 는 \( V_ { D D } =10 \mathrm { ~V } \) 이상에서 그림 6 에 제시된 것과 같은 방법으로 \( V_ { D D } \) 와 \( \left |V_ { i } \right | \) 관계를 구한 것이다. 기법 2 와 비교했을 때 이 기법은 같은 \( \left |V_ { i } \right | \) 에 대하여 더 높은 \( V_ { D D } \) 가 필요하다는 것을 알 수 있다.</p>
새롭게 제안된 바이어스 기법은 입력 신호의 크기에 따라 드레인 바이어스 전압 \( V_ { D D } \)를 조절하여 전력 증폭기의 동작 방식을 변경한다. 입력 신호가 작을 때는 \( V_ { D D } \)를 \( 10 \mathrm { ~V } \)로 고정하여 Class AB 동작을 유지하며, 입력 신호가 클 때는 \( V_ { D D } \)를 \( 10 \mathrm { ~V } \)에서 \( 32 \mathrm { ~V } \) 사이로 변화시켜 envelope tracking 동작을 수행한다. 이 방식을 통해 \( \mathrm { AM } - \mathrm { AM } \) 및 \( \mathrm { AM } - \mathrm { PM } \) 특성이 개선되며, 본 연구에서는 여러 바이어스 기법을 시뮬레이션하여 그 효과를 검증하였다.
<p>\( V_ { D D } = \left \{\begin {array} { ll } A_ { v, e n v } \left |V_ { i } \right |, & \left |V_ { i } \right |_ { 0 } \leq \left |V_ { i } \right | \leq \left |V_ { i } \right |_ {\max } \\ V_ { D D \min } , & \left |V_ { i } \right |< \left |V_ { i } \right |_ { 0 } \end {array} \right . \)<caption>(1)</caption></p> <p>여기서, \( A_ { v, e n v } \) 는 envelope 중폭기의 전압 이득, 즉, \[A_ { v, \text { env } } =V_ { D D \max } / \left |V_ { i } \right |_ {\max } \text { 이다. 그리고 } \left |V_ { i } \right |_ { 0 } \text { 는 } V_ { D D \min } \text } 에 대응하는 입력 신호의 크기, \( \left |V_ { i } \right |_ { 0 } =V_ { D D \min } / A_ { v, e n v } \) 이다. 이 관계식을 그래프로 나타낸 것이 그림 4이다.</p> <p>이러한 기존의 바이어스 기법은 전력 증폭기의 선형성을 크게 저하시킨다. 본 연구에서는 이를 개선할 수 있는 새로운 드레인 바이어스 결정법에 대하여 제안하고자 하는데, 드레인 바이어스 전압의 최소값 \( V_ { D D m i n } \) 결정법과 \( V_ { D D m i n } \) 이상의 전압에서 \( V_ { D D } \) 와 \( \left |V_ { i } \right | \) 와의 관계를 구하는 방법 등 두 가지 측면을 다룬다.</p> <h3>가) 드레인 바이어스 전압의 최소값</h3> <p>드레인 바이어스 전압의 최소값 \( V_ { D D m i n } \) 을 평균효율 향상을 위해 기존과 같이 문턱전압 근처까지 낮추는 것은 문제가 있다. 왜냐하면 낮은 드레인 바이어스 전압에서는 전류의 비선형성이 증가하여 선형성 특성이 나쁘며, 트랜지스터의 이득도 급격히 낮아지므로 envelope tracking에 의한 전력부가효율 개선 효과도 크지 않기 때문이다. 그림 5 는 드레인 바이어스 전압이 \( 3,6,9 \), \( 10,20,30 \mathrm { ~V } \) 일 때, 설계된 전력 중폭기의 \( \mathrm { CW } \) 시뮬레이션 특성을 보여준다. 그림 \( 5( \mathrm { a } ) \) 는 입력전력(input power)에 따른 전력이독(power gain), 그립 \( 5( \mathrm { ~b } \) )는 입력전력에 따른 전력부가효율(PAE) 그림이다. 그림 5(a) 에서 알 수 있듯이, \( V_ { D D } \) 가 \( 10 \mathrm { ~V } \) 이하가 되면 전력 이득이 급격하게 감소한다. 또한, \( V_ { D D } = 10 \mathrm { ~V } \) 이하에서는 그림 5(b)에서처럼 전력부가효율이 전혀 개선되지 않는다는 것을 알 수 있다. 즉, 드레인 바이어스 전압을 \( 10 \mathrm { ~V } \) 이하로 낮추면 평균 효율 개선 효과는 없으며 선형성 특성은 크게 저하된다. 이롤 고려하여 본 연구에서는 \( V_ { D D \min } \) 올 \( 10 \mathrm { ~V } \) 로 결정한다.</p>
기존의 바이어스 기법은 전력 증폭기의 선형성을 크게 저하시키므로 본 연구에서 새로운 드레인 바이어스 결정법과 드레인 바이어스 전압의 최소값 이상의 전압에서 \( V_ { D D } \) 와 \( \left |V_ { i } \right | \) 와의 관계를 구하는 방법 등을 다룬다. 시뮬레이션으로 드레인 바이어스 전압 \( V_ { D D } \) 가 \( 10 \mathrm { ~V } \) 이하가 되면 평균 효율 개선 효과는 없으며 선형성 특성은 크게 나빠지므로 드레인 바이어스 전압의 최소값 \( V_ { D D m i n } \)을 \( 10 \mathrm { ~V } \) 로 정한다.
<h1>I. 서 론</h1> <p>기지국용 전력 증폭기(power amplifier)는 일반적으로 우수한 선형성과 효율 특성이 요구된다. 효율은 전력 소자에서 발생하는 열과 밀접한 관련이 있으며 효율이 나쁘면 많은 열이 발생한다. 이는 결과적으로 소자의 특성과 내구성을 저하시키기 때문에 고비용의 냉각시스템을 필요로 한다. 따라서 효율이 높은 선형 전력증폭기는 시스템의 가격과 유지보수 비용을 떨어뜨리고, 전력 소자의 성능과 내구성을 보장하게 된다.</p> <p>Envelope tracking 전력 증폭기는 그립 1 과 같이 입 력 신호가 작을 때는 드레인 바이어스 전압을 낮추어 평균 효율을 증가시키는 방법이다. 그림 1 에서처럼, \( \mathrm{RF} \) 입력 신호에서 산호의 크기, 죽 cnvelope을 추출하여 envelope 증폭기를 통해 중폭한 다음, \( \mathrm{RF} \) 전력 증폭기의 드레인 바이어스 전압 \( \left(V_{D D}\right) \) 을 조절해 주는 구조이다. 여기서 \( \mathrm{RF} \) 전력 증폭기(RF PA)는 일반적으로 선형성 특성이 우수한 class \( \mathrm{AB} \) 전력 증폭기를 사용한다. \( \mathrm{W} \)-CDMA 신호에 대하여 envelope tracking 전력 증폭기는 일반적인 class \( \mathrm{AB} \) 전력 증폭기에 비하여 \( 1.5 \) 배 이상 우수한 평균 효율 특성을 보이는 것으로 보고되었다.</p> <p>기존의 envelope tracking 선력 증폭기에서 드레인 바이어스는 단순히 입력 신호의 크기에 비례하도록 결정된다. 드레인 바이어스 전압의 최대값은 트랜지스터의 붕괴전압(breakdown voltage)에 의해서 견정되고, 최소값은 평균 효율 향상을 위하여 최대한 낮게 결정되는데 일반적으로 트랜지스터의 문턱전압(knee voltage) 근처에서 결정된다. 최소값과 최대값 사이에서는 입력 신호의 크기와 선형적인 관계를 갖도록 도레인 바이어스 전압이 결정된다. 이러한 envelope tracking 전력 증폭기는 드레인 바이어스 전압 변화에 따른 트랜지스터의 특성 변화로 인하여 선형성 특성이 나쁜 단점이 있다. 따라서, 디지털 전치왜곡기와 같은 선형화 기법이 필수적으로 사용되어야 한다. 또는, 입력 신호의 크기에 따라 게이트 바이어스 전압을 바꾸어 주는 기법도 사용할 수 있다.</p> <p>본 연구에서는 envelope tracking 전력 증폭기의 선형성 개선을 위해서 드레인 바이어스 전압을 결정하는 새로운 방법을 제안한다. 이를 위해 W-CDMA 기지국용 class \( \mathrm{AB} \) 전력 중폭기를 설계한 다음, 서로 다른 드레인 바이어스 기법에 대하여 envelope tracking 전력 증폭기의 특성(평균 효율, 선형성)을 비교한다. 평균 효율을 저하시키지 않으면서 envelope tracking 전력 증폭기의 선형성을 크게 개선시킬 수 있는 드레인 바이어스 기법을 제안하고 시뮬레이션으로 검증한다.</p>
Envelope Tracking 전력 증폭기는 입력 신호의 크기에 따라 드레인 바이어스 전압을 조절하여 평균 효율을 증가시키는 방법이다. W-CDMA 신호에 대해, Envelope Tracking 전력 증폭기는 1.5배 이상 우수한 평균 효율 특성을 보인다. 본 연구에서는 드레인 바이어스 전압을 결정하는 새로운 방법으로 class AB 전력 중폭기 설계를 통해 평균 효율과 선형성 특성이 모두 우수한 Envelope Tracking 전력 증폭기를 얻을 수 있다.
<h2>2. 색수차 영역 보정</h2> <p>색수차 영역을 복원하기 위해서 앞에서 구한 색수차 영역을 바탕으로 R 채널과 B 채널 에지의 그라디언트를 G 채널 에지의 그라디언트와 맞추는 방법을 이용한다. G 채널 에지의 그라디언트와 맞추는 것은 배율 색수차를 제거할 수 있을 뿐 아니라 축상 색수차로 인해 R 채널과 B 채널의 무너진 에지를 G 채널의 에지와 맞추어 흐림 현상을 제거할 수 있기 때문에 축상 색수차를 제거하는 효과를 가진다. 또한, purple fringing과 같이 밝은 영역에서 나타나는 색 결함까지 제거할 수 있다. 제안되는 방법에서는 다음과 같은 에너지 함수 \( L_ { R } , L_ { B } \)를 검출된 색수차 영역 안에서 최소화시키는 방법으로 색 결함을 복원 시킨다.</p> <p>\( L_ { R } (i, j) = \left \| \rho_ { R } (i, j) \nabla I_ { G } (i, j)- \nabla \widehat { I } _ { R } (i, j) \right \| ^ { 2 } \)</p> <p>\( L_ { B } (i, j)= \left \| \rho_ { B } (i, j) \nabla I_ { G } (i, j)- \nabla \widehat { I_ { B } } (i, j) \right \| ^ { 2 } \)<caption>(1)</caption></p> <p>위 식에서 \( \nabla \) 는 그라디언트 연산자를 나타내며, \( I_ { G } \)은 주어진 영상의 G 채널의 밝기, \( \widehat { I_ { R } } , \widehat { I_ { B } } \) 는 각각 복원하고자 하는 R 채널과 B 채널의 밝기를 나타낸다. 또한, \( \rho_ { R } (i, j), \rho_ { B } (i, j) \) 은 그라디언트의 복원하고자 하는 채널의 밝기의 그라디언트 비율을 조정하는 가중치 함수이다.</p> <p>이 때, \( \rho_ { R } (i, j), \rho_ { B } (i, j) \) 는 식 (2) 와 식 (3)과 같이 표현할 수 있다. 색수차가 검출된 영역 대부분에서는 \( \nabla G \) 값을 복원하고자 하는 채널에 그대로 적용시키면 되지만, G 채널의 강한 에지 부분에서는 그대로 적용시킬 경우에는 채널간 에지 크기의 차이고 인해 에지의 잘못된 변동현상이 일어나게 된다. 이를 방지하기 위해 에지 검출과정에서 구한 에지 주변 영역의 채널별 최댓값과 최솟값을 이용한다. 이를 이용하여 강한 에지 부분에서 채널간 비율 \( \rho_ { R } (i, j), \rho_ { B } (i, j) \) 를 구해 식 (1)에 적용시킨다.</p>
G 채널 에지의 그라디언트를 축상 색수차로 R 채널과 B 채널의 무너진 에지의 그라디언트와 맞추는 방법으로 축상 색수차를 제거하는 효과를 가지며, purple fringing과 같이 밝은 영역에서 나타나는 색 결함까지 제거하여 색수차 영역을 복원할 수 있다.
<p>\( \rho_ { R } (i, j)= \left \{\begin {array} { l } \frac { R_ {\max } (i, j)-R_ {\min } (i, j) } { G_ {\max } (i, j)-G_ {\min } (i, j) } , \\ 1, \end {array} \right . \) if \( \left \| \nabla I_ { G } (i, j) \right \|>t h \) otherwise<caption>(2)</caption></p> <p>\( \rho_ { B } (i, j)= \left \{\begin {array} { l } \frac { B_ {\max } (i, j)-B_ {\min } (i, j) } { G_ {\max } (i, j)-G_ {\min } (i, j) } , \\ 1, \end {array} \right . \)if \( \left \| \nabla I_ { G } (i, j) \right \|>t h \) otherwise<caption>(3)</caption></p> <p>그림 5 는 \( \rho_ { R } (i, j) \) 의 설계 과정을 그래프로써 나타낸 것으로 검은색 실선과 회색 실선은 원본 영상의 R 채널과 G 채널을 나타내며 검은색 점선은 복원된 R 채널을 나타낸다. G 채널의 에지 부분이 아닌 영역에서는 \( \rho_ { R } =1 \) 으로 \( \nabla I_ { G } \) 의 값이 \( \nabla \widehat { I } _ { R } \) 에 그대로 적용되지만 G 채널의 에지 부분에서는 각 채널간 에지의 크기를 고려한 비율을 적용됨으로써 R 채널과 G 채널의 에지가 맞춰지는 것을 확인할 수 있다.</p> <p>식 (1)는 색수차 영역 안에서 Euler-Lagrange 식을 통해서 색수차 영역 내에서 다음과 같은 Poisson 식으로 나타내어진다.</p> <p>\( \nabla ^ { 2 } \widehat { I } _ { R } (i, j)= \nabla \cdot \left \{\rho_ { R } (i, j) \nabla I_ { G } (i, j) \right \} \)</p> <p>\( \nabla ^ { 2 } \widehat { I } _ { B } (i, j)= \nabla \cdot \left \{\rho_ { B } (i, j) \nabla I_ { G } (i, j) \right \} \)<caption>(4)</caption></p> <p>위 식에서 \( \nabla ^ { 2 } \) 는 Laplacian 연산자를 나타낸다. 식 (4)는 기존에 알려져 있는 Poisson's solver 들을 통해 구할 수 있으며, 본 논문에서는 색수차 영역이 전체 영상에 비해 작은 영역에서 일어나기 때문에 간단하게 구현 가능한 Gauss-Seidel 방법을 이용하였다.</p>
\( \rho_ { R } (i, j) \)에서는 G채널의 에지에 해당하는 영역인지의 여부에 따라서 R채널과 G채널의 에지가 맞춰지는 과정이 달라진다. 이 과정에서는 색수차 영역 내에서의 Poisson 식을 계산하여야 하는데, 이는 정석적인 방법대로 Poisson's solver를 이용하여 해결할 수도 있으나 색수차 영역이 작은 영역에서만 일어나는 경우에는 보다 간단한 Gauss-Seidel 방법을 활용할 수도 있다.
<h1>I. 서 론</h1><p>색수차는 일반적으로 빛이 렌즈를 통과할 때 파장에 따른 회절률의 차이에 의해서 나타나며, 이는 획득된 영상 내에서 강한 에지 주변에 잘못된 색 결함을 생성 시킨다. 색수차는 대부분의 광학 장치에서 나타나는 현상으로 영상 획득 장치 혹은 렌즈를 사용하는 디스플레이 장치에서 나타난다. 특히 디지털 카메라와 같은 영상 획득 장치에서 최근 이미징 센서의 소형화와 화소수의 증대로 인하여 더욱 부각되어 관찰된다. 색수차는 생기는 원인에 따라 배율 (lateral) 색수차와 축상(longitudinal) 색수차로 나를 수 있다. 배율 색수차는 그림 1(a) 에서 보는 바와 같이 각 파장 별로 빛의 굴절률이 달라 촬상면의 다른 위치에 초점이 맞아 채널 별 영상의 사이즈가 달라지는 기하학적 왜곡 현상을 발생시킨다. 즉, 영상의 주변부로 갈수록 각기 다른 굴절률의 영향을 더 많이 받아 색수차에 의한 결함 정도가 점점 심하게 나타나는 특성을 가지게 된다. 축상 색수차는 그림 1(b)에서 보는 바와 같이 빛의 굴절률의 차이로 인해 파장에 따라 렌즈와 초점면의 거리가 차이가날 때 발생한다. 그 결과 축상 색수차는 촬상면에 초점이 맞지 않는 파장에 대해서 흐림 현상이 초래된다. 이 결과, 색수차는 공통적으로 RGB (Red, Green, Blue) 채널의 에지 주변에서 색 결함들을 발생시키게 된다.</p><p>그림 2 는 색수차에 의해 결함이 일어난 영상들로 위의 그래프는 영상 중앙의 점선 부분의 RGB 채널의 밝기 값을 나타낸 것이다. 그래프는 강한 에지 부분에서 채널 간 에지가 어긋나 있는 것을 확인할 수 있고, 그 부분에서 잘못된 색 결함이 나타난 것을 영상을 통해 확인할 수 있다. 또한 추가적으로 purple fringing 현상이 색수차로 인한 결함과 더불어 나타나게 되는데, 이 현상은 영상의 아주 밝은 영역 주변부에서 보라색의 번짐이 넓게 발생하는 현상이다. 이 현상은 색수차 현상이 이미징 센서의 블루밍 현상(sensor blooming) 으로 증폭되어 발생한다. 이처럼 색수차로 인한 결함은 영상의 특성으로 인해 에지 부분에서 RGB 채널이 어긋나 색 결함이 일어나게 된다. 그러므로 영상의 국부적 특성을 고려한 색수차 제거 방법이 필요하다.</p><p>영상 획득 장치에서 나타나는 색수차 현상을 극복하기 위하여 achromatic 렌즈 혹은 apochromatic와 같은 렌즈를 렌즈군에 삽입하는 방법으로 색수차를 억제하는 방법이 연구되었다. 그리나 이러한 방법들은 색수차를 완벽하게 제거하기 힘들 뿐 아니라 고비용과 렌즈군의 부피 증가 등의 문제들을 가지고 있다. 이리한 문제들을 해결하기 위해 신호처리적인 방법으로 색수차를 제거하기 위한 방법들이 제안되었다.</p><p>신호처리를 이용한 대부분의 방법들은 대부분 렌즈의 특성을 대표하는 계수들을 추출해 영상 와핑(image warping) 방법을 이용해 보정하는 방법으로 연구되었다. 이 방법들은 큰 범주 안에서 사전 패턴 영상을 사용해 계수들을 추출하는 방법과 추가적인 영상 없이 보정하는 방법으로 분류된다. 하지만 영상 와핑을 이용한 방법들은 배율 색수차로 인한 기하학적 왜곡 현상을 완화시킬 수 있지만, 축상 색수차에 인한 흐림 현상을 복원할 수 없다. 또한, 색수차 이외의 purple fringing과 같은 영상의 특성으로 인한 색 결함에 대한 고려가 없기 때문에 영상의 국부적인 특성에 의해 일어난 색 결함들을 보정할 수 없다.</p><p>이를 해결하기 위해 purple fringing을 제거하는 방법으로 영상 내에서 밝은 영역 주변의 에지 부분에서 보라색을 뜨는 부분을 검출해 보정하는 방법들이 제안되었다. 이 방법은 purple fringing을 비롯한 보라색 계통의 색수차 제거에는 효과가 있지만 다른 색의 색수차는 제거되지 않고, 특정 환경에서 실제로 존재하는 보라색의 색 정보를 제거하는 결함이 발생될 수 있다.</p><p>본 논문에서는 영상 획득 장치에서 발생하는 색수차 현상으로 인한 결함을 사전 패턴 영상의 필요 없이 주어진 영상에서 국부적인 특성을 이용해 배율 색수차와 축상 색수차에 의한 색 결함을 동시에 제거하는 방법을 제안한다. 이를 위해 먼저 영상의 에지 영역을 검출한 뒤, 에지 영역의 주변 영역을 각 채널의 최댓값과 최솟값을 이용해 색수차에 의한 결함이 일어난 영역을 추정한다. 이 후, 추정된 영역에서 채널간 상관관계를 이용하여 G 채널의 에지에 R 채널과 B 채널의 에지를 각 채널의 기울기를 고려하여 일치시키는 방법을 수행한다. 그 결과 색수차로 인해 어긋난 RGB 채널을 맞추어 색수차로 인한 결함을 제거할 수 있다.</p><p>본 논문의 구성은 다음과 같다. I장에서는 제안하는 방법을 색수차 영역을 검출하는 방법과 제거하는 방법으로 나누어 차례로 설명한다. III상에서는 다양한 영상에 대한 실험 결과 및 기존 알고리즘과의 비교를 제공한다. 마지막으로 IV장에서 본 논문의 결론을 제시한다.</p>
색수차는 일반적으로 빛이 렌즈를 통고할 때 파장에 따른 회전률의 차이에 의해 나타나며, 이는 획득된 영상 내에서 강한 에지 주변에 잘못된 색 결함을 생성시키고 배율 색수차와 축상 색수차로 나눌 수 있다. 색수차는 공통적으로 RGB 채널의 에지 주변에서 색 결함들을 발생시켜 영상의 국부적 특성을 고려한 색수차 제거 방법이 필요하다. 영상 와핑을 이용한 방법은 축상 색수차에 의한 흐림 현상을 복원할 수 없기에 본 논문에서는 주어진 영상에서 국부적인 특성을 이용해 배율 색수차와 축상 색수차에 의한 색 결함을 동시에 제거하는 방법을 제안한다.
<h1>Ⅲ. 실 험 결 과</h1> <p>제안된 튜너블 대역 통과 여파기는 \( 0.18 \mu \mathrm{m} \) 에서 PDSOI-CMOS공정을 통해 구현되었다. 그림 5는 전체 여파기 구조와 스위치드 제어부의 칩 사진이다. 통과 대역 주파수를 \( 5.4 \mathrm{GHz} \) 로부터 \( 4.5 \mathrm{GHz} \) 로 이동하기 위해서 \( l_{1} \) 과 \( l_{2} \) 과 그리고 MSRR 사이의 거리를 각 각 \( 2.8 \mathrm{~mm}, 4.8 \mathrm{~mm}, 5 \mathrm{um} \) 로 설정하였다. 설계된 여파기는 \( 4 \mathrm{~mm} \times 2 \mathrm{~mm}\left(0.177 \lambda_{g o} \times 0.088 \lambda_{g o}\right) \) 의 초소형 화된 크기를 나타낸다.</p> <p>그림 6 에서 제안된 튜너블 여파기의 주파수 튜닝 범위는 \( 5.4 \mathrm{GHz} \) 로부터 \( 4.5 \mathrm{GHz} \) 까지로 측정되었다. 삽입손실 (S21) 은 \( 5.4 \mathrm{GHz} \) 에서 \( 5.1 \mathrm{~dB}, 4.5 \mathrm{GHz} \) 에서 \( 6.9 \mathrm{~dB} \) 이고 반사계수 (S11) 는 \( -10 \mathrm{~dB} \) 이하로 측정되었다. 또한 통과 대역 주파수 \( 5.4 \mathrm{GHz}, 4.5 \mathrm{GHz} \) 에서 각 각 \( 370 \mathrm{MHz} \), \( 410 \mathrm{MHz} \) 의 \( 3 \mathrm{~dB} \) 대역폭을 가짐을 확인하였다. 예측한대로 단지 2개의 공진기만을 이용하여 통과대역 주위로 2 개의 전송영점이 생성되었고 이로 인해 높은 주파수 선택도 특성을 가짐을 확인하였다. 스위치가 ON 상태에 서는 스위치 제어부의 FET 의 ON 저항의 영향으로 인해 고주파 대역의 전송영점이 더 높은 주파수로 상향됨에 따라 스위치 OFF 상태의 S21 특성과 차이를 보였다. 설계된 여파기는 중심주파수로부터 \( 500 \mathrm{MHz} \) 오프셋에서 \( 20 \mathrm{~dB} \) 이상의 대역 외 제거특성을 나타내었다. 혼변조 왜곡의 정도를 알아보고 위해 통과 대역 주파수 \( 5.4 \mathrm{GHz} \) 에서 투톤 측정을 실시하였다. 이 주파수에서 측정을 한 이유는 전력 처리 능력 및 고조파 왜곡이 FET 이 OFF 상태 (통과 대역 5.4GHz)일 때가 가장 나쁘게 나타나기 때문이다. 선형화 장비를 이용하여 톤 간격은 \( 50 \mathrm{MHz} \) 로 하였다. 그림 7에서 나타내었듯이 \( 44 \mathrm{dBm} \) 의 3 차 입력 변환 인터셉터 점 (IIP3)을 얻었다. 이를 통해 제안된 튜너블 통과 대역 여파기는 고 출력 응용분야에서 높은 선형성을 확보할 것으로 예상된다.</p>
PDSOI-CMOS 공정을 통해 튜너블 대역 통과 여파기를 만들 수 있다. 통과 대역 주파수를 측정한 결과 2개의 공진기로 우수한 주파수 선택도를 가지는 것을 확인할 수 있었다. 여러가지 분석을 토대로 튜너블 통과 대역 여파기는 출력 응용분야에 널리 활용될 수 있을 것으로 보인다.
<h1>Ⅱ. 본 론</h1> <h2>1. 비대칭 급전 선로에 따른 전송영점 및 삽입손실의 수식적 해석</h2> <p>그림 1은 제안된 통과 대역 여파기의 구조를 보여준다. 입력과 출력의 급전 선로는 입력과 출력의 MSRR 을 각 각 \( l_{1} \) 과 \( l_{2} \) 두 부분으로 나누어준다. 여기서 \( l_{1} \) 과 \( l_{2} \) 의 합은 \( \lambda_{g o} \) (기본 모드 주파수에서의 관내 파장)와 같다. 2 개의 \( \mathrm{MSRR} \) 사이에 coupling capacitance를 \( C_{S} \), 그리고 loading capacitance를 \( C_{L} \) 로 표현하였다. 입력과 출력 급전 점에서의 신호는 기본 모드 주파수에서 동 위상을 가진다. 잘 알려져 있듯이 비대칭 급전 선로를 사용한 결합된 공진기 구조에서는 두 개의 전송영점이 생성된다. 그림 1 에서, 첫 번째 전송 영점은 입력 공진기의 \( l_{1} \) 길이의 \( 1 / 4 \) 파장에 해당하는 주파수에서 생성되고 다른 하나는 출력 공진기의 \( l_{2} \) 길이의 \( 1 / 4 \) 파장에 해당하는 주파수에서 생성된다.</p> <p>2 개의 전송영점이 위치하는 주파수를 찾기 위해 제안된 구조에서 삽입손실(S21) 식을 위쪽 신호 경로와 아래쪽 신호경로를 포함하고 있는 ABCD 매트릭스를 이용하여 나타내었다. 위쪽 신호 경로와 아래쪽 신호 경로를 나타내는 ABCD 매트릭스는 다음가 같이 표현된다.</p> <p>\( \left(\begin{array}{ll}A_{u p} & B_{u p} \\ C_{u p} & D_{u p}\end{array}\right)=M_{1} \times M_{2} \times M_{3},\left(\begin{array}{ll}A_{\text {low }} & B_{\text {low }} \\ C_{\text {low }} & D_{\text {low }}\end{array}\right)=M_{3} \times M_{2} \times M_{1} \)<caption>(1)</caption></p> <p>\( M_{1}=\left(\begin{array}{cc}\frac{\frac{1}{\omega C_{L}} \cos \theta_{1}-Z_{0} \sin \theta_{1}}{\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{1}} & \frac{\frac{1}{\omega C_{L}} Z_{0} \sin \theta_{1}}{\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{1}} \\ \frac{1}{\omega C_{L}} Y_{0} \sin \theta_{1} & \frac{1}{\omega C_{L}} \cos \theta_{1}-Z_{0} \sin \theta_{1} \\ \frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{1} & \frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{1}\end{array}\right) \) \( M_{2}=\left(\begin{array}{cc}1 \frac{1}{j \omega C_{S}} \\ 0\end{array}\right) \) \( M_{3}=\left(\begin{array}{cc}\frac{1}{\omega C_{L}} \cos \theta_{2}-Z_{0} \sin \theta_{2} & \frac{1}{\omega C_{L}} Z_{0} \sin \theta_{2} \\ \frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{2} & \frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{2} \\ \frac{1}{\omega C_{L}} Y_{0} \sin \theta_{2} & \frac{1}{\omega C_{L}} \cos \theta_{2}-Z_{0} \sin \theta_{2} \\ \frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{2} & \frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{2}\end{array}\right) \)</p> <p>여기서 \( M_{1} \) 은 loading capacitance \( \left(C_{L}\right) \) 을 포함한 전송 선로 \( \left(\theta_{1}=\beta_{1} l_{1}\right) \) 의 ABCD 매트릭스이고 \( M_{2} \) 는 2개 의 MSRR 사이의 coupling capacitance \( \left(C_{S}\right) \) 를 나타내</p> <p>었으며 \( M_{3} \) 는 loading capacitance를 포함한 전송 선로 \( \left(\theta_{2}=\beta_{2} l_{2}\right) \) 의 ABCD 매트릭스이다. 또한 \( \omega \) 는 각 주파수, \( Z_{o}\left(Y_{o}\right) \) 는 특성 임피던스(어드미턴스)를 나타낸다.</p> <p>식 (1)로부터 위쪽과 아래쪽 신호 경로를 포함한 ABCD 를 아래의 식 (2)와 같이 계산하여 구할 수 있다.</p> <p>여기서 \( \theta \) 는 \( \theta_{1} \) 과 \( \theta_{2} \) 의 합이다. 위에서 계산된 ABCD 매트릭스를 이용하여 제안된 여파기의 삽입손실 (S21)은 다음과 같이 표현된다.</p> <p>\( S_{21}=\frac{4 B_{\text {low }} Y_{0}}{B_{\text {low }}{ }^{2} Y_{0}^{2}+2 B_{\text {low }}\left(A_{\text {low }}+D_{\text {low }}\right) Y_{0}+\left(A_{\text {low }}+D_{\text {low }}\right)^{2}-4\left(B_{\text {low }} C_{\text {low }}-A_{\text {low }} D_{\text {low }}\right)} \)</p> <p>S21은 전송영점이 존재하는 주파수에서 0 이 되므로 전송 영점의 주파수는 S21 의 식에서 분자인 \( B_{l o w} \) 항이 0 이 되게 하는 주파수이다. 또한 여기서 급전 점의 위치를 바꾸면 \( B_{\text {low }} \) 항에서 \( \theta_{1} \) 과 \( \theta_{2} \) 가 변하므로 전송영점의 위치 역시 바뀌는 것을 알 수 있다.</p> <p>\( \begin{aligned} A_{\text {low }}\left(D_{u p}\right)=& \frac{\frac{1}{\omega^{2} C_{L}^{2}} \cos \theta-\frac{1}{\omega C_{L}} Z_{0} \sin \theta+Z_{0}^{2} \sin \theta_{1} \sin \theta_{2}+\frac{1}{\omega^{3} C_{L} C_{S}} Y_{0} \cos \theta_{1} \sin \theta_{2}-\frac{1}{\omega^{2} C_{L} C_{S}} \sin \theta_{1} \sin \theta_{2}}{\left(\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{1}\right)\left(\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{2}\right)} \\ B_{\text {low }}\left(B_{u p}\right)=& j \frac{\frac{1}{\omega^{2} C_{L}^{2}} Z_{0} \sin \theta-\frac{1}{\omega^{2} C_{L} C_{S}} Z_{0} \sin \theta+\frac{1}{\omega^{3} C_{L} C_{S}} \cos \theta_{1} \cos \theta_{2}-\left(\frac{2}{\omega C_{L}}+\frac{1}{\omega C_{S}}\right) Z_{0}^{2} \sin \theta_{1} \sin \theta_{2}}{\left(\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{1}\right)\left(\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{2}\right)} \\ D_{\text {low }}\left(A_{u p}\right)=& \frac{\frac{1}{\omega^{2} C_{L}^{2}} \cos \theta-\frac{1}{\omega C_{L}} Z_{0} \sin \theta+Z_{0}^{2} \sin \theta_{1} \sin \theta_{2}+\frac{1}{\omega^{3} C_{L} C_{S}} Y_{0} \sin \theta_{1} \cos \theta_{2}-\frac{1}{\omega^{2} C_{L} C_{S}} \sin \theta_{1} \sin \theta_{2}}{\left(\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{1}\right)\left(\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{2}\right)} \\ C_{\text {low }}\left(C_{u p}\right)=& j \frac{\left(\frac{1}{\omega C_{L}}\right)^{2} Y_{0} \sin \theta+\left(\frac{1}{\omega C_{L}}\right)^{2} \frac{1}{\omega C_{S}} Y_{0}^{2} \sin \theta_{1} \sin \theta_{2}-\frac{2}{\omega C_{L}} \sin \theta_{1} \sin \theta_{2}}{\left(\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{1}\right)\left(\frac{1}{\omega C_{L}}-Z_{0} \sin \theta_{2}\right)} \end{aligned} \)<caption>(2)</caption></p>
입력과 출력의 MSRR로 급전 선로를 나누며, coupling capacitance,loading capacitance가 MSRR 사이에 있다. 비대칭 급전 선로를 사용한 결합된 공진기 구조에서는 두 개의 전송영점이 생성되며, ABCD 매트릭스를 이용하여 삽입손실(S21) 식을 표현할 수 있다.
<h1>요 약</h1> <p>이 논문에서는 multiple split ring resonator(MSRRs)와 로딩된 스위치드 제어부를 이용하여 2개의 전송영점을 가지는 대역통과 여파기를 설계하였다. 높은 선택도와 칩 사이즈의 초소형화를 위해 비대칭의 급전 선로를 도입하여 통과 대역 주위에 위치한 전송 영점 쌍을 생성하였다. Cross coupling 또는 source-load coupling 방식을 이용한 기존의 여파기와 비교해보면 이논문에서 제안된 여파기는 단지 2개의 공진기만으로 전송 영점을 생성하여 높은 선택도를 얻었다. 여파기의 선택도와 민감도(삽입 손실)를 최적화하기 위해 비대칭 급전 선로의 위치에 따른 전송 영점과 삽입손실의 관계를 분석하였다. 통과 대역 주파수의 가변과 \( 30 \mathrm { dBm } \) 정도의 고 출력 신호를 처리하기 위해 MSRRs의 최 외각 링에 MIM 커패시터와 stacked-FET으로 구성된 SOI-CMOS 스위치드 제어부가 로딩되어 있다. 스위칭 트랜지스터의 전원을 켜고 끔으로써 통과 대역 주파수를 \( 4 \mathrm { GHz } \)로부터 \( 5 \mathrm { GHz } \)까지 이동시킬 수 있다. 제안된 칩 여파기는 \( 0.18- \mu \mathrm { m } \) SOI CMOS 기술을 이용함으로써 높은 Q를 가지는 수동 소자와stacked-FET의 집적을 가능하게 만들었다. 설계된 여파기는 \( 4 \mathrm { ~mm } \times 2 \mathrm { ~mm } (0.177 \mathrm {\lambda g } \times 0.088 \mathrm { hg } ) \)의 초소형화 된 크기를 가진다. 여기서 \( \lambda \mathrm { g } \)는 중심 주파수에서의 \( 50 \Omega \)마이크로스트립 선로의 관내 파장을 나타낸다. 측정된 삽입손실(S21)은 \( 5.4 \mathrm { GHz } \), \( 4.5 \mathrm { GHz } \)에서 각 각 \( 5.1 \mathrm { ~dB } , 6.9 \mathrm { ~dB } \)를 나타내었다. 설계된 여파기는 중심 주파수로부터 \( 500 \mathrm { MHz } \)의 오프셋에서 \( 20 \mathrm { ~dB } \)이상의 대역외 저지 특성을 나타내었다.</p> <h1>Ⅰ. 서 론</h1> <p>다양한 무선 접근 기술 (Radio Access Technology, RAT은 개인 지역 통신망 (Personal area network PAN), 무선 근거리 통신망 (Wireless Local Area Network WLAN), 무선 도시권 통신망 (Wireless Metropolitan Area Network WPAN)으로부터 잘 알려진 GSM/EDGE, W-CDMA, CDMA2K 까지 다양한 수요에 직면하여 발전하고 있다. 그 걸과, 여러 통신 채널을 커버하기 위하여 다중 모드, 다중 대역, 다중 표준의 무선 통신 장치의 구현에 대한 많은 연구가 진행되고 있다.</p> <p>다중 모드, 다중 대역, 다중 표준 무선 통신 장치의 하드웨어 복잡성을 감소시키기 위해 RF송신기 및 기저 대역의 집적 회로들에 무선 기지국과 단말기에서 하드웨어로 고주파를 지원하던 방식을 소프트웨어 형태로 바꿔주는 기술 (software-defined radios, SDR)을 도입하고 있다. 하지만 전력 증폭기, \( \mathrm { RF } \) 스위치, \( \mathrm { SAW } \) 여파기, 듀플렉서 여파기와 같은 외부 front-end 모듈은 상응하는 주파수 대역에서만 사용되고 있다. 이 중 SAW 여파기는 낮은 삽입손실과 우수한 대역 외 저지 특성을 나타내지만 이에 반해 좁은 주파수 튜닝 범위와 같은 몇 가지 제약으로 SDR에서의 사용이 매우 제한적이다. 넓은 주파수 튜닝 범위를 확보하기 위해서 출간된 논문의 많은 수가 전송선로 여파기를 사용하고 있다. 고출력용 전송선로 여파기를 선계하기 위해서는 2 가지의 주요 해결과제가 있다. 하나는 요구되는 여파기의 사이즈를 최소화하는 것이고 다른 하나는 전력 증폭기로부터 발생된 큰 출력 신호를 전기적으로 높은 선형성을 확보하면서 튜넝이 가능한 소자를 만드는 것이다. 기존에는 여파기의 중심 주파수를 변화시키기 위해서 MEMS를 활용한 스위치드 커패시터, 강유전체 버랙터, 다이오드 버랙터 등을 사용 하였다. 이러한 특별한 기술들은 고 출력 처리 능력 및 선형성의 요구는 충족시킬 수 있지만 실리콘 기반의 공정 기술들에 비해 가격 경젱력이 많이 떨어진다. 또한 이러한 소자들의 커패시턴스를 바꾸기 위해서 사용되는 스위칭 전압은 일반적으로 \( 25 \mathrm { ~V } \) 의 범위이므로 단말기의 배터리로 구동하기에는 적절하지 않다.</p> <p>이 논문에서는 기존의 잘 알려진 Multiple Split Ring Resonator (MSRR)과 비대칭의 급전 선로 방식을 도입하여 사이즈 최소화 및 높은 주파수 선택도를 가지는 평판 대역 통과 여파기를 설계하였다. MSRR과 높은선형성을 가지는 SOI-CMOS스위치드 제어부를 같은 다이에 집적함으로써 완전히 집적된 고 출력용 튜너블칩 여파기를 제안하였다.</p>
이 논문에서는 multiple split ring resonator와 로딩된 스위치드 제어부를 이용하여 2개의 전송영점을 가지는 대역통과 여파기를 설계하였고, 높은 선택도와 칩 사이즈의 초소형화를 위해 비대칭의 급전 선로를 도입하여 MSRRs, MIM 커패시터, stacked-FET SOI-CMOS 스위치드 제어부를 결합하여 대역통과 여파기를 설계하여 높은 선택도와 \( 30 \mathrm { dBm } \) 정도의 고 출력 신호를 처리할 수 있는 초소형화된 여파기를 제안하였다.
<h2>2. SOI-CMOS 스위치드 제어부</h2> <p>그림 2 는 대역 통과 여파기의 중심 주파수를 변화시키기 위해 설계한 MIM 커패시터와 stacked-FET로 구성된 SOI-CMOS 스위치드 제어부를 나타낸다. 전력 증폭기로부터 들어오는 \( 30 \mathrm { dBm } \) 이상의 큰 신호를 제어하기 위해서 stacked-FET을 사용하였고 이는 전압 분배기와 같이 매우 큰 신호가 인가되었을 때 각 각의 트랜지스터 양단에 균등한 전압이 걸리도록 한다. 게다가 OFF 상태의 FET 의 전력 처리 능력을 향상시키기 위해 트랜지스터의 드레인과 소스에 바이어스 전압(VDD)이 인가 될 때 게이트와 바디에는 접지를 하는 방식으로 OFF 상태에서 게이트에 역 바이어스가 걸리도록 설계하였다.</p> <h2>3. 최적 설계를 위한 시뮬레이션 검증</h2> <p>여파기의 주요 특성인 삽입손실, 대역 외 제거 특성, 그리고 주파수 선택도를 최적화하기 위해서는 스위치드 제어부 및 비대칭 급전선로의 최적위치를 찾는 것이 중요하다. 그림 3 에서는 비대칭 급전선로의 위치에 따른 S21 특성을 나타내었다. 급전 점을 MSRR의 가장자리에 있을 때 가장 좋은 삽입손실과 대역 외 제거 특성을 나타냄을 확인 할 수 있다. 급전점이 가운데로 이동할수록 \( l_ { 1 } \) 과 \( l_ { 2 } \) 의 길이가 공진주파수의 \( 1 / 4 \) 파장과 가까워지고 이로 인해 전송영점이 여파기의 중심주파수에 가까워지는 것을 확인 할 수 있다. 급전 점을 공진기의 정중앙에 두었을 때는 \( l_ { 1 } \) 과 \( l_ { 2 } \) 의 길이가 정확하게 공진주파수의 \( 1 / 4 \) 파장이 되어서 통과 대역 주파수와 전송 영점의 주파수가 일치하게 되어 결국 통과 대역이 사라지는 것을 확인 할 수 있다.</p> <p>그림 4 는 로딩 커패시터의 위치에 따른 S21 특성을 나타낸 그림이다. 로딩 커패시터를 MSRR의 최외각 링의 끊어진 부분에 위치시켰을 때 가장 우수한 주파수 이동도 및 선택도를 가짐을 확인하였다. 이는 MSRR의 안쪽 링과 달리 최외각 링은 Coupled signal이 아닌 직접적으로 신호가 이동되는 경로이므로 여기에 커패시터를 위치시켜야 커패시터 로딩 효과가 가장 잘 나타나게 된다.</p>
SOI-CMOS 스위치드 제어부는 MIM 커패시터와 stacked-FET을 사용하여 대역 통과 여파기의 중심 주파수를 변화시키기 위해 설계되었고, 스위치드 제어부 및 비대칭 급전선로의 최적위치를 찾기 위해 시뮬레이션 검증을 하였고, 그 결과 MSRR의 최외각 링의 끊어진 부분에 로딩 커패시터를 위치시켜 우수한 주파수 이동도 및 선택도를 가짐을 확인하였다.
<p>논문의 구성으로 먼지 PHD와 건강관리 서비스에 대하여 소개하고 본 연구에서 제안한 모듈의 설계 및 개발 방법에 대하여 설명한 다음 개발 된 암호화 표준 방법의 검증과 실시간 생체신호 암호화 전송 성능평가를 수행하여 활용 가능성을 평가하고자 한다.</p> <h2>II. 본론</h2> <h3>1. PHD 기반 건강관리 서비스</h3> <p>본 연구에서 제안한 암호화 모듈이 적용된 착용형 PHI 기반 건강관리 서비스의 시나리오를 그림 1에 표현하였다. 가장 먼저 PHI USER(사용자)가 비밀키를 본인의 단말에 설정하면, 측정되는 생체신호와 이를 기반으로 생성된 PHI는 암호화되어 WPAN과 게이트웨이를 통해 HSP의 HCRC로 전송 및 저장된다. 이로써 사용자는 본인의 단말에서 암호화 된 PHI에 대한 접근 및 해석 할 수 있는 권한을 관리하게 된다. 그러므로 HSP으로부터 요청되는 비밀키 배포 및 배포대행 여부를 PHD 사용자가 스스로 결정 할 수 있다.</p> <p>다음으로 HSP는 HCRC에 사용자가 암호화하여 전송한 데이터를 관리, 저장, 그리고 자동화 된 DSS를 이용하여 건강관리 서비스를 사용자에게 제공한다. 핵심은 사용자 이외에 PHI에 접근하여 해석하려는 Demanders(이하 접근자)를 제어하는 역할이다. HSP는 사용자에게 특정 접근자에게 사용자의 PHI에 대한 접근 권한 부여에 대해 결정하도록 알리고, PHI에 대한 비밀키의 배포는 사용자의 결정을 따른다. 이 때, 사용자의 허가에 의하여 HSP가 그 결정을 대행 할 경우 PHI와 비밀키 배포를 HSP가 결정한다. 즉, 이런 경우 HSP는 PHI를 비밀키와 함께 접근자에 진달한다.</p> <p>접근자는 특정 사용자의 PHI에 접근 할 때 HSP에게 권한을 요청하고 사용자로부터 권한을 부여 받게 되면 PHI와 함께 비밀키를 전송받아 해당 정보를 해석 할 수 있게 된다. 만약, 권한을 부여받지 못한 접근자가 비정상적으로 PHI를 유출하여 조회하게 되더라도 비밀키 없이 정보를 해석하는 것은 매우 어렵기 때문에 사용자의 PHI를 최대한 보호 할 수 있는 것이다. 그림 1에 나타낸 시나리오의 강점은 사용자에게 본인의 PHI에 대한 접근 및 해석의 권한을 부여 할 수 있는 결정권을 갖게 함으로써 착용형 PHD 사용에 대한 개인 정보 보호를 보장하고, 정보유출 가능성에 대한 거부감을 억제할 수 있다는 점이다.</p> <h3>2. 실시간 생체신호 암호화 시스템 설계</h3> <h4>가. 착용형 PHD 플랫폼의 구성</h4> <h5>(1) 하드웨어 플랫폼</h5> <p>계측 회로로부터 셍체신호를 획득하고 암호화하여 WPAN은 이용하여 전송할 하드웨어 플랫폼으로 Telos Rev B를 이용하였다. 이는 초저전력 무선 센서 모듈로써 UC Berkeley에서 개발하여, 무선 센서 네트워크(Wireless Sensor Network, 이하 WSN) 연구에 사용되는 플랫폼이다. TI MSP430 16bit RISC 마이크로 컨트롤러를 사용하여 12bit ADC를 내장하고 있으며, \( 48 \mathrm { ~KB } \)의 프로그램 메모리와 \( 10 \mathrm { ~KB } \)의 램을 지원한다. 무선 인터페이스로 IEEE 802.15.4를 지원하며, 이를 위해 Chipcon CC2420은 이용한다. 초저전력 모듈로써 최소 \( 1.8 \mathrm { v } \)의 전압에서도 동작하도록 설계되어 있으며, USB 인터페이스를 이용하여 PC와 시리얼통신은 할 수 있도록 설계 되었다. \( { } ^ { [13] } \)</p>
PHD 기반 건강관리 서비스는 먼저 사용자가 비밀키를 본인의 달말에 설정하면 생성된 PHI는 암호화되어 WPAN과 게이트웨이를 통해 HCRC로 전송 및 저장된다. PHD의 강점은 사용자가 본인의 PHI에 접근 할 수 있는 결정권을 갖게 함으로 착용형 PHD에 대한 개인 정보 보호를 보장하며 정보유출 가능성의 거부감을 낮출 수 있다는 것이.
<p>그리고 식 (12)에 암호화 반복 횟수 n을 추가하면 식 (13)이 유도된다.</p> <p>\( Sample Rate_ {\max } (n) \leq \frac { S P B } { n \times O_ { e n c } } ,( \mathrm { sec } ) \)<caption>(13)</caption></p> <p>식 (13)을 이용하여 알고리즘과 이론적인 암호화 반복 횟수 별 최대 표본추출 속도를 계산 할 수 있다. 그러나, 양자화, 암호화, 무선전송을 동시 수행 할 경우 \( O_ { enc } \)가 증가하여 실제 가능한 단위 암호화 속도는 DES \( ( \approx 500 \) samples \( / \mathrm { sec } ), 3 \mathrm { DES } ( \approx 300 \) samples \( / \mathrm { sec } ) \) 수준까지 문제없이 동작하였다.</p> <p>표 5 는 실제 실험으로 생체신호 별 적용 가능한 암호화 수준을 정리한 것이다. 실험 결과 표본추출 속도가 낮을수록 암호화 반복횟수가 증가하였고, 적용 가능한 반복 횟수의 알고리즘 간 비율에 약 3 배 차이가 있었다. 이는 이론상 두 알고리즘의 성능 차이에 해당한다.</p> <h3>4. 실험 결과 토의</h3> <p>본 연구에서 개발한 실시간 암호화 알고리즘 모듈에 대한 16 비트 MCU 최적화 및 그 성능을 실험을 통해 검증하였다. 실시간 생체신호 전송 시 암호화 및 복호화 오류는 발견되지 않았고, 단위 암호화에 필요한 알고리즘별 소요시간을 측정하여 생체신호 특성에 따른 암호화 수준을 표 5 에 정리하였다. 실험 결과를 토대로 계산 된 암호화 수준이 절대적인 기준이 될 수는 없다. 그 이유는 생체신호 계측기 설계 시 생체신호의 종류와 측정 목적에 따라서 주파수 범위가 변경 될 수 있고, 다양한 분석을 위해 일반적으로 더 높은 표본추출 속도를 이용 할 수 있기 때문이고, 또한 개선 된 암호화 알고리즘을 사용하거나 더 강력한 프로세서를 사용 할 경우 단위 암호화 소요시간이 감소하기 때문이다. 단, Telos B에 개발 된 암호화 모듈을 적용하였을 때 위와 같은 성능을 기대 할 수 있다.</p> <p>마지막으로 반드시 강력한 암호화를 착용형 PHD에 적용하는 것이 최선은 아니다. 그 이유는 휴대하며 장시간 측정해야 되는 장비의 특성 상 배터리 소모를 따른 동작시간을 고려해야 하기 때문이다. 이 문제는 신호의 중요도와 암호화 수준에 따른 배터리 소모를 고려하여 주어진 시스템의 설계기준에 따라 결정해야 한다.</p> <h2>IV. 결론</h2> <p>건강관리 서비스는 질병의 관리와 예방의 측면에서 중요한 역할을 담당한다. \( { } ^ { [1-2,4] } \) 그러나 PHI에 대한 정보 보호 수준은 아직 사용자가 신뢰 할 수 없는 수준이다. \( { } ^ { [17-18] } \) 향후 건강관리 서비스가 활성화 되고, 서비스 사용자가 증가하게 되면 PHI의 수집 및 관리의 수요가 증가함에 따른 PHI 유출의 가능성도 더 커질 것이다.</p> <p>본 연구에서는 위에서 언급 된 문제를 해결하기 위해 착용형 PHD에서 사용자가 관리하는 비밀키로 암호화 된 PHI를 HSRC로 정보를 전송 할 수 있도록 하였고 그 성능을 검증하였다. 본 연구에서 설계한 모듈은 활용 할 경우 사용자가 본인의 PHI에 대한 비밀키 관리를 해야 하는 불편함은 감수해야 하지만 누구나 PH에 포함 된 본인의 건강 정보가 노출되는 것에 거부감을 갖고 있기 때문에 본 연구의 방법이 타인에 의한 PHI 수집 및 관리에 대한 거부감을 억제 시키는 방법으로써 건강관리서비스 활성화에 기여 할 수 있을 것으로 기대한다.</p>
건강관리 서비스는 질병의 관리와 예방의 측면에서 중요한데 PHI에 대한 정보 보호 수준은 아직 사용자가 신뢰 할 수 없는 수준이다. 본 연구에서는 이 문제를 해결하기 위해 착용형 PHD에서 사용자가 관리하는 비밀키로 암호화 된 PHI를 HSRC로 정보를 전송 할 수 있도록 하고 그 성능을 검증하였는데, 본 모듈 활용 시 사용자가 본인의 PHI에 대한 비밀키 관리를 해야 하는 불편함은 있지만 누구나 PH에 포함된 본인의 건강 정보가 노출되는 것에 거부감을 갖고 있으므로 타인에 의한 PHI 수집 및 관리에 대한 거부감을 억제시키는 방법으로 건강관리서비스 활성화에 기여 할 수 있을 것으로 본다.
<h5>(3) 무선 센서네트워크 운영체제</h5> <p>본 연구에서는 Telos에시 활용 될 수 있는 운영체제로 RETOS(Resilient, Expandable, and Threaded Operating System for Wireless Sensor Networks)를 사용하였다. 그 특징으로 멀티스레드 프로그래밍 인터페이스를 제공하고 커널과 응용 프로그램 분리로 강인한 시스템 운용을 보장하며, 동적 모듈 프로그래밍으로 커널의 확장성을 지원한다. 즉, 생체계측 센서보드를 연결하고 응용프로그램에서 사용 할 수 있는 디바이스 드라이버를 개발함으로써 동적으로 소표트웨어를 구성 할 수 있다. 또한, 표준 C언어를 지원하기 때문에 TinyOS에시 사용하는 nesC와는 차별화 된 편리한 개발 환경을 지원한다. \( { } ^ { [14] } \) 본 연구에서는 멀티스레딩을 지원하는 운영체제의 특성을 활용하여 병렬 프로그래밍이 가능하기 때문에 효과적으로 소프트웨어를 설계하였다.</p> <h4>나. DES/3DES 알고리즘 구현</h4> <h5>(1) DES/3DES의 소개</h5> <p>DES(Data Encryption Standard)는 미국의 NIST(National Institute of Standards and Technology)에서 1977년 최초로 채택 된 암호화 알고리즘으로 64비트의 암호화키(56비트-암호화키, 8 비트-검사용키)를 이용하여 64 비트의 블록을 암호화 한다. 1993년 이후 DES가 안전하지 않은 알고리즘으로 알려지면시, 암호화키가 3배이며 DES를 3회 수행하는 3DES가 임시 표준 사용되어져 오다가 2001년 AES(Advanced Encryption Standard)으로 Rijindeal이 새로운 표준으로 채택되어 현재까지 암호화 표준으로 사용되고 있다. \( { } ^ { [15] } \) 그러나 본 연구에서는 착용형 PHD의 목표 시스템이 초저전력 16 비트 마이크로컨트롤러임을 감안하였을 때, 비트에 관한 연산자를 이용해 처리 가능한 DES를 내장하여 생체신호를 실시간 암호화 하고자 하였다. 그리고 부족한 암호화 안전성을 보완하기 위해 3DES 알고리즘을 구현하여 암호화 모듈을 선택적으로 사용할 수 있도록 하였다.</p> <h5>(2) 16bit MCU용 DES/3DES 라이브러리 구현</h5> <p>그림 3의 순서도는 16 비트 MCU에서 64 비트 블록 암호화를 수행하는 DES/3DES 알고리즘을 설계한 순서도이다. MCU의 내장메모리와 프로그램 메모리의 크기에 적합하도록 ROUND를 서브루틴으로 설계하여 코드 사이즈를 최적화 하였다. 또한, 16 비트 코어에서 암호화된 블록이 32 비트, 64 비트 코어에서 정상적으로 복호화되도록 하기 위하여 필수적으로 키 스케줄링 루틴과 이니셜 퍼뮤테이션, 인버스 퍼뮤테이션 코드의 비트관련 연산자에서 오버플로우가 발생하지 않도록 알고리즘을 구현하였다. 오버플로우가 발생 할 경우 복호화 불가능한 블록은 출력하는 등의 문제가 발셍 할 수 있으므로 16 비트 연산에 최적화 된 크드를 작성하였다. 추가로 3DES는 ROUND 서브루틴을 3회 수행하는 등 DES 코드를 기반으로 수정하여 구현하였다.</p>
본 연구에서는 Telos에서 사용하는 운영체제로 RETOS를 선택하여 멀티스레드 프로그래밍 인터페이스를 제공하고 커널과 응용 프로그램 분리로 강인한 시스템 운용을 보장 및 동적 모듈 프로그래밍으로 커널의 확장성을 지원하였다. 또한 멀티스레딩을 지원하는 운영체제의 특성으로 병렬 프로그래밍이 가능한 점에 착안하여 효과적으로 소프트웨어를 설계하였다.
<h4>나. 실시간 생체신호 암호화 전송</h4> <p>그림 7의 실험 환경을 구성하고 NETECH MiniSim 1000 Patient Simulator로 실시간 심전도 암호화 전송을수행하였다. 이 때, 표본 추출 속도는 초당 300 샘플이었으머, 먼저 DES로 암호화 된 \( 60 \mathrm { BPM } \) 의 정상 심전도와 심실조동(Ventricular flutter beat) 신호를 차례로 전송하였고, 다음으로 3DES로 암호화 된 \( 80 \mathrm { BPM } \) 의 정상 심전도와 심방세동(Artrial fibrillation) 신호를 전송하였다. 암호화 된 데이터를 PC에서 디스플레이 하였을 때, 그림 10의 좌측 그래프들과 같이 숫자 0~65535 사이에 고루 분포 된 해독 불가능한 신호를 볼 수 있다. 그림 10 의 우측 그래프들은 PC에서 복호화 된 신호로써 0~4096 범위로 복호화 되어 생체신호의 특징을 해독 할 수 있는 신호가 디스플레이 되는 것을 블 수 있다.</p> <h3>3. 생체신호 별 실시간 암호화 전송 정리</h3> <p>본 연구에서 암호화 모듈의 이론적인 최대 표본 추출 속도가 식(9)~(13)에 의해 계산된다. 먼저, k번째 전송 스레드의 주기는 식 (9)로 정리 할 수 있다.</p> <p>\( T_ {\text { trans } } (k) = \sum_ { i=1 } ^ { B P F } \left (O_ { e n c } (i) + V_ { e n c } (i) \right .) \)<caption>(9)</caption></p> <p>\( O_ { e n c } (i) \)와 \( V_ { e n c } (i) \)가 k번째 암호화 스레드에서 일정하다는 가정 하에 식 (10)을 유도한다.</p> <p>\( T_ {\text { trans } } =BPF \times \left (O_ {\text { enc } } + V_ {\text { enc } } \right ) \)<caption>(10)</caption></p> <p>그리고 식 (10)에서 \( V_ { enc } \geq 0 \)임을 이용하여,</p> <p>\(T_ {\text { trans } } \geq BPF \times O_ {\text { enc } } \)<caption>(11)</caption></p> <p>식 (11)에서 식(4),(5)를 이용하여 \( T_ { enc } \geq O_ { enc } \)를 유도하고, 다시 식 (3)으로 식 (12)를 유도한다.</p> <p>\( Sample Rate_ {\max } \leq \frac { S P B } { O_ { e n c } } ,( \mathrm { sec } ) \)<caption>(12)</caption></p>
NETECH MiniSim 1000 환자 시뮬레이터를 사용하여 실시간 심전도 암호화 전송 실험을 수행했다. 초당 300 샘플의 표본 추출 속도로, DES와 3DES로 암호화된 정상 심전도와 두 가지 이상의 심장 이상 신호를 전송했다. 암호화된 데이터를 PC에서 확인하면 0~65535 사이에 고루 분포된 해독 불가능한 신호를 보일 수 있으며, 복호화 시 0~4096 범위의 신호가 생체신호의 특징을 표현하는 것을 확인할 수 있다.
<h2>I. 서론</h2> <p>고령화 사회에는 질병 관리를 위한 의료비용이 필연적으로 증가하게 된다. 이에 대응하기 위하여 건강관리(Healthcare) 서비스를 질병관리에 활용하기 위한 노력이 이루어지고 있다. 건강관리 서비스는 IT 시스템과 생체계측 시스템을 이용하여 질병, 만성질환의 예방 목적으로 제공되는 서비스이며, 일반적으로 IT 기술을 이용하여 언제 어디서나 개인의 건강을 증진시키기 위한 인프라와 요소기술 개발, 서비스 구축을 목표로 한다. \( { } ^ { [1-4] } \)그 중에서 개인건강기기(Personal Health Device, 이하 PHD)는 생체 계측 기술을 기반으로 생성되는 개인건강 정보(Personal Health Information, PHI)를 의료 정보 저장 및 교환소(Health Care Repository and Clearinghouse, HCRC)으로 전송 할 수 있는 기능을 갖춘 사용자 휴데용 단말이다. \( { } ^ { [5] } \) 따라서, PHD에서 수집되는 PHI는 건강관리 서비스 제공자(Healthcare Service Provider, HSP에 의해 수집 및 관리되고 자동화 된 의사결정 시스템(Docision Support System, DSS) 등을 기반으로 개인 중심의 건강관리 서비스가 제공 될 수 있다. 이러한 정보의 수집을 토대로 개인 평생 전자건강기록 관리(Personal Health Record, 이하 PHR) 서비스가 활성화 될 수 있다. PHR은 기존의 전자진료기록(Eloctronic Health Record)에서 진화 된 형태로써 게인이 접근, 관리 할 수 있고 그들의 건강 정보를 사적이고 안전하게, 그리고 기밀한 환경에 있는 인증 된 타인에게 공유하는 전자적 어플리케이션으로 정의 할 수 있다. \( { } ^ { [6] } \)</p> <p>PHR의 활성화를 위한 방향에 대해서 Paul C. Tang \( { } ^ { [6] } \)의 연구에서는 EHR과 테더링 되기나 상호 간 연결되도록 통합된 PHR이 독립형의 PHR보다 더 유익하다고 설명하고 있다. 즉, PHR의 상호 운용을 위하여 PHR에 저장된 PHI가 전자적으로 통합된 형태의 문서로 교환 될 수 있어야 함을 의미한다. 그러나 PHI는 매우 중요한 개인 정보이므로 교환 과정에 절대 임의로 조회 되기나 유출 되어서는 안 되며, 저장 혹은 전송 시 반드시 보호 되어야 한다. \( { } ^ { [6,7] } \) 따라서 건강관리 서비스가 활성화되기 위해서는 먼저 PHR이 EHR과 연동 되어 PHI를 관리 할 수 있는 인프라를 구축하고 HSP 및 이해 당사자간 신뢰적인 시스템 구축이 선행되어야 할 것이라 판단된다. 또한 신뢰적 시스템 구축을 위하여 PHI 보호에 대한 기술적인 방법을 구체적으로 제시해야 할 필요가 있다.</p>
개인건강기기에서 수집되는 개인건강 정보는 건강관리 서비스 제공자에 의해 수집 및 관리되고 자동화 된 의사결정 시스템 등을 기반으로 개인 중심의 건강관리 서비스가 제공 될 수 있고, 이러한 정보의 수집을 토대로 개인 평생 전자건강기록 관리 서비스가 활성화 될 수 있다. 그러나 개인건강 정보는 개인 정보이므로 교환 과정에 절대 임의로 조회 되기나 유출 되어서는 안 되고, 보호 되어야 하며, 이를 위해 개인건강 정보 보호에 대한 기술적인 방법을 구체적으로 제시해 할 필요가 있다.
<p>\( V_ {\text { trans } } = T_ {\text { trans } } -O_ {\text { trans } } \)<caption>(8)</caption></p> <h5>(2) 멀티스레드의 공유 버퍼 설계</h5> <p>3개의 멀티스레드가 각각의 데이터 버퍼를 가지고 작업을 처리하기에 MCU의 내장 메모리와 프로세싱 자원이 제한적이다. 따라서 중복 된 처리를 최소화하기 위하여 스레드 간 데이터 버퍼를 공유하도록 하였다. 공유 버퍼는 원형 버퍼 기반으로 설계하였으며, 크기는 무선 진송 패킷에 포함되는 32 바이트의 배수인 256 바이트로 결정하였다. 공유 버퍼 사용 시 각 스레드가 유효하지 않은 데이터에 대한 접근 시 비정상적인 데이터 처리가 발생할 수 있다. 이 문제를 해결하기 위하여 각 스레드가 작업 수행 후 버퍼 오프셋 정보를 갱신하고 다음 작업 수행 전 버퍼 접근 여부를 오프셋 정보를 토대로 결정하도록 하였다. 이를 수행하기 위한 소프트웨어 동작의 예를 그림 5에 정리하였다. 공유 버퍼에 대한 접근 우선순위가 가장 높은 것은 \( { Thread } _ { adc } \)이며, 다음으로 \( { Thread } _ { Encrypt } \), \( { Thread } _ { Trans } \) 순으로 설계하였다. 각 스레드는 작업 수행 전 참조하는 버퍼 오프셋 정보를 토대로 접근 여부를 결정하도록 하였다.</p> <h3>3. 실험의 설계</h3> <h4>가. 암호화 모듈 검증</h4> <p>암호화 모듈 검증을 위해 다음의 두 가지 실험을 수행한다. 첫 번째로 16 비트 MCU 최적화 전/후의 코드 사이즈를 비교하고, 멀티스레드 스케줄링과 버퍼 공유 접근제어 동작을 검증한다. 두 번째로 고정 된 8 바이트 블록에 미리 정해진 값을 이용해 암호화/복호화 테스트를 진행한다. 본 실험의 목적은 개발 된 암호화 모듈이 16 비트 MCU와 32 비트 PC간 상호 운용성을 검증하기 위함이다. 실험 방법을 그림 6에 정리하였다.</p> <h4>나. 실시간 암호화 성능평가</h4> <p>MCU에 적용된 암호화 모듈이 64 비트 데이터 블록을 암호화 하는데 필요한 시간을 측정할 수 있다. 실험은 DES/3DES로 구분하고, 암호화 반복수행 횟수를 1에서 10으로 변경하면서 자원을 점유하는 시간을 측정한다. 측정은 오실로스코프(DPO 3034, Tektronix 祆)를 이용하였다. 두 번째로 실시간 생체신호 암호화 전송 시 암호화/복호화 과정에서의 오류 발생 여부 이용한 성능평가를 수행하고자 한다.</p> <h4>다. 생체신호 별 실시간 암호화 전송 정리</h4> <p>표2 에 제시 된 생체신호의 로우 데이터 양자화에 최소로 요구되는 표본추출 비율에 대한 실시간 암호화 가능 조건을 정리하고자 한다. 표 2는 Gohn Gebster 저서 \( { } ^ { [16] } \)를 참조한 생체신호의 주파수 대역을 참조하여 Nyquist-Shannon sampling theorem을 근거로 양자화에 최소로 요구되는 표본추출 비율을 정리하였다. 이를 토대로 본 연구의 실시간 암호화 모듈이 각 생체신호에 적용 될 수 있는 조건을 정리 할 것이다.</p>
3개의 멀티스레드가 각각의 데이터 버퍼로 작업을 처리하기엔 MCU의 내장 메모리와 프로세싱 자원이 제한적이며, 따라서 중복 된 처리를 최소화하기 위하여 스레드 간 데이터 버퍼를 공유하도록 하였다. 암호화 모듈 검증을 위해 다음의 두 가지 실험을 수행하며, MCU에 적용된 암호화 모듈이 64 비트 데이터 블록을 암호화 하는데 필요한 시간을 측정할 수 있다.
<h4>다. PHD 소프트웨어 설계 및 구현</h4> <h5>(1) 멀티스레드 스케줄링</h5> <p>설계 된 소프트웨어의 개요를 그림 4에 정리하였다. 생체 계측 센서플랫폼으로부터 데이터를 수집하기 위한 디바이스 드라이버와 DES/3DES 암호화 라이브러리를 동적 모듈화하여 설치하였다. 메인 어플리케이션을 효율적으로 운용하기 위한 멀티스레드 스케줄링은 다음의 파라미터를 이용하여 설계하였다. \( T_ { adc } \)는 양자화 표본 추출 주기이고, \( T_ { enc } \)은 암호화 수행 주기이다. \( T_ {\text { trans } } \)는 무선 진송 주기이다. 식 (1) (5)는 각 파라미터 간의 관계를 설명한다. 기본적으로는 표본추출 비율에 따라서 각 파라미터가 동적으로 변화하도록 소프트에어를 설계하였다. 그 이유는 생체 계측 센서 플렛랫폼이 측정 하고자 하는 생체신호마다 표본추출 비율이 다르기 때문이다. 설계 된 소프트웨어는 센서 플랫폼을 교체 할 때 디바이스 드라이버의 변경으로 멀티스레드 스케줄링을 위한 식 (1), (5)를 갱신하기 때문에 메인 어플리케이션의 수정이 필요없도록 설계하였다. 이러한 방식의 멀티스레드 스케줄링을 통해 불필요한 스레드의 동작을 억제하고 스레드 간 충돌을 방지 할 수 있다. 그러므로 스레드가 작업을 수행한 뒤 스스로 비활성화 되고 필요한 시점에 활성화 되도록 스케줄링 하였기 때문에 불필요한 리소스를 낭비하지 않을 수 있다.</p> <p>SamplePerBlock \( (S P B) = 4 \)<caption>(1)</caption></p> <p>BlockPerFrame \( (B P F)=4 \)<caption>(2)</caption></p> <p>\( T_ {\text { adc } } \quad= \frac { 1 } {\text { Sample Rate } } \)<caption>(3)</caption></p> <p>\( T_ {\text { enc } } \quad=S P B \times T_ { adc } \)<caption>(4)</caption></p> <p>\( T_ {\text { trans } } \quad=B P F \times T_ {\text { enc } } \)<caption>(5)</caption></p> <p>그러나 각 스레드에서 코드가 비정상적으로 오랜 시간 시스템 자원을 점유하였을 경우 멀티스레드의 스케줄링 오차 문제를 방지하기 위하여 식 (6)~(8)의 파라미터를 사용한다. 각 스레드의 주기에시 작업 수행에 걸린 시간은 제외한 시간만큼 비활성화 되도록 하였다.</p> <p>\( V_ { a d c } =T_ { a d c } -O_ { a d c } \)<caption>(6)</caption></p> <p>\( V_ { e n c } =T_ {\text { enc } } -O_ { e n c } \)<caption>(7)</caption></p>
본 연구에서는 생체 계측 센서플랫폼에서 데이터 수집을 위해 디바이스 드라이버와 DES/3DES 암호화 라이브러리를 동적 모듈화하므로 설치했으며 메인 어플리케이션을 효과적으로 수행하기 위한 멀티스레드 스케줄링을 설계했다. 스레드가 작업을 수행 후 필요에 따라 활성화 되게 스케줄링했기때문에 리소스 낭비를 없앨수 있으며 각 스레드에서 코드가 오랜 시간 점유했을 때 스케줄링 오차를 방지하기 위해 작업 수행에 걸린 시간은 제외한 시간만큼 비활성화 했다.
<p>PHD에 대한 구체적인 정의 및 데이터 교환, 통신 프로토콜, 장비별 권고사항에 대한 표준은 ISO/IEEE 11073에 의하여 제정되어 있으며, \( { } ^ { [9] } \) HIPAA(Health Insurance Portability and Accountability Act)에서 건강 정보 보호와 관련 된 법률을 제정하여 그 보호의 의무를 명시하고 있다. \( ^ { [7] } \) 그러나 PHI 관련 정보 보호에 대한 구체적인 방법론은 아직 권고사항에 머물러 있는 실정이다. 따라서 본 연구에서는 PHD에서 생산되는 PHI를 전송 시 보호 할 수 있는 시스템을 제안하고, 그 성능평가를 통헤 활용 가능성을 확인하고자 한다.</p> <p>일반적으로 PHD에서는 HSP의 HCRC으로 전송하는 과정에 대헤서 대부분 정보 보호 및 암호화와 관련 된 측면이 고려되지 않거나, 개인 스마트폰 또는 라우터와 같은 게이트웨이 역할을 수행하는 단말에서 수행하고 있다. \( { } ^ { [9-10] } \) 이러한 방식의 PHI 암호화는 크게 두 가지 문제점을 안고 있다. 첫 번째로 대부분의 PHD 사용자는 게이트웨이에서 암호화를 정확히 수행하는 지를 신뢰하지 않는다. 그 이유는 스마트폰과 같은 오픈 플랫폼 장치가 개인 정보 유출의 위험에 노출 되어 있기 때문이다. 두 번째는 게이트웨이에서 제공하는 정보보호 방식이 PHI 접근에 대한 권한 부여를 당사자가 관리하기 어렵게 만든다는 것이다. 이러한 문제점이 개인 정보의 수집에 대한 불쾌감 혹은 거부감으로 착용하여 PHD가 활성화되는데 매우 중요한 장애물로 작용 할 수 있다.</p> <p>본 연구에서는 무선 개인 영역 네트워크(Wireless Personal Arca Network, 이하 WPAN)에서 사용되는 착용형 PHD에서 사용자가 관리하는 비밀 키(56bit 또는 168bit)를 이용한 DES(Data Encryption Standard) 알고리즘으로 실시간암호화 생체신호를 전송하는 시스템을 개발하있다. 연구개발의 목적은 두 가지로 설명할 수 있다. 첫 번째로 개인이 착용한 PHD에서 비밀키로 암호화 되어 전송되는 PHI는 본인의 허락 및 비밀 키 관련 정보 제공 없이는 누구도 해석 할 수 없기 때문에 사용자가 신뢰 할 수 있는 시스템을 구축하기가 용이하다. 두 번째로 향후 건강관리 서비스가 활성화되면 HCRC로 막대한 양의 건강 데이터(Health Big Data, 이하 HBD) 수집 될 것으로 예상되는데 게이트웨이와 같은 중계기에서 다수의 착용형 PHD의 암호화를 수행하는 것은 데이터 처리 및 관리의 측면에서 비효율적이다. 따라서 착용형 PHD에서 직접 암호화 된 데이터를 전송 할 경우 게이트웨이 단말에서의 처리부하를 분산 시킬 수 있는 장점이 있다.</p>
PHD에 HIPAA에서 건강 정보 보호와 관련 된 법률을 제정하여 그 보호의 의무를 명시하고 있으며, PHD 사용자는 게이트웨이에서 암호화를 신뢰하지 않고, 게이트웨이에서 제공하는 정보보호 방식이 PHI 접근에 대한 권한 부여를 당사자가 관리하기 어렵게 만든다. 무선 개인 영역 네트워크에서 착용형 PHD에서 비밀 키를 DES알고리즘으로 실시간암호화 생체신호를 전송하는 시스템을 착용형 PHD에서 직접 암호화 된 데이터를 전송할 경우 게이트웨이 단말에서의 처리부하를 분산시킬 수 있다.
<h1>1. 서 론</h1> <p>클라우드 서비스는 유동성, 확장성, 편의성, 낮은 비용과 같은 다양한 장점들 덕분에 현대 IT 사업에서 많은 주목을 받고 있다. 클라우드 서비스는 서비스 대상에 따라서 기업을 위한 프라이빗 클라우드, 일반 대중을 위한 퍼블릭 클라우드, 보안 기능과 비용의 효율성을 강화한 하이브리드 클라우드로 구분한다. 또한 IaaS(Infrastructure as a Service), PaaS(Platform as a Service), SaaS(Software as a Service) 같이 사용자의 요구에 따라 다양한 유형의 서비스를 제공한다. 특히, IaaS에서 서비스 제공자는 물리적인 자원을 가상화 기술을 이용하여 VM(Virtual Machine) 단위로 사용자들에게 제공한다.</p> <p>클라우드 환경에서 사용자가 요구하는 자원의 양과 유형은 동적이기 때문에 사용자의 QoS(Quality of Service)를 만족시키는 것은 어렵다. 기존의 전통적인 자원 할당 기법은 사용자 요구가 증가하면 데이터 센터를 확장시키는 방법으로 문제를 해결하였다. 그러나 보다 효율적인 자원 관리를 위해서는 사용자들의 요구를 정확히 예측하고 이를 기반으로 자원을 준비하는 것이 필요하다. 따라서 사용자의 동적인 자원 요구에 따라 효율적으로 자원을 할당하기 위한 VM 프로비저닝(VM provisioning)이 요구된다.</p> <p>VM 프로비저닝은 가까운 미래에 발생할 서비스의 자원 요구량을 계산하고, 해당 요구량을 만족시키기 위한 자원을 미리 준비하는 기술이다. VM 프로비저닝은 사용자의 QoS를 만족시키고 자원 관리 비용을 최소화하여 서비스 제공자의 이득을 최대화한다. 서비스 제공자는 사용자에게 SLA(Service Level Agreement)에 계약된 QoS를 제공해야 한다. 서비스 제공자가 QoS를 만족시키면 사용자로부터 서비스 이용에 대한 대가를 받지만, 만족시키지 못하면 서비스 제공자는 사용자에게 그에 따른 보상을 지급해야 한다. QoS를 떨어뜨리는 주된 원인 중 하나는 VM 프로비저닝 지연시간(delay)이다. VM 프로비저닝에서 VM 생성, VM 할당 및 배분, 소프트웨어 설치, VM 검증, 안전성 확인 등의 요인으로 지연시간이 발생되는 것은 피할 수 없다. 따라서 VM 프로비저닝 지연시간을 줄이기 위하여 사전에 자원 요구량을 예측하고 필요한 서비스 자원을 준비하는 기법이 요구된다.</p> <p>VM 프로비저닝에서 발생할 수 있는 상황은 Fig. 1과 같다. 첫째로, 오버 프로비저닝(over-provisioning)은 서비스 제공자의 준비된 자원이 실제 요구량에 비해 많은 경우로 서비스 제공자에게는 잉여 자원만큼의 손해가 발생한다. 둘째로, 언더 프로비저닝(under-provisioning)은 서비스 제공자의 준비된 자원이 실제 요구량에 비해 부족한 경우로, 부족한 VM 준비를 위한 VM 프로비저닝 지연시간이 발생할 수 있으며, 이로 인하여 서비스의 품질이 하락할 수 있다. 서비스 제공자는 서비스 품질 하락으로 인한 SLA 위반에 대한 보상을 지급해야 할 수 있다. 따라서 2절에서는 서비스 품질을 위한 VM 프로비저닝 방법을 설명하고, 3절과 4절에서는 사용자의 QoS를 만족시키고 서비스 제공자의 이득을 최대화하기 위한 새로운 VM 프로비저닝 기법을 제안하고 성능을 평가한다.</p>
IaaS에서 사용자들에게 물리적 자원은 가상화 기술이 적용된 VM 형태로 제공되는데, 이때 사용자들의 수요에 맞는 동적인 자원 형태를 고려하여 QoS를 만족시키는 것은 힘들다. 이를 해결하기 위해서 미래의 자원 요구량을 계산해 미리 준비하는 VM 프로비저닝을 사용할 수 있으나, 지연시간 측면에서 단점이 있기에 미리 자원요구량을 예상해 자원을 준비하는 방식이 필요하다. 이에 따라 논문에서는 새로운 VM 프로비저닝 기법을 제안하고 이를 평가하여 사용자의 QoS를 만족시키고자 한다.
<h1>4. 성능 분석</h1> <p>본 논문에서 제안 기법의 성능을 분석하기 위해 사용자의 요구에 대한 실측 데이터(Intel Netbatch workload archive, 2012년 10~11월까지의 데이터)를 이용하였다. 또한 CLT(Central Limit Theorem), EWMA(Exponentially Weighted Moving Average), AR(Auto Regression)과 같은 예측 기법을 이용하여 \( \lambda \)를 계산하였다. 본 논문에서는 서비스 제공자가 \( \lambda \)를 준비했을 때 서비스 제공자의 총 경비와 제안된 기법의 결과 값 \( x \)를 준비했을 때의 총 경비를 비교하여 제안된 기법의 우수성을 증명한다. 실험 환경에서 주요 변수들은 \( P = 0.3 \), \( C=6, C_ {\text { wasted } } =8 \), \(C_ {\text { penalty } } =10 \), \(T_ { S L A } =0.7 \)로 설정한다.</p> <p>Fig. 2는 제안 기법을 사용했을 때의 총 경비가 다른 예측 기법을 사용했을 때의 총 경비들보다 작음을 보여준다. Fig. 2A에서 제안 기법의 평균값 26.81은 CLT 기법의 평균값 30.59보다 \( 14 \% \) 낮다. Fig. 2B에서 제안 기법의 평균값 16.32는 EWMA 기법의 평균값 19.07보다 \( 16 \% \)낮다. Fig. 2C에서 제안 기법의 평균값 9.46은 AR 기법의 평균값 11.30보다 \( 19 \% \) 낮다. Fig. 3은 Fig. 2의 한 구간에서 다른 예측 기법과 제안 기법의 총 경비를 비교하여 보여준다. Fig. 3에서 제안 기법의 결과 값은 다른 기법의 결과 값보다 작고 오목 그래프에서 가장 작은 값을 가진다. 이러한 실험 결과를 바탕으로 본 논문의 제안 기법이 총 경비에 대하여 가장 낮은 기대값을 갖는 자원의 양을 결정할 수 있음을 알 수 있다.</p> <h1>5. 결 론</h1> <p>본 논문에서는 서비스 제공자의 총 경비에 대한 기댓값을 최소화하여 이득을 최대화하는 VM 프로비저닝 기법을 제안했다. 클라우드 환경에서 사용자에게 QoS를 제공하고 서비스 제공자의 이득을 최대화하기 위해서는 정확하게 자원 요구량을 예측하고 이를 기반으로 자원 준비량을 결정할 수 있는 기법이 필요하다. 하지만 기존의 많은 기법들은 서비스의 자원 요구량을 예측하고, 해당 예측량을 다음 서비스에 제공할 자원량으로 결정한다. 그러나 이들 기법은 사용자에게 QoS는 제공하지만 서비스 제공자의 이득을 최대화하지는 않는다. 따라서 본 논문에서는 오버 프로비저닝과 언더 프로비저닝 상황에서의 경비를 고려하고 다른 예측 기법의 결과 값을 기반으로 서비스 제공자의 총 경비에 대한 기대 값을 최소화 시키는 자원 제공량 결정 기법을 제안하였다. 또한 성능 분석을 통하여 제안된 기법이 다른 예측 기법만을 적용한 결과 보다 총 경비가 더 낮다 것을 증명하였다.</p>
이 논문은 서비스 제공자의 총 경비를 최소화하여 이익을 극대화하는 VM 프로비저닝 방법을 제시한다. 클라우드 환경에서 사용자의 QoS를 보장하고 서비스 제공자의 수익을 최대화하려면 자원 요구량을 정확히 예측하고 그를 기반으로 자원 할당량을 결정하는 방법이 필요하다. 성능 분석을 통해 이 기법이 다른 예측 방법을 적용한 결과보다 총 경비를 더 줄일 수 있다는 것을 입증하였다.
<h1>2. 관련 연구</h1> <p>클라우드 환경에서 사용자에게 QoS를 제공하기 위해서는 VM 프로비저닝 지연시간을 최소화해야 한다. VM 프로비저닝 지연시간을 최소화하기 위한 대표적인 기술은 서비스의 자원 요구량에 대한 예측이다. VM 프로비저닝을 위한 추가적인 지연시간의 발생을 최소화하기 위해서 서비스 제공자는 사전에 다음 서비스의 자원 요구량을 예측하고 이를 기반으로 자원을 미리 준비한다.</p> <p>VM 프로비저닝은 두 가지 방법(Reactive와 Proactive)으로 자원을 관리한다. 첫째로, Reactive 방법은 서비스의 요청이 발생하면 즉각적으로 자원을 할당한다. 다시 말해서 서버가 모니터링을 통하여 자원 요청량이 증가했음을 확인하면 그때 자원을 할당한다. Reactive 방법은 새로운 VM의 생성과 할당이 즉시 실행된다면 효과적이다. 하지만 실제로 VM의 생성과 할당에는 지연시간이 요구된다. 이것은 일반적인 서비스에는 적합할 수도 있지만 실시간 처리를 요구하는 서비스에는 적합하지 않다. 따라서 Reactive 방법은 VM 프로비저닝 지연시간을 발생시키고 사용자의 QoS를 떨어뜨릴 수 있다. 둘째로, Proactive 방법은 다음 서비스의 자원 요구량을 예측하여 사전에 필요한 자원을 준비하는 방법이다. 서비스 제공자는 서비스의 다양한 자원 요구량을 예측하여 미리 준비함으로써 VM 프로비저닝을 위한 추가적인 지연시간의 발생을 예방한다. 따라서 정확하게 자원 요구량을 예측하고 이를 기반으로 자원 준비량을 결정할 수 있는 기법이 필요하다. [2]는 오버 프로비저닝과 언더 프로비저닝의 경우를 고려하여 서비스 제공자의 손해를 계산하는 함수를 제안하였다. 서비스 제공자가 실제 서비스 요청량에 비하여 VM을 많이 준비하는 경우에는 서비스를 처리하고 남는 잉여 자원에 대하여 손해가 발생한다. 실제 서비스 요청량에 비하여 VM을 적게 준비하는 경우는 부족한 자원 준비를 위한 VM 프로비저닝 지연시간이 발생하게 되며, 이로 인하여 SLA에 대한 위반이 발생할 수 있으며 이때 서비스 제공자는 사용자에게 벌금을 지급해야 한다. 따라서 서비스 제공자의 손해는 잉여 자원에 대한 손해와 SLA 위반에 대한 손해를 합한 것이 된다. [1]은 소비자의 QoS를 만족시키면서 지원하는 서비스 개수를 최대화하는 기법이다. 이는 서비스의 자원 요청량에 제한을 두어 서버의 처리 능력을 일정 수준 이상으로 유지함으로써 지원하는 서비스 개수를 최대화시킨다. 또한 SLA 위반에 대한 벌금을 최소화하여 사용자에게 QoS를 보장하고 서비스 제공자의 이득을 최대화한다.</p> <p>기존의 많은 VM 프로비저닝 기법들은 서비스의 자원 요구량을 예측하고, 해당 예측량을 다음 서비스에 제공할 자원량으로서 자원을 준비한다. 그러나 이들 기법은 사용자에게 QoS는 제공하지만 서비스 제공자의 이득을 최대화하지는 않는다. 본 논문에서는 기존의 자원 예측 기법을 기반으로 서비스 제공자의 총 경비에 대한 기대 값을 최소화하여 서비스 제공자의 이득을 최대화하는 자원 제공량 결정 기법을 제안한다.</p>
클라우드 환경에서 사용자에게 QoS를 제공하기 위해서는 VM 프로비저닝 지연시간을 최소화해야 한다. VM 프로비저닝 지연시간을 최소화하기 위한 대표적인 기술은 서비스의 자원 요구량에 대한 예측이다. VM 프로비저닝을 위한 추가적인 지연시간의 발생을 최소화하기 위해서 서비스 제공자는 사전에 다음 서비스의 자원 요구량을 예측하고 이를 기반으로 자원을 미리 준비한다. 첫째로, Reactive 방법은 서비스의 요청이 발생하면 즉각적으로 자원을 할당한다. 둘째로, Proactive 방법은 다음 서비스의 자원 요구량을 예측하여 사전에 필요한 자원을 준비하는 방법이다. 기존의 많은 VM 프로비저닝 기법들은 서비스의 자원 요구량을 예측하고, 해당 예측량을 다음 서비스에 제공할 자원량으로서 자원을 준비한다. 그러나 이들 기법은 사용자에게 QoS는 제공하지만 서비스 제공자의 이득을 최대화하지는 않는다. 본 논문에서는 기존의 자원 예측 기법을 기반으로 서비스 제공자의 총 경비에 대한 기대 값을 최소화하여 서비스 제공자의 이득을 최대화하는 자원 제공량 결정 기법을 제안한다.
<p>(그림 4)에서 제안알고리즘을 코드로 표현하였다. Step 1에서는 클러스터를 구성하기 위해 BS는 노드들에게 각각이 가진 잔류 에너지와 위치정보를 요구하는 Query를 전송하고 Query를 받은 노드들은 잔류 에너지와 위치정보에 대한 데이더를 응답메시지에 실어 BS에 전송한다.</p> <p>Step 2는 Step 1에서 전송받은 데이더를 기반으로 클러스터를 구성하고 헤드 노드와 후보노드를 선정한다. 데이터 수집헤드는 TDMA 스케줄을 작성하여 주변의 노드들과 라우팅 헤드, 후보노드에게 전파한다.</p> <p>Step 3은 Step 2에서 헤드와 후보가 정해지고 TDMA 스케줄 작성이 완로된 뒤에 데이터가 이동하는 것을 나타낸다.</p> <p>Step 4에서는 데이터 수집헤드의 에너지가 고갈되어 교체해야할 상황을 기술하고 있다. 헤드의 \( \mathrm { T } \) 값과 네트워크에서 구한 \( T ^ {\prime } \) 값을 비교하여 헤드 \( \mathrm { T } \) 값이 작으면 후보노드와 역할을 교체한다. 역할 교체가 이루어지면 기존 데이터 수집헤드가 라우팅 헤드에게 후보노드에 역할 이양을 했다는 메시지를 보내고 차기 데이터 수집헤드가 된 후보노드 역시 헤드 이양 메시지를 받아서 자신이 차기 데이더 수집헤드가 되었다고 라우팅 헤드에게 메시지를 전달한다. 라우팅 헤드는 차기 데이터 수집헤드에게 응답메시지를 보내주고 차기 데이터 수집헤드는 클러스터 내에 구성 노드들에게 advertisement 메시지를 전파하고 헤드의 역할을 수행한다.</p> <h2>4.2. 성능평가</h2> <p>제안된 알고리즘의 성능 평가를 위해 NS2 Simulator를 사용하였으며, LEACH, LEACH-C, HEED와 네트워크 수명을 비교하였다.</p> <p>시뮬레이션 환경은 \( 100 * 100 \) 크기의 지역에서, 노드의 초기 개수는 100개로 설정 하였고 100개 단위로 노드의 수를 늘려가며 실험했다. BS의 위치는 (0,0)으로 배치하였다. 또한 각 노드가 가지는 초기 에너지 값은 2J로 설정하였으며 노드 간 데이터 전송 시 발생되는 에너지 소모 모델은 LEACH에서 제안된 아래의 식으로 계산하였다.</p> <p>\( \mathrm { E } _ {\mathrm { Tx } } ( \mathrm { k } , \mathrm { d } )= \mathrm { E } _ {\text { elec } } * \mathrm { k } + \epsilon_ {\mathrm { amp } } * \mathrm { k } * \mathrm { ~d } ^ { 2 } \)<caption>(식 3)</caption></p> <p>\( \mathrm { E } _ {\mathrm { Rx } } ( \mathrm { k } )= \mathrm { E } _ {\text { elec } } * \mathrm { k } \)<caption>(식 4)</caption></p>
BS는 클러스터를 구성하기 위해 노드에 잔류 에너지와 위치정보에 대한 정보를 요구하고 헤드 노드와 후보노드를 선정하고 데이터 수집헤드는 TDMA 스케줄을 작성해 노드에 전파한다. 데이터 수집헤드의 에너지가 고갈되는 경우 후보노드와 역할을 교체하는데 기존 데이터 수집헤드는 라우팅 헤드에 역할 이양 메시지를, 차기 데이터 수집헤드 역시 헤드 이양 메시지를 전달한다. 그 후 라우팅 헤드는 수집헤드에 응답메시지를 보내고, 차기 데이터 수집헤드는 advertisement 메시지를 전파 후 역할을 수행한다.
<p>두 번째는 계층적 라우팅 기법이다. 계층적 라우팅 기법은 본 근문에서 중점적으로 다루고 있는 방법으로 노드들을 일정구모의 클러스터 단위로 나누어 그 중 헤드노드를 선출하여 헤드노드에서 데이터 병합과정을 통해 전송 량을 줄여 BS로 전송하는 방식을 말한다.</p> <p>마지막 세 번째는 위치기반 라우팅 기법인데 이 방법은 모든 노드들이 자신의 위치뿐만 아니라 이웃 노드의 위치를 미리 알고 있어야 하는 방식이다.</p> <p>위와 같이 기존에 연구된 대표적인 클러스터링 기법 3가지 종류 중에서 본 논문에서는 계층적 라우텅 기법이 현실적으로 타당성이 높다고 판단하고 이를 기반으로 한 새로운 라우팅 기법에 대해서 연구하고자 한다.</p> <h2>2.2. 클러스터 기반의 라우팅 프로토콜</h2> <p>클러스터 기반의 라우팅 프로토콜은 인접한 노들의 유사한 정보의 중복전달로 인한 에너지 소모를 감소시켜 에너지 효율을 높일 수 있는 장점이 있다. 즉 센서들에 대한 클러스터를 형성하여 유사한 이벤트 정보들을 클러스터 헤드에서 데이터 통합과정을 통해 걸러냄으로서 보다 에너지 효율적인 라우팅을 가능하게 한다. 클러스터 기반의 라우팅 프로토컬의 구성은 아래 (그림 1)과 같이 표현할 수 있다.</p> <p>(그림 1)과 같이 클러스터 기반의 프로토콜은 노드들을 클러스터 단위로 묶고 이 중 하나의 헤드노드를 선출하여 주변 노드들로부더 데이더를 전달받아 데이터들을 통합하여 BS로 전달한다.</p> <p>이러한 클러스터 기반의 프로토콜 중 대표적인 것으로 LEACH가 있다. LEACH는 클러스터 헤드를 확률적으로 선정하여 클러스터 내의 모든 노드들에게 클러스터 헤드가 될 수 있는 기회를 준다. LEACH는 라운드라는 시간단위로 구성되고 클러스터 구성 시에 클러스터 헤드를 선정하고 헤드가 선정되면 광고메시지를 통해 노드들에게 알리고 TDMA 스케줄을 작성하여 클러스터 구성노드들에 전파한다. 그리고 구성노드들은 정해진 스케줄에 따라서 데이터를 전송하고 전송이 끝나면 sleep 모드로 전환하여 에너지 소모를 줄인다. 그러나 노드들의 에너지양을 고려하지 않고 헤드를 선정하기 때문에 에너지 효율적이지 못하고 또한 헤드의 에너지 고갈로 BS와 클러스터 간 연결 지향성에도 문제가 있다.</p> <h1>3. 제안 알고리즘</h1> <h2>3.1. 모델설계</h2> <p>본 논문에서 제안하고자 하는 알고리즘은 LEACH를 기반으로 하고 있으며, LEACH의 취약점을 보완하고자 설계하였다.</p> <p>LEACH는 확률적인 헤드 선출로 인해 에너지 효율적이지 못할 수 있는 문제점을 안고 있다. 또한 잘못된 헤드가 선출될 경우 네트워크 연결이 끊어져 신뢰성 있는 데이터의 전달이 불가능한 문제가 발생한다.</p> <p>예를 들어 하나의 노드가 헤드로 선출이 되었을 때 노드의 잔류에너지가 얼마 남지 않은 상태면 그 헤드가 속한 클러스터는 데이더를 BS에 제대로 전송하지 못하게 된다. 그 이유는 헤드가 일씩 death가되기 때문이다. 헤드가 death가 된 경우 클러스터에서 수집된 정보들을 BS로 전송할 수 없다. 또한 클러스터 내에서 수집된 유용한 정보들까지도 사용할 수 없게 된다. 그렇기 때문에 본 곤문에서는 노드들이 갖는 에너지양과 각각의 노드들의 위치정보를 얻어 그것을 토대로 헤드를 선출하고자한다.</p>
에너지 고갈이 심한 노드를 헤드로 선출하지 않고, 주변 노드들의 에너지 상태를 고려하여 헤드를 선출하는 방식을 사용하여 에너지 효율적인 라우팅 기법을 제안하고자 한다. LEACH 기반의 클러스터 기반 라우팅 프로토콜은 노드들을 클러스터 단위로 나누고 확률적으로 헤드노드를 선출하여 데이터 통합과정을 통해 BS로 전송하는 방식이다. 본 논문에서는 LEACH의 취약점을 보완하고자 에너지 고갈이 심한 노드를 헤드로 선출하지 않고, 주변 노드들의 에너지 상태를 고려하여 헤드를 선출하는 새로운 라우팅 기법을 제안한다.
<p>BS는 노드들의 잔류에너지와 각 노드가 가지는 위치정보를 계산해 헤드를 선출한다. BS는 각 노드에 Query를 전송하고 Query를 받은 노드들은 각각의 에너지와 위치정보에 대한 데이터를 응답메시지와 함께 BS에 전송한다. 다음으로 BS는 이 데이더들을 기반으로 하여 클러스터 당 3개의 노드를 선정한다. 선정된 3개의 노드들은 3.2절의 (식 1)에서와 같이 각자의 \( \mathrm { T } \) 값을 계산하여 선정된 다른 노드들에게 전송하여 주고 전송받은 데이터와 자신이 가진 \( \mathrm { T } \) 값을 비교하여 각자의 역할 분담을 한다. (데이더 수집 헤드, 라우팅 헤드, 후보노드 역할 분담) 이렇게 3개의 노드가 선출되면 선출되지 않은 노드들은 이 헤드 노드들과 후보노드를 중심으로 클러스더를 형성하고 (그림 2)(a)와같이 클러스터내의 헤드와 후보는 서로 통신을 함으로서 각각의 존재를 확인한다.</p> <p>두 헤드노드와 후보노드 간 확인 작업이 끝나면 데이터 수집헤드는 TDMA 스케줄을 작성하여 모든 노드에 전파한다. 이 때 라우팅 헤드와 후보노드에도 별도의 스케줄을 작성하여 전송한다. 이 세 개의 노드는 정해진 스케줄에 따라 통신하면서 에너지 잔류량을 체크한다.</p> <p>스케줄 작성이 끝나면 바로 데이터 이동이 발생한다. 데이터의 이동이 발생하면 데이터 수집헤드는 (그림 2)(b)에서와 같이 주변의 구성노드들이 센싱한 정보들을 받아서 데이터를 통합하고 압축하는 역할을 수행한다. 이렇게 통합된 데이터들을 (그림 2)(c)에서처럼 라우팅 헤드로 전송하면 라우팅 헤드는 데이터 수집헤드로부터 전송받은 데이터들을 BS에 전송한다.</p> <p>후보노드는 평상시에 sleep 상태를 유지한다. 스페어노드로서 데이터수집헤드 노드의 에너지가 임계치 이하로 소비되어 역할 수행을 못하게 되면 이를 대신하기 위해 존재한다. 따라서 평상시에는 아무런 역할도 수행하지 않다가 수집노드가 교체를 원하거나 수집노드로부터 일정 시간이 지났음에도 응답이 없는 경우에 데이터 수집노드와 역할을 교체한다.</p> <p>헤드의 역할을 대신할 후보노드를 선정해 놓았기 때문에 헤드 교체 시에 처리 속도 지연을 최소화하여 전체 시스템의 효율을 높일 수 있다.</p> <h2>3.2. 클러스터 헤드 선출 및 교체</h2> <p>헤드를 선출하거나 교체하기 위해서 특정 임계 값을 사용한다. 이 때 사용하는 임계 값은 아래의 (식 1)와 (식 2)를 계산하여 두 식에서 언어진 값을 비교해서 \( \mathrm { T } \) 값이 크면 헤드로 선출 한다.</p> <p>\( \mathrm { T } = \mathrm { E } _ {\text { resi } } / \mathrm { E } _ {\mathrm { TNIT } } * \mathrm { CH } _ {\mathrm { pnt } } \)<caption>(식 1)</caption></p>
BS는 노드들의 잔류에너지와 각 노드가 가지는 위치정보를 계산해 헤드를 선출하고, 그 후 클러스터 당 3개의 노드를 선정하여 TDMA 스케줄을 작성하고, 평상시에는 sleep 상태를 유지하는 후보노드를 선정하여 헤드 교체 시 속도 지연을 최소화하여 전체 시스템의 효율을 높인다. 또한 헤드를 선출하거나 교체하기 위해서는 특정 임계 값을 사용하여 선출한다.
<p>\( \mathrm { T } ^ {\prime } = \sum \mathrm { E } _ {\text { resi } } / \sum \mathrm { E } _ {\mathrm { TNIT } } * \mathrm { CH } _ {\mathrm { pnt } } \)<caption>(식 2)</caption></p> <p>\( \mathrm { E } _ {\text { resi } } \)는 노드의 잔류 에너지양이고 \( \mathrm { E } _ {\mathrm { TNIT } } \)는 노드가 가진 초기 에너지양이다. 또 \( \mathrm { CH } _ {\mathrm { pnt } } \)는 전체 네트워크의 데이터 수집헤드의 비율을 나타낸다. 네트워크 내에서 최적의 클러스터 혜드의 비율은 \(5 \% \)로 계산했다.</p> <p>(식 1)에 의해 계산된 \( \mathrm { T } \) 값을 (식 2)을 통해 계산된 전체 네트워크의 \( T ^ {\prime } \) 값과 비교하여 (식 1)의 값이 작으면 (그림3)과 같이 헤드의 역할을 후보노드에게 이양한다.</p> <p>데이터 수집헤드의 권한을 이양 받은 후보노드는 클러스터내의 구성 노드들에게 자신이 새로운 데이터 수집헤드가 되었음을 전파하고 헤드 역할을 수행한다.</p> <h1>4. 실험 및 평가</h1> <h2>4.1. 시스템 설계</h2> <p>시스템은 기본적으로 LEACH의 규칙을 따른다.</p> <p>크게 4가지 단계로 구성하는데 맨 먼저 advertisement 단계를 거친다. advertisement 단계에서는 BS에 의해 헤드들과 후보노드가 정해지면 이 세 노드들이 통신을 하면서 서로의 에너지 량을 비교하여 그중 가장 많은 양의 에너지를 보유한 노드를 데이더 수집헤드로 하고 데이터 수집헤드가 된 노드는 BS에게 알리고 또한 인근의 노드들에게 advertisement 메시지를 전파한다. advertisement 메시지를 받은 노드들은 가장 먼저 받은 advertisement 메시지를 전달한 헤드를 자신의 클러스더 헤드로 삼는다. 자신이 속할 헤드를 선택한 노드들은 헤드노드를 중심으로 클러스터를 형성한다.</p> <p>클러스터가 형성이 되면 데이터 수집헤드는 TDMA 스케줄을 작성한다. 클러스터를 구성하고 있는 노드들에게 전달할 TDMA 스케줄과 라우팅 헤드와 후보노드에게 전달할 스케줄을 구성하여 클러스터 전역에 전파한다. 스케줄을 전달 받은 노드들은 주변정보를 센싱하고 주어진 TDMA 스케줄에 따라 헤드 노드에게 센싱한 데이터를 전송한다. 그리고 라우팅 헤드와 후보노드도 자신들이 전달 받은 스케줄에 맞춰 수집헤드와 통신을 통해서 상태를 체크한다.</p> <p>또한 헤드교체 시에 특정 임계 값을 사용하는데 이 내용은 3.2절에 나온 대로 두 식에 대입하여 임계 값을 구하고 그에 따라서 헤드를 교체한다.</p>
LEACH의 규칙을 따르는 시스템은 advertisement 단계로 구성하며, BS에 의해 헤드들과 후보노드가 정해지고 각 노드들이 자신의 에너지량을 비교하여 가장 많은 양의 에너지를 보유한 노드를 데이터 수집헤드로 하고 TDMA 스케줄을 작성하고 헤드교체 시에는 2개의 식에 대입하여 임계 값을 구하여 헤드를 교체한다.
<h1>요 약</h1> <p>센서 네트워크 환경에서 기존에 제안된 많은 라우딩 기법들 중에서 대표적인 LEACH 기법은 클러스터링 기반의 연구방법이다. 이는 많은 센서들로 구성된 센서 네트워크 그룹을 효과적으로 관리하기 위해서 제안된 기법이다. 하지만 이때 클러스터 단위의 그룹을 관리하기 위한 클러스터 헤더에 대한 에너지 잔류랑을 고려하지 못한 단점으로 인해 데이터 전송 도중 클러스터 그룹이 파괴되는 문제가 발생할 수 있다. 이에 본 논문에서는 이러한 문제를 해결하고자 클러스터 그룹에 대한 관리를 수행하는 새로운 클러스터링 기법에 대해서 제안하고자 한다. 본 논문에서 제안한 기법을 이용하여 클러스터 그룹의 연결지향성도 향상되었고 데이터 전송과 처리에 있어서 지연 시간도 감소함을 실험 결과를 통해 알 수 있었다.</p> <h1>1. 서 론</h1> <p>최근 센서 네트워크에 대해서 많은 관심이 모아지면서 환경감시, 기상측정, 군사 분야 등 특정 목적을 갖는 많은 분야에서 활발하게 연구들이 진행되고 있다. 여기서 센서 노드들은 지속적으로 수집한 정보들을 BS로 전송하여 응용분야의 목적을 수행한다. 일반적으로 센서 노드를은 한정된 에너지를 갖고 있어 이러한 에너지를 얼마나 효율적으로 사용하느냐에 따라 전체적인 네트워크의 수명과 성능에 영향을 끼친다. 이와 함께 네트워크 그룹의 범위성, 부하균등과 같은 고려사항이 역시 센서 네트워크에 있어 중요한 요구사항이다.</p> <p>센서 네트워크의 여러 가지 기법들 중에서 가장 널리 알려진 기법으로 클러스터링 기법을 사용한LEACH이 있다. 그러나 LEACH는 헤드 선출 시 에너지 잔류량을 고려하지 않고 확률기반으로 클러스더 헤더를 선출하기 때문에 에너지 효율적이지 못하다. 이로 인해 최악의 경우 데이더 전송도중 클러스터 헤더의 에너지 고갈로 인한 클러스터 그룹이 파괴되는 현상도 발생 가능하다.</p> <p>이에 본 논문에서는 이러한 LEACH의 단점을 보완하고자 2개의 헤드노드와 한 개의 후보노드를 선출하여 보다 에너지 효율적이고 네트워크의 연결을 유지시켜줄 수 있는 새로운 클러스터링 기법을 제안하고 이에 대해서 시뮬레이션을 통해 본 연구에 대한 타당성을 검토하고자 한다.</p> <p>본 논문의 구성은 다음과 같다. 제 2장은 관련 연구에 관한 내용으로 라우팅 기법의 종류와 클러스더 기반의 라우팅에 대해 설명하고 있고 3장에서는 본 눈문에서 제안하는 알고리즘에 대한 내용이고, 4장은 실험 및 평가, 5장 결론으로 구성되어 있다.</p> <h1>2. 관련연구</h1> <h2>2.1. 센서 네트워크 라우팅 기법</h2> <p>기존에 수행된 센서 네트워크 환경에서의 라우팅 기법은 크게 다음의 세 가지로 나뉜다.</p> <p>첫째로 수평적 라우팅 기법이 있다. 수평적 라우팅은 보통 플러딩 기술에 기반을 둔 라우팅 기법으로 정보 전달 시 모든 노드들이 데이터 병합과정을 수행 하는 방법이다.</p>
센서 네트워크 환경에서 제안된 여러 라우딩 기법 중 LEACH 기법은 클러스터링 기반의 연구방법으로 가장 널리 알려져 있다. 하지만 클러스터 헤더의 에너지 잔류량을 고려하지 못하는 문제로 인해 데이터 전송 도중 클러스터 그룹이 파괴되는 문제가 발생할 수 있다. 이를 해결하기 위해 본 논문에서는 2개의 헤드노드와 한 개의 후보노드를 선출하여 보다 에너지 효율적이고 네트워크의 연결을 유지를 위한 새로운 클러스터링 기법을 제안하고 시뮬레이션을 통해 타당성을 검토할 것이다.
<h1>4. 실험 및 평가</h1> <p>본 논문에서는 시각적 질의응답 RN 모델과 텍스트 기반 RN 모델 두 유형의 모델을 구축하여 다양한 도메인에서 RN 성능을 비교 평가해 본다. 또한 성능개선 핵심 방법을 적용하여 RN 기반 심층 신경망 모델의 성능개선 효과를 검증한다.</p> <p>실험환경으로는 OS 는 Ubuntu 16.04.4 LTS, Graphics processor는 GeForce GTX 1080Ti, 고성능 GPU 가속 응용 프로그램 개발환경을 위한 CUDA Toolkit 그리고 딥러닝 프레임워크로 tensorflow를 사용한다.</p> <h2>4.1 Visual QA Task</h2> <h2>1) Sort-of-CLEVR 생성</h2> <p>Sort-of-CLEVR 데이터 셋은 구글의 딥마인드가 RN 아키텍처가 일반적 신경망 아키텍처보다 관계형 추론에 더 적합하다는 가설을 증명하기 위하여 구축한 데이터 셋이다. 이 데이터 셋은 CLEVR의 간소화 버전으로 기존 시각적 질의응답 데이터 셋의 이미지 처리의 복잡성을 줄이고 언어학적 모호성과 편향성을 보완한 데이터 셋이다. 본 논문의 실험에서는 시각적 질의응답 태스크에 사용할 데이터 셋으로 이미지의 사이즈가 \( 128 \times 128 \times 3 \) 인 10,000 개의 이미지를 포함하고 있는 데이터 셋을 생성하였다. 이중 \( 80 \% \) 는 훈련에 사용하였고, 나머지 \( 20 \% \) 는 모델의 성능평가를 위하여 별도로 분리하였다. 각 이미지의 객체는 사각형 또는 원형의 무작위로 선택된 모양을 하고 있다. 또한 각 객체는 서로를 식별하기 위하여 6 가지의 색상(빨강, 파랑, 초록, 주황, 노랑, 회색) 중 하나의 색상을 지니고 있다. 질문은 각 이미지 당 20 개의 질문 10 개의 관계형 질문(relational question)과 비관계형 질문(non-relational question)이 생성되었고 각각의 질문의 길이는 11 인 이진 문자열(binary string)로 인코딩 되었다. One-hot 벡터로 인코딩 된 질문에는 참조된 객체의 색상(6 bit), 질문의 유형과 하위유형정보(5 bit)를 담고 있다. Fig. 7에서 본 실험에서 구축한 모델이 생성한 이미지 및 질문과 답을 담고 있는 데이터 셋의 정보를 보다 구체적으로 확인할 수 있다. Fig. 7A에 생성된 질문은 “노란색 객체와 가장 가까운 물체는 무엇인가?" 로서, 이는 둘 이상의 객체의 속성에 대한 추론을 요구하고, 객체 사이의 상관관계를 종합하여 답을 낼 수 있는 관계형 질문이다. 반면 Fig. 7B에 생성된 질문은 “녹색의 객체는 원형인가 아니면 사각형인가?"로서, 이는 하나의 객체의 속성에만 국한, 객체 사이의 관계를 고려하지 않고 단일 객체의 속성에 대한 추론을 통해 답을 낼 수 있는 비관계형 질문이다.</p>
본 논문에서는 시각적 질의응답 RN 모델과 텍스트 기반 RN 모델을 구축하여 다양한 도메인에서 RN 성능을 비교 평가하고 성능개선 핵심 방법을 적용하여 RN 기반 심층 신경망 모델의 성능개선 효과를 검증한다. Sort-of-CLEVR 데이터 셋은 구글의 딥마인드가 RN 아키텍처가 관계형 추론에 적합하다는 가설 증명을 위해 구축한 데이터 셋으로 기존 시각적 질의응답 데이터 셋의 이미지 처리의 복잡성을 줄이고 언어학적 모호성과 편향성을 보완한 데이터 셋이다.
<h2>2) Visual QA Architecture</h2> <p>시각적 질의응답 태스크의 RN 모델은 입력으로 들어온 이미지는 CNN 에서, 질문은 LSTM에서 처리를 한다. 관계 추론 을 위해 입력된 이미지는 CNN 으로 처리되어 RN 에 대한 객체집합(a set of objects)을 생성되는데, 객체들은 특징 맵 벡터(feature-map vector) 형태로 구성되며 배경, 형태, 질감, 색상 등의 정보를 담고 있다. 질문은 LSTM으로 처리되어 질문 임베딩(question embedding)을 생성한다. 이렇게 생성된 CNN으로 처리한 이미지의 최종 feature map의 객체 쌍과 LSTM으로 처리한 질문의 결과가 다층 펴셉트론인 \( g_{\theta} \) 의 입력으로 사용되고, \( g_{\theta} \) 는 각 객체간의 관계를 추론한다. \( g_{\theta} \) 가 처리한 모든 조합의 합은 다시 한 번 또 다른 다층 퍼셉트론인 \( f_{\phi} \) 의 입력으로 들어가게 되고, \( f_{\phi} \) 는 질문에 대한 최종 답을 내게 된다. 즉 RN 은 인코딩된 질문에 따라 모든 객체의 쌍 전반에 걸쳐 관계를 고려하고, 이러한 모든 관계를 통합하여 질문에 대한 최종 답을 낸다고 할 수 있다.</p> <p>Fig. 3은 두 객체간의 관계를 학습할 수 있는 CNN, LSTM 그리고 RN 이 결합된 시각적 질의응답 RN 모델의 아키텍처이다.</p> <h2>3) Text-based QA Architecture</h2> <p>시각적 질의응답 태스크의 RN 모델에서 이미지가 CNN 으로 처리되어 객체집합으로 생성된 것과 달리 bAbI 스위트 (suite)와 같은 자연어 기반의 질의응답 태스크의 RN 모델은 LSTM으로 처리한 문장의 최종 상태가 객체집합으로 변환된다. 즉 시각적 질의응답 태스크의 RN 모델에서는 CNN feature map이, 텍스트 기반의 질의응답 태스크의 RN 모델에서는 LSTM feature map이 관계를 알고 식은 객체가 된다. 그러나 질문은 시각적 질의응답 태스크 RN 모델의 질문 인코딩 과정과 마찬가지로 또 다른 LSTM으로 처리되어 질문 임베딩을 생성한다. 텍스트 기반 질의응답 태스크 RN 모델에서는 LSTM으로 처리한 문장의 최종 feature map의 객체 쌍과 또 다른 LSTM으로 처리한 질문의 결과가 다층 펴셉트론인 \( g_{\theta} \) 의 입력으로 사용된다. 마지막으로 \( g_{\theta} \) 가 처리한 모든 조합의 합은 또 다른 다층 펴셉트론인 \( f_{\phi} \) 의 입력으로 들어가게 되고, \( f_{\phi} \) 는 질문에 대한 최종 답을 내게 된다. Fig. 4 는 자연어로 된 문장 처리를 위한 LSTM, 질문에 대한 처리를 하는 LSTM 그리고 관계를 조합한 후 질문에 대한 최종 답을 산출하는 RN 이 결합된 텍스트 기반 질의응답 RN 모델의 아키텍처이다.</p>
시각적 질의응답 태스크의 RN 모델은 이미지를 CNN을 통해 객체집합으로 변환하고, 질문을 LSTM을 통해 질문 임베딩으로 처리한다. 특히 이미지는 객체집합으로 변환될 때 배경, 형태, 질감, 색상 등의 정보를 담은 특징 맵 벡터로 구성된다. 반면, 자연어 기반의 질의응답 태스크에서는 LSTM의 최종 상태가 객체집합으로 변환된다.
<h2>4.3 Text-basel QA Task</h2> <h2>1) bAbI 생성 및 모델 구축</h2> <p>bAbI 는 순수한 텍스트 기반 QA 데이터 셋이다. bAbI 데이터 셋은 연역적 추론, 귀납적 추론, 계산과 같은 특정 유형의 추론에 해당하는 20 여 가지의 태스크로 이루어져 있다. 실험에 사용한 데이터 셋은 bAbI 태스크 중 “Single Supporting Fact"으로써 제공된 924KB의 훈련(training) 데이터와 모델의 성능평가를 위한 \( 96 \mathrm{~KB} \) 의 시험(test) 데이터를 사용하였다.</p> <p>bAbI 데이터 셋을 사용한 텍스트 기반 질의응답 태스크에 대한 RN 모델은 다음과 같이 구축하였다.</p> <p>입력으로 들어온 문장은 32unit의 LSTM으로 처리되어 객체를 생성하도록 하였다. 관계를 도출하는 \( g_{\theta} \) 함수는 64 유닛으로 구성된 4개 층의 MLP로 구성하였고 각 층마다 활성화 함수로 ReLU 를 사용하였다. \( f_{\phi} \) 는 64,128 유닛으로 구성된 2 개의 MLP로 구성하였고 각 층마다 활성화 함수로ReLU를 사용하였다. 마지막 출력 층에서는 softmax를 사용하였고, \( f_{\phi} \) 를 통과한 최종적으로 나온 결과를 softmax에 통과시켜 질문에 대한 답을 예측하였다. 앞에서 언급한 텍스트 기반 질의응답 RN 아키텍처에서 볼 수 있듯이 별도의 32unit의 LSTM을 구성하여 질문을 처리하도록 하였다. 또한 드롭아웃을 \( 50 \% \) 사용하여 오버피팅을 억제할 수 있도록 하였고 최적화방법으로 Adam optimizer를 사용하였다. 학습과정의 배치 사이즈는 64 , 초기 학습률은 \( 1 \mathrm{e}^{-4} \), epoch은 200,000 으로 설정하였다. 학습도중 100 epoch 별로 훈련 데이터와 시험 데이터를 대상으로 정확도를 기록하였다.</p> <p>텍스트 기반 질의응답 태스크에 대한 RN 모델의 성능을 비교하기 위한 baseline으로 End-to-End Memory Networks를 구축하였다. Baseline 모델은 문장처리는 LSTM 으로, 드롭아웃은 \( 30 \% \), 최적화방법으로 RMSProp optimizer를 사용하였다.</p> <p>모델 성능 평가 결과, RN 모델은 정확도가 \( 85.0 \% \), 손실함수는 \( 0.4650 \) 의 결과를 보여주었다. 반면 baseline인 End-to-End Memory Networks 모델은 정확도가 \( 99.4 \% \), 손실함수는 0.0481 의 결과를 보여 주었다.</p> <p>결과적으로 baseline 모델보다 RN 모델의 성능이 현저히 떨어져 성능개선이 요구됨을 알 수 있다.</p> <h2>2) 성능개선 실험 및 평가</h2> <p>앞서 수행했던 시각적 질의응답 태스크의 실험에서 초기 학습률에 의해 RN 모델의 성능이 결정되는 것을 확인하였다. 성능개선 방법으로 제안한 초기 학습률 설정이 텍스트 기반 질의응답 bAbI 태스크 RN 모델의 성능개선에도 영향을 주는지 확인하기 위하여 학습률의 범위를 \( 1 \mathrm{e}^{-6} \sim 1 \mathrm{e}^{-2} \) 로 하여 모델의 성능비교 실험을 수행해 보았다. 최적의 초기 학습률을 찾기 위해 Random search 방법으로 학습이 잘되는 값의 범위를 관찰하고 범위를 좁혀나갔다. 관찰 결과, Table 3 에서 보듯이 학습이 가장 잘 진행될 때의 초기 학습률의 범위는 \( 6 \mathrm{e}^{-4} \) \( \sim 5 \mathrm{e}^{-4} \) 와 \( 2 \mathrm{e}^{-3} \sim 1 \mathrm{e}^{-3} \) 이라는 것을 알 수 있다.</p> <p>20,000 epoch의 훈련과정의 모델 범용 성능 평가 결과, 텍스트 기반 질의응답 RN 모델에서도 초기 학습률이 모델의 성능을 결정하는 중요 요인임을 알 수 있다.</p> <h2>4.4 성능개선 검증 실험</h2> <p>Dialog-based LL 데이터 셋(The Dialog-based Language Learning dataset)을 사용한 모델로 RN 기반 심층 신경망 모델에서 제안한 성능개선 방법을 다시 한 번 검증하는 실험을 해 보았다. 실험에 사용한 데이터 셋은 dialog-based LL 태스크 중 “Imitating an Expert Student"로써 제공된 98KB의 훈련 데이터와 모델의 성능평가를 위한 \( 98 \mathrm{~KB} \) 의 시험 데이터를 사용하였다. 텍스트 기반 질의응답의 Dialog-based LL 태스크에 대한 RN 모델은 bAbI 태스크와 동일한 아키텍처로 구축하였다.</p> <p>앞서 수행했던 시각적 질의응답 태스크의 실험과 bAbI 데이터 셋을 사용한 텍스트 기반 질의응답 태스크에서 초기 학습률에 의해 모델의 성능이 결정되는 것을 확인하였다. 성능개선 방법으로 제안한 초기 학습률 설정이 Dialog-based LL 태스크에서도 적용되는지 확인하기 위하여 모델의 학습률의 범위를 \( 1 \mathrm{e}^{-6} \sim 1 \mathrm{e}^{-2} \) 로 하여 모델의 성능을 비교 분석해 보았다. 20,000 epoch의 훈련과정이 끝난 후 성능비교 결과는 다음과 같다.</p> <p>실험결과 학습이 가장 잘 진행될 때의 초기 학습률은 Table 4 에서 보듯이 \( 9 \mathrm{e}^{-3} \sim 1 \mathrm{e}^{-3} \) 일 때라는 것을 알 수 있었고, 새로운 데이터 셋인 Dialog-based LL 태스크 RN 모델에서도 초기 학습률이 모델의 성능을 결정하는 중요 요인임을 알 수 있다.</p>
bAbl 데이터 셋을 사용하여 텍스트 기반 질의응답 태스크에 대한 RN 모델을 구축하고 이를 이용하여 Random search 방법을 통해 최적의 초기 학습률을 찾기 위한 실험을 하였으며, 모델 성능 평가 결과 텍스트 기반 질의응답 RN 모델에서도 초기 학습률이 모델의 성능에 중요한 영향을 미치는 요인임을 알 수 있었다. Dialog-based LL 데이터 셋에 대해서도 RN 기반 심층 신경망 모델에서 제안한 성능 개선 방법을 다시 검증하는 실험을 수행하였으며, 해당 데이터 셋에서도 초기 학습률이 모델의 성능을 결정하는 중요 요인임을 알 수 있엇다.
<h2>2) RN 모델 생성</h2> <p>시각적 질의응답 태스크에 대한 RN 모델은 Fig. 8과 같이 구축하였다.</p> <p>RN 모델은 각각 24 개의 커널(kernel)을 가지는 4 개의 합성곱 층(convolutional layers)으로 구성, 각 층마다 활성화 함수로 ReLU를 사용하였고, 각 층에서 활성화 값의 적당한 분포를 조정하기 위하여 배치정규화를 적용하였다. 관계를 도출하는 \( g_{\theta} \) 함수는 256 유닛(unit)으로 구성된 4 개 층의 MLP로 구성하였고 각 층마다 활성화 함수로 ReLU 를 사용하였다. 모든 \( g_{\theta} \) 의 합계를 취하여 모델의 최종 출력을 계산하는 \( f_{\phi} \) 는 첫 번째 및 두 번째 층은 256 유닛으로 구성, 세 번째 층은 10 유닛으로 구성된 3개의 MLP로 구성하였다. 또한 각 층마다 활성화 함수로 ReLU를 사용하였고, 특별히 두 번째 층에서는 드롭아웃을 \( 50 \% \) 사용하여 좀 더 의미 있는 특징들을 추출하여 자유도를 높이고 오버피팅을 억제할 수 있도록 하였다. 마지막 출력 층에서는 softmax를 사용하였고, \( f_{\phi} \) 를 통과한 최종적으로 나온 결과를 softmax에 통과시켜 질문에 대한 답을 예측하였다.</p> <h2>3) Baseline 모델 생성</h2> <p>시각적 질의응답 태스크에 대한 RN 모델의 성능비교를 위한 baseline으로 MLP 기반 모델 (CNN + MLP) 을 구축하였다. RN 모델과 동일하게 CNN + MLP 모델 또한 각각 24 개의 커널을 가지는 4 개의 합성곱 층으로 구성, 각 층마다 활성화 함수로는 ReLU를 사용하였고, 각 층에서 활성화 값을 적당히 분포되도록 조정하기 위하여 배치정규화를 적용하였다. 다만, RN 모델에서는 합성곱의 결과를 RN function \( \left(g_{\theta} \rightarrow f_{\phi}\right) \) 에 연결한 것과 달리 CNN + MLP 모델은 합성곱의 결과를 256 유닛으로 구성된 3 개 층의 MLP로 연결시켰다. RN 모델과 동일하게 MLP의 2 번째 층에서 \( 50 \% \) 의 드롭아웃을 사용하고 마지막 출력 층에서는 softmax 를 사용, 최종적으로 나온 결과를 softmax에 통과시켜 질문에 대한 답을 예측하였다.</p> <h2>4) 성능비교 실험 및 평가</h2> <p>RN 모델 및 baseline으로 사용한 CNN + MLP 모델 모두 학습과정의 배치 사이즈는 64 로, epoch은 200,000 으로 설정하였다. 학습도중 10 epoch 별로 훈련 데이터와 시험 데이터를 대상으로 정확도(accuracy)를 기록하였다. 모델의 초기 학습률은 \( 1 \mathrm{e}^{-4} \) 로 설정하였고, 10,000 step 마다 학습률 감소를 \( 0.5 \) 로 설정하여 학습을 진행하면서 학습률을 점차 줄여나갔다. RN 모델 및 baseline으로 사용한 CNN + MLP 모델 모두 성능 비교에 사용한 질문은 관계형 질문과 비관계형 질문 두 가지 유형을 사용하였다.</p> <p>모델의 성능을 극대화하기 위한 방법으로 배치 정규화, 드롭아웃 그리고 Adam optimizer 를 사용하여 구축한 RN 모델은 Table 1에서 볼 수 있듯이 관계형 질문 및 비관계형 질문 모두에 대해서 baseline으로 사용한 CNN + MLP 모델보다 높은 성능을 보였다. 그러나 RN 모델 구축 시 앞에서 나열한 성능개선을 위한 핵심방법을 적용했음에도 RN 모델의 성능이 훈련과정에서의 검증한 수치와 최종 범용 성능 평가에서의 검증한 수치에서 많은 차이를 보였다.</p> <p>앞에서 적용한 성능개선 방법 외에 RN 모델의 성능개선 방법이 요구됨을 알 수 있다.</p>
시각적 질의응답 태스크에 대한 RN 모델은 \(24\)개의 커널을 가지는 합성곱 층 \(4\)개로 구성되었으며, 각 층마다 활성화 함수로 ReLU를 사용하고 활성화 값의 적당한 분포를 위해 배치정규화를 적용하였다. 이 RN 모델의 성능비교를 위한 베이스라인으로 MLP 기반 모델 (MLP + CNN)을 구축하였다. RN 모델과 같이 MLP의 \(2\) 번째 층에서 \( 50 \% \) 의 드롭아웃을 사용하며 마지막 출력 층은 softmax를 사용하여 최종 결과를 softmax에 통과시킴으로써 질문에 대한 답을 예측한다. 그러나 최종 범용 성능 평가에서 RN 모델은 훈련과정에서 검증한 수치와 많은 차이를 보여 성능개선 방법이 요구됨을 알 수 있다.
<h1>2. 관련 연구</h1> <h2>2.1 Relation Networks</h2> <p>기존 시각적 질의응답 문제에 있어 심층 학습의 표준적 접근 방법은 Fig. 1A와 같이 질문(question), 이미지(image) 및 답변(answer)으로 구성된 대규모 데이터 셋(dataset)을 수집하고 질문과 이미지에서 답변으로 직접 매핑하는 단일 신경 네트워크를 교육하는 것이었다. 그러나 질의가 Fig. 1 B 와 같다면 결과는 이와 같은 질문에 대해서는 잘 작동하지 않는다. Fig. 1 B 의 질문은 다양한 소재와 형태간의 상관관계를 종합해서 답을 추적해 가는 과정이 필요하다. 그러면 이러한 질문에 대한 해결책은 무엇인가?</p> <p>해결책으로 제시할 수 있는 것은 관계 추론으로써 서로 다른 객체들 간의 관계를 이해하는 것을 학습하는 것이다. 관계 추론은 지능의 기본적 특성으로 간주된다. 이에 딥마인드 (DeepMind)에서는 이러한 관계 추론을 할 수 있는 RN을 개발하였다. RN을 Convolutional Neural Networks(CNN)과 Long Short-Term Memory(LSTM)과 결합하여 시각적 질의응답 문제에 대해서 실험을 한 결과, 기존 모델은 \( 76.6 \% \) 이하의 성능을, 사람은 \( 92.6 \% \) 를 그리고 RN 을 적용한 모델은 \( 95.5 \% \) 성능이 나왔다. 이렇게 사람을 뛰어넘은(super-human) 높은 성능을 보여주는 RN은 간단하며, 다른 모델에 쉽게 붙일 수 있고, 유연한 관계 추론에만 중점을 둘 수 있는 강력함을 가지고 있다.</p> <h2>2.2 Relation Networks Architecture</h2> <p>RN 의 기본 수식과 시각적 질의응답 및 텍스트 기반 질의 응답 RN 모델의 아키텍처(architecture)는 다음과 같다.</p> <h2>1) RN Function</h2> <p>Equation (1)-(2)는 RN 의 기본 동작원리를 보여주는 수식이다.</p> <p>\( R N(O)=f_{\phi}\left(\sum_{i, j} g_{\theta}\left(o_{i}, o_{j}\right)\right) \)<caption>(1)</caption></p> <p>\( R N(O)=f_{\phi}\left(\sum_{i, j} g_{\theta}\left(o_{i}, o_{j}, q\right)\right) \)<caption>(2)</caption></p> <p>Equation (1)의 \( o \) 는 관계를 알고 싶어 하는 객체(object)를 의미한다. \( g_{\theta} \) 는 한 쌍의 객체를 입력으로 받아서 관계를 도출하는 함수로 한 쌍의 객체 사이의 관계를 계산하는 다층 퍼셉트론(MLP-Multilayer Perceptron)이다. \( f_{\phi} \) 는 모든 \( g_{\theta} \) 의 합 계를 취하여 모델의 최종 출력을 계산하는 다층 퍼셉트론 (MLP)이다.</p> <p>Fig. 2 와 같은 시각적 질의응답 질문의 경우 RN 의 수식은 Equation (2)와 같다. 수식에서 볼 수 있듯이 RN은 하나의 모듈로서 CNN과 LSTM에 플러그인 될 수 있다. CNN로부터 나온 관계를 알고 싶은 각 객체 쌍(objects pair)은 LSTM로부터 나온 질문 벡터(question vector)와 함께 신경망인 \( g_{\theta} \) 의 입력으로 사용되어 관계형 네트워크를 학습한다. 이렇게 학습된 \( g_{\theta} \) 의 출력이 합쳐져 다른 신경망인 \( f_{\phi} \) 의 입력으로 사용되고, \( f_{0} \) 는 질문에 대한 답에 대해 최적화된다.</p>
시각적 질의응답 문제에서 RN을 CNN과 LSTM과 결합하여 사용하였을 때, 사람의 성능인 92.6%를 능가하는 95.5%의 뛰어난 성능이 나왔다. 이러한 결과는 RN의 간단함과 다른 모델에 쉽게 적용 가능한 특성, 그리고 유연한 관계 추론에 대한 강점 때문이라고 볼 수 있다. RN의 기본 동작 원리는 주어진 수식(1)-(2)에 의해 설명될 수 있다.
<h2>4.2 하이퍼 파라미터 튜닝을 통한 성능개선 실험</h2> <h2>1) 하이퍼 파라미터 튜닝</h2> <p>RN 기반 심층 신경망 모델의 성능개선 방법으로 제안한 하이퍼 파라미터 튜닝을 통해 시각기반 질의응답 RN 모델의 성능개선을 시도해 보았다. 튜닝에 사용한 하이펴 파라미터로는 배치 사이즈와 초기 학습률을 정하였다.</p> <p>적절한 배치 사이즈를 찾기 위해 본 논문의 앞서 수행한 시각 기반 질의응답 태스크 성능비교 실험에서 구축한 RN 모델을 baseline으로 정하였다. Baseline 모델은 초기 학습률이 \( 1 \mathrm{e}^{-4} \) 이고 배치 사이즈가 64 이다. baseline 모델 대비 배치 사이즈를 배수로 늘려 배치 사이즈 변경에 따른 성능을 비교 분석해 보았다. 시각기반 질의응답 RN 모델은 성능의 극대화를 위하여 최적화방법 중에서 Adam 기법을 사용, 하이펴 파라미터의 편향을 보정, 학습의 갱신강도를 적응적으로 조정하였다. 학습이 진행되는 동안 10,000 번째 epoch 마다 학습률 감소를 수행하여 학습을 진행하면서 학습률을 점차 줄여가는 방법을 사용하였다. 그럼에도 모델의 성능이 훈련과정에서의 검증한 수치와 최종 범용 성능 평가에서의 검증한 수치에서 많은 차이를 보였고, RN 모델의 성능이 높지 않게 나왔다. 이에 본 논문에서는 학습률의 초기값 선정이 중요하다는 것에 중점을 두고 초기 학습률 선정이 모델성능에 미치는 영향을 살펴보았다.</p> <p>본 논문에서는 Heuristic search, Random search 방법에 의거, 경험 및 직관 그리고 선험적 지식을 활용하여 초기 학습률 선정을 위한 실험 및 모델의 성능 검증을 하여 보았다. 적절한 초기 학습률을 찾기 위해 본 논문의 앞서 시각기반 질의 응답 태스크 성능비교 실험에서 구현한 RN 모델을 baseline으로 정하였다. Baseline 모델 대비 학습률의 범위를 \( 1 \mathrm{e}^{-4} \sim 1 \mathrm{e}^{-2} \) 로 하여 모델의 성능을 비교 분석해 보았다. 200,000 epoch의 훈련과정이 끝난 후 성능비교 결과는 다음과 같다.</p> <p>최적화된 모델을 찾기 위한 하이퍼 파라미터 조정에 따른 모델의 성능개선 연구 결과 Fig. 9와 Fig. 10에서 볼 수 있듯이 Heuristic search, Random search 방법에 의해 찾은 초기 학습률이 \( 1 \mathrm{e}^{-3} \) 인 모델이 훈련과정에서 성능이 가장 높게 나왔다. 또한 Table 2에서 볼 수 있듯이 초기 학습률이 \( 1 \mathrm{e}^{-3} \) 인 모델이 범용실험 성능평가에서도 다른 모델보다 두 배 이상의 성능이 나오는 결과를 보여 주었다.</p> <p>결론적으로 아무리 훌륭히 설계된 모델이라도 초기 학습률에 의해 모델의 성능이 달라진다는 것과 초기 학습률의 선정이 모델의 성능을 결정하는 중요한 요인임을 알 수 있다.</p> <h2>2) Random Search 방법에 의한 초기 학습률 튜닝</h2> <p>하이펴 파라미터 튜닝을 통한 성능개선 실험 결과, 다양한 하이펴 파라미터 중 초기 학습률의 선정이 모델의 성능을 결정하는 중요한 요인임을 알 수 있었다.</p> <p>학습률의 범위를 \( 1 \mathrm{e}^{-6} \sim 1 \mathrm{e}^{-2} \) 로 정하고 Random search 방법을 사용하여 20,000 epoch의 훈련과정 동안 학습이 잘되는 값의 범위를 관찰해 보았다. 관찰 결과, Fig. 11 과 Fig. 12 에 서 보듯이 학습이 가장 잘 진행될 때의 초기 학습률의 범위는 \( 3 \mathrm{e}^{-4} \sim 1 \mathrm{e}^{-3} \) 이라는 것을 알 수 있다. 최적의 초기 학습률 범위를 이 범위로 축소하고 학습과정을 관찰한다면 최적의 최종 초기 학습률을 찾을 수 있다.</p>
RN 기반 심층 신경망 모델의 성능개선 방법으로 제안한 하이퍼 파라미터 튜닝을 통해 시각기반 질의응답 RN 모델의 성능개선을 시도해 보았다. 시각기반 질의응답 RN 모델은 성능의 극대화를 위하여 최적화방법 중에서 Adam 기법을 사용, 하이펴 파라미터의 편향을 보정, 학습의 갱신강도를 적응적으로 조정하였다. 결론적으로 아무리 훌륭히 설계된 모델이라도 초기 학습률에 의해 모델의 성능이 달라진다는 것과 초기 학습률의 선정이 모델의 성능을 결정하는 중요한 요인임을 알 수 있다. 하이퍼 파라미터 튜닝을 통한 성능개선 실험 결과, 다양한 하이펴 파라미터 중 초기 학습률의 선정이 모델의 성능을 결정하는 중요한 요인임을 알 수 있었다. 최적의 초기학습률 범위를 이 범위로 축소하고 학습 과정을 관찰을 하게 된다면 최적의 최종 초기학습률을 찾을 수 있다.
<h1>요 약</h1> <p>지금까지 인공지능의 한 분야인 딥러닝 방법은 구조화되지 않은 데이터로부터 문제를 해결하는 놀라울만한 성과를 이루어왔지만, 인간처럼 여러 상황들을 종합적으로 판단, 그것들의 연관성을 추론하고, 그 다음 상황을 예측하는 수준의 지능을 갖는데 도달하지 못하였다. 최근 발표된 복잡한 관계 추론을 수행하는 심층 신경망은 인공지능이 인간의 핵심 지적 능력인 관계 추론을 보유할 수 있다는 것을 증명하였다. 본 논문에서는 관계 추론 심층 신경망 중에서 Relation Networks (RN)의 성능을 분석 및 관찰해 보고자 Sort-of-CLEVR 데이터 셋을 사용한 시각적 질의응답과 bAbI task를 사용한 텍스트 기반 질의응답 두 유형의 RN 기반 심층 신경망 모델을 구축하여 baseline 모델과의 비교를 통한 성능검증을 하였다. 또한 모델의 성능을 극대화하기 위하여 하이퍼 파라미터 튜닝 등 다양각도의 성능개선 실험으로 관계 추론을 위한 RN 기반 심층 신경망 모델의 성능개선 방법을 제안하였다. 제안한 성능개선 방법은 시각적 질의응답 모델과 텍스트 기반 질의응답 모델에 적용하여 그 효과를 검증하였고, 기존의 RN 모델에서 사용해보지 않았던 Dialog-based LL 데이터 셋을 사용하여 새로운 도메인에서의 제안한 성능개선 방법의 효과를 다시 한 번 검증하였다. 실험 결과 두 유형의 RN 모델 모두에서 초기 학습률이 모델의 성능을 결정하는 핵심 요인임을 알 수 있었고, 제안한 random search 방법에 의해 찾은 최적의 초기 학습률 설정이 모델의 성능을 최고 99.8%까지 향상 시킬 수 있다는 것을 확인하였다.</p> <h1>1. 서 론</h1> <p>추리소설이나 범죄 드라마에서 주인공들은 모든 단서의 조각조각의 퍼즐을 맞추어 범인을 찾아내는데, 그들의 범인을 찾아내는 과정을 보면 그 능력에 감탄을 감추지 못할 때가 많다. 범인을 찾아내는 과정에서 모든 단서들 간의 연관성(relations) 을 추론하고, 이들 간 하나의 연결고리를 만들어 범인을 유추해 간다. 이러한 어떤 규칙에 따라 생각하는 사고능력을 우리는 추론이라 일컨는다. 추론은 사고의 관계를 하나의 명제와 다른 하나의 명제의 논리적인 관계로 파악해서 생각하는 것을 의미한다. 이러한 관계 추론(relational reasoning) 능력 은 인간이 다른 종과 구별되는 가장 강력하고 유연한 지능 (intelligence)의 핵심적인 요소로 간주된다. 지금까지 인공지능의 한 분야인 딥러닝(deep learning) 방법은 영상, 음성 인식 뿐만 아니라 자연어처리(natural language processing) 등 구조화 되지 않은 데이터(unstructured data)로부터 문제를 해결하는 놀라울 만한 성과를 이루어 왔지만, 명시적으로 객체간의 관계를 고려하지 않고 이를 수행해 왔다. 그러나 날로 발전해가고 있는 인공지능 기술은 최근 이러한 인간의 핵심 지적 능력에 도전장을 내밀고 있다.</p> <p>관계 추론을 수행하는 Relation Networks와 Visual Inter-action Network 이 두 심층 신경망(deep neural networks)은 세상을 객체(objects)와 그들의 관계(relations)라는 체계로 분해하고, 신경망이 피상적으로는 매우 달라 보이지만 근본적으로는 공통관계를 갖는 장면들에 대하여 객체와 관계라는 새로운 결합을 일반화할 수 있는 강력한 추론 능력을 보유할 수 있다는 것을 보여주었다. 이는 심층 신경망이 사람처럼 유연한 사고를 할 수 있게 되었다는 것을 시사해준다.</p> <p>본 논문에서는 사람처럼 관계 추론을 수행하는 심층 신경망 중에서 Relation Networks(RN)의 성능을 분석 및 관찰해보고자 시각적 질의응답(Visual Question Answering)과 텍스트 기반 질의응답(Text-based Question Answering) 두 유형의 RN 기반 심층 신경망 모델을 구축하여 baseline 모델과의 비교를 통한 성능검증을 하여 보았다. 또한 모델의 성능을 극대화하기 위하여 하이펴 파라미터(hyper parameters) 튜닝 등 다양각도의 성능개선 실험으로 관계 추론을 위한 RN 기반 심층 신경망 모델의 성능개선 방법을 제안하였다.</p>
딥러닝 방법론은 뛰어난 성과를 보였지만, 여전히 인간처럼 종합적인 판단과 추론 능력을 갖추지 못하였다. 본 논문에서는 관계 추론 심층 신경망 중 하나인 RN의 성능을 분석하고, 이를 위해 두 유형의 RN 기반 심층 신경망 모델을 구축하였다. 모델의 성능을 향상시키기 위한 다양한 방법, 특히 하이퍼 파라미터 튜닝을 통해 RN 기반 심층 신경망 모델의 성능을 개선하는 방법을 제안하였으며, 이를 다른 데이터 셋에서도 검증하였다.
<h1>3. RN 기반 심층 신경망 모델</h1> <p>본 논문에서는 Fig. 5와 같이 RN 기반 심층 신경망 모델을 구축하여 다양한 도메인에서 RN 의 성능을 검증하고, 더 나아가 RN 모델의 성능개선 방법을 제안한다.</p> <p>다양한 도메인에서의 RN 의 성능을 검증하고자, 시각적 질의응답 RN 모델과 텍스트 기반 질의응답 RN 모델 두 유형의 모델을 구축한다. 시각적 질의응답의 RN 모델에서는 데이터 셋은 Sort-of-CLEVR을, 성능비교를 위한 baseline은 CNN + MLP 모델을 사용한다. 텍스트 기반 질의응답의 RN 모델에서는 데이터 셋은 bAbI 태스크(bAbI task)을, 성능 비교를 위한 baseline은 End-To-End Memory Networks 모델을 사용한다.</p> <p>두 유형의 RN 모델은 모델의 성능을 극대화하기 위하여 성능개선 핵심 방법 중에서 오버피팅(overfitting)의 대응책인 배치 정규화(batch normalization), 드롭아웃(dropout) 그리고 최적의 매개변수 값을 찾는 매개변수 갱신법(optimization) 중 하나인 Adaptive Moment Estimation(Adam) 기법을 적용하도록 한다.</p> <p>또한 본 논문에서는 RN 기반 심층 신경망 모델의 성능개선 방법으로 모델 구축 시 사용한 성능개선 핵심 방법 외의 배치 사이즈(batch size), 초기 학습률(learning rate) 등의 하이펴 퐈라미터(hypter parmeters) 튜닝방법을 제안한다.</p> <p>제안한 성능개선 방법은 성능검증을 위해 구축한 시각적 질의응답 RN 모델과 텍스트 기반 질의응답 RN 모델에 적용하여 그 효과를 검증한다. 또한 기존의 RN 모델에서 사용해보지 않았던 Dialog-based LL 데이터 셋(The Dialog-based Language Learning dataset)을 추가 사용하여 새로운 도메인에서의 제안한 성능개선 방법의 효과를 다시 한 번 검증한다.</p> <h2>3.1 성능 개선 방안 ।</h2> <p>RN 기반 심층 신경망 모델은 신경망의 성능개선 핵심 방법 중에서 배치 정규화, 드롭아웃 그리고 매개변수 갱신법 중 하나인 Adam 기법을 적용한다.</p> <p>배치 정규화는 2015년 제안된 방법으로 학습속도를 개선하고, 초기값에 크게 의존하지 않으며, 오버피팅 억제 효과의 장점을 가지고 있다. 배치 정규화의 기본 아이디어는 각 층에서 활성화 값이 적당히 분포되도록 조정하기 때문에 배치 정규화 계층을 각 신경망에 삽입한다. 즉 배치 정규화를 신경망에 적용 시, hidden layer에 들어가기 전에 배치 정규화 계층(batch normalization layer)을 더해주어 입력 값을 수정해 준 뒤 이렇게 수정된 값을 활성함수(activation function) 앞 또는 뒤에 넣어주는 방식을 사용한다. Equation (3)-(5)의 정규화 작업이 끝나면 배치 정규화 계층마다 이 정규화 된 데이터에 Equation (6)의 확대 \( (\gamma) \) 와 이동( \( \beta) \) 변환을 수행한다.</p> <p>\( \mu_{B} \longleftarrow \frac{1}{m} \sum_{i=1}^{m} x_{i} \)<caption>(3)</caption></p> <p>\( \sigma_{B}^{2} \leftarrow \frac{1}{m} \sum_{i=1}^{m}\left(x_{i}-\mu_{B}\right)^{2} \)<caption>(4)</caption></p> <p>\( \hat{x}_{i} \leftarrow \frac{x_{i}-\mu_{B}}{\sqrt{\sigma_{B}^{2}+\epsilon}} \)<caption>(5)</caption></p> <p>\( y_{i} \leftarrow \gamma \widehat{x_{i}}+\beta \equiv B N_{\gamma, \beta}\left(x_{i}\right) \)<caption>(6)</caption></p> <p>RN 기반 심층 신경망 모델에서는 Fig. 6 에서 볼 수 있듯이 각 층의 활성함수 ReLU의 활성화 값 분포가 적당히 펴지면서 학습이 원활하게 이루어지도록 배치 정규화를 사용한다.</p> <p>오버피팅을 억제하는 방법으로 신경망 모델이 복잡해지면 가중치 감소만으로 대응하기 어려운 경우 드롭아웃이라는 기법을 사용한다. 드롭아웃이란 신경망 일부를 생략하는 것으로 생략한 신경망은 학습에 영향을 끼치지 않는다. 물론 배치 정규화방법으로 드롭아웃의 효과를 가져 올 수 있지만, 본 논문의 RN 기반 심층 신경망 모델에서는 매개변수 갱신 전에 드롭아웃을 \( 50 \% \) 사용하여 좀 더 의미 있는 특징(salient feature)들을 추출하여 자유도(표현력)를 높이고 오버피팅을 억제하도록 한다.</p> <p>신경망 학습의 목적은 손실 함수의 값을 가능한 한 낮추는 매개변수의 최적값을 찾는 것이고 이러한 문제를 푸는 것을 최적화(optimization)라고 한다. 이러한 최적화에는 여러 가지 방법이 있다. 가장 간단한 방법으로는 손실함수의 그래프에서 가장 낮은 지점을 찾아가도록 손실함수의 기울기를 구해 기울어진 방향으로 매개변수의 값을 갱신해나가는 확률적 경사 하강법(SGD)과 이 방법의 단점을 개선한 Momentum, AdaGrad, Adam 방법이 있다. 본 논문에서의 RN 기반 심층 신경망 모델은 최적화 방법 중에서 가장 큰 장점을 가지고 있는 Adam 기법을 사용하였다.</p> <p>2015년에 제안된 Adam 기법은 Eqation (7)-(8)과 같이 Momentum과 RMSProp를 융합한 듯한 방법이다. Eqation (9)-(10)에서 보듯이 파라미터의 편향보정이 진행되는 특징이 있다. 특히 RMSProp과 마찬가지로 Equation (11)에서 보면 매개변수 갱신 시 \( \frac{1}{\sqrt{v_{t}}} \) 을 곱해 학습률을 조정하는데, 이렇게 하면 가장 많이 움직여서 가장 크게 갱신된 매개변수 원소의 학습률은 낮아지게 하고 가장 적게 갱신된 매개변수 원소의 학습률은 높아지게 하는 효과를 낼 수 있다.</p> <p>\( m_{t}=\beta_{1} m_{t-1}+\left(1-\beta_{1}\right) g_{t} \)<caption>(7)</caption></p> <p>\( v_{t}=\beta_{2} v_{t-1}+\left(1-\beta_{2}\right) g_{t}^{2} \)<caption>(8)</caption></p> <p>\( \widehat{m}_{t}=\frac{m_{t}}{1-\beta_{1}^{t}} \)<caption>(9)</caption></p> <p>\( \widehat{v_{t}}=\frac{v_{t}}{1-\beta_{2}^{t}} \)<caption>(10)</caption></p> <p>\( \theta_{t+1}=\theta_{t}-\frac{\eta}{\sqrt{v_{t}}+\epsilon} \widehat{m}_{t} \)<caption>(11)</caption></p> <p>본 논문에서의 \( \mathrm{RN} \) 기반 심층 신경망 모델은 Adam 기법을 사용하여 하이펴 파라미터의 편향을 보정, 학습의 갱신강도를 적응적으로 조정한다. 학습이 진행되는 동안 10,000 번째 epoch 마다 학습률 감소(learning rate decay)를 수행하여 학습을 진행하면서 학습률을 점차 줄여가는 방법을 사용한다. 즉 처음에는 크게 학습을 하다가 조금씩 작게 학습하고, 개별 매개변수에 적응적으로 학습을 조정하면서 학습을 진행한다.</p> <h2>3.2 성능 개선 방안 II</h2> <p>본 논문에서는 RN 기반 심층 신경망 모델의 성능개선 방법으로 모델 구축 시 사용한 성능개선 핵심 방법 외의 배치 사이즈, 초기 학습률 등의 하이펴 파라미터 튜닝방법을 제안한다.</p> <p>신경망은 입력을 한 번에 하나씩 처리하지 않는다. 처리랑을 높이려면 데이터를 일괄 처리하는데, 이를 배치 사이즈라고 한다. 배치 사이즈의 크기가 너무 작으면 일괄 처리 내에 많은 변화가 발생하고 training loss 곡선이 많이 바뀐다. 배치 사이즈의 크기가 너무 크면 메모리가 부족 해 지거나 학습과정이 너무 느리게 진행된다. 따라서 적절한 배치 사이즈가 중요하다고 할 수 있다. 본 논문의 RN 기반 심층 신경망 모델은 성능을 극대화 할 수 있는 모델의 적절한 배치 사이즈를 찾기 위해 baseline 기준 배치 사이즈를 단계적으로 변경하여 적용한다.</p> <p>학습률과 같은 매개변수를 하이펴 파라미터라고 한다. 이는 가중치(weight)와 편향(bias)과 같은 신경망의 매개변수와는 성질이 다른 매개변수이다. 신경망의 가중치와 같은 매개변수는 훈련 데이터와 학습 알고리즘에 의해 자동으로 획득되는 반면, 학습률과 같은 하이펴 퐈라미터는 여러 시험을 통해 가장 잘 학습을 하는 값을 찾는 과정이 필요하다. 학습률이 너무 작으면 학습시간이 길어져서 손실함수가 거의 갱신되지 않고 학습이 끝나고, 반대로 너무 크면 발산하여 학습이 제대로 이뤄지지 않는다. 따라서 적절한 학습률 조정이 중요하다. 본 논문에서는 학습률의 초기 값 선정이 중요하다는 것에 중점을 두고 초기 학습률 선정이 RN 기반 심층 신경망 모델의 성능에 미치는 영향을 살펴본다. 학습률과 같은 하이펴 퐈라미터의 최적화 방법은 과학적 방법보다 다소 수행자의 지혜와 직관에 의존하기 때문에 많은 시행착오를 겪는다. 하이펴 파라미터의 최적화 방법으로는 Heuristic search, Grid search, Random search, Bayesian optimization 방법이 있다. 본 논문에서는 Heuristic search, Random search 방법에 의거, 경험 및 직관 그리고 선험적 지식을 활용하여 초기 학습률 선정을 제안한다.</p>
본 논문에서는 Fig. 본 논문에서는 Fig. 5와 같이 RN 기반 심층 신경망 모델을 구축하여 다양한 도메인에서 RN 의 성능을 검증하고, 더 나아가 RN 모델의 성능개선 방법을 제안한다. 다양한 도메인에서의 RN의 성능을 검증하고자, 시각적 질의응답 RN 모델과 텍스트 기반 질의응답 RN 모델 두 유형의 모델을 구축한다. 또한 기존의 RN 모델에서 사용해보지 않았던 Dialog-based LL 데이터 셋(The Dialog-based Language Learning dataset)을 추가 사용하여 새로운 도메인에서의 제안한 성능개선 방법의 효과를 다시 한 번 검증한다. RN 기반 심층 신경망 모델은 신경망의 성능개선 핵심 방법 중에서 배치 정규화, 드롭아웃 그리고 매개변수 갱신법 중 하나인 Adam 기법을 적용하였고, 본 논문은 RN 기반 심층 신경망 모델의 성능개선 방법으로 모델 구축 시 사용한 성능개선 핵심 방법 외의 배치 사이즈, 초기 학습률 등의 하이퍼 파라미터 튜닝방법을 제안한다.
<h1>5. 결 론</h1> <p>본 논문에서는 RN 기반 심층 신경망 모델을 구축하여 다양한 도메인에서 RN 의 성능을 검증해 보았고, 더 나아가 RN 모델의 성능개선 방법을 시도하여 보있다.</p> <p>시각적 질의응답의 RN 모델은 Sort-of-CLEVR 데이터 셋을 사용, baseline으로 설정한 CNN + MLP 모델과의 성능 비교를 해 보았다. 텍스트 기반 질의응답의 RN 모델은 데이터 셋으로 bAbI 태스크를 사용, 성능비교를 위한 baseline으로 End-To-End Memory Networks 모델을 사용하였다.</p> <p>RN 기반 심층 신경망 모델은 성능을 극대화하기 위하여 배치 정규화를 사용하여 각 층의 활성함수 ReLU의 활성화 값 분포가 적당히 퍼지면서 학습이 원활하게 이루어지도록 하였고, 매개변수 갱신 전에 드롭아웃을 \( 50 \% \) 를 사용하여 좀 더 의미 있는 특징들을 추출하여 자유도를 높이고 오버피팅을 억제할 수 있도록 하였다. 또한 최적화 방법으로 Adam 기법을 사용하여 하이퍼 파라미터의 편향을 보정, 학습의 갱신강도를 적응적으로 조정하였다. 학습이 진행되는 동안 10,000 번째 epoch 마다 학습률 감소를 수행하여 학습을 진행하면서 학습률을 점차 줄여가는 방법을 사용하였다.</p> <p>이렇게 구축한 RN 모델은 시각적 질의응답 태스크에서 관계형 질문 및 비관계형 질문 모두에 대해서 baseline으로 사용한 CNN + MLP 모델보다 약간 높은 성능을 보여주었다. 반면 텍스트 질의응답 태스크에서는 RN 모델이 baseline으로 사용한 End-to-End Memory Networks 모델보다 현저히 떨어지는 성능을 보여주었다. 또한 RN 모델은 성능개선 핵심방법을 적용했음에도 성능이 훈련과정에서의 검증한 수치와 최종 범용 성능 평가에서의 검증한 수치에서 많은 차이를 보여 적용한 성능개선 핵심 방법 외의 RN 모델의 성능개선 방법이 요구되었다.</p> <p>RN 기반 심층 신경망 모델의 성능개선 방법으로 모델 구축 시 사용한 성능개선 핵심 방법 외의 배치 사이즈, 초기 학습률 등의 하이퍼 파라미터 튜닝방법을 제안하였다.</p> <p>제안한 성능개선 방법은 성능검증을 위해 구축한 시각적 질의응답 RN 모델과 bAbI 데이터 셋을 사용한 텍스트 기반 질의응답 RN 모델에 적용하여 그 효과를 검증하였다. 또한 기존의 RN 모델에서 사용해 보지 않았던 Dialog-based LL 데이터 셋을 추가 사용하여 새로운 도메인에서의 제안한 성능개선 방법의 효과를 다시 한 번 검증하였다.</p> <p>실험 결과 두 유형의 RN 모델 모두에서 초기 학습률이 모델의 성능을 결정하는 핵심 요인임을 알 수 있었고, RN 처럼 아무리 훌륭히 설계된 모델도 초기 학습률에 따라 모델의 성능이 결정된다는 것을 확인하였다.</p> <p>제안한 Random search 방법에 의해 찾은 최적의 초기 학습률 설정 결과 시각적 질의응답 모델은 최고 \( 99.7 \% \) 를, 텍스트 기반 질의응답 모델에서는 \( 99.8 \% \) 까지의 성능 향상을 보여주었다.</p> <p>본 논문에서는 Heuristic search, Random search 방법에 의거, 경험 및 직관 그리고 선험적 지식을 활용하여 초기 학습률 선정을 위한 실험 및 그에 따른 모델의 성능을 검증하였다. 추후 연구에서는 학습률의 초기값 선정이 중요하다는 것에 중점을 두고 좀 더 수학적 방법으로 수행하는 Bayesian optimization으로 RN 모델의 초기 학습률의 섬세한 조정을 해 볼 것이다.</p> <p>RN 은 기존 신경망에 쉽게 추가할 수 있는 사용이 간단한 play and plug 모듈이다. RN은 이미지나 문장열(series of sentence)과 같은, 구조화 되지 않은 입력을 받아들여 그 안에 포함된 객체간의 관계에 대해 암묵적으로 추론할 수 있다. 객체간의 암묵적 추론을 하는 신경망으로는 RN 외에 물리적인 장면에서의 미래를 예측하는 Visual Interaction Network (VIN)이 있다. RN 과 VIN은 관계 추론 접근(relational reasoning approach)에 있어 밝은 전망을 보여주고 있다. 이에 추후 연구에서는 이러한 접근법을 확장, 응용하여 수준 높은 추론모델을 구축하고자 한다. 궁극적으로 이와 같은 연구가 인간의 강력하고 유연한 지능에 대한 핵심적 요소를 이해하는데 많은 도움을 줄 수 있을 것이라고 생각한다.</p>
구축한 관계 네트워크(RN) 모델은 시각적 질의응답 태스크에서 관계형 질문과 비관계형 질문에 대해 CNN + MLP 모델보다 약간 더 높은 성능을 보여줬다. 이는 RN 모델의 초기 학습률이 성능을 결정하는 핵심 요소임을 확인했다. 초기 학습률이 모델의 성능에 영향을 주는 것을 알 수 있었다. 추후에는 이 접근법을 확장하고 응용하여 고급 추론 모델을 구축하고, 인간의 강력하고 유연한 지능에 대한 핵심적인 요소를 이해하고자 노력할 것이다. 이는 우리에게 많은 도움을 줄 수 있다고 생각한다.
<h1>III. 심전도 인식 시스템 설계</h1><p>심전도 인식 시스템은 심전도 측정 하드웨어를 이용해 얻은 데이터를 분석해 개인을 식별하는 시스템이며 PC상의 소프트웨어로 구현된다. 시스템은 그림 2와 같이 심전도 측정 하드웨어를 이용해 얻은 신호를 데이터 파일의 형태로 입력받아 이를 분석해 각각의 단일심전도 파형을 추출하는 '파형 추출' 부분과 추출된 심전도 파형이 누구의 것인지 판별하는 'SVM 분류기' 부분으로 나뉜다.</p><h2>1. 심전도 파형 추출 알고리즘</h2><p>바이오 인식을 위한 개개인의 심전도 특징을 얻기 위해 먼저 심장박동에 따라 반복적으로 나타나는 단일 심전도 파형을 추출하는 과정이 필요하다. 이러한 심전도 파형 추출 알고리즘은 총 세단계로 구성되는데, 먼저 R파의 정점위치를 찾기 위해 \( 8 \sim 25 \mathrm{Hz} \) 대역통과필터를 적용한다. 필터를 통해 P파 정점이나 T파 정점과 같이 R파 정점을 제외한 대부분의 신호는 제거되며, 저주파 성분 또한 제거되기 때문에 신호는 '0' 을 기준으로 정럴된다. 그림 3.(a) 는 심전도 원신호를 나타내고, 그림 3.(b) 는 대역통과필터를 적용한 신호이다.</p><p>다음 단계에서는 신호에 따라 변화하는 적응형 문턱값을 적용해 이 문턱값보다 큰 신호를 R파 정점으로 검출한다. 이때 대역통과필터를 거쳐 강조된 R파 정점을 더욱 강조시키기 위해 세제곱 처리를 하는데 필터 처리된 신호는 0을 기준으로 정렬되어 있고, R파 정점을 제외한 신호는 감쇄되어 비교적 그 크기가 작기 때문에 세제곱 처리를 하게 되면 잡음 성분들에 비해 R파 정점의 크기가 급격히 커지게 되므로 신호 대 잡음비 높일 수 있다. 문턱값 \( T H \)는 세제곱 처리된 신호를 입력신호를 \(x(t)\) 라 하고 \( k \)는 상수, \( w \)는 윈도우의 크기라 할 때, 다음과 같은 수식 (1)에 따라 산출된다.</p><p>\( T H=k\left(\sum_{t}^{w} x(t)^{2}\right) / w \)<caption>(1)</caption></p><p>식 (1)은 입력신호의 파워를 구하고 상수배 한다는 의미를 갖기 때문에 입력신호에 적응하며 변화하게 된다. 그림 3.(c)는 세제곱 처리된 신호를 나타내며 수식에 따라 산출된 문턱값의 크기를 점선으로 나타낸다.</p><p>문턱값과의 비교를 통해 검출된 정점들은 두 가지 종류의 보정을 거치게 된다. 그 첫 번째로 \( 200 \mathrm{ms} \) 내에서 2번 이상의 정점이 검출될 경우, 잡음으로 인한 오류로 간주하고 더 크기가 큰 정점 1개만 보존하도록 한다. 사람의 심근은 불응기(refractory period)가 존재해서 심근이 한 번 반응한 후 \( 200 \mathrm{ms} \) 안에는 다음 자극에 반응 할 수 없기 때문이다. 두 번째로 검출된 위치의 원신호와 비교해서 정확한 정점을 찾아 보정하는 과정을 거치도록 한다. 검출알고리즘은 필터 처리된 신호를 기반으로 진행되었으므로 원신호와 비교시 수개의 표본화점 수준의 오차가 생길 수 있기 때문이다.</p><h2>2. SVM 분류기 적용</h2><p>수집된 데이터를 SVM 분류기의 입력으로 적용하기 위해 각 단일 심전도 파형에서 R파 정점을 기준으로 앞으로 79개, 뒤로 140 개, 총 220개의 표본화점을 추출해 약 \( 600 \mathrm{ms} \)에 해당하는 구간의 심전도 파형 진폭값을 데이터베이스화 했다. 분류기는 대만국립대학의 CSIE(computer science & information engineering)에서 개발된 'LIBSVM'을 '이용해 구성했고, '10-fold cross validation' 기법을 적용해 그 성능을 분석했다. 즉, 데이터를 10개의 부분집합으로 나눈 뒤 9개의 부분집합을 이용해 분류기를 학습을 시키고, 학습시키지 않은 부분집합을 분류기에 적용해 학습패턴 선정에 따른 성능변동을 최소화하여 신뢰성 있는 평가지표를 얻었다.</p>
단일 심전도 파형을 추출하는 과정이 필요하기 때문에 해당 논문에서는 심전도 파형 진폭값을 데이터베이스화하며 획득한 데이터를 분류기에 적용해 학습패턴 선정에 따른 성능변동을 최소화하여 신뢰성 있는 평가지표를 획득한다.
<h1>IV. 실험 및 결과</h1><p>설계된 시스템의 성능을 확인하기 위해 실험대상자 총 17명의 심전도 신호를 측정 및 기록하고 바이오 인식 실험을 진행했다. 실험대상자는 20대에서 50대의 남녀로 구성되었으며, 추정은 낮 시간대에 평상시와 같이 활동을 하던 중 의자에 착석한 상태로 수행됐다. 실생활에 적용하는 것을 목적으로 하는 시스템이기 때문에 평상시와 같이 활동을 하는 환경에서 임의의 시간에 실험을 진행했다. 그림 4.는 제작된 심전도 측정 하드웨어의 전면부 모습이며, 그림 5.는 심전도 추정하드웨어에서 필터를 거치기 전, 후의 신호를 나타낸 것으로 필터를 거치기 전에 포함되어있던 잡음들이 현격히 감소하는 것에 반해 심전도 파형의 왜곡은 경미한 것을 볼 수 있다. 특히 근전도(electromyogram, EMG) 잡음으로 인해 심전도 파형을 알아볼 수 없었던 우측 상단의 신호와 같은 경우 필터를 거친 후 심전도 파형이 드러나는 보이는 수준으로 호전되는 것을 볼 수 있다.</p><p>표 2. 는 개발한 심전도 측정 하드웨어를 이용해 수집한 17명의 측정자를 대상으로 파형추출 알고리즘을 수행시킨 결과이다. 본 논문에서는 파형추출 알고리즘의 성능을 평가하기 위해 성능 지표로서 널리 사용되는 민감도(sensitivity, SN)와 정확도(accuracy, ACC)의 두 가지 지표를 수정하여 사용했으며, 이들은 각각 식(2)와 식(3)을 통해 계산된다. 민감도는 실제 측정자의 신호가 측정되었을 때 정확히 판별해낸 비율을 나타내고, 정확도는 TN을 제외한 모든 경우 중에서 정확히 판별된 TP의 비율을 나타낸다. 이때, TP, FN, FP, TN은 각각 True positive, False negative, False positive, True negative를 의미한다. 즉, R파 정점이 나타났을 때 정확히 검출해 내면 TP, 그렇지 못했을 경우에는 FN으로 구분되고 R파 정점이 아닌 부분이 R파 정점으로 검출이 된다면 FP로 구분된다.</p><p>\( S N=T P /(T P+F N) \times 100 \)<caption>(2)</caption></p><p>\( A C C=T P /(T P+F N+F P) \times 100 \)<caption>(3)</caption></p><p>평가결과 총 10,188개의 심전도 파형들 중 10,177개의 파형을 정확히 추출해 냈고, 민감도 \( 99.89 \% \), 정확도 \( 99.72 \% \) 의 성능을 보였다. 파형 추출에 실패한 경우 그 원인은 그림 6.a와 같이 측정자의 R파 정점이 매우 작게 측정되어 FN이 발생한 경우와 그림 6.b와 같이 측정 도중 움직임이나 피부 접점 접촉 불량 인해 심각한 잡음이 발생하고 FP가 발생한 경우로 실제 육안을 통해서도 R파 정점을 찾기 어려운 경우로 분석되었다.</p><p>표 3. 는 파형 추출 알고리즘을 이용해 추출된 10,177개의 심전도 파형을 SVM을 이용해 분류한 바이오 인식 실험 결과이다. 바이오 인식 실험도 파형 추출과 동일하게 민감도와 정확도를 성능 지표로 사용하되, 측정자 n에 대해서 본인의 데이터를 본인으로 분류했을 경우 TP, 반대로 다른 사람으로 분류 했을 경우 FN, 다른 측정자의 데이터를 본인으로 분류했을 경우 FP으로 구분했다. 실험결과, 충 10,177개의 데이터 중 10,033개의 데이터를 정확히 분류하여 민감도 \( 98.59 \% \), 정확도 \( 97.21 \% \)의 성능을 보였다. 바이오인식에 실패한 대부분의 경우는 그림 7. 에 나타낸 '측정자 7'의 데이터와 같이 많은 잡음이 섞여있는 경우로 분석되었다. 이러한 잡음은 측정 당시 측정자의 움직임에 의해 발생한 것으로 사용자 본연의 파형정보와는 많은 차이를 가져왔고, 결국 상대적으로 가장 유사한 다른 측정자로 분류되어 FN와 FP가 동시에 발생한 것으로 보인다. 이 경우, 측정된 파형을 기준으로 판단한다면 인식 대상자와 일치하는 파형이 데이터베이스에 없으므로 '인식 거부' 판정을 내리는 것이 타당하다. 그러나 본 논문에서 SVM 분류기로 사용된 'LIBSVM'은 데이터베이스에 없는 데이터에 대한 고려는 하지 않기 때문에 '타인에 대한 거부' 를 구현할 수 없어 일부 양호하지 못한 입력신호에 대해 오류를 보인 것으로 추정된다. 이거한 오류는 '타인에 대한 거부' 기능을 첨가한 분류기를 적용해 잡음으로 인해 그 특징이 흐트러진 파형은 '인식 거부' 판정을 내릴 수 있도록 함으로써 해결이 가능하다. 또한 검출된 파형 중에서 다른 파형과 큰 차이를 보이는 파형은 분류에서 제외시키는 방법도 인식 성능과 실용성 측면에서 긍정적인 효과를 볼 수 있을 것으로 판단된다. 비록 '타인에 대한 거부'가 구현되지 않아 즉시 실용화를 진행하기에는 무리가 있겠지만, 분석된 성능 지표 수치로 보았을 때 설계된 시스템이 심전도 신호의 특징을 충분히 반영하고 있다고 판단할 수 있으며, 바이오인식에 적용 가능할 것으로 기대된다.</p>
개발한 심전도 측정 하드웨어를 이용해 실험대상자 17명의 심전도 신호를 측정하여 파형추출 알고리즘을 수행시킨 결과 심전도 파형을 정확히 추출해 냈고 높은 민감도와 정확도를 보였다. 본 논문에서 사용한 SVM 분류기는 일부 양호하지 못한 입력신호에 대해 오류를 보인 것으로 추정하지만 기능을 첨가한 분류기의 적용으로 해결할 수 있으며, 분석된 성능 지표 수치로 판단할때 시스템이 심전도 신호의 특징을 충분히 반영하고 있으며, 바이오인식에 적용 가능할 것으로 기대된다.
<h1>Ⅰ. 서 론</h1><p>최근 정보화 사회로의 진입에 따라 복잡하고 다양한 금융 시스템 및 기기들의 증가로 인해 개인의 신원확인에 대한 요구가 증가하고 있다. 기존의 패스워드나 전자키 등과 같은 개인 인증방식은 분실의 우려와 함께 도용의 위험이 있어 이를 위한 해결방안의 하나로 신체특성을 이용한 바이오인식 기술이 주목을 받고 있다. 바이오인식 기술에 활용되는 신체부위로는 홍채, 손등정맥, 지문, 얼굴, 음성, 장문 등이 있으며, 각각의 바이오인식 기술은 다음과 같은 장단점을 가지고 있다. 먼저, 홍채인식은 인식률이 높으며 위조가 거의 불가능하고 비접촉식 측정방식이라는 장점이 있으나, 시스템의 구축비용 및 장비의 크기가 크고 측정자에게 강한 거부감이 있다는 단점이 있다. 손등정맥인식의 경우 복제가 거의 불가능하고 지문 및 손가락이 없는 사용자도 이용이 가능하다는 장점이 있으나, 하드웨어 구성이 복잡하고 시스템 구축비용이 높다는 단점이 있다. 지문인식은 다양한 분야에 가장 많이 적용된 바이오 인식부분으로 측정이 간단하고 시스템 비용이 비교적 저렴한 장점이 있으나, 땀이나 물기가 스캐너에 배어있는 경우 에러 발생률이 높아지며 위조가 가능하다는 단점을 가지고 있다. 얼굴인식의 경우 원거리측정이 가능하다는 장점이 있으나, 조명의 변화에 민감하고 위장 혹은 변장이 가능하며 나이가 들면서 얼굴변화에 오류가 있어 비교적 인식률이 낮은 편이다. 마지막으로, 음성인식은 다른 바이오인식에 비해 시스템 구축비용이 저렴하다는 장점이 있으나, 동일인이라도 잡음에 따른 인식률 변화가 크며, 도용한 음성도 인식이 가능하다는 단점을 가지고 있다. 상기 기술한 다양한 바이오인식 부분은 각각의 장단점을 가지고 있어 요구되는 시스템의 환경에 따라 선택적으로 사용되어 왔다.</p><p>최근에 기존 바이오인식에 대한 단점을 보완하고 새로운 바이오인식부분에 대한 연구를 위해 심전도를 이용한 바이오인식 연구가 진행되고 있다. 1999년 스웨덴에서 심전도를 이용한 바이오인식을 시작한 이래로 미국, 일본, 캐나다를 중심으로 다양한 연구가 진행되고 있고, 2005년을 시작으로 국내에서도 관련 연구결과가 발표된바 있다. 그러나 최근까지 연구되고 있는 심전도 바이오인식은 통상 상용화된 12채널 심전도 장비를 통해 의료용으로 얻어진 리드 Ⅱ 혹은 리드 Ⅲ 파형의 정보를 이용했기 때문에 데이터 획득의 용이성 및 적용에 있어 그 한계가 있다. 일반적으로, 심전도 측정을 위해서는 기준접점(reference point)을 기준으로 두 접점의 전위차를 측정해야 하는데, 이러한 경우 세 개의 전극을 연결해야 하는 불편함이 있다. 또한 의료용 심전도 장비는 측정자가 정적인 상황에서만 측정이 가능하고 측정자가 안정된 상태가 되기까지 오랜 측정시간을 필요로 하며, 경제성 측면에서도 사실상 적용이 불가능하다. 따라서 심전도 바이오인식의 상용화 및 꾸준한 연구를 위해 기존 시스템에 존재하는 한계점을 극복할 수 있는 새로운 시스템이 필요하다.</p><p>본 논문에서는 상기 문제들을 해결하기 위해 저가의 심전도 바이오인식용 심전도 측정 하드웨어를 제작하여 심전도 리드 Ⅰ 파형을 이용한 바이오인식 시스템을 개발했다. 제작된 하드웨어는 측정자의 동적인 측정환경 및 파형왜곡 최소화를 고려해 설계된 필터가 적용되었고, 기준접점을 제거해 두 개의 전극만으로도 심전도 측정이 가능하도록 설계되었다. 제작된 하드웨어를 기반으로 17명의 측정자로부터 심전도 리드 Ⅰ 파형을 수집했으며, 파형 추출 알고리즘을 개발해 각각의 단일 심전도 파형으로 분리했고, 최종적인 패턴 분류를 위해서는 SVM (Support Vector Machine) 분류기가 사용되었다. 바이오인식 시스템의 성능은 민감도(sensitivity, SN)와 정확도(accuracy, ACC) 평가를 통해 검증했고, 새로운 바이오인식 방법의 가능성을 보였다.</p>
기존의 개인인증방식은 분실의 우려와 도용의 위험성이 있어 심전도를 이용한 새로운 바이오인식 연구가 진행되고 있다. 심전도의 측정을 위해 기준접점을 제거 해 설계하고 측정자의 동적인 측정환경 및 파형왜곡 최소화를 위해 설계된 필터를 적용 해 새로운 바이오인식 방법의 가능성을 보였다.
<p>Fig. 4는 차량에서 가장 가까운 MECS로 오프로딩을 하고, MECS에서 파티셔닝하여 다른 MECS들에게 마이그레이션하는 환경에서 서비스 거절률에 대한 성능 차이를 보여준다. Fig. 4(A)는 오프로딩한 MECS에서 지리적으로 가까운 MECS들, Fig. 4(B)와 4(C)는 각각 로드가 작은 MECS들과 랜덤하게 선정된 MECS들을 파티셔닝 대상을 선정하여 마이그레이션한다. 파티셔닝 대상 선정 측면에서 성능을 비교한 결과, 로드가 작은 MECS들로 마이그레이션하는 Fig. 4(B)가 다른 기법들에 비해 약 53-58 \%만큼 높은 거절률을 보여줬다. 이는 협력관계에 있는 MECS들 중 로드가 작은 MECS들을 선정하는 것이라, 다른 MECS들로부터의 오표로딩이 로드가 작은 MECS를 대상으로 한꺼번에 몰리기 때문이다. 그리고 거리와 랜덤으로 대상을 선정한 환경은 약 \( 11 \% \) 정도 성능 차이가 난다. 협력적인 관계에 있는 MECS들 중 랜덤으로 선정하는 것이라 거리 기반으로 선택하는 것보다 폭넓게 선택할 수 있기 때문이다. \( P O \) 기법이 파티셔닝을 진행한 다른 기법들보다 약 39-45 \%만큼 성능이 좋다. 파티셔닝을 많이 진행한 \( P 3 \) 기법의 성능이 가장 안 좋다.</p> <p>그리고 거리로 파티셔닝 대상을 선정한 Fig. 2(A)와 Fig.4(A)를 비교해 보면, 마이그레이션을 이용하여 파티셔닝한 Fig. 5(A)가 약 5 \% 정도 성능이 좋다. 이는 오프로딩을 이용한 기법이 파티셔닝한 태스크의 개수만큼 차량에서 MECS들로 여러 번 오프로딩하므로 마이그레이션 이용 기법보다 전송 지연시간이 더 소요되어 나타나는 차이이다. MECS의 부하 상태를 고려하여 오프로딩을 이용한 Fig. 2(B)와 마이그레이션 이용한 Fig. 4(B)를 비교해 보면, 오프로딩 이용기법이 마이그레이션 이용 기법보다 약 \( 22 \% \) 더 나은 성능을 보인다. 차량과 통신할 수 있는 MECS들 중 로드가 낮은 MECS들을 선정한 오프로딩 기법과 달리, 마이그레이션 이용 기법은 협력관계에 있는 모든 MECS들 중 로드가 작은 MECS들을 선정하므로 특정 MECS로 몰리는 경향이 더 심화되기 때문이다. 그리고 랜덤으로 대상을 선정한 Fig. 2(C)와 4(C)는 마이그레이션 이용 기법이 오프로딩 이용 기법보다 약 \( 11 \% \) 좋다. 따라서 결론적으로, MECS 상태를 고려하면서 특정 MECS로 쏠리지 않도록 대상을 선정하는 것이 중요하다고 할 수 있다.</p> <p>Fig. 5는 MECS에서 파티셔닝을 하고 마이그레이션을 이용한 환경에서 서비스 지연시간에 대한 성능을 비교하였다. 파티셔닝 대상 선정 측면에서 Fig. 5를 비교한 결과, 파티셔닝 대상을 랜덤으로 선정한 Fig. 5(C), 거리로 선정한 Fig. 5(A), 그리고 MECS 부하 상태로 선정한 Fig. 5(B) 순으로 성능이 안 좋다. 파티셔닝 개수에 대한 성능 차이를 보면, \( P O \)기법이 파티셔닝을 진행한 \( P 1, P 2, P 3 \) 기법들보다 지연시간이 더 소요되며, 여러 개의 서브 태스크로 파티셔닝할수록 지연시간이 단축된다. 여러 MECS에서 공동으로 수행하여 연산에 대한 부담이 줄기 때문이다.</p>
PO기법이 다른 기법들보다 약 39-45%만큼 성능이 좋고 거리로 파티셔닝 대상을 선정한 그림 2(A)와 그림 4(A)를 비교하면, 마이그레이션을 이용하여 파티셔닝한 그림 5(A)가 5% 정도 성능이 좋다. MECS의 부하 상태를 고려해 오프로딩을 이용한 그림 2(B)와 마이그레이션 이용한 그림 4(B)를 비교하면, 오프로딩 이용기법이 마이그레이션 이용 기법보다 약 22% 나은 성능을 보이고 그림 5를 비교한 결과, 파티셔닝 대상을 랜덤으로 선정한 그림 5(C), 거리로 선정한 그림 5(A), 그리고 MECS 부하 상태로 선정한 그림 5(B) 순으로 성능이 안 좋다.
<h1>요 약</h1> <p>최근 사물 인터넷의 발전과 함께 차량과 IT 기술의 융합되어 자율주행과 같은 고성능의 어플리케이션들이 등장하면서 멀티 액세스 엣지 컴퓨팅 MEC이 차세데 기술로 부상하였다. 이런 계산 집약석인 태스크들을 낮은 지연시간 안에 제공하기 위해, 여러 MEC 서버(MECS)들이 협력하여 해당 태스크를 수행할 수 있도록 태스크를 파티셔닝하는 기법들이 많이 제안되고 있다. 태스크 파티셔닝과 관련된 연구들은 모바일 디바이스에서 태스크를 파티셔닝하여 여러 MECS들에게 오프로딩을 하는 기법과 디바이스에서 MECS로 오프로딩한 후 해당 MECS에서 파티셔닝하여 다른 MECS들에게 마이그레이션하는 기법으로 나누어볼 수 있다. 본 논문에서는 오프로딩과 마이그레이션을 이용한 파티셔닝 기법들을 파티셔닝 대상 선정 방법 및 파티셔닝 개수 변화에 따른 서비스 지연시간, 거절률 그리고 차량의 에녀지 소비량 측면에서의 성능을 분석하였다. 파티셔닝 개수가 증가할수록 지연시간의 성능은 향상하나. 기절률과 에녀지 소모량의 성능은 감소한다.</p> <h1>1. 서 론</h1> <p>최근 사물 인터넷(Internet of Things, IoT)의 발전과 함께 차량과 IT 기술의 융합이 가속화되면서 기존의 차량 통신네트워크가 차량 인터넷(Internet of Vehicles, IoV)으로 확장되어 자율주행, 차량 안전 서비스, 경로 계획과 같은 다양한 고성능의 차량 어플리케이션들이 등장했다. 이러한 어플리케이션들은 계산 집약적이며, 높은 신뢰성과 낮은 지연시간 등의 QoS(Quality of Service)를 요구한다. 하지만 차량의 컴퓨팅 성능이 많이 향상되었음에도 불구하고, 이를 차량에서 제공하기에는 한계가 있다.</p> <p>이를 극복하고 낮은 지연시간으로 서비스를 제공받기 위해, 차량은 발생한 태스크를 클라우드(cloud) 서버로 오프로드(offload) 한다. 최근 들어 지리적으로 원거리에 위치한 기존 중앙 집중형 클라우드 컴퓨팅과 달리, 사람 및 사물과 근접한 네트워크 종단에 컴퓨팅 자원을 분산 배치한 멀티 액세스 엣지 컴퓨팅(Multi-access Edge Computing, MEC)이 차세대 기술로 부상했다. 엣지 컴퓨팅은 사용자(단말)와 지리적으로 근접하기 때문에 바르게 연산 결과를 제공함으로써 서비스의 QoS 요구사항 만족도를 향상시킬 수 있다.</p> <p>하지만, MECS(MEC Server)는 클라우드 서버에 비해 컴퓨팅 자원이 제한적이라 MECS가 혼잡해진다면 MECS에서의 대기 시간이 길어져 낮은 지연시간으로 서비스를 제공하기 어려울 수 있다. 그러나 MECS가 밀집하게 배치된 환경이라면 여러 MECS들의 협업을 통해 서비스의 총 지연시간을 더욱 단축시킬 수 있다. 즉, 하나의 태스크를 여러 개의 서브 태스크들로 분할하고, 여러 MECS들에 의해 서브 태스크들이 병렬적으로 수행됨으로써 서비스 지연시간을 단축시킬 수 있다. 이를 태스크 파티셔닝(partitioning)이라 한다.</p> <p>기존 연구에서는 차량 또는 MECS에서 태스크를 분할하는 것에 관한 태스크 파티셔닝 기법들이 제안되었다. [4-6]에서는 차량에서 태스크를 파티셔닝하고, 서브 태스크들을 다른 MECS로 오프로딩하는 기법들이 제안되었다. [4]는 지연시간과 신뢰성을 절충하기 위해 서브 태스크들을 다른 MECS들에게 순차적으로 오프로딩하는 휴리스틱 기법을 제안하였고, [5]에서는 종속적인 속성을 가진 태스크들을 파티셔닝하고, 스케줄링을 통해 서브 태스크들의 오프로딩을 결정하는 기법을 제안하였다. [6]은 지연시간과 에너지 소비량을 최소화하기 위해 태스크 파티셔닝 및 전송 전력 전략에 따라 오프로딩하는 기법을 제안했다. 그리고 [7-9]에서는 태스크를 특정 MECS로 먼저 오프로딩하고, 해당 MECS에서 태스크를 파티셔닝하여 다른 MECS로 마이그레이션(migration)하는 기법들이 제안되었다. [7]은 시스템의 자원 효율성을 높이고 서비스 지연시간을 줄이기 위해, 파티셔닝하여 다른 MECS들로 마이그레이션하는 기법을, [8]에서는 지연시간과 에너지 소비를 최소화하기 위해 MECS로 오프로드하고 파티셔닝하는 기법을 제안하였다. [9]에서는 엣지 컴퓨팅과 클라우드 컴퓨팅이 협업하여 총 지연시간을 줄이기 위한 최적의 태스크 파티셔닝 전략을 제안하였다.</p>
MEC가 사물 인터넷의 발전과 함께 차량과 IT 기술의 융합에 따라 등장하여, 높은 QoS를 요구하는 고성능 어플리케이션들을 지원하기 위해 태스크를 파티셔닝하는 기법들이 많이 제안되고 있다. 논문에서는 오프로딩, 마이그레이션을 사용한 파티셔닝 기법들의 대상 선정 방법 및 파티셔닝 개수 변화에 따른 서비스 지연시간 등의 성능을 분석하였다. 결과로 파티셔닝 개수가 증가할수록 지연시간의 성능은 향상하나, 거절률과 에너지 소모량의 성능은 감소한다는 것을 알 수 있었다.
<p>지연시간 측면에서 오프로딩을 이용한 Fig. 3 과 마이그레이션을 이용한 Fig. 5를 비교해 보면, 오프로딩 이용한 기법이 약 5-6 \% 정도 차이 난다. 이는 파티셔닝 대상이나 개수에 따라 발생한 차이가 아니라 차량이 태스크를 오프로딩할 때의 전송 지연시간에서 발생한 차이이다. 서비스 지연시간 측면에서는 파티셔닝을 진행하는 것이 진행하지 않는 것보다 좋으며, 태스크를 여러 개의 서브 태스크로 파티셔닝하는 것이 지연시간을 단축시킬 수 있다. 하지만 이와 반대로 서비스 거절률 측면에서는 파티셔닝을 진행하지 않는 것의 성능이 좋으며, 서브태스크들의 개수가 많아질수록 성능이 안 좋아진다.</p> <p>Fig. 6은 차량이 파티셔닝하여 오프로딩하는 환경에서 파티셔닝 개수에 따라 차량이 소비한 에너지량을 비교한 실험이다. 차량은 MECS로 태스크를 오프로딩할 때 에너지를 소비한다. 파티셔닝 대상 측면에서 Fig. 6을 비교해 보면, 거리를 고려하여 오프로딩을 한 Fig. 6(A)가 거리를 고려하지 않은 다른 환경들에서 보다 에너지 소비량이 적다. 그 이유는 전송 지연시간은 거리와 태스크의 크기가 좌우하는데, 특히, 차량과 MECS 간의 거리가 더 큰 영향을 미치기 때문이다. 그리고 파티셔닝 개수에 따른 에너지 소비량을 비교해 보면, 파티셔닝 진행하지 않는 \( P O \) 기법과 진행하는 \( P 1, P 2, P 3 \) 기법의 에너지 소비량 측면에서의 성능 차이는 약 \( 36-45 \% \) 차이로 파티셔닝 진행 여부가 에너지 소비량에서 가장 크게 좌우하고, 파티셔닝을 진행한다면 파티셔닝을 많이 진행할수록 에너지 소비량이 커진다. 파티셔닝의 개수만큼 차량에서 MECS로 오프로딩을 하기 때문에 파티셔닝 개수가 많을수록 에너지 소비량이 증가할 수밖에 없다. 그리고 마이그레이션을 이용한 파티셔닝 기법에서는 차량과 가장 가까운 MECS로 오프로딩하고 파티셔닝을 하는 기법이므로 파티셔닝 개수에 따른 에너지 소비량이 다르지 않다. 마이그레이션을 이용한 파티셔닝의 에너지 소비량은 Fig. 6(A)에서 파티셔닝을 진행하지 않은 \( P O \) 기법과 비슷하다.</p> <p>서비스 지연시간 측면에서는 파티셔닝을 진행하는 것이 진행하지 않는 것보다 좋으며, 태스크를 여러 개의 서브 태스크로 파티셔닝하는 것이 지연시간을 단축하는 것이다. 하지만, 오프로딩을 이용한 기법에서는 그만큼 차량이 소비하는 에너지량이 증가한다.</p> <h1>4. 결 론</h1> <p>태스크를 파티셔닝하여 여러 MECS들의 협력을 통해 연산하는 것이 하나의 MECS에서만 수행할 때 보다 연산에 대한 부담이 적어 전체적인 지연시간을 단축시킬 수 있다. 본 논문에서는 오프로딩과 마이그레이션을 이용한 파티셔닝 기법들을 파티셔닝 대상 선정과 개수 변화에 따른 서비스 지연시간과 거절률, 그리고 에너지 소비량에 대한 성능을 비교 분석하였다. 파티셔닝 대상 선정에 따라 마이그레이션과 오프로딩 이용 기법의 성능이 달라짐을 확인하였다. 여러 개의 서브 태스크로 파티셔닝할수록 지연시간 측면에서의 성능은 향상되지만, 반대로 서비스 거절률 측면에서의 성능은 감소하게 된다. 또한, 차량의 에너지 소비량 측면에서도 파티셔닝 개수가 증가할수록 오프로딩 횟수가 증가하기 때문에 성능이 감소하게 됨을 확인하였다. 향후 연구에서는 보다 다양한 환경과 시나리오에서 실험을 진행하고, 태스크를 파티셔닝하는 방법에 대한 연구를 진행하고자 한다.</p>
본 연구는 태스크 파티셔닝을 통한 MECS들의 협력이 한 개의 MECS에서의 작업에 비해 연산 부담 감소와 지연시간 단축 효과를 확인하였다. 특히, 파티셔닝 대상의 선택과 개수 변화가 오프로딩과 마이그레이션을 이용한 파티셔닝 기법의 성능에 큰 영향을 미친다는 사실을 발견하였다. 이에 따른 서비스 지연시간, 거절률, 에너지 소비량 등에 대한 성능도 비교 분석하였으며, 이러한 연구를 통해 다양한 환경과 시나리오에서 태스크 파티셔닝 방법을 더욱 개선하고자 한다.
<p>\( f_ { n_ { i } m_ { i } } =s_ { n_ { i } m_ { i } } + e_ { n_ { i } m_ { i } } \)<caption>(4)</caption></p> <p>차량 \( n \) 의 서브 태스크 \( i \) 가 MECS \( m_ { i } \) 에서 소요하는 지연시간은 다음과 같다.</p> <p>\( t_ { n_ { i } m_ { i } } =w_ { n_ { i } m_ { i } } + e_ { n_ { i } m_ { i } } \)<caption>(5)</caption></p> <p>\( w_ { n_ { i } m_ { i } } \) 는 MECS \( m_ { i } \) 에서의 태스크 대기시간으로 태스크의 큐 도착 시간과 태스크 실행 시작 시간의 간격으로 다음과 같다. 만약 태스크가 즉시 수행되었다면 대기 시간이 없다.</p> <p>\( w_ { n_ { i } m_ { i } } =s_ { n_ { i } m_ { i } } -a_ { n_ { i } m_ { i } } \)<caption>(6)</caption></p> <p>Fig. 1의 보라색처럼 차량에서 태스크를 파티셔닝하여 각각 다른 MECS들로 오프로딩하는 기법의 에너지 소비량은 다음과 같다. 태스크가 총 \( I \) 개로 파티셔닝되었을 때, 각각 MECS들로 오프로딩하는 전송 지연시간의 합만큼 에너지를 소비한다.</p> <p>\( E_ { n } ^ { o f f } =P_ { n } \sum_ { i } ^ { I } d_ { n_ { i } m_ { i } } ^ { t r a n s } \)<caption>(7)</caption></p> <p>\( P_ { n } \) 는 차량의 송신 전력이다. Fig. 1 의 파란색의 경우는 차량의 전체 태스크를 차량과 가장 가까우면서 신호의 세기가 가장 센 MECS \( m \) 로 오프로딩한다. 이때, 전송 지연시간은 (1)에서 \( \gamma=1 \) 로, \( d_ { n, m } ^ {\text { trans } } =l_ { n } / r_ { n, m } \) 와 같다. 그다음 MECS \( m \) 에서 태스크를 파티셔닝하여 다른 MECS들로 마이그레이션한다. 따라서 MECS에서 파티셔닝하여 마이그레이션하는 기법의 에너지 소비량은 다음과 같다.</p>
차량 \( n \) 의 서브 태스크 \( i \) 가 MECS \( m_ { i } \) 에서 걸리는 지연시간을 다루었다. 차량에서 태스크를 분할하여 서로 다른 MECS로 오프로딩하는 기법의 에너지 소비량과 MECS에서 분할하여 이동하는 기법의 에너지 소비량을 각각 살펴보았다.
<p>Fig. 2는 차량에서 파티셔닝하여 오프로딩하는 환경에서 서비스 거절률에 대한 차이를 보여주는 실험이다. 여기서, 서비스 거절률은 서버의 큐가 꽉 차서 더 이상 태스크를 수용할 수 없어 거절되는 수를 의미하며, 이를 전체 발생한 태스크 수로 나누어 정의하였다. 차량의 위치를 기반으로 Fig.2(A)는 지리적으로 가장 가까운 MECS들로, Fig. 2(B)는 로드가 작은 MECS들로, 그리고 Fig. 2(C)는 랜덤으로 파티셔닝 대상 서버를 선정하여 오프로딩하였다. 파티셔닝 대상 선정 방법 간 성능을 비교하면, 로드가 작은 MECS들로 파티셔닝하여 오프로딩하는 Fig. 2(B)가 다른 Fig. 2(A), 2(C)와 비교하였을 때 약 \( 36-40 \% \) 만큼 성능이 낮다. 이는 차량과 MECS 간 거리나 랜덤으로 대상을 선정한 것보다 특정 MECS로 몰리는 경우가 많기 때문이다. 다시 말해서, 차량들은 도로 위에서 다양한 위치에 분포되어 있기 때문에 차량에서 가장 인접한 MECS가 차량에 따라 다를 수 있다. 그러나 작업 부하가 가장 낮은 MECS의 경우는 차량의 위치에 상관없이 그 순간에 단 하나이므로 모든 태스크 처리 요청이 집중되기 때문이다. 대상 MECS를 랜덤 선정한 Fig. 2(C)는 거리를 고려한 Fig. 2(A)보다 약 5 \% 나은 성능을 보인다. 이는 거리 기반 선정 기법의 경우 도로 위 차량의 위치가 얼마나 고르게 분포되어 있는지에 영향을 받는 것으로 해석할 수 있다. 파티셔닝 개수 측면에서, 파티셔닝을 진행하지 않는 \( P O \)기법이 파티셔닝을 진행한 다른 기법 \( P 1, P 2, P 3 \) 보다 더 나은 성능을 보인다. 그리고 파티셔닝을 많이 진행할수록 성능이 안 좋아지는데 이는 MECS에서 수행해야 할 태스크의 수가 많아져 MECS가 모두 수용하지 못해 거절되는 태스크의 수가 증가하기 때문이다. 이러한 현상은 차량의 도착률이 높아질수록 성능이 안 좋아지는 것에서도 확인할 수 있다. 낮은 로드를 가진 MECS를 선정하는 Fig. 2(B)는 다른 환경에 비해 파티셔닝 개수에 따른 거절률의 성능 차이가 약 5-18 \% 로 작은데, 이는 특정 MECS로 항상 몰리기 때문에 파티셔닝 의 유무나 개수에 상관없이 거절률이 높아 기법별 차이가 크지 않다.</p> <p>Fig. 3은 차량에서 파티셔닝하여 각 MECS들에게 오프로딩하는 환경에서 서비스 지연시간 차이를 비교하였다. 파티셔닝 대상 선정 기법별로 성능을 비교한 결과, 파티셔닝 대상을 랜덤 선정한 Fig. 3(C), 거리로 선정한 Fig. 3(A), 그리고 MECS 부하 상태를 고려한 Fig. 3(C) 순으로 성능이 좋다. 랜덤 선정의 성능이 좋은 이유는 협력적인 관계에 있는 MECS들 중 랜덤으로 선정하기 때문에 다른 기법들에 비해 여러 MECS들을 폭넓게 선정할 수 있고 이로 인하여 서비스 거절률이 낮기 때문이다. 서비스 거절률이 높다는 것은 특정 MECS로 몰린다는 의미로, 이는 MECS 내 대기시간이 길어진다는 것이고, 이는 곧 서비스 지연시간이 증가하는 것이다. 그래서 서비스 거절률이 높게 나온 거리나 부하 기반 MECS 대상 선정 기법들을 사용한 환경에서의 성능이 안 좋다. 파티셔닝 개수에 대한 성능 차이를 보면, \( P O \) 기법이 \( P 1, P 2, P 3 \) 기법들보다 지연시간이 더 소요된다. 여러 MECS에서 공동으로 태스크를 수행하기 때문에 연산에 필요한 지연시간이 단축되므로 파티셔닝을 여러 번 진행할수록 나은 성능을 보인다.</p>
차량에서 파티셔닝하여 오프로딩하는 환경의 서비스 거절률을 실험 한 결과, 파티셔닝 대상 선정방법 간 성능 비교는, 로드가 작은 MECS들의 오프로딩 성능이 낮았다. 차량 위치에 관계 없이 작업부하가 가장 낮은 MECS로 모든 태스크 처리 요청이 집중되기 때문이다. 거리 기반 선정 기법의 경우 차량위치의 고른 분포도에 영향을 받는다고 볼 수 있다. 차량에서 파티셔닝 하여 각 MECS들에게 오프로딩하는 환경에서의 서비스 지연시간 차이를 살펴보면, 파티셔닝 대상을 랜덤선정한 경우와 파티셔닝을 여러번 진행 하는 경우에 성능이 좋았다.
<p>\( E_ { n } ^ {\text { mig } } =P_ { n } d_ { n, m } ^ {\text { trans } } \)<caption>(8)</caption></p> <p>그리고 차량에서 파티셔닝하여 오프로딩하는 기법과 MECS에서 파티셔닝하여 마이그레이션하는 기법의 서비스 지연시간은 서브 태스크들 중 마지막 서브 태스크의 종료 시간에 첫 번째 서브 태스크의 도착 시간의 차이에 첫 번째 서브 태스크를 오프로딩하는 지연시간을 더하여 계산하였다. 이 2 가지의 기법들을 본 논문에서는 서비스 지연시간과 거절률 그리고 차량이 소비하는 에너지량 측면에서 성능을 비교 분석한다. (1)과 (6)에서 무선 통신 상태와 MECS의 대기시간이 전체 지연시간에 영향을 미치며, (7)과 (8)에서는 오프로딩하는 전송 지연시간만큼 차량이 에너지를 소비한다는 것을 보여준다.</p> <h1>3. 실험 및 성능 비교 분석</h1> <p>오프로딩을 이용한 차량에서의 파티셔닝 기법과 마이그레이션을 이용한 MECS에서의 파티셔닝 기법들의 성능 비교를 위한 실험을 진행하였다. 총 15 개의 MECS가 밀집하게 배치된 환경을 가정하였고, 각 MECS의 컴퓨팅 능력은 \( 10 \mathrm { GHz } \) 이다. 차량은 푸아송 분포를 사용하여 발생하였으며, 이동속도는 약 \( 10-30 \mathrm { ~m } / \mathrm { s } \) 이다. 태스크의 크기 \( l_ { n } \) 은 [2,6]Kbits, 요구되는 CPU 사이클 \( z_ { n } \) 는 \( [0.1,1] \mathrm { Gcycles } \), 그리고 최대 허용 지연시간 \( d_ { n } ^ {\max } \) 는 \( [0.1,0.2] \mathrm { s } \) 범위 내에서 무작위로 발생하였다. 차량의 송신 전력 \( P_ { n } \) 는 \( 600 \mathrm { ~mW } \) 이고, 잡음 전력 \( \sigma ^ { 2 } \) 은 \( 10 ^ { -11 } \mathrm { ~mW } \) 이다. 그리고 차량과 MECS사이의 경로 손실은 \( 128.1 + 37.6 \log _ { 2 } ( \) distance \( ( \mathrm { km } )) \) 이다.</p> <p>본 논문에서는 차량에서 파티셔닝을 하고 각 MECS들에게 오프로딩하는 기법(Partitioning + Offloading method)과 일단 차량이 MECS로 오표로딩한 후 해당 MECS에서 파티셔닝하여 다른 MECS들에게 마이그레이션하는 기법(Partitioning + Migration method)으로 나눠 실험을 진행하였다. 그리고 대상 MECS 선정 기법에 따른 성능 비교를 위해 거리를 고려하여 대상 MECS들을 선정하는 기법, MECS의 부하 상태를 고려하여 MECS들을 선정하는 기법 그리고 랜덤으로 대상 MECS들을 선정하는 기법으로 나눠 실험하였다. 또한, 몇 개의 서브 태스크로 파티셔닝하는지에 따른 성능을 비교하고자 총 4 개의 기법을 사용하였다. 파티셔닝을 진행하지 않고 전체 태스크를 하나의 MECS에서 실행하는 \( P O \) 기법, 파티셔닝을 1 번 진행하여 2 개의 서브 태스크로 분할하여 실행하는 \( P 1 \) 기법, 파티셔닝을 2 번 진행하는 \( P 2 \) 기법, 그리고 파티셔닝을 3 번 진행하는 \( P 3 \) 기법으로 실험을 진행하였다.</p>
차량에서의 파티셔닝 기법과 MECS에서의 파티셔닝 기법을 비교하기 위해 서비스 지연시간, 거절률 및 에너지 소비량을 분석하였다. 실험은 15개의 MECS가 조밀한 환경에서 진행되었으며, 차량은 푸아송 분포를 따라 발생하였다. 태스크의 크기, 요구 CPU 사이클, 최대 허용 지연시간은 무작위로 설정되었고, 차량의 송신 전력과 경로 손실도 고려되었다. 실험은 파티셔닝 + 오프로딩 기법과 파티셔닝 + 마이그레이션 기법으로 나눠서 진행되었으며, 대상 MECS 선정 기법과 서브 태스크 수에 따른 성능 비교도 수행되었다. 총 4개의 기법 (PO, P1, P2, P3)이 사용되었다.
<p>\( d_ { n_ { i } , m_ { i } } ^ {\text { trans } } = \frac {\gamma l_ { n } } { r_ { n, m_ { i } } } \)<caption>(1)</caption></p> <p>이때, \( r_ { n, m_ { i } } \) 는 차량 \( n \) 과 MECS \( m_ { i } \) 사이의 전송 속도로, 다음과 같다.</p> <p>\( r_ { n, m_ { i } } = \log _ { 2 } \left (1 + \frac { P_ { n } h_ { n, m_ { i } } } {\sigma ^ { 2 } } \right ) \)<caption>(2)</caption></p> <p>\( W \) 는 채널에 할당된 전송 대역폭, \( P_ { n } \) 는 차량의 송신 전력 그리고 \( \sigma ^ { 2 } \) 는 잡음 전력이다. \( h_ { n, m_ { i } } \) 는 차량 \( n \) 과 MECS \( m_ { i } \) 사이의 채널 이득이다. 태스크의 연산 결과는 태스크의 입력 크기보다 훨씬 작아 다운 지연시간은 고려하지 않는다. 컴퓨팅 능력이 \( c_ { m_ { i } } \) 인 MECS \( m_ { i } \) 에서 차량 \( n \) 의 서브 태스크 \( i \) 가 수행될 때의 연산 지연시간은 다음과 같다.</p> <p>\( e_ { n_ {\dot { v } } m_ { i } } = \frac {\gamma z_ { n } } { c_ { m_ { i } } } \)<caption>(3)</caption></p> <p>만약 MECS에 의해 수행되고 있는 태스크가 없는 경우, 현재 태스크의 수행 시작 시간은 도착 시간이 된다. 그렇지 않으면 MECS 큐에서 대기하는 태스크들의 실행이 완료되어야 현재 태스크가 MECS에서 수행될 수 있다. \( a_ { n_ { i } m_ { i } } \) 는 차량 \( n \) 의 서브 태스크 \( i \) 가 MECS \( m_ { i } \) 의 큐에 도착한 시간이며, \( s_ { n_ { i } m_ { i } } \) 와 \( f_ { n_ { 0 } m_ { i } } \) 는 각각 MECS \( m_ { i } \) 에서 차량 \( n \) 의 서브 태스크 \( i \) 가 수행을 시작한 시간과 종료된 시간을 나타낸다. 시작 시간은 큐에서 대기하는 마지막 태스크의 종료 시간에 따라 달라진다. 이때 큐에서 대기하는 마지막 태스크를 \( j \) 라 하면, \( s_ { n_ { i } m_ { i } } = \max \left \{ f_ { j, m_ { i } } , a_ { n_ { i } m_ { i } } \right \} \) 으로 표현할 수 있다. 그리고 종료시간은 다음과 같다.</p>
차량 n과 MECS m_i 사이의 전송 속도 \( r_ { n, m_ { i } } \)는 채널 대역폭 W, 송신 전력 \(P_n\), 잡음 전력 \(σ^2\), 그리고 채널 이득 \( h_ { n, m_ { i } } \)로 결정된다. 이후에 대기 중인 마지막 테스크 \( j \) 라 하면, \( s_ { n_ { i } m_ { i } } = \max \left \{ f_ { j, m_ { i } } , a_ { n_ { i } m_ { i } } \right \} \) 으로 표현할 수 있다.
<p>차량에서 파티셔닝하여 오프로딩하는 기법은 차량과 MECS 사이의 무선 링크를 통해 서브 태스크들을 각각 오프로딩한다. 여기서, 무선 링크의 상태에 따라 전체 지연시간에 영향을 미칠 수 있는 반면에 MECS에서 분할하는 기법은 통신 상태가 좋은 가장 가까운 MECS로 태스크를 오프로딩하고, 해당 MECS가 파티셔닝하여 고품질 백홀 링크를 통해 서브 태스크들을 다른 MECS들에게 마이그레이션한다. 그러나 MECS에서의 파티셔닝은 서브 태스크들을 최종 MECS로 전송하는데 두 홉이 필요하기 때문에 차량에서의 파티셔 닝 기법보다 항상 좋은 것은 아니다.</p> <p>본 논문에서는 MEC 시스템에서 차량에서 파티셔닝하여 오프로딩하는 기법과 MECS에서 파티셔닝하여 다른 MECS들로 마이그레이션하는 기법을 다양한 시나리오에 적용하여 최적의 파티셔닝 기법을 무엇인지 확인하고자 성능을 비교 분석하였다. 특히, 오프로딩과 마이그레이션 연구에서의 중요 요소인 대상 선정 그리고 파티셔닝 연구에서의 중요 요소인 개수 선정에 따라 서비스 지연시간, 서비스 거절률(blocking rate) 그리고 에너지 소비량 측면에서 성능을 비교 분석한다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서는 시스템 모델에 대해 기술하고, 3장에서는 실험 및 결과에 대해 분석하고, 마지막으로 4장에서는 결론 및 향후 연구를 다룬다.</p> <h1>2. 시스템 모델</h1> <p>본 논문에서 고려하는 MEC 시스템은 \( M \) 개의 MECS가 제한된 환경에 밀집하게 배치되어 있으며, 서로 태스크를 공동으로 수행할 수 있는 협력적인 관계에 있다고 가정한다. 그리고 각 MECS는 FIFO 방식으로 작동하는 큐를 사용하며, MECS 사이는 백홀 링크를 통해 통신한다. 한 타임 슬롯에 차량 \( n \) 은 \( \left \{ l_ { n } , z_ { n } , d_ { n } ^ {\max } \right \} \) 으로 구성된 하나의 태스크를 발생시키며, \( l_ { n } , z_ { n } \) 그리고 \( d_ { n } ^ {\max } \) 는 각각 입력 크기, 연산하기 위해 요구되는 CPU사이클 그리고 태스크를 완료하기까지 최대 허용 가능한 지연시간이다. 태스크는 독립적인 관계에 있는 여러개의 서브 태스크들로 구성돼있다고 가정하였다. \( \gamma \) 는 파티셔닝 비율로 0 과 1 사이의 값을 가진다. 차량 \( n \) 에서 발생한 태스크가 \( I \) 개의 서브 태스크로 파티셔닝되었을 때, 서브 태스크 \( i \) 가 MECS \( m_ { i } \) 으로 오프로드할 때, 전송 지연시간은 다음과 같다.</p>
본 논문에서는 차량과 MECS 사이의 무선 링크를 통해 서브 태스크들을 각각 오프로딩하는 차량에서 파티셔닝하여 오프로딩하는 기법과 가까운 MECS로 태스크를 오프로딩하고 다른 MECS들에게 마이그레이션하는 MECS에서 파티셔닝하는 기법을 비교 분석하여 최적의 파티셔닝 기법을 확인하고자 하였고, MECS에서의 파티셔닝은 서브 태스크들을 전송하는데 두 홉이 필요하기 때문에 차량에서의 파티셔닝 기법보다 항상 좋은 것은 아님을 알 수 있었다.
<h1>2. 관련 연구</h1> <p>이전의 연구에서는 시스템의 사용성을 측정하고 향상시키기 위한 방식으로 주로 사용자를 대상으로 설문조사를 수행하였다. 하지만 사용자 설문을 기초자료로 사용성을 평가하는 방식은 설문 문항의 구성방식, 응답자의 특성 등의 변수에 따라 그 결과가 상이할 수 있다는 문제점을 가지고 있다. A/B 테스트는 사용자들에게 똑같은 페이지/내용을 제공하지만, 메시지의 구체적인 형식이나 디자인에 변형을 주어서 각자의 반응을 살피는 테스트 방식이다. 다양한 GUI 대안에 대한 사용자들의 반응을 얻기 위해서는 대안 숫자만큼의 버전으로 소프트웨어를 제작해야 되기 때문에 테스트에 소요되는 시간이 증가한다. 또한, GUI의 편리한 정도를 미학(Aesthetic)적 측면에서 평가하는 연구들도 존재한다. 즉, 화면 내 뷰(View)들의 정렬 정도, 위젯 넓이/높이 등을 측정하여 사용자가 편안하다고 느끼는 정도를 가늠할 수 있다. 그러나 다양한 이기종(Heterogeneous) 기기를 지원해야 되는 모바일 앱의 특성상 해당 측정법으로는 기기의 해상도에 따라 GUI의 배치가 달라지므로 같은 앱일지라도 메트릭 수치가 변하여 정확한 사용성 측정이 어려운 한계점이 존재한다.</p> <p>본 연구는 모바일 앱의 사용성의 문제점은 개발자가 예상한 사용자 행동 모델과 실제 사용자들의 사용 행동에서 기록된 사용자 행동모델간에 차이점이 발생하는 지점에 내재해 있다는 것을 정의하는 것으로부터 시작되었다. 이러한 사용성 검증을 위한 기준을 제시함으로써 객관적인 메트릭을 확보할 수 있으며 개발자의 의도를 나타내는 모델과 사용자의 행동 모델 비교를 통한 자동화된 사용성 저해 요소 검출이 가능함에 따라, 기존 연구들의 문제점으로 지적된 자의적 해석 가능성과 고비용 문제를 완화시킬 수 있을 것으로 기대한다.</p> <h1>3. GUl 사용성 저해 요소 검출 도구 (RUID: Real-time Usability Issue Detector)</h1> <p>본 장에서는 제안하는 기법을 자세히 설명하기에 앞서 동작중인 모바일 앱으로부터 사용자 로그를 추출하는 메커니즘 및 제안된 기법을 구현하는 자동화 도구를 구성하는 주요 컴포넌트들과 컴포넌트들간의 협업을 통해 이뤄지는 모바일 앱 저해요소 자동 검출 과정에 대한 개요를 설명하고자 한다.</p> <p>Fig. 1은 GUI 사용성 저해 요소 검출 도구(RUID: Real-time Usability Issue Detector)를 구성하는 각 컴포넌트를 도식화하고 있다. RUID는 Java로 구현되었으며 안드로이드 플랫폼에서 동작하며, Fig. 1에 기술된 RUID구성 컴포넌트 별 주요 역할은 다음과 같다.</p> <p>(a) Probe: Android에 내장되어 사용자로부터 발생한 터치를 기록하여 Touch log storage(Fig. 1의 (b))에 저장한다.</p> <p>(b) Touch log storage: Android 매크로인 Monkeyrunner를 이용하여 사용자들의 터치 좌표, 타임스탬프, 제스처 종류를 수집한 후 Probe에서 생성된 로그와 타임스탬프 기반으로 합성된 로그를 저장한다.</p> <p>(c) View storage: 검사의 대상이 될 GUI ID 정보를 획득해야 하기 위해 Android 도구인 Hierarchical viewer를 이용하여 현재 화면의 전체 GUI ID 값이 포함된 구조 정보를 XML형태로 저장한다.</p> <p>(d) Behavior model generator: (b), (c)에서 수집한 로그를 바탕으로 사용자의 행동을 나타내는 모델을 생성한다.</p> <p>(e) Bad symptom analyzer: 모바일 어플리케이션의 사용성 저해요소를 몇 가지 타입으로 정의하여 검출한다. 설계시점에서 가정한 예측행동 모델과 실제 사용자로부터 수집된 로그를 기반으로 생성되는 실제행동 모델간의 차이점을 분석하여, 사용성을 저해하는 GUI 이상징후(Bad symptom) 유무를 판단한다.</p>
기존의 주로 사용자를 대상으로 설문조사를 수행하는 것에서 벗어나 연구는 모바일 앱의 사용성의 문제점은 개발자가 예상한 사용자 행동 모델과 실제 사용자들의 사용 행동에서 기록된 사용자 행동모델간에 차이점이 발생하는 지점에 내재해 있다는 것을 시작으로 사용성 검증을 위한 기준을 제시함으로써 기존 연구들의 문제점으로 지적된 자의적 해석 가능성과 고비용 문제를 해소 가능하고 제안하는 기법을 자세히 설명하기에 앞서 모바일 앱 저해요소 자동 검출 과정에 대한 개요와 Fig 1에 기술된 RUID구성 컴포넌트 별 주요 역할을 다음의 (a)(b)(c)(d)(e)로 나타냈다.
<h1>4. 모바일 앱 GUl 이상징후 자동검출 기법</h1> <p>3장에서 소개된 RUID의 구성 컴포넌트들 중에서 실제 모바일 앱의 GUI 이상징후 자동 검출 기법의 구현부에 해당되는 컴포넌트는 Behavior model generator(Fig. 1의 (d))와 Bad symptom analyzer(Fig. 1의 (e))이다. Behavior model generator는 사용자의 터치로그에 기록된 정보를 기반으로 사용자 별 행동모델을 생성하고 이를 병합하여 하나의 모델을 생성하면, 하나로 통합된 사용자 행동모델(User Behavior Model)과 설계자의 GUI 설계 의도를 표현한 예상행동모델(Expected Behavior Model)을 비교하여 상이한 점들로부터 GUI 이상징후를 검출해 내는 것은 Bad symptom analyzer이다.</p> <p>본 기법에서 GUI 이상징후 검출을 위해 비교 분석 대상이 되는 두 가지 모델인 사용자 행동 모델과 예상행동 모델을 생성하는 방식은 동일하다. 두 모델간에 상이한 점은 모델 생성의 소스가 되는 사용자 행위 로그를 발생시키는 주체가 GUI 설계자인지 실사용자인지에 따라 예상행동 모델과 사용자 행동모델이 구분된다. GUI 설계자가 자신의 디자인 의도에 따라 예상되는 시나리오에 따라 모바일 앱을 사용하면서 발생되는 행위 로그가 실제 사용자의 모바일 앱 사용 시 감지되는 행위 로그가 일치한다는 것은 GUI 설계자가 실사용자의 요구사항(Need)을 잘 파악하여 모바일 앱을 설계하였음을 의미한다. 반면, GUI 설계자의 행위로그로부터 추출된 예상행동모델과 실제 사용자 행동모델이 상이하다는 것은 설계자의 모바일 앱 GUI 설계가 사용자의 경험(User Experience)과는 다른 형태임을 의미한다. 이러한 두 모델간의 상이한 부분 중에서 우리는 몇 가지의 공통적인 패턴화 가능한 모바일 앱 GUI 이상징후 타입들을 식별해 낼 수 있다.</p> <p>이와 같이 모바일 앱 상에 존재하는 사용성 저해요소는 Fig. 2에서 보이는 바와 같이, 크게 세 가지 단계를 거쳐 자동으로 검출 가능하다. 첫째, ① 행위로그로부터 의미 있는 정보들을 추출하여 행위모델을 생성하는 단계, 둘째, ② 다수의 사용자 행위로그부터 생성된 다수의 행위모델을 하나의 모델로 병합하는 단계, 그리고 마지막으로 ③ 병합된 사용자 모델과 예상행동모델간의 비교를 통해 상이점을 분석하여 GUI 이상징후를 검출하는 단계이다. 각 단계에 대한 좀더 자세한 설명은 다음과 같다.</p> <h2>4.1 터치로그로부터 사용자 별 행동모델 생성</h2> <p>먼저, Fig. 2에서 보이듯이 ① 모바일 앱에서 발생하는 이벤트들은 기록되어 로그로 저장된다. 이때 기록의 단위는 하나의 서비스 시나리오이다. 서비스 시나리오란 특정 서비스 결과물을 제공 받기까지 행해지는 사용자와 모바일 앱 간의 상호행동을 시간 순으로 나열한 일련의 흐름을 의미한다.</p> <p>사용자가 ①에서 저장된 로그는 개발자가 의도한 행동과 실제 사용자가 행하는 행동 간의 유사도 분석을 위한 유한 상태 다이어그램(Finite State Diagram)을 기반으로 하는 모델 형태로 전환된다.</p> <p>사용자와 모바일 앱 간의 상호작용을 나타내기 위해서는 특정 모바일 앱의 상태를 표현하면서 사용자의 조작에 반응하여 다른 상태로 어떻게 전이되는지를 표현하는 정형화된 모델이 필요하다. 우리는 이전 연구[7]에서 모바일 앱과 사용자간의 상호작용을 모델링하기 위하여 GUI 구성요소의 ID, 터치 좌표의 \( \mathrm{x},~ \mathrm{y} \)값, 사용자 이벤트 발생 시간을 나타내는 타임스탬프, GUI 화면 이미지 바이너리 값과 같은 요소들을 추가적으로 표현 가능하도록 기존의 모델을 설계하여 AFSM(Augmented Finite State Machine)이라 명명하였다. 어떠한 특정 GUI객체에 대해 가해지는 사용자의 터치의 방향성 및 형태를 파악할 수 있으며 각 이벤트 발생 시 타임 스탬프를 기록함으로써 액션 간 소요시간 등을 분석하여 GUI에 잠재적으로 존재하는 문제점 파악에 도움을 줄 수 있다. Fig. 3의 상단에 있는 두 다이어그램은 서로 다른 두 명의 사용자로부터 수집된 행위로그를 기반으로 생성한 두 개의 서로 다른 AFSM 모델들이다. 각 전이(Transition)간에는 발생 이벤트의 명칭(slideup())과 해당 이벤트가 발생한 GUI 컨트롤의 ID(GObj1) 등이 표시되어 있으며 터치 좌표의 \( \mathrm{x}, \mathrm{y} \)값, 사용자 이벤트 발생 시간을 나타내는 타임스탬프, GUI 화면 이미지 바이너리 값 등이 추가적인 정보로 포함되어 있다.</p>
본 장은 전 장에서 소개한 RUID 내부에서 실제 모바일 앱의 GUI 이상징후 자동 검출하는 컴포넌트, Behavior model generator와 Bad symptom analyzer을 그림과 함께 소개하고 그 원리를 3단계로 나눠 설명한다. 먼저 사용자의 터치로그로부터 유의미한 정보들을 추출하여 사용자 별 행동모델을 생성하는 단계, 그리고 다수의 사용자 행위로그부터 생성된 행위모델들을 하나의 모델로 병합하는 단계, 마지막으로 병합된 사용자 모델을 예상행동모델과 비교하여 상이한 점들로부터 GUI 이상징후를 검출해 내는 단계이다. 본 장은 그 중 첫 번째 단계부터 시작하여 각 단계에 대한 더 상세한 설명으로 이어진다.
<h1>1. 서 론</h1> <p>스마트폰과 태블릿을 지원하는 모바일 앱은 기하 급수적으로 그 숫자가 증가하고 있다. 따라서 동일한 기능을 제공하는 다수 개의 앱 중에서 사용자들은 품질에 따라 선택하여 사용할 수 있다. 모바일 앱의 품질요소로는 여러 가지가 있을 수 있으나 일반적으로 모바일 앱 사용자들은 특별한 매뉴얼 없이도 직관적으로 사용하기 쉬운 앱을 선호한다. 생활에서 사용되는 모바일 앱들 중에서 이러한 사용자의 요구사항을 정확히 파악하여 많은 수의 사용자를 확보하는 앱이 있는가 하면 그렇지 못한 사례들도 있다. 일례로 기차 좌석 예매 앱의 경우, 기차표 예매 시 예매하고자 하는 좌석 수를 지정하는 화면에서, 탑승할 어른과 어린이의 숫자를 화면 왼쪽의 아이콘을 오른쪽으로 밀어서 지정하도록 화면이 설계되었다. 그러나 이러한 지정 방식은 직접 숫자를 패드를 통해 입력하는 기존 앱들의 화면설계와 상이하여 실제 많은 사용자들이 사용 후기에서 불편함을 표현하고 있다. 결과적으로 이러한 불편함은 해당 앱이 사용자들에 의해 2.4점(5점 만점)이라는 저조한 평가를 받고 있는 것과 무관하지 않다. 이와 같은 사례에서 모바일 앱의 전반적인 평가와 직결될 수 있는 모바일 앱의 화면 설계가 사용성 측면에서 문제점을 내포하고 있지 않은지를 평가하여 이를 해소시켜 나감으로써 모바일 앱의 사용성(Usability)을 향상시켜 나가야 할 필요성을 찾아볼 수 있다.</p> <p>본 연구에서는 사용자들이 모바일 앱을 사용하는 행동 모델과 모바일 앱의 GUI 개발자들이 의도한 행동 모델간의 차이점을 분석하여 이로부터 미리 정의된 네 가지 유형의 사용성 저해 요소를 자동으로 검출해 내는 기법을 제안한다. 이러한 자동화된 모바일 앱의 사용성 저해요소 검출 도구의 적용을 통해 기존의 사용성 측정 방식이 가지는 객관성 결여 문제와 비용을 요하는 테스팅 부담을 일정 부분 해결할 수 있을 것으로 기대할 수 있다.</p> <p>우리는 이미 선행연구[1]을 통해 사용자 로그 분석을 통한 사용성 분석 기법을 제시한 바 있다. 본 연구는 [1]의 연구결과를 바탕으로 하였으나 수집된 사용자 로그 정보로부터 유한상태기계(Finite State Machine) 모델 기반의 행동모델을 추출하는 방법을 제시하고 다수의 사용자들의 로그로부터 추출된 행동모델을 병합하는 방법을 제시함으로써 특정 모바일 어플리케이션의 대다수의 사용자가 느끼는 보편적인 사용성 측면의 문제점 분석이 자동으로 가능하다는 점에서 차별점을 찾을 수 있다.</p> <p>본 논문의 이후 구성은 다음과 같다. 2장에서는 모바일 앱의 사용성 측정과 관련된 관련연구들을 살펴본 후, 3장에서는 본 논문에서 제안하고 있는 모바일 앱의 사용성 저해 요소를 사용자 행동 모델 분석을 통해 자동 검출해 내기 위해 필요한 접근 방법을 설명한다. 4장에서는 사용성 저해 요소 검출 도구의 효용성과 사용성 저해 요소가 실제 사용성에 미치는 영향을 측정하기 위해 설계된 실험의 결과를 제시하고 있다. 마지막으로, 5장에서는 본 연구의 결론과 향후 연구계획을 밝히고 있다.</p>
모바일 앱의 화면 설계가 사용성 측면에서 문제점을 내포하고 있지 않은지를 평가하여 이를 해소시켜 나감으로써 모바일 앱의 사용성(Usability)을 향상시켜 나가야 할 필요성을 찾아볼 수 있다. 본 연구에서는 사용자들이 모바일 앱을 사용하는 행동 모델과 모바일 앱의 GUI 개발자들이 의도한 행동 모델간의 차이점을 분석하여 이로부터 미리 정의된 네 가지 유형의 사용성 저해 요소를 자동으로 검출해 내는 기법을 제안한다. 연구결과를 바탕으로 수집된 사용자 로그 정보로부터 유한상태기계(Finite State Machine) 모델 기반의 행동모델을 추출하는 방법을 제시한다. 그리고 사용자들의 로그로부터 추출된 행동모델을 병합하는 방법을 제시하고 사용자가 느끼는 문제점을 자동으로 분석이 가능하다는 점을 차별점으로 둔다.
<h2>4.2 사용자 행동 모델 병합</h2> <p>동일하게 설계된 모바일 앱이라 하더라도 사용자의 사용 방식은 개인별로 상이하다. 따라서 동일한 서비스 시나리오를 수행하는 사용자 행동 모델들은 행동 주체인 개인의 특성이 반영되어 모두 각기 다른 형태의 AFSM모델로 표현된다. 따라서 생성된 다수의 서로 다른 사용자 행동 모델은 부분적으로 서로 달라 보일지라도, 실제 포함하고 있는 행동 자체는 동치관계에 있을 수 있다. 각 사용자들이 아닌 전체 사용자들의 행동 대변하기 위해서는 예상행동모델과의 비교분석에 앞서 여러 개의 사용자 행동모델을 병합하여 하나의 모델로 통합하는 작업이 필요하다. FSM(Finite State Machine)들 간의 동치관계를 파악하여 여러 개의 FSM을 하나의 FSM으로 병합하는 알고리즘으로 Gk-tail 알고리즘이 있다. Gk-tail 알고리즘의 경우, 특정 소프트웨어 시스템에 국한되지 않고 일반적인 FSM모델들을 하나로 병합 가능하다는 점에서 우리가 모바일 앱 사용자 행위모델 표현법으로 확장시킨 AFSM의 병합에 적용 가능한 알고리즘으로 판단하여 선택하였다. Gk-tail알고리즘은 두 개의 서로 다른FSM(Finite State Model)모델을 비교하여 서로 동치인 상태전이(Transition) 부분을 찾아낸 후, \( \mathrm{k} \)값이 지시하는 병합모델의 마지막 상태전이를 순차적으로 FSM에 추가해 나가면서 하나의 병합모델을 완성해 나간다. 제안된 AFSM 역시 기본적인 FSM의 확장된 표현방법이므로 Gk-tail 알고리즘 적용이 가능하다. Fig. 3은 두 명의 사용자로부터 수집된 로그를 기반으로 생성된 두 개의 사용자 행동모델을 Gk-tail 알고리즘을 적용하여 병합해 나가는 과정을 예시하고 있다. 먼저, 두 개의 AFSM의 상태전이를 비교해 나가면서 동일한 상태전이(동일한 GUI 객체에 동일한 이벤트 발생)를 검색해 나간다.</p> <p>예를 들어, Fig. 3의 GOjb1.slideDown( ) 이벤트와 GObj2.touch( ) 이벤트가 두 AFSM모델(사용자행동모델1과 사용자행동모델2)에서 중복되어 검출되면, 동일한 상태 전이 흐름의 첫 번째 상태(State)의 \( \mathrm{k} \)값을 1로 설정한다. Fig. 3의 사용자행동모델1의 ⑧번상태와 사용자행동모델2의 ③번상태가 각각 \( \mathrm{k} \)값이 1로 설정되었음을 알 수 있다. \( \mathrm{k}=1 \)로 설정된 ⑧번과 ③번 상태에서 ⑨번, ④번 상태로의 전이를 일으키는 이벤트와 이벤트가 발생되는 객체가 일치할 경우, \( \mathrm{k} \)값을 1씩 증가해 나가면서 다음 상태로 비교하면서 이동해 나간다. Fig. 3의 경우, 이러한 AFSM 모델 순회(Traverse)가 \( \mathrm{k}=3 \)까지 진행됨을 알 수 있다. \( \mathrm{k} \)값 1에서 3까지 전이가 일치한 상태들(사용자행동모델1의 ⑦, ⑧, ⑨번 상태와 사용자행동모델2의 ③, ④, ⑤번 상태)은 동치상태로 단일한 하나의 상태로 각각 병합된다.</p> <p>그러나 \( \mathrm{k}=3 \) 이후의 전이는 각 모델에서 서로 다른 이벤트 발생에 의한 전이들이다. 따라서, 서로 다른 전이에 의해 도달할 수 있는 상태인 사용자 행동 모델1의 11번 상태와 사용자 행동 모델2의 ⑥번 상태는 하나로 병합할 수 없다. 이러한 서로 다른 상태는 병합된 모델의 (5)번 상태에서 전이 가능한 서로 다른 상태로 각각 추가되며, ⑤번 상태에서 다음 상태로 ⑥번 상태와 11번 상태 중 어떤 상태로 전이가 일어날 지는 발생하는 이벤트에 따라 결정된다.</p> <p>이와 같이 Gk-tail 알고리즘을 사용자 행동 모델 병합에 반복적으로 적용함으로써 \( \mathrm{n} \)명의 서로 다른 사용자들로부터 추출된 \( \mathrm{n} \)개의 행동 모델을 하나의 행동모델로 나타낼 수 있다.</p>
서로 다른 사용자 행동 모델 AFSM은 행동 주체인 개인의 특성이 반영되어 각기 다른 형태의 모델로 표현되며, 서로 다르더라도 행동 자체는 동치관계에 있고 전체 사용자들의 행동 대변을 위해선 하나의 모델로 통합하는 작업이 필요하다. Gk-tail 알고리즘은 여러 개의 FSM(Finite State Machine)을 하나로 병합하는 알고리즘으로 서로 동치인 상태전이(Transition) 부분을 찾아낸 후 순차적으로 FSM을 추가해 나가면서 하나의 병합모델을 완성해 나가면서 두 개의 AFSM의 상태전이를 비교해 나가며 동일한 상태전이를 검색해 나간다. Ok-tail 알고리즘을 다수의 사용자들로부터 추출된 행동 모델들에 반복적으로 적용해 하나의 모델로 나타낸다.
<h2>4.3 모바일 앱 사용성을 저해하는 이상징후 검출</h2> <p>사용자 행동 모델들이 하나로 통합되면 개발자의 설계의도를 포함하고 있는 예상행동모델과 사용자 행동모델을 비교 분석하여 사용성 저해요소를 검출한다. 단순히 두 모델 간의 차이점이 발견된 부분을 앱 상에 존재하는 사용성 저해요소로 판별하지 않고 일정 임계치 이상의 사용자가 다른 형태의 행동을 보이는 경우를 GUI 이상징후로 판별한다.</p> <p>우리는 자동검출이 가능한 모바일 앱 사용성을 저해하는 이상징후들의 타입을 정의하기 위하여 오픈소스 앱의 개발자 커뮤니티에 등록된 GUI 관련 이슈들을 분석하여 그룹화하였다. 그 중에서 사용자 행동모델과 예상행동모델간의 비교 분석을 통해, 자동 검출이 가능한 4가지 타입의 사용성 저해하는 요소들인 이상징후들을 다음과 같이 정의하였다.</p> <ul> <li>이상징후 1. 예상치 못한 행동 흐름</li> <li>이상징후 2. GUI 컨트롤에 구현되지 않은 이벤트 발생</li> <li>이상징후 3. 반복적으로 수행되는 상태전이</li> <li>이상징후 4. 예상 수행 시간 초과</li></ul> <p>이 같은 4가지 타입의 이상징후들을 검출하기 위한 알고리즘을 의사코드로 나타내면 Fig. 4와 같다. AFSM 모델로 표현된 설계자의 의도를 표현한 행동모델인 예상행동모델과 여러 명의 사용자로부터 추출된 AFSM 모델들을 하나로 병합한 사용자행동모델을 각각 인자로 받아들여 두 모델들 간에 존재하는 차이를 이상징후 타입 별로 검출하기 위한 알고리즘이 각각 표현되어 있다.</p> <p>앞서 정의한 4가지 타입의 모바일 앱의 사용성을 저해하는 이상징후를 검출하기 위한 알고리즘을 간단한 예제 모바일 앱을 대상으로 설명하면 다음과 같다. 다음 Fig. 5는 오픈 소스 원격 리모컨 컨트롤러 모바일 앱 중 하나인 MyRemocn으로 원격으로 조작 가능한 새로운 기기를 등록하고 리모콘의 설정을 수정하기까지 GUI 설계자가 예상한 행동모델과 실제 사용자 행동모델의 단편을 보여준다. Fig. 5의 좌측 예상행동모델은 ProductList 객체에서 slideDown 액션을 수행한 후, EditButton 객체에서 터치 액션을 수행하는 형태를 지니고 있다. 우측의 병합된 사용자 행동 모델은 4장에서 소개한 병합과정을 거쳐서 생성된 행동 모델이다. 각 상태 간 전이는 터치 좌표, 액션 정보를 포함하고 있다. 또한 각 상태마다 기록된 타임스탬프는 사용자 별 평균 타임스탬프를 기록하였다.</p> <p>Fig. 5에 기술된 예상행동모델과 실제 사용자 행동 모델 간의 상이점과 각각의 상이점으로부터 감지 가능한 이상징후의 타입들은 다음과 같다.</p> <p>이상징후 1. 예상치 못한 행동 흐름: GUI 설계자가 기대한 예상행동모델 상에서의 행동 흐름은 상태 ①부터 ③까지 순차적으로 진행되지만, 실제 사용자들의 행동 모델을 병합한 결과 \( 22 \% \)의 사용자 행동모델에서 상태 ① ⭢ 상태 ⑤ ⭢ 상태 ③에 이르는 예상되지 않은 행동 흐름이 감지되었고, 또 다른 \( 47 \% \)의 사용자 역시 상태 ① ⭢ 상태 ⑧ ⭢ 상태 ③으로의 예상되지 않은 행동 흐름을 보였다. 즉, 이벤트 로그 수집 대상인 전체 사용자의 \(69\%\)가 Fig. 5의 상단에 정의된 설계자가 의도한 예상행위모델에는 정의되지 않은 행동흐름을 보였다. 실험적으로 \( 60 \% \)의 사용자가 어플리케이션을 사용할 때, 사용성에 문제가 없다고 간주할 수 있다. 즉, \( 40 \% \) 이상의 사용자들이 설계의도와 다른 행위를 보인다는 것은 사용자들이 해당 앱 사용에 불편함을 느끼고 있다는 것을 의미하므로 해결해야 할 사용성 이슈로 판단 가능하다.</p> <p>5장의 실험 결과는 이상징후 판단의 임계값을 0.4로 설정한 결과이다. 전체 사용자 수의 \( 40 \% \) 이상의 사용자로부터 추출된 행위모델에서 이상징후로 판별하였다.</p> <p>이상징후 2. GUI 컨트롤에 구현되지 않은 이벤트 발생: Fig. 5의 예상행동모델에서 정의된 이벤트는 ProductList 객체에서 발생하는 slideDown( ) 액션과 EditButton 객체에서 발생하는 touch( ) 액션, 두 가지이다. 그러나 사용자 행동모델에서는 이미 이상징후 1에서 감지되었던 정의되지 않은 행동흐름 상의 전이를 유발하는 ProductList.slideUp( ), Zoom.touch( ) 등의 GUI 모델상에 포함되어 있지 않은 이벤트를 사용자가 발생시키고 있음을 알 수 있다. 이 같은 이상징후 타입이 감지될 경우, 사용자 행동모델에 포함된 이벤트에 대한 추가적인 구현을 고려해야 할 필요가 있다.</p> <p>이상징후 3. 반복적으로 수행되는 상태전이: Fig. 5의 예제에서는 상태 ①에서 상태 ⑧로의 전이 후 상태 ⑧에서 Zoom.touch( ) 액션을 계속해서 발생시키는 사용자가 \( 61 \% \)임을 알 수 있다. 이같이 사용자가 동일한 이벤트를 계속해서 발생시킨다는 것은 사용자가 기대하는 서비스가 모바일 앱에서 제대로 제공되고 있지 않음을 의미한다. 이와 같은 이상징후 3의 경우, 해결을 위해 단순한 GUI 설계의 조정 외에도 실제 모바일 앱 서비스 시나리오 상에 오류가 없는지 검토해야 할 필요가 있다.</p> <p>이상징후 4. 예상 수행시간 초과: 예상 행동모델과 사용자 행동모델 중 동치인 상태간 전이 집합을 저장한다. 동치 관계인 예상행동모델의 상태전이의 총 소요시간보다 사용자 행동 모델의 총 소요시간이 2배 이상 소요될 경우, 네 번째 타입인 예상 수행시간 초과 이상징후가 감지된 것으로 판단한다. Fig. 5의 예제 상에서는 상태 ① ⭢ 상태 ② ⭢ 상태 ③에 이르는 동치 전이 수행 시간이 예상행동모델의 경우 \( 2743 \mathrm{~ms} \)인데 반해 실제 사용자들이 수행한 평균수행시간은 \( 5423.19 \mathrm{~ms} \)이다. \( \mathrm{n} \)개의 서로 다른 전이흐름을 통해 도달 가능한 상태의 타임 스탬프 값은 각 전이흐름을 통한 도달시간의 평균값 \( \mathrm{n} \)개 중 최소값을 채택한다. 상태 ③에 도달 가능한 세 가지 전이 흐름을 통한 평균 도달시간 중 최소값인 \( 5423.19 \mathrm{~ms} \)는 예상행동모델에서의 상태 (③까지의 도달 시간인 \( 2743 \mathrm{~ms} \)의 2배를 초과하는 값이므로 이상징후 4가 감지된 것으로 판단 가능하다. 이상징후 4의 원인은 GUI 설계가 사용자의 입장에서 이해하기 어렵게 구성되어 있기 때문일 수도 있으며 이상징후 3과 마찬가지로 실제 구현상의 오류로 인한 서비스 지연이 원인이 될 수 있다.</p>
사용자 행동모델과 예상행동모델간의 비교 분석을 통해, 자동 검출이 가능한 4가지 타입의 사용성 저해하는 요소들인 이상징후들을 정의하였는데, 첫째로, 이벤트 로그 수집 대상인 전체 사용자의 \(69\%\)가 설계자가 의도한 예상행위모델에는 정의되지 않은 예상치 못한 행동흐름을 보였고, 그다음으로 사용자 행동모델에서 GUI 모델상에 포함되어 있지 않은 이벤트를 사용자가 발생시키고 있음을 알 수 있다. 또, 사용자가 동일한 이벤트를 계속해서 발생시킨다는 것은 사용자가 기대하는 서비스가 모바일 앱에서 제대로 제공되고 있지 않음을 의미하며, 마지막으로 동치 관계인 예상행동모델의 상태전이의 총 소요시간보다 사용자 행동 모델의 총 소요시간이 2배 이상 소요될 경우, 네 번째 타입인 예상 수행시간 초과 이상징후가 감지된 것으로 판단된다.
<h2>4.2 분류 모델의 생성</h2><h3>4.2.1 자료 집합의 구성</h3><p>모델의 생성, 평가 및 검증을 위한 자료 집합을 구성하기 위해, 2009년 10월 1일부터 2011년 7월 11일 사이의 동아, 조선, 경향 신문의 기사 중 720개의 웹 문서를 임의로 선택하였다. 720개의 웹 문서는 경제, 사회, 스포츠, 정치의 4가지 주제별 기사를 포함하며, 각각의 주제는 180개의 기사를 포함한다. 이 중 400개는 분류 모델을 생성하고 평가하기 위한 학습용 집합으로 사용하고, 나머지 320개는 분류 모델의 성능 검증을 위한 검증용 집합으로 사용하였다. 학습용 집합 중 짝수 번째 웹 문서 200개를 이용하여 모델을 생성하고, 모델 생성에 사용되지 않은 홀수 번째 문서 200개를 이용하여 모델을 평가하였다. 일반적으로, 720개의 문서는 분류 모델의 생성 및 검증에 충분한 양은 아니지만, 기존에 이미 정제되어 제공되고 있는 대량의 웹 문서를 사용하는 대신, 직접 구성한 최근의 자료 집합을 사용하였다. 이는 웹 문서에 사용되는 용어에 최근 많은 변화가 발생하고 있어 기존에 제공되고 있는 웹 문서를 사용할 경우, 최근 정보에 대한 분류 정확도가 저하될 우려가 있고, 또한 제안한 시스템이 경제, 사회, 스포츠, 정치 등의 소수의 범주에 대하여 분류를 수행하도록 개발되었으므로 성능 검증에 대한 신뢰성은 상당 부분 확보할 수 있기 때문이다. 향후 보다 다량의 문서를 확보하여, 보다 다양한 범주로 문서를 분류하는 방법을 연구하는 것이 필요하다.</p><h3>4.2.2 분류 모델의 생성</h3>SPSS Clementine의 의사 결정 트리 (c5.0)와 신경망 기법 및 SVM 을 통하여 분류 모델을 생성한다. 생성된 분류 모델을 평가용 집합으로 평가하여 결과가 수준 이하일 경우 데이터의 전처리 과정의 파라미터 값들을 튜닝(tuning)한다. 해당 파라미터는 문서 빈도 정규화 알고리즘에 사용되는 입력 값들과 주제 분별용 용어 선정의 기준 값 등이다. 파라미터 튜닝은 일정한 값에 수렴할 때까지 반복적으로 수행되며, 최종 평가 결과, 분류 정확도가 임계 값 이하로 나타날 경우에는 해당 분류 방법은 최종 모델에서 배제한다. 본 연구에서는 임계 정확도를 \( 70 \% \)로 설정하였다. 최종 평가 결과, 의사 결정 트리 및 신경망 모델이 각각 200개의 웹 문서 중 168개를 정확하게 분류하여 \( 84 \% \)의 정확도를 보였으며. SVM의 경우 \( 79 \% \)의 정확도를 보여 주었다. 세 가지 방법 모두 분류 정확도가 임계 값 이상이므로 모두 채택된다. 생성된 분류 모델의 분석을 위하여 널리 사용되는 이득 도표(gain chart)를 사용하여 의사 결정 트리와 신경망 모델 및 SVM 방법을 비교하였다. 이득 도표는 해당 등급에 따라 계산 된 이득(gain) 값을 연속적으로 연결한 도표로서, 그림 3에서 왼쪽 아래에서 오른쪽 위로 이어지는 대각선은 모델 비교의 기준선으로서, 모델의 성능이 나쁠수록 이 기준선에 가까워지는 특성이 있다. 도표에서 관찰할 수 있는 바와 같이 의사 결정 트리, 신경망 모델, 그리고 SVM 순으로 성능이 좋은 것으로 나타났다.</p>
모델의 평가 및 검증, 생성을 위한 자료 집합을 구성하기 위해 웹 문서를 임의로 선택하여 경제, 사회, 스포츠, 정치 등의 소수 범주에 대한 분류를 수행할 수 있는 시스템을 제안한다. 또한 다량의 문서를 확보한 후 더 다양한 범위의 문서 분류 방법 연구의 필요성을 설명한다.
<h1>3. 문서 특성 추출 및 분류 모델</h1><p>본 연구에서 제안하는 문서 특성 추출 및 분류 모델 생성은 그림 1에 도시되어 있는 과정을 거쳐서 수행된다. 문서를 효과적으로 분류하기 위해서 문서 집합을 크게 학습용 집합(training set)과 검증용 집합(testing set)의 두 종류로 나눈다. 학습용 집합은 다시 분류 모델의 생성을 위한 모델 생성용과 모델 평가를 위한 모델 평가용 집합으로 나누어지고, 검증용 집합은 분류 모델의 성능을 검증하기 위하여 사용한다.</p><p>본 연구에서 제안한 문서 특성 추출은 먼저, 한글 형태소 분석기를 사용하여 각각의 문서 집합에서 사용되는 용어를 추출하고 각 용어의 빈도를 파악한 후, 각각의 문서의 크기를 고려하여 용어의 빈도를 정규화한다. 다음으로 추출한 용어 중 주제를 정확하게 분류할 수 없는 용어를 제외함으로써 주제 분별 용어 집합을 구성한다. 그리고 모델 생성용 집합에서 나타나는 주제 분별 용어의 빈도와 분별력을 기초로 각 주제 분별 용어에 대하여 점수화하여 주제 분별 용어 점수표(score table)를 생성한다.</p><p>분류 모델 생성은 주제 분별 용어 점수표에 기초하여 높은 성능을 보이는 것으로 알려진 기존의 의사 결정 트리 및 신경망 기법, 그리고 SVM 을 구현한 상용 소프트웨어 SPSS Clementine 14.1 을 사용하였다. 각각의 방법에 의해 생성된 모델에 대하여 평가 및 검증 수행하고, 이를 통해 우수한 성능을 보이는 모델을 선택하여 최종 모델을 확정한다.</p><h2>3.1 문서 특성 추출</h2><h3>3.1.1 용어 추출 및 빈도 파악</h3><p>문서 범주화를 위해 사용되는 특성은 일반적으로 문서의 표제어 또는 색인어, 본문, 참고문헌 제목 등에서 사용되는 용어를 기반으로 한다. 한글은 영어와 달리 교착어이므로 어근에 여러 첨가가 발생하기 때문에 이러한 용어 기반의 특성을 정확히 추출하기 위해서는 조사나 어미의 구분이 필요하다. 이러한 한글의 용어 분석은 상당한 노력을 요구하게 되므로 이를 기계적으로 처리할 수 있는 방법에 대한 연구가 많이 진행되고 있다. 본 연구에서는 문서 내의 용어를 추출하기 위해서 한국어 형태소 분석기를 이용하였다. 이를 통해서 각 문서 내에 포함되어 있는 용어와 각각의 빈도를 파악할 수 있다. 그림 2는 한국어 형태소 분석기를 이용하여 얻어지는 용어와 빈도가 기록된 텍스트 파일의 예이다.</p><h3>3.1.2 용어 빈도 정규화</h3><p>하나의 문서 내에 포함된 용어의 빈도를 바탕으로 서로 다른 주제에 속하는 문서들 사이에 용어 빈도의 차이를 비교하려면 먼저 이들 문서의 용어 빈도가 상호 비교할 수 있는 수준이어야 한다. 즉, 문서의 크기가 크면 그 문서에서 나타나는 용어들의 절대 빈도도 증가하므로 용어의 빈도를 문서 크기에 따라 정규화 해야 한다. 이를 위해 각 문서 별로 출현 용어의 총 누적 빈도를 분석하고, 다음으로 각 해당 용어의 빈도를 구해 문서 크기에 따라 정규화된 문서별 용어 빈도 \( T N_{i j k} \)를 각각의 용어에 대하여 도출한다. 즉, \( T N_{i j k} \)는 주제 \( i \)에 속하는 문서 \( k \) 에서 나타나는 용어 \( j \)의 문서 크기에 따른 용어 빈도 정규화 값을 의미하며, 이를 수식으로 표현하면 다음 식(1)과 같다.</p><p>\[ T N_{i j k}=\frac{\text { 문서 } k \text { 에서 해당 용어 } j \text { 의 빈도 }}{\text { 주제 } i \text { 속해당문서 } k \text { 의 총용어 빈도 합 }} \]<caption>(1)</caption></p>
본 연구를 통해 먼저는 학습용, 검증용 집합을 통해 효율적 문서 분류를 한 후, 문서들을 집합 시켜 한글 형태소 분석기의 과정들을 거치게 되는 문서 특성 추출과 다음으로 주제 분별 용어 점수표를 중심 삼아 의사 결정 트리 및 신경망 기법과 SPSS Clementine 14.1 상용 소프트웨어를 사용하는 분류 모델 생성에 관한 두 가지 과정들을 살펴 보았다.
<h3>3.1.3 주제 분별 용어 선정</h3><p>문헌 내에는 수많은 용어가 사용되기 때문에 모든 용어를 그대로 이용할 경우 계산 및 메모리 공간의 효율적인 측면에서 문제점이 발생하며 문서 범주화 성능에도 역시 좋지 않은 결과를 초래한다. 따라서 적절한 수준으로 특성을 축소(reduction)할 필요가 있다. 여기서는 문서의 주제 분류에 도움이 될 수 있는 특성의 기준을 수립하여 축소된 특성을 주제 분별 용어, 혹은 키워드라 부르며, 각 용어는 주제 분별력에 대한 수치 값을 갖는다.</p><p>주제 분별 용어는 특정 용어가 특정 주제에서 자주 나타날 경우 해당 용어의 빈도 정보를 이용하여 문서의 주제를 판단할 수 있을 것이라는 아이디어에서 출발한다. 따라서 각각의 용어가 개별적인 문서에서 나타나는 빈도가 아닌 각 주제에서 나타나는 모든 용어의 누적 빈도를 분석해야 한다. 주제 \( i \)에서 나타나는 용어 \( j \)의 정규화된 빈도의 총 누적치 \( C T N_{i j} \)는 다음 수식(2)로 표현된다.</p><p>\[ C T N_{i j}=\sum_{j=1}^{n} T N_{i j} \]<caption>(2)</caption></p><p>위 식에서 \( T N_{i j} \)는 주제 \( i \)에서 나타나는 용어 \( j \)의 정규화된 빈도를 나타낸다. 이때 용어의 총 개수를 \( n \)이라 하면, 주제 \( i \)에서 나타나는 용어 \( j \)의 총 누적 정규화 빈도 \( C T N_{i j} \)는 \( T N_{i 1} \)부터 \( T N_{i n} \)의 총 합이 된다. 문서 집합은 사전에 정의된 주제 분류 체계에 대한 정보를 갖고 있다. 각 주제에 속하는 문서의 합이 같더라도 주제마다 용어의 종류와 크기가 다르기 때문에 각각의 주제 내 문서들에 대하여 해당 용어의 총 누적 정규화 빈도 \( \left(C T N_{i j}\right) \)를 고려하여 정규화 값을 얻는다. 즉, 같은 주제 상의 모든 문서에 출현하는 각 단어들의 정규화된 빈도 값을 가지고 평균과 표준편차를 이용하여 정규화된 값 \( Z C T N_{i j} \)을 구할 수 있다.</p><p>\[ Z C T N_{i j}=\frac{C T N_{i j}-\operatorname{Mean}\left(C T N_{i}\right)}{S t d v\left(C T N_{i}\right)} \]<caption>(3)</caption></p><p>위 수식(3)에서 정규화한 수치 \( Z C T N_{i j} \)는 주제 \( i \)에서 나타나는 용어 \( j \)의 총 누적 정규화 빈도 \( C T N_{i j} \)에서 주제 \( i \)에서 나타나는 용어들의 총 누적 용어 정규화 빈도의 평균 \( \operatorname{Mean}\left(C T N_{i}\right) \)을 뺀 후, 주제 \( i \)에서 나타나는 용어들의 총 누적 용어 정규화 빈도의 표준편차 \( \left.S t d v\left(C T N_{i}\right)\right) \) 로 나눈 값으로 표현된다. 각 주제에 속한 용어들 가운데 주제별로 유사한 빈도를 가지는 경우에는 특정 주제에 대한 분별력이 떨어진다고 할 수 있다. 따라서 이러한 용어들은 제거의 대상이 되고, 차원을 축소(dimension reduction)할 수 있는 기회를 제공한다. 수식(3)을 통해서 각 용어들은 모든 주제에 대하여 정규화한 수치 \( \left(Z C T N_{i j}\right) \) 를 가지게 된다. 따라서 각 용어의 \( Z C T N_{i j} \) 를 이용하여 표준편차를 구할 수 있는데 이는 주제 분별력을 나타낸다. 주제 분별력 \( V_{j} \) 는 다음 수식(4)로 표현될 수 있다.</p><p>\[ V_{j}=\sqrt{\frac{\sum_{i=1}^{p}\left(Z C T N_{i j}-\operatorname{Mean}\left(Z C T N_{i j}\right)\right)^{2}}{p}} \]<caption>(4)</caption></p><p>식(4)를 통해 각 용어들의 주제 분별력을 산출하면, 각 용어들에 대해서 주제별로 점수화할 수 있다. 이렇게 주제별로 나타낸 주제 분별력 점수에 대한 평균 \( m S T D \)을 식(5)를 통해 구하고, \( m S T D \)에 임의의 배수를 곱하여 산출한 값을 기준 (축소 기준 \( C \) )으로 하여 주제 분별에 효과적인 용어만을 추출하게 된다. 식(5)에서 \( s t d v\left(Z C T N_{i j}\right) \)는 각 용어의 주제 분별력 점수이고, \( Z C T N_{i j} \)의 표준편차를 의미하며, \( Mean \)은 \( s t d v\left(Z C T N_{i j}\right) \)의 평균을 의미한다. 축소 기준 \( C \) 를 수식으로 표현하면 식(6)과 같다. 즉, \( m S T D \)에 임의의 배수 \( x \) 를 곱한 값이 각 용어의 주제 분별력 \( V_{j} \) 보다 크면 그 용어는 제거됨을 의미한다. 그렇게 함으로써 주제를 정확하게 분류할 수 없는 용어를 제거하여 주제 분별 용어만을 추출하고, 동시에 차원을 축소하여 효율적인 처리가 가능하게 할 수 있다.</p><p>\[ m S T D=mean\left(stdev\left(Z C T N_{i j}\right)\right) \]<caption>(5)</caption></p><p>\[ \text { 축소기준 } C=m S T D \times x \]<caption>(6)</caption></p>
문헌 내에는 수많은 용어가 사용되기 때문에 계산 및 메모리 공간의 효율적인 측면에서 문제가 발생해 특성을 축소할 필요가 있다. 주제 분별 용어는 각 주제에서 나타나는 모든 용어의 누적 빈도를 분석한다. 먼저 같은 주제 상의 출현하는 단어들의 정규화된 빈도 값을 가지고 정규화된 값을 구한 다음 유사한 빈도를 가진 용어들은 제거의 대상이 된다. 주제별로 주제 분별력 점수에 대한 평균을 구하고 산출한 값을 기준으로 하여 주제 분별을 효과적으로 한다.
<h1>1. 서 론</h1><p>초고속 인터넷과 고성능 컴퓨팅 시스템 및 대용량 데이터베이스와 같은 정보기술의 발전으로 웹 문서가 양산되고 있으며, 이에 따라 증가하는 웹 문서를 효율적으로 관리하고 검색할 수 있는 방법이 중요한 문제가 되고 있다. 수많은 웹 문서를 효율적으로 관리하고 검색하기 위해서 일반적으로 문서의 주제에 따른 분류 방식을 사용하며 문서의 양이 크게 증가함에 따라 문서 분류를 위한 노력 역시 증가하게 되었다. 특히 인터넷 신문, 잡지 등의 웹 문서와 같은 비구조적(non-structured) 문서의 경우, 문서의 주제를 판단하기 위해 상세한 태그가 있는 구조적 문서에 비해서 훨씬 많은 노력이 요구되기 때문에 효율적인 문서 관리를 위해서는 주제 판단을 자동 처리할 수 있는 방법이 필요하다.</p><p>문서를 분류하는 방법에는 문서 클러스터링과 문서 범주화가 있다. 본 논문에서는 주제 분류에 대한 사전 정의가 이루어진 경우, 새로운 웹 문서를 어떠한 주제로 분류할 것인가에 대한 판단에 기초하여 문서를 자동으로 분류하는 문서 범주화 방식을 다룬다. 본 논문에서 사용하는 용어 중 '주제'는 문서를 분류하기 위하여 사전에 정의된 문서의 클래스 (예를 들면, 경제, 사회, 스포츠, 정치 등)를 말하며, '문서 범주화'는 주어진 문서에 사전에 정의된 주제를 할당하는 과정이다. 또한, '키워드'는 주제를 분별하기 위하여 문서로부터 추출된 주제 분별 용어라 정의한다.</p><p>문서 범주화는 특성 추출(feature extraction)과 분류 모델 생성의 두 가지 핵심 요소로 이루어지며, 이들 과정에서 사용되는 방법에 따라 시스템의 성능이 크게 달라진다. 일반적으로 특성은 문헌 내의 용어(term) 또는 색인어(index term)로 표현되며, 문서의 주제 판단에 유용하게 사용될 수 있는 용어를 나타낸다. 이러한 특성 추출 과정에는 TF-IDF (term frequency-inverse document frequency), 상호 정보 (mutual information), 카이 제곱 통계량(χ2), 정보 획득량 (information gain) 등의 방법이 사용된다. 특성 추출 과정을 통해 파악된 특성들을 기반으로 문서 주제 판단을 위한 분류 모델을 구성하게 되는데, 주로 나이브 베이즈(na\(\ddot{i}\)ve Bayes), SVM, K-NN (K-nearest neighbor), 신경망 등의 방법이 사용된다.</p><p>본 논문은 문서 특성 추출 방법의 개발에 초점을 두었으며, 분류 모델 생성은 기존의 상용 소프트웨어를 사용하였다. 기존의 문서 특성 추출 방법들은 주로 문서에서 사용된 색인어 또는 표제어 등의 중요 용어에 대하여 각각의 빈도를 파악하고, 중요성에 따라 가중치를 부여하는 방식을 많이 사용한다. 이때 용어의 빈도는 각각의 문서에서 몇 번 출현하였는가를 기준으로 계산된다. 그러나 보다 정확한 분류를 위해서는 각 문서에 출현하는 용어의 빈도 뿐 아니라, 각 용어가 해당 주제의 문서들에서 나타나는 누적 빈도도 같이 고려해야 한다.</p><p>본 논문에서는 먼저, 문서 특성 추출을 위하여 한글 형태소 분석기를 사용하여 문서로부터 용어를 선별하고, 각 용어의 빈도와 주제 분별력을 기초로 주제 분별 용어인 키워드 집합을 생성한다. 다음으로, 각 키워드에 대하여 해당 주제의 문서들에서 나타나는 누적 빈도를 고려한 주제 분별력을 기초로 이를 점수화하여 문서 특성을 추출한다. 마지막으로, 추출된 문서 특성을 기초로 상용 소프트웨어를 사용하여 정확한 분류 방법으로 널리 알려진 의사 결정 트리, 신경망 및 SVM의 세 가지 분류 모델을 생성하여 문서를 분류하였다.</p><p>본 논문의 구성은 다음과 같다. 2장에서는 문서 특성 추출 및 분류 모델 생성에 대한 관련 연구들을 소개한다. 3장에서는 문서 특성 추출 과정 및 웹 문서에서 주제 분별 용어 집합을 구성하고 점수화하는 과정을 제시하고, 주제 분별 용어의 분별력과 빈도를 기반으로 학습 모델 생성을 위한 과정을 기술한다. 4장에서는 시스템 구현에 관하여 설명하며, 5장에서는 실험 환경과 자료 구성을 소개하고, 실험 결과에 대해 분석한다. 6장에서는 결론 및 향후 연구 방향에 대하여 언급한다.</p>
초고속 인터넷, 고성능 컴퓨팅 시스템, 대용량 데이터베이스 등 정보기술의 발전으로 웹 문서가 양산되고 있으며, 증가하는 웹 문서들은 문서 클러스터링과 문서 범주화를 통해 분류할 수 있다. 문서 범주화는 분류 모델 생성과 특성 추출의 두 가지 핵심 요소로 이루어지며, 특성 추출 과정에는 TF-IDF, 상호 정보, 카이 제곱 통계량, 정보 획득량 등의 방법이 사용된다. 각 문서에 출현하는 용어의 빈도 뿐 아니라, 각 용어가 해당 주제의 문서들에서 나타나는 누적 빈도도 같이 고려하여 더 정확한 분류를 할 수 있다.
<h1>2. 관련 연구</h1><p>폭발적으로 증가하는 문서의 양으로 인해 효율적이며 정확한 문서 범주화 결과에 대한 수요가 급증하는 추세이다. 정보의 양적 증가와 이에 따른 분류 작업의 양적 증가는 기존의 수작업으로 관리하기 어려운 수준에 이르렀으며, 분류 대상이 되는 정보의 유형도 기존의 책자 형태의 정보와 함께 전자 형태의 정보까지 확대되었다. 이에 따라 문서를 자동으로 분류하는 과정은 문서의 효율적 관리 측면에서 매우 중요하다. 본 논문은 문서 범주화의 핵심 요소 중 특성 추출 방법에 초점을 두고 있으므로 이에 관한 국내외 관련 연구를 주로 살펴보고, 분류 모델 생성에 관해서는 간단히 언급하기로 한다.</p><p>특성 추출 관련 연구는 용어에 기초하는 방법(통계적 방법)과 문장에 의존하는 방법(의미적 해석), 문헌 구조에 의존하는 방법(구조적 방법)으로 구별된다. 이 가운데 문헌에 나타난 용어의 특성 분석을 바탕으로 하는 자동 분류 시스템의 연구가 활발하게 이루어지고 있으며, 한글과 영어는 형태론적 구조가 다르므로 형태소 추출 과정은 다르지만 추출된 용어의 빈도 등의 특성 분석은 본질적으로 유사하다. 용어의 특성 분석을 바탕으로 하고 있는 국내 연구로서, 성기윤, 윤보현의 연구는 정교한 언어 분석을 통한 개체명 인식 결과를 바탕으로 인명, 지명, 회사명, 물품명 등 개념어 기반의 기법을 제안하였다. 그러나 개체명에 키워드를 추가하여 수행하였기 때문에 개체명만의 클러스터링의 우수함을 보이지는 못하였다. 남영준, 김규환의 연구는 추출한 특성을 벡터로 표시하여 이를 SVM에 적용함으로서 문서 범주화를 수행하였고, 최종적으로 유사어 사전을 부여하기 전과 부여한 후의 자동 범주화 실험 수행 결과를 비교 분석하였다. 그러나 일차원적인 범주 모델을 확대하여 계층적인 자동 범주 및 자동 분류 모델의 개발이 필요하다는 과제를 남기고 있다. 배원식 외 2인의 연구는 문서 내에서 동시에 출현하는 단어 쌍을 특성 추출 단위로 하는 문서 범주화 시스템에 대하여 연구하였다. 실험 결과, 문서 범주화 시스템의 성능이 향상되는 것을 보여주었으나 동시 출현 단어 쌍을 단위로 특성 후보를 생성하면 단일 단어에 비해 훨씬 많은 특성 후보가 생성되어 계산 비용이 증가하는 문제점이 있다.</p><p>용어의 특성 분석을 바탕으로 하고 있는 국외 연구로서 Ludovic et al.은 문서에 나오는 용어들을 적합 용어 집합과 부적합 용어 집합으로 나누고, 적합 단어 집합의 용어들에 대하여 가중치 접근 방법을 사용하여 문서 범주화를 시도하였다. Chen et al.은 관련 있는 용어들의 군집화 집단으로 문서를 구분하고, 문서의 특성을 이용하여 각 군집을 분류하는 방법을 사용하여 문서를 범주화하였다. 또한, Thanaruk은 웹에서 추출한 웹 문서를 대상으로 텍스트 마이닝(text mining)을 수행하기 위하여 문서를 윈도우 방식의 문단으로 구분하였고, 문단 정보와 각 문단에서 용어의 상호 출현 빈도의 두 가지 정보를 이용하여 문서를 범주화하였다.</p><p>한편, 분류 모델 생성 관련 연구는 다양한 기법에 기초를 두고 있다. 널리 알려진 국외 연구로서, Carnegie Mellon 대학에서는 Naive-Bayes 이론을 이용하여 분류 모델을 생성하였고, 사례 기반 추론이나 인공 신경망, 의사 결정 트리, 그리고 SVM 등을 이용한 분류 모델 생성 방법들이 널리 이용되고 있다.</p><p>본 논문에서는 주제 분별력이라는 개념을 도입하여 키워드 집합을 생성하고, 각 키워드에 대하여 누적 빈도를 고려하여 점수화함으로서 문서 특성을 표현하였다. 또한, 용어 선정에 있어서는 개체명과 키워드를 구분 짓지 않음으로서 기존 연구의 단점을 극복하였고, 분류 성능을 높였다.</p>
문서의 자동 분류는 용어의 특성 분석을 바탕으로 하는 방법이 활발하게 이루어지고 있다. 또한 분류 모델 생성 관련 연구는 다양한 기법을 사용하고 있다. 본 논문에서는 주제 분별력이라는 키워드 집합과 누적 빈도를 이용하고 용어 선정에서 기존의 단점을 극복하고자 한다.
<h1>1. 서 론</h1> <p>전 세계적으로 모바일 디바이스의 사용이 늘어나고 있으며 이에 따라 모바일 데이터 트래픽도 함께 증가하는 추세이다. 모바일 데이터 트래픽은 2017년부터 2022년까지 \( 46 \% \) 정도의 연평균 성장률을 보일 것으로 예측하고 있다. 또한 2022년에 예상되는 모바일 데이터 트래픽은 \( 77 \mathrm{EB} / \mathrm{month} \) 인데, 이 중 비디오로 인한 트래픽이 \( 61 \mathrm{EB} / \mathrm{month} \) 를 차지할 정도로 비디오에 대한 수요가 매우 큰 것을 알 수 있다. 따라서 많은 비디오 콘텐츠에 대한 수요를 감당하기 위해서 짧은 지연 시간을 제공할 수 있는 능력과 매우 많은 양의 데이터를 처리하는 능력이 중요해졌다. 하지만 클라우드를 통해 데이터를 전달받을 경우 사용자로부터 멀리 있기 때문에 지연 시간이 길고 클라우드에 많은 트래픽이 몰려 네트워크에 혼잡성이 가중된다.</p> <p>이를 해결하기 위하여 사용자와 가까운 곳에 위치한 엣지 (edge) 서버에 캐싱하는 기법이 생겨났다. 엣지 서버에 저장된 데이터를 사용자에게 전송해주면 클라우드에 집중된 데이터 트래픽을 완화시킬 수 있고 사용자와 거리가 상대적으로 근접하기 때문에 빠른 속도로 데이터 전송이 가능하다. 또한 하나의 클라우드에 많은 기기가 연결되면 대역폭이 부족해 지면서 전송하는 패킷 손실의 위험이 있는데 이를 예방하고 전송 지연을 방지하는 효과를 가진다.</p> <p>캐싱을 위한 엣지 서버는 용도에 따라 다양하다. SBS, MBS와 같은 셀룰러 네트워크에 캐싱을 할 수 있고, Road Side Unit(RSU)와 같이 와이파이를 이용해 접근이 가능한 곳에 캐싱하기도 한다. 또한 이동성이 있는 기기를 엣지 서버로 사용할 수도 있다. 예를 들어, 모바일 기기 혹은 이동 중인 자동차, 버스와 같은 운송 수단에 존재하는 저장 공간을 사용해 캐싱할 수도 있다.</p> <p>모바일 사용자는 정적인 사용자와 다른 특성을 가지고 있는데 시간에 따라 데이터를 전송받는 위치가 계속 변경된다는 점이다. 사용자가 비디오 콘텐츠를 요구한 시간이나 장소에 따라 각각 다른 패턴을 보이기 때문에 모바일 사용자의 요구를 만족시키기 위해서 시간에 따른 사용자의 이동성을 함께 고려하는 것이 좋다.</p> <p>캐싱하는 환경을 구체적으로 설정하기 위해 지연 오프로딩스킴(delayed offloading scheme)을 사용하였다. 지연 오프로딩 스킴을 MBS와 SBS로 이루어진 이종 네트워크에 적용하면 사용자가 요구한 콘텐츠를 정해진 시간 내에 SBS를 통해 모두 서비스받지 못했을 때 남은 데이터를 MBS로부터 전달받게 된다. 이때 SBS보다 MBS로부터 다운받을 경우 필요한 비용이 더 커진다.</p> <p>본 논문에서는 지연 오프로딩 스킴을 적용하여 MBS로부터 전송받는 데이터 양을 최소로 줄이는 것을 목표로 모바일 사용자의 이동성을 고려해 이종 셀룰러 네트워크에 콘텐츠를 캐싱하는 기법을 제안하였다. 실험을 통해 MBS로부터 다운받는 양을 다른 알고리즘에 비해 \( 25 \sim 50 \% \) 정도 줄인 것을 확인하였다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서 움직이는 모바일 사용자를 위한 엣지 캐싱 기법들을 소개하였고 3장에서 새로운 알고리즘을 제시하였다. 4장에서는 기존의 다른 알고리즘과 비교를 통해 성능 평가를 하였고 5장에서 결론으로 마무리 지었다.</p>
모바일 디바이스의 사용이 늘어남에 따라 모바일 데이터 트래픽도 함께 증가하고 있다. 많은 비디오 콘텐츠 수요를 감당하기 위해, 짧은 지연 시간동안 많은 데이터를 처리하는 능력이 중요해졌다. 클라우드를 통한 방법은 지연시간이 길고 클라우드에 많은 트래픽이 몰려 네트워크의 혼잡성이 가중되므로, 이를 해결하기 위해 사용자와 가까운 곳에 위치한 엣지서버에 캐싱하는 방법이 생겨났다. 본 논문에서는 지연 오프로딩스킴을 적용하여 MBS로부터 전송받는 데이터 양을 최소로 줄이는 것을 목표로, 셀룰러 네트워크에 콘텐츠를 캐싱하는 기법을 제안하였다.
<h1>4. 성능 평가</h1> <p>실험환경은 모바일 사용자가 이동하는 \( (6,6) \) 의 좌표평면에 4개의 SBS가 설치돼있고 이 모든 SBS는 하나의 MBS의 영향을 받는다고 설정하였다. 각 SBS의 범위는 모두 동일하게 반경 \( 100 \mathrm{m} \) 를 가지고 있으며 좌표평면의 한 칸은 \( 25 \mathrm{m} \) 로, 모바일 사용자가 \( 1.25 \mathrm{m} / \mathrm{s} \) 속력으로 움직이면 20초가 소요된다. 따라서 시간 단위(time slot)를 20초로 설정하였다. 이동 경로들 사이의 출발 지점과 도착하는 목표 지점은 동일하고 모든 경로는 같은 길이를 가지고 있어 이동에 걸리는 시간은 13 time slot로 모두 같게 설정했다. 갔던 길을 되돌아가지 않기 위해 위 또는 오른쪽으로만 이동할 수 있다고 가정하였고, 현재 위치에서 오른쪽으로 갈 확률을 0.7, 위로 갈 확률을 0.3으로 가정해 각 경로의 확률을 계산하였다. 기본적으로 콘텐츠의 인기도를 구하기 위해 파라미터가 0.56인 지프 분포(zipf distribution)을 사용하였다. 실험은 모바일 사용자가 출발 지점에서 특정 콘텐츠를 요구하고 목표 지점에 도착하기 위해 거치는 SBS들로부터 요구한 콘텐츠를 최대한 많이 제공받아 최종적으로 MBS에게 받아야 하는 데이터 양을 줄이는 것을 목표로 하였다. 실험에 사용한 파라미터들은 Table 2에 정리하였다.</p> <p>제안한 알고리즘의 성능 평가를 위해 [5]에서 제시한 분산 탐욕 캐시 할당 알고리즘(Distributed Greedy Cache Allocation, DGCA)과 비교하였다. DGCA는 이동 경로의 확률과 파일의 인기도를 가중치 없이 계산에 사용해 캐싱을 진행하였고, 캐싱된 크기가 동일한 파일끼리 무리지어 \( R_{n} \) 만큼 늘이거나 줄여 파일을 재배치하였다. 이외에도 콘텐츠 파일의 인기도가 높은 순으로 캐싱하는 방법(popularity first, pop)을 비교에 사용하였다.</p> <p>Fig. 1과 Fig. 2는 SBS의 캐싱 가능한 용량을 저장할 대상 전체 크기인 \( B \times k \) 의 \( 10 \%, 20 \%, 30 \%, 40 \%, 50 \% \) 로 변경하면서 측정한 결과이다. Fig. 1을 보면 SBS의 캐싱 가능한 용량이 커지면서 모든 알고리즘이 전체적으로 MBS로부터 다운 받는 평균 데이터 크기가 줄어든다는 것을 확인할 수 있었다. 제안 알고리즘은 인기도가 높은 파일과 인기도가 낮은 파일을 고루 저장하고 있는 반면, DGCA와 pop는 비교적 인기도가 높은 파일을 위주로 캐싱하기 때문에 제안한 알고리즘이 MBS로부터 제공받는 콘텐츠 파일의 크기가 더 작아졌다. Fig. 2는 모바일 사용자가 요구한 1000번의 콘텐츠 파일 요구에 SBS를 통해서만 모두 전달받는 비율을 나타낸 것이다. 비교 알고리즘들에 비해 제안 알고리즘은 파일이 작은 크기로 비교적 여러 SBS에 캐싱돼 있어 경로를 지나가면서 요구한 콘텐츠 파일의 크기 전체를 모두 다운받을 수 있는 확률이 높아졌음을 확인할 수 있었다.</p> <p>Fig. 3과 Fig. 4는 전송 속도를 \( 4 \mathrm{Mbps} \) 에서 \( 12 \mathrm{Mbps} \) 까지 \( 2 \mathrm{Mbps} \) 씩 증가시키며 측정한 결과이다. Fig. 3에서 전송 속도가 낮을 때는 DGCA와 큰 차이를 보이지 않는데 그 이유는 두 알고리즘 모두 여러 콘텐츠 파일에 대해 적은 양을 캐싱하기 때문이다. 하지만 전송 속도가 커지면 DGCA는 인기가 많은 파일에 캐싱이 몰리고 제안한 알고리즘은 상대적으로 고루 캐싱하여 MBS로부터 다운받는 데이터 양의 차이가 증가하였다. \( 6 \mathrm{Mbps} \) 에서 감소하다 다시 증가하는 추세를 보이는데 그 이유는 전송 속도가 커지면서 \( T_{\min } \) 과 \( T \) 의 차이가 커져 결과에 좋지 않은 영향을 미치기 때문이다. pop는 인기도가 높은 파일을 순차적으로 캐싱하여 비교적 전송 속도의 영향을 덜 받았다. Fig. 4는 모바일 사용자가 요구한 1000번의 콘텐츠 파일 요구에 대해 SBS를 통해서만 전달받는 비율을 나타내었다. DGCA와 제안한 알고리즘이 전송 속도가 커질수록 결과값이 줄어드는 이유는 큰 크기로 적은 종류의 콘텐츠 파일을 캐싱하기 때문이다. 제안한 알고리즘은 DGCA에 비해 다양한 콘텐츠 파일을 고루 가지고 있어 비교적 좋은 결과를 보였다. pop 방식은 전송 속도에 영향을 적게 받아 크게 변동 없는 모습을 보였다.</p> <p>Fig. 5와 Fig. 6은 지프 분포의 파라미터를 0.2부터 0.8까지 0.2씩 증가시키면서 측정한 결과를 나타낸 것이다. 지프 분포의 파라미터가 1보다 작을 때 값이 커질수록 빈도가 쏠리는 현상이 높아지고, 값이 작을수록 고르게 분포한다. Fig. 5에서 모든 알고리즘이 지프 분포 파라미터가 커질수록 MBS로부터 다운받는 양이 감소하는 경향을 보였다. 이는 MBS로 부터 다운받는 평균 데이터 양인 \( d_{a v} \) 를 계산할 때 파일의 인기도 \( p_{k} \) 를 곱하는데 지프 분포 파라미터가 크면 적은 수의 파일에 인기도가 몰리고 나머지 많은 수의 콘텐츠 파일의 인기도가 매우 작아져 \( d_{a v} \) 에 영향을 끼치는 정도가 줄어들기 때문이다. Fig. 6은 모바일 사용자가 요구한 1000번의 콘텐츠 파일 요구를 SBS를 통해 전송받은 비율을 나타냈다. 제안한 알고리즘과 pop 알고리즘은 지프 분포의 변화에도 성능이 일정한 반면 DGCA는 감소하는 모습을 보였다. 제안한 알고리즘은 여러 콘텐츠 파일을 고루 캐싱했기 때문에 모바일 사용자의 요구를 잘 수용할 수 있었고 pop 방식은 항상 인기도를 우선으로 캐싱하기 때문에 사용자의 요구를 제대로 반영하지 못해 낮은 결과를 보였다. DGCA는 인기도가 높은 특정 파일들에 대해서만 캐싱하는 비율이 높아져 사용자가 요구하는 콘텐츠 파일을 SBS를 통해 전달하는 확률이 낮아졌음을 확인할 수 있었다.</p> <p>Fig. 7과 Fig. 8은 모바일 사용자가 접근할 수 있는 SBS 수가 평균적으로 일정한 상황에서 MBS로부터 전송받는 크기를 측정한 결과이다. Fig. 7은 모바일 사용자가 항상 동일한 수의 SBS에 접근할 때의 결과값으로 pop 방식은 MBS로부터 전송받는 양이 항상 일정한 반면 제안한 알고리즘과 DGCA는 모바일 사용자가 접근할 수 있는 SBS 수가 증가할 수록 MBS로부터 다운받는 크기가 줄어드는 결과를 보였다. SBS의 수가 적을 때는 DGCA가, SBS의 수가 많을 때는 제안한 알고리즘의 성능이 더 좋은 결과를 보였다. 그 이유는 제안한 알고리즘이 SBS의 수가 적을 때 캐싱된 파일의 종류가 다양하지만 조금씩 저장하고 있어 평균적으로 MBS로부터 다운받는 콘텐츠 파일의 크기가 증가하기 때문이다. 반대로 SBS 수가 많으면 사용자가 접근 가능한 SBS들에 캐싱된 파일이 다양하면서도 각 파일의 크기 총합이 커져 MBS로부터 다운받는 콘텐츠 파일 양이 줄어들었음을 확인할 수 있었다. Fig. 8은 모바일 사용자가 접근할 수 있는 SBS 수가 포아송분포를 따를 때 MBS로부터 다운받는 데이터의 평균 크기를 나타내었다. SBS마다 캐싱한 콘텐츠 파일과 그 크기가 모두 다르기 때문에 모바일 사용자는 이동하면서 접근 가능한 SBS의 수가 많아질수록 많은 종류의 콘텐츠 파일을 전송받을 확률이 높아지게 된다. SBS의 수가 포아송 분포를 따르게 되면 평균적으로 만나는 SBS 수는 동일하더라도 경로에 따라서 접근 가능한 SBS가 달라져 모바일 사용자는 여러 SBS에서 요구한 파일을 얻을 수 있었다. 따라서 MBS로부터 다운받는 콘텐츠 파일의 평균 크기를 줄이기 위해서는 다양한 SBS에 접근하는 것이 중요하다는 것을 확인할 수 있다.</p>
DGCA에 비해 제안 알고리즘은 파일이 작은 크기로 여러 SBS에 캐싱돼 있어 경로를 지날 때 콘텐츠 파일의 크기 전체를 모두 다운받을 수 있는 확률이 높고 다양한 콘텐츠 파일을 가지고 있다. 또한 여러 콘텐츠 파일을 고루 캐싱하여 사용자 요구를 잘 수용할 수 있으다. SBS의 수가 많을 때 좋은 성능을 보였는데 이는 SBS의 수가 적으면 캐싱된 파일의 종류가 다양하지만 조금씩 저장하고 있어 평균적으로 MBS로부터 받는 파일의 크기가 증가하기 때문이다. 따라서 다양한 SBS로의 접근이 중요하다.
<h1>3. 제안 기법</h1> <p>본 논문에서는 걷는 사람들이 지닌 모바일 디바이스를 모바일 사용자로 정의하였다. 이동하는 속도는 인간이 걷는 평균 속도를 고려해 \( 1.25 \mathrm{m} / \mathrm{s} \) 로 결정하였다. 셀룰러 네트워크는 하나의 MBS와 다수의 SBS로 이루어진 이종 네트워크를 구성하고 각 콘텐츠 파일의 인기도와 이동하는 경로에 대한 확률은 사전에 주어진다고 가정하였다.</p> <p>본 연구의 목적은 모바일 사용자가 요구한 콘텐츠를 정해진 시간 내에서 SBS를 통해 최대한 많이 다운받아 MBS로부터 전송받는 데이터를 최소화하는 것이다. MBS로부터 콘텐츠를 전달받게 되면 SBS보다 많은 비용이 필요하기 때문이다.</p> <p>MBS로부터 다운받는 데이터의 평균 크기를 계산하기 위해서는 각 경로 \( m \) 에서 SBS \( n \) 에 머무는 시간 \( S_{m, n}, SBS \( n \) 의 전송 속도 \( R_{n} \), 구해야 하는 캐싱 정책 \( x_{n, k} \) 이 필요하다. 본 논문에서는 모든 콘텐츠 파일의 크기가 \( B \) 로 같다고 가정하였고 각 경로 \( m \) 으로 이동할 때, MBS에서 다운받아야 하는 콘텐츠 \( k \) 의 크기 \( d_{k, m} \) 을 식으로 나타내면 다음 Equation (1)과 같다.</p> <p>\( d_{k, m}=\max \left\{B-\left(\sum_{n=1}^{N} \min \left\{x_{n, k}, R_{n} S_{m, n}\right\}\right), 0\right\} \)<caption>(1)</caption></p> <p>알고리즘에서 사용하는 파라미터들은 Table 1에 정리하였다. MBS에서 다운받는 평균 데이터 크기를 구하기 위해서는 모든 가능한 경로와 파일의 인기도를 함께 고려해야 한다. 각 경로의 확률 \( q_{m} \) 와 파일의 인기도 \( p_{k} \) 를 고려해 SBS에서 전송받지 못해 MBS를 통해 전달되는 데이터의 평균 크기 \( d_{a v} \) 는 다음 Equation (2)로 정리할 수 있다.</p> <p>\( d_{a v}=\sum_{m=1}^{M} \sum_{k=1}^{K} q_{m} p_{k} d_{k, m} \)<caption>(2)</caption></p> <p>\( X_{T} \) 를 \( T \) 시간 이 주어졌을 때 결정되는 캐싱 방법이라고 정의하면, 위 식들을 이용해 MBS로부터 다운받는 데이터를 최소화하는 문제를 정의하면 다음 Equation (3), (4)와 같다.</p> <p>P1: \( \min_{X_{T}} d_{a v} \)</p> <p>subject to: \( \sum_{k=1}^{K} x_{n, k} \leq C_{n}, \forall n \).<caption>(3)</caption></p> <p>\( x_{n, k} \geq 0, \forall n, k \).<caption>(4)</caption></p> <p>문제를 해결하기 위한 제안 알고리즘은 두 단계로 이루어져 있다. 첫 번째 단계는 SBS 영역이 겹치는 것을 고려하지 않고 캐싱을 하는 과정이고, 두 번째 단계는 SBS의 범위가 서로 겹치는 것을 고려해 캐싱된 파일을 재배치하는 과정이다. 전송 속도가 \( R_{n} \) 일 때, 콘텐츠 크기가 \( B \) 인 데이터를 모두 전송하기 위한 가장 짧은 시간을 \( T_{\min } \) 이라고 하면 \( T_{\min } \) 안에 SBS \( n \) 으로부터 받을 수 있는 파일 \( k \) 의 크기는 다음 Equation (5)와 같다.</p> <p>\( \begin{aligned} \tilde{d}_{a v, n}^{k}=& \sum_{t=1}^{T} \sum_{m: S_{m, n} \geq t} p_{k} q_{m} \max \left\{\min \left\{x_{n, k}-(t-1) R_{n}, R_{n}\right\}, 0\right\} \end{aligned} \)<caption>(5)</caption></p> <p>지연 오프로딩 스킴을 적용했기 때문에 MBS에서 최소로 다운받는 것의 의미는 SBS를 통해 최대로 다운받는 것과 의미와 동일하다. 따라서 MBS로부터 전송을 적게 받기 위해서는 \( \tilde{d}_{a v, n}^{k} \) 을 최대로 만들면 된다. Equation (5)는 \( \sum_{m: S_{m, n} \geq t} p_{k} q_{m} \) 가 커질수록 결과값이 같이 증가하므로 \( \tilde{d}_{a v, n}^{k} \) 를 최대로 만들기 위해서는 가장 큰 \( \sum_{m: S_{m n} \geq t} p_{k} q_{m} \) 를 선택해 Equation (5)에 대입하면 된다. 즉, 최대 \( \sum_{m: S_{m n} \geq t} p_{k} q_{m} \) 인 파일 \( k \) 를 \( R_{n} \) 만큼 SBS \( n \) 에 캐싱하면 된다. 하지만 이 방법은 \( T_{\min } \) 이 전체 시간 \( T \) 보다 작다면 최적의 값이 아닐 수도 있다. 따라서 추가적인 방법을 고려해 파일의 인기도에 더 큰 가중치 \( \alpha \) 를 준 \( \sum_{S_{m u \geq} \geq t}\left(p_{k}+\alpha\right) q_{m} \) 를 계산하였다. 인기도가 높은 파일 위주로 캐싱을 하게 되면 사용자가 요구한 콘텐츠의 전체 크기 \( B \) 를 모두 다운받는 것이 힘들어지기 때문에 \( \beta \) 만큼의 확률로 랜덤한 파일을 선택해 \( R_{n} \) 만큼 캐싱하고, \( (1-\beta) \) 만큼의 확률로 가장 큰 \( \sum_{m: S_{m, n} \geq t}\left(p_{k}+\alpha\right) q_{m} \) 값을 가지는 큰텐츠 \( k \) 를 선택해 \( R_{n} \) 만큼 캐싱한다.</p> <p>두 번째 단계는 SBS의 영역이 서로 중복되는 것을 고려하기 위해 각 SBS 범위가 다른 SBS와 중복되는 정도에 따라 범위를 나눠 저장된 파일을 재배치하는 것이다. 만약 모바일 사용자가 SBS들의 영역이 중복되는 위치에 있다면 각 SBS가 서로 다른 내용을 가지고 있을 때 다양한 파일을 저장하고 있어 모바일 사용자가 요구한 콘텐츠를 제공할 수 있는 가능성이 높아진다. SBS 사이의 영역 중첩 정도를 \( 20 \% \) 이하, \( 20 \sim 40 \% \) 사이, \( 40 \% \) 이상으로 분류하고, 중복되는 범위가 클수록 해당 SBS는 다른 SBS와 협업할 수 있는 기회가 많아 다양한 콘텐츠를 제공할 수 있도록 재배치할 용량을 증가시켰다. 영역이 중복되지 않는 SBS에 대해서는 재배치를 고려하지 않았다. 두 SBS가 캐싱한 콘텐츠 중 동일한 파일을 저장한 용량의 특정 비율만큼 재배치했는데, 중첩되는 영역이 \( 20 \% \) 이하면 \( \tau, 20 \sim 40 \% \) 사이는 \( (\tau \times 2) \), \( 40 \% \) 이상은 \( (\tau \times 3) \) 만큼 재배치하였다.</p> <p>재배치하기 위해 먼저 범위가 중복되는 두 SBS 중 모바일 사용자가 갈 확률이 높은 SBS를 파악하였다. 경로 확률을 통해 모바일 사용자가 머무를 가능성이 더 큰 SBS를 구별할 수 있는데, 해당 SBS의 인기도가 높은 파일 중에서 비교적 인기도가 낮은 파일들을 재배치할 용량만큼 제거하고 랜덤한 콘텐츠를 \( R_{n} \) 만큼 캐싱해준다. 인기도가 높은 파일이란 클러스터 \( H \) 에 속하는 파일을 의미한다. 클러스터 \( H \) 는 캐싱 알고리즘의 첫 번째 단계를 거친 이후 SBS에 캐싱된 파일을 인기도 순으로 정렬했을 때 연속적으로 저장된 파일이 형성하는 클러스터를 의미한다. 이 클러스터 \( H \) 에 속하면서 가장 낮은 인기도를 가진 파일부터 순차적으로 \( R_{n} \) 만큼씩 콘텐츠 크기를 제거하였다. 만약 클러스터에 내부에 있는 모든 파일에 대해 크기를 \( R_{n} \) 만큼씩 제거해도 총 재배치 해야 하는 용량에 도달하지 못했다면, 해당 과정을 반복해 재배치 용량만큼 모두 제거될 수 있을 때까지 계속 진행한다. 새로 캐싱할 파일은 다양한 콘텐츠가 포함될수록 MBS로부터 다운받는 데이터의 평균 크기가 줄어들기 때문에 랜덤하게 콘텐츠를 선택해 \( R_{n} \)만큼 새로 저장하였다. 재배치 과정이 끝나면 인기 있는 콘텐츠의 파일의 일부 저장하면서도 다양한 파일을 함께 캐싱하기 때문에 모바일 사용자가 요구하는 파일이 없는 상황에서 서비스 영역이 중첩되는 다른 SBS를 사용해 더 유연하게 대처할 수 있게 된다.</p>
걷는 사람들을 모바일 사용자로 규정하고 사용자가 요구한 콘텐츠를 비용감소의 목적으로 빠르게 SBS를 통해 많이 내려받아 MBS로부터의 데이터를 최소화해야한다. 1 단계는 \( \begin{aligned} \tilde{d}_{a v, n}^{k}=& \sum_{t=1}^{T} \sum_{m: S_{m, n} \geq t} p_{k} q_{m} \max \left\{\min \left\{x_{n, k}-(t-1) R_{n}, R_{n}\right\}, 0\right\} \end{aligned} \)을 이용한 SBS 영역이 겹치는 것을 제외하는 캐싱 과정이고, 2 단계는 SBS의 범위가 교차되는 것을 고려해 캐싱된 파일을 재배치한다. 표시한 캐싱 재배치 과정이 끝나면 콘텐츠의 자료 일부를 보관과 동시에 다양한 파일을 캐싱하여 사용자가 요청하는 자료가 없는 상황에서 서비스 영역이 겹치는 다른 SBS를 이용해 더 유연하게 대처 가능하다.
<h1>2. 관련 연구</h1> <p>이동성을 고려해 엣지 서버에 캐싱하는 방법은 모바일 디바이스나 차량과 같은 모바일 사용자의 종류, 캐싱 종류 그리고 캐싱 목적에 따라 모습이 다양하다. 먼저 모바일 사용자가 차량이라면 빠른 속도에 반응하기 위해 미리 캐싱을 해주는 기법을 사용하기도 하는데 이를 proactive caching이라고 한다. [6]에서는 차량의 이동 패턴을 고려해 데이터를 분산시켜 미리 캐싱하였다. RSU의 부담과 저장된 데이터의 중복을 줄이는 것을 목표로 하고 해당 RSU에 사용자가 요구하는 데이터가 없다면 주변의 가까운 RSU에서 데이터를 획득하는 방식을 사용하였다. [7]은 개인 정보를 보호하고자 연합학습 (federated learning)을 사용해 콘텐츠의 인기도를 예측하고, 예측된 콘텐츠 중 가장 인기 있는 데이터를 위주로 RSU에 미리 저장해두는 방식을 제안하였다.</p> <p>데이터를 여러 곳에 저장하게 되면 저장된 장소가 서로 협력해 더 높은 hit ratio에 도달할 수 있고 짧은 지연 시간을 가지게 되는데 이를 cooperative caching이라고 한다. [9]는 차량과 차량, 차량과 기지국이 서로 연결된 계층적 캐싱 구조를 5G 네트워크 환경에서 구성하였다. 사람, 차량 등 다양한 엔드 유저(end user)에게 서비스를 제공해 지연 시간을 감소시키고 캐싱할 수 있는 공간을 효율적으로 이용하였다.</p> <p>데이터 캐싱을 결정할 때 불확실성이 높은 상황에 유연하게 대처하기 위해 계산된 확률에 의해 콘텐츠를 저장하는 것을 probabilistic caching이라고 한다. [11]은 차량이 RSU 범위 안에 머무는 시간과 해당 범위 안에 동시에 존재하는 다른 차량을 고려해 확률적으로 RSU에 캐싱하는 기법을 제안하였다. [12]는 차량의 이동 경로를 예측하고, 예측 결과로 나온 확률에 따라 RSU에 콘텐츠 양을 달리해 캐싱하는 방법을 제안하였다.</p> <p>캐싱 종류뿐 아니라 캐싱 목적에 따라서도 다양한 연구가 진행됐다. 사용자가 요구한 전체 데이터 중에서 전송받은 데이터의 비율을 hit ratio라 하는데 모바일 사용자가 모바일 기기일 경우 hit ratio를 높이기 위한 기법들이 제안됐다. [13]은 SBS와 헬퍼(helper)를 사용한 2단계 계층을 형성해 SBS의 범위에 속하는 헬퍼에는 해당 SBS에 캐싱된 콘텐츠와 다른 데이터를 저장해 hit ratio를 높였다. [14]는 hit ratio를 높이는 것을 목적으로 사용자 이동 패턴을 예측해 사용자 군집을 형성하고 분류된 군집에 알맞은 콘텐츠를 SBS에 캐싱하였다. 이를 통해 최종적으로는 에너지 효율을 높일 수 있게 되었다.</p> <p>사용자에게 콘텐츠 전달 지연 시간을 최소화하는 것을 목표로 하는 연구도 있다. [15]는 기지국에 어떤 콘텐츠를 얼마나 많이 저장할지 결정하는 알고리즘을 통해 지연 시간을 줄이는 방법을 제안하였다. 모든 사용자의 평균적인 지연 시간을 최소화하기 위해 MATLAB의 linprog를 사용해 문제를 해결하였다.</p> <p>[16]과 [5]는 셀룰러 네크워크에서 지연 오프로딩 스키마를 적용해 MBS로부터 다운받는 콘텐츠 양을 최소화하는 것을 목표로 하였다. 두 연구에서 모두 암호화된 캐싱(coded caching)을 다뤘고 [16]은 SBS가 매우 밀집되고 전송 속도가 낮은 환경에서 마르코프 체인을 통해 사용자의 움직임을 모델링하고 분산된 캐싱 알고리즘(distributed caching algorithm)을 제안하였다. [5]는 모바일 사용자의 경로 이동 확률과 콘텐츠의 인기도를 사용해 MBS로부터 전송받는 데이터 양을 최소로 하는 캐싱 기법을 고안하였다. 다만 SBS의 범위가 겹치는 것을 고려하지 않았는데 본 논문에서는 SBS가 밀도 높게 설치된 환경에서 SBS의 영역이 중첩되는 경우를 고려해 MBS로부터 평균적으로 전송받는 데이터 양을 최소화하는 캐싱 기법을 제안하였다.</p>
엣지 서버에 캐싱하는 방법은 모바일 사용자의 종류, 캐싱 종류, 그리고 캐싱 목적에 따라 다양하며 Proactive caching은 차량과 같은 모바일 사용자를 위해 이동 패턴을 고려하여 데이터를 미리 캐싱하는 기법이다. Cooperative caching은 데이터를 여러 곳에 저장하여 협력하여 높은 hit ratio와 짧은 지연 시간을 달성하는 방법이다. Probabilistic caching은 불확실성이 높은 상황에서 계산된 확률에 따라 데이터를 저장하는 방법이다. 이외에도 캐싱 목적에 따라 hit ratio를 높이거나 지연 시간을 최소화하는 기법이 제안되었다. 연구들은 차량의 이동 패턴, 개인 정보 보호, 예측 및 군집화 기술 등을 활용하여 캐싱 효율성을 향상시키는 방안을 모색하였다. 셀룰러 네트워크에서는 암호화된 캐싱과 지연 오프로딩 스키마를 활용하여 데이터 전송량을 최소화하고 효율적인 캐싱 기법을 연구하였다. 이러한 연구들은 모바일 환경에서 캐싱 기술의 발전과 네트워크 성능 개선을 위한 다양한 접근 방식을 제시하고 있다.
<h1>3. 특징 가중치를 이용한 문서분류 기법</h1> <h2>3.1 \( \chi^{2} \)-통계량을 이용한 특징 가중치</h2> <p>카테고리의 성격을 규정짓는 방법에 있어서 단순히 주요 단어들의 빈도수만을 카운트하여 결정하기 보다는 특징들에 대한 가중치를 부여하는 많은 방법들이 제안되어 왔다. 예를 들어 위치에 따른 가중치 기법에서는 각 용어들이 문서내에 위치에 곳에 따라 가중치가 다르게 부여된다. 구체적인 예로 타이틀이나, 머리글, 혹은 문서 앞부분에 위치한 문장들에 포함된 용어들에는 더 많은 가중치를 부여할 수 있다. [9]에서는 타이틀이나 타이틀에 들어있는 단어 중에서 최소한 3개 이상을 포함한 문장으로 부터 주요 특징들을 추출한다. 그러나 이와 같은 휴리스틱(heuristic)들은 매우 직관적이고 다소 임의적인 방법이므로 일반화하여 적용하기에는 부족한 면이 있다.</p> <p>문서분류기의 성능을 높이기 위해서는 각 카테고리의 주제를 명확히 담고 있는 주요한 특징들로 표현되어야한다. 따라서 각 카테고리를 위한 학습문서를 명확히 차별화 할 수 있는 주요 특징들에 보다 높은 가중치를 부여하는 것이 요구된다. 물론 뉴스 기사와 같이 주요 특징들이 문서의 타이틀에 포함되는 경우도 많다. 그러나 이메일이나 뉴스그룹 (newsgroup)등에서는 그렇지 못한 경우가 자주 발생한다. 예를 들어 20Newsgroups에 있는 "I have a question"과 같은 타이틀은 문서의 주제를 결정하는데 아무런 도움을 주지 못한다.</p> <p>\( \chi^{2} \)-통계량에 기반을 둔 특징 선택</p> <p>본 논문에서 제안하는 특징 가중치 기법은 \( \chi^{2} \)-통계량에 기반을 둔다. \( \chi^{2} \)-통계량은 문서분류에 대한 연구에서 일정 개수의 최적의 특징을 추출하는 데 폭넓게 응용되고 있다. \( \chi^{2}- \) 통계량에서는 모든 특징에 대해 문서의 주제를 표현하는 정도를 평가하여 가장 적합한 특징들을 선택하게 된다. 주어진 단어 w와 카테고리 c에 대해서 \( \chi^{2} \)-통계량 \( \chi^{2}(c, w) \)는 w와 c의 관련성 정도를 평가하는 것으로, 이 값이 작으면 서로 독립적이라는 것을 의미하며 반대로 크면 상호 관련성이 크다는 것을 의미한다. 단어 w와 카테고리 c에 대한 2원 분할표(2-way contingency table)를 구성한 후 \( \chi^{2} \)-통계량 \( \chi^{2}(c, w) \)는 다음과 같이 계산된다. 고리 c에 포함된 문서 중에 w를 포함하지 않는 문서의 빈도수를 나타낸다. 역으로, \( DF(w, \bar{c}) \) 는 c에 포함되지 않으면서 w를 포함한 문서의 빈도수를 나타내며, 마지막으로 \( DF(\bar{w}, \bar{c}) \)는 c에도 포함되지 않고 w도 갖고 있지 않는 문서의 수를 나타낸다. N은 총 문서의 수를 나타낸다. 이 식에 의해서 c와 w가 서로 독립적이면 \( \chi^{2}(c, w) \)는 0의 값을 갖게 되며, 반대로 w가 카테고리 c의 주제를 반영하는 단어이면 \( \chi^{2}(c, w) \) 값은 증가될 것이다. 따라서 각 단어들의 \( \chi^{2} \) 값은 해당 카테고리에서 각 단어들의 주제표현 정도를 나타내는 수단으로 사용되며, 각 카테고리 c에 대해서 \( \chi^{2} \) 값이 가장 높은 단어 집합을 c를 대표하는 특징들로 선택하게 된다.</p> <p>특징 가중치</p> <p>\( \chi^{2} \) 값을 이용한 특징 선택은 각 카테고리의 성격을 규정짓는 특징을 선별하는 좋은 방법을 알려져 있으며 많은 문서분류기에서 채택되어왔다. 특히 각 카테고리의 특징을 더욱 부각시키기 위해 선택된 특징들 중에 더욱 중요한 특징들에 가중치를 부여하는 방식도 사용되고 있다. 그러나 지금까지의 가중치 부여 기법은 단순히 주요 특징들에 두 배 또는 세 배의 일정량의 가중치를 부여하는 단순한 휴리스틱을 사용하였다. 그러나 이러한 임의적인 방법으로는 만족스러운 분류성능을 기대하기는 힘들다. 그 이유는 가중치 부여에 있어서 해당 특징이 주어진 카테고리에서 차지하는 비중만을 고려하였고 그 특징이 다른 카테고리들에 미치는 영향까지는 고려하지 않아 카테고리간의 차별성이 뚜렷하지못한 경우가 많기 때문이다. 따라서 각 특징에 대해 해당 카테고리뿐만 아니라 그 특징이 다른 카테고리에 미치는 영향까지 고려해서 가중치를 결정하는 것이 각 카테고리간의 성격을 명확히 구분 짓는데 더욱 효율적이다.</p> <p>앞서 언급한 바와 같이 나이브 베이즈 문서분류기는 각 카테고리 \( c_{i} \)에 분포하는 단어 w의 분포(또는 확률) \( \operatorname{Pr}\left(w \mid c_{i}\right) \)을 추정함으로써 이루어진다. 따라서 단어 w가 특정 클래스 \( c_{i} \)의 성격을 규정짓는 주제단어라면 \( \operatorname{Pr}\left(w c_{i}\right) \)을 다른 카테고리 \( c_{j} \)의 \( \operatorname{Pr}\left(w \mid c_{j}\right) \)보다 항상 큰 값을 갖는 것이 가장 이상적이라 할 수 있다. 따라서 \( \operatorname{Pr}\left(w \mid c_{i}\right) \) 이 \( \operatorname{Pr}\left(w \mid c_{j}\right) \)보다 항상 큰 값을 갖도록 가중치를 둠으로써, 다른 카테고리와는 확연히 구별되는 차별화된 카테고리의 주제를 표현할 수 있게된다. 본 논문에서는 이와 같이 기존의 나이브 베이즈 문서분류기가 갖는 단순성 및 효율성을 유지하면서 문서분류기의 성능을 향상시킬 수 있는 방안을 제안한다.</p>
본 논문에서는 카테고리의 성격을 규정짓기 위해서 특징들에 대한 가중치를 부여하는 방법으로 \( \chi^{2} \)-통계량을 이용하는 기법을 제안한다. \( \chi^{2}- \) 통계량으로 모든 특징들에 대해 문서의 주제를 표현하는 정도를 평가하여 가장 적합한 특징들을 선택한다. 주어진 단어 w와 카테고리 c에 대해 \( \chi^{2} \)-통계량인 \( \chi^{2}(c, w) \)는 w와 c의 관련성의 정도를 평가한다. \( \chi^{2}(c, w) \)가 0에 가까울수록 관련성이 적고 증가할수록 관련성이 크다. 각 카테고리 c에서 \( \chi^{2} \)값이 가장 높은 단어 집합을 카테고리를 대표하는 특징들로 선택한다.
<h1>4. 성능 분석</h1> <h2>4.1 실험 환경</h2> <p>본 논문에서는 제안한 알고리즘의 성능을 평가하기 위해서 Reuters-21578과 20Newsgroups을 이용한 실험을 실시하였다. Reuters-21578과 20Newsgroups는 문서분류의 성능의 평가하기 위해 일반적으로 많이 사용되는 문서집합이다. Reuters-21578는 135개의 카테고리로 묶여진 21578개의 뉴스 기사들로 구성되어 있으며, 20Newsgroups는 20개의 카테고리를 갖는 19,997 개의 유즈넷(Usenet) 기사로 구성되어있다. 이 두 문서집합은 전혀 다른 성격을 갖는다. Reuters-21578 는 상대적으로 작은 크기의 문서(평균 861 bytes)들로 구성되어 있으며 카테고리 간에 문서들의 분포가 균형 잡히지 못하고 특정 카테고리들에 집중되는 경향을 모인다. 이러한 이유로 이 문서집합은 문서분류의 성능문석에 적합하지 못하다는 평가를 받기도 한다. 따라서 본 논문에서는 이러한 불균형 문제를 해소하기 위해서 20개 이하의 문서들로 구성된 카테고리는 실험대상에서 제외하여 53개의 카테고리에 총 9,133개의 문서에 대해서 실험을 실시하였다. 반면에 20 Newsgroups는 상대적으로 큰 용량의 문서(평균 1,892 bytes)로 구성되어 있으며, 카테고리 간에 문서들이 비교적 균형 있게 분포되어 있다. 특별한 언급이 없을 경우 각 문서집합에 대해서 기본적으로 \( 80 \% \)는 학습을 위해 사용하였고 나머지 \( 20 \% \)는 분류성능을 평가하는데 사용하였다. 분류기의 성능은 각 문서가 자신에게 속할 카테고리에 얼마나 정확하게 분류되는가를 기준으로 평가하였으며, 본 논문에서 제안한 특징 가중치 기법이 기존 나이브 베이즈 문서분류기의 성능을 얼마만큼 향상시키는가에 중점을 두고 진행하였다.</p> <h2>4.2 실험 결과</h2> <p>(그림 3)과 (그림 4)는 각각 Reuters-21578과 20Newsgroups 문서집합에서 PDW의 변화에 따른 분류 정확도의 변화를 보여주고 있다. 실험은 10회를 반복하여 실시하였으며 각 그래프의 데이타 값은 반복된 실험 결과에 대한 평균 값을 보여준다. 우선 Reuters-21578을 이용한 실험 결과를 보면, 문서수가 매우 적은 카테고리를 실험대상에서 제외했음에도 불구하고 기존의 전통적인 문서분류기에서는 문서들의 불균형된 분포로 인해 분류 성능이 매우 낮은 것을 볼 수 있다. 하지만 본 논문에서 제안한 방법은 PDW의 값에 거의 비례하여 분류 정확도가 높아지고 있다. 특히 PDW가 0.02에서 0.03의 구간에서는 PDW의 값에 따른 변화가 있지만 비교적 좋은 성능을 보여주고 있다. PDW가 0에 가까우면 특징 가중치가 거의 부여되지 않으므로 기존 방법에 비해 큰 성능 향상을 기대하기 어렵고, 반대로 너무 클 경우 일부 특징만으로 전체 분류 모델의 성능이 좌지우지될 수 있어 오히려 역효과가 날 가능성이 높다. 또한 PDW가 너무 크면 가중치 부과 과정에 지나치게 많은 시간이 소요되는 것도 고려해야한다.</p> <p>다음으로 (그림 4)의 20Newsgroups에 대한 실험 결과를 보면 전반적인 분류 성능이 Reuters-21578보다 좋은 것을 알 수 있다. 그 이유는 앞서 설명한 바와 같이 학습문서들이 비교적 균형 있게 분포되어 있기 때문이다. 단, 특징 가중치를 부여하여 얻을 수 있는 성능 향상의 정도는 Reuters-21578에 비해 그 효과가 미미하지만 PDW에 변화에 큰 영향 없이 전반적으로 고르게 향상되는 것을 알 수 있다.</p> <p>다음으로 (그림 5)와 (그림 6)은 학습문서 집합의 비율에 따라 기존의 문서분류기와 특징 가중치를 부여한 분류기의 성능을 보여준다. 이 실험에서는 PDW의 값을 0.02로 고정하였는데 그 이유는 두 문서 집합 모두에서 이 값에서 가장 우수한 분류 성능을 보였기 때문이다. 이 그림에서 보는 바와 같이 Reuters-21578와 20Newsgroups에 모두에서 학습문서의 비율이 높아질수록 문서분류기의 성능이 대체로 일정하게 향상되는 것을 알 수 있다. 또한 특징 가중치를 적용한 방법이 기존의 방법에 비한 성능향상도 비교적 균일한 정도로 증가되는 것을 알 수 있다. 다만 Reuters-21578의 경우 학습문서 집합의 비율이 높아질수록 특징 가중치를 적용한 방법의 성능 향상 정도가 20Newsgroups에 비해 더 두드러지게 나타나고 있다. 이러한 결과는 학습문서의 비율과 함께 특징 집합의 구모가 커지면서 특징 집합의 분포를 더 정확하게 예측할 수 있기 때문이다. 이는 실제 온라인 환경의 문서집합이 Reuters-21578 문서집합과 유사한 패턴을 보인다는 점에서 고무적인 결과라고 할 수 있다.</p>
Reuters-21578는 카테고리 간에 문서들의 분포가 균형 잡히지 못하며, 특정 카테고리들에 집중되는 경향이 있고, 비교적 작은 크기의 문서들로 구성되어 있다. 20Newsgroups의 경우 카테고리 간에 문서들이 비교적 균형있게 분포되어 있으며, 상대적으로 큰 용량의 문서들로 구성되어 있다. 이 둘의 알고리즘 성능 평가는 Reuters-21578보다 20Newsgroups이 전반적으로 분류 성능이 좋다는 연구 결과가 확인되었으며, 그 이유는 학습문서들의 균형 있는 분포 때문이라고 예측할 수 있다. 문서분류기의 성능과 관련해서는 양측 모두 학습문서의 비율이 높아질수록 향상되는 것으로 나타났다.
<h2>3.3 점진적 특징 가중치를 위한 특징 갱신 기법</h2> <p>(그림 1)의 알고리즘은 기존의 나이브 베이즈 분류모델과 어휘 집합에 대해서 모델을 개선하는 과정을 보여줬다. 앞서 언급한 바와 같이 대부분의 자동문서분류 시스템에서는 점진적으로 새로운 학습문서들이 추가되는 환경을 가정한다. 따라서 새롭게 문서들이 추가될 경우 기존의 어휘에 없는 새로운 단어들이 추가하기도 하고 기존 카테고리들의 단어들에 대한 통계량도 변하게 된다. 결국 이러한 갱신된 정보는 (그림 1)에서 \( \chi^{2} \)-통계량을 재계산하는 입력인자로 사용되며 최종적으로 특징 가중치를 이용한 점진적인 분류모델의 개선이 가능해진다.</p> <p>(그림 2)는 새로운 학습문서가 추가될 때 각 카테고리에대한 통계량을 갱신하는 알고리즘을 보여준다. 이 알고리즘에서 보는 바와 같이 카테고리 c에 새로운 학습문서 \( d_{n e w} \)가 추가될 때, 우선적으로 \( d_{n e w} \)의 각 단어 w가 기존의 어휘에 없는 새로운 단어라면 이러한 단어들을 어휘 V에 추가한다. 다음으로 이러한 단어에 대해서 수식 (6)의 각 DF 값들을 초기화하는데, 우선 \( D F(w, c) \)와 \( D F(\bar{w}, c) \)는 알고리즘 후반부의 계산을 위해 0으로 초기화 된다. 그리고 \( D F(w, \bar{c}) \)는 \( c \) 이외의 카테고리에서 w가 존재하는 문서의 수를 의미하는데, w는 기존에 존재하지 않았던 새로운 단어이므로 이 값은 0으로 설정된다. 마지막으로 \( D F(\bar{w}, \bar{c}) \)는 c이외의 카테고리에서 w가 존재하지 않는 문서의 수를 나타내므로 같은 이유로 이 값은 \( |D(\bar{c})| \)가 된다. 여기서 \( |D(\bar{c})| \)는 c를 제외한 카테고리에 존재하는 총 문서의 수를 의미한다.</p> <p>다음 단계로 V의 각 단어 w에 대해서 TF 통계량과 수식 (6)의 각 DF 값 중에서 카테고리 c와 관련된 통계량을 재계산한다. 나이브 베이즈 문서분류기에서는 단순히 모델 인자인 \( \operatorname{Pr}(w \mid c) \)을 추정하면 되므로, 각 카테고리에 대한 TF 통계량만을 수정함으로써 모델인자의 개선이 가능하게된다. 따라서 \( T F\left(w, d_{\text {new }}\right) \) 와 \( T F(w, c) \) 을 각각 문서 \( d_{\text {new }} \)와 카테고리 c에 나타나는 단어 w의 출현 빈도수라 할 때, (그림 2)의 line 10의 수식과 같이 새로운 문서 \( d_{\text {new }} \)에 존재하는 각 단어에 대해서 \( T F(w, c) \)의 값을 \( T F\left(w, d_{n e w}\right) \)만큼 증가시킨다.</p> <p>다음으로 특징들의 우선순위를 정하기 위해서 \( \chi^{2}- \) 통계량의 계산을 위한 인자들을 수정해야하는데, (그림 2)의 Line 11과 Line 14에서 보는 바와 같이 수식 (6)의 \( D F(w, c) \), \( D F(\bar{w}, c) \) 값들을 수정하게 된다. 즉, V의 각 단어 w가 \( d_{n e w} \)에 나타나면 \( D F(w, c) \)을 1 증가시키고, 그렇지 않으면 \( D F(\bar{w}, c) \)을 1만큼 증가시킨다. 하지만 새로운 문서 \( d_{n e w} \)는 카테고리 c에 추가된 것으로 나머지 카테고리들에는 변화가 없으므로 \( D F(w, \bar{c}) \)와 \( D F(\bar{w}, \bar{c}) \)는 수정이 필요없다.</p> <p>이와 같이 (그림 2)의 특징갱신 알고리즘은 학습문서의 추가에 따라 DF와 TF를 점진적으로 관리한다. 정리하면 초기 학습문서 집합에 대한 나이브 베이즈 모델은 (그림 1)의 특징 가중치 알고리즘을 이용하여 설정하고, 이후에 추가되는 학습문서에 대해서는 (그림 2)의 특징갱신 알고리즘을 이용하여 DF와 TF를 점진적으로 관리하게 된다. 이렇게 수정된 DF와 TF는 다시 (그림 1)의 특징 가중치 알고리즘을 반복적으로 적용하여 나이브 베이즈 분류모델을 점진적으로 개선하게 된다. 이와 같이 각 단어와 카테고리에 대한 통계량만으로 분류모델의 갱신이 이루어지므로 기존 이미 학습된 문서를 재학습할 필요가 없는 장점을 갖게 된다.</p>
대부분의 자동문서분류 시스템에서는 새로운 학습문서들이 점진적으로 추가되는 환경을 가정하여 새롭게 문서들이 추가될 경우 새로운 단어들이 추가되기도 하고 기존 카테고리들의 단어들에 대한 통계량도 변하게 된다. 따라서 초기 학습문서 집합에 대한 나이브 베이즈 모델은 특징 가중치 알고리즘을 이용하여 설정하고, 이후 추가되는 학습문서에 대해서는 특징갱신 알고리즘을 이용하여 점진적으로 수식 값과 통계량을 수정해나간다. 그러면 다시 특징 가중치 알고리즘을 반복적으로 적용하여 나이브 베이즈 분류모델을 점진적으로 개선한다. 이로써 각 단어와 카테고리에 대한 통계량만으로 분류모델의 갱신이 이루어지므로 기존의 학습된 문서를 재학습할 필요가 없는 장점을 갖게 된다.
<h1>2. 나이브 베이즈 문서분류 기법</h1> <p>나이브 베이즈 학습기법은 단순하면서도 정확한 추정능력을 발휘한다고 알려져 있어 많은 문서분류 프로젝트에서 채택되어 왔다. 또한 특징 공간이 동적으로 변화하는 환경에서 나이브 베이즈 학습기법은 SVM이나 결정 트리(decision tree)와 같은 복잡한 기계학습 기법에 비해 매우 적합한 분류모델이 되고 있다. 따라서 나이브 베이즈 분류기의 성능을 향상하기 위한 연구는 자동문서분류 분야에서 매우 중요한 의미를 갖는다고 할 수 있다.</p> <p>나이브 베이즈 문서분류기에서는 소속될 카테고리가 미리 정해진 학습문서 집합으로 부터 분류모델에 대한 인자들을 추정하게 된다. 추정된 분류 모델 \( \hat{\theta}_{N B} \)는 다음과 같은 두 개의 인자로 구성된다.</p> <p>\( \hat{\theta}_{N B}=\left\{\hat{\theta}_{w \mid c}, \hat{\theta}_{c}\right\} \)<caption>(1)</caption></p> <p>여기서 \( \hat{\theta}_{w \mid c} \)는 카테고리 c에 속하는 문서집합에서 임의로 추출된 단어가 w일 확률값을 나타내고, \( \hat{\theta}_{c} \)는 전체문서집합에서 임의 추출한 문서가 카테고리 c에 속할 사전확률값 (prior probability)을 나타낸다. 각 인자들은 MAP 가설 (Maximum A Posteriori hypothesis)에 따라 가장 큰 사후 확률값(posterior probability)으로 추정된다.</p> <p>나이브 베이즈 알고리즘에 의한 문서분류는 주어진 문서를 분류하기 위해 베이즈(Bayes) 정리에 의해 아래 식과 같이 주어진 문서에 대한 카테고리의 사후확률값을 추정함으로써 이루어진다.</p> <p>\( \operatorname{Pr}\left(c_{j} \mid d_{i}\right)=\frac{\operatorname{Pr}\left(c_{j}\right) \operatorname{Pr}\left(d_{i} \mid c_{j}\right)}{\operatorname{Pr}\left(d_{i}\right)} \)<caption>(2)</caption></p> <p>여기서 \( \operatorname{Pr}\left(c_{j}\right) \) 는 전체문서집합에서 임의로 추출한 문서가 카테고리 \( c_{j} \)에 속할 사전확률값, \( \operatorname{Pr}\left(d_{i} \mid c_{j}\right) \)는 카테고리 \( c_{j} \)에 속하는 문서집합에서 임의로 추출된 문서가 \( d_{i} \)일 확률값, \( \operatorname{Pr}\left(d_{i}\right) \)는 전체문서집합에서 임의 추출한 문서가 \( d_{i} \)일 확률값을 의미한다. 이 식을 이용하여 문서 \( d_{i} \)는 전체 카테고리 집합 C중에서 사후확률값으로 \( \operatorname{argmax} \operatorname{ma}_{c} \in C \operatorname{Pr}\left(c_{j} d_{i}\right) \)인 카테고리 \( c_{j} \)로 할당된다. 여기서 문서 \( d_{i} \)의 각 단어들은 한번이상 나타날 수 있으며 출현하는 단어들의 빈도도 중요한 요소가 되므로 \( d_{i} \)는 단어들의 다중 집합인 \( \left(w_{i 1}, w_{i 2}, \ldots, w_{i\left|d_{i}\right|}\right) \)로 표현된다. 또한 나이브 베이즈 분류기는 문서에 출현하는 단어들은 서로 간에 영향력이 없이 독립적이며, 단어가 출현하는 문서내의 위치와는 관계없다는 단순한 가정에 기반을 두고 있다. 이러한 가정 하에 분류함수는 다음과 같이 표현될 수 있다.</p> <p>\( \Phi_{\widehat{\theta_{N B}}} \)\( =\operatorname{argmax}_{c_{i} \in C} \operatorname{Pr}\left(c_{j} \mid d_{i}\right) \)\( =\operatorname{argmax}_{c_{j} \in C} \operatorname{Pr}\left(c_{j}\right) \cdot \prod_{k=1}^{\left|d_{i}\right|} \operatorname{Pr}\left(w_{i k} \mid c_{j}\right) \)<caption>(3)</caption></p> <p>이 함수를 생성하기 위해서 우선 \( \operatorname{Pr}\left(c_{j}\right) \)의 계산은 카테고리가 정해진 학습문서 집합 \( D^{t} \)중에서 \( c_{j} \)에 존재하는 문서들의 수를 카운트함으로써 쉽게 얻을 수 있다. 즉, \( \operatorname{Pr}\left(c_{j} \mid d_{i}\right) \in\{0,1\} \) 라고 할 때 \( \operatorname{Pr}\left(c_{j}\right) \)는 다음의 수식으로 계산된다.</p> <p>\( \operatorname{Pr}\left(c_{j}\right)=\hat{\theta}_{c_{j}}= \frac{\sum_{i=1}^{\mid D^{t}\mid} \operatorname{Pr}\left(c_{j} \mid d_{i}\right)}{\left|D^{t}\right|} \)<caption>(4)</caption></p> <p>이제 \( \operatorname{Pr}\left(w_{i k} \mid c_{j}\right) \)의 값을 추정하는 문제만 남게 되는데, \( \operatorname{TF}\left(w_{i k}, c_{j}\right) \)를 카테고리 \( c_{j} \)에서 단어 \( w_{i k} \)가 출현하는 빈도수라 하고 \( V \)를 전체 학습문서의 어휘 집합이라 할 때, \( \operatorname{Pr}\left(w_{i k} \mid c_{j}\right) \)의 MAP 추정값은 \( \frac{T F\left(w_{i k}, c_{j}\right)}{\sum_{w_{k} \in V} T F\left(w_{i k}, c_{j}\right)} \) 와 같다. 그런데 이 식은 특정 카테고리에 존재하는 않는 단어에 대해서는 0값을 가지게 되어 전체 식의 값을 0이 되게 할 수 있다. 전체 어휘들 중에서 특정 카테고리에 존재하는 않는 단어가 다수 존재할 수 있기 때문에 이를 보정해 주어야 한다. 이를 위해 일반적으로 Laplace smoothing이 사용되는데, 이는 모든 단어의 사전 출현횟수가 모두 같음을 의미한다. Laplace smoothing을 위의 식에 적용하면 다음의 수식을 얻는다.</p> <p>\( \operatorname{Pr}\left(w_{i k}, c_{j}\right)=\hat{\theta}_{w_{i k} \mid c_{j}}=\frac{1+T F\left(w_{i k}, c_{j}\right)}{\mid V\mid+\Sigma_{w_{i k} \in V} T F\left(w_{i k}, c_{j}\right)} \)<caption>(5)</caption></p> <p>수식 (4)와 (5)에서 보는 바와 같이 나이브 베이즈 분류기에서의 학습과정에서는 TF에서 수집된 것 이외에는 더이상의 다른 통계정보를 필요로 하지 않을 뿐만 아니라, 다른 기계학습 방법과는 달리 추가적인 복잡한 과정도 요구되지 않는다.</p> <p>지금까지 설명한 나이브 베이즈 학습기법은 문서분류 시스템의 관점에서 다음과 같은 장점을 갖는다. 첫째, 나이브 베이즈 분류기는 주어진 학습문서 집합을 한 번의 스캔만으로 인자들을 결정할 수 있으므로 학습과정의 속도가 다른 기법에 비해 매우 빠르다. 둘째, 주어진 카테고리 집합에 대한 모델 인자를 점진적으로 개선하는 것이 매우 간단하다. 이는 재학습이 매우 간단하게 수행될 수 있음을 의미하는데 수식 (4)와 (5)에서 보는 바와 같이 학습문서가 추가될 경우 새롭게 \( \hat{\theta}_{w \mid c} \)와 \( \hat{\theta}_{c} \)을 추정하기만 하면 된다. 이러한 특징은 문서의 집합이 동적으로 진화하는 경우에 매우 유리하다. 이러한 점을 고려하여 [7]에서는 나이브 베이즈 학습 모델을 기반으로 점진적 특징 갱신 알고리즘을 제안하였으며, 본 논문에서는 학습문서가 동적으로 추가되는 환경에서 특징 가중치에 필요한 특징들의 순위결정을 위해 이 알고리즘의 확장된 형태를 제안한다. 마지막으로 나이브 베이즈 문서분류기는 문서상에 나타나는 특징들에 대한 중요한 정보를 비교적 쉽게 수용할 수 있다. 예를 들어 학습 과정에서 새로운 뉴스나 기고문의 타이틀에 출현하는 용어들은 적당한 비중값을 곱하여 그 용어의 중요도를 반영할 수 있으며, HTML 형식의 반구조적(semi-structured) 전자문서에 포함되어 있는 태그(tag) 정보의 중요도도 같은 방식으로 처리할 수 있다. 본 논문에서는 이 같은 장점을 최대로 활용하기 위해 각 문서에 나타나는 특징들에 대해서 카테고리간의 상대적 중요도에 따라 인위적인 가중치를 부여함으로써 문서분류기의 성능을 향상시키는 방법을 고안하였으며, 3장에서 이 방법에 대해 구체적으로 논한다.</p>
따라서 나이브 베이즈 분류기의 성능을 향상하기 위한 연구는 자동문서분류 분야에서 매우 중요한 의미를 갖는다고 할 수 있다. 나이브 베이즈 문서분류기에서는 소속될 카테고리가 미리 정해진 학습문서 집합으로 부터 분류모델에 대한 인자들을 추정하게 된다. 각 인자들은 MAP 가설 (Maximum A Posteriori hypothesis)에 따라 가장 큰 사후 확률값(posterior probability)으로 추정된다. 또한 나이브 베이즈 분류기는 문서에 출현하는 단어들은 서로 간에 영향력이 없이 독립적이며, 단어가 출현하는 문서내의 위치와는 관계없다는 단순한 가정에 기반을 두고 있다. 본 논문에서는 이 같은 장점을 최대로 활용하기 위해서 각각 문서에 나타나는 특징들에 대해 카테고리들간의 상대적인 중요도에 따라서 인위적인 가중치를 부여함으로 문서분류기의 성능을 향상시키는 방법을 생각했으며, 3장에서 이 방법에 대해 구체적으로 말한다.
<h2>3.2 특징 가중치를 이용한 나이브 베이즈 분류 모델의 개선 방안</h2> <p>단순한 형태의 특징 선택 기법에 의해서 해당 카테고리에서의 특징들로 선택된 단어들은 각각의 중요도와 관계없이 동일하게 취급된다. 따라서 앞서 설명한 바와 같이 각 특징의 중요도에 따라 가중치를 부여하게 되면 나이브 베이즈 분류기 모델의 인자들을 보다 정확하게 추정할 수 있게 된다. 그러나 기본적인 나이브 베이즈 문서분류기에는 특징들의 중요도를 고려하는 인자가 없이 각 특징들의 TF 정보로 확률을 계산하게 된다. 따라서 각 특징의 TF 값을 조정함으로써 가중치를 부여할 수 있게 된다.</p> <p>(그림 1)은 본 논문에서 제안하는 특징 가중치를 적용한 나이브 베이즈 분류기의 학습 알고리즘을 보여준다. 이 알고리즘은 초기의 나이브 베이즈 분류모델과 각 카테고리의 어휘를 이용하여, 특징 가중치 기법을 적용한 개선된 분류 모델을 생성하게 된다. 이 알고리즘은 우선 각 카테고리 \( c_{i} \)에 포함된 문서로 부터 추출된 어휘 집합 \( V\left(c_{i}\right) \)로부터 상위의 \( \chi^{2} \)값을 갖는 특징들의 집합인 \( V_{\chi^{2}}\left(c_{i}\right) \)를 구성한다. 다음 단계에서는 앞에서 선택된 각 특징이 \( c_{i} \)가 아닌 다른 카테고리에 존재하는 문서들에도 발견되는지 확인한다. 만약 카테고리 \( c_{i} \)에서 선텍된 단어 w가 다른 카테고리에서도 나타난다면, 카테고리 \( c_{i} \)에 대한 단어 w의 확률 \( \operatorname{Pr}\left(w \mid c_{i}\right) \)을 모든 다른 카테고리에 대한 그것보다 높게 설정한다. 즉, \( \operatorname{Pr}\left(w \mid c_{i}\right) \gg \forall_{c_{j} \neq c_{i}} \operatorname{Pr}\left(w \mid c_{j}\right) \)이 만족되어야 한다. 이는 \( \operatorname{Pr}\left(w_{x} \mid c_{i}\right) \)값을 인위적으로 높여줄 필요가 있음을 의미한다. 알고리즘 작성을 위해 이 식을 다시 작성하면 다음과 같다.</p> <p>\( \operatorname{Pr}\left(w_{x} \mid c_{i}\right)>\max _{c_{j} \neq c_{i}} \operatorname{Pr}\left(w_{x} \mid c_{j}\right)+\delta \)<caption>(7)</caption></p> <p>여기서, \( \delta \)는 가중치를 위한 확률편차(PDW: Probability Difference for Weighting)라고 부르며 가중치의 정도를 결정하는 인자로, 보통 이 값은 실험을 통하여 분류성능을 높이는 최적의 값으로 결정된다. 식(7)에서 \( \operatorname{Pr}\left(w_{x} \mid c_{i}\right) \)을 조정하는 것은, 결국 관련 TF 값을 조정하는 문제가 된다. \( T F\left(c_{i}, w_{x}\right) \)의 증가량을 \( \alpha \) 라고 한다면, 식(5)와 식(7)을 이용하여 그 \( \alpha \) 값을 계산해보자. 식(5)에서 \( \operatorname{Pr}\left(w_{x} \mid c_{i}\right) \) 값은 \( \frac{1+T F\left(c_{i}, w_{z}\right)}{\mid V\mid +\sum_{w_{\varepsilon} \in V} T F\left(c_{i}, w_{x}\right)} \)이므로, 조정된 \( \operatorname{Pr}\left(w_{x} \mid c_{i}\right) \) 값은 \( \frac{1+\left\{T F\left(c_{i}, w_{z}\right)+\alpha\right\}}{\mid V \mid +\left\{\operatorname{SumOf} T F\left(c_{i}\right)+\alpha\right\}} \)이다(여기서, \( \operatorname{Sum} O f T F\left(c_{i}\right) \) 는 \( \sum_{\omega_{c} \in V} T F\left(c_{i}, w_{x}\right) \) 를 의미함). 조정된 \( \operatorname{Pr}\left(w_{x} \mid c_{i}\right) \) 값을 식(7)에 대입하면 \( \alpha \) 값이 다음과 같이 계산된다.</p> <p>\( \alpha>\frac{\left(\max _{c_{i} \neq c_{i}} P\left(w_{x} \mid c_{j}\right)+\delta\right) *\left(\operatorname{Sum} O f T F\left(c_{i}\right)+\mid V\mid \right)-T F\left(w_{x}, c_{i}\right)-1}{\left(1-\max _{c_{j} \neq c_{i}} P\left(w_{x} \mid c_{j}\right)-\delta\right)} \)<caption>(8)</caption></p> <p>a는 정수이어야 하기 때문에 우변보다 큰 정수를 취하며, 그 값을 \( \operatorname{TF}\left(w_{x}, c_{i}\right) \)과 \( \operatorname{Sum} O f T F\left(c_{i}\right) \)에 더해주면 된다.</p> <p>지금까지는 \( V_{\chi^{2}}\left(c_{i}\right) \)의 단어가 다른 카테고리 \( c_{j} \)의 \( V\left(c_{j}\right) \)에는 존재하지만 중요 단어로는 선택되지 않아 \( V_{\chi^{2}}\left(c_{j}\right) \)에는 존재하지 않는 경우의 가중치 부여 기법을 제시하였다. 그러나 그 이외에 경우에 대한 처리 방법도 고려되어야 하는데, 첫째는 카테고리의 주제단어 집합 \( V_{\chi^{2}}\left(c_{i}\right) \)의 특정 단어가 다른 카테고리 \( c_{j} \)의 \( V_{\chi^{2}}\left(c_{j}\right) \)에도 공통적으로 포함되는 경우이며, 둘째는 \( V_{\chi^{2}}\left(c_{i}\right) \)의 특정 단어가 다른 카테고리에 전혀 존재하지 않는 경우이다.</p> <p>우선 가장 이상적인 형태는 각 카테고리의 주제 단어들이 서로 겹치지 않는 것이다. 하지만 첫째 경우와 같이 선택된 특징이 겹칠 경우에는 어떠한 가중치도 부과하지 않는다. 그 이유는 같은 특징을 갖는 제3의 문서에 대해서 이 특징만으로는 분류될 카테고리를 결정하기 어려울 뿐만 아니라, 일방적으로 한 카테고리에만 가중치를 부과하면 자칫 잘못된 모델이 생성될 가능성이 높기 때문이다. 두 번째 경우는 카테고리 \( c_{i} \)의 주제 단어 w가 다른 카테고리의 문서들에는 나타나지 않는 경우로 이때는 카테고리의 차별성을 높이기 위해서 \( \operatorname{Pr}\left(w \mid c_{i}\right) \)을 충분히 높은 값으로 설정할 필요가 있다. 따라서 (그림 1)의 Line 16에서 보는 바와 같이 \( T F\left(w, c_{i}\right) \)를 해당 카테고리의 최대 TF 값으로 설정한다.</p>
단순한 형태의 특징 선택 기법에 의해서 해당 카테고리에서의 특징들로 선택된 단어들은 각각의 중요도와 무관하게 동일하게 취급된다. 따라서 앞서 설명한 바와 같이 각 특징의 중요도에 따라 가중치를 부여하게 되면 나이브 베이즈 분류기 모델의 인자들을 보다 정확하게 추정할 수 있게 된다. 하지만 기본적인 나이브 베이즈 문서분류기에는 특징들의 중요도를 고려하는 인자가 없이 각 특징들의 TF 정보만 가지고 확률을 계산하게 된다. 따라서 각 특징의별로 TF 값을 조정함으로써 각각 가중치를 부여할 수 있게 된다. 이 알고리즘은 초기의 나이브 베이즈 분류모델과 함께 각각의 카테고리별로 어휘들을 활용하여, 특징 가중치 기법을 적용한 이전보다 개선된 분류 모델을 생성하게 된다.
<h1>1. 서론</h1> <p>최근 들어 블로그(blog), 전자 도서관(digital library), 뉴스 등과 같은 인터넷 환경에서의 온라인 문서들이 꾸준히 증가함에 따라 자동문서분류(automated text classification)에 대한 관심이 학계뿐만 아니라 산업계에도 점차 확대되고있다. 자동문서분류란 학습문서 집합을 미리 확보하고 있지않은 상태에서 지속적으로 유입되는 문서만을 사용해서 그 문서들을 자동으로 분류하는 것을 의미한다. 이 기술은 인터넷 환경에서 다양한 응용분야를 갖는데, 웹페이지의 계층적 분류, 스팸 메일의 분류 또는 사용자의 기호에 따른 뉴스기사의 분류 등을 그 예로 들 수 있다. 또한 최근에는 인터넷 게시판 등에서 특정 제품에 대한 소비자의 상품평과 같은 주관적 의견들에 대한 여론을 판단하는 분야에도 자동문서분류 기법을 적용하려는 시도가 이루어지고 있다.</p> <p>최근의 문서분류 기법은 주로 기계학습(machine learning) 기술을 사용한다. 이 방식에서는 카테고리(category)의 특징을 설명하는 분류모델(classification model)이 미리 준비되어야 하는데, 학습문서집합으로부터 각 카테고리의 특징을 학습하는 귀납적 프로세스(inductive process)를 거쳐 자동으로 문서를 분류할 수 있는 모델을 생성하게 된다. 일반적인 문서분류를 위한 기계학습 방법으로는 나이브 베이즈 (Naïve Bayes), K-nearest neighbor, Support Vector Machine(SVM)등이 있다.</p> <p>일반적인 기계학습에 기반을 둔 문서분류 알고리즘에서는 분류성능에 영향을 미치는 다음의 문제들을 해결해야한다. 우선 분류모델을 수립하기 위해서는 양질의 학습문서를 적정 개수 이상 확보해야한다. 그러나 현실적으로 만족스러운 양과 질을 모두 갖춘 학습문서를 확보하는 것은 쉽지 않은 문제이다. 오히려 실제 환경에서는 완전한 형태의 학습문서가 한순간에 확보되기 보다는, 데이타 스트림(data stream)과 같이 연속적인 형태로 학습문서들이 제공된다. 따라서 이러한 환경에서는 새로운 학습문서들이 제공될 때마다 현재의 분류모델을 지속적으로 갱신하는 방법이 필요하다. 위에서 나열한 기계학습 방법 중에서 나이브 베이즈 알고리즘은 이러한 지속적 분류모델의 갱신이 가능한 기법이다. 또한 이 알고리즘은 모델 인자(parameter)의 구성이 간단하면서도 복잡한 모델 구성을 가지는 다른 기법들과 견주어 성능이 뒤지지 않아 많은 문서분류 시스템에서 채택되고 있다.</p> <p>두 번째는 각 카테고리를 표현하기 위한 특징(feature)을 선택하는 문제이다. 특징 선택(feature selection)은 '차원의 저주(curse of dimensionality)'라고 불리는 문제를 해결하기 위한 방법으로 제시되었다. 차원의 저주란 문서의 수가 증가할수록 특징이라고 불리는 단어(word) - 또는 용어(term) - 의 수가 지수적으로 증가하는 문제를 말하며, 특징 선택이란 이러한 특징들 중에서 카테고리를 가장 잘 표현할 수 있는 일부 특징을 추출하는 과정을 말한다. 일반적으로 문서들은 단어들의 다중집합(multi-set 또는 bag)으로 부터 추출된 특징들로 표현되며, 모든 문서에 대한 특징들로 구성된 특징 공간(feature space)은 결국 수많은 단어들이 모인 어휘(vocabulary)를 구성하게 된다. 따라서 문서분류의 성능을 향상시키기 위해서는 특징 선택을 통해서 특징 공간을 줄이고 왜곡된 특징들을 삭제하는 과정이 필수적이다. 이를위해 [6]에서는 \( \chi^{2} \)-통계량(Chi-Square statistics), mutual information, information gain, document frequency와 같이 특징을 선택하기 위한 다양한 기법들을 비교 분석한 결과를 제시하였다, 반면에 [5]에서는 분류모델을 수립하기 위해서는 문서상에 존재하는 모든 특징들이 사용되어야한다는 주장을 하기도 했으나 이는 성능 문제로 인해 큰 주목을 받지는 못하고 있다.</p> <p>특징 선택(feature selection)의 문제는 학습문서가 시간에 따라 연속적으로 제공되는 실제 환경에서는 매우 비효율적이라는 점이다. 이러한 환경에서의 특징 공간은 미리 주어진 사전 정보도 존재하지 않으며 시간에 따라 수시로 변화한다. 따라서 새로운 학습문서가 현재의 문서집합에 새롭게 유입될 때마다 문서분류기는 기존 구성된 분류모델을 재구성하지 않고, 새롭게 생성된 특징 집합을 이용하여 분류모델을 점진적으로 개선해나가는 것이 바람직하다. 예를 들어 나이브 베이즈 문서분류기에서도 새로운 학습문서의 유입에 따라 단어들에 대한 통계량을 매번 재계산하여 모델 인자를 수정하게 된다. 이때 기존의 방법에서는 각 카테고리에 대한 단순한 특징 선택만으로 모델을 설정하였으나, 각 특징에 대한 해당 카테고리에서 차지하는 비중에 따라 가중치를 부여하여 모델을 설정할 경우 더욱 높은 분류성능을 기대할 수 있다. 다시 말해서, 학습과정의 결과로 도출되는 분류모델이 이미 확정된 특징 집합으로 결정되는 것이 아니라, 학습 알고리즘의 원리를 활용하여 각 특징들의 비중을 학습모델의 인자에 반영함으로써 보다 개선된 분류모델을 생성될 수 있는 것이다.</p> <p>본 논문은 기존의 특징 선택 과정을 나이브 베이즈 학습 알고리즘에 결합하는 방안에 대한 연구이며, 이는 특징 가중치를 나이브 베이즈 모델의 인자로 활용했다는데 그 의의가 있다. 특징 가중치란 각 카테고리를 가장 잘 표현하는 대표적인 특징들에 가중치를 부여하는 값을 의미한다. 가중치가 부여된 특징들은 기존의 분류모델과 결합하여 문서분류기의 성능을 크게 높일 수 있다. 본 논문에서는 우선 학습문서가 점진적으로 추가되는 환경에서 \( \chi^{2} \)-통계량에 기반을 둔 특징 가중치 기법을 활용하여 분류모델을 동적으로 진화시키기 위한 알고리즘을 제안한다. 또한 특징 가중치를 부여하기 위해서 [7]에서 제안한 특징 갱신(feature update) 기법을 확장한 알고리즘도 제시한다. 제안된 알고리즘의 우수성을 평가하기위해서 Reuters-21578과 20Newsgroups 문서 집합을 이용한 실험을 실시하였다. 실험은 다양한 인자의 변화에 따라 특징 가중치를 적용한 알고리즘과 그렇지 않은 기존의 알고리즘에 대한 문서분류의 정확도를 비교하여 본 논문에서 제안한 알고리즘의 우수성을 증명하였다.</p> <p>본 논문의 구성은 다음과 같다. 우선 2장에서는 문서분류에 가장 많이 이용되는 나이브 베이즈 분류모델에 대해 살펴보고, 3장에서는 특징 가중치를 적용하여 나이브 베이즈 분류모델의 인자들을 점진적으로 진화시키는 알고리즘을 제안한다. 4장에서는 실험 결과를 제시하고 마지막으로 5장에서는 결론과 향후 연구 과제를 제시한다.</p>
자동문서분류란 학습문서 집합을 미리 확보하고 있지않은 상태에서 지속적으로 유입되는 문서만을 사용해서 그 문서들을 자동으로 분류하는 것을 의미한다.최근의 문서분류 기법은 주로 기계학습(machine learning) 기술을 사용한다. 일반적인 문서분류를 위한 기계학습 방법으로는 나이브 베이즈 (Naïve Bayes), K-nearest neighbor, Support Vector Machine(SVM)등이 있다. 본 논문은 기존의 특징 선택 과정을 나이브 베이즈 학습 알고리즘에 결합하는 방안에 대한 연구이며, 이는 특징 가중치를 나이브 베이즈 모델의 인자로 활용했다는데 그 의의가 있다. 추가적으로, 특정 가중치를 부여하기 위해서 위의 [7]에서 제안한 특징 갱신(feature update) 기법을 확장한 알고리즘을 제시하기도 한다.
<h2>2. 경로 관리</h2> <p>라우팅 프로토콜에서 경로 관리는 경로 연결을 관리 하고 연결의 끊김을 검색하는 역할을 한다. AODV에서 로컬 경로 정정 알고리즘은 경로를 빠르게 회복시키는 데 사용 된다. 그러나 대부분의 라우팅 알고리즘들은 링크가 끊어지기 전에 경로를 회복시키는 능력이 결여되어 있다. 본 논문에서는 노드 이동성에 의해 발생되는 경로 단절을 방지해 주고, 패킷을 전송하는 동안 라우팅 프로토콜의 효율성을 개선시키는데 초점을 맞췄다. 이러한 목적을 달성하기 위해 라우팅 프로토콜은 움직이는 노드로부터 대체 가능한 노드로 로컬 경로를 바꿔줄 수 있는 능력이 있어야 한다. LRC에 대한 기본 개념은 기존에 연구 발표한 [14]에 기반을 두고 있다.</p> <h3>LRC 프로세스의 동작</h3> <p>그림 2는 LRC 프로세스의 첫 번째 단계를 보여주고 있다. 중간 노드 'C'가 이전 홉 노드 'A'로부터 데이터 패킷을 받을 때, 수신 신호 전력 \( R x P \) 와 mobility function \( M \) 을 측정한다. \( R x P \) 가 LRC 임계치 \( R x T h \) 보다 작고 \( M(A) \) 가 0 을 초과하면 (즉, 노드의 움직임이 검출 되면), 노드는 이웃 노드들 중에서 대안이 되는 노드를 찾기 위해 one-hop 이웃 노드들에 HELP 메시지를 방송하면서 LRC 프로세스를 시작한다. 여기에서 LRC 임계치 \( R x T h \) 는 식 (5)와 같이 정의된다.</p> <p>\( R x T h=K \times R x P_{\min } \)<caption>(5)</caption></p> <p>\( R x P_{\min } \) 은 노드가 수신 가능한 최소 전력이고 IEEE 802.11b에서는 \( R x P_{\min }=3.65 \times 10^{-10} \) Watts \( \left.^{[9]}\right), K \) 는 수신 신호 세기 임계치를 설정하기 위한 상수이며 5로 설정하였다.</p> <p>그 다음에 선위 (previous) 홉 노드 'A'와 차위 (next)홉 노드가 'C' 노드의 이웃노드이므로 HELP 메시지를 수신한다. Mobility cost \( M(A) \) 와 \( M(B) \) 가 '0'이면, 그 노드는 노드 ‘ \( C \) ’의 대체 노드가 될 수 있다. 그렇지 않으면 HELP 메시지는 무시된다. 대체가능 노드는 HELP 메시지 정보를 참조해 경로 정보를 갱신하고 LRCN (Local Route Change Notification) 메시지를 HELP 메시지의 선위 홉 노드에 전달한다.</p> <p>그림 3은 선위 홉 노드가 LRCN 메시지를 수신하고 차위 홉 노드 'C'를 새로운 노드로 변경하는 LRC 프로 세스 예제를 보여주고 있다. 선위 홉 노드 ' A '는 차위 홉 노드 'C'로부터 HELP 메시지를 수신하고, 노드 ' A ' 는 LRCN 메시지를 전송 받기 위해 타이머를 설정한다. LRCN 메시지를 수신하면, 선위 홉 노드는 타이머를 해제하고 차위 홉 노드 ' C '를 LRCN 메시지 송신 노드 'E '로 변경 한다. 타이머가 종료되면, LRC 프로세스가 경로변경이 실패된 상황이므로, 경로 단절 전에 새로운 경로를 찾기 위해 로컬 경로 복구(Local Route Repair) 프로세스를 수행한다. 표 1은 LRC 프로세스의 의사 코드를 보여준다.</p> <h3>새로운 메시지 형식</h3> <p>로컬 경로 교환 (LRC) 프로세스를 위해 그림 4 와 같이 AODV 프로토콜에 HELP와 LRCN 메시지를 새로 정의하였다. 여기에서 \( M \) 필드는 32비트 부동소수점으 로 표현된다. 목적지 일련번호는 수신 노드에서 새로운 경로를 관리하기 위해 사용된다.</p>
본 논문에서는 노드 이동성에 의해 발생되는 경로 단절을 방지해 주고, 패킷을 전송하는 동안 라우팅 프로토콜의 효율성을 개선시키는데 초점을 맞췄다.그림 2는 LRC 프로세스의 첫 번째 단계를 보여주고 있다. 중간 노드 'C'가 이전 홉 노드 'A'로부터 데이터 패킷을 받을 때, 수신 신호 전력 \( R x P \) 와 mobility function \( M \) 을 측정한다.그 다음에 선위 (previous) 홉 노드 'A'와 차위 (next)홉 노드가 'C' 노드의 이웃노드이므로 HELP 메시지를 수신한다.LRCN 메시지를 수신하면, 선위 홉 노드는 타이머를 해제하고 차위 홉 노드 ' C '를 LRCN 메시지 송신 노드 'E '로 변경 한다.새로운 메시지 형식을 위해 로컬 경로 교환 (LRC) 프로세스를 그림 4와 같이 AODV 프로토콜에 HELP 그리고 LRCN 메시지를 새로 정의하였다.
<h1>I. 서 론</h1> <p>이동 ad hoc 네트워크 (MANETs)는 기존의 통신 인프라(기지국, AP) 또는 중앙 제어장치를 통하지 않고 네트워크상의 모든 무선 노드들이 서로 통신할 수 있는 이동 노드들로 이루어져 있다. 따라서 MANETs는 일반적인 무선 LAN 시스템과는 달리 멀티 홉 네트워 크에서 기지국과 이동 사용자 사이에 마스터-슬레이브 관계를 갖고 있지 않다. 노드들 사이의 통신은 직접적인 연결 또는 다중 홉 (hop) 릴레이를 통해 제공되어 진다. 이 노드들은 무선 환경 내에서 노드의 이동성과 신호의 변동 등으로 인해 발생되는 네토워크 토폴로지의 변화에 강건할 (robust) 수 있도록 자체구성 (self-organizing)을 해야 한다. 이러한 특성들로 인해 MANETs는 임시 구성용 네트워크나 지진, 태풍, 테러 등에 의한 재해/재난 복구 또는 구조, 전쟁터와 같은 군사용 네트워크, 그리고 LAN(Local Area Network)에서 블루투스, HomeRF 등에 적용할 수 있다.</p> <p>MANETs는 정적인 노드를 갖는 유선 네트워크와는 달리 자주 발생하는 네트워크 토폴로지의 변화를 잘 처리하기 위해 높은 적응력을 갖춘 라우팅 프로토콜을 요구한다. 따라서 라우팅 프로토콜은 네트워크 토폴로지의 변화를 빠르게 파악하여 목적지까지의 갱신된 경로를 제공해 줘야 한다. 라우팅 프로토콜은 크게 table-driven 방식과 on-demand 방식으로 나눌 수 있다.</p> <p>Table-driven 방식은 네트워크 내의 루트를 지속적으로 갱신하여 패킷을 전송할 때 경로를 미리 알고 있어서 바로 사용할 수 있으며, 이 방식으로는 Destination-Sequence Distance Vector (DSDV), Wireless Routing Protocol (WRP), 그리고 Clusterhead Gateway Switch Routing (CGSR) 등이 있다. 반면에, on-demand 방식은 경로가 요구되어질 때만 경로 검색 절차를 수행하며, Dynamic Source Routing (DSR), Ad hoc On-demand Distance Vector routing (AODV), Lightweight Mobile Routing (LMR), Temporally Ordered Routing Algorithm (TORA), Associativity-Based Routing (ABR), Signal Stability Routing (SSR) 등이 포함된다.</p> <p>MANETs에서 노드들은 자유롭고 예측불가능하게 움직이기 때문에 목적지까지의 패킷 전송 경로는 자주 끊어지게 되며 이는 네트워크의 전체적인 성능을 감소시킨다. 이러한 문제를 해결하기 위해 라우팅 프로토콜에서 이동성에 대한 연구가 지속적으로 이루어지고 있다. 그러나 지금까지의 대부분의 연구는 MANETS에 속한 모든 노드들이 GPS (Global Positioning System)와 같은 위치 인식 장치를 장착하고 있다는 가정을 하였고, 이는 모든 노드들이 이동성 검출을 위해 필요로 하는 모든 정보를 갖도록 하였다. 그러나 일반적으로 GPS는 실내에서 사용 불가능하고, 많은 전력이 소모되는 이유로 소규모의 작은 장치에는 적합하지 않은 제약 사항이 있다.</p> <p>Tom Goff는 AODV와 DSR을 향상시킨 preemptive-routing 프로토콜을 제안하였다. 이 프로토콜은 노드 이동성에 의해 링크가 끊어지기 전에 경로를 재탐색하기 위한 결정을 하기 위해 수신 신호 전력을 측정한다.</p> <p>\[ M=\frac{d\left(t_{1}\right)-d\left(t_{0}\right)}{t_{1}-t_{0}} \simeq \frac{v^{\prime}}{k}, \] where \( d(t)=R x P(t)^{-\frac{1}{n}} \)<caption>(1)</caption></p> <p>여기에서 \( k \) 는 라디오 채널 조건이며, 시뮬레이션에서 적용할 two-ray ground 모델에서 \( n \) 은 일반적으로 4가 된다. \( M \)이 양수이면 두 노드가 서로 멀어지는 것을 의미하고, \( M \) 이 ' 0 '이면 두 노드가 움직이지 않거나 또는 같은 속력을 갖고 같은 방향으로 동시에 움직이는 것을 의미한다. 또한 \( M \) 이 음수이면 두 노드가 서로 가까워짐을 의미한다. 식 (1)로부터 함수 \( M \) 은 상대속도 \( v^{\prime} \) 과 채널 조건 \( k \) 에 따라 결정됨을 알 수 있다.</p>
MANETs는 기존의 방식과는 다르게 노드들로 이루어져있어 이 노드들을 신호 변동 등으로 인한 네트워크 토폴로지 변화를 견딜수 있도록 자체구성해야된다. 이러한 프로토콜 방식은 table-driven 방식과 on-demand 방식 두가지가 있다. 이러한 기존 방식들은 ANETS에 속한 모든 노드들이 위치 인식 장치를 장착하고 있다는 가정 하에 설계되었기 떄문에 이에 따른 전력 소모와 같은 단점이 존재하고 있었다. 따라서 이를 보완한 경로 재탐색을 노드 이동성에 의한 링크 단절 이전에 수신 신호 전력을 측정한다.
<h2>1. 경로 탐색</h2> <p>제안한 라우팅 프로토콜은 경로 탐색 동안 낮은 이동성을 갖는 경로를 찾으려는 시도를 한다. 경로요청(RREQ: route request) 패킷을 플로딩 (flooding)할 경우에는 노드의 이동성 정보를 저장하기 위해 4 바이트 \( M \) 필드가 RREQ 헤더에 필요하다. 각 노드는 최상의 경로를 검색하기 위해 홉 카운트를 고려하여 다중 경로 중에서 가장 적은 \( M \) 을 갖는 경로를 선택한다. 경로 탐색 절차에서 경로 요청 노드는 RREQ 패킷의 \( M \) 필드를 ' 0 '으로 세팅한다. 중간 노드들 중에서 노드 \( j \) 가 PREQ 패킷을 노드 \( i \) 로부터 수신하면, 노드 \( j \) 는 식 (2)와 같이 최대 \( M \) 값을 찾아 RREQ 패킷의 \( M \) 을 갱신한다.</p> <p>\( M_{R R E Q}=\max \left(M_{R R E Q}, M(i)\right) \)<caption>(2)</caption></p> <p>여기에서 \( M(i) \) 는 식 (1)로 계산한 노드 \( j \) 와 \( i \) 사이의 mobility cost function이고, \( M_{R R E Q} \) 는 RREQ 패킷의 mobility cost function이다.</p> <p>또한 경로 정보를 갱신하기 위해 식 (3)의 route cost function \( R_{\text {cost }} \) 를 사용한다. 한 노드가 RREQ 패킷을 수신할 때마다 라우팅 에이전트는 RREQ 패킷의 새로운 경로를 위한 경로 엔트리를 갱신하기 위해 route cost function을 계산한다.</p> <p>\( R_{c o s t}=h_{R R E Q}-h_{R T}+F_{m} \)<caption>(3)</caption></p> <p>여기에서 \( h_{R R E Q} \) 는 RREQ 패킷의 홉 카운트이고, \( h_{R T} \) 는 현재 경로 정보의 홉 카운트이다. 그리고 \( F_{m} \) 은 식 (4) 와 같이 정의되는 상대적 mobility cost function이다.</p> <p>\( F_{m}=k \frac{M_{R R E Q}-M_{R T}}{M_{R R E Q}+M_{R T}} \), if \( M_{R R E Q}+M_{R T} \neq 0 \)</p> <p>\( F_{m}=0 \), otherwise<caption>(4)</caption></p> <p>여기에서 \( M_{R T} \) 는 노드의 라우팅 테이블에 저장된 경로의 mobility cost function이다. 식 (4)에서 \( F_{m} \) 의 범위 는 \( -k \) 에서 \( k \) 이고, 본 논문에서는 \( k \) 를 2로 설정하였다. 한 노드가 RREQ 패킷을 수신하면 \( R_{\text {cost }} \) 를 계산하여 그 값이 0 보다 작으면 경로 정보는 새로운 경로로 갱신된다. 그러므로 \( \left[h, h^{+} k\right] \) 범위에서 작은 이동성을 갖는 경로가 선택된다. 여기에서 \( h \) 는 \( h_{R T} \) 와 \( h_{R R E Q} \) 중에서 최소값이다.</p> <h3>목적지 노드의 동작</h3> <p>목적지 노드가 첫 번째 경로 요청 패킷을 수신할 때 라우팅 에이전트는 임의의 시간으로 타이머를 세팅하고 다른 경로들로부터 또 다른 경로 요청 패킷을 기다리기 위해 타이머를 동작시킨다. 따라서 목적지 노드는 다중경로 중에서 최선의 경로를 선택할 수 있다. 타이머의 시간이 만기되면 목적지 노드는 송신 노드에 즉시 경로 응답 메시지 (RREP)를 보낸다.</p> <h3>채널 페이딩 (fading)과 일시적인 방해요소들</h3> <p>무선네트워크의 실제 환경에서 채널 페이딩과 다중 경로 효과가 갑작스런 신호 전력 변동을 발생시킬 수 있다. 이는 라우팅 에이전트가 잘못된 정보를 참조하여 경로를 잘못 선택할 수 있게 만든다. 이러한 문제를 해결하기 위해 MIMO (multiple input multiple output)와 소수 패킷의 수신 신호 전력 평균과 같은 두 가지 방안을 생각할 수 있다. 다중 송수신 안테나를 사용하는 MIMO 기법은 채널 대역폭과 전송 범위를 넓히기 위해 사용된다. 따라서 이 기술은 빠른 전송 속도 뿐만 아니라 페이딩과 다중 경로 효과에 의한 성능 저하를 줄일 수 있다. 또 다른 해결 방안은 두, 세개 패킷의 신호 전력 평균값을 이용하는 것이다. IEEE 802.11 MAC 프로토콜에서 데이터 패킷을 전송하기 위해 RTS-CTS-DATA-ACK 방법을 사용한다. 따라서 노드는 하나의 데이터 패킷을 전송하기 위해 적어도 두 개의 패킷을 수신해야만 한다. 최근에 수신한 두 패킷의 평균 \( M \)값을 계산함으로써 채널 페이딩에 의한 갑작스러 운 신호 변화를 감소시킬 수 있다.</p>
제안한 라우팅 프로토콜은 낮은 이동성의 경로를 찾기 위해 홉 카운트를 고려한다. 목적지 노드가 패킷 수신 시에는 라우팅 에이전트는 임의로 타이머를 세팅하며, 타이머가 만기되면 목적지 노드는 송신 노드에 경로 응답 메시지를 보낸다. 채널 페이팅과 다중경로효과는 무선 네트워크에서 급작스런 신호전력변동을 일으킨다.
<p>2) NMF-PT</p><p>NMF-PT 는 CF, Disturbance Fault의 BPD와 WED의 고장과 같은 다중 결합 셀 고장을 진단할 수 있는 알고리즘이다.</p><p>Erase를 수행하고 Read하면서 Disturbance Fault의 OE를 진단하고 추가적인 Read 동작을 통해 Disturbance Fault의 RD를 진단할 수 있다. NMF-PT의 알고리즘은 [Equation 2]와 같다.</p><p>\( \mathrm{EW}_{:0}(\mathrm{testPT}), \mathrm{R}_{:0}(\mathrm{testPT}),\mathrm{R}_{:1 \rightarrow \mathrm{n}-1}(1),\\ \mathrm{EW}_{:1}(\mathrm{testPT}), \mathrm{R}_{:0}(1), \mathrm{R}_{:1}(\mathrm{testPT}), \\ \mathrm{R}_{:2 \rightarrow \mathrm{n}-1}(1),\\ \cdots, \\ \mathrm{EW}_{:\mathrm{n-1}}(\mathrm{testPT}), \mathrm{R}_{:0 \rightarrow \mathrm{n}-2}(1), \\ \mathrm{R}_{:\mathrm{n}-1}(\mathrm{testPT}),\\ \mathrm{ER}_{:0 \rightarrow \mathrm{n}-1}(1) \)<caption>(2)</caption></p><p>NSF-PT와 마찬가지로 처음 동작은 Erase 동작을 수행한다. 그리고 0번째 Page에 testPT에 따른 테스트 패턴을 Write한다. 그러면 0번째 Page의 셀에는 테스트 패턴의 값이 있고 나머지 Page의 셀에는 "\(1\)"의 값이 있게 된다. 이 상태에서 0번째 Page를 Read하면서 테스트 패턴의 값을 확인한다.</p><p>만약 고장이 발생하게 되면 WED가 진단된다. 그리고 0번째 Page를 제외한 나머지 Page의 셀 값 "\(1\)"을 Read하게 되고 만약 고장이 발생하면 CF와 BPD가 진단된다.</p><p>마찬가지로 마지막 Page까지 Page 주소를 증가시키면서 테스트 패턴을 Write하고 테스트 패턴을 Write한 Page는 테스트 패턴의 값을 Read하고 나머지 Page의 셀 값은 "\(1\)"을 Read하면서 알고리즘을 진행한다. 그리고 지속적으로 Erase동작을 수행하고 Read동작을 수행하면서 OE를 진단할수 있고 마지막에 추가적으로 Read를 수행하면서 RD를 진단할 수 있다.</p><p>3) INMF-PT</p><p>INMF-PT는 CF, Disturbance Fault의 BED와 WPD의 고장과 같은 다중 결합 셀 고장을 진단할 수 있으며 알고리즘의 형태가 NMF-PT 알고리즘의 반전된 모습과 같다. INMF-PT의 알고리즘은 [Equation 3]과 같다.</p><p>\( \mathrm{EW}_{:0}(\mathrm{testPT}),\mathrm{R}_{:1 \rightarrow \mathrm{n}-1}(0),\\ \mathrm{R}_{:0}(\mathrm{testPT}), \mathrm{R}_{:1 \rightarrow \mathrm{n}-1}(0), \\ \mathrm{EW}_{:0}(0), \mathrm{W}_{:1}(\mathrm{testPT}), \mathrm{W}_{:2 \rightarrow \mathrm{n}-1}(0),\\ \mathrm{R}_{:0}(0),\mathrm{R}_{:1}(\mathrm{testPT}), \mathrm{R}_{:2 \rightarrow \mathrm{n}-1}(0),\\ \cdots, \\ \mathrm{EW}_{:0 \rightarrow \mathrm{n-2}}(0), \mathrm{W}_{:\mathrm{n}-1}(\mathrm{testPT}), \\ \mathrm{R}_{:0 \rightarrow \mathrm{n-2}}(0), \mathrm{R}_{:\mathrm{n}-1}(\mathrm{testPT}), \\ \mathrm{ER}_{:0 \rightarrow \mathrm{n}-1}(1) \)<caption>(3)</caption></p><p>INMF-PT도 처음 동작은 Erase 동작을 수행하게 된다. 그리고 0번째 Page에 테스트 패턴의 값을 Write하고 나머지 Page들에는 “\(0\)”의 값을 Write한다. 그러면 0번째 Page의 셀은 테스트 패턴의 값이 있고 나머지 Page의 셀은 “\(0\)”값이 있게 된다. 이 상태에서 0번째 Page를 Read하면서 테스트 패턴의 값을 확인하게 되고 만약 고장이 발생한다면 WPD의 고장을 진단할 수 있게 된다.</p><p>그리고 나머지 Page의 셀 값 “\(0\)”을 Read하면서 BED와 CF를 진단할 수 있게 된다. 마찬가지로 마지막 Page까지 Page 주소를 증가시키면서 테스트 패턴을 Write하고 나머지 Page에는 “\(0\)”값을 Write한다. 그리고 테스트 패턴을 Write한 Page는 테스트 패턴을 Read하면서 고장을 진단하고 “\(0\)”을 Write한 Page는 “\(0\)”값을 Read하면서 마찬가지로 고장을 진단한다.</p><p>INMF-PT도 NMF-PT와 동일한 방법으로 OE와 RD를 진단할 수 있다.</p><p>Fig. 5는 본 논문에서 제안한 Diagnosis 알고리즘의 Flow을 보여준다.</p><p>Fig. 5에서 보이는 것처럼 먼저 NSF-PT 알고리즘을 수행하면서 검출이 쉬운 단일 고장을 진단하게 된다. 만약 고장이 발생하면 Fail을 통해서 해당하는 고장의 유형과 위치를 확인할 수 있게 된다. 만약 NSF-PT 알고리즘에서 고장이 발생하지 않으면 Pass를 통해 다중 결합 셀 고장을 위한 NMF-PT 알고리즘을 수행한다. 마찬가지로 고장이 발생하면 Fail신호를 통해 해당하는 고장의 유형과 위치를 확인할 수 있다.</p><p>그리고 고장이 발생하지 않으면 Pass를 통해 INMF-PT 알고리즘을 수행하면서 고장 진단을 하면서 전체 알고리즘을 종료하게 된다.</p><p>Diagnosis 알고리즘은 Test 알고리즘에 비해 알고리즘의 복잡도가 높아서 동작 시간이 증가할 수 있다. 하지만 공정 단계가 진행될수록 진단되는 고장의 수와 유형이 적기 때문에 NSF-PT, NMF-PT, INMF-PT 알고리즘 중에 사용자의 선택에 따라 해당 알고리즘을 동작하면서 NAND-형 플래시 메모리의 진단 시간을 감소시킬 수 있다.</p>
NMF-PT와 그와 반전된 형태인 INMF-PT는 다중 결합 셀 고장을 진단할 수 있는 알고리즘이다. NSF-PT 알고리즘부터 알고리즘을 순차적으로 실행하여 진단하며, 사용자의 선택에 따라 동작시키면서 낸드형 플래시 메모리의 진단시간을 줄일 수 있다.
<h1>1. 서 론</h1><p>최근 스마트폰, 태블릿 PC, 울트라북 등을 사용하는 사용자가 증가하게 되면서 휴대 가능한 모바일 장치의 수요가 급속도로 증가하고 있다. 모바일 장치는 적은 전력을 소모하면서 고용량과 빠른 속도 낮은 비용의 메모리가 필요하다. 이러한 조건을 충족하기 위한 메모리로 플래시 메모리가 적합하다. 플래시 메모리는 비휘발성, 낮은 비용, 적은 전력소모량과 높은 신뢰도 등의 특징으로 모바일 장치의 메모리로 증가하고 있다. 그리고 플래시 메모리는 셀 배열의 구조에 따라 NOR-형 플래시 메모리와 NAND-형 플래시 메모리로 구분되어진다. NOR-형 플래시 메모리는 셀 단위 접근이 가능하며 속도가 빠른 장점이 있지만 비용이 높기 때문에 모바일 장치의 메모리로 사용하기에는 부적합하다. NAND-형 플래시 메모리는 NOR-형 플래시 메모리에 비해 Read/Write 속도는 느리지만 Erase 속도가 빠르고 면적당 집적도가 높아서 대용량이 가능하기 때문에 NOR-형 플래시 메모리보다 모바일 장치의 메모리로 사용이 용이하다. 또한 최근에는 HDD보다 고속인 SSD( Solid State Disk)의 수요가 증가하면서 NAND-형 플래시 메모리의 수요도 함께 증가하고 있다. 따라서 NAND-형 플래시 메모리를 위한 테스트 기술과 연구는 점점 중요해지고 있다.</p><p>새로운 시스템이 개발될수록 메모리는 전체 시스템의 많은 영역을 차지하게 되는데 이는 전체 시스템 신뢰도에도 많은 영향을 주게 된다. 또한 NAND-형 플래시 메모리는 고용량, 셀의 밀집도가 높기 때문에 다양한 형태의 고장이 발생할 수 있고 이러한 고장을 검출하거나 수리할 수 있는 방법이 필요하다.</p><p>전체 시스템의 신뢰도를 향상시키기 위한 다양한 기법들이 이전에 제안되어 왔다. 먼저 메모리에서 발생하는 다양한 고장들을 검출하고 고장 위치를 확인하기 위한 BIST(Built-In Self Test)와 BISD(Built-In Self Diagnosis)가 있으며 이러한 고장 정보를 통해서 메인 메모리에 Redundancy를 할당하여 메모리를 수리하기 위한 BIRA(Built-In Redundancy Analysis)가 있다. 이러한 BIST/BISD모듈과 BIRA모듈을 통합하여 메모리 테스트와 메모리 수리를 수행할 수 있는 형태인 BISR(Built-In Self Repair)를 통해 전체 메모리의 수율을 증가시킬 수 있다. 그러나 이전에 제안된 이러한 기법들은 대부분 SRAM이나 DRAM을 위해 연구되어 왔고 이러한 기법들은 메모리의 구조가 다른 NAND-형 플래시 메모리에 실제로 사용하기에는 한계가 있다. 그 이유는 셀 단위로 Random-Access가 가능한 RAM과는 달리 NAND-형 플래시 메모리는 Page단위로 동작을 수행하고 발생하는 고장의 종류도 다르기 때문에 기존의 기법으로는 NAND-형 플래시 메모리에서 발생하는 모든 고장을 테스트/진단하는데 어려움이 있다.</p><p>본 논문에서는 NAND-형 플래시 메모리의 수율 향상을 위해 BISR의 알고리즘과 구조를 제안한다. 그리고 본 논문은 고장 검출의 확인만을 수행하는 BIST보다 고장 검출 뿐만 아니라 고장의 종류와 위치도 확인할 수 있는 BISD를 사용한다. 그리고 이미 제안된 RA 알고리즘을 통해 BIRA를 사용하고 제안하는 BISD와 통합해서 NAND형 플래시 메모리의 전체 수율 향상을 위한 BISR 구조를 제안한다.</p><p>먼저 2장에서 플래시 메모리의 일반적인 구조를 소개하고 3장에서는 NAND-형 플래시 메모리 고장 모델을 설명한다. 그리고 4장에서는 제안하는 BISD를 위한 Diagnosis 알고리즘과 BISD 구조를 설명하고 5장에서는 이미 제안된 RA 알고리즘과 고장 수리를 위한 Spare 할당 BIRA구조를 설명한다. 마지막으로 6장에서 제안하는 BISD모듈과 BIRA 모듈을 결합해 동작하는 BISR에 대해 설명하고 7장을 통해 다른 기존의 연구와 비교해 제안하는 알고리즘과 구조를 시뮬레이션을 통해 증명하고 8장의 결론 순서로 논문이 진행된다.</p>
최근 정보 기기 사용자가 증가함에 따라 휴대 가능한 모바일 장치의 수요가 증가하고 있다. 모바일 장치는 저전력을 소모하면서 고용량과 빠른 속도, 낮은 비용의 메모리가 있어야 하는데, NAND-형 플래시 메모리는 Erase 속도가 빠르고 면적당 집적도가 높기에 대용량이 가능하며 모바일 장치의 메모리로 용이하다. 그러나 NAND-형 플래시 메모리는 고용량, 셀의 밀집도가 높아 다양한 고장이 발생할 수 있기 때문에 NAND-형 플래시 메모리 수율 향상을 위하여 BISR의 알고리즘과 구조를 제시한다.
<h2>4.2 제안하는 BISD 구조</h2><p>제안하는 Diagnosis 알고리즘의 동작을 위한 BISD 구조를 제안한다. Fig. 6은 제안하는 BISD 구조를 보여준다.</p><p>제안하는 BISD의 구성 요소는 외부로부터 신호를 받아서 처리해주는 Controller, 해당하는 알고리즘의 각 Elements와 테스트 패턴을 사용하여 메모리 진단을 수행하는 Test Pattern Generator, 일반 모드와 테스트 모드를 선택할 수 있게 해주는 Mode Selector로 구성되어 있다.</p><p>BISD 모듈을 사용하기 위해서 먼저 Mode Selector에 BISD 모드를 선택하기 위한 Mode_Select신호를 인가한다. BISD 모드가 되면 BISD 모듈은 먼저 Serial 입력 신호인 BSI 신호를 통해 사용하는 Diagnosis 알고리즘과 패턴을 외부에서 입럭받는다. 그러면 Controller는 먼저 ENA 신호를 Test Pattern Generator에 보내면서 테스트 수행을 준비시킨다. Test Pattern Generator으로부터 알고리즘을 수행할 NAND-형 플래시 메모리의 전체 Page의 수만큼 All_Page 신호를 Controller가 받게 되면 Controller는 사용자가 선택한 Diagnosis 알고리즘의 전체 Elements를 생성하여 순차적으로 Test Pattern Generator에 ME_SIG를 통해 보내게 된다. 여기서 알고리즘의 Elements는 예를 들어 NSF-PT 의 \( \mathrm{E}, \mathrm{R}_{: 0 \rightarrow \mathrm{n}-1}(1), \mathrm{W}_{: 0 \rightarrow \mathrm{n}-1}(0) \) 등과 같은 동작 요소들을 말한다. 그리고 Test Pattern Generator는 해당하는 Diagnosis 알고리즘의 Elements를 수행하면서 선택된 테스트 패턴을 ROM으로부터 받아서 사용하게 된다.</p><p>만약에 Diagnosis 알고리즘을 수행하면서 고장이 발생할 경우 Test Pattern Generator에서는 고장 발생 위치를 나타내는 Err_Page신호와 고장 유형 정보를 나타내는 Err_Data 신호를 Controller에 전송하게 된다. 그러면 Controller는 Serial 출력 신호인 BSO 신호를 통해 해당 고장 정보를 출력하게 된다.</p><p>Test Pattern Generator는 FSM기반으로 2개의 FSM이 존재한다. Fig. 7은 Test Pattern Generator의 FSM을 보여준다.</p><p>Test Pattern Generator의 FSM은 먼저 Idle 상태로 외부로부터 신호를 기다리다가 ENA신호가 Controller를 통해 전송되면 ME fetch상태로 이동하여 ME_SIG신호를 기다린다. ME_SIG가 전송되면 ME fetch에서는 해당하는 Elements를 Fetch하고 PT fetch상태로 이동하여 사용하려는 테스트 패턴을 Fetch하게 된다. 그리고 Exec상태로 이동하여 Fetch한 Elements와 테스트 패턴에 해당하는 동작을 수행하게 된다. D fetch상태에서는 알고리즘을 통해 메모리에 인가된 Data를 Fetch하게 된다. 그리고 Compare상태로 이동하여 Fetch한 Data와 알고리즘을 수행하면서 예상했던 값을 비교하게 된다. 만약 고장이 없으면 다시 ME fetch 상태로 돌아가 Controller로부터 신호를 기다린다. 하지만 만약 고장이 발생하게 되면 Wait상태로 이동하여 해당하는 고장 주소인 Err_Page신호와 고장 유형의 정보 신호인 Err_Data신호를 Controller에 보내면서 ME fetch상태로 돌아가 다음 신호를 기다린다.</p><p>Fig. 8은 Exec의 FSM을 보여준다. Exec 상태로 이동되면 해당하는 Elements에 따라 Erase 동작, Write 동작과 Read 동작을 수행하게 된다. 메모리의 주소에 따라 해당 동작을 수행하면서 만약 AD_Done신호가 "\(1\)"이 되면 다시 Exec상태로 돌아와 다음 상태인 D fetch상태로 이동된다.</p><p>제안하는 BISR 구조를 통해 메모리 수율 증가를 위해서 BISD 모듈은 Diagnosis 알고리즘을 통해 얻어진 고장 정보들을 BIRA 모듈로 전송해야 하며 BIRA 모듈은 이러한 고장 정보를 통해 고장이 발생한 위치에 Redundancy를 할당하면서 메모리를 수리하게 된다.</p>
메모리 진단 알고리즘의 동작을 위해 BISD 구조를 제한 했다. BISD 구조는 신호를 받아 처리해주는 조작기와 메모리 진단을 위해 사용하는 시험 패턴 생성기 그리고 일반 모드와 테스트 모드를 선택하는 모드 선택기로 구성된다. 진단 알고리즘이 고장을 발견한 경우 시험 패턴 생성기에서 고장 발생 위치를 찾아내고 고장 정보를 조작기로 전송한다. 메모리 고장 진단을 하기 위한 BISR 구조를 통해 확보한 고장 정보를 이용해 고장이 발생한 위치에 중복성을 할당하여 메모리를 수리하여 메모리 수율을 높혀준다.
<h1>7. 실험 결과</h1><p>제안하는 BISR 구조 시뮬레이션을 위해 Xilinx사의 ISE 14.1을 사용하고 Verilog를 통해 구현하였다.</p><p>Fig. 13은 Diagnosis 알고리즘에서 NMF-PT 알고리즘의 동작 과정을 보여주고 고장이 진단되지 않았을 때의 정상 동작 시뮬레이션 결과를 보여준다.</p><p>먼저 Mode 신호가 "\(1\)"이면 BISD 모드로 BISD 모듈이 동작하게 된다. BISD 모듈에서 BSI 신호를 통해 사용자가 정의한 Diagnosis 알고리즘과 패턴을 준비하게 된다. 그리고 Controller는 Test Pattern Generator에 ENA 신호를 보내게 되고 Test Pattern Generator는 고장 진단을 수행할 메인 메모리의 전체 Page의 수를 All_Page 신호로 다시 Controller 에 보내게 된다.</p><p>Fig. 13에 All_Page 신호를 보면 “\(00010000\)"으로 고장 진단을 수행할 NAND-형 플래시 메모리의 Page의 수가 총 32라는 것을 확인할 수 있다. 그리고 ME_SIG 신호에 따라 메인 메모리의 고장 진단을 위한 Elements 동작을 수행하게 되고 BSO를 통해 Read동작에 의한 정보를 확인할 수 있다. 그리고 Err_Page, Err_Data, Repair_Page, Repair_Type은 고장이 진단되지 않았기 때문에 아직은 값을 확인할 수 없다.</p><p>Fig. 14는 NMF-PT 알고리즘의 첫 번째 Erase 동작 이후 \( \mathrm{W}_{:0}(\operatorname{testPT}) \) 동작에 따른 테스트 패턴이 정상적으로 입력되었는지 확인할 수 있다.</p><p>먼저 ME_SIG 신호 “\(0000\)"에 의해 Block에 Erase 동작을 수행한다.</p><p>그리고 “\(0001\)"신호에 의해 \( \mathrm{W}_{:0}(\operatorname{testPT}) \) 동작이 수행되고 첫 번째 Page의 셀 값이 테스트 패턴인 “\(0101010101010101\)”로 Write된다. 정상적으로 동작이 수행되었는지 확인하기 위해 BSO 신호를 보면 첫 번째 Page는 테스트 패턴으로 값이 확인되고 나머지 Page는 Erase된 값 “\(1111111111111111\)"으로 확인된다.</p><p>Fig. 15와 Fig. 16은 NMF-PT 알고리즘의 두 번째 Erase 동작 이후 \( \mathrm{W}_{:1}(\operatorname{testPT}) \) 동작에 따른 정상 동작을 확인할 수 있다.</p><p>Fig. 15는 ME_SIG신호 "\(0000\)"에 의해 Block에 Erase 동작을 수행하고 첫 번째 Page에 "\(1111111111111111\)"으로 Erase된 정상적인 값을 보여준다.</p><p>Fig. 16은 두 번째 Page의 값이 ME_SIG "\(0010\)"에 의해서 \( \mathrm{W}_{:1}(\operatorname{testPT}) \) 동작이 수행되는 것을 보여준다. 테스트 패턴 "\(1100110011001100\)"의 값이 두 번째 Page에 Write되고 BSO 신호를 통해 확인할 수 있다.</p><p>Fig. 17과 Fig. 18도 마찬가지로 NMF-PT 알고리즘의 세번째 Erase 동작 이후 \( \mathrm{W}_{:2}(\operatorname{testPT}) \) 동작에 따른 정상 동작을 확인할 수 있다.</p><p>Fig. 17은 ME_SIG신호 "\(0000\)"에 의해 Block에 Erase 동작을 수행하고 첫 번째 Page의 값과 두 번째 Page의 값이 "\(1111111111111111\)"으로 Erase된 정상 동작을 보여준다.</p><p>Fig. 18은 세 번째 Page의 값이 ME_SIG "0011"에 의해서 \( \mathrm{W}_{:2}(\operatorname{testPT}) \) 동작이 수행되는 것을 보여준다. 테스트 패턴 “\(0000111100001111\)"의 값이 세 번째 Page에 Write되고 BSO 신호를 통해 확인할 수 있다.</p>
BISR 구조 시뮬레이션은 그림 13에서 Diagnosis 알고리즘에서 NMF-PT 알고리즘의 동작 과정을 보여주고 고장이 진단되지 않을 때의 정상 동작 시뮬레이션 결과를 보여준다. 그림 14는 NMF-PT 알고리즘의 첫 번째 Erase 동작 이후 \( \mathrm{W}_{:0}(\operatorname{testPT}) \) 동작에 따른 테스트 패턴이 정상 입력 되는지 확인할 수 있고 그림 16의 두 번째 Page의 값이 \( \mathrm{W}_{:1}(\operatorname{testPT}) \) 동작 수행여부를 보여준다. Block에 Erase 동작을 수행하고 첫 번째와 두 번째 Page의 값이 Erase된 정상 동작은 그림 17에서 볼 수 있다.
<h1>5. 제안하는 BISR를 위해 제안된 BIRA 구조</h1><p>제안하는 BISR를 위해서 고장을 진단할 수 있는 BISD모듈과 Redundancy를 고장 위치에 할당할 수 있는 BIRA 모듈이 필요하다.</p><p>기존의 SRAM이나 DRAM에서 사용하는 BIRA 알고리즘으로는 ESP(Essential Spare Pivoting) 알고리즘이 가장 효과적으로 많이 사용되어지고 있다. ESP 알고리즘은 고장이 발생한 Row나 Column의 Line에서 고장 셀의 최대 수에 따라 Spare를 할당하는 방법이다. 그러나 이러한 ESP 알고리즘은 NAND-형 플래시 메모리에 사용하기에는 부적합하다. 따라서 NAND-형 플래시 메모리를 위해 ESP 알고리즘의 수정이 필요한데 기존의 [11]에서 NAND-형 플래시 메모리를 위해 수정된 ESP 알고리즘과 BIRA 모듈을 제안하고 있다.</p><p>본 논문에서는 [11]에서 제안하는 수정된 ESP-1, ESP-2 알고리즘과 BIRA 모듈을 사용하여 앞에서 제안하는 BISD와 통합하여 고장 수율 향상을 위한 전체 BISR 구조를 제안한다. Fig. 9는 [11]에서 제안된 NAND-형 플래시 메모리의 Redundancy 구조를 보여준다.</p><p>기존의 BIRA 구조는 Spare Row와 Spare Column이 존재하고 고장이 발생한 메인 메모리의 수리를 위해 Row나 Column을 Line 단위로 할당했다. 그러나 NAND-형 플래시 메모리의 특성으로 수리를 위해 Spare Row가 아닌 Spare Block을 사용해야 한다.</p><p>Fig. 9의 BNB는 NAND-형 플래시 메모리의 기본 Block으로 2장에서 설명했다. 2장에서 설명한 것처럼 NAND-형 플래시 메모리는 셀 배열의 SL이 활성화되어야 WL의 셀에 접근할 수가 있다. 따라서 NAND-형 플래시 메모리의 고장 수리를 위한 여분의 SNB(Spare NAND Block)는 BNB의 구조와 같다. SNB에서도 SL이 존재하고 SL이 활성화되어야만 SNB의 WL의 셀에 접근하는 것은 BNB와 동일하다. 그래서 메인 메모리 Blcok의 고장 셀을 수리하기 위해서 Block 단위 Spare인 SNB를 할당해야 한다.</p><p>Fig. 9에서 먼저 각 BNB의 고장 셀의 수를 확인한다. BNB0은 2개의 단일 고장이 감지되었고 BNB1은 WL1이 다중결합 고장에 의해 많은 수의 고장이 감지되고 BNB2는 2개의 단일 고장이 감지되었다. 수정된 B ESP 알고리즘을 수행하게 되면 먼저 고장의 수가 가장 많은 BNB1을 SNB1로 수리하게 되고 BNB0에서 발생한 2개의 단일 고장은 각각 SC0과 SC1로 수리를 하게 된다. 그리고 마지막으로 BNB2에서 2개의 단일 고장은 남아 있는 Spare가 SNB만 있으므로 SNB0으로 고장을 수리하게 된다.</p><p>Fig. 9에서 보이는 것처럼 BNB의 고장 수리를 위한 Spare로 SNB의 크기가 메인 메모리인 BNB와 동일하기 때문에 오버헤드가 커지는 단점이 있다. 하지만 오버헤드가 증가해도 Spare를 사용하면 BNB1처럼 많은 고장이 발생한 메모리 Block의 수리가 가능하기 때문에 메모리를 재사용할 수 있다는 장점이 있다.</p>
NAND-형 플래시 메모리 고장 수리의 경우 기존의 ESP 알고리즘은 부적합하여 수정된 ESP 알고리즘이 필요한데 이 경우 BNB와 크기가 같은 메모리인 SNB로 인해 오버헤드가 커지지만 많은 고장이 발생한 Block 수리가 가능해서 재사용하기에 좋고 수정된 ESP 알고리즘과 BIRA 모듈을 BISD와 통합하여 전체 BISR 구조로 고장 수율 향상을 기대할 수 있다.
<h1>6. 제안하는 BISR 구조</h1><p>제안하는 BISD구조는 앞에서 제안한 BISD와 [11]에서 제안된 BIRA를 사용한다. BISD에서 Diagnosis 알고리즘을 사용하여 고장을 진단하게 되면 해당하는 고장의 정보를 BIRA에 전송하게 된다. BIRA는 BISD로부터 받은 고장 정보를 통해 고장이 발생한 메모리 셀에 가장 적합한 방법으로 Spare를 할당한다.</p><p>Fig. 10은 제안하는 BISR의 구조를 보여준다. Fig. 10에서 Mode Selector의 신호에 따라 일반 모드와 테스트 모드를 선택하게 된다. 테스트 모드를 선택하게 되면 BISD 모듈이 작동되면서 사용자가 정의한 알고리즘이 수행된다. 그리고 메인 메모리의 고장을 진단하면서 해당하는 고장 정보(고장 유형, 고장 위치)를 BIRA 모듈에 전송한다. 그러면 BIRA 모듈은 BISD 모듈에서 전송한 고장 정보를 통해 수정된 ESP알고리즘을 사용하여 가장 효율적으로 Spare를 메인 메모리에 할당하게 된다. 그리고 BIRA 모듈은 고장을 수리한 정보(수리 위치)를 CAM에 저장한다.</p><p>모든 BISR 동작이 완료한 후에 일반 모드로 메인 메모리를 사용하려 하면 고장이 발생한 주소로 접근하지 않도록 주소 재구성 모듈에서는 일반모드에서 받은 주소와 CAM에서 저장한 주소를 비교하게 된다. 만약 고장이 있었고 수리되었던 주소이면 Fail 신호에 의해 수리 주소로 NAND-형 플래시 메모리에 접근한다. 만약 고장이 없었고 수리하지 않은 주소이면 Pass 신호에 의해 일반 모드에서 받은 주소로 NAND-형 플래시 메모리에 접근하게 된다.</p><p>Fig. 11은 BISR의 수리 데이터와 주소를 저장하는 CAM의 Format을 보여준다.</p><p>CAM은 전체 수리 과정 이후에 수리 데이터와 주소를 저장한다. Redundancy 유형이 “\(0\)”이면 SC로 고장을 수리하기 위해 사용된 것이고 "\(1\)"이면 SNB로 고장을 수리하기 위해 사용된 것을 나타낸다. Redundancy 위치는 사용한 Redundancy의 위치를 나타낸다. 그리고 Block과 고장 주소 필드는 메인 메모리에서 고장이 발생한 Block과 Block에서 고장이 발생한 주소를 나타낸다. SNB, Column, Faulty IO는 사용한 Redundancy의 유형에 따라 할당되는 주소 값을 나타낸다. 마지막으로 Valid 필드는 CAM에 저장된 정보들이 사용할 수 있는지를 식별한다.</p><p>Fig. 12는 제안하는 BISR의 전체 동작과정을 Flow로 보여준다.</p><p>Fig. 12의 제안하는 BISR의 동작과정은 먼저 BISD 구성단계가 수행이 된다. BISD 구성단계에서는 사용자가 정의한 Diagnosis 알고리즘을 BISD 모듈에 인가하게 된다. 그리고 BIRA 모듈에서는 수리 정보 검색 단계를 통해 CAM에 저장된 수리데이터의 유무를 먼저 확인하게 된다. BISD 구성 단계 후에 SC와 SNB와 같은 Spare 메모리에 대한 고장을 먼저 진단하게 된다. 만약에 Spare에 고장이 발생하게 되면 메인 메모리가 고장이 발생해도 수리를 할 수 없기 때문이다.</p><p>Spare 메모리의 고장을 진단한 정보를 통해 BIRA 모듈 Redundancy 확인 단계에서 고장이 발생한 Spare 메모리를 수리 과정에서 제외한다. 그리고 메인 메모리 진단 단계에서 메인 메모리에 대한 고장을 진단하게 되고 만약 고장이 발생하게 되면 BIRA 모듈은 Redundancy 분석 단계를 통해 고장 위치에 Spare를 할당하여 고장을 수리하게 된다.</p><p>수리가 완료된 후에 BIRA 모듈은 수리 정보 기록 단계에서 수리 데이터와 주소를 CAM에 저장한다. 마지막으로 Spare를 할당하고 수리가 완료된 후에 추가적으로 메인 메모리를 다시 고장을 진단하면서 수리하면서 혹시 고장이 발생하지 않았는지 확인하고 BISR의 동작이 종료된다.</p>
제안하는 BISR 구조는 앞에서 제안한 BISD와 BIRA를 사용한다. BISD 구성단계에서 Diagnosis 알고리즘을 사용하여 고장을 진단하고 BIRA에 전송한 후 BIRA 모듈에서는 고장 정보를 통해 수정된 ESP알고리즘을 사용하여 가장 효율적으로 Spare를 메인 메모리에 할당하여 고장을 수리한다. 수리가 완료된 후에 BIRA 모듈은 수리 데이터와 주소로 구성된 수리정보를 CAM에 저장하고 추가적으로 메인 메모리를 다시 진단하면서 확인하고 BISR 동작을 종료한다.
<h1>3. NAND-형 플래시 메모리 고장 모델</h1><p>기본적으로 NAND-형 플래시 메모리에서 발생할 수 있는 고장 모델을 설명한다. NAND-형 플래시 메모리에서 발생할 수 있는 고장으로 크게 두 가지로 구분할 수 있다. 먼저 기존의 RAM에서 발생했던 RAM-형 고장으로 SAF(Stuck-At Fault), TF(Transition Fault), AF(Address Decoder Fault), CF(Coupling Fault), SOF(Stuck-Open Fault)와 같은 고장들과 플래시 메모리의 고유 고장인 Disturbance 고장이 발생할 수 있다. 각각의 고장 모델의 설명은 다음과 같다.</p><h2>3.1 SAF(Stuck-At Fault)</h2><p>SAF(Stuck-At Fault) 고장은 셀의 값이 고착되어 “0” 또는 "1"로 셀의 값이 다른 값으로 전환되지 않는 고장을 말한다. 예를 들어 셀의 값이 “0”으로 고정되어 있으면 SAF0 으로 표현하고 셀의 값이 "1"로 고정되어 있으면 SAF1로 표현한다. SAF 고장을 검출하기 위해서는 메모리 셀에 “0" 과 "1"의 값을 Program하고 Read하는 동작이 필요하다.</p><h2>3.2 TF(Transition Fault)</h2><p>TF(Transition Fault) 고장은 셀의 상태전환 고장으로 셀의 값이 다른 값으로 전환이 되지 않는 것을 말한다. 예를들어 메모리 셀의 값이 "0"으로는 Program이 되어 전환이 되지만 반대로 값이 "1"로 Erase가 전환이 되지 않는 고장을 말한다. 이 고장을 검출하기 위해서는 메모리 셀의 값을 "0"에서 "1"로 Erase 동작을 수행하거나 "1"에서 "0"으로 Program 동작을 수행하면서 해당 셀을 Read하는 동작이 필요하다.</p><h2>3.3 AF(Address Decoder Fault)</h2><p>AF(Address Decoder Fault) 고장은 어드레스 디코더 부분의 고장을 말한다. AF는 물리적인 고장이지만 메모리를 테스트하는 과정에서 메모리 셀의 고장으로 확인이 가능하다. AF는 주소와 셀이 연결되지 않는 4가지 상태가 있고 이러한 4가지 상태가 서로 결합하여 발생하게 된다.</p><h2>3.4 CF(Coupling Fault)</h2><p>CF(Coupling Fault) 고장은 메모리의 직접도가 높아지면서 메모리 셀들의 간격이 좁아져서 발생하게 되는 고장이다.</p><p>CF는 기본적으로 Inversion CF와 Idempotent CF가 있다. Inversion CF는 두 개의 셀 A(희생자 셀)와 B(공격자 셀)에서 발생한다. Inversion CF 고장은 Program 동작에 의해 셀 B의 값이 “0”으로 Write될 때, 셀 A 의 원래 값이 반전(“1"→“0")된다. Idempotent CF는 Inversion CF와 비슷하게 Program 동작에 의해 셀 B의 값이 “0"으로 Write될 때, 셀 A의 값이 “0”이나 “1"로 고정된다.</p><h2>3.5 SOF(Stuck-Open Fault)</h2><p>SOF(Stuck-open Fault) 고장은 Bit-Line의 물리적인 고장에 의해서 셀에 접근할 수 없는 고장이다. SOF 고장도 AF 고장과 비슷하게 물리적인 고장이지만 메모리 테스트를 통해 메모리 셀의 고장으로 감지가 가능하다. SOF 고장이 발생하게 되면 셀의 값은 감지 증폭기(Sense Amplifier)에 걸려 있는 이전에 Read된 값이 지속적으로 확인된다.</p><h2>3.6 Disturbance Fault</h2><p>Fig. 4는 Disturbance Fault 고장이 발생했을 때의 NAND-형 플래시 메모리 셀의 배열을 보여준다.</p><p>먼저 Disturbance Fault 고장은 GD(Gate Disturbance), DD(Drain Disturbance), OE(Over Erase), 그리고 RD (Read Disturbance)로 4가지의 Disturbance가 있다.</p><p>GD는 동일한 Word-Line의 어띠한 셀에 간섭으로 인접한 다른 셀이 Erase(셀 값이 "1"로 전환)되거나 Program(셀 값 이 "0"으로 전환)이 되는 고장이며 Fig. 4 에서 보이는 것처럼 WED(Word-Iine Erase Disturbance)와 WPD(Word-Line Program Disturbance)가 있다.</p><p>DD는 동일 Bit-Line상의 어떠한 셀에 간섭으로 인접한 다른 셀이 Erase되거나 Program되는 고장으로 Fig. 4에서 보이는 것처럼 BED(Bit-Line Erase Disturbance)와 BPD(Bit-Line Program Disturbance)가 있다. 그 밖에 OE는 원하지 않게 넓은 범위에 Erase되는 현상이며 RD는 Read 동작으로 인해 원하지 않은 잘못된 Write 동작이 발생하는 고장이다. OE는 블록단위로 진단을 수행하기 때문에 확인이 가능하며 RD는 Read 동작 이후에 똑같은 Read 동작을 한 번 더 수행하는 것으로 간단하게 검출이 가능하다.</p><p>이러한 Disturbance Fault 고장은 플래시 메모리에서 발생하는 고유 고장이기 때문에 수율 향상을 위해 필수적으로 검출되어야 하는 고장이다.</p>
NAND-형 플래시 메모리에서 발생할 수 있는 고장은 크게 두 가지로 RAM-형 고장과 Disturbance 고장이 있다. SAF(Stuck-At Fault), TF(Transition Fault), AF(Address Decoder Fault), CF(Coupling Fault), SOF(Stuck-Open Fault)와 같은 Ram-형 고장이 있고, GD(Gate Disturbance), DD(Drain Disturbance), OE(Over Erase), RD (Read Disturbance)와 같은 Disturbance Fault 고장이 있는데 Disturbance Fault 고장은 플래쉬 메모리에서 발생하는 고장으로 수율 향상을 위해 필수적으로 검출되어야 한다.
<h1>2. 플래시 메모리의 구조</h1><p>일반적인 플래시 메모리의 구조는 셀 배열, Row 디코더, Column 디코더, 감지 증폭기, HV(High Voltage) 컨트롤 회로를 포함하고 있다.</p><p>Fig. 1은 플래시 메모리의 구조를 보여준다.</p><p>전체 셀 배열은 셀의 전하를 포함하는 많은 서브 배열로 나누어져 있는데 서브 배열을 Block이라고 한다. Row 디코더와 Column 디코더는 주소에 따라 셀 배열에 접근하고 감지 증폭기에서 셀 배열의 값들을 확인할 수 있다.</p><p>각 블록은 Row 주소로 주소 지정을 할 수 있다. 예를 들면, 행 주소의 MSB는 블록의 위치를 나타내고 LSB는 블록의 접근 행을 위해 사용되는데 만약 사용자가 Block 0의 n번째 행의 특정 셀을 Read하고 싶은 경우에는 MSB의 값을 0으로 할당하고 LSB의 값은 n으로 할당하면 된다.</p><p>Erase동작은 각 서브 배열에 내장되어 있는 Erase 회로를 통해 수행이 되며 Erase는 Block단위로 수행이 된다. Program 동작은 셀에 논리 값 0을 Write하게 되고 Erase동작은 셀에 논리 값 1을 Write한다.</p><p>Program과 Erase동작을 수행하기 위해서는 HV가 필요하므로 HV 컨트롤 회로는 플래시 메모리 셀에서 Program이나 Read 동작에 사용되는 전압들을 컨트롤하기 위해 존재한다. 플래시 메모리는 셀 배열의 구조에 따라 NOR-형 플래시 메모리와 NAND-형 플래시 메모리로 나누어지게 되는데 먼저 Fig. 2는 NOR-형 플래시 메모리의 구조를 보여준다.</p><p>Fig. 2는 일반적인 플래시 메모리 구조에 포함되어 있는 Row 디코더, Column 디코더, 감지 증폭기 등의 회로를 제외한 NOR-형 플래시 메모리의 셀 배열만을 보여주고 있다. Fig. 2는 BL과 WL이 각각 Bit-Line과 Word-Line을 포함하는 한 블록의 NOR-형 플래시 메모리의 일반적인 셀의 배열을 보여주고 있다. 이러한 셀의 배열로 인해 NOR-형 플래시 메모리의 액세스 방법은 랜덤 액세스이다. 즉, 사용자는 임의로 메모리 셀을 Program동작을 하거나 Read동작을 수행 할 수 있다.</p><p>예를 들어, 그림에 표시되어 있는 셀 (0,2)에 Program동작을 수행하기 위해서는 먼저 WLO에 HV(\(12 \mathrm{V})\)를 인가하고 BL2에는 낮은 전압 \( (6 \mathrm{V}) \)이 인가되어야 한다.</p><p>NOR형 플래시 메모리의 주소 유닛은 대부분 \(\mathrm{Byte}\)이기 때문에 NOR-형 플래시 메모리는 랜덤 바이트 액세스할 수 있다. 따라서 NOR-형 플래시 메모리는 사용자 관점에서 볼 때 Erase동작을 제외하고 SRAM이나 DRAM에 액세스하는 것과 유사하다.</p><p>Fig. 3은 NAND-형 플래시 메모리의 셀 배열의 구조를 보여주고 있다.</p><p>Fig. 3에서 WL은 Word-Line을 나타내고 BL은 Bit-Line을 나타내고 있다.</p><p>Word-Line을 Page로 표현하고 Bit-Line을 String으로 표현할 수 있다. 그리고 SL은 Select-Line으로 NAND형 플래시 메모리의 Page를 위한 Row를 표시하는 데 사용한다.</p><p>Fig. 3에서 여러 셀들이 두 개의 Select-Line의 셀 사이에 직렬로 연결되어 있는 것을 확인할 수 있다. 그리고 직렬 셀은 일반적으로 32개 또는 64개의 셀을 갖는다. 이것은 결국 NAND-형 플래시 메모리의 블록들이 같은 수의 셀로 구성되어 있다는 것을 확인할 수 있다. 따라서 본 논문에서는 Fig. 3에 표시되어 있는 구조를 NAND-형 플래시 메모리의 기본 단위로 BNB(Base NAND Block)로 참조한다.</p><p>또한 WL의 셀에 접근하기 위해서는 SL의 셀이 활성화되어야 하며 본 논문에서는 이런 형태의 NAND-형 플래시 메모리의 WL을 수리하기 위해 SRAM과 DRAM에서 사용하는 Redundancy 구조와는 다른 형태의 새로운 Redundancy 구조가 필요하다.</p>
일반적인 플래시 메모리의 구조는 셀 배열, Row 디코더, Column 디코더, 감지 증폭기, HV(High Voltage) 제어 회로로 구성이 되며 Row 디코더와 Column 디코더는 제공된 주소를 기반으로 셀 어레이에 액세스할 수 있도록 하여 감지 증폭기가 셀 어레이에 저장된 값을 평가할 수 있도록 합니다. 따라서 사용자 입장에서 보면 NOR 방식의 플래시 메모리는 Erase 동작을 제외하면 SRAM이나 DRAM에 접근하는 것과 유사합니다. 프로그램 및 지우기 작업에는 HV 사용이 필요하므로 플래시 메모리 셀에서 프로그램 또는 읽기 작업에 사용되는 전압을 조절하기 위해 HV 제어 회로가 존재합니다.
<p>Fig. 13에서 Fig. 18까지는 제안하는 BISR 구조의 고장이 발생하지 않은 경우로 정상 동작을 수행하는 시뮬레이션의 결과를 확인할 수 있다. 다음은 고장이 발생했을 때의 신호들의 시뮬레이션 결과를 설명한다.</p><p>Fig. 19는 고장이 발생했을 때의 시뮬레이션 결과를 보여준다.</p><p>Fig. 19는 앞에서 설명한 정상 동작과 동일하게 동작한다. 먼저 Mode신호를 받고 BISD 모드를 선택해서 BISD 모듈을 동작한다. 그리고 BSI 신호를 통해 알고리즘을 정의하고 ME_SIG 신호를 통해 해당 Elements를 수행하게 된다.</p><p>고장이 발생했을 경우 Err_Page신호, Err_Data신호, Repair_Page와 Repair_Type신호를 출력하게 된다.</p><p>Fig. 20은 NMF-PT 알고리즘의 첫 번째 Erase동작을 수행하고 \( \mathrm{W}_{:0}(\operatorname{testPT}) \) 했을 때 고장을 보여준다.</p><p>Fig. 20도 Fig. 14와 마찬가지로 NMF-PT의 첫 번째 Erase동작을 Block에 수행하고 첫 번째 Page에 \( \mathrm{W}_{:0}(\operatorname{testPT}) \) 동작을 수행한다. 이때 두 번째 Page에 고장이 발생하는 것을 확인할 수 있다.</p><p>Erase를 수행하고 두 번째 Page부터 마지막 Page까지는 Erase된 값인 “\(1111111111111111\)"이 인가되어야 한다.</p><p>그러나 Fig. 20에서 보이는 것처럼 두 번째 Page의 여섯번째 열의 셀 값이 “\(0\)”으로 변경되어 “\(1111101111111111\)”으로 고장이 진단되는 것을 확인할 수 있다. Err_Page는 두번째 Page를 나타내는 “\(00000001\)"을 출력하고 Err_data를 보면 “\(0010\)”으로 WPD 고장이 발생했다는 것을 확인할 수 있다.</p><p>Fig. 21과 Fig. 22는 여섯 번째 Page에서 고장이 추가적으로 발생한 것을 확인할 수 있다.</p><p>Fig. 21은 Erase 동작 이후에 \( \mathrm{W}_{:5}(\operatorname{testPT}) \) 동작을 수행할 때 테스트 패턴 “\(0101010101010101\)”을 사용했다. 하지만 여섯 번째 Page의 두 번째 열의 셀 값이 “\(0\)”으로 변경되어 “\(0001010101010101\)”으로 고장이 감지되는 것을 확인할 수 있다. 그리고 Err_Data 신호로 이 고장이 WPD라는 것을 진단할 수 있다.</p><p>Fig. 22는 고장이 발생한 Page의 위치를 보여준다.</p><p>Fig. 23과 Fig. 24 는 동일하게 \( \mathrm{W}_{:5}(\operatorname{testPT}) \) 동작을 수행하는 Page의 다음 Page에서 고장이 발생하는 것을 보여준다.</p><p>Fig. 23은 \( \mathrm{W}_{:5}(\operatorname{testPT}) \) 동작을 수행하고 그 다음 Page의 값을 확인했을 때 고장이 발생하는 것을 확인할 수 있다. 테스트 패턴을 Write한 Page를 제외한 다른 Page의 값은 "\(1111111111111111\)"로 Erase된 값이 인가되어야 한다. 그러나 Fig. 23에서 일곱 번째 Page의 값이 "\(1111111111011111\)"으로 일곱 번째 Page의 열한 번째 열의 셀의 값이 “\(0\)"으로 변경된 것을 확인할 수 있고 Err_Data 신호의 값이 "\(0110\)"으로 이 고장이 BPD 고장인 것을 알 수 있다.</p><p>Fig. 24는 고장이 발생한 고장 Page를 보여준다.</p><p>그리고 메인 메모리의 수리를 위한 Spare로 두 개의 SC와 두 개의 SNB로 구성되어 있는데 현재 고장 진단을 수행하는 메모리의 고장이 세 개이기 때문에 SC를 이용한 고장수리보다 SNB를 할당하여 메모리를 수리해야 한다. 따라서 Fig. 24의 Repair_Type을 보면 "\(1\)"로 SNB가 할당되어 메모리가 수리되었다는 것을 확인할 수 있다.</p>
제안하는 BISR 구조에서 고장이 발생했을 경우 시뮬레이션의 결과와 다양한 실험을 통해 고장 page들을 나타내고 있다. 메인 메모리의 수리를 위한 구성을 설명하고 SNB를 할당하여 수리하는 방법을 설명하였다.
<p>실힘에서 사용한 포트플리오들의 단순 수익률 비교만으로 제안 포트플리오가 더 우수하다고 할 수근 없지만, 이 논문 에서 주된 관심은 주식토론방에 나타난 사람들의 집단행위가 주가와 어떤 관런성이 있는지를 밝히고, 이러한 관련성 이 주가 흐음을 예측하는 데 활용될 수 있음을 보이는 것이 다. 주가와 주식게시판에 나타난 사람들의 집단행동 사이의 상관관계를 실제 주식투자에 활용하기 위해서 포트폴러오 구성 종목을 선택하기 위한 상관계수 임계치에 관한 통계적 인 분석 및 추가적인 포트풀리오 위험성 분석이 뒷받침되이 야 할 것이다.</p> <h1>결 론</h1> <p>이 논문에서는 인터넷 주식토론방에 나타나는 사용자들의 집단행위와 주식시장 사이에 어떠한 상관관계가 있는지를 분석하였다. 이를 위하여 먼저 '다음' 포틸의 주식토론방에 등록된 게시물을 수집하고 게시물 수의 년화와 주가와의 상 관계수를 측정하였다. \( \mathrm { KOSPI } 200 \) 을 구성하는 주식 종목 중 에서 57개 회사의 주식을 대상으로 분석한 결과, 주가 변화 와 게시물 수 변화 사이에 뚜렷한 상관관계는 나타나지 않 았다. 그렿지만 주가가 급락하거나 급등하는 시기에 게시물 의 수가 증가하는 경향이 있으며, 주가와 게시물 수의 상관 계수가 강한 양이거나 강한 음을 나타내는 경우 주식수익률 도 그에 따라 높거나 낮은 경향이 나타났다.</p> <p>이러한 분석 걸과를 토대로 주식투자 종목 추친 알고리즘 을 제안하였다. 제안 알고리즘은 기존 연구에서 제안하였던 주식 네트워크의 특성과 게시물과의 상관관계를 함께 고려 하여 추친 종목을 선택한다. 마코위츠의 효율적 포트풀리오 에 속한 종목들은 주식 네트워크에서 외곽에 위치하는 경향 이 있다는 점을 이용하여 주식 네트워크에서 해당 종목의 차수가 낮고, 게시물과의 상관계수가 높은 종목을 추천 종 목으로 선택하였다.</p> <p>제안 방법으로 구성한 포트풀리오의 효율성을 보기 위해 57개 회사의 주식을 이용하여 모의 투자 실험을 수행하였다.</p> <p>포트풀리오 구성을 위해 '다음'과 '네이너' 포틸에서 제공하 \( ㄴ ㅡ ㄴ \) 주식토론방의 게시물 데이터를 이용하였다. 실힘에서 '다 음' 주식토론방 데이터를 이용하여 2008년 1월부터 2013년 12월까지의 데이터를 1개월 단위로 포트플리오를 구성하여 실힘한 결과, 제안 방법으로 구성한 포트풀리오의 1 개월 평 균 수익률은 약 \( 1.55 \% \) 로 주식 네트워크 특성만을 이용한 기 존의 방법보다는 약 \( 0.67 \% \) 의 높은 수익률을 기록하였다. 또 한, 마코위츠의 알고리즘으로 구성한 포트폴리오의 수익률 과 \( \mathrm { KOSPI } 200 \) 수익률보다 각가 약 \( 0.72 \% \) 와 \( 1.21 \% \) 높게 나 타났다. 또한, 모의 투자 기간 동안 제안 포트폴리오의 누적 투자수익률이 비교 포트풀리오들의 수익률보다 지속적으로 높게 나타났다.</p>
이 논문은 주식시장과 인터넷 주식 토론방 사용자들의 집단행위 사이에 있는 상관관계를 분석했고, 이 결과를 통해서 주식 투자 종목 알고리즘을 제안하였으며, 제한된 방법을 이용하여 구성된 포트폴리오의 효율성을 보려고 포털사이트의 주식토론방 게시물 데이터를 사용하여 모의 투자 실험을 진행하였다.
<p>Fig. 1은 다우존스지수를 계산하는 데 사용되는 종목 중 30게 종목을 연걸한 최소신장트려를 보여군다. 그림에서 각 각의 노드는 회사의 주식을 나타네고, 각 노드의 심별은 회 사멍을 나타네는 약이인 티커심불(ticker symbol)로 'GE'는 'General Electric Company'를 가니킨다. 각 노드 간의 연걸 거리는 두 주식의 상관관계를 이용하여 구한 것으로 기리가 짮을수록 두 수식 간의 상관관계가 홒음을 의미한다. 이 그 내프에서는 수식 'CHV'와 수식 'TX' 사이의 기리가 가장 짧 게 나타났다.</p> <p>Mantegna가 주식시장 분식을 위헤 네트위크 방법을 도 입한 후로 주식시장 네트워크가 경제적인 관점에서 신뢰할 수 있는 것인지에 대한 다양한 분식과 김증이 시도되었다. Onnela와 동료들은 주식시장 그래프의 시간에 따른 변화를 관찰하였다[1]. 1980년 1월 2일부터 1999년 12월 31일까지 약 20년 동안의 뉴욕 증시에서 거래되는 주식 종목들의 주 가를 대상으로 4 넌 단위로 연속적인 수식시장의 최소신장트 리를 구성한 걸과 기본적인 트리의 위상구조는 시간에 따라 큰 변화는 없었으나 1987년 10월 19일인 ‘블랙 먼데이(Black Monday)'와 같은 주식 대폭락기에는 트리의 평균경로 길이 가 감소한 것으로 나타났다.</p> <p>또한, 이 연구에서는 주식시장의 최소신장트리를 포트롤라 오 분식에도 적용하였다. 걸과에 따르면 마고윛(Markowitz) 에 의하여 제안된 최적화 함수로 구성한 효율적 포트롤리오. 를 분식한 걸과 포트롤리오 구성 주식들이 주식시장 그래프 의 단말 노드에 위치하는 경향이 있는 것으로 나타났다.</p> <p>지금까지 미국 증시에 대한 분식뿐만 아니라 여러 나라의 수식시장 네트워크에서 나타나는 특성을 분식하는 연구도 활발히 이루이젔다. 엄칠준과 동로들은 한국 수식시장에서 관찰 가능한 수식 연걸 구즈가 이떤 방식으모 형성되는지 연구하였다. 한국 수식시장 그래표에서 수식 데부분은 다른 수식들과의 연걸 수가 1 게 훅은 2게호 적지만 일부 볏 볏 수식들의 연걸 수는 매우 많은 것으모 나타났으며, 즌 수식 네트워크에서 게녈수식의 연걸선 수 분포는 거듭제곱 분포를 따른다는 공통적인 특성이 관찰되었다. 또한, 많은 연걸 관계가 형성되 중심 주식(hub stock)일수록 시장지수 와 관런성이 퐆은 것으로 나타났다.</p> <p>이와 비슷한 연구모 허화와 동로들은 한국 수식시장의 수 식 네트워크와 수식 수익률이 보이는 상관관계에 데헤 분식 하였다. 이 연구에서는 1980넌 1월부터 2003넌 5월까시 23년 동안의 연속적인 일녈 수식 가젹 정보를 갖는 197 게의 추식을 대상으로 수식 네트워크와 최적화 함수에 따라 도출 된 효율적 포트롤려오를 비표하였다. 포트폴려오에 속한 수 식들은 데부분 수식 네트워크에서 하나 또는 둘 정도의 적 은 연결선을 가지고 있으며 그래프의 외롸에 위치하는 경향 이 나타난다는 사실이 확인되었다. 이 결과는 앞서 설명한 Onnela의 연구와도 일치한다.</p>
다우존스 지수를 계산하는 30개 종목의 최소신장트리를 보여주며, 각 노드는 회사의 주식을 나타내고 각 노드 간의 연걸 거리는 두 주식의 상관관계를 이용하여 구한다. Onnela와 동료들은 주식시장 그래프의 시간에 따른 변화를 관찰하였고, '블랙 먼데이'와 같은 주식 대폭락기에는 트리의 평균경로 길이가 감소한 것으로 나타났다. 또한, 이 연구에서는 포트폴리오 분식에도 적용하였고, 한국 수식시장에서는 연결 관계가 형성되는 중심 주식(hub stock)일수록 시장지수와 관련성이 큰 것으로 나타났다.
<p>Fig. 5는 Table 2의 57개 회사에 관한 주가와 게시물 수 사이의 상관계수 분포를 보여준다. Fig. \( 5 \mathrm { ~A } ㄴ ㅡ ㄴ \) 주가와 게시 물 수 사이의 상환게수 데이터의 히스토그램으로, 그림에서 분은색 그레프눈 상관계수 데이터와 동일한 평균과 표준편 차를 갓는 정가분포 곡선을 가리킨다. 그림에서 상관계수 데이터가 정규분포에 가까운 것을 알 수 있다. 분석 데이 터의 평균은 약 \( 0.0006 \) 이고, 표준편차는 약 \( 0.0949 \) 로 계산되 었다.</p> <p>Fig. \( 5 \mathrm { ~B } \) 는 상관계수 데이터를 \( \mathrm { Q } \mathrm { Q } \) 플롯으로 표현한 것 이다. \( \mathrm { Q } \mathrm { Q } \) 플롯은 데이터의 분포가 정규분포에 얼마나 가 까운지 직관적으로 표현한 그례프로, 그림에서 붉은색 직선 이 데이더와 같은 평균과 표준편차를 가지는 정규분포를 가 리킨다. 따라서 데이터가 붉은색 직선에 가까울수록 정규분 포에 가깝다는 것을 의미한다. 그림에서 주가와 게시물 수 의 상관계수 데이터는 거의 정규분포에 가깝지만 직선의 양 끝단에서 정규분포와는 약간의 차이가 발생하는 것을 볼 수 있다. 이것은 앞서 살퍼본 것과 같이 대부분의 시기에는 주 가와 게시물 수 사이에 특별한 상관관계가 없다가 주가가 하락하거나 변동 폭이 큰 특정 시기에 상관관계가 높아지는 것과 같은 맥락으로 이해할 수 있다.</p> <p>이렿듯 주가와 게시물 수 사이에 직접적인 상관관계가 나 타나지는 않지만, 주가의 변동 폭이 픈 시기에 사람들의 반 응포 함께 커지는 경향이 있음을 앞서 살퍼보았다. 따라서 주가의 변동 폭은 주식수익률과 이느 정도 관련이 있다고 할 수 있다.</p> <p>다음으로 주가와 게시물 수의 상관관계와 주식수익률과의 관계를 분석하였다. Fig. 6 은 주가와 게시물 간의 상관계수 \( \left ( \rho_ { i } \right ) \) 와 해당 기간의 주식수익률 분포를 보여준다. 그림에서 가로축은 주가와 게시물의 상관계수를 나타내고, 세로축은 주식수익률을 나타내다. 상관계수와 주식수익률은 6개월 단 위로 측정하였다. 분석한 결과 상환계수 값과 수익률 사이 에 약한 선형관계가 나타나는 것을 볼 수 있다. Fig. 6에서 주목할만한 것은 가로축 \( \left ( \rho_ { i } \right ) \) 의 양 끝단으로 갈수록 수익률이 높거나 낮게 치우치는 것이다. 즉, 주가와 게시물 사이에 강 한 양의 상관관계가 나타나는 경우 양의 수익률을 보일 확 률이 높으며, 강한 음의 상관관계가 있는 경우 수익률도 음 일 확률이 높은 것으로 추정된다.</p>
데이터와 동일한 표준편차를 갖는 평균분포 곡선은 주가와 게시물 수 사이의 상환계수 히스토그램이다. 주가와 게시물 사이에 상관관계가 없다가 주가가 떨어지거나 변하는 폭이 크면 상관관계가 높아지는 것과 같다. 주가의 떨어지고 올라가는 폭이 크게되면 사람들의 반응의 폭도 같이 커지는 경향이 있다.
<p>다음으로 주가 시계열 자로와 주식토론방에서 해당 종목 에 관련된 게시물의 시계열 자료를 이용하여 주가와 게시물 간의 상관계수 \( \rho_ { i } \) 를 계산한다. 이때 \( \rho_ { i } \frac { 1 } { 2 } = \) Equation (1)을 이 용하여 계산할 수 있다. 마지막으로 가 회사의 주가와 게시 물 상관관계 \( \rho_ { i } \) 가 임계치 이상이고, 주식 네트워크에서 노드 차수 \( d_ { i } \) 가 1 인 종목이 최종 투자 종목 \( s ^ {\circ } + O C k_ { p } \) 로 선택된다.</p> <h1>실험 결과</h1> <p>제안 방법의 효율성을 보이기 위해 실제 주식들을 대상으 로 하여 모의 투자 실험을 수행하고 수익률을 살펴보았다. 먼저 실험을 위해서 3절에서 설명한 것처럼 \( \mathrm { KOSPI } 200 \) 을 구 성하는 종목 중 하루 평균 약 \( 0.5 \) 개 이상의 게시물이 등록 된 57개 회사의 주식을 선정하고, 2008년 1월부터 2013넌 12 월까지 약 6년 동안의 일별 주가와 같은 기간 '다음'과 '네이 버' 포털에서 제공하는 주식토론방 게시물 데이터를 실힘 데이터로 사용하였다.</p> <p>실힘은 다음과 같이 구성된다. 실힘 데이터를 이용해 직 전 1 개월의 데이터를 분석하여 다음 1개월의 투자 포트폴려 오를 구성하고 수익률을 측정하였다. 포트폴리오 구성을 위 해서 주가와 게시물 상관계수가 임계치 이상인 종목 중에서 차수가 1 인 주식을 최종 투자 종목으로 선택한다. 실힘에서 임계치 는 \( 0.3 \) 으로 설정하였다. 이때 임계치 이상인 종목 중 에서 차수가 1 인 종목이 없는 경우에 \( \div \) 나수가 가장 적은 종목을 선택한다. 모의 투자 실험에서는 포트폴리오에 포함 된 모는 종목이 같은 비율로 투자된다고 가정한다. 따나서 포트폴리오가 총 \( n \) 개의 종목으로 구성되었고 전체 투자금 을 \( N \) 으로 가정한다면 가 주식별 투자금액은 \( n / N \) 이 된다.</p> <p>제안 방법으로 구성한 포트플리오의 수익률 분석을 위해 포트폴리오 구성은 1개월 단위로 하고, 1개월씩 이동시켜 모의 투자 실험을 수행하였다. 또한, 제안 방법으로 구성한 포트폴리오가 얼마나 효율적인지를 보이기 위해 주식 네트 워크 특성만 고려한 기존 방법과 마코위츠의 효율적 포트폴 리오 구성 알고리즘을 이용하여 구성한 포트풀러오의 수익 률, 같은 기간의 \( \mathrm { KOSPI } 200 \) 평균 수익률을 각가 비교하였다.</p>
제안된 방법의 유효성을 입증하기 위해 실제 주식들을 대상으로 모의 투자 실험을 실시하였으며, 수익률을 분석하였다. 제안된 방법으로 구성된 포트폴리오를 분석하기 위해, 포트폴리오 구성은 1개월 단위로 이루어졌고, 매 달 포트폴리오를 이동시켜 실험을 진행하였다. 실험 방식은 이전 1개월의 데이터를 분석하여 다음 1개월 동안의 투자 포트폴리오를 구성하고 그 성과를 측정하는 방식이었다.
<p>앞의 두 분석 결과를 종합해보면, 주가와 토론방 게시물 간에 직접적인 상관관계는 없으나 주가가 급락하거나 급등 하는 시기에는 토론방 사용자들의 반응이 증가하며, 이려한 주가와 사용자들의 반응 사이의 상관관계가 높을수록 양의 수익률을 보일 확률이 높다고 할 수 있다.</p> <h1>투자 종목 추천 시스템</h1> <p>이 논문에서는 시간에 따라 변하는 주식시장에서 주가와 게시물의 상관관계를 이용하여 투자 종목을 추천하는 방법 을 제안한다. 우리는 기존에 주식시장의 네트워크 특성을 이용하여 주식 포트풀리오를 구성하는 알고리즘을 제안하였 다[15]. 기존 방법에서는 효율적 포트플러오 구성 종목들이 주식 네트워크에서 외곽에 위치하는 경향이 있다는 연구 결 과를 바탕으로 하고 있다. 이 방법에서는 \( \mathrm { K } \) means 알고 리즘으로 주식들을 클러스터링하고 가 클려스터에서 차수가 1 인 종목을 하나씩 선택한다. 따라서 \( \mathrm { K } \) means 알고리즘의 특성상 시뮬레이션을 수행할 때마다 클러스터의 결과가 달 라질 수 있다. 또한, 차수가 1 인 종목이 여러 개일 경우 무 작위로 선택하므로 같은 기간에도 실행할 때마다 포트풀라 오 구성 결과가 달라실 수 있다.</p> <p>제안 방법에서는 기존 방법과는 달리 주식들을 클러스터 링하지 않고 주가와 게시물 간의 상관관계와 주식 네트워크 에서 노드의 차수 정보를 이용하여 포트폴리오 구성 종목을 선택한다. 포트풀리오 구성을 위해 주가와 게시물 수의 상 관계수가 임계치 이상이고, 주식 네트워크에서 노드의 차수 가 1 인 종목을 모두 선택하므로 시뮬레이선 수행 시 결과 포트풀러오는 변하지 않는다. 제안 방법의 알고리즘은 Fig. 7과 같다.</p> <p>Fig. 7에서 stock 와 post \( _ { i } \frac { 1 } { 2 } = \) 회사 \( i \) 의 주가와 주식토론방 에 등록된 게시물의 시계열 자로이다. 제안 방법은 크게 두 부분으로 구성된다. 먼저 주식 네트워크 구성 모듄에서근 개별 회사 간의 주가 시계열 데이터의 상관관계를 측정하여 주식 네트워크를 구성한다. 이때 주식 네트워크는 개별 주 식을 노드로 하고 주식 간 주가 상관계수를 에지 가중치로 하는 최소신장트리로 구성된다. 최소신장트리에서 노드 간 거리는 두 노드를 연결하는 에지 가중치가 높을수록 두 노 드의 거러는 짧아지며, 두 노드 \( i \) 와 \( j \) 간 거러 \( \operatorname { dist } (i, j) \) Equation (2)와 같이 계산된다.</p> <caption>\( \operatorname { dist } (i, j)= \sqrt { 2 \cdot \left (1-c_ { i j } \right ) } \)</caption> <p>여기서 \( c_ { i j } { } ^ {\frac { 1 } { 2 } } \) 회사 \( i \) 와 \( j \) 의 주가 데이터의 피어슨 상관게 수를 가리킨다. Fig. 8은 57개 회사의 2008년 1월 3일부터 2013년 12월 31일까지 6년 동안 주가 데이터를 이용하여 구 성한 주식 네트워크를 보여준다. Fig. 8에서 각 노드는 업종 별로 모양과 색깔을 구별하였으며, 노드의 라벨은 해당 회 사의 주식 종목 코드를 가리킨다. 이렇게 주식 네트워크를 구성함으로써 각 노드의 차수 \( d_ { i } \) 를 구할 수 있다.</p>
본 논문은 주가가 급락, 급등하는 시점에 토론방 사용자들의 반응이 증가하는 상관관계를 이용해 투자 종목을 추전하는 시스템을 제안한다. 제안하는 방법은 주식들을 클러스터링하는 기존 방법과 다르게 주식 네트워크에서 노드의 차수 정보와 게시물과 주가의 상관관계를 이용해 포트폴리오 구성 종목을 선택한다. 주가와 게시물의 상관관계가 임계치 이상이며, 주식 네트워크에서 노드의 차수가 \(1\)인 종목을 모두 선택하기 때문에 시뮬레이션 시 결과 포트폴리오는 변하지 않는다.
<p>분석 대상 회사는 모두 57개로 즈사되었으며, 6넌 동안 이들 회사의 주식과 관련된 게시물들은 총 138,618 개로 회사 별 하루 평균 약 \( 1.63 \) 개의 게시물이 등록된 것으로 나타넜 다. 57개의 회사 중 게시물이 가장 많은 것은 ' \( \mathrm { SK } \) 하이넉스' 사로 6 넌 동안 14,117 개로 하루 평균 약 9.44개의 게시물이 등록된 것으로 나타났다. Fig. 3은 ' \( \mathrm { SK } \) 하이넉스'사의 월 별 게시물 수를 보여준다.</p> <p>게시물이 가장 많이 생성된 기간은 2011년 8월로 한 달 동안 918개의 게시물이 주식토론방에 등록되었다. 이 기간 에 많은 게시물이 등록된 이유는 'SK 하이넉스' 회사의 전 신인 '하이넉스반도체'의 매각과 관련해 많은 사람이 반응한 것으로 추정된다. 이와는 반대로 2008년 3월에는 9 개의 게 시물밖에 등록되지 않았다. 이처럼 게시물 수의 변화 그래 프에서도 볼 수 있듯이 기간별로 등록되는 게시물 수의 변 동이 큼을 알 수 있다.</p> <p>주식토론방은 자신의 관심 주식 종목에 관한 의견들을 주 고받는 게시판이다. 따라서 주가에 영향을 줄만한 사건이 발생하거나 주가의 변동에 따라 게시물의 내용이나 양도 영 향을 받을 것이다.</p> <p>Fig. 4는 'SK 하이넉스'사의 주가와 게시물 수의 시계열 데이터를 나타낸 것으로, 두 값을 정규화하여 비교하였다. 막대그레프와 실선 그레프는 각각 \( \mathrm { z } \) score로 변환한 게시물 수와 주가를 나타낸다. 그림에서 전반적으로는 주가가 하락 하는 시기에 게시물량이 증가하는 경향이 나타나며, 특히 주가가 급등하거나 급락하는 등 주가 변동이 큰 시기에 게 시물의 수도 함께 증가하는 것으로 보인다. 특히 주식토론 방 이용자들은 주가가 상승할 때보다는 하락하는 시기에 더 민감하게 반응하는 경향이 있는 것으로 나타났다.</p> <p>이와 같은 주가와 주식토론방 게시물의 상관관계가 어느 정도인지를 살펴보고, 회사마다 상관관계 정도가 비슷한지를 살퍼보기 위해 회사별로 주가와 토론방 게시물 수의 상관관 계를 분석하였다. 분석을 위해 주가와 게시물 수의 상관계수 \( \rho_ { i } \) 근 Equation (1)을 이용하여 6개월 간격으로 측정하였다.</p> <caption>\( \rho_ { i } = \frac {\sum_ { i } \left (s_ { i } - \bar { s } \right ) \left (a_ { i } - \bar { a } \right ) } {\sqrt {\sum_ { i } \left (s_ { i } - \bar { s } \right ) ^ { 2 } } \sqrt {\sum_ { i } \left (a_ { i } - \bar { a } \right ) ^ { 2 } } } \)</caption> <p>여기서 \( s_ { i } \) 와 \( a_ { i } { } ^ { i } \) 는 각가 회사 \( i \) 의 주식 가격과 주식토론방 에 등록된 회사 \( i \) 에 관한 게시물 수를 나타낸다. 그리고 \( \bar { s } \) 와 \( \bar { a } \div \frac { 2 } { 2 } s_ { i } \) 와 \( a_ { i } \) 의 평균을 가리킨다.</p>
주식토론방은 주식 종목에 대한 의견 교환의 장소로, 주가 변동이나 관련 사건에 따라 게시물의 양과 내용이 변화한다. 이 연구에서는 주가와 토론방 게시물의 상관관계를 파악하고, 이 관계가 회사마다 일관성이 있는지를 분석하였다.
<h2>3.1주식토론방 데이터</h2> <p>주식토론방 사용자들의 집단행위를 분석하기 위해서 국내 유명 포털 사이트인 '다음(Daum)'에서 제공하는 주식토론방에 등록된 게시물을 수집하였다. '다음' 포털에서는 코스피 (KOSPI) 전 종목에 대해서 게시판을 운영하고 있으며 회사 별로 게시판이 따로 마련되어 있어 게시물을 읽지 않고도 회사별로 구분할 수 있다. Table 1은 '다음' 주식토론방에 개설된 코스피 종목 게시판의 현황을 보여준다.</p> <p>주식토론방에는 코스피를 구성하는 883개 회사의 토론방이 개설되이 있으며 2002년 7월 24일에 첫 번째 게시물이 등록되었다. 2014년 4월 기준으로 약 490,862개의 게시물이 등록되었으며, 평균적으로 회사별 약 550 개의 게시물이 등록되었다고 할 수 있다.</p> <p>회사별 게시물 등록 현황을 살펴보면 가장 많은 게시물이 등록된 곳은 'SK 하이닉스'로 23,507게의 게시물이 등록되었나. 반면에 6개의 회사는 게시판 개설 이후로 하나의 게시물도 등록되지 않았다. 회사별 하루 평균 게시물 수는 \( 0.25 \) 개로, 아직 주식토론방 사용이 모든 회사에서 활발한 것은 아님을 알 수 있다.</p> <p>Fig. 2는 '다음' 주식토론방에 개설된 883개 게시판의 게시물 분포를 보여준다.</p> <p>Fig. \( 2 \mathrm { ~A } \) 에서 \( \mathrm { x } \) 축은 각 게시판에 등록된 게시물 수를 나타내고, \( y \) 축은 게시판 수, 즉 회사 수를 나타낸다. Fig. \( 2 \mathrm { ~B } \) 는 Fig. \( 2 \mathrm { ~A } \) 와 같은 그래프를 로그 축으로 나타낸 것이다. 그림에서 회사별로 등록된 게시물 수는 거듭제곱 분포로 나타남을 알 수 있다. 이것은 주식토론방 사용이 활발한 회사와 그렇지 않은 회사 사이에 편차가 크다는 것을 의미한다.</p> <h2>주식시장과 주식토론방 사용자들의 집단행위 사이의 상관관계</h2> <p>주식토론방에서 일어나는 사람들의 집단행위와 주가 변동 사이의 상관관계를 살펴보기 위해서 각 회사의 주가와 게시물 수의 변화를 살펴보았다. 한 회사의 주가 변동과 게시물 수의 상관관계를 계산하기 위해서는 관찰 기간 동안 지속적으로 게시물이 등록되어야 한다. 따라서 이 논문에서는 분석 대상 주식을 \( \operatorname { KOSPI } 200 \) 에 속한 회사 중에서 하루 평균 약 0.5개 이상의 게시물이 등록된 회사의 주식으로 제한하였고, 관찰 기간은 2008년 1월 1일부터 2013년 12월 31일까지 총 6 년으로 설정하였다. 분석 대상 회사의 게시판에서 수집된 게시물 데이터는 Table 2 와 같다.</p>
포털 사이트 다음에서 제공하는 주식토론방에 등록된 게시물 수를 이용해 주식토론방 사용자들의 집단행위를 분석하였다. 회사별 게시물 현황을 보면 SK하이닉스가 가장 많은 23,507개의 게시물이 등록되었다. 회사별 하루 평균 게시물 수는 \( 0.25 \) 개로, 모든 회사에서 주식토론방 사용이 활발한 것은 아니며, 사용이 활발하지 않은 회사 사이와의 편차가 크다.
<h1>서 론</h1> <p>주식시장에서 주가에 영향을 주는 요인으로는 유가나 환 율과 같이 직접적인 측정이 가능한 요인에서부터 시장 상황 이나 외부 위험과 같은 눈에 보이지 않는 요인들까지 수잆 이 많다. 따라서 주식시장은 시간에 따라 계속 변하고 특녈 한 이유 잆이 주가가 급등하기나 급락하는 사건들이 발생하 기도 하여 주가를 에측하는 것은 매우 이려운 일이다.</p> <p>최근에는 주식시장을 이헤하기 위헤서 금응 관련 분야뿐 만 아너라 통계나 전산 등 다양한 분야에서 주식시장을 복 잡계모 인식하고 복잠계에서 나타나는 특징들을 찻아네고 분식하는 연구도 이루이지고 있다. Mantegna는 주식시 장을 구성하는 게녈 종목들의 상관관계를 기반으로 하여 주 식시장을 최소신장트라(Minimum Spanning Tree, MST)로 나타네어 전체 주식시장의 위상 구조를 이헤하려고 시도하였다.</p> <p>그뿐만 아너라 최근에는 트위터나 인터넷 김색, 인터넷 뉴스 등과 같은 온라인 매체를 분식함으모써 수식시장과의 상관관계를 분식하려는 연구가 진행되고 있다55-8]. Preis와 동로들은 금용과 관련된 김생이의 김색량 변화가 미래의 주 가 변동의 즌기 신호모 헤식될 수 있다고 제시하였다[7]. 이 들은 98게의 김색이를 이용한 모의 투자 실험을 통헤 구글 김새 데이더가 현재의 경제 상황을 반영할 뿐만 아니라 미 래의 경제 활동에 관한 추세를 퐈악하는 데 사영될 수 있음 을 발견하였다. 이외에도 인터넷을 통헤 실시간으로 생성되 는 빅데이터를 분식함으로써 주식시장의 변화를 이헤하려는 연구가 계속되고 있다.</p> <p>이 논문에서는 수식시장과 인터넷 숭식돌른방에 나타난 사람들의 집단행동과의 상관관계를 분식한다. 또한, 분식 걸과와 수식 네트워크의 특성을 이용하여 세로운 주식 포트폴리오 구성 알고리즘을 제안한다. 제안 방법의 효울성을 보이기 위헤 실제 \( \mathrm { KOSPI } 200 \) 을 구성하는 57게 회사의 주식 을 데상으모 포트롤리오를 구성하고, 제안 포트폴러오의 수 익률과 그스피 수익률을 비교하여 제안 방법의 효율성을 평가한다.</p> <p>논문의 구성은 다음과 같다. 2절에서는 수식시장과 인터 넷 데이터와의 관계를 분식한 선행 연구들을 살녀닌다. 3절 에서는 실제 수식 데이터를 이용하여 얻은 주식 네트워크를 분식하고, 4절에서 포트폴리오 구성 방법에 데헤서 설명한 다. 그라고 5절에서는 모의 투자 실험을 통헤 제안 포트롤 러오의 효율성을 평가하고, 6 절에서 걸른을 몟는다.</p> <h1>관련 연구</h1> <p>주식시장에서는 국네외적으로 발생하는 사건으로 인하여 에상치 못한 급락이 발생하는 등 전형적인 복잡계 현상이 나타나고 있다. 이것은 주식 간 혹은 시장 간의 눈에 보이 지 않는 연걸로 정보에 대한 직접 또는 간접적인 영향 경모가 형성되이 있기 때문이다. 1999년 Mantegna의 연구를 시작으로 주식 간 혹은 시장 간의 상호 관계를 네트위크 방 법으로 이헤하려는 연구가 주모 경제물리학 분야에서 진행 되었다. Mantegna는 주식 사이의 복잡한 상호작용을 바탕 으로 주식들이 동질적 집단을 형성하는 집단화 과정을 주식 네트위크로 시각화하였다. 이 그래프에서 각 노드는 주식 증목이고, 노드 간 연걸 거리는 두 수식 사이의 상관관계로 구헤진다.</p>
최근 주식시장을 복잡계로 인식하고 분석하는 연구가 이루어지고 있다. Mantegna는 주식시장을 최소신장트라로 나타내어 전체 주식시장의 위상 구조를 이해하려 시도했고, Preis는 검색어의 검색량 변화가 미래의 주가 변동의 기준 신호로 해석될 수 있다고 제시했다. 본 논문에서는 주식시장과 인터넷 주식토론방에 나타난 사람들의 집단 행동의 상관관계를 분석하고, 주식 네트워크의 특성을 이용한 새로운 주식 포트폴리오 구성 알고리즘을 제안한다.
<p>이외에도 중국이나 러시아, 호수 등 여러 나라의 주식 네트워크 특성을 분석한 연구들이 많이 발표되었다. 나라마다 주식시장의 규모나 성숙도 등에 따라 차이는 있으나 주식 사이의 연결선 분포나 업종 간 구분 등과 같은 주식 네트워크에서 나타나는 공통적인 특성들이 관찰되었다. 따라서 주식 네트워크가 실제 주식시장에서 나타나는 상관관계 등을 의미있는 수준으로 반영하고 있으며, 이로써 네트워크 방법론이 주식시장을 이해하는데 도움이 되는 방법임을 알 수 있다.</p> <p>최근에는 트위터나 인터넷 검색, 인터넷 뉴스 등과 같은 온라인 매체에서 생성되는 빅데이터를 이용하여 주식시장과의 상관관계를 분석하려는 연구가 진행되고 있다. J. Bollen와 동료들은 대규모 트위터 메시지 데이터에 나타난 대중의 분위기가 다우존스지수와 관계가 있는지를 분석하였다. 그들은 매일 트위터 메시지에 대해, OpinionFinder를 이용하여 긍정과 부정의 두 가지 감정을 측정하고, GPOMS (Google-Profile of Mood State)를 이용하여 평온과 놀람을 포함한 6가지 감정 상태를 측정하였다. 그 결과 이런 대중들의 분위기가 약 \( 3.4 \) 일 후의 다우존스지수와 부합하는 것으로 나타났다.</p> <p>또 다른 연구로 Preis와 동료들은 인터넷에서 사람들의 상호작용으로 발생하는 새로운 거대한 데이터가 거대한 시장의 움직임에서 시장 참여자들의 행위를 반영한다고 제시하였다. 그들은 주식시장과 연관된 98개의 검색어의 성능을 분석하였다. 2004년 1월부터 2011년 2월까지 검색 기록을 분석한 결과, 주식시장이 폭락하기 전에 구글에서 금융 관련 검색어의 검색량이 증가한다는 것을 발견하였다. 이 결과를 바탕으로 그들은 금용에 관련된 단어 검색량의 변화가 주식시장 움직임의 '조기경보' 역할을 할 수 있을 것으로 주장하였고, 그것을 이용하여 적절한 매매 전략을 세울 수 있다고 제시하였다.</p> <p>이렇듯 최근에는 인터넷을 매개로 하는 다앙한 데이터를 활용하여 주식시장의 변화를 이해하려는는 연구가 진행되고 있다. 현재는 트위터 메시지나 포털 검색 데이터를 이용하는 연구가 많이 발표되고 있지만, 주식이나 금용 관련 인터넷 뉴스나 주식토론방 등도 주식시장을 이해하는데 활용할 수 있을 것으로 생각하며, 오히려 단순한 검색 정보보다 더 정확한 경향 정보를 줄 수 있을 것으로 생각한다.</p> <h1>인터넷 주식토론방 사용자의 집단행위 분석</h1> <p>인터넷 주식토론방은 주식이나 금용 관련 이슈에 관해 서로의 의견을 주고받는 공간이다. 주식토론방의 게시물을 읽음으로써 사용자들은 자신이 관심 있는 주식이나 회사에 대한 정보나 시장 분위기를 파악할 수 있다. 이 절에서는 주가와 주식토론방에서 나타나는 사람들의 집단적인 반응 사이에 어떠한 상관관계가 있는지를 분석한다.</p>
온라인 매체에서 생성되는 빅데이터를 활용하여 주식시장 움직임을 예측하는 연구가 진행 중이다. 금융관련 단어 검색 변화는 주식시장의 '조기경보' 시스템으로 활용될 수 있으며, 이를 기반으로 한 매매 전략을 세울 수 있다. 트위터 메시지, 포털 검색 데이터가 주로 사용되지만, 금융 뉴스와 주식토론방 정보도 주식시장 이해에 효율적이며, 이들은 검색 정보보다 더욱 정확한 경향 정보를 제공할 수 있다.
<p>먼저 '다음' 포털의 주식토론방 데이터를 이용해서 포트폴리오를 구성하고 모의 투자 실험을 수행하였다. 각각의 수익률은 Table 3 에 정리되어 있으며, 지면 관계상 전체 수익률 결과의 일부만 나타내었다. 모의 투자 실험에서 실험 기간의 1개월 수익률 평균은 약 \( 1.55 \% \) 로, 기존 방법보다는 약 \( 0.67 \% \), 마코위츠 방법보다는 약 \( 0.72 \% \), 코스피 평균 수익률 보다는 약 \( 1.21 \% \) 높게 나타났다. 실험 결과에서 알 수 있듯 이 모의 투자 실험 결과, 제안 방법으로 구성한 포트폴리오가 비교 포트풀리오들의 수익률보다 높게 나타났다.</p> <p>모의 투자 동안 누적 투자 수익률을 분석한 결과 포트폴리오별 누적 수익률은 Fig. 9와 같이 나타났다. Fig. 9에서 포트폴리오별 누적 투자 수익률의 등락은 투자 기간 중 거의 비슷한 패턴으로 나타나고 있다. 비교 포트플리오 중에서 제안 방법으로 구성한 포트폴리오가 모의실험 기간 중 거의 전 구간에서 높은 수익률을 보이는 것으로 나타넜다.</p> <p>다음으로 '네이버' 포털에서 제공하는 주식토론방의 데이터를 이용하여 포트폴리오를 구성하고 같은 방법으로 모의 투자를 수행하였다. '네이버' 주식토론방의 경우 '다음' 주식 토론방과는 달리 현재 날짜에서 이전 1년 동안의 게시물 데이터만 제공하고 있다.</p> <p>모의 투자 실험을 위해 사용된 데이터는 2012년 12월 1일 부터 2013년 11월 30일까지의 데이터이고, 모의 투자 기간은 2013년 1월부터 2013년 11월까지 총 11개월이다. 포트폴리오 별 모의 투자 수익률은 Table 4에 정리되어 있다. 모의 투자 실험에서 실험 기간의 1개월 수익률 평균은 약 \( 0.90 \% \) 로, 기존 방법보다는 약 \( 0.35 \% \), 마코위츠 방법보다는 약 \( 0.40 \% \), 코스피 평균 수익률보다는 약 \( 0.58 \% \) 높게 나타났다. '다음' 과 '네이버' 주식토론방 데이터를 이용했을 때와 수익률은 다르지만 '네이버' 주식토론방 데이터를 이용한 겅우에도 제안 방법으로 구성한 포트폴리오의 수익률이 비교 포트폴리오의 수익률보다 모두 높게 나타났다. 실험을 통해서 주식 토론방 게시물과 주가와의 상관관계는 주식수익률과 어느 정도 관련이 있음을 알 수 있다.</p> <p>특히, 이러한 특성은 특정 주식토론방에만 국한된 것이 아니라 인터넷상의 주식토론방에서 공통으로 나타나는 특성일 것으로 추측해볼 수 있다.</p>
'다음' 포털의 주식토론방 데이터를 활용하여 포트폴리오 구성과 모의 투자 실험을 수행하였다. 결과적으로, 제안한 방법론으로 구성된 포트폴리오의 수익률이 비교 기준에 따른 수익률보다 더 높았다. '네이버'의 경우, 최근 1년치 데이터만을 제공하고 있다. 평균 1개월 수익률은 약 \(0.90\%\)로, 기존 방법보다 약 \(0.35\%\), 마코위츠 방법보다 약 \(0.40\%\), 코스피 평균 수익률보다는 약 \(0.58\%\) 높았다. 실험을 통해 주식 토론방 게시물과 주가 간의 상관성이 주식 수익률과 관련 있음이 확인되었다.
<h1>요약</h1> <p>협력적 다중 홉 동신은 열악한 누선 봉신 환경인 수중 음향 네트워흐 환경에서 보나 더 효율적인 통신을 제공한다. 그러나 이러한 형력적 다중 홈 통신은 초기 시간 구간에서 현려 노-드 개수 부종으로 인하여 초기 느드에서 오류가 난 신호를 반을 환률이 곺고, 오류 신호가 계속적으로 전송되므로 오류 확률증가가 예상된나. 이와같은 는제점을 해셜하기 위하여 본 논문에서는 초기 시간 구간에서 파요-틴 코드를 적용하여 성능을 개선시킬 수 있윽을 모의실헉은 통해 보인다. 또한 주파수와 기리에 따른 성능을 송신신력의 관점에서 보고 모의실험을 동해 성능을 보인다.</p> <h1>I. 서 론</h1> <p>파운틴 코드는 Erasure 채널로 표현되는 네트워크상에서 브로드캐스팅 및 멀티캐스팅에 적합하도록 개발된 채널 부호화 기술로서, 정해진 부호율 없이 정보비트를 많은 양으로 부호화하여 전송하는 톡징을 가지고, 부호화한 데이터의 양이 정해지지 않기 때문에 이를 Rateless code라.고도 부른다. 이러한 파운틴 코드는 많은 양으로 부호화된 정보패킷을 보낸 후, 피드백 없이 복호가 가능할 정도의 패킷을 수신하여 복호화 함으로써 에러 없이 완벽한 수신을 가능하게 한다는 장점을 가지며, 이에 대한 연구가 활발히 진행되고 있다.</p> <p>한편 수중 채널은 기존의 무선퉁신 채넌에 비해 심각한 페이딩 현상을 역게 된다. 물리적 특성으로써 경로 손실 지수(Path loss exponent)가 1.5성도로 그리 열악한 편은 아니지만, 캐리어 주파수가 커질수록 심각한 페이딩 현상을 겪게 되므로, 기존의 무선 통신채널에서 사용되는 캐리어 주파수 보다는 훨씬 낮은 대역인 음향파, 초음퐈를 이용해야 한다. 이러한 이유로 열악한 수중 채널에서 보다 나은 통신환경을 제공하기 위한 방법으로 수중에서의 센서나 차량들을 통한 협력 다중노드(Multi-node cooperation)를 기본으로 하는 협력적 다중 홉 통신(Multi-hop cooperative communication)이 제안되었다.</p> <p>이러한 통신은 다중 홉과 협력 통신을 통해 이득을 얻을 수 있지만, 초기 전송 구간에서는 협력하는 노드의 개수가 부족하여 선송 다이버시티에 의한 협력 이득을 얻기 힘들고, 초기오류가 난 노드는 계속적으로 오류가 난 신호를 보내게 되는 error propagation 현상이 생기게 되므로, 이에 따른 성능감소가 있다. 그러므로 본 논문에서는 협력적 다중 홉 통신의 초기 전송 구간에서 파운틴 코드를 적용하여, 협력 통신의 이득 감소에 따른 error propagation현상을 막고, 이를 통해 성능을 개선시킬 수 있음을 모의실험을 통해 보인다. 또한 이러한 수중통신 시스템은 채널감쇠지수가 주파수와 거리에 지수적으로 감소하기 때문에 주파수와 거리에 따른 성능을 수신신호 대 잡음비(Signal to Noise Ratio, SNR)로 비교한다면 혼동이 올 수 있다. 따라서 본 논문에서는 주파수와 거리에 따른 성능을 송신전력의 관점에서 바라보고 이에 따른 성능지표를 모의실험을 통해 제시한다.</p>
협력적 다중 홉 통신이 수중 음향 네트워크에서 더 효과적이지만, 초기 시간 구간의 노드 개수 부족으로 인한 오류 확률 증가 문제가 있다. 본 논문은 이 문제를 해결하기 위해 초기 시간 구간에 파이로틴 코드를 적용하여 성능을 개선하는 방법을 제안한다. 또한, 주파수와 시간에 따른 성능 향상을 송신 신호 강도 관점에서 분석하고, 이를 통해 제안한 방법의 효과를 보여준다.
<h1>Ⅳ. 모의실험 결과</h1> <p>본 장에서는 파운틴 코드를 적용한 협력적 다중 홉 통신 시스템의 모의실험 결과를 다룬다. 선형 노드 구조와 격자형 노드 구조에서 각각 모의실험 하였으며, 수신단에서는 이상적인 등화기를 통해 심볼간 간섭에 의한 효과는 존재하지 않는다고 가정하고, 다중사용자에 의한 다중 사용자 간섭(Multiuser Interference) 또한 고려하지 않는다. 또한 경로 손실 지수는 \( 1.5 \) 이고 캐리어 주퐈수는 \( 1.5 \mathrm { kHz } \) 이다. 그림 5는 총 노드의 개수 \( I \) 가 13 인 선형 노드 구조에서의 모의신험 결과이다. 협력하는 노드의 개수가 2, 3, 4개이며 초기 전송 구간, 즉 협력 노드 개수가 2개일 경우에는 첫 번째 시간 구간, 협력 노드 개수가 3개일 경우에는 두 번째 시간 구간, 협력 노드 개수가 4개일 경우에는 세 번째 시간 구간까지 파운틴 코드를 적용한 경우를 모의실험한 결과이다. 그림 6은 총 노드의 개수 \( I \) 가 13 인 격자형 노드 구조에서의 모의실험 결과이다. 협력하는 노드의 개수가 2, 3, 4개이며, 그림 5와 마찬가지로 파운틴 코드를 적용하였을 경우를 모의실험한 결과이다. 그림 5, 그림 6에서처럼 충분한 오류확률 개선의 효과가 있음을 볼 수 있고, 이는 초기에 모든 협력 노드가 오류 없이 협력통신을 하는 것에 따른 이득이라 할 수 있다.</p> <p>한편 협력적 다중 홉 시스템의 성능은 다중 홉 이득에 비례하게 되므로 두 채널감쇠지수의 비에 또한 비례한다. 그러므로 다중 홉 시스템은 식 (2)에서 정의한 \( S N R_ { X } \) 의 관점으로 본다면, 주파수와 거리가 커짐에 따라 오류확률이 감소하게 되므로, 각각의 케리어 주파수에서 \( S N R_ { T } \) 에 따른 비트오류확률은 혼동이 될 수 있다. 그러므로 본 장에서는 주파수에 따른 성능의 변화를 보기위해 추가적인 모의실험을 하였다. 그림 7은 주어진 비트오류확률에서 주파수에 따른 송신전력의 양을 나타낸 그림이다. 그림 7에서처럼 주어진 비트 오류확률을 달성하기 위해 송신전력이 주파수와 거리에 따라 증가하는 것을 볼 수 있다.</p> <h1>V. 결 론</h1> <p>본 논문에서는 협력적 다중 홉 통신에서 성능 향상을 위해 초기 전송 구간에 파운틴 커드를 적용하였다. 협력적 다중 홉 통신은 초기 전송 구간에서 혐력하는 노드의 개수가 부족하여 전송 나이버시티에 의한 협력이 득을 얻기 어럽고, 오류 노드의 비트가 계속적으로 전송되어 성능이 감소된다. 따라서 협력 노드의 개수가 부족한 초기 전송 구간에 퐈운틴 커드를 적용하여 선송 다이버시티에 의한 협력이득 효과를 증가시킴으로써, 이에 따른 충분한 성능향상의 효과를 볼 수 있다. 또한 주파수에 따른 성능을 비교할 경우, \( S N R_ { T } \) 에 대한 비트 오류확률로 보는 것은 혼동이 올 수 있다. 이러한 이유로 본 논문에서는 새로운 성능지표로써 주파수와 거리에 따른 송신전력의 양을 비교하였다.</p>
협력적 다중 홉 통신에서 초기 전송 구간의 성능을 향상시키기 위해 파운틴 코드를 적용하였다. 초기 전송 단계에서 협력 노드의 수가 부족하여 전송 다이버시티를 통한 협력 효과를 얻기 어려운 문제와 오류 노드의 비트 계속 전송으로 인한 성능 저하 문제를 파운틴 코드 적용으로 개선하였다. 이를 통해 초기 전송 구간에서 충분한 성능 향상 효과를 얻을 수 있었다.
<h1>II. 채널 및 신호 모델</h1> <p>본 장에서는 다중 홉 시스템 상에서 정보 비트를 보내기 위해 다중 노드가 협력하고, 초기 전송 구간에는 파운틴 코드를 적용하여 error-free한 상태로 전송되는 경우를 고려한다. 또한 노드의 기하학적 구조에 따라 서로 다른 성능을 갖게 될 것이고, 본 논문에서는 선형 토폴로지와 격자형 토폴로지를 다룬다. \( K \) 는 협력하는 노드들의 개수이고, \( l \) 는 전송노드와 수신 노드를 포함한 전체 노드의 개수이다. 그렇다면 읶의의 노드 \( i \) 에 대해 \( (i-1) \) 번째 시간 구간 바로 전까지 각각의 노드 \( \{1,2, \ldots, i-1\} \) 는 이미 전송된 정보 비트를 받았다고 가정하고, 초기 \( K \) 개의 노드는 파운틴 코드를 통해 오류없이 신호를 복호했으므로 정보 비트를 \( \left\{\widehat{b_{1}}=b, \ldots, \widehat{b_{K}}=b, \widehat{b_{K+1}}, \ldots, \widehat{b_{i-1}}\right\} \) 를 복호했다고 가정한다. 여기서 \( b \) 는 전송하고자 하는 비트이다. 그렇다면 \( i-1 \) 번째 시간 구간 동안에 는, 근접하는 \( K(K \leq I) \) 개의 노드에서만 \( i \) 번째 3 -드로 전송한다고. 가정한다. 그림 1은 전체 노드의 개수가 5개, 협력하는 노드의 개수가 2개일 경우를 나타낸 그림이고, 그림 2는 전체 노드의 개수가 7개, 협럭하는 노드의 개수가 3개일 경우를 나타낸 그림이다.</p> <p>한편 \( i \) 번째 노트 \( (i \geq K) \) 에서 받는 기저대역 신호는 다음과 같이 포현 할 수 있다.</p> <p>\( r_{i}(t)=\sum_{k=i-K}^{i-1} A_{k, i} \sqrt{P_{k \rightarrow i}} \hat{b_{k}} c_{k}\left(t-t_{k, i}\right)+n(t) \) \( \left(t \in\left[(i-1) T_{s}, i T_{s}\right)\right) \)<caption>(1)</caption></p> <p>\( n(t) \) 는 평균이 0 , 분산이 1 인 벡색 가우시안 프로세스이며, 노드 \( k \) 와 노드 \( i \) 사이의 채널 감쇠(Channel Attenuation)를 의미하는 \( A_{k, i} \) 는 변수 \( \gamma_{A_{k, i}}^{2}=C d_{k, i}^{\alpha} a\left(f_{c}\right)^{d_{k, i}} \) 를 갖는 레일라이 확률변수이고, \( f_{c} \) 는 캐리어 주퐈수, \( \alpha=1.5 \) 는 경로 손실 지수(Path loss exponent)이다. \( a\left(f_{c}\right) \) 는 \( d B / k m \) 로 주어진다. \( \left\{A_{i}\right\}_{i=1}^{K} \) 는 각각 서로 독립적이며, \( d_{k, i} \) 는 \( k \) 느드와 \( i \) 노드 사이의 거리를 의미하고, \( \mathrm{C} \) 는 상수이다. 또한 \( k \) 노드에서 \( i \) 노드로 전송하는 전력은 \( P_{k \rightarrow i} \) 로 표현하고, \( c_{k} \) 는 확산 시퀀스이다. 또한 완벽한 채널 추정이 이루어졌다고 가정하고, 덜레이에 관한 정보도 알고 있다 가정한다. 또한 maximum ratio combining(MRC)가 수신단에서 이뤄졌다고 가정한다.</p>
다중 홉 시스템 상에서 정보 비트를 보내기 위해 다중 노드가 협력하고, 초기 전송 구간에는 파운틴 코드를 적용하여 상태로 전송되는 경우를 고려하며, 또한 노드의 기하학적 구조에 따른 서로 다른 성능을 갖게 될 것이다.
<h1>III. 다중 홉 이득</h1> <p>한편, 수중통신에서의 수신신호 대 잡음비는 다음과 같이 정의할 수 있다.</p> <p>\( S N R_ { T } \equiv \frac { 2 P_ { T } \gamma_ { A_ { o } } ^ { 2 } } {\sigma_ { n } ^ { 2 } } = 2 P_ { T } C d_ { 0 } ^ {\alpha } a \left (f_ { c } \right ) ^ { -d_ { 0 } } \)<caption>(2)</caption></p> <p>이는 송신부와 수신부의 직접전송시에 해당하는 수신신호대 잡음비이며, 이를 통해 다중홉을 이용하여 전송할 경우 \( i \) 번째 노드 \( (i \geq K) \) 에서 수신신호 대 잡음비는 다음과 같이 표현한다.</p> <p>\( \begin {aligned} S N R_ { i } &=2 \left (P_ { T } / n \right ) \gamma_ { i-1 \rightarrow i } ^ { 2 } \\ &=2 \left (P_ { T } / n \right ) C d_ { i-1 \rightarrow i } ^ { - \alpha } a \left (f_ { c } \right ) ^ { -d_ { i-1 \cdots i } } \end {aligned} \)<caption>(3)</caption></p> <p>\( n \) 은 홉 수이며 선력 제한을 위해 \( \sum_ { i=1 } ^ { n } P_ { i-1 \rightarrow i } =P_ { T } \) 의 조건을 만족한다. 식 (2), (3)을 통해 직접 송신시, 다중홉을 이용한 송신시 각각의 경우에 해당하는 이론적 비트오류확률(Bit Error Rate, BER)를 얻을 수 있으며 이 두 확률의 비를 다중홉 이득(Multi Hopping Gain, MHG \) 이라 한다. 이러한 다중홉 이득은 다음과 같은 식을 만족한다.</p> <p>\( M H G=C ^ {\prime } \frac {\gamma_ { i-1 \rightarrow i } ^ { 2 } } {\gamma_ { A_ { 0 } } ^ { 2 } } \)<caption>(4)</caption></p> <p>즉, 두 채널감쇠지수의 비에 비례하는데, 그림 3, 그림 4는 주파수에 따른 두 채널감쇠지수의 비를 나타낸 그래프이다. 주파수, 거리에 따라 채널감쇠지수의 비가 증가하므로, 다중 홉 이득 또한 증가한다고 볼 수 있다.</p>
수중통신에서 수신신호 대비 잡음비는 송신부와 수신부의 직접적인 전송시에 수신신호대 잡음비를 말한다. (2)번식과 (3)번식에서 직접적인 송신시, 다중홉을 이용한 송신시 이론적 비트오류확률를 구할 수 있다. 이 2가지의 확률 비를 다중홉 이득 이라고 부른다. 즉, 2개의 채널감쇠지수에 대한 비에 비례하며, 거리 및 주파수에 의하여 채널감쇠지수의 비가 증가하며, 또한 다중 홉 이득도 증가함을 알 수 있다.
<h1>Ⅳ. 네트워크 수명 분석</h1> <p>본 장에서는 제안하는 기법을 적용했을 때의 네트워크 수명을 분석하고자 한다.</p> <p>본 알고리즘의 성능을 비교하기 위한 대상은 Interest 패킷의 전파 지연시간이 가장 짧은 경로를 선택하는 Original DD와 현재의 잔여 에너지양의 최소값이 가장 큰 경로를 선택하는 Max-Min DD이다. 제안 알고리즘 역시 DD 메커니즘에 적용되었다. 본 논문에서 제안하는 DD는 링크 에러율을 기반으로 하여 통신에 사용될 에너지양을 추정하고 패킷 송수신 이후의 잔여 에너지양의 최소값이 가장 큰 경로를 선택한다.</p> <p>시뮬레이션은 DD의 기본적인 데이터 전파 메커니즘과 각각의 경사 설정 알고리즘들을 구현하여 수행하였다. 본 논문에서의 시뮬레이션 환경과 파라미터의 설정은 표 1과 같다. 각각의 노드는 자신과 이웃하는 노드들까지의 링크 에러율을 계산 및 유지하는 것으로 가정하였다. 그리고 실제 실험에서 링크 에러율은 특정한 상한값 미만에서 균등한 분포를 가지는 랜덤한 값을 생성하여 각각의 링크에 동적으로 할당하였다. 실험은 각각의 방식에 의하여 선택된 경로 상으로 패킷을 전송하였을 때의 네트워크 수명을 측정하는 것으로 하였다. 실험 결과를 나타내는 각 그래프의 점들은 이와 같은 측정을 100번 수행한 후의 평균값으로 표시한 것이다.</p> <p>그림 1은 링크 에러율을 변화시켜가면서 네트워크의 수명을 측정한 결과이다. 에러율이 높아질수록 패킷 손실에 따른 재전송이 더욱 빈번하게 발생되어 에너지 소</p> <p>비가 많아지므로 네트워크의 수명은 짧아진다. 하지만, 그림 1에서 볼 수 있는 것처럼, 제안하는 기법의 네트워크 수명은 항상 다른 방식들보다 길다. Original DD는 에너지를 고려하지 않았기 때문에 네트워크의 수명이 가장 짧다. 하지만, Original DD가 지연시간이 짧은 경로를 선택한다는 것은 상대적으로 링크 에러율이 낮은 경로를 선택한다는 것을 의미한다. 에러율은 패킷 손실을 유발하고 재전송을 수반하기 때문에 에러율이 낮으면 지연시간도 짧아질 가능성이 높다. 또한, 에러율이 낮으면 재전송 횟수도 상대적으로 적기 때문에 소비되는 에너지도 줄어들게 된다. 따라서, Original DD는 에너지를 고려하지 않았지만 간접적으로 에러율이 반영되어 있기 때문에 Original DD의 네트워크 수명은 아주 조금씩 줄어들게 된다. Max-Min DD는 잔여 에너지를 고려하였기 때문에 Original DD보다 네트워크의 수명이 훨씬 길다. 하지만, 에러율은 고려하지 않았기 때문에 에러율이 높아질수록 재전송에 소비되는 에너지의 양도 급격하게 늘어나게 되어 네트워크의 수명은 큰 폭으로 줄어들게 된다. 결국, 에러율이 어느 정도 수준 이상이 되면, 에러율이 간접적으로 반영된 Original DD보다 Max-Min DD의 네트워크 수명은 오히려 짧아진다. 네트워크 토폴로지, 에러율 분포, 전송 주기 등 다양한 요인에 따라 달라질 수 있으나, 본 실험에서는 그림 1에서 보는 것처럼 약 \( 75 \% \)의 에러율을 기점으로 하여 Max-Min DD의 네트워크 수명이 Original DD의 네트워크 수명보다 짧아진다. 이에 반하여, 제안하는 DD는 에러율에 따라 예상되는 소비 에너지와 잔여 에너지양을 모두 고려하였기 때문에 Original DD 및 Max-Min DD 보다 항상 네트워크의 수명이 길다.</p>
링크 에러율을 기반으로 하여 통신에 사용될 에너지양을 추정하고 패킷 송수신 이후의 잔여 에너지양의 최소값이 가장 큰 경로를 선택하는 DD를 적용하여 네트워크 수명을 분석하였다. 실험 결과, 링크 에러율이 높아질수록 네트워크의 수명이 감소하는 것을 확인하였다.
<p>이외에도, Directed Diffusion(DD)이라는 데이터 중심적 라우팅 기법도 제안되었다. DD는 질의에 해당하는 Interest 패킷의 전파 과정을 통하여 경사들(gradients)을 설정하고, 이들 중에서 선호하는 경사(경로)를 선택하여 데이터를 전송하는 메커니즘이다. 기존의 DD가 선택하는 경사는 Interest 패킷의 전파 지연시간이 가장 짧은 것이다. DD는 선택된 경사 방향으로만 데이터를 전송함으로써 센싱 데이터의 전송량을 줄였지만, Interest 패킷의 전파와 경사 설정 과정에는 에너지에 대한 고려가 전혀 없다. EDDD(Energy-Efficient Differentiated Directed Diffusion)는 DD를 기반으로 한 것으로서, 실시간 트래픽의 전송을 위한 RT 필터와 일반 데이터의 전송을 위한 BE 필터가 포함되어 있다. BE 필터는 특별한 QoS(Quality of Service) 요구사항이 없는 데이터 전송에 대하여 네트워크의 수명을 늘이는데 목적이 있다. BE 필터는 Interest 패킷의 전파 과정 동안 경로 상에 있는 노드들의 잔여 에너지 값들 중에서 최소값을 갱신해 나간다. 소스 노드는 Interest 패킷이 수신된 방향의 경사들 중에서 잔여 에너지의 최소값이 가장 큰 경사를 선택한다. 이는 특정한 노드의 에너지 고갈을 최대한으로 지연시킴으로써 네트워크의 수명을 연장시키기 위한 것이다. 이러한 접근법은 네트워크의 자원을 관리하는 분야에서 이미 사용되고 있던 방식으로서 Max-Min 문제라고 불린다.</p> <h1>Ⅲ. 제안 알고리즘</h1> <p>본 장에서는 에러율이 높은 무선 센서 네트워크의 수명을 연장시키기 위한 라우팅 기법을 제안한다.</p> <p>본 논문에서 네트워크의 수명은 데이터 전송을 위하여 더 이상 선택할 경로가 없는 시점으로 정하며, 이는 노드의 잔여 에너지양에 의존적이다. 즉, 노드의 에너지가 고갈되어 통신에 참여할 수 없게 되면, 이 노드가 포함된 경로는 더 이상 사용이 불가능하게 된다. 따라서, 잔여 에너지양이 적은 노드의 사용을 피하는 것은 에너지 고갈을 방지 또는 연장시키는 좋은 수단이 된다. 이와 같은 점에 착안한 것이 EDDD의 BE 필터이다. BE 필터는 여러 경사들의 최소 잔여 에너지양들 중에서 가장 큰 값을 가지는 경사를 선택하여 센싱 데이터를 전송한다. 본 논문에서는 이를 \( \mathrm { Max } - \mathrm { Min } \) DD라고 명명하도록 한다. 하지만, 데이터를 전송하고자 하는 현재 시점에서는 더 많은 양의 에너지를 가졌다고 하더라도, 데이터의 송수신 이후에는 오히려 다른 노드들보다 잔여 에너지의 양이 적을 수 있다. 이는 해당 노드의 링크 품질이 나빠서 패킷 손실과 재전송이 빈번하게 발생되어 더욱 많은 양의 에너지를 소비하게 되는 경우이다. 무선 센서 네트워크는 사용하는 무선 매체의 특성과 열악한 환경적인 요인으로 인하여 다른 네트워크들에 비하여 비교적 에러율이 높다는 점에서 이러한 고려는 타당성이 있다고 할 수 있다. 따라서, 본 논문에서는 링크의 에러율을 기반으로 하여 패킷을 송수신한 이후의 잔여 에너지를 예측하고, 이 값들의 최소값이 가장 큰 경로를 선택함으로써 에너지 고갈을 최대한으로 지연시키고 네트워크의 수명을 늘이고자 하는 것이다.</p>
해당 논문은 에러율이 높은 무선 센서 네트워크의 수명 연장을 위한 라우팅 기법을 제안하였다. 노드의 에너지가 고갈되어 통신에 참여를 못하면 이 노드가 포함된 경로는 더 이상 사용이 불가능하다. 따라서 잔여 에너지양이 적은 노드의 사용을 피하는 것은 에너지 고갈 방지 및 연장에 좋은 수단으로 작용하며, 이러한 점에 착안한 것은 EDDD의 BE 필터이다.
<p>특정한 노드가 데이터를 송수신한 이후에 기대되는 잔여 에너지양 \( \left (W_ { x p t } \right ) \)은 식 (1)과 같이 현재의 잔여 에너지양 \( \left (W_ { c m } \right ) \)에서 통신에 소요될 에너지양 \( \left (W_ { c o m } \right ) \)을 감산함으로써 얻을 수 있다. 통신에 소요되는 에너지양은 식 (2)와 같이 수신 에너지양 \( \left (W_ { r c o } \right ) \)과 송신 에너지양 \( \left (W_ { t r n } \right ) \)의 합이다. 만약, 패킷 전송 도중에 링크 상에서 손실이 발생되면 신뢰성 있는 데이터 전달을 위하여 재전송이 수행되어야 한다. 각각의 노드는 패킷 손실 또는 재전송 횟수를 카운트할 수 있으며, 패킷 손실 횟수에 대한 성공한 전송 횟수의 비율을 계산하고 그 이력을 유지할 수 있다. 본 논문에서는 이 비율을 링크 에러율 \( \left (R_ { e r r } \right ) \)이라고 명명한다. 즉, 링크 에러율은 패킷 손실이 발생할 가능성을 나타내게 된다. 따라서, 성공적인 패킷 전송을 위하여 소비되는 에너지양은 링크 에러율에 비례하고 전송 횟수에 따라 늘어나므로, 식 (2)는 식 (3)으로 표현될 수 있다. 결론적으로, 식 (1)과 식 (3)에 의하여 링크 에러율에 따른 패킷 송수신 이후에 기대되는 잔여 에너지양을 추정할 수 있게 된다.</p> <p>\( W_ { x p t(i) } = W_ { c r n(i) } -W_ { c o m(i) } \)<caption>(1)</caption></p> <ul> <li>\( W_ { x p t(i) } \) : 노드 \( i \)가 통신을 한 이후에 기대되는 잔여 에너지양</li> <li>\( W_ { c m(i) } \) : 노드 \( i \)의 현재 잔여 에너지양</li> <li>\( W_ { com(i) } \) : 노드 \( i \)가 통신에 소비하는 에너지양</li></ul> <p>\( W_ { com (i) } =W_ { r c v(i) } + W_ { trn(i) } \)<caption>(2)</caption></p> <ul> <li>\( W_ { com (i) } \) : 노드 \( i \)가 통신에 소비하는 에너지양</li> <li>\( W_ { r cv(i) } \) : 노드 \( i \)가 수신에 소비하는 에너지양</li> <li>\( W_ { trm(i) } \) : 노드 \( i \) 가 송신에 소비하는 에너지양</li></ul> <p>\( W_ { c o m(i) } =W_ { r c v(i) } + \frac { 1 } { 1-R_ { e r r(i) } } \times W_ { trn(i) } \)<caption>(3)</caption></p>
본 논문에서는 특정 노드가 데이터를 송수신한 이후에 기대되는 잔여 에너지양을 추정하기 위해 현재의 잔여 에너지양에서 통신에 소요될 에너지양을 감산해 계산한다. 또한 패킷 손실 또는 재전송 횟수를 카운트하고 링크 에러율을 계산하여 송신 에너지양과 링크 에러율에 따라 소비되는 에너지양을 추정할 수 있다.
<p>라우팅의 측면에서 네트워크의 수명은 전송 횟수와 트래픽 분산에 영향을 받는다. 먼저, 그림 2는 네트워크의 수명이 끝날 때까지 네트워크 내에서 발생한 총 재전송 횟수를 분석한 결과이다. 제안하는 DD는 경사의 설정 과정에 직접적으로 에러율을 반영하였기 때문에 재전송 횟수가 가장 적다. 주목할 점은 그림 1에서 확인한 것처럼 제안하는 DD의 네트워크 수명이 가장 길기 때문에 가장 많은 데이터를 전달하였음에도 불구하고 재전송은 가장 적게 발생했다는 사실이다. Original DD는 전파 지연시간을 기반으로 하지만 에러율이 간접적으로 반영되었으므로 제안하는 DD보다는 많지만 Max-Min DD보다는 적다. Max-Min DD는 현재의 잔여 에너지만 고려하고 에러율과는 무관하기 때문에 재전송이 가장 많이 발생한다.</p> <p>마지막으로, 트래픽 분산 정도를 살펴보기 위하여 전송 횟수에 대한 표준편차를 분석하였다. 그림 3은 각각의 노드에 의한 패킷 전송 횟수들에 대하여 표준편차를 산출하여 표시한 그래프이다. 표준편차가 작다는 것은 모든 노드들이 비슷한 횟수로 데이터 전달에 참여함으로써 트래픽이 네트워크에 골고루 분산되었다는 것을 의미한다. 그림 3에서 보는 것처럼, 에러율이 높아질수록 표준편차는 모두 작아지는데, 제안하는 DD가 항상 가장 작은 값을 나타낸다. 따라서, 본 알고리즘이 트래픽을 가장 잘 분산시켰다는 것을 확인할 수 있으며, 그 결과로 네트워크의 수명이 연장되었다는 사실도 알 수 있다. Original DD는 전파 지연시간이 짧은 경로를 선택하기 때문에 상대적으로 에러율이 낮은 경로를 자주 이용하게 된다. 따라서, 세 가지 방식들 중에서 Original DD의 트래픽 분산 효과가 가장 미미하다. 하지만, 에러율이 높아질수록 더욱 다양한 경로들을 선택하게 됨으로써 트래픽의 분산 정도는 점점 더 커지게 된다. 이에 반하여, Max-Min DD는 현재의 잔여 에너지양에 의존하여 경로를 선택하므로, 이전에 사용한 경로를 연속적으로 사용할 가능성이 적기 때문에 Original DD보다는 트래픽 분산 효과가 크게 나타난다. 하지만, 본 실험 환경에서는 약 \( 40 \% \)의 에러율을 기점으로 하여 Original DD의 표준편차가 Max-Min DD의 표준편차보다 작아진다. Original DD는 에러율의 영향을 받아 점점 더 다양한 경로들을 선택하게 됨으로써 표준편차가 큰 폭으로 줄어드는 반면에, Max-Min DD는 에러율에 많은 영향을 받지 않으므로 줄어드는 표준편차의 폭이 작기 때문이다.</p> <p>이상의 실험 결과들에서 알 수 있는 것처럼, 제안하는 DD는 상대적으로 적은 횟수의 재전송과 효과적인 트래픽 분산에 의하여 네트워크의 수명을 연장시킨다. 따라서, 제안하는 DD는 무선 매체의 특성과 환경적인 요인에 의하여 에러율이 상대적으로 높은 무선 센서 네트워크의 수명을 연장시키는데 효과적인 알고리즘이다.</p> <h1>Ⅴ. 결 론</h1> <p>본 논문에서는 에러율이 높은 무선 센서 네트워크의 수명을 연장시키기 위한 라우팅 알고리즘을 제안하였다. 무선 링크의 품질을 기반으로 하여 패킷을 송수신한 이후의 잔여 에너지를 미리 추정하고, 그 때의 에너지가 가장 많이 남아 있을 것으로 예상되는 경로로 센싱 데이터를 전송하였다. Original DD는 에너지에 대한 고려가 미비하지만 에러율이 간접적으로 반영되어 있다. Max-Min DD는 현재의 잔여 에너지를 기반으로 하지만 에러율을 고려하지 못하였다. 이에, 본 논문에서는 무선 매체의 특성과 환경적인 제약으로 야기될 수 있는 에러율과 데이터 송수신 이후의 잔여 에너지를 모두 고려하고자 한 것이다.</p> <p>실험을 통하여, 제안하는 DD 기법이 다른 방식들에 비하여 네트워크의 수명을 더욱 연장시킨다는 사실을 확인할 수 있었다. 제안하는 기법은 에러율을 고려하였기 때문에 재전송 횟수가 줄어들었고 트래픽도 다른 방식들보다 골고루 분산시켰다. 그리고 송수신 이후의 잔여 에너지양들 중에서 최소값이 가장 큰 경로를 선택함으로써 노드의 에너지 고갈을 최대한으로 지연시킬 수 있었다. 향후에는 통신에 소비되는 에너지 외에 노드상에서의 에너지 소비도 함께 고려하는 알고리즘을 개발하고자 한다.</p>
본 논문은 라우팅의 측면에서 네트워크의 수명은 전송 횟수와 트래픽 분산에 영향을 받음을 설명한다. 제안하는 DD는 경사의 설정 과정에 직접적으로 에러율을 반영하여 재전송 횟수가 가장 적고, 트래픽 분산 정도를 살펴보기 위하여 전송 횟수에 대한 표준편차를 분석하였을 때 가장 작은 값을 나타냈다. 즉 제안하는 DD는 무선 센서 네트워크의 수명을 연장시키는데 효과적인 알고리즘이라는 결론을 얻었다.
<h1>요 약</h1>본 눈문에서는 에러율이 높은 무선 센서 네트워크의 수명을 연장시키기 위한 라우팅 알고리즘을 제안한다. 제안하는 기법은 무선링크의 품질을 기반으로 하여 패킷을 송수신한 이후의 잔여 에너지를 미리 추정하고, 그 때의 에너지가 가장 많이 남아있을 것으로 예상되는 경로로 데이터를 전송한다. 제안하는 기법은 에러율을 고려하기 때문에 불필요한 재전송에 따른 에너지 소비를 줄이고 트래픽도 골고루 분산시킨다. 그리고 송수신 이후의 잔여 에너지양들 중에서 최소값이 가장 클 것으로 예상되는 경로를 선택함으로써 노드의 에너지 고갈을 최대한으로 지연시킨다. 다른 방식들에 비하여 제안하는 기법이 네트워크의 수명을 더욱 연장시킨다는 사실을 실험을 통하여 확인할 수 있었다.<h1>Ⅰ. 서 론</h1> <p>무선 센서 네트워크는 온도, 조도, 습도 등의 물리적인 현상을 감시하기 위한 목적으로 많은 개수의 센서 노드들로 구성된다. 이러한 센서 노드들은 특정한 환경에 노출되고 협업을 통하여 주어진 임무에 맞는 정보를 수집한 후 싱크 노드로 전송한다. 센서 노드가 배치되는 지리적인 특성으로 인하여 일정한 지역 내에 무작위로 배치되는 경우가 일반적이며, 이러한 이유로 인하여 무선 센서 네트워크는 자가 구성(self-organization) 능력이 요구된다. 또한, 센서 노드들은 접근하거나 관리되기 어려운 경우가 많으므로, 센서 노드들의 배터리가 고갈되면 충전하거나 교체하기 어렵기 때문에 네트워크는 더 이상 데이터 수집 기능을 수행할 수 없게 된다. 따라서, 무선 센서 네트워크의 프로토콜들은 에너지를 가능한 한 효율적으로 사용해야 한다. 이러한 배경에 근거하여, 무선 센서 네트워크와 관련된 많은 연구들은 에너지 효율성과 네트워크 수명에 초점이 맞추어져 있다.</p> <p>무선 센서 네트워크에서 에너지 소비를 줄이기 위한 방안으로는 다음과 같은 것들이 있다. 먼저, 하나의 긴 홉으로 전달하는 것보다는 여러 개의 짧은 홉들을 거쳐서 전송하는 것이 통신에 소비되는 에너지가 적으므로, 무선 센서 네트워크는 기본적으로 멀티 홉(multi-hop) 전송 기법을 사용한다. 다음으로, 무선 센서 네트워크는 동일한 데이터의 중복성이 높으므로 통합(aggregation)과 퓨전(fusion)과 같은 네트워크 내부에서의 처리(in-network processing)를 통하여 데이터를 결합(combination)시킴으로써 전송 데이터의 양을 축소시키는 방법이 있다. 이는 내부 연산에 의해 소비되는 에너지는 통신에 의해 소비되는 에너지보다 적기 때문이다. 또 다른 하나의 방법은 저전력 수면 모드(low-power sleep mode)를 사용하는 것이다. 데이터를 감지하거나 전송하지 않을 때에는 노드의 운용에 필요한 최소한의 전력만 사용함으로써 노드의 에너지 소비를 최소화시키는 것이다. 마지막으로, 라우팅 방식에 의하여 에너지 소비를 골고루 분산시킴으로써 특정한 노드에 에너지 소비가 집중되는 것을 방지하여 네트워크의 사용 시간을 연장시키는 방법이 있다.</p>
무선 센서 네트워크에서 에너지 소비를 줄이기 위한 방안으로는 멀티 홉 전송 기법, 네트워크 내부 처리를 통한 데이터 결합, 저전력 수면 모드, 라우팅 방식에 의해 네트워크 사용 시간을 연장시키는 방법이 있다.
<p>\( R_ {\text { err(i) } } \) : 노드 \( i \)의 링크 에러율</p> <p>\( N R G_ { (i, 0) } = { Min } _ { n=1 } ^ { i } \left \{ W_ { x p t(n) } \right \} \)<caption>(4)</caption></p> <p>\( N R G_ { (i, 0) } \) : 노드 \( i \)에서 싱크 노드 0까지의 경로 상에 존재하는 모든 노드들의 기대되는 잔여 에너지양들 중에서 최소값</p> <p>\( N R G_ { (i, 0) } = { Min } \left \{ N R G_ { (i-1,0) } , W_ { x p t(i) } \right \} \)<caption>(5)</caption></p> <p>이상과 같이, 각각의 노드에서 기대되는 잔여 에너지양은 식 (1)과 식 (3)에 의하여 추정되고, 경로 상의 최소값은 식 (4)에 의하여 선택될 수 있다. 이 때, 경로 상에 존재하는 노드들의 기대되는 잔여 에너지양들 중에서 최소값(N R G)은 DD의 Interest 전파 과정에서 식 (5)에 의하여 간단하게 갱신된다. 어떠한 노드가 수신한 Interest 패킷 내에는 싱크 노드로부터 자기 이전의 노드들까지의 기대되는 잔여 에너지 값들 중에서 최소값 \( \left (N R T_ { (i-1,0) } \right ) \)이 들어 있는데, 이 값과 자기 자신의 기대되는 잔여 에너지 값 \( \left (W_ { x p t t i } \right ) \)을 비교하여 더 작은 값으로 대체한다. 그런 다음, 자신이 유지하는 테이블의 경사 정보들을 갱신하고, 다시 이웃하는 노드들로 Interest 패킷을 전파시킨다. Interest 패킷을 수신하는 노드들 중에서 Interest 패킷 내의 질의에 부합하는 데이터를 가진 노드는 소스 노드가 된다. 소스 노드는 여러 경사들 중에서 \( N R G_ { (i, 0) } \) 값이 가장 큰 경사를 선택함으로써 해당되는 경로를 통하여 싱크 노드 방향으로 센싱 데이터를 전달하게 된다.</p> <p>본 논문에서 제안하는 알고리즘은 근본적으로 최소잔여 에너지가 가장 큰 경로를 선택하기 위한 기법이다. 하지만, 현재의 잔여 에너지양에 기반하는 기존의 방식들과는 달리, 제안한 기법은 패킷을 송수신한 이후의 잔여 에너지양이 얼마나 될 것인가를 에러율에 근거하여 추정하였다. 그리고 그 최소값이 가장 큰 경로를 선택하여 센싱 데이터를 전달함으로써 노드의 에너지 고갈을 최대한으로 지연시키고 네트워크의 수명을 연장시키고자 한 것이다.</p>
본 논문에서 제안하는 알고리즘은 NRG (i,0)가 가장 큰 경로를 선택하기 위한 기법이다. 각 노드의 잔여 에너지양은 식(1)과 식(3)에 의하여 추정되고, 경로 상의 최소값은 식(4)에 의하여 선택되며, Interest 패킷을 통해 갱신된다. 이를 통해 노드의 에너지 고갈을 최대한 지연시키고 네트워크의 수명을 연장하고자 한다.
<p>본 논문은 경로 선정 기법에 의하여 무선 센서 네트워크의 수명을 연장시키고자 한다. 라우팅에 의하여 트래픽을 분산시키는 기법들은 대부분 노드의 잔여 에너지양에 의존한다. 즉, 에너지가 더욱 많이 남아 있는 노드들을 통하여 데이터를 전송함으로써 노드들의 에너지 고갈을 최대한 지연시키는 방법으로 수명을 늘이는 것이다. 하지만, 기존의 기법들은 현재의 잔여 에너지만을 기반으로 할 뿐이며, 앞으로 데이터를 전송함으로써 소비하게 될 에너지양은 예측하지 못한다. 현재의 잔여 에너지는 다른 노드들보다 많지만, 이후에는 데이터 송수신을 위하여 더 많은 에너지를 소비할 가능성도 배제할 수 없다. 왜냐 하면, 해당 노드의 링크 신뢰성이 낮아 패킷 손실과 재전송이 다른 노드들에서보다 더욱 자주 발생할 수도 있기 때문이다. 이에 대한 원인은 다른 네트워크들에 비하여 비교적 에러율이 높은 무선 매체의 특성과 전파에 영향을 미치는 열악한 환경에서 찾을 수 있다. 따라서, 본 논문은 무선 링크의 품질을 기반으로 하여 패킷을 송수신한 이후의 잔여 에너지를 미리 추정하고, 그 때의 최소 에너지양이 가장 많을 것으로 예측되는 경로로 데이터를 전송하고자 하는 것이다. 이러한 방법으로 노드의 에너지 고갈을 최대한 지연시킴으로써 네트워크의 수명을 연장시키고자 하는 것이다.</p> <p>본 논문의 구성은 다음과 같다. Ⅱ장에서는 에너지 효율성 및 네트워크 수명과 관련된 기존의 라우팅 기법들을 고찰한다. Ⅲ장에서는 링크 에러율과 잔여 에너지 예측을 통하여 에너지 효율적인 경로를 선택하는 알고리즘을 제안한다. Ⅳ장에서는 실험을 통하여 기존의 라우팅 기법과 제안 알고리즘의 네트워크 수명을 비교 및 분석한다. 마지막으로, Ⅴ장에서 결론을 맺고 향후 연구과제를 언급한다.</p> <h1>Ⅱ. 관련 연구</h1> <p>본 장에서는 센서 노드들의 에너지 효율성을 높이고 네트워크의 수명을 연장시키기 위한 기존의 라우팅 기법들을 고찰해 본다.</p> <p>플러딩(flooding)은 데이터나 메시지 패킷을 수신하는 각 노드가 자신의 모든 이웃 노드들로 데이터를 브로드캐스트하는 것이다. 상태 정보를 유지할 필요가 없으므로, 토폴로지를 유지하기 위한 비용과 경로 발견을 위한 복잡한 알고리즘을 요구하지 않는다. 또한, 정보를 빠르게 전파한다는 장점이 있다. 그러나, 내파(implosion)와 겹침(overlapping), 그리고 자원 무분별(resource blindness)의 문제가 있다. 자원 무분별이란 노드의 이용 가능한 에너지를 전혀 고려하지 않는다는 것이다. 가시핑(gossiping)은 플러딩의 고전적인 대안으로서 에너지 효율성을 성취하기 위한 것이다. 수신되는 패킷을 브로드캐스트하지 않고 임의의 노드를 선택하여 전달한다. 임의의 노드로 하나의 데이터 사본을 전송하기 때문에 내파 문제가 발생하지는 않는다. 하지만, 모든 노드들로 메시지를 전파하는데 시간이 오래 소요되며, 모든 노드들로 데이터가 전달된다는 것을 보장할 수 없다. SPIN(Sensor Protocols for Information via Negotiation)은 플러딩과 가시핑의 단점을 보완하기 위해 제안된 것으로서 메타 데이터를 이용한 협상을 통하여 데이터를 전송한다. 또한, LEACH(Low Energy Adaptive Clustering Hierarchy)와 같은 계층적인 방식들도 제안되었는데, 이는 대표 노드(cluster head)만이 제어와 데이터 전송에 참여함으로써 데이터의 전파 범위를 제한시키고 에너지 소비를 균등하게 분산시키기 위한 것이다.</p>
본 논문에서는 센서 노드들의 에너지 효율성을 높이고 네트워크의 수명을 연장시키기 위한 기존의 라우팅 기법인 플러딩과 PIN, 가시핑에 대해서 설명하였다. 무선 링크의 품질을 기반으로 하여 패킷을 송수신한 이후의 잔여 에너지를 미리 추정하고, 그 때의 최소 에너지양이 가장 많을 것으로 예측되는 경로로 데이터를 전송하여 노드의 에너지 고갈을 최대한 지연시킴으로써 네트워크 수명을 연장시키는 방법을 제안한다.
<h1>Ⅰ. 서 론</h1> <p>최근 IT분야의 융합에 관한 논의가 다각적으로 이루어지고 있다. 기존에는 유선과 무선, 방송과 통신 등의 개별분야로 나뉘어 있었지만, 데이터 소스의 디지털화와 디지털방식에 기반 한 전송방식에 의해 이종 시스템간 융합이 용이해졌다. 이러한 융합 서비스는 기존의 개별 서비스에 비해 사용자들로 하여금 이용에 대한 접근을 용이하게 함으로써 관련 산업 분야의 성장을 촉진 시킬 것으로 보인다. 또한 시스템 구축에 필요한 back-bone 네트워크를 공유하고 무선 주파수와 같은 여러 가지 시스템 리소스를 효율적으로 이용 가능케 함 으로써 서비스 공급자들이 과도하게 투자해야 하는 초기 비용에 대한 부담을 줄일 수 있는 장점이 있다.</p> <p>융합시스템에 대한 대표적인 예는 최근T-DMB (Terrestrial-Digital Multimedia Broadcasting) 네트워크를 이용한 재난경보방송 시스템의 구축이다. T-DMB는 전국적으로 네트워크가 구축이 되어 있으며 음영지역에 대해서는 지속적으로 중계기를 구축할 전망이다. 재난경보방송을 구축하는데 T-DMB 네트워크를 이용한 주요한 이유는 VHF 대역의 주파수의 우수한 전파성질 때문이다. 무선통신 기반의 긴급과 정확한 정보 전달을 요구하는 재난방송 시스템에서는 주파수의 전달 특성이 중요한 요소이기 때문이다. 또한 T-DMB의 송신기와 중계기는 해당 지역의 지리정보를 포함하기 때 문에 국지적으로 발생하는 재난상황을 해당 지역에만 국한하여 전달하는데 매우 유리하다. 이와 같은 예는 앞으로 사용 목적과 분야에 따라 다양한 응용이 제시될 것으로 예상된다.</p> <p>그러나 이러한 융합서비스를 제공하기 위해서는 관련 표준에 대한 수정과 보완이 선행되어야 하는 부담이 있다. 대부분의 방송 및 통신 분야에서의 표준은 매우 민감한 요소로써 각 국가별 이해 당사자들 간의 합의가 이루어져야 하기 때문에 소요되는 시간과 비용이 적지 않다.</p> <p>따라서 본 고에서는 방송 및 통신 융합에 있어서 요구되는 부담요소를 배제하고 상황별 응용목적에 따라 유동적으로 적용할 수 있는 융합시스템의 예를 들고, 예시된 시스템을 이용하여 무선채널을 통해 정보를 전송할 때 얼마만큼의 신뢰성 있는 정보를 전송할 수 있는지에 대한 채널용량에 대한 분석을 수행하기로 한다.</p> <p>본 논문의 구성은 II장에서 일반적인 융합시스템 모델을 설명하고, III장에서 무선채널상에서의 채널용량을 수식적으로 유도하고, IV장에서 유도된 수식을 바탕으로 다양한 채널 변수에 따른 채널용량의 변화를 보이며, 끝으로 V장에서 결론을 맺는다.</p>
IT 분야의 융합 서비스는 기존에 비해 사용자들의 접근이 쉬워 관련 산업 분야의 성장을 촉진시킬 것으로 예상되고, 대표적인 예로 T-DMB 네트워크를 이용한 재난경보방송 시스템이 있다. 하지만 융합서비스를 제공하기 위해서는 관련된 표준의 성립이 우선되어야하므로 본 고에서는 방송 및 통신 융합의 부담요소를 배제하고 상황별 목적에 따라 유동적으로 적용 가능한 예를 들어 무선채널을 통해 정보를 전송할 때의 채널용량을 분석했다.