passage
stringlengths 5
922k
| summary
stringlengths 0
10.2k
|
---|---|
<h2>3. 다양한 부호을과 부호어 길이를 지원하는 인터커넥션 네트워크</h2><p>Two-phase 복호 과정 기반의 전 병렬구조 LDPC 복호기는 변수 노드와 체크 노드의 연결이 hardwired 연결이기 때문에 다중 모드를 지원하기 어려운 단점이 있다. 패리티 검사 행렬에 따라 변수 노드와 체크 노드간의 연결이 다른데 hardwired로 연결 한 경우 패리티 검사 행렬에 따라 연결을 바꾸기 어렵기 때문이다.</p><p>본 논문에서는 전 병렬구조에서 다양한 패리티 검사 행렬을 지원할 수 있는 라우팅 기반의 인터커넥션 네트워크 설계 기술에 대하여 제안한다. 그림 4는 본 논문에서 제안하는 다중 모드를 지원하는 라우팅 기반 인터 커넥션 네트워크의 블록다이어그램이다. III장 1절에서 설명했듯이 하나의 CCVPU group 출력은 패리티 검사 행렬에 따라서 4개의 CCVPU group으로 이루어진 6 개의 큰 group으로 전달된다. 이에 따라 라우팅 기반의 인터커넥션 네트워크는 그림 4 와 같이 하나의 입력과 6개의 출력을 갖으며 스위치를 통하여 출력 여부를 결정한다. 스위치의 역할은 다음과 같다. 예를 들어, CCVPU group 1-4까지 연결을 할 필요가 없는 경우, CCVPU group 1-4는 데이터를 보내지 않고 CCVPU group5-8까지는 데이터를 보낼 수 있도록 컨트롤 신호 0,1 을 보낼 수 있다. 이와 같이 제안하는 QC-LDPC 복호기는 라우팅 방식의 인터커넥션 네트워크를 통하여 CCVPU group간의 연결을 쉽게 조절할 수 있고 다중모드를 지원할 수 있다.</p><h2>4. 저복잡도 순환 쉬프트 네트워크</h2><p>QC-LDPC 부호의 특징에 따라 패리티 검사 행렬의 부분 행렬은 단위 행렬의 순환 쉬프트 형태로 구성다. 따라서 CCVPU group간 인터커넥션 네트워크를 통과한 정보들은 순환 쉬프트 형태로 정보의 순서를 바꾼 다음 다른 CCVPU group으로 입력되어야 한다. 전 병렬구조의 경우 순환 쉬프트 네트워크 또한 병렬로 나열되어야 하므로 QC-LDPC 복호기에 높은 복잡도를 가져온다. 따라서 본 논문에서는 broadcasting 기법이 적용된 SP알고리즘에서 낮은 복잡도로 순환 쉬프트를 수행할 수 있는 저복잡도 순환 쉬프트 네트워크 구조를 제안한다. 그림 5는 제안하는 저복잡도 순환 쉬프트 네트워크 구조이다.</p><p>부분 행렬의 순환 쉬프트 값은 0부터 (부분 행렬의 크기 - 1)까지 될 수 있다. 부분 행렬의 크기가 \( 81 \times 81 \)인 경우 순환 쉬프트 값은 0부터 80 까지 될 수 있다. 제안하는 순환 쉬프트 네트워크는 두 단계로 구성된다. 첫 번째 단계에서는 수행 되어야 할 순환 쉬프트 값에 상관없이 \( \alpha \)만큼의 순환 쉬프트를 수행한다. 고정된 값만큼만 순환 쉬프트를 수행하기 때문에 이에 필요한 복잡도는 매우 낮다. 첫 번째 단계에서는 원래 정보 \( q_{j i} \)와 \( \alpha \) 만큼의 순환 쉬프트가 수행된 \( q_{j i}^{\alpha} \) 중에서 하나를 선택한다. 예를 들어 \( \alpha \)가 40 이고 순환 쉬프트의 값이 51 이라고 가정할 때, \( q_{j i} \)을 선택하면 추가적으로 51 만큼의 순환 쉬프트를 수행해야 하지만 \( q_{j i}^{\alpha} \)을 선택하면 추가적으로 11만큼의 순환 쉬프트를 수행하면 된다. 따라서 \( q_{j i} \)과 \( q_{j i}^{\alpha} \) 중에서 적합한 값을 선택함으로써 추가적인 순환 쉬프트의 값을 줄일 수 있다. 제한하는 저 복잡도 순환 쉬프트 네트워크의 두 번째 단계에서는 추가적인 순환 쉬프트를 수행한다. 추가적인 순환 쉬프트는 barrel 쉬프트 네트워크로 구현될 수 있으며, 첫 번째 단에서 \( q_{j i} \)과 \( q_{j i}^{\alpha} \) 중에서 적합한 값을 선택함으로써 두 번째 단의 복잡도를 낮출 수 있다. Barrel 쉬프트 네트워크 기반의 두 번째 단은 그림 5와 같이 여러 개의 step으로 구성된다. 첫 번째 step에서는 1만큼 순환 쉬프트를 수행하거나 데이터 순서를 유지하고 두 번째 step에서는 2 만큼, 세 번째 step에서는 4만큼, \( \mathrm{n} \) 번째 step에서는 \( 2^{n-1} \) 만큼 순환 쉬프트를 수행하거나 데이터 순서를 유지한다. 첫 번째 단에서 \( q_{j i}^{\alpha} \)를 만들기 위하여 추가되는 복잡도는 매우 낮고, \( q_{j i} \) 과 \( q_{j i}^{\alpha} \) 중에서 하나를 선택하기 위해 추가되는 multiplexer의 복잡도보다 두 번째 단계에서 감소되는 복잡도가 더 크기 때문에 전체적인 순환 쉬프트 네트워크의 복잡도를 낮출 수 있다. 표 2는 기존의 순환 쉬프트 네트워크와 제안하는 순환 쉬프트 네트워크의 복잡도를 비교한다.</p>
|
해당 논문에서는 라우팅 기반의 인터커넥션 네트워크 설계 기술에 대하여 제안하는데, 이는 그림 4와 같이 여러개의 출력을 가지며 스위츠를 사용해 출력 여부를 결정한다. 더불어 제안된 QC-LDPC 복호기는 CCVPU group간 쉽게 연결하며 다중 모드를 지원한다. 추가적으로 해당 논문에 사용된 SP알고리즘은 저복잡도 순환 쉬프트 네트워크 구조를 제안한다.
|
<h1>II. Broadcasting 기반의 SP 복호 알고리즘</h1><h2>1. SP 반복 복호 알고리즘</h2><p>LDPC 부호의 최적 반복 복호 알고리즘인 SP 알고리즘은 변수 노드 연산과 체크 노드 연산으로 나뉜다. 체크 노드 연산은 다음과 같다.<p>\( r_{i j}^{(l)}=\prod_{j^{\prime} \equiv N(i) \backslash j} \operatorname{sign}\left(q_{j i}^{(l-1)}\right) \Phi\left(\sum_{j^{\prime} \equiv N(i) \backslash j} \Phi\left(\left|q_{j i}^{(l-1)}\right|\right)\right) \)<caption>(2)</caption></p>수식 (2)에서 \( r_{i j}^{(l)} \) 는 \( \rho \) 번째 반복 복호 과정에서 체크 노드 연산의 결과로서 \( j \) 번째 체크 노드에서 \( j \) 번째 변수 노드로 전송되는 메시지이다. \( q_{j i}^{(l-1)} \) 는 11 번째 반복 복호 과정에서 변수 노드 연산의 결과로서 \( j \) 번째 변수 노드에서 \( i \) 번째 체크 노드로 전송되는 정보이다. \( N(i) \) 는 \( i \)번째 체크 노드에 연결된 변수 노드들의 집합이다. 함수 \( \Phi(x) \) 는 \( \Phi(x)=\ln \left(\left(e^{x}+1\right) /\left(e^{x}-1\right)\right) \) 이다. 수식 (2)에서 알 수 있듯이 \( i \) 번째 체크 노드에서 \( j \) 번째 변수 노드로 전송되는 메시지를 생성하는 과정에서 \( j \) 번째 변수 노드로부터 받은 정보는 포함되지 않는다. 따라서 각 체크 노드는 edge로 연결된 변수 노드에 모두 다른 값을 전달한다. 변수 노드 연산은 다음과 같다.<p>\( q_{j i}^{(l)}=2 y_{j} / \sigma^{2}+\sum_{i^{\prime} \in M(j) \backslash i^{\prime}} r_{i^{\prime} j}^{(l)} \)<caption>(3)</caption></p><p>수식 (3)에서 \( y_{j} \) 는 additive white Gaussian noise (AWGN)가 더해진 부호어의 \( j \) 번째 수신 신호이다. \( \sigma^{2} \)는 AWGN 채널의 분산값을 나타낸다. \( M(j) \) 는 번째 변수 노드에 연결 된 체크 노드들의 집합이다. 수식 (3)에서 알 수 있듯이 \( j \) 번째 변수 노드에서 1 번째 체크 노드로 전송되는 메시지를 생성하는 과정에서 1 번째 체크 노드로부터 받은 정보는 포함되지 않는다. 따라서 각 변수 노드는 edge로 연결된 체크 노드에 모두 다른 값을 전달한다.</p><p>SP 알고리즘을 two-phase 복호 과정 기반의 전 병렬구조로 구현할 경우, 변수 노드와 체크 노드 사이의 메시지의 값이 모두 달라서 변수 노드와 체크 노드 사이의 인터커넥션 네트워크의 복잡도가 높다. 인터커넥션 네트워크의 복잡도를 낮추는 broadcasting 기법이 적용된 SP 알고리즘의 체크 노드 연산은 다음과 같다.</p><p>\( q_{j i}^{(l-1)}=q_{j}^{(l-1)}-r_{i j}^{(l-1)} \)<caption>(4)</caption></p><p>\( r_{i}^{(l)}=\prod_{j \in N(i)} \operatorname{sign}\left(q_{j}^{(l-1)}\right) \times \sum_{j \in N(i)} \Phi\left(\left|q_{j}^{(l i-1)}\right|\right) \)<caption>(5)</caption></p><p>\( \begin{aligned} r_{i j}^{(l)}=\operatorname{sign}\left(r_{i}^{(l)}\right) & \times \operatorname{sign}\left(q_{j i}^{(l-1)}\right) \\ & \times \Phi\left(\left|r_{i}^{(l)}\right|-\Phi\left(\left|q_{j i}^{(l-1)}\right|\right)\right) \end{aligned} \)<caption>(6)</caption></p><p>수식 (5)에서 구해지는 \( r_{i}^{(b)} \) 이 broadcasting 기법이 적용된 SP 알고리즘에서 체크 노드에서 변수 노드로 전달되는 메시지이다. 수식 (5)로부터 알 수 있듯이 체크 노드 연산 결과에 체크 노드와 연결된 모든 변수 노드로부터 받은 정보가 포함된다. 따라서 각 변수 노드에 전달되는 메시지가 동일함을 알 수 있다. 그러나 수 식 (2)의 \( r_{i j}^{(1)} \) 가 SP 알고리즘의 체크 노드 연산을 통해서 구해야하는 최종 결과 값이기 때문에 수식 (6)을 통하여 \( r_{i j}^{(1)} \) 를 구한다. 수식 (4)에서는 이전 반복 복호 때 수식 (6)을 통해서 구한 \( r_{i j}^{(l-1)} \) 와 변수 노드로부터 받은 \( q_{j}^{(l-1)} \) 로부터 수식 (5)에 필요한 \( q_{j i}^{(l-1)} \) 을 구한다.</p>
|
SP 알고리즘은 LDPC 부호의 최적 반복 복호 알고리즘으로 수 노드 연산과 체크 노드 연산으로 나눌 수 있고 각 변수 노드는 edge로 서로 연결되어진 체크 노드에 모두 다른 값을 보내준다. 또 체크 노드 연산 결과에는 체크 노드와 연결된 변수 노드에서 받은 정보가 포함되므로 각각의 변수 노드에 보내지는 메시지는 같다고 할 수 있다.
|
<p>LDPC 부호의 패리티 검사 행렬은 각 열을 나타내는 변수 노드와 각 행을 나타내는 체크 노드로 구성된 bipartite graph로 표현될 수 있다. 패리티 검사 행렬에서 0이 아닌 원소는 bipartite graph상에서 변수 노드와 체크 노드를 edge로 연결함으로써 표현된다. LDPC 부호는 반복 복호 알고리즘 (iterative decoding algorithm)을 이용하여 전송된 부호어를 복호하며, bipartite graph 상에서 edge로 연결된 변수 노드와 체크 노드가 서로 정보를 주고받음으로써 수행된다. LDPC 부호에 최적화된 복호화 알고리즘은 sum-product (SP) 알고리즘으로서, \( \mathrm{min}^{-\mathrm{sum}} \) 복호 알고리즘에 비해서 더 뚜어난 오류 정정 성능을 제공한다.</p><p>반복 복호화 알고리즘은 복호 과정에 따라서 two-phase 복호 과정과 layered 복호 과정으로 나뉠 수있다. Two-phase 복호 과정은 두 단계로 나눨 수 있는데, 첫 번째 단계에서 모든 체크 노드 연산을 수행하고 두 번째 단계에서 모든 변수 노드 연산을 수행한다. Layered 복호 과정은 각 단계에서 일부의 체크 노드 연산이나 일부의 변수 노드 연산만을 수행한다. 따라서 복호 과정에 필요한 단계가 two-phase 복호 과정보다 많다.</p><p>LDPC 복호기의 구조는 반복 복호 과정에 따라서 two-phase 복호 과정에 적합한 전 병렬구조 (fully parallel structure)와 layered 복호 과정에 적합한 부분 병렬구조 (partially parallel structure)로 나뉜다. LDPC 복호기의 구조는 목표 throughput을 고려하여 결정되어야 한다. LDPC 복호기의 throughput \( T \) 는 다음과 같이 구할 수 있다.<p>\( T=\left(K \times F_{c l k}\right) /\left(N_{C P I} \times N_{\text {iter }}\right) \)<caption>(1)</caption></p>수식 (1)에서 \( K \)는 부호어 중에서 정보 비트의 길이, \( F_{c l k} \)는 클락 주파수, \( N_{C P I} \)는 반복 복호 알고리즘에서 한 번의 반복 복호 (iteration)을 수행하는데 필요한 클락 사이클 횟수, \( N_{i t e r} \)는 반복 복호의 횟수를 나타낸다. 정보 비트의 길이는 시스템에 의해서 정의되며, 클락 주파수 또한 시스템 클락 주파수에 영향을 받는다. 또한, 반복 복호 횟수는 복호 알고리즘에 의해서 결정된다. 따라서 QC-LDPC 복호기의 throughput을 높이기 위해서 \( N_{C P I} \) 값을 줄여야 한다. 전 병렬구조의 LDPC 복호기는 수많은 연산 장치를 사용하여 복잡도가 높지만 \( N_{C P I} \) 가 작기 때문에 고속 throughput을 지원할 수 있다. 반면, 부분 병렬구조의 LDPC 복호기는 전 병렬 구조에 비하여 복잡도가 낮지만 \( N_{C P I} \) 가 크기 때문에 높은 throughput을 지원하기 어렵다.</p>
|
bipartite graph 상에서 edge로 연결된 변수 노드와 체크 노드가 서로 정보를 주고받으면서 진행되는 LDPC 부호의 정의를 설명하고 two-phase 복호 과정과 layered 복호 과정으로 나뉘는 반복 복호화 알고리즘을 기술한다. layered 복호 과정은 two-phase 복호 과정보다 복호 과정에 필요한 단계 많으며, LDPC 복호기의 구조는 전 병렬구조와 부분 병렬구조로 나뉜다. 목표 throughput은 LDPC 복호기의 구조를 설계할 때 고려되어야한다.
|
<h1>2. 관련 연구 및 배경 지식</h1><h2>2.1 컴퓨팅 사고</h2><p>컴퓨팅 사고에 대한 아이디어는 컴퓨터 과학에 사용된 지식과 기술이 다른 분야에 적용할 수 있다는 개념을 통해서 제안되었다. 해당 용어를 처음으로 사용한 Wing은 컴퓨팅 사고가 다른 기초 학문들과 같이 필수적으로 배워야 하는 미래 역량 중 하나라고 주장하였다. 다른 연구자들의 큰 문제를 작은 문제로 나누고 관련 패턴과 변수를 식별하고 구조화된 알고리즘을 개발하여 주어진 문제에 대한 일반적인 솔루션을 만드는 것을 컴퓨팅 사고라고 주장하였다. 즉, 컴퓨팅 사고는 논리적으로 문제를 해결하는 과정과 개념을 체계화시켜 문제 해결 방법을 배우는 것이다.</p><p>컴퓨팅 사고를 연구하는 연구자들은 다양한 측면에서 컴퓨팅 사고를 체계화시켰지만, 합의된 개념은 존재하지 않는다. Wing은 조건부 개념(Optional Concept), 알고리즘 개발(Algorithm development), 디버깅(debugging), 시뮬레이션(Simulation) 및 분산(Distributed Calculation)의 5가지 요소로 컴퓨팅 사고를 체계화시켰으며, Denning[9]은 조정(coordination), 커뮤니케이션(communication), 컴퓨팅(computing), 기억(recollection), 설계(design), 평가(assessment) 및 자동화(automation)를 포함하여 컴퓨팅 사고를 체계화시켰다. National Research Council 보고서에 따르면 컴퓨팅 사고의 범위를 문제 분해(problem decompsition), 병렬 처리(parallelism), 디버깅, 검색 전략(search strategy) 및 시뮬레이션을 포함하는 여러 기술로 정의를 하였다. Kazimoglu외 3인은 문제 해결(problem solving), 알고리즘 구축(building algorithm), 디버깅, 시뮬레이션 및 사회화(socializing)로 정의하였다. Brennan과 Resnick는 CT의 개념을 순차(sequence), 반복(loop), 병렬 처리, 이벤트(events), 조건(conditionals), 연산자(operators) 및 데이터(data)로 정의하고, CT 기술을 패턴 인식(pattern recognition), 디버깅, 시뮬레이션으로 정의하였다.</p><p>이 외에도 다양한 개념 및 방법으로 정의되었지만, 관련 연구를 통하여 네 가지 기술과 세 가지 개념을 발견하였다. 기술은 문제 해결 또는 알고리즘 사고, 알고리즘 작성 디버깅 및 시뮬레이션으로 구성되며, 개념은 순차, 조건, 반복으로 구성된다. 이러한 기술과 개념은 다른 연구자들에게 다른 용어로 사용되는 경우도 있지만, 컴퓨팅 사고의 핵심 요소로써 보편적으로 받아들여지고 있다.</p><h2>2.2 Autothinking</h2><p>Autothinking은 학생들의 컴퓨팅 사고를 증진시키기 위하여 저자와 연구팀이 개발한 적응형 교육 게임으로 기존의 교육용 게임들과는 달리 게임 플레이와 학습 과정에 적응력을 포함하고 있다. 이 새로운 게임 방식은 Table 1에서 표현하고 있는 것처럼 4가지 컴퓨팅 사고 스킬과 3가지 컴퓨팅 사고에 대한 개념을 게임을 플레이하면서 자연스럽게 학습할 수 있다.</p><p>게임상에서 사용자의 목표는 두 마리 고양이를 피해 미로 안에 있는 76개의 치즈를 생쥐가 수집하는 것이다. 사용자는 총 20번의 기회가 주어지고, 주어진 기회 동안 순차, 반복, 조건에 해당하는 명령어 조합과 디버깅, 시뮬레이션 기능을 활용하여 주어진 문제 상황에 대한 해결전략을 수립한다. 이 과정을 반복하면서 사용자는 Table 1에서 제시하고 있는 컴퓨팅 사고의 스킬과 개념을 자연스럽게 학습한다.</p><p>Fig. 1은 해당 게임의 인터페이스로 Command Button창에 있는 기능들을 활용하여 Solution Bar에 명령어들을 조합하고 실행 버튼으로 명령어를 실행한다. 게임은 사용자가 조합한 명령어 조합의 완성도, 컴퓨팅 사고 개념의 이해도, 사용자의 방법의 위험도를 규칙기반의 방법으로 계산한다.</p><p>해당 게임의 적응성은 베이지안 네트워크를 통해 결정된다. 베이지안 네트워크는 해당 분야의 전문가에 의해서 모델링되며, 사용자의 플레이와 사용자의 컴퓨팅 사고의 학습 정도를 확률적으로 계산하는 것에 따라서 적응적으로 피드백과 게임 플레이의 난이도를 조절한다.</p><p>게임 난이도는 고양이의 움직임과 관련되어 있다. 사용자가 생성한 명령어에 따라서 무작위, 도발적, 공격적, 회피적으로 고양이를 움직인다. 무작위는 고양이가 무작위로 움직이는 것을 의미하며, 도발적은 고양이가 생쥐에게 가까이 다가가나 잡지 않고(최대 한 칸 앞까지 전진) 물러나는 것을 의미한다. 공격적은 고양이가 생쥐를 잡기위해 최단 경로로 움직인다. 회피적은 고양이가 생쥐로부터 6칸 이상 떨어지는 것을 의미한다. 즉, 게임의 난이도가 동적으로 조정된다.</p><p>사용자 명령어의 단기 및 장기적 기억에 따라서 이 알고리즘 내에서 고양이의 움직임이 결정되나. 또 다른 고양이의 경우에는 솔루션 바에 입력된 명령어의 개수에 따라서 무작위로 움직이기 때문에 고양이의 모든 움직임을 예측할 수 없다. 따라서 가능한 모든 상황을 고려하도록 사용자의 사고방식을 이끈다.</p><p>적응적 피드백은 사용자가 현재 또는 이전에 생성한 솔루션을 통해 현재 상태의 컴퓨팅 사고 학습 정도를 확률적으로 판단하고, 이에 따라서 적시에 사용자에게 필요한 피드백을 제공해준다. 시스템이 제공해주는 피드백의 형태는 텍스트와 그래픽, 동영상이다.</p>
|
컴퓨팅 사고는 문제 해결 과정과 개념을 논리적으로 체계화시켜 문제 해결 방법을 배우는 것으로 기술은 문제 해결, 알고리즘 사고, 디버깅, 시뮬레이션으로 구성되며, 개념은 순차, 조건, 반복으로 구성된다. Autothinking 게임은 사용자가 직접 명령어들을 조합하며 실행함으로써 컴퓨팅 사고를 자연스럽게 학습할 수 있다.
|
<h1>3. 실험 방법</h1><p>전체적인 실험 절차는 Fig. 2에서 확인할 수 있는 것처럼 먼저 게임을 통해 사용자가 플레이한 로그 데이터를 Json 파일 형태로 저장하여 수집한다. 첫 번째 전처리 과정에서는 수집된 Json 파일을 파싱하여 데이터의 형태를 수치형 데이터로 변형한다. 두 번째 전처리 과정은 노이즈 필터링 및 특성 추출을 수행한다. 마지막으로 게임 점수 예측을 위한 모델 학습 과정 및 학습된 모델들 비교하여 최적의 기계학습 알고리즘을 찾는 과정으로 구분할 수 있다.</p><h2>3.1 데이터 수집</h2><p>본 연구에서 사용한 데이터는 8개의 국가에서 수집되었으며, 이상치를 제외하고 아프리카와 멕시코에서 한 명씩, 에스토니아에서 113명, 프랑스 12명, 홍콩 및 한국에서는 각각 7명, 태국 264명, 말레이시아 4명으로 총 409명에 대한 데이터이다. 여성과 남성은 각각 269명과 140명으로 구성되어 있으며, 10대 미만 17명, 10대 318명, 20대 이상 44명으로 구성되어 있다.</p><p>데이터 수집 방법은 게임 내에서 수집 가능한 정보들을 학습자가 명령어를 입력할 때마다 내부 메모리를 사용하여 저장을 한다. 이후 게임이 끝나는 시점에 서버로 데이터를 전송하고, Json 형태로 게임 데이터를 서버에 저장한다.</p><p>수집된 정보는 아이디, 이름, 나이, 성별, 국가, 생쥐 객체의 위치, 치즈 위치, 고양이 1객체의 위치, 고양이 2객체의 위치, 큰 치즈의 위치, 생명, 점수, 함수 사용, 제어문 사용횟수, 반복문 사용횟수, 디버깅 횟수, 시뮬레이션 횟수, 베이지안 확률 점수이다.</p><h2>3.2 데이터 전처리</h2><p>데이터 전처리에서는 먼저 서버에 저장되어 있는 Json 형태의 데이터를 테이블 형태의 데이터로 만든다. 이 과정에서 사용자의 입력에 따라 구성되어 있는 데이터를 한 번의 명령어 실행 단위로 변환한다.</p><p>두 번째 데이터 전처리에서는 데이터의 이상치 제거, 집계, 정규화를 수행하였다. 이상치 제거는 데이터의 전송 오류를 통해 데이터가 잘못 전달된 데이터들을 제거하였고, 치즈 개수, 함수 사용횟수, 제어문 사용횟수, 반복문 사용횟수, 디버깅 횟수, 시뮬레이션 횟수, 명령어 횟수, 고양이 1 객체와 고양이2객체가 움직인 횟수, 생쥐 객체가 움직인 횟수들을 집계하였다. 정규화는 각 특성이 숫자 값이고 값의 범위를 맞춰주기 위하여 z-score를 사용하였다.</p><p>최종적으로 본 연구에서 사용한 데이터 특성은 총 12개로 치즈의 수, 명령어 횟수, 실행 횟수, 움직인 횟수, 함수의 사용횟수, 생명, 방향 명령어 사용횟수, 반복문 사용횟수, 조건문 사용횟수, 생쥐 객체의 움직임 횟수, 고양이 1객체의 움직임 횟수, 고양이 2객체의 움직임 횟수이다. 모든 특성은 수치형 데이터이며, 사용자가 게임 시작부터 종료까지의 수집된 데이터들을 집계한 값이다.</p><p>추가로 실험시에 유용한 특성의 선별을 위하여 단변량 특성 선택 방법을 사용하였고, 선별된 특성들만을 활용하여 게임 점수 예측을 수행하였다.</p><h2>3.3 실험 모델</h2><p>본 연구 문제는 특정한 값을 예측하는 회귀 문제로 회귀 알고리즘에서 대중적으로 사용되는 선형회귀(Linear Regression), 결정 트리(Decision Tree), 랜덤 포레스트(Random Forest), 서포트 벡터 머신(Support Vector Machine, SVM) 기계학습 모델들을 선택하였다. 데이터의 양이 적기 때문에 딥러닝 기반의 알고리즘들은 고려대상에서 제외하였다.</p><p>선형회귀는 종속 변수와 한 개 이상의 독립변수와의 선형 상관관계를 모델링하는 방법으로 선형 예측 함수를 사용해 회귀식을 만들고, 회귀식을 구성하는 파라메터들을 데이터로부터 추정하는 방법이다. 데이터의 특성이 많이 사용될수록 강력한 성능을 보인다.</p><p>결정 트리는 독립변수들을 바탕으로 종속 변수의 값을 예측하는 트리를 생성하는 방법론이다. 트리를 구성하는 노드들은 분할 적합성을 측정하는 기준에 의해 분할되며, 각 노드에는 분할을 위한 기준 또는 조건이 정의되어 있다. 즉, 결정 트리는 이러한 기준 또는 조건들로 정의된 노드를 생성하며 트리를 구성하고, 마지막 노드(리프 노드)에 소속되어 있는 데이터들의 특성값들을 통해 값을 예측한다.</p><p>랜덤 포레스트는 결정트리의 약점인 과대적합(Overfitting)될 가능성을 줄여주는 방법으로 여러 개의 결정 트리를 생성하여 새로운 데이터를 각 트리에 동시에 적용한 후 가장 좋은 예측 결과를 채택하는 방식을 말한다. 다수의 결정 트리를 생성함으로 과대적합을 예방한다.</p><p>서포트 벡터 머신은 특징 공간에서 독립변수들이 종속 변수를 반영하는 최상의 분리 초평면(Hyperplane)을 찾는 방법이다. 이때 주어진 데이터에서 분류하고자 하는 데이터 사이의 간격이 최대가 되는 마진(margin)을 갖도록 학습된다. 마진의 경계에 있는 값들을 서포트 벡터라고 하며, 이에 따라 마진이 달라진다. 서포트 벡터 머신에서 회귀 문제를 다루기 위해 Radial basis function(RBF) 커널을 사용하였다. 커널 함수는 데이터를 선형으로 분류할 수 없는 경우에 비선형으로 데이터를 분류하기 위하여 사용한다.</p><p>본 연구에서는 이 4가지 회귀 알고리즘을 사용하여 게임 점수 예측을 수행하였으며, 그리드 검색으로 데이터에 적합한 하이퍼파라미터를 선택하였다.</p><h2>3.4 성능 평가 방법</h2><p>본 연구의 예측성능을 평가하기 위하여 \( R^{2}\)(R-squared) 를 사용하였다. \( R^{2} \) 는 0과 1사이의 값을 가지며 1에 가까울수록 모델이 데이터에 대해 높은 연관성을 가지고 있다고 해석할 수 있다. 수식은 Equation (1)과 같다.</p><p>\( R^{2}=\frac{\sum_{i=1}^{n}\left(\hat{y}^{(i)}-\mu_{y}\right)^{2}}{\sum_{i=1}^{n}\left(y^{(i)}-\mu_{y}\right)^{2}} \)<caption>(1)</caption></p><p>Equation (1)에서 \( \hat{y} \) 는 모델을 통한 예측값을 의미하고, \( y \)는 목표 데이터값을 의미하며, \( \mu \) 는 평균을 의미한다. 실제 값의 분산 대비 예측값의 분산 비율로 정의할 수 있다.</p>
|
본문에서는 게임 점수 예측을 위해서 총 네 가지의 과정을 거친다. 먼저 Json 파일 형태로 사용자의 게임 플레이 로그 데이터를 저장하고, Json 파일 데이터의 형태를 전처리 과정을 거쳐서 수치형 데이터로 변형한 뒤, 특성 추출 및 노이즈 필터링을 수행한다. 끝으로 4가지의 회귀 알고리즘을 사용해서 학습된 모델들과 모델 학습 과정을 비교한 뒤 게임 점수를 예측했다.
|
<h1>1. 서론</h1><p>컴퓨팅 사고(Computational Thinking)는 컴퓨터 과학의 추론 과정을 적용하여 문제에 대한 해결책을 디자인할 수 있는 인지능력이다. 이러한 개념은 컴퓨터 과학 분야뿐만 아니라 다양한 분야에서 21세기에 필요한 중요한 소양 중 하나로 여겨지고 있다. 이에 따라서 세계 주요 국가의 교육 기관들은 1차, 2차 및 고등 교육에 학생들에게 컴퓨팅 사고를 함양하도록 하기 위한 교육 과정을 도입하여 시행하고 있다.</p><p>컴퓨팅 사고 교육 중 대표적인 방법은 프로그래밍 언어 또는 프로그램 명령어 블록을 사용하여 주어진 문제를 해결하게 함으로 개념화 및 논리적 사고를 학습하도록 하는 방법이다. 하지만 이러한 방법은 프로그래밍 언어의 문법 습득 및 프로그램 명령어들의 기능을 학습하게 함으로 컴퓨팅 사고의 주요 초점이 분산되고 학습 동기가 약해진다. 이로 인하여 학생에게 컴퓨팅 사고 교육에 대한 부정적 인식을 준다.</p><p>다른 방법으로는 교육용 게임 기반의 컴퓨팅 사고 교육 방법으로 학생들의 참여와 동기를 증대시키고 컴퓨팅 사고에 대한 접근성을 높여준다. 하지만 게임 플레이 및 교육 과정에 있어서 컴퓨팅 사고에 대한 개념 및 기능에 대해서 충분히 설명하지 않거나, 학생들의 컴퓨팅 사고 측면은 고려되지 않는다. 효과적인 컴퓨팅 사고 교육을 위한 교육용 게임이 개발되기 위해서는 게임을 플레이하는 동안 학습자들에게 컴퓨팅 사고에 대한 개념이 노출되어야 하며, 학습자들의 지식 수준 및 학습 능력의 차이를 보완하기 위해 맞춤형 교육 및 피드백을 해당 시스템이 지원해야 한다.</p><p>Autothinking은 학습자들에게 컴퓨팅 사고 교육을 제공하기 위한 목적으로 개발된 게임이다. 학습자들에게 동적 으로 피드백을 제공하고, 학습자의 컴퓨팅 사고에 따라서 난이도를 자동으로 조절하는 적응적 시스템이다. 하지만 해당 게임이 규칙기반으로 디자인되어 지능적으로 학습자들의 컴퓨팅 사고를 고려하거나 피드백을 제공할 수 없다.</p><p>본 연구에서는 이전에 개발한 Autothinking 게임의 지능적 피드백 도입 가능성을 실험하기 위해 2019년 12월부터 2021년 4월까지 수집된 데이터를 회귀 문제에 가장 많이 사용되는 선형 회귀, 결정 트리, 렌덤 포레스트, 서포트 벡터 머신 알고리즘을 활용하여 학습자들이 획득할 수 있는 점수를 예측하는 연구를 진행하였다. 해당 게임은 컴퓨팅 사고의 개념 및 스킬을 반영하여 디자인하였으며, 게임에서 주어진 과제를 컴퓨팅 사고와 관련된 기능 및 명령어들을 활용하여 해결하는 것을 목적으로 디자인되어 어떤 기능 및 명령어들을 활용했는지, 주어진 과제를 얼마나 잘 해결했는지, 입력한 명령어의 정확하게 입력하였는지에 따라서 획득하는 점수가 달라진다. 즉, 컴퓨팅 사고에 대한 개념을 잘 이해하고, 활용할수록 높은 점수를 얻을 수 있는 구조이기 때문에 학습자들의 점수를 예측하는 것은 컴퓨팅 사고의 이해를 예측하는 것으로 이해할 수 있다.</p><p>본 연구의 기여는 첫째, 컴퓨팅 사고 교육 게임에 대한 수집 데이터 소개로 해당 도메인에 대한 관심도 증가, 둘째, 교육용 게임 데이터에 대한 기계학습 방법 적용 가능성 확대, 셋째, 기계학습 방법을 통해 게임 점수를 예측함으로 컴퓨팅 사고의 학습 정도 예측 가능성 증가이다.</p><p>논문의 구성은 다음과 같다. 2장은 해당 연구와 관련된 연구에 대해 제공하고, 3장에서는 Autothinking 게임에 대한 설명, 4장에서는 실험 및 실험 결과, 5장에서는 결론 및 제언을 제공한다.</p>
|
다양한 분야에서 21세기에 필요한 소양중 하나로 평가되는 컴퓨팅 사고를 함양하기 위해서 사용되는 현재의 방법들은 여러 단점들을 가지고 있다. 컴퓨팅 사고 교육을 제공하기 위해 개발된 게임인 autothinking을 플레이 하는 학습자들의 점수 에측을 통해 컴퓨팅 사고의 이해를 예측하는 방법을 소개하고 있다.
|
<p>따라서, 다시점 영상을 사용하여 다각도에서 취득한 영상으로부터 동작자의 자세 추정에 대한 연구가 활발히 진행되고 있다. T. Chaichana는 인체의 각 부위에 마커(illuminated marker)를 부착하여 마커를 추적함으로써 각 부위의 3 차원 데이터를 얻었다. S. E. Kim 은 인체의 각 부위를 초기 자세로부터 자동 검출하여, 해당 부위를 추적 및 3차원 재구성을 이용하여 동작자의 자세를 추정하였다. F. Guo와 A. Sundaresan는 다수의 카메라를 이용하여 실루엣 영상으로부터 3차원 복 셀 상에서 복원한 후 인체의 각 부위를 분할(segmentation)하는 방법으로 동작자의 자세를 얻어냈다. H.Ohbuch는 각 움직임에 대한 모션 DB를 저장해 두고, 이로부터 영상 검색(image retrieval) 알고리즘 을 통한 유사한 동작을 추정하였다.<p>일반적으로, 다시점 영상에서 정확한 실루엣을 취득 하기 어려우며, 잡음에 상당히 민감하다. 훈련된 DB를 사용하는 방법은 정확한 동작의 추정이 어렵고 동작자의 움직임이 제한적이며, 많은 DB를 사용하게 될 경우 자세 추정 시 계산량이 많아진다. 또한 다수의 카메라를 사용할 경우 카메라 영상에 대해 각각의 영상처리를 수행해야 하므로 부가적인 하드웨어가 필요하며, 카메라 영상의 동기를 맞춰야하는 문제가 발생한다다. 따라서, 영상으로부터 동작자의 움직임을 추정하기 위해 보다 단순하며, 쉽게 추정 가능한 방법이 필요하다.</p> <p>본 논문은 정확한 영상 분석을 틍하여 동작자와 유사한 모션을 생성하는 효율적인 모션 캡처 시스템을 제안한다. 또한 마커를 사용하지 않으며, 다시점 영상에 대해 실시간 처리가 요구되어야 한다. 먼저, 취득된 다시점 영상에 대하여 배경 차분 및 피부색 추출을 통하여 동작자의 각 인체 영역을 검출한다. 다음으로 카메라 보정 매개변수를 이용하여 검출된 2D 영상 좌표를 보다 정확한 좌표로 보정한다. 보정된 좌표에 대한 칼만 필터(Kalman filter를 적용하여 인체 영역을 안정적으로 추적한다. 추적된 각 인체 영역에 대하여, 카메라 보정에 의해 얻어진 투영 행렬과 추적된 좌표로부터 동작자의 모션 캡처를 얻는다. 마지막으로, 역운동학 해법을 이용하여 중간 관절들의 움직임을 추정한다.</p> <p>미리 추출된 카메라 교정, 에피폴라 기하학 정보 및 칼만 필터에 의해 각 영역의 좌표를 교정함으로써, 오차를 줄이며 추적의 안정성을 높였다. 또한, 인체의 부분적인 정보만을 취득하더라도 역운동학 해법을 이용하여 동작자의 유사한 모션 캡처를 얻을 수 있었으며, 다양한 관절 비율을 갖는 캐릭터에게도 동일한 움직임을 부여할 수 있다. 또한 혼합된 역운동학 해법과 의도적인 움직임 제약을 통해 관절의 위치 추정을 위한 반복 수행 횟수를 줄일 수 있다. 이러한 과정을 통하여 마커를 사용하지 않은 실시간 모션 캡처가 가능하다.</p> <p>본 논문의 구성은 2장에서는 모션 캡처를 위한 2차원 영상분석에 대한 기존 연구 수행 내용을 기술하며, 3장에서는 인체 영역 추정을 위한 영상 처리에 대하여 기술하며, 4장에서는 중간 관절 복원을 위한 역운동학에 대하여 기술하고, 5장에서는 제안된 방법에 의한 실험결과를 통해 분석하고, 마지막으로 6장에서 결론을 맺는다.</p>
|
영상으로부터 동작자의 움직임을 추정하기 위해 보다 단순하고 쉽게 추정 가능한 방법이 필요하며, 본 논문에서는 정확한 영상 분석을 틍해 동작자와 유사한 모션을 생성하는 효율적인 모션 캡처 시스템을 제안하며 다음과 같다. 취득된 다시점 영상에 피부색 추출을 통해 인체 영역을 검출한 다음 카메라 보정 매개변수를 이용해 2D 영상 좌표를 더욱 정확히 보정시킨후 칼만 필터를 적용하여 추적시킨뒤, 해당 인체영역을 카메라 보정에 의해 얻어진 투영 행렬과 추적된 좌표로부터 모션캡처를 얻어 결과물을 역운동학 해법을 이용해 중간 관절들의 움직임을 추정한다. 위 방법을 통해 마커를 사용하지않고 실시간 모션캡쳐가 가능하다.
|
<h2>Ⅱ. 기존 연구 수행 내용</h2> <p>이 장에서는 기존 연구 논문에서 다루었던 내용을 간략히 기술한다.</p> <h3>1. 카메라 보정 및 에피폴라 기하학</h3> <p>영상으로부터 3차원 데이터를 추출하기 위해서는 각 영상에 대한 카메라 보정(camera calibration)이 필수적이다. 2차원 평면 격자 영상을 이용한 Z. Zhang의 카메라 보정 방법을 이용하였으며, 렌즈의 왜곡 성분인 방사 왜곡(radial distortion)과 접선 왜곡(tangential distortion)에 대해서도 교정이 필수적이다. 자세한 기술은 기존 연구 논문에 기술되어 있다. 또한, 두 영상 사이의 대응점 및 대응 영역을 추정하기 위해 에피폴라 제약조건이 효율적이다. 두 대의 카메라 사이의 에피폴라 기하학은 각 카메라 중심을 잇는 기준선(baseline)이 포함된 수많은 평면들과 각 영상 평면이 교차하게 된다는 것을 의미한다. 에피폴라 제약조건을 사용하여 대응되는 영역의 후보를 줄일 수 있다.</p> <p>인체 영역의 3차원 정보는 영상으로부터 추출된 2차원 영상좌표와 카메라 보정 파라미터에 의해 추정이 가능하다. 이것은 선형 삼각화 기법(linear triangular method)을 이용하면 빠르게 3차원 정보를 얻어낼 수 있다.</p> <h3>2. 인체 영역 추출 및 추적</h3> <p>실시간으로 입력되는 각 카메라 영상으로부터 동작자의 머리, 손, 발에 해당되는 인체 영역을 추출해야 한다. 실시간 모션 캡처를 위해서는 각 영상에 대한 영상처리는 빠른 시간 내에 수행되어야 한다. 따라서, 본 논문에서는 인체의 공통된 특징인 피부색을 이용하여 각 인체 영역을 추출했다. RGB와 HSI 색공간을 이용하여 배경 차분(background subtraction)을 수행하였다. 차분된 영상에 대하여 정규화된(normalized) RGB 색공간을 사용하여 피부색을 추출하였다. 정규화된 RGB는 조명변화에 둔감하고, 빠른 수행 속도를 얻을 수 있다.</p> <p>동작자의 초기 T-자세로부터 각 카메라 영상에서 추출된 인체 후보 영역은 인체의 구조적 정보를 이용하여 쉽게 정합이 가능하다. 각 인체 영역은 초기 정합 정보와 칼만 필터를 이용하여 추적한다. 취득된 영상으로부터 인체 영역이 짧은 검출이 되지 않거나 자기 폐색이 발생할 경우에도 정상적인 추적이 가능하다.</p> <h2>Ⅲ. 인체 영역 추정을 위한 영상처리</h2> <p>인체 영역 추정을 위해 필요한 영상처리는 기존 연구 내용에서 기술하였지만, 본 논문에서는 피부색 영역 추출의 안정성을 향상시킨다. 먼저, 입력되는 카메라 영상에서 RGB 영상차분을 수행하고, 차분된 RGB 영상에 대하여 HSI 영상차분을 수행한다. 이 과정은 그림자 및 조명의 변화로 인해 추출된 영역을 제거하는데 효율적이다. 다음으로, RGB 색공간과 정규화된 RGB 색공간을 동시에 적용하여 인체의 후보 영역을 추정한다. 그림 1은 각 카메라 영상에 대한 2차원 영상 처리 과정이다. 그림 2는 자연광이 존재하는 환경에 대하여 피부색 추출 결과를 보여주고 있다.</p> <p>그림 2(a)는 실시간으로 입력되는 현재 영상이며, 그림 2(b)는 RGB 영상 차분의 결과 영상이다. 그림 2(c)는 HSI 영상 차분의 결과 영상을 보여주고 있으며, 그림 2(d)는 RGB 색공간과 정규화된 RGB 색공간을 이용한 피부색 추출 영역을 보여주고 있다. 본 논문에서 RGB 색공간과 정규화된 RGB 색공간을 같이 사용하는 것은 색공간 변환하는 시간이 절약되며, 피부색 추출의 안정성을 항상시킨다.</p>
|
영상에서 3차원 데이터를 추출하기 위해 각 영상에 대한 카메라 보정이 필수적이고, 두 영상 사이의 대응점 및 대응 영역을 추정하기 위해서는 에피폴라 제약조건이 효율적이다. 인체 영역의 3차원 정보는 영상으로부터 추출된 2차원 영상좌표와 카메라 보정 파라미터에 의해 추정이 가능하며, 실시간으로 입력되는 각 카메라 영상에서 인체 영역을 추출해야 한다. 본 논문에서는 피부색을 이용하여 각 인체 영역을 추출했고, 인체 영역은 초기 정합 정보와 칼만 필터를 이용하여 추적한다. 또한 RGB 색공간과 정규화된 RGB 색공간을 함께 이용하는 것이 색공간 변환 시간을 절약할 수 있으며, 피부색 추출의 안정성을 증가시킨다.
|
<h2>IV. 중간 관절 복원</h2> <h3>1. 가상 모델과 복원 모델사이의 좌표계 변환</h3> <p>기존 연구 수행 내용에서 각 인체 영역의 3차원 정보를 추정하는 방법이 기술되어 있다. 본 논문에서는 5개의 인체 영역 정보를 이용하여 18개의 관절을 갖는 인체의 모델링을 하고자 한다. 먼저, 3차원 공간 상에서 인체의 가상 모멜을 초기화해야 한다. 추정된 5개의 인체 영역에 대한 3차원 좌표값, 즉 복원 모델을 인체 가상 모델에 정합한다.</p> <p>그림 3은 3차원 가상 모델과 5개의 인체 영역에 대한 복원 모델에 각각 PCA를 수행하여 좌표계를 변환하는 과정과 각 모델의 비율 성분들을 보여주고 있다. 그림3(a)에서, \( \mathrm { H } _ {\mathrm { vm } } \)는 3차원 가상 모델에 대한 PCA 변환행렬을 의미하고, \( \mathrm { H } _ {\mathrm { rm } } \)는 3차원 복원 모델에 대한 PCA 변환행렬을 의미한다. 그림 3(b)에서, 첨자 \( \mathrm { vm } \)은 가상 모델(virtual model)을 의미하며, \(rm \)은 복원 모델(reconstructed model)을 의미한다. 수식 (1)과 수식 (2)는 각각 가상 모델과 복원 모델의 비율 행렬을 보여주고 있다.</p> <p>\( \mathbf { S } _ {\mathrm { vm } } = \left [ \begin {array} { ccc } s x_ { v m } & 0 & 0 \\ 0 & s y_ { v m } & 0 \\ 0 & 0 & s z_ { v m } \end {array} \right ] \)<caption>(1)</caption></p> <p>\( \mathbf { S } _ {\mathrm { rm } } = \left [ \begin {array} { ccc } s x_ { r m } & 0 & 0 \\ 0 & s y_ { r m } & 0 \\ 0 & 0 & s z_ { r m } \end {array} \right ] \)<caption>(2)</caption></p> <p>\( \mathbf { X } _ { v m } = \mathbf { S } _ { v m } \mathbf { S } _ { r m } ^ { -1 } \mathbf { H } _ { v m } ^ { -1 } \mathbf { H } _ { r m } \mathbf { X } _ { r m } \)<caption>(3)</caption></p> <p>PCA를 수행하게 되면, 각 모델에서의 축 정보를 얻을 수 있으며 좌표계를 정규화(normalization)할 수 있다. 하지만, PCA를 수행하게 되면 좌우 또는 상하가 뒤집어지는 경우가 발생한다. 우리는 초기 자세로부터 가상 모댈과 복원 모델의 머리, 왼손, 오른손, 왼발, 오른발의 위치를 이미 알고 있다. 따라서, PCA를 수행한 후 3차원 공간 상의 위치 정보는 자동으로 교정이 가능하다.</p> <p>초기 가상 모델과 복원 모델로부터 얻어진 변환 행렬과 비율 행렬을 이용하여 수식(3)으로부터 연속되는 동작자의 모션 캡처가 가능하다. \( \mathrm { X } _ {\mathrm { vm } } \)은 3차원 가상 모델의 좌표이고, \( \mathrm { X } _ {\mathrm { rm } } \)은 3차원 복원 모델의 좌표이고, \( \mathrm { S } _ {\mathrm { vm } } \)과 \( \mathrm { S } _ {\mathrm { rm } } \)은 각 모델의 비율 행별을 의미한다.</p>
|
본 연구에서는 인체의 18개 관절을 모델링하기 위해 5개 인체 영역 정보를 활용한다. 주성분 분석(PCA)를 통해 각 모델의 축 정보를 얻고, 좌표계를 정규화할 수 있다. PCA는 좌우나 상하가 뒤집어지는 문제를 일으킬 수 있지만, 초기 자세로부터 얻은 가상 모델과 복원 모델의 머리, 왼손, 오른손, 왼발, 오른발의 위치 정보를 통해 3차원 공간 상의 위치 정보는 교정이 가능하다.
|
<h3>2. 역운동학(inverse kinematics)</h3> <p>일반적으로 역운동학은 관절을 갖는 로봇의 제어 및 캐릭터 애니메이션에서 많이 사용된다. 본 논문에서는 5개의 추출된 인체 영역을 이용하여 모션 캡처를 목적으로 하고 있다. 따라서 추출되지 않은 나머지 관절 위치에 대해서는 역운동학을 이용하여 추정한다. 역운동학 알고리즘온 크게 해석적인 방법(analytical method)와 수치적인 방법(numerical method)으로 구분된다. 수치적인 방법은 초기값에 기반을 두고 반복적인 계산을 통해 수렴값을 찾아나간다. 일반적으로 수치적인 방법보다 해석적인 방법이 모든 가능한 해롤 얼을 수 있고, 빠르며 신뢰도가 더 높기 때문에 선호한다.</p> <p>하지만, 본 논문에서는 가상 모델과 복원 모멜 사이의 초기 정합을 통해서, 정확한 초기값을 알고 있다. 또한, 동작자의 연속되는 움직임을 추정하므로, 즉 갑작스러운 변화가 존재하지 않는다. 따라서, 해 공간이 이전값의 근처에서 존재하므로, 해석적인 방법을 사용하여 빠른 수렴이 가능하다. 본 논문에서는 해석적인 방법과 수치적인 방법을 조합하여 역운동학의 해를 구한다.</p> <p>일반적인 인체의 모든 자유도를 복원하는 것은 매우 어려운 문제이다. 그립 4(a)는 왼쪽 팔에 대한 역운동학 구조를 보여주고 있다. 팔의 경우, 어깨에 대한 2개의 회전 성분, 팔꿈치에 대한 1개의 회전 성분을 갖는 3개의 자유도를 갖는다. 또한 다리의 경우에도 기준 좌표계만 달라질 뿐 팔과 같은 자유도를 가지며, 몸 전체의 기저 이동(base translation)에 대한 3개의 자유도를 갖는다. 그림 4(b)는 해석적인 방법으로부터 중간 관절값을 추정하는 과정을 보여주고 있다.</p> <p>\( \left\|F\left(\theta_{1}, \theta_{2}, \theta_{3}\right)-G\right\|=0 \)<caption>(4)</caption></p> <p>먼저, 우리는 역운동학을 이용하여 수식 (4)를 만족하는 새로운 관절값을 찾는다. 여기에서, \( \mathrm{F} \)는 현재의 관절값으로부터 얻어진 손의 위치를 의미하며, \( \mathrm{G} \)는 \( \left(\mathrm{x}_{\mathrm{g}}, \mathrm{y}_{\mathrm{g}}, \mathrm{z}_{\mathrm{g}} \right)^{\mathrm{T}} \)으로서, 캡처된 손의 위치를 의미한다. 왼쪽 팔의 경우, 현재의 관절값으로부터 손의 위치를 추정하는 방법은 수식 (5)와 같다. 이것은 2개의 링크(upper arm, lower arm)로 구성되어 있으며, 3차원 상에서 위치를 추정하는 것이다.</p> <p>\( F\left(\theta_{1}, \theta_{2}, \theta_{3}\right)=\left[\begin{array}{l}x \\ y \\ z\end{array}\right]=\left[\begin{array}{c}l_{\mathrm{ma}} \sin \left(\theta_{1}+\theta_{3}\right)+l_{l a} \sin \theta_{1} \sin \theta_{2} \\ l_{\mathrm{ma}} \cos \left(\theta_{1}+\theta_{3}\right)+l_{l a} \cos \theta_{1} \\ l_{\mathrm{ma}} \sin \left(\theta_{1}+\theta_{3}\right)+l_{l a} \sin \theta_{1} \cos \theta_{2}\end{array}\right] \)<caption>(5)</caption></p> <p>다음으로, 극소증감벡터 \( \Delta \)는 수식 (5)의 쟈코비안 행렬(Jacobian matrix)을 이용하여 찾을 수 있다. 쟈코비안 행렬에서 특이치(singularity)가 발생할 경우, 매우 작은 단위행렬을 더함으로서 항상 해를 얻을 수 있다. 이 단위행렬은 항상 해의 추정이 가능하도록 만들며, 매우 작은 값을 사용하므로 구하고자 하는 해에 근접하게 된다.</p> <p>\( \Delta=(J+\lambda I)^{-1} d F=\left[\begin{array}{ccc}\frac{\partial x}{\partial \theta_{1}}+\lambda & \frac{\partial x}{\partial \theta_{2}} & \frac{\partial x}{\partial \theta_{3}} \\ \frac{\partial y}{\partial \theta_{1}} & \frac{\partial y}{\partial \theta_{2}}+\lambda & \frac{\partial y}{\partial \theta_{3}} \\ \frac{\partial z}{\partial \theta_{1}} & \frac{\partial z}{\partial \theta_{2}} & \frac{\partial z}{\partial \theta_{3}}+\lambda\end{array}\right]^{-1}\left[\begin{array}{c}d x \\ d y \\ d z\end{array}\right] \)<caption>(6)</caption></p> <p>추정된 극소중감벡터에 따라 다시 \( \mathrm{F} \)값을 추정하여 오차를 계산하며, 얻어진 오차값이 정해진 오차값 이하가 되면 수렴된 것으로 판단하고 반복수행은 멈춘다. 하지만, 본 논문에서는 제한된 자유도를 갖는 인체 모델을 사용하므로, 중간 관절의 추정값은 해석적인 방법을 통하여 미리 추정이 가능하다. 수식 (7)은 캡처된 손의 위치로부터 중간 관절의 추정값을 계산하는 수식이다.</p> <p>\( \begin{array}{l} \alpha=\cos ^{-1}\left(\frac{l_{u a}^{2}+l_{s h}^{2}-l_{l a}^{2}}{2 l_{u a} l_{l a}}\right) \\ \theta_{2}=\sin ^{-1}\left(\frac{l_{s h}}{l_{l a}} \sin \alpha\right) \end{array}\)<caption>(7)</caption></p>
|
역운동학은 관절을 갖는 로봇의 제어 및 캐릭터 애니메이션에서 많이 사용하는데 5개의 추출된 인체 영역을 이용하여 모션 캡처를 목적하며 수치적인 방법으로 초기값에 기반을 두고 반복적인 계산을 통해 수렴값을 찾아가고 해석적인 방법이 모든 가능한 해롤 얼을 수 있으며 해석적인 방법과 수치적인 방법을 조합하여 역운동학의 해를 구한다.
|
<h3>2. 역운동학 해법</h3> <p>본 논문에서는 인체의 부분적인 정보를 추출하고, 이것으로부터 역운동학을 이용하여 동작자와 유사한 모션 캡처가 가능한 시스템을 제안한다. 먼저, 우리는 5 개의 인체 영역 정보를 이용한 수치적인 역운동학 해법에 대한 실험을 통해 모션 캡처의 가능성을 보여주고자 한다. 그림 10 은 양손과 양발에 해당하는 4 개의 목적(goal points)을 설정하고, 역운동학 모의실험(simulation)을 통해 해를 구한 결과를 보여주고 있다. 그림 10(a)~(d)는 반복 수행(가로축)에 따른 왼손 관절, 오른손 관절, 왼발 관절, 오른발 관절의 회전각(세로축)에 대한 변화를 보여주고 있다. 왼손과 오른손의 목적점까지의 거리는 \( 50 \mathrm{~cm} \), 왼발과 오른발의 거리는 \( 22 \mathrm{~cm} \)이다. 둘 사이의 거리가 \( 1 \mathrm{~cm} \) 이하가 되면 수렴이라고 간주하며, 이 실험에서는 양손의 경우 28회, 양발의 경우 22 회의 반복 수행 후에 수렴하는 것을 알 수 있다. 실제 모션 캡처 시에는 이전 움직임으로부터 현재의 움직임이 크지 않기 때문에 반복 수행의 횟수는 줄어든다.<p>본 논문에서는 수치적인 해법과 더불어 해석적인 방법을 동시에 적용하고자 한다. 이것은 해석적인 방법을 이용하여 미리 중간 관절의 회전각 정보를 계산하므로, 반복 수행의 횟수를 줄일 수 있는 장점을 가지고 있다. 그림 11 온 왼손에 대한 해석적인 방법을 적용하기 전과 적용한 후의 반복 수행 결과를 보여주고 있다. 그림 11(b) 를 보면, 왼쪽 팔꿈치(LH_E_X)에 해당하는 값이 미리 계산이 되어 고정되어 있다. 해석적인 방법을 적용하기 전에는 14 회의 반복 수행이 소요되었지만, 해석적인 방법을 적용한 후에는 11 회의 반복 수행 후 수렴했다. 따라서, 해석적인 방법을 동시에 적용한 결과 해에 더 빠르게 수렴하는 것을 알 수 있다.</p> <p>그림 12는 취득된 모션 캡처 데이터를 이용하여 다양한 관절 비율을 갖는 모델에 적용한 실험을 보여주고있다. 위쪽 팔(upper arm)과 아래쪽 팔(lower arm)의 관절 비율이 각각 \( 1: 1 \) (그림 12(a)), \( 1: 2 \) (그림 12(b)), \( 2: 1 \)(그림 12(c))인 모델에 적용한 결과이다. 이것은 한번 취득된 모션 캡처 데이터가 다양한 관절 비율을 갖는 사람 또는 의인화된 동물 등 다양한 캐릭터에게 적용이 가능함올 의미한다</p> <p>모델에 대한 역운동학 실험을 통해, 취득된 모션 캡처 데이터로부터 동작자의 움직임을 추정하는 실험을 보여주었다. 그림 13은 실제 동작자의 움직임에 대해 역운동학 해법을 구하는 동안 각 부위별로 반복 수행 횟수를 보여주고 있다. 그림 13(a)는 사용자의 의도적인 움직임 제약을 두지 않은 경우이고, 그림 13(b)는 사용자의 의도적인 움직임 제약을 둔 경우이다. 그림 13(a) 의 결과에 의하면, 왼쪽 발과 오른쪽 발의 역운동학을 위한 반복 수행 횟수는 평균 각각 1.5 회, 4.2회이다. 의도적인 움직임 제약이 적용된 그림 13(b) 의 경우, 왼쪽 발과 오른쪽 발의 반복 수행 횟수는 각각 0회, 0.08회이다. 또한, 양쪽 팔의 경우에 대해서도, 움직임 제약을 두지 않은 경우, 왼손과 오른손의 반복 수행 횟수는 12.4 회, 11.6회이다. 반면에, 움직임 제약이 적용된 후에는 9.4회, 8.2회로 역운동학 해법을 위한 반복 수행 횟수가 상당히 감소되었다. 그립 \( 13(\mathrm{~b}) \) 에서 왼쪽 발과 오른쪽 발에 대한 반복 수행횟수는 거의 모든 프레임에서 0이 나왔다. 이것은 사용자의 의도적인 움직임이 거의 없었음을 보여주고 있다.</p>
|
인체의 부분적인 정보를 추출하고, 역운동학을 이용하여 모션 캡처 시스템을 제안한다. 수치적인 해법과 더불어 해석적인 방법을 동시에 적용하고자 했으며, 해석적인 방법을 적용하고 나서는 수렴하는데 필요한 횟수가 줄어듦으로써 최적화가 진행된다. 또한 역운동학 실험을 통해, 모션 캡처 데이터로부터 동작자의 움직임을 알아내는 실험을 한다.
|
<h3>3. 실시간 모션 캡처 시스템</h3> <p>본 논문은 인체의 부분적인 정보로부터 역운동학 해법을 이용하여 실시간 마커프리 모션 캡처 시스템을 구현하고자 했다. 표 1은 제안된 시스템의 실시간 수행 가능에 대한 실험 결과이다. 수행시간은 1,500 프레임을 대상으로 각각의 단계를 수행한 후, 프레임 당 평균 시간을 측정한 것이다. 각 알고리즘 수행시간 결과는 두 대의 카메라를 동시에 실시간으로 처리가 가능함을 보여준다. 좌표 보정 및 모션 캡처를 위한 3 차원 복원 과정은 5개의 대웅점에 대해서 선형 방정식을 푸는 문제이므로, 매우 짧은 시간에 처리가 가능하다. 피부색 추출 알고리즘의 수행시간은 RGB, 정규화된 RGB, \mathrm { YCbCr } \) 에 의한 방법을 수행한 결과 각각 \( 2.79 \mathrm { ~ms } , 2.57 \mathrm { ~ms } , 2.79 \mathrm { ~ms } \) 가 소요되었다. 두 카메라로부터 취득된 10 개의 인체 영역을 추적하기 위한 칼만필터의 응답 및 추적 시간은 \( 4 \mathrm { ~ms } \)가 소요되었다. 수치적인 방법에 의한 역운동학 해법을 한 번 계산하는데 걸리는 평균 시간은 \( 1.7 \mathrm { ~ms } \) 가 소요된다. 역운동학 해법을 위해 걸린 수행시간은 의도적인 움직임 제약이 없을 경우에는 한 프레임 당 평균 29 회의 반복 수행으로 \( 50 \mathrm { ~ms } \) 가 소요되었으며, 의도적인 움직임 제악을 적용한 후에는 한 프레임 당 평균 17.7회로서 \( 29.7 \mathrm { ~ms } \) 가 소요되었다. 하나의 PC를 이용하여 두 카메라의 영상 처리, 3 차원 복원 및 역운동학 해법까지 걸리는 소요 시간은 \( 61.3 \mathrm { ~ms } \) 가 소요되었다. 이것은 \( 16.3 \mathrm { fps } \) 의 처리 속도가 나오며 실시간으로 모션 캡처가 가능함을 알 수 있다.</p> <h1>VI. 결 론</h1> <p>본 논문에서는 다시점 영상으로부터 추출된 인체 영역을 기반으로 동작자의 모션을 캡처하는 방법을 제안하였다.</p> <p>인체 영역 검출을 위해 RGB와 정규화된 RGB를 사용함으로서, 처리 시간의 감소와 추적의 안정성을 향상시켰다. 또한, 칼만 필터와 움직임 제약조건은 각 인체 영역의 미세한 떨림(jittering)을 안정화하는데 기여하였다. 이것은 역운동학을 이용하여 해를 구하는 과정에서 반복 수행 횟수를 줄이는 효율적인 방법임을 보여주었다. 역운동학을 이용함으로서, 2차원 영상에서 추출하지 못한 인체의 중간 관절 정보들을 복원할 수 있었으며, 수치적인 방법과 해석적인 방법을 같이 사용하여 해를 구하기 위한 반복 수행의 횟수를 줄일 수 있었다. 또한, 취득된 동작자의 움직임은 각 관절의 비율이 다른 모델에 적용이 가능함을 보여주었다. 향후 사용자의 다양한 움직임을 추적하기 위해 중간관절의 정보를 보다 사실적으로 캡처할 수 있는 연구가 필요하다.</p>
|
본 논문에서는 인체의 부분적인 정보로부터 역운동학 해법을 사용하여 실시간 마커프리 모션 캡처 시스템을 구현하였다. RGB, 정규화된 RGB, YCbCr 등을 사용하여 피부색 추출 알고리즘의 소요시간을 줄였고, 칼만필터와 움직임 제약조건을 사용하여 인체 영역의 미세한 떨림을 안정화하였다. 또한, 2차원 영상에서 추출하지 못한 인체의 중간 관절 정보를 복원하고, 수치적인 방법과 해석적인 방법을 같이 사용하여 반복 수행의 횟수를 줄였다. 두 카메라로부터 취득된 10개의 인체 영역을 추적하기 위한 칼만필터의 응답 및 추적 시간은 4ms가 소요되었다.
|
<h1>I. 서 론</h1> <p>최근 컵퓨터 비젼 기술의 발달에 따라 영상 기반으로 동작자의 움직임을 인식하여 사용자 인터페이스로 사용하는 멀티미디어 시스템이 등장하고 있다. 동작자의 모션을 캡처하는 기술은 부가적 하드웨어 장비나 마커로부터 자유로워질 수 있어서 다양한 응용시스템에 적용이 가능하다. 영화 또는 게임 속 캐릭터의 사실적인 움직임 표현, 리모컨, 키보드, 마우스와 같은 기존 컨트롤로러부터 보다 자유롭고 친근감 있는 사용자 인터페이스, 병원 및 노인보호시설에서 사람들의 갑작스러운 이상 상태 감시, 지하철 등 공공장소에서의 비정상적인 행동 분석을 위한 감시 등 다양한 분야에서 활용 가능하다. 이러한 모션 캡처에 대한 연구는 높은 잠재력을 갖고 있어 많은 연구가 진행되고 있다.<p>모션 캡처란 3D 공간상에서 대상체의 움직임에 대한 위치와 방위를 측정하고, 컴퓨터가 사용할 수 있는 형태의 정보로 기록하여 분석 및 웅용하는 기술을 의미한다. 3D Studio MAX나 MAYA와 같은 기존의 키프레임 애니메이션 기법은 캐릭터의 움직임을 직접적으로 자세히 제어할 수 있다는 장점이 있지만, 수작업의 양이 많고 부자연스럽거나 비현실적인 움직임을 만들 수있다는 단점이 있다. 따라서 이를 해결하기 위해 다양한 방식의 모션 캡쳐 시스템들이 등장하고 있다. 데이터를 추출하는 방식에 따라 광학식, 기계식, 자기식으로 구분된다. 그 중에서 현재 활용되고 있는 영상 기반 광학식 모션 캡쳐 시스템은 동작자의 특정 부위에 마커를 부착하고, 다수의 카메라 영상을 취득한 후 3 차원 데이터를 추정하는 방법이다. 이러한 마커의 부착은 사용자의 불편함이 존재하게 된다. 따라서 본 논문은 마커로부터 자유로운 영상에 기반한 광학식 모션 캡쳐에 대한 연구이다.<p>일반적으로, 영상 기반 모션 캡처 시스템은 단일 카메라 또는 다시점 카메라를 이용하는 두 가지 방법으로 분류된다. A. Agarwal은 훈련된 데이터를 이용하여 동작자의 3차원 자세를 추정하였다. C. Smininchisescu는 동영상 시풘스에서 실루엣 영상을 이용하여 시간적 및 공간적 제약을 둠으로써 움직임 특징 공간을 제한하여 자세를 추정하였다. Y. Kameda와 M. Tong은 3 차원 공간 상의 가상 모델을 영상에 투영하여 3차원 인체 모델의 관절 매개 변수를 추정하였다. M. W. Lee와 P. Correa는 인체 부위의 특징 및 위치 정보에 의한 검출 확률적 접근을 퉁하여 모션 챕처를 얻었다. 이와 같이 단일 카메라 영상을 이용할 경우, 실시간으로 동작자의 자세를 추정하기에는 불가능하거나 계산량이 많아진다. 또한 동작자의 움직임 제약조건으로 인하여 다양한 동작에 대한 자세 추정에 어려움이 존재한다.</p>
|
최근 컴퓨터 비젼 기술의 발달에 따라 영상 기반으로 동작자의 움직임을 인식하여 사용자 인터페이스로 사용하는 멀티미디어 시스템이 등장하고 있으며 동작자의 모션을 캡처하는 기술은 부가적 하드웨어 장비나 마커로부터 자유로워질 수 있어서 다양한 응용시스템에 적용이 가능하다. 단일 카메라 영상을 이용할 경우, 실시간으로 동작자의 자세를 추정하기에는 불가능하거나 계산량이 많아지며 동작자의 움직임 제약조건으로 인하여 다양한 동작에 대한 자세 추정에 어려움이 존재한다.
|
<h2>Ⅴ. 실 험 결 과</h2> <h3>1. 인체 영역 검출 및 안정적 추적</h3> <p>본 논문에서는 인체의 공통된 피부색을 검출하기 위해 다양한 색공간의 조합으로 실험하였다. 그림 5, 그림 6과 그림 7은 취득된 영상으로부터 피부색 추출 과정에 대한 결과 영상들을 보여주고 있다. 그림 5는 형광등 조명 아래에서의 환경, 그림 6은 일부 자연광을 포함한 환경, 그림 7은 많은 자연광이 포함된 환경 하에서 동작자가 피부색 옷을 입은 상태에서 인체 영역 검출 결과를 보여주고 있다. 그림 5(a)는 1번 프레임, 그림 5(b)는 51번 프레임, 그림 5(c)는 101번 프레임, 그림 5(d)는 151번 프레임, 그림 5(e)는 201번 프레임을 보여주고 있다. 각 그림에서 첫 번째 행은 입력영상을 보여주고 있으며, 두 번째 행은 RGB 배경 차분에 의해서 얻어진 결과 영상을 나타내며, 세 번째 행은 HSI 차분에 의해서 얻어진 결과영상, 네 번째 행은 최종적으로 검출된 피부색 영상을 보여준다. 그림 6과 그림 7 역시 동일하다.</p> <p>RGB 배경 차분에 의해서 얻어진 영상을 보면, 제한된 환경 내에서 동작자가 나타남으로 인하여 동작자의 그림자 외에 동작자로 인하여 주변 물체 및 환경의 상당한 변화가 생기는 것을 알 수 있다. 하지만 피부색 영역은 정상적으로 검출되고 있음을 알 수 있다.</p> <p>하지만, 그림 7의 결과로부터 우리는 제안된 모션 캡처 시스템에서 정상적인 인체 영역 검출의 어려움을 알 수 있다. 이것은 제안된 시스템이 피부색에 의존하므로, 피부색과 유사한 색상을 가지는 옷을 입은 경우, 제안된 시스템에서는 올바른 모션 캡처가 어렵다. 따라서, 본 논문에서는 피부색 범위에 포함되는 옷에 대해서는 제한을 두었다.</p> <p>그림 8은 안정적인 피부색 검출을 위해서 색공간을 조합한 실험을 보여주고 있다. 이 실험은 사용자의 의도적인 움직임이 없는 400프레임에 대한 결과를 보여준다. 그림 8(a), 8(b), 8(c)는 두 카메라에 취득된 발에 대한 평균, 표준편차와 표준편차의 평균을 보여주고 있다. 그림 8(a)에서 세로축은 영상의 평균 좌표를 의미하고, 그림 8(b)에서 세로축은 이전 프레임에서 취득된 값과 현재 프레임에서 취득된 값의 차이에 대한 표준편차를 의미한다. 범례에서 P는 Peer2003으로 RGB 색공간으로부터 취득한 방법, \( N \)은 정규화된 RGB 색공간으로부터 취득한 방법, \( Y \)는 YCbCr 색공간으로부터 취득 방법을 의미하며, “\(+\)"는 각각의 방법으로부터 추출된 결과에 대해 논리합(OR)을 의미한다. 그림 8(a)에 의하면, 각 7가지 방법에 의해 추출한 결과 추정된 값은 거의 비슷한 결과를 보여주고 있다. 하지만, 그림 8(c)에 의하면, RGB 색공간과 정규화된 RGB를 동시에 적용한 방법이 다른 방법에 비해 낮은 표준편차값을 얻었다. 이것은 상대적으로 안정적인 피부색 검출이 되고 있음을 보여주고 있다.</p> <p>그림 9는 움직이 없는 양 발에 대한 복원된 3차원 좌표 추적의 안정성에 대한 실험을 보여주고 있다. 여기에서 오차는 사용자의 의도적인 움직임이 없는 영상(400 프레임)에 대하여 현재 영상의 3차원 복원값과 이전 영상의 3차원 복원값 사이의 차이로 정의한다. 그림 9(a)는 칼만 필터를 적용하기 전의 오차값을 보여주며, 그림 9(b)는 칼만 펄터를 적용한 후의 오차값을 보여준다. 칼만필터를 적용하기 전의 경우에는, 왼쪽 발과 오른쪽 발의 오차값이 각각 \( 3.15 \mathrm{mm}, 1.53 \mathrm{mm} \)였다. 하지만, 칼만 필터를 적용한 후의 경우에는, 왼쪽 발과 오른쪽 발의 오차값이 각각 \( 1.26 \mathrm{mm}, 0.55 \mathrm{mm} \)로 \( 40 \% \)이하로 줄었다. 이로부터, 본 논문에서는 \( 1 \mathrm{cm} \)이하의 움직임이 있는 경우에는 의도적인 움직임이 없는 것으로 판단한다.</p>
|
여러 색공간 조합으로 인체의 공통된 피부색을 검출하기 위한 실험을 수행하였다. RGB 배경을 차분하여 얻은 영상에서 동작자의 그림자외 동자자로 인해 주변 물체와 환경에 변화를 확인할 수 있었다. 제안된 시스템은 피부색에 의존하여 동장작자의 옷이 피부색과 유사한 색을 가진 경우 모션 챕처 시스템의 인체 영역 검출 한계를 확인할 수 있었다. 피부색 범위에 해당하는 옷을 제한 조건으로 실험을 진행했다.
|
<p>HEVC의 인트라 예측 부분에서는 압축 효율을 높이기 위한 많은 기술들이 새로 적용되었다. 먼지 압축 성능을 높이기 위해서 planar 모드나 angular 모드 등이 추가 되고 전체 모드의 수가 증가하였다. 다음으로 대표적인 기술 중 하나는 퀴드트리 구조이다. 기존 H.264/AVC의 인트라 예측 부분에서는 \( 4 \times 4 \)부터 \( 16 \times 16 \)의 세 개의 블록그기 단위로 부호화 된 반면, HEVC에서는 최대 \( 64 \times 64 \)에서 \( 8 \times 8 \)까지 4개의 부호화 단위와 \( 8 \times 8 \)부호화 단위 안에서 \( 4 \times 4 \)의 예측 단위까지 총 5개의 단위로 부호화 된다. 이와 같은 인트라 예측 모드의 증가와 쿼드트리 구조를 통해서 HEVC는 인트라 예측의 정확성을 크게 향상시키고 압축 효율을 높였다. 하지만 이러한 새로운 기술들의 추가로 많은 연산량이 추가되어 동영상 압축에 필요한 연산 시간을 증가시켜 실시간 인코딩을 하는데 큰 어려움을 준다. HEVC의 레퍼런스 소프트웨어인 HEVC Test Model (HM)에서는 인트라 예측에서의 연산량 감소를 위하여 Hadamard 변환을 이용한 SATD(Sum of Absolute Transformed Differences)를 사용하여 고속 인트라 예측을 한다. 하지만 아직 HEVC 인코더의 연산 시간의 문제를 해결하기에는 부족하다. 퀴드트리 구조로 인한 연산량을 감소시키는 고속화 방법도 제안 되었으나 상대적으로 높은 압축률 손실의 문제점을 가지고 있다.</p> <p>이 연산 시간의 문제를 해결하기 위해서 본 논문은 쿼드트리 구조와 SATD를 이용한 새로운 고속 인트라 예측 방식을 제안한다. 제안하는 방식은 HEVC의 기존 SATD 결과를 다시 사용하는 \( 16 \times 16 \) 이상 블록에 대한 방식과 \( 4 \times 4 \) SATD 연산을 추가하는 \( 8 \times 8 \) 블록에 대한 방식으로 나누어진다. \( 16 \times 16 \) 이상이 블록에서는 특별한 추가 연산 없이 적용되며 \( 8 \times 8 \) 블록에서도 약간의 연산 추가로 적용이 가능하고 HM의 고속 인트라 예측 방식과 함께 적용되어 연산 시간을 효율적으로 줄이는 방식이다. HM의 고속 인트라 예측 방식은 SATD를 이용해서 전체 인트라 예측 모드 중에 일부 후보 모드를 선택해서 후보 모드에 대해서만 최종 인트라 예측을 함으로써 연산 시간을 감소시킨다. 제안된 방식은 HM의 고속 인트라 예측 방식을 통해서 선택된 후보 모드들 중에서 일부 모드를 추가로 제거해서 최종 후보 모드의 수를 더욱 줄이는 방식으로 연산 시간을 감소시킨다.</p>
|
압축 성능을 높이기 위해서 퀴드트리 구조와 planar 모드나 angular 모드 등을 추가 하고 전체 모드의 수를 증가시켜 HEVC의 인트라 예측 부분에서 새로운 기술을 추가했는데 이러한 기술들의 추가로 연산량이 많이 추가되어 연산 시간을 증가시켜 동영상 압축에 필요한 실시간 인코딩을 하는데 큰 어려움이 생겼고 이 문제를 해결하기 위해서 쿼드트리 구조와 SATD를 이용한 새로운 고속 인트라 예측 방식을 제안한다.
|
<p>다음으로 QP에 따른 결과를 보면 QP가 낮을수록 높은 속도 향상을 보이는 것을 확인 할 수 있다. QP 22에서 평균 \( 4.75 \% \)의 속도 향상을 이루었으며, QP 37에서는 평균 \( 2.75 \% \)의 속도 향상을 이루었다. QP가 낮을수록 영상이 더욱 선명하고 복잡해지며 반대로 QP가 높을수록 영상의 화질이 흐려지고 뭉개지게 되는데 이 때문에 낮은 QP에서는 상대적으로 작은 블록으로 인코딩 되는 경우가 많아지게 된다. 따라서 QP가 낮으면 제안하는 방식에서 예측한 \( 8 \times 8 \) 블록의 코스트가 \( 16 \times 16 \) 이상 블록의 코스트보다 충분히 작은 경우가 많이 발생하여 QP가 큰 경우에 비해 더 많은 RDO 후보 모드를 제외하여 더 높은 연산 속도 향상을 이룰 수 있게 된다.</p> <p>표 5는 \( 8 \times 8 \) 블록을 위한 고속 인트라 예측 방식을 포함한 제안하는 방식 전체를 적용한 성능을 나타낸다. 실험 결과 제안하는 방식은 HM 12.1에 비해 전체 인코딩 시간이 평균 \( 5.33 \% \)가 짧아졌으며, 속도 향상에 따른 압축 성능 손실은 평균 \( 0.19 \% \)로 약간 증가하였지만 여전히 무시할 만큼 작은 성능 손실을 보인다. \( 8 \times 8 \) 블록을 위한 고속 인트라 예측이 포함되며 \( 1.75 \% \)의 연산 시간이 추가로 감소하고 \( 0.15 \% \)의 압축 성능 손실이 증가한 것을 확인할 수 있다. \( 8 \times 8 \) 블록에 대한 고속 인트라 예측 방식은 첫 번째 제안된 방식인 \( 16 \times 16 \) 이상 블록에 대한 고속 인트라 예측 방식에 비해서 속도 향상 및 압축 성능 손실 부분에서 상대적으로 안 좋은 결과를 보이고 있다. 이는 \( 8 \times 8 \)에서 \( 4 \times 4 \) SATD 연산을 추가하여 연산량 감소 효과가 줄었으며, \( 4 \times 4 \) SATD 와 \( 8 \times 8 \) SATD의 서로 다른 SATD 결과를 비교하다 보니 상대적으로 낮은 상관관계를 가지게 되어 그림 6에서 나타난 것과 같이 0.6의 높은 기준 값에도 상대적으로 많은 최종 선택 모드들이 후보 모드에서 제외됨으로 인하여 압축 성능 손실이 증가하게 된 것이다. 하지만 압축 손실은 여전히 무시할 만큼 작아 인트라 예측의 속도 향상을 위한 고속 알고리즘으로 충분이 활용될 수 있을 것으로 보인다.</p>
|
QP가 낮으면 QP가 큰 경우에 비해 더 많은 RDO 후보 모드를 제외하여 더 높은 연산 속도 향상을 이룰 수 있으며 압축 손실이 있으나 무시할 만큼 작아 인트라 예측의 속도 향상을 위한 고속 알고리즘으로 충분히 활용될 수 있을 것으로 보인다.
|
<p>식 (1)에서 \( T_ {\text { pro } } \)는 제안하는 방식의 인코딩 시간이며, \( T_ {\text { ref } } \) HM 12.1의 인코딩 시간이다. 다음으로 압축 성능을 나타내기 위해서는 Bjontegaard-Delta(BD) 측정법을 사용하였다. \( - \mathrm { x } \% \)의 BD-rate 값은 제안하는 방식이 기준 방식에 비해 \( \mathrm { x } \% \)의 전체 bit를 줄일 수 있다는 것을 의미하고 반대로 양수 값을 갖는 경우에는 전체 bit를 증가시켜 압축 효율이 떨어졌다는 것을 의미 한다. HM 12.1과 비교한 제안하는 방식의 최종 성능은 표 4와 표 5에 나타내었다. 표 4는 \( 16 \times 16 \) 이상 블록에 대한 고속 인트라 예측 방식만 적용된 결과이며, 표 5는 \( 16 \times 16 \) 이상 블록에 대한 고속 인트라 예측 방식과 \( 8 \times 8 \) 블록에 대한 고속 인트라 예측 방식을 함께 적용한 경우의 성능을 나타낸다. 표 4의 실험 결과 \( 16 \times 16 \) 이상의 블록에 대한 고속 인트라 예측 방식을 적용할 경우 전체 인코딩 시간이 평균 \( 3.58 \% \) 줄어들며 속도 향상에 따른 압축 성능 손실은 평균 \( 0.04 \% \)로 거의 손실이 발생 하지 않는 것을 확인 할 수 있다.</p> <p>각 클래스 별로 비교하면 큰 영상 크기를 가지는 클래스가 속도 향상이 상대적으로 많이 되는 것을 확인 할 수 있다. 영상 크기가 가장 큰 클래스 A에서 평균 \( 6.69 \% \)로 가장 높은 속도 향상이 이루어 졌다. 이는 영상 프레임이 정확이 \( 64 \times 64 \)의 블록으로 나누어지지 않기 때문에 발생하는 현상이다. HM에서는 영상 프레임의 테두리 부분에서는 테두리에 맞도록 \( 64 \times 64 \) 블록이 아닌 작은 블록으로 인코딩을 한다. 상대적으로 작은 사이즈의 영상에서는 이렁게 작은 블록으로 인코딩을 하는 테두리 부분의 블록 비율이 높게 된다. 첫 번째 제안하는 방식이 기본적으로 크기가 큰 \( 16 \times 16 \) 이상의 블록들에 대해서 RDO 후보 모드 제거하여 연산량 감소를 통해서 속도 향상을 시키기 때문에 작은 블록으로 인코딩을 할 경우 속도 향상을 이루기 어렵다. 따라서 프레임 사이즈가 큰 영상들이 테두리 부분의 작은 블록 인코딩 비율이 상대적으로 작기 때문에 제안된 방식에 의해서 보다 많은 속도 향상 효율을 나타낸다.</p>
|
압축 성능을 나타내기 위해서는 BD 측정법을 사용하였는데 실험 결과 \( 16 \times 16 \) 이상의 블록에 대한 고속 인트라 예측 방식을 적용하면 전체 인코딩 시간이 평균 \( 3.58 \% \) 줄어들며 속도 향상에 따른 압축 성능 손실은 평균 \( 0.04 \% \)로 거의 손실이 발생 하지 않았다. 또한, 클래스 별로 비교하면 큰 영상 크기를 가지는 클래스가 속도 향상이 상대적으로 많이 되었는데 프레임 사이즈가 큰 영상들이 테두리 부분의 작은 블록 인코딩 비율이 상대적으로 작기 때문에 제안된 방식에 의해서 보다 많은 속도 향상 효율을 나타냈다.
|
<h2>2. \( 8 \times 8 \) 블록을 위한 고속 인트라 예측 방식</h2> <p>본 논문에서는 \( 8 \times 8 \) 블록을 위한 인트라 에측 방식을 함께 제안한다. HM의 \( \mathrm { RMD } \) 에서 \( 8 \times 8 \) 블록은 \( \mathrm { SATD } \) 값 을 구할 때, \( 8 \times 8 \) Hadamard 변환을 사용하기 때문에 4 장 1절에서 말한 방식을 그대로 사용할 수 없다. 따라 서 제안하는 방식은 \( 8 \times 8 \) 블록의 RMD를 진행 할 때, 기 존 \( 8 \times 8 \) 변환과 함께 4 개의 \( 4 \times 4 \) 변환을 함께 사용한다. RMD를 통한 8 개의 후보 모드를 선정 할 때에는 \( 8 \times 8 \) 변환의 건과를 그대로 사용하고, 제안하는 방식에서 사용되는 최적 SATD 값을 구하기 위해서는 4 개의 \( 4 \times 4 \) 변환을 추가로 사용한다. \( 16 \times 16 \) 이상의 블록에서 각 \( 8 \times 8 \) SATD 별로 가장 작은 코스트를 구해서 최적 \( \mathrm { SATD } \) 값을 구한 것과 마찬가지로 \( 8 \times 8 \) 블록에서는 각 \( 4 \times 4 \) SATD 별로 가장 작은 코스트를 구해서 최적 SATD 값을 구한다. 수식으로 나타내면 다음과 같다.</p> <p>\( b S_ { 4 } N= \min \left (S_ { 4 } N(1), S_ { 4 } N(2) \cdots, S_ { 4 } N(35) \right ) ~~~ \)<caption>(4)</caption></p> <p>best \( S A T D= \sum_ { i=1 } ^ { 4 } b S_ { 4 } i ~~~ \)<caption>(5)</caption></p> <p>이 때, \( \mathrm { bS } _ { 4 } N \)는 \( \mathrm { N } \)번째 \( 4 \times 4 \) SATD의 최적 코스트를 나타내며 \( \mathrm { S } _ { 4 } N(m) \)은 인트라 모드가 \( \mathrm { m } \) 일 때의 \( \mathrm { N } \)번째 \( 4 \times 4 \) SATD 코스트를 나타넨다.</p>
|
본 논문에서는 RMD에서 \( 8 \times 8 \) 블록의 SATD 값을 구하기 위한 인트라 예측 방식을 제안한다. 기존 \( 8 \times 8 \) 변환과 함께 4개의 \( 4 \times 4 \) 변환을 추가로 사용하여 \( 4 \times 4 \) SATD 별로 가장 작은 코스트를 구해서 최적 SATD 값을 구한다.
|
<h1>요 약</h1> <p>본 논문은 HEVC(high efficiency video coding) 인코더의 인코딩 시간을 줄이기 위현 고속 인트라 예측 방식을 제안한다. 제안하는 고속 인트라 예측 방식은 쿼드트리 구조와 SATD(Sum of Absolute Transformed Differences)를 사용한다. HEVC는 \( 8 \times 8 \) 이상의 블록에서 SATD 값을 구하기 위해 \( 8 \times 8 \) hadamard 변환을 이용한 \( 8 \times 8 \) SATD 값을 사용한다. 세안하는 방식은 \( 16 \times 16 \) 이상의 블록에서 각각의 \( 8 \times 8 \) SATD 결과를 이용해서 최적 SATD 값을 산출한다. 그 후, ROO를 위한 후보 모드의 SATD와 산출된 최적 SATD의 비교를 기반으로 후보 모드를 제거한다. 후보 모드를 제거함으로씨 제안하는 방식은 RDO의 연산을 줄이고 전체 인코딩 시간을 줄이게 된다. 세안하는 방식은 \( 8 \times 8 \) 블록에서는 추가로 \( 4 \times 4 \) SATD를 사용하여 최적 SATD를 구한다. 실험 결과 제안하는 방식은 거의 압축 성능 손실 없이 HM 12.1에 비해 \( 5.33 \% \) 의 인코딩 시간 감소 효과를 얻을 수 있었다.</p> <h1>Ⅰ. 서 론</h1> <p>디지털 컴퓨터, 반도체, 신호처리 기술 등이 발전하면서, 디지털 방송이나 멀티미디어 통신 등의 멀티미디어 서비스 역시 발전하고 있다. 그 중에서도 시각과 청각 자료 등의 많은 정보를 가지는 비디오 신호는 중요한 멀티미디어 중 하나이다. 이러한 비디오 신호는 많은 정보를 가지고 있는 만큼 매우 큰 용량을 가지고 있다. 따라서 비디오 신호를 포함하는 멀티미디어 데이터를 실생활에 적용하기 위해서는 비디오 데이터를 효과적으로 압축할 수 있는 방법이 필요하다. 이 비디오 압축 방식을 비디오 코덱이라고 부르며, ISO-IEC/MPEG과 ITU-TVCEG의 JVT(Joint Viedo Team)가 제안한 H.264 / AVC 표준이 현재 주로 사용되는 가장 좋은 성능을 가지는 비디오 코덱 표준이다. 그러나 최근 고화질, 고해상도 영상에 대한 요구가 증가함에 따라 큰 용량을 가지는 비디오 데이터의 사용이 증가하면서 기존의 비디오 코덱 표준(H.264/AVC)보다 높은 압축 효율을 갖는 새로운 비디오 압축 기술이 필요하게 되었다. 이런 흐름에 따라서 ISO-IEC/MPEG와 ITU-T/VCEG는 2010년에 공동 표준화를 진행하기 위한 JCT-VC(Joint Collaborative Team on Video Coding)를 구성하였다. JCT-VC는 H.264/AVC를 기반으로 압축효율의 2배 향상을 목표로 표준화 작업을 진행하여 2013년 3월 차세대 영상 부호와 표준인 HEVC(high efficiency video coding)의 버전 1 최종표준안(FDIS: Final Draft International Standard)을 배포하였다.</p>
|
인코더의 인코딩 시간을 줄이기 위한 고속 인트라 예측 방식을 제안하며 제안하는 방식은 압축 성능 손실 없이 인코딩 시간 감소 효과를 얻을 수 있다. 멀티미디어 서비스가 발전하면서 멀티미디어 중 중요한 비디오 신호를 포함하는 멀티미디어 데이터를 실생활에 적용하기 위해 비디오 데이터를 효과적으로 압축할 수 있는 방법이 필요하다.
|
<p>\( 8 \times 8 \) 블록에서도 후보 모드의 SATD 값이 최적 SATD 값보다 클 경우 \( 4 \times 4 \) 블록이 최종 인트라 예측 블록으로 선택될 가능성이 높으므로 후보 모드에서 제거해 주는 방식을 사용하게 된다. 즉, \( 8 \times 8 \) 블록에서도 최적 SATD 값을 구하기 위해 추가로 4개의 \( 4 \times 4 \) 변환이 사용된다는 점을 제외하고는 같은 방식이 사용된다.</p> <p>그림 6은 \( 8 \times 8 \) 블록에서 후보 모드의 SATD에 대한 최적 SATD 비율에 따른 분석 그래프이며 그림 4와 같은 실험 환경에서 도출된 결과이다. 그래프 분석 결과 후보 모드의 SATD에 대한 최적 SATD 비율이 큰 부분의 발생 빈도가 \( 16 \times 16 \) 이상의 블록에 비해서 높게 나타나는 것을 볼 수 있다. 따라서 제안하는 방식은 \( 8 \times 8 \) 블록에서는 후보 모드 제거를 위한 기준 값을 0.4 보다 높은 0.6으로 설정하여 0.6보다 높은 경우에 모드를 후보 모드에서 제거하게 된다. 표 2은 \( 8 \times 8 \) 블록을 위한 고속 인트라 예측 방식으로 제거될 수 있는 후보 모드의 비율을 보여준다. 역시 그림 4와 같은 실험 환겅을 사용하였다. 제안하는 방식이 \( 8 \times 8 \) 블록에서 \( 20.4 \% \) 의 RDO 연산량을 줄이고 연산 속도를 향상 시킬 수 있음을 확인할 수 있다. 전체 프로세스는 그림 5와 같으며 \( \mathrm { R } \)에 대한 기준 값만 0.4에서 0.6으로 바뀐다.</p> <h1>Ⅴ. 실 험 결 과</h1> <p>제안하는 고속 인트라 예측 방식의 검증을 위해서 우리는 HEVC 레퍼런스 소프트웨어인 HM 12.1을 사용하였다. 실험 환경 구성은 공동 실험 조건 문서를 참조하였으며 자세한 내용은 표 3에 나타내었다. 제안 하는 방식의 성능 검증을 위하여 우리는 제안하는 방식의 전체 인코딩 시간과 HM 12.1의 전체 인코딩 시간을 이용하였다. 두 인코딩 시간을 비교하여 제안하는 방식이 HM에 비해서 전체 인코딩 시간을 감소시키는 비율을 통해 성능을 나타내었다. 인코딩 시간 감소 비율( \( \Delta \) Time)은 식 (1)과 같은 방식으로 계산하였다.</p> <p>\( \Delta \) Time \( ( \%)= \frac {\left (T_ { p r o } -T_ { r e f } \right ) } { T_ { r e f } } ~~~ \)<caption>(6)</caption></p>
|
\( 8 \times 8 \) 블록에서 최적 SATD 값을 구하기 위해 추가로 4개의 \( 4 \times 4 \) 변환이 사용된다는 점을 제외하면 후보 모드의 SATD 값이 최적 SATD 값보다 클 경우 \( 4 \times 4 \) 블록이 최종 인트라 예측 블록으로 선택될 가능성이 높으므로 후보 모드에서 제거해 주는 방식을 사용한다. 제안하는 고속 인트라 예측 방식을 검증하기 위해서 HEVC 레퍼런스 소프트웨어인 HM 12.1을 사용했으며 제안하는 방식의 전체 인코딩 시간 및 HM 12.1에 대한 전체 인코딩 시간을 이용했다.
|
<p>위와 같은 방법으로 각 블록 별로 최종 인트라 예측 모드와 최종 코스트를 구한 후 그림 1과 같이 쿼드트리 구조로 각 블록의 코스트를 비교하여 가장 큰 부호화 단위인 \( 64 \times 64 \) 블록 단위로 인트라 예측을 진행한다. 먼저 \( 4 \times 4 \) 블록 4개로 부호화할 경우의 코스트와 \( 8 \times 8 \) 블록 하나로 부호화할 경우의 코스트를 비교하여 \( 8 \times 8 \) 블록의 최적 부호화 방법과 코스트를 구한다. 다음으로 하나의 \( 8 \times 8 \) 블록 또는 4개의 \( 4 \times 4 \) 블록 중 최적 부호화 방법으로 부호화 된 4개의 \( 8 \times 8 \) 블록들과 \( 16 \times 16 \)블록 하나로 부호화할 경우의 코스트를 비교하여 \( 16 \times 16 \)블록의 최적 부호화 방법과 코스트를 구한다. 마찬가지 방법으로 \( 32 \times 32 \) 블록과 비교하고 마지막으로 \( 64 \times 64 \) 블록과 비교하여 최종적으로 가장 큰 부호화 단위의 하위 블록 크기 구조 및 각 하위 블록의 최종 예측 모드를 결정한다.</p> <h1>Ⅳ. 제안하는 방식</h1> <p>본 논문에서는 고속 인트라 예측 방식을 위하여, 블록 크기에 따라 두 가지 방법을 적용하여 예측 속도를 향상 시키는 방식을 제안한다. 4개 이상의 \( 8 \times 8 \) 변환을 이용하여 SATD를 구하는 \( 16 \times 16 \) 이상의 블록에서는 \( 8 \times 8 \) 변환의 결과를 그대로 이용하는 방식을 사용하며, 하나의 \( 8 \times 8 \) 변환을 이용하는 \( 8 \times 8 \) 블록에서는 4개의 \( 4 \times 4 \) 변환을 추가로 하는 방식을 사용한다.</p> <h2>1. \( 16 \times 16 \) 이상 블록을 위한 고속 인트라 예측 방식</h2> <p>HM의 기존 고속 인트라 예측 방식에서 \( 8 \times 8 \) 이상의 블록에서는 \( 8 \times 8 \) Hadamard 변환을 이용하여 SATD를 구한다. 즉, \( 16 \times 16 \) 블록에서는 4개의 \( 8 \times 8 \) 변환이 사용되고 \( 32 \times 32 \) 블록에서는 16개, \( 64 \times 64 \) 블록에서는 64개의 \( 8 \times 8 \) 변환이 사용된다. 최종 SATD 결과는 각 \( 8 \times 8 \) 단위의 SATD 결과를 독립적으로 구한 후 그 합으로 나타낸다. 그림 2는 HM의 기존 고속 인트라 예측 방식에서 \( 32 \times 32 \) 블록의 SATD를 구하는 방식을 나타낸다.</p>
|
고속 인트라 예측 방식을 개선하기 위해, 블록 크기에 따라 두 가지 방법을 적용하여 예측 속도를 향상시키는 방식을 제안하는 본 논문이다. 최종 SATD 결과는 각 \( 8 \times 8 \) 단위의 SATD 결과를 독립적으로 계산하고 그 합을 표현한다. 그림 2는 HM의 기존 고속 인트라 예측 방식에서 \( 32 \times 32 \) 블록의 SATD를 계산하는 방법을 나타낸다.
|
<p>본 논문의 구성은 다음과 같다. Ⅱ장에서는 기존 고속 인트라 예측 방식을 소개하고 제안 방식과의 알고리즘 접근의 차별성을 나타내며, Ⅲ장에서는 기존 HEVC의 인트라 예측 방법에 대해서 살펴보고, Ⅳ장에서는 제안하는 방식에 대해서 소개한다. Ⅴ장에서는 실험 결과를 보여주고, 마지막으로 VI장에서 결론을 맺는다.<h1>II. 기존 고속 인트라 예측 방식</h1> <p>HEVC 인트라 예측의 연산 시간의 문제를 해결하기 위해서 고속 인트라 예측 방식에 대한 많은 연구가 이루어지고 있다. Silva는 에지를 검출을 기반으로 하는 고속 인트라 모드 결정 방식을 제안하였다. 이 방식은 \( 4 \times 4 \) 블록 단위로 에지를 구하여 그 에지에 따라서 일부의 모드만 선택하여 인트라 예측을 진행하는 방식으로 고속 인트라 예측 방식을 구현하였다. 하지만 이 방식은 제안하는 방식에 비해 에지 검출을 위한 추가적인 알고리즘이 필요하며 속도 향상에 따른 압축률 손실이 비교적 높게 나타나는 문제가 있다. Zhang이 제안한 고속 인트라 예측 방식은 제안하는 방식과 같이 SATD를 이용한 고속 인트라 예측 방식의 결과를 이용하지만 SATD 값을 직접 이용하지 않고 후보 모드의 선택 결과를 만을 사용하는 차이가 있다. 이 방식 역시 제안하는 방식에 비해 높은 압축 손실을 나타낸다. Kim이 제안한 방식은 계층 구조를 이용한 고속 인트라 예측 방식이다. 이 방식은 HEVC의 계층 구조를 이용하여 현재 계층과 상위 계층 사이의 관계와 예측 단위와 변환 단위 사이의 관계를 이용하여 하위 계층의 연산을 건너뛰는 방식과 상위 계층의 인트라 예측 모드들 이용하여 SATD를 이용한 고속 인트라 예측 방식을 통해 선정하는 후보 모드의 수를 줄이는 방식으로 고속 인트라 예측 방식을 진행한다. 이 방식은 본 논문에서 제안하는 방식과 비슷하게 계층적 구조에 대한 접근을 하였지만 이 방식은 계층적 구조에서 상위 계층의 결과를 이용하고, 본 논문에서 제안하는 방식은 하위 계층의 결과를 예측 한다는 것에서 차이가 있으며, 이 방식 역시 최종 결과에서 제안하는 방식에 비해 높은 압축 손실을 나타낸다.</p> <h1>Ⅲ. HEVC의 인트라 예측 방법</h1> <p>HM에서 부호화 단위나 예측 단위의 인트라 예측 방식은 크게 두 부분으로 나눌 수 있다. 고속 인트라 예측 방식인 RMD(Rough Mode Decision) 부분과 최종 인트라 예측 모드를 결정하는 RDO(Rate-Distortion Optimization) 부분이다.</p> <p>먼저 RMD에서는 전체 35개의 인트라 예측 모드에 대해서 RDO에서 사용되는 SSE(Sum of Squared Error)를 사용하는 대신 그보다 좀 더 간단한 SATD를 이용하여 RDO에서 최종 인트라 예측 모드 결정을 위한 개략적인 후보 모드 군을 생성한다. RDO에서의 SSE의 연산을 줄여서 연산 시간을 단축 할 수 있게 하는 것이다. SATD를 구하기 위한 Hadamard 변환은 \( 4 \times 4 \) 변환과 \( 8 \times 8 \) 변환의 두 가지 크기의 변환이 이용된다. \( 4 \times 4 \) 블록에서는 \( 4 \times 4 \) 변환이 사용되고 나머지 \( 8 \times 8 \) 이상의 블록에서는 \( 8 \times 8 \) 변환이 사용된다. RMD를 통해서 상대적으로 복잡한 영역에서 많이 선택되는 \( 8 \times 8 \) 이하의 블록에서는 8개의 후보 모드가 선택되고, \( 16 \times 16 \) 이상의 블록에서는 3개의 후보 모드를 선택하게 된다. 이때, 주변 블록의 인트라 예측 모드로부터 얻은 최고 확률 모드가 후보 모드에 포함되지 않은 경우에는 최고 확률 모드를 후보 모드에 추가해 준다. 그 후 RDO에서는 SSE를 이용한 Rate-distortion 기반 모드 결정을 수행하여 최종 인트라 예측 모드를 결정하게 된다.</p>
|
고속 인트라 예측 방식은 HEVC의 인트라 예측 연산 시간 문제를 해결하기 위한 연구로 많이 진행되고 있다. Silva는 에지 검출을 기반으로 하는 고속 인트라 모드 결정 방식을 제안했는데, 이 방식은 계층적 구조에서 상위 계층 결과를 활용하고, 본 논문에서 제안하는 방식과 차이가 있으며, 높은 압축 손실을 나타낸다. HM에서는 인트라 예측 방식을 RMD 부분과 RDO 부분으로 구분할 수 있다.
|
<p>최적 SATD 값을 구한 후 제안하는 방식은 HEVC의 퀴드트리 구조의 성질을 이용한다. 그림 1에서 설명 했듯이 HEVC의 인트라 예측에서는 각 블록 크기 별로 인트라 예측을 진행하여 예측 결과와 코스트를 계산한 후에 각 블록 크기 별로 최종 코스트를 비교하여 작은 코스트를 갖는 블록 크기로 결정이 되는 구조를 가지고 있다. 이와 같은 퀴드트리 구조에서는 결국 최종 블록 크기로 선택되지 않은 블록들의 결과는 필요 없는 값이 된다. 즉, 이런 블록에 대해서는 인트라 예측을 하지 않아도 성능 손실은 발생하지 않는다.</p> <p>앞 단락에서 설명한 방식으로 각 \( 8 \times 8 \) SATD 단위로 최적 SATD 값을 구하면, 이 결과를 통해 \( 16 \times 16 \) 이상의 블록에서 \( 8 \times 8 \) 블록의 인트라 예측 결과를 대략적으로 추정해 볼 수 있다. 즉, 실제 인트라 예측을 진행하기 이전에 대략적으로 현재 블록의 인트라 예측 결과와 \( 8 \times 8 \) 블록의 인트라 예측 결과를 비교해 볼 수 있게 된다.</p> <p>\( 16 \times 16 \) 이상의 블록에서는 RMD와 최고 후보 모드 MPM(most probable mode)를 용하여 3개에서 5개의 후보 모드를 선택하게 된다. 제안하는 방식은 이 후보 모드들의 SATD 결과 값과 제안하는 방식에서 구한 최적 SATD 값을 비교한다. 이 때, 최적 SATD 값이 어떤 후보 모드의 SATD 값에 비해서 많이 작은 경우에는 이 후보 모드가 현재 블록 사이즈에서 최종 인트라 예측 모드로 선택되어도 \( 8 \times 8 \) 블록의 예측 결과보다 큰 코스트를 가져 최종 블록으로 선택되지 않을 가능성이 매우 크게 된다. 즉, 이 후보 모드에 대한 인트라 예측 연산은 필요 없는 연산이 되는 것이다. 따라서 제안된 방식은 후보 모드의 SATD 값이 최적 SATD 값에 비해서 일정 비율 이상 큰 경우에는 후보 모드에서 제거 한다. 결국 최적의 SATD 값을 구하기 위해 약간의 연산량이 증가 하였으나 최종적으로 불필요한 RDO 연산을 줄임으로써 전체적인 연산 속도를 향상 시킨다.</p> <p>앞 단락에서 설명한 방식으로 각 \( 8 \times 8 \) SATD 단위로 최적 SATD 값을 구하면, 이 결과를 통해 \( 16 \times 16 \) 이상의 블록에서 \( 8 \times 8 \) 블록의 인트라 예측 결과를 대략적으로 추정해 볼 수 있다. 즉, 실제 인트라 예측을 진행하기 이전에 대략적으로 현재 블록의 인트라 예측 결과와 \( 8 \times 8 \) 블록의 인트라 예측 결과를 비교해 볼 수 있게 된다.</p>
|
제안된 방식은 HEVC의 퀴드트리 구조의 성질을 활용하여 최적 SATD 값을 구한 후 후보 모드에서 불필요한 인트라 예측 연산을 제거한다. 이를 통해 전체적인 연산 속도를 향상시키면서도 성능 손실을 방지할 수 있다. 제안된 방식은 후보 모드의 SATD 값이 최적 SATD 값에 비해 일정 비율 이상 큰 경우 해당 후보 모드를 제거하는 것이 핵심이다. 이로써 최종적으로 불필요한 RDO 연산을 줄이고 연산 속도를 향상시킬 수 있다.
|
<p>본 논문에서 제안하는 방식은 위와 같이 \( 16 \times 16 \) 이상의 블록에서 4개 이상의 \( 8 \times 8 \) SATD 결과가 사용되는 점을 이용한다. 제안하는 방식은 \( 8 \times 8 \) 단위의 SATD 값의 합이 아닌 각각의 \( 8 \times 8 \) SATD 결과를 따로 뽑아서 이용한다. \( 8 \times 8 \) SATD 단위로 35개의 모드에 대한 값을 비교하여 각 \( 8 \times 8 \) SATD 별로 최적의 코스트를 구하는 것이다. 구하는 식은 다음과 같다.</p> <p>\( \mathrm { bS } _ { 8 } N = \min \left (S_ { 8 } N(1), S_ { 8 } N(2) \cdots, S_ { 8 } N(35) \right ) ~~~ \)<caption>(1)</caption></p> <p>이 때, \( \mathrm { bS } _ { 8 } N \)는 \( \mathrm { N } \)번째 \( 8 \times 8 \) SATD의 최적 코스트를 나타내며 \( S_ { 8 } N(m) \)은 인트라 모드가 \( \mathrm { m } \)일 때의 \( \mathrm { N } \)번째 \( 8 \times 8 \) SATD 코스트를 나타낸다. 그림 2를 통해서 \( 32 \times 32 \) 블록에서의 예를 들면, \( S_ { 8 } 4(10) \) 은 인트라 모드가 10일 때 4번째 블록인 8×8 SATD 4의 값을 나타내는 것이 다. 이와 같은 방법으로 \( 16 \times 16 \) 블록에서는 4개 \( 32 \times 23 \) 블록에서는 16개 \( 64 \times 64 \) 블록에서는 64개의 \( 8 \times 8 \) 단위의 SATD 최적 코스트들을 구한다. 각 \( 8 \times 8 \) SATD의 최적 값을 모두 더하여 최종적으로 최적 SATD 값을 다음과 같이 구한다.</p> <p>bestSATD \( = \sum_ { i=1 } ^ { N } b S_ { 8 } i ~~~ \)<caption>(2)</caption></p> <p>이 때 \( \mathrm { N } \)은 \( 16 \times 16 \) 블록에서는 \( 4, 32 \times 32 \) 블록에서는 16 , \( 64 \times 64 \) 블록에서는 64이다. 그림 3은 제안하는 방식에서 최적 SATD 결과를 산출하는 과정을 나타낸다.</p>
|
본 논문에서 제시하는 방법은 \( 16 \times 16 \) 이상의 블록에서 4개 이상의 \( 8 \times 8 \) SATD 결과가 사용되는 점을 이용하고자 한다. 즉 \( 8 \times 8 \) 단위의 SATD 값의 합산이 아니라 각자의 \( 8 \times 8 \) SATD 결과를 따로 산출한다.
|
<h1>I. 서 론</h1> <p>고사양의 모바일 플랫폼을 탑재한 스마트폰의 급격한 확산으로 환자는 스마트폰을 통해 다양한 의료 서비스를 제공받고 있다. 차세대 무선 인터넷 서비스와 스마트폰의 성능 향상으로 환자 주변의 다양한 생체 정보 측정 장치들로부터 측정된 생체 정보를 실시간으로 의료진에게 전송함으로써 환자의 상태를 실시간으로 모니터링 받는 모바일 헬스케어 모니터링 서비스가 대두 되고 있다. 한 예로, 심전도 센서 (Electrocardiogram: ECG)를 착용한 심장병 환자가 직접 병원에 방문하지 않고 원격지에서 모니터링 받을 수 있게 되었다. 이러한 헬스케어 모니터링 시스템은 항상 인터넷에 연결되어 실시간으로 생체데이터를 보내야만 한다.</p> <p>보통, 의료진에게 정확한 건강 상태를 진단 받기 위해서는 축척된 생리학적인 기록 또는 생체정보 기록이 필요하다. 생체 정보는 몸무게, 심전도, 산소포화도(Oxygen Saturation: \( \mathrm{SpO}_{2} \) ), 뇌파 검사 (Electroenc ephalograph: EFG) 등을 말한다. 이러한 생리학적인 기록을 축척하기 위해서는 다양한 기술들이 필요하다. 환자의 신체로부터 정확한 생체정보를 수집하는 생체정보 수집기술, 수집된 생체정보를 신뢰성 있게 전달하기 위한 네트워크 전송 기술, 의료 정보를 정확하게 표시하기 위한 의료 응용 기술이 필요하다. 이를 위해 국제적으로 다양한 기술들이 개발되고 있다.</p> <p>의료 장치들 간의 상호운용성 지원을 위한 기술로, ISO/IEEE 11073 PHD (Personal Health Device) 와 HL7 CDA (Health Level 7 Clinical Document Archit ecture) 등이 있다.</p> <p>한편, 모바일 헬스케어 모니터링 서비스에서는 생체 측정 장치로부터 측정된 생체 데이터를 신속/정확하게 진단하는 것이 무엇보다 중요하다. 하지만 무선 네트워크의 특징으로 인해 의료진이 환자로부터 측정된 생체 정보를 실시간으로 전송 받기란 쉽지 않으며, 실시간 생체 정보를 모니터링 되어도 의료진의 수가 한정되어 있기 때문에 고 신뢰성 있는 모바일 헬스케어 서비스를 제공하기는 어렵다. 더욱이, 생체정보의 응급 레벨은 개인 환자마다의 신체특성이 다르기 때문에, 통계적인 응급 생체정보를 기반으로 환자의 응급 상황을 판단하는 것은 신뢰성을 떨어뜨릴 수 있다. 여기서 개인 신체 특성은 나이, 병력, 성별 등을 말한다. 예를 들어, 심전도는 개인의 심장의 상태를 판단하는 중요한 의료 검사 중 하나이다. 이러한 심전도는 개인마다의 다양한 패턴을 가지고 있으며 동일한 심장 박동 패턴을 나타낸다고 하더라도 나이, 시간에 따라 변할 수 있다. 이러한 개인의 신체 특성을 고려하지 않고 응급 상태를 판단할 경우 헬스 모니터링 서비스의 신뢰성이 크게 떨어질 수 있기 때문에 개인의 신체 특성을 반영한 응급 상황을 진단하는 것이 매우 중요하다.</p> <p>위에 언급한 문제점을 해결하기 위해, 본 논문에서는 사용자 맞춤형 응급정책을 기반한 모바일 헬스케어 시스템의 구조를 제시한다. 구체적으로, 환자의 개인 신체 특성을 고려한 개인의 응급 정책을 정의하고, 이를 기반으로 측정된 생체 정보와 개인 응급 정책과 비교하여 응급 상황을 정확하고 신속하게 진단할 수 있는 모바일 헬스케어 시스템 구조를 설계하였고, 상호운용성 있는 서비스를 제공하기 위해 국제표준인 IEEE 11073 PHD와 HL7 CDA간의 변환 구조를 설계하였으며, 사용자 맞춤형 응급 정책기반으로 한 메시지 흐름도를 설계하였다. 제안된 모바일 헬스케어 시스템의 신뢰성을 검증하기 위한 프로토타입을 구현하였다.</p> <p>본 논문의 나머지는 다음과 같이 구성된다. Ⅱ장에서는, 기존의 헬스케어 시스템에 대해 소개하고 Ⅲ장에서는, 사용자 맞춤형 응급 관리를 위한 모바일 헬스케어 시스템의 구조를 제시한다. Ⅳ장에서는 시스템 프로토타입과 성능 분석에 대해 논의한다. 마지막으로, V장에서 결론을 내린다.</p>
|
개인의 신체 특성을 고려하지 않은 채 응급 상태를 판단하면 헬스 모니터링 서비스의 신뢰성이 크게 떨어질 수 있기에, 개인의 특성을 반영한 응급 상황 진단은 매우 중요하다. 따라서 해당 논문은 사용자 맞춤형 응급정책에 기반한 모바일 헬스케어 시스템 구조를 제시하고 있다. 환자 개개인을 고려한 응급 정책을 정의하는 동시에 응급 상황을 정확하고 신속하게 진단 가능한 모바일 헬스케어 시스템 구조를 설계하였다. 또한 상호운용성이 있는 서비스 제공을 위하여 국제표준인 IEEE 11073 PHD와 HL7 CDA간의 변환 구조를 설계하는 한편 사용자 맞춤형 응급 정책기반으로 한 메시지 흐름도를 설계하였다.
|
<h1>Ⅳ. 구 현</h1> <h2>1. 시스템 구성</h2> <p>그림 7은 사용자 맞춤형 응급 정책을 활용한 시스템의 프로토타입 구현을 위한 시스템 구성을 보여준다. 본 논문에서는 2가지 타입의 센서인 ECG센서와 \( \mathrm{SpO}_{2} \)센서를 사용하였다. 본 시스템에서는 한국에 있는 HANBACK 회사 (http://www.Handback.co.kr)에 의해 제공되는 HBE-ZigbeX2 장치를 사용하였다. \( \mathrm{SpO}_{2} \)와 ECG의 데이터 모델은 ISO/IEEE 11073-10404:2010 과 ISO/IEEE 11073-10406:2012 표준을 각각 따른다.</p> <ul> <li>서버: IBM server, Apache 2.2, MySQL 5.5</li> <li>스마트 모바일 장치: Galaxy S2 [SHWM250K 모델]-OS version 2.5</li> <li>센서의 타입: 블루투스 모듈 (HBE-TigbeX2-Bluetooth), \( \mathrm{SpO}_{2} \) 센서모듈 (HBE-TigbeX2-SpO2), ECG 센서모듈<ul> <li>\( \mathrm{SpO}_{2} \) 센서 모듈 명세: \( \checkmark \mathrm{SpO}_{2} \) (%:saturation):\(40 - 99\%\) \( \checkmark \) Pulse rate range: \( 30 \sim 300 \mathrm{bpm} \) \( \checkmark \) Pulse accuracy: \( +2 \% \) @\(30 \sim 300 \) bpm</li> <li>\( \mathrm{ECG} \) 센서 모듈 명세: \( \checkmark \) Number of leads: 3-lead</li></ul></li> <li>개발 언어: Visual C, MFC, PHP</li></ul> <h2>2. 모바일 헬스케어 모니터링 시스템 시나리오</h2> <p>제안된 헬스케어 모니터링 시스템의 시나리오는 다음과 같다. \( \mathrm{SpO}_{2} \)와 ECG는 지그비기반의 \( \mathrm{SpO}_{2} \) 와 ECG 모듈에 의해 측정된다. 먼저, 사용자 인증과 의료장치에 대한 인증을 수행하게 된다. 구체적으로, 환자 인증은 환자 ID와 비밀번호를 사용하고 인증하게 되며, 의료 장치의 인증에서는 노드 아이디(ID)를 이용하여 인증하게 된다.</p> <p>의료 장치는 스마트 폰에 연결되고 의료 장치의 노드의 ID는 스마트폰에 전송되고 인증 정보는 EMS로 송신된다. 스마트폰은 인증 결과를 수신하고 그 인증 정보를 사용자 맞춤형 응급 정책 서버에 송신하여 사용자에 적합한 정책을 수신하여 정책을 설정하게 된다. 이후, 의료 장치로부터 수신된 생체 데이터는 지그비/블루투스 통신모듈을 통해 스마트폰에 전송된다. 스마트폰은 정책기반 데이터베이스 서버로부터 \( \mathrm{SpO}_{2} \)와 ECG에 대한 응급 정책 정보를 요청하여 생체 데이터 정보를 모니터링 한다.</p> <p>만약 응급 상태가 되면 스마트폰은 응급 상태에 관련된 특정한 생체데이터를 추출하여 즉시, EMS로 응급 알림 메시지를 보낸다. EMS는 ISO/IEEE 11073 메시지에 해당하는 HL7 CDA메시지로 변환하고 HL7 기반 의료 어플리케이션으로 변환된 응급 알림 메시지와 지그비 기반 모듈에서 측정된 응급 생체데이터를 보낸다.</p> <h2>3. 구현 결과 및 분석</h2> <p>그림 8~9는 제안된 모바일 헬스케어 모니터링 시스템프로토타입의 구현 결과를 보여준다. 실시간 생체 데이터는 ISO/IEEE 11073 메시지 형식에 따라 지그비 기반 ECG 와 \( \mathrm{SpO}_{2} \) 생체 수집 센서에 의해 수집된다. 그림 8은 스마트폰에서의 ECG / \mathrm{SpO}_{2} \) 생체데이터의 화면 뷰를 나타내며, 스마트폰에서 생체 데이터가 모니터링 되는 동안에 생체 데이터의 응급 상태가 감지된다. 그림 9는 HL7 기반 의료 어플리케이션의 화면 뷰(View)를 보여준다. HL7 기반 의료 어플리케이션에서 ECG 와 \( \mathrm{SpO}_{2} \)의 생체 데이터는 HL7 CDA 메시지형식으로 EMS로부터 수신된다.</p>
|
사용자 맞춤형 응급 정책을 활용한 모바일 헬스케어 모니터링 시스템의 프로토타입을 구현하였다. 지그비 기반의 \( \mathrm{SpO}_{2} \)와 ECG 모듈이 생체 데이터를 각각 측정한다. 두 생체 데이터는 스마트폰에 전송된다. 정책 기반 데이터베이스 서버가 스마트폰에 생체 데이터에 대한 응급 정책 정보를 제공하며 생체 데이터를 모니터링한다. 응급상황 발생시, 스마트폰이 관련 생체 데이터를 EMS에 전송한다.EMS는 이를 HL7 CDA 메시지로 변환하여 HL7기반 의료 어플리케이션으로 전송한다.
|
<h1>Ⅲ. 사용자 맞춤형 응급 관리를 위한 모바일 헬스케어 시스템 구조</h1> <p>본 장에서는, 사용자 맞춤형 응급 정책을 기반의 생체 데이터 관리에 대한 시스템 구조와 상세 구성요소를 설명한다.</p> <h2>1. 사용자 맞춤형 응급 관리를 위한 모바일 헬스 케어 시스템의 구성</h2> <p>그림 1은 모바일 헬스케어 서비스를 위한 사용자 맞춤형 정책 기반 응급 관리 시스템의 구성을 보여준다. ISO/IEEE 11073 에이전트, ISO/IEEE 11073 매니저, 사용자 맞춤형 정책 서버, 응급관리 서버 (Emergency Management Server: EMS), 의료 시스템, EHR/PHR 데이터베이스로 구성된다. ISO/IEEE 11073 에이전트/매니저에는 ISO/IEEE 11073 PHD 표준 프로토콜 스택이 탑재된다. ISO/IEEE 11073 에이전트는 혈압계, 혈당계, 심전도계 등 생체정보 측정 센서 중 하나에 해당되며 ISO/IEEE 11073 매니저는 스마트폰, 랩탑 PC, 브로커 게이트웨이 중 하나에 해당된다. 사용자 맞춤형 정책 서버는 환자에 따른 생체 데이터의 응급 값과 환자 인증 정보를 저장하는 데이터베이스 서버를 말한다. 여기서, 응급 값은 수집된 데이터의 응급여부 판단을 위한 응급 레벨을 말한다. EHR/PHR은 환자 개인의 헬스 정보를 저장하는 데이터베이스를 말한다. 응급 관리 서버는 ISO/IEEE 11073 PHD와 HL7 CDA 표준간의 메시지 형식 변환 기능을 수행하고 원격지에 있는 환자의 위치에서 실시간으로 의료진에게 생체 데이터를 전송하는 기능을 한다.</p> <p>그림 1에 제시된 모바일 헬스케어 서비스의 구성은 3단계로 구성 된다: 1단계에서는, 다양한 생체정보 측정 센서들에 의해 수집된 생체 데이터는 무선 신체망을 통해 게이트웨이에 전송된다. ISO/IEEE 11073-20601 표준은 ISO/IEEE 11073 에이전트와 매니저 간 통신 프로토콜을 정의하였다. 또한, ISO/IEEE 11073 에이전트와 매니저 간 WPAN, LAN, WLAN 등의 유/무선 네트워크 인터페이스 기술이 사용될 수 있다.</p> <p>2단계는, 사용자 맞춤형 응급 정책 기반으로 응급 상태를 판단/결정하는 단계이다. ISO/IEEE 11073 매니저는 ISO/IEEE 11073 에이전트를 통해 생체 데이터를 수신 받을 때 사용자 맞춤형 정책 서버에서 제공 하는 환자 개인의 건강 상태에 대한 정보를 이용하여 응급 상황을 알아낸다. 그리고 ISO/IEEE 11073 매니저는 로컬데이터베이스에 있는 사용자 맞춤형 응급 상태에 대한 정보를 저장하고 유지하며 원격에 있는 데이터베이스에 접근하여 신속하게 응급발생 유무를 판단할 수 있다.</p> <p>3단계에서는, ISO/IEEE 11073 매니저가 응급 상태가 감지되면 의료진에게 응급 상태를 알리기 위해 EMS로 응급상태의 레벨 및 응급 생체 데이터를 신속하게 전송하는 단계이다. 이 단계에 ISO/IEEE 11073 PHD와 HL7 CDA간에 메시지 변환을 필요로 한다. EMS에서는 의료진이 환자의 상태를 정확하게 진단하기 위해 IEEE 11073 PHD 메시지 형식을 HL7 CDA 메시지 형식으로 변환을 수행하는 역할을 한다.</p> <p>이러한 3단계의 과정을 통해, 응급 상태가 정확하게 감지되며 응급 생체 데이터를 감지 및 전달하는 과정에 ISO/IEEE 11073-20601 표준과 ISO/IEEE 11073 PHD/HL7 CDA 변환방법과 같은 국제표준이 적용되어 응급 생체 데이터가 의료 정보 시스템을 통해 의료진에게 신속하게 전송된다. 이것은 본 논문의 제안된 접근법에 효율성과 응용성을 향상시킨다.</p> <h2>2. 스마트 모바일 장치 구조</h2> <p>그림 2는 사용자 맞춤형 응급 정책 기반한 응급 생체 데이터 관리를 위한 스마트 모바일 장치의 구조를 나타낸다. 스마트 모바일 장치는 생체정보 측정센서로부터 생체 데이터를 수신하고, 이를 다시 EMS로 전송하는 기능을 수행할 뿐만 아니라 생체 데이터의 응급상태를 판단하는 역할을 수행하기 때문에 매우 중요하며 이를 위해, 로컬 사용자 정보 매니저, 정책 매니저, ISO/IEEE 11073 매니저로 구성된다.</p> <p>로컬 사용자 정보 매니저는 환자 인증 데이터베이스, 응급정책 데이터베이스, Plug-Connected ISO/IEEE 11073 에이전트 정보 데이터베이스로 구성된다. 로컬 환자 인증 데이터베이스는 환자의 접속을 위한 인증 정보를 저장 및 관리 기능을 수행한다. 인증 절차는 사용자 맞춤형 정책 서버를 통해 수행된다. 응급 정책 데이터베이스는 개인이 소유한 ISO/IEEE 11073 에이전트에 따른 사용자 맞춤형 응급정책 정보를 관리 및 유지한다. Plug-Connected ISO/IEEE 11073 에이전트 데이터 베이스는 에이전트들의 연결 상태 정보를 유지 및 관리한다. 정책 매니저의 기능은 환자 인증 관리, 에이전트 관리, 응급 생체 데이터 관리, 프로토콜 변환 관리 4가지로 구성된다. 좀 더 상세한 정책 매니저의 기능을 3.4절에서 다루기로 한다.</p> <p>ISO/IEEE 11073 매니저는 ISO/IEEE11073 에이전트로부터 ISO/IEEE 11073-20601 표준에 따라 생체 데이터를 수집하는 기능을 수행하며 DIM Analyser, Service Message Composer, IEEE 11073 Transport Manager로 구성된다. ISO/IEEE 11073 매니저에 대한 좀 더 상세한 내용은 참고문헌에서 찾을 수 있으며 본 논문에서는 상세하게 다루지 않는다.</p> <h2>3. 응급 관리 서버의 구조</h2> <p>그림 3은 응급 관리 서버 (EMS)의 구조를 보여준다. 응급 관리 서버는 ISO/IEEE 11073 매니저와 헬스 케어 의료 서버 시스템 사이에 존재하며 전송되어 모니터링 되는 생체 데이터를 ISO/IEEE 11073 PHD와 HL7 CDA의 데이터 형식 간에 상호 변환하는 기능을 수행한다.</p> <p>EMS는 CDA Factory, HL7 v2.x Converter, ISO/IEEE 11073/HL7 CDA Interface, ISO/IEEE 11073 매니저, 생체 데이터 정보매니저로 구성된다. 그림 3에서 CDA Profiler에서는 입/출력되는 CDA 문서를 확인하며, Medical Information Mapper는 ISO/IEEE 11073 매니저 또는 HL7 v2.x Converter에서 수신된 매타정보와 생체데이터를 매핑 하는 역할을 한다. CDA 문서는 CDA Profiler에 명시된 CDA 템플릿으로 표현하며 여러 개의 CDA 템플릿들은 수집된 생체데이터의 정보로 생성되어 다시 CDA Profiler에서 확인된다.</p> <p>HL7 v2.x Converter는 ISO/IEEE 11073 PHD를 기반한 생체 데이터를 HL7 메시지로 변환하는 기능을 수행한다. HL7 v2.x Converter는 Metafile Handler와 HL7 Msg. Converter로 구성된다.</p> <p>그림 4는 ISO/IEEE 11073 DIM과 HL7 CDA사이의 생체 데이터를 매핑하는 예제를 보여준다. ISO/IEEE 11073 DIM은 하나 이상의 속성에 관련된 객체의 집합으로 에이전트에게 받은 생체데이터를 명시한다. DIM은 그림 4에 나타나 있는 MDS 객체와 관련된 PM-store 객체 또는 Scanner, Enumeration, RT-SA (Real-Time Sample Array), Numeric이 0개 또는 그 이상의 수로 구성된다.</p> <p>HL7 CDA 메시지의 타입에는 ACK, ADT, ADR, ORM, ORU, ORF, QRY가 있다. 각 메시지는 선택적으로 메시지에 포함할 수 있는 여러 개의 segment를 포함할 수 있다. segment의 타입은 MSH (Message Header), PID (Patient Identification), OBX (Observation), OBR (Observation Request), PD1 (Patient Demographics), MSA (Message Acknowledge ment) 등을 포함한다. EMS는 ISO/IEEE 11073 PHD DIM과 HL7 CDA 간의 메시지 변환을 수행한다. 메시지 형식을 변환하기 위해, HL7 CDA의 ORU 메시지와 ISO/IEEE 11073 PHD DIM의 MDS객체를 사용한다. Numeric이 포함된 ISO/IEEE 11073 PHD 매니저로부터 전송되는 측정 결과와 RA-SA, 그리고 Enumeration은 ORU 메시지에 있는 OBX segment로 매핑 된다. HL7 ORU 메시지는 HL7 시스템에 전송되기 위해 HL7 CDA 문서로 변환된다.</p> <p>생체데이터 매니저는 Bio-data controller, Emergency message controller, Bio-data collector로 구성된다. 생체 데이터 매니저는 생체정보 측정센서로부터 받은 데이터를 기반 한 응급 상황을 감지하며, 감지되면 응급 상태 알림 메시지가 생성되어 EMS로 전송된다. Bio-data collector는 EMS에서 IEEE 11073 PHD 매니저로 생체 데이터 정보를 전송하고 그 정보는 환자의 응급 정책의 정보에 따라 HL7 CDA 메시지 형식으로 변환한다. ISO/IEEE 11073 Manager는 ISO/IEEE 11073 매니저로부터 GET, SET, ACTION, EVENT REPORT 등의 통신 메시지들을 통해 생체 데이터의 수집 기능을 수행한다.</p>
|
본 장에서는 모바일 헬스케어 시스템의 구조를 사용자 맞춤형 응급 관리를 위해 설명한다. 그림 1에 나타난 구성은 ISO/IEEE 11073 에이전트, 매니저, 사용자 맞춤형 정책 서버, 응급관리 서버, 의료 시스템, EHR/PHR 데이터베이스로 구성되며 3단계로 구성된다. 1단계는 생체 데이터를 수집하고 2단계는 사용자 맞춤형 응급 정책 기반으로 응급 상태를 판단하는 단계이며, 3단계는 응급 상황을 원격에 있는 의료진에게 전송하는 단계이다. 스마트 모바일 장치는 생체정보 측정센서에서 생체 데이터를 수신하고 이를 EMS에 전송하며 이를 위해 로컬 사용자 정보 매니저, 정책 매니저, 정책 매니저, ISO/IEEE 11073 매니저로 구성된다. 응급 관리 서버는 ISO/IEEE 11073 매니저와 헬스 케어 의료 서버 시스템 사이에 존재하고 생체 데이터를 ISO/IEEE 11073 PHD와 HL7 CDA의 데이터 형식 간에 상호 변환한다.
|
<h1>Ⅱ. 헬스케어 모니터링 서비스 구조</h1> <p>본 장에서는 헬스케어 모니터링 서비스에 대해 알아 본다. 헬스케어 모니터링 서비스 구조에는 3개의 도메인인 신체 도메인, 통신 도메인, 헬스케어 서비스 도메인 등으로 구성되어 있다.</p> <p>신체 도메인에서는 무선 신체망으로 구성될 수 있으며, 여러 개의 무선 센서들이 근거리/원거리 유/무선 통신 네트워크 기술을 통해 수집 및 전송하는 기능을 가진다. 통신 도메인에서는 무선 신체망에서 수집한 생체 데이터를 서비스 도메인으로 전송하기 위한 기능을 가지며, 헬스케어 서비스 도메인에서 전송반은 생체 데이터를 저장/관리/분석/서비스하는 기능을 한다. 이를 통해 헬스케어 모니터링 서비스, 의료 서비스, 응급 구조 서비스 등의 다양한 헬스케어 관련 서비스를 제공할 수 있다.</p> <p>이를 위해, IEEE, ISO, HL7(Health Level 7) 등의 국제 표준 기구에서는 ISO/IEEE 11073 PHD 와 HL7 CDA 등의 헬스케어 관련 표준 기술들을 제정하고 있다.</p> <p>ISO/IEEE 11073과 HL7을 통합하는 몇몇의 연구가 있다. 참고문헌에서 간단한 재구성과 상호 운용성,자동 장치 연결이 가능하게 하기 위한 ISO/IEEE 11073 PHD와 블루투스 표준을 적용했다. Mense은 국제 표준기반 헬스케어 데이터의 전송 프레임워크를 제시하였다. 헬스케어 정보 시스템과 데이터 저장과 관련된 통신 프로파일을 위한 IHE (Integrating Healthcare Enterprise) 프로파일과 HL7, 도메인 모델링을 위한 CEN(European Committee for Standardization) 13606, 헬스케어장치 통신을 위한 ISO/IEEE 11073-20601 사용하였다. 저자는 uCARDEA CIED에서 HL7 v2.x로의 변환하는 구조를 제시하였다.</p> <p>HL7 CDA는 의료 제공자와 환자들 간의 전자 문서 교환을 목적으로 만든 “의료 문서”의 구조 및 세멘틱(Semantic)을 서술한 Document Markup 표준을 말한다. HL7 CDA는 의료시스템 간에만 운용되고 있기 때문에 모바일 헬스케어 모니터링 서비스를 제공하기 위해서는 ISO/IEEE 11073 과 HL7 CDA 간 메시지 변환구조가 반드시 필요하다.</p> <p>신체 도메인, 통신 도메인 및 헬스케어 서비스 도메인을 통해 실시간 모바일 헬스케어 서비스를 제공하기 위해서는 1) 개인의 건강 특성 맞춤형 자동 진단 매커니즘 개발, 2) ISO/IEEE 11073 PHD와 HL7 CDA 간의 국제 표준간의 상호호환의 효율적인 지원, 3) 무선 네트워크를 통한 고 신뢰성을 가진 응급 생체 데이터 전송 메커니즘이 필요하다.</p>
|
신체 도메인은 여러 개의 무선 센서들이 데이터를 수집 및 전송하는 무선 신체망으로 구성될 수 있다. 통신 도메인에서는 무선 신체망에서 수집한 생체 데이터를 서비스 도메인으로 전송하기 위한 기능을 가지며, HL7 CDA는 의료 제공자와 환자들 간의 전자 문서 교환을 목적으로 만든 “의료 문서”의 구조 및 세멘틱을 서술한 Document Markup 표준을 말한다.
|
<h1>1. 서 론</h1> <p>페이스북, 링크드인, 구글+와 같은 새로운 세대의 웹 어플리케이션의 등장은 '소셜 네트워크'라는 유행어를 만들어 냈다. 사실, 소셜 네트워크는 복잡계 네트위크의 일종으로 물리학, 사회학 등에서 활발하게 연구되고 있던 분야이다. 이들은 그래프를 이용하여 네트워크를 구현하고 분석하였다. 이렇게 학계에서만 중요하게 여겨지던 소셜 네트워크가 일상으로 내려와 사회현상을 만들었다는 점에서 아주 중요한 키워드라고 볼 수 있다. 그리고 소셜 네트워크를 구현하고, 분석하는 기술에는 그래프가 사용됨에 따라 그래프 데이터베이스의 중요성도 한층 높아졌다.</p> <p>현재까지 나타난 소셜 네트워크 서비스들은 '친구인가 아닌가' 라고 하는 1차원적인 관계만 가지고 있다. 좀 더 복잡한 기능을 가지는 시스템이 연구되고 있지만, 1차원적 관계만 유지된다. 그러나 다음과 같은 시스템을 가정할 수 있을 것이다. SaaS로 CRM을 제공하는 시스템은 하나의 DB에 여러 고객의 정보를 저장한다. 각각의 고객이 가지고 있는 데이터 중에는 동일한 객체를 가리키는 데이터가 존재할 수도 있을 것이다. 그러나 보안을 이유로 고객들은 다른 고객의 데이터에 접근할 수 없다. 그러나 그들 고객들 간에 데이터를 서로 공유하겠다는 합의만 이루어진다면, 중복된 데이터가 없이 기업과 기업, 기업과 고객, 고객과 고객 등 다양한 관계를 표현할 수 있을 것이다. 이는 물리적인 저장 공간이 절약할 수 있는 방법일 수 있다. CRM 뿐만 아니라 동일한 DB를 사용하는 ERP, SCM과 같은 다른 시스템들로 확장된다면, 매우 복잡한 관계망이 생성될 것이다. 물론 이 시스템은 하나의 기업만 쓰는 시스템이 아니다. 이 시스템은 수백, 수천의 기업과 고객, 직원들이 네트워크를 이뤄 사용하는 소셜 클라우드 시스템이 될 것이다. 정보공유를 합의한 사회 구성원 간에는 얼마든지 실현 가능한 시스템일 것이다.</p> <p>그리고 그 많은 관계 각각에서 발생하는 트랜잭션을 처리 한다고 가정해 보자. 이러한 시스템은 확장 가능해야 하며, 매우 복잡한 네트워크를 구현해야 하고, 수많은 종류, 엄청난 양의 트랜잭션을 처리해야 한다. 본 논문은 이러한 시스템에서는 어떤 데이터베이스를 사용할까라는 의문에서 시작 되었다. 분명한 것은 이 시스템에는 RDBMS가 핵심적인 데이터베이스가 될 수는 없을 것이다.</p> <p>구글, 아마존과 같은 선구적인 기업들은 페타바이트 스케일의 엄청난 양의 데이터를 저장하고 처리하기 위한 분산 저장 기술과 NoSQL을 개발하였다. 이러한 분산 기술들은 사실상 표준이 되어 가고 있다. 이러한 새로운 기술이 등장하게 된 것은 RDBMS의 한계 때문이다. RDBMS의 주요한 한계로 지적되고 있는 사항은 다음과 같다. 첫 번째, RDBMS는 데이터웨어하우스 스케일의 데이터 저장/처리, 그리드, 소셜 네트워크, Web2.0, Web3.0, 클라우드 응용기술에 사용하기가 어럽다. 두 번째로 RDBMS 내의 데이터가 증가함에 따라 실행되는 SQL의 실행시간이 비선형적인 특성을 보인다. 또한, 옵티마이저에 의한 쿼리 계획이 불안정하고, 정적인 스키마로 인해 확장에 어려움을 보인다.</p> <p>본 논문에서는 이러한 RDBMS의 한계를 극복하면서 RDBMS의 역할을 수행할 수 있고, 더불어 관계까지 표현할 수 있는 새로운 형태의 데이터 처리 기법을 제안하고자 한다. 제안 기법은 토픽맵 데이터 모델의 개념을 도입한 그래프 구조와 동시에 트랜잭션을 처리할 수 있다. 우리 기법에서는 표준 토픽맵에 변형을 가했다. 그 부분이 가장 차별적인 부분이다. 그것은 토픽맵에서 가장 흥미로운 구성요소인 어커런스를 토픽뿐만 아니라 연관에도 적용시켰다. 그리고 전통적인 토픽맵이 XML로 저장되는데 반해, 우리 제안 모델은 확장가능하고 비데이터 레벨의 데이터에도 대응하기 위해 대표직인 컬럼형 데이터베이스인 카산드라를 사용하여 구현한다.</p> <p>그리고 구체적인 사례를 통해 RDBMS에서는 복잡한 조인이 사용해 '관계'를 만들어 데이터를 찾지만 제안 기법에서는 필요한 '관계'만을 찾아서 데이터를 찾는 과정을 보일 것이다. 이를 통해 제안 기법의 효율성과 RDBMS의 역할을 대체해서 수행할 수 있음을 보일 것이다.</p> <p>본 논문의 구성은 서론 이하 다음과 같다. 2절에서는 제안 기법에 사용된 개념들을 제시하고, 3절에서 우리가 제안한 기법의 구체적인 데이터 모델을 설명하고 질의문을 처리한 방법에 대해 논의할 것이다. 4절에서 실제 데이터를 관계형 데이터베이스에 적용하고, 동일한 데이터를 제안 기법에 적용한 방법을 구체적인 사례로 보여주겠다. 5절에서는 동일한 질의를 어떻게 처리하는지와 실험을 통해 성능을 비교해 볼 것이다. 마지막으로 6절에서는 제안 기법을 평가하고 향후 연구에 대해 언급하고 본 논문을 마무리 한다.</p>
|
소셜 네트워크는 물리학, 사회학 등에서 활발하게 연구되고 있는 분야로, 페이스북, 링크드인, 구글+ 등 새로운 세대의 웹 어플리케이션의 등장으로 일상으로 내려왔다. 그래프 데이터베이스는 CRM, ERP, SCM 등 다양한 시스템에서 사용되고 있으며, 수백, 수천의 기업과 고객, 직원들이 네트워크를 이루어 사용하는 소셜 클라우드 시스템이 될 수 있다. 본 논문은 이러한 시스템에서 그래프 데이터베이스가 어떻게 사용될 수 있는지, 그리고 그것이 왜 좋은 선택이 될 수 있는지를 살펴보고자 한다.
|
<h1>3. 제안 기법</h1> <p>우리가 제안하고자 하는 기법의 중요 요소 중 하나인 그래프는 일반적인 그래프 구현방식과 다르다. 노드에 해당되는 토픽과 간선에 해당되는 연관은 카산드라의 슈퍼 컬럼 패밀리(Super Column Family)라 불리는 4차원 해시로 바이트 순으로 저장된다. 그리고 바이트 순으로 분산 저장되어 있는 토픽이나 연관을 빠르게 찾아서 그래프를 구성한다. 이는 연관에 멤버로 지정된 각 토픽들을 그래프처럼 연결하게 된다. Fig. 2와 같이 '홍길동의 친구를 찾으시오.'라는 질의를 처리한다면, 원하는 토픽을 사전순으로 분산 정렬되어 있는 컬럼 패밀리의 로우키에서 찾아내고, 찾아낸 토픽인 홍길동의 고유식별ID를 인출한다. 추후에 설명 되겠지만, 연관명 규칙에 따라 '친구_홍길동ID'인 연관을 찾으면, 해당 연관의 슈퍼 컬럼에서 친구 정보를 인출할 수 있다. 이와 같은 방식으로 그래프를 구성하게 된다.</p> <p>그래프 구성방식과 더불어 중요한 특징은 토픽들 간의 관계에서 발생하는 트랜잭션을 저장한다. 이는 다른 그래프데이터베이스에서는 볼 수 없는 방식이다. 예를 들어 A사가 B사에 부품을 공급하고, B사가 C사에 완제품을 공급하는 공급망이 있다면, 각 관계의 어커런스에 각 관계의 트랜잭션을 저장하는 방식이다. 더 많고 복잡한 공급망이 있다하여도 하나의 데이터베이스에 저장할 수 있다. 자세한 설명은 각 주제에서 구체적으로 다루겠다.</p> <h2>3.1 데이터 모델</h2> <p>토픽맵 데이터 모델의 개념을 사용하긴 하였으나, 이 논문에서는 ISO 표준에 있는 기능들을 제외하기도 하였고, 표준에 없는 기능을 추가하기도 하였다. 토픽맵과 관련된 문법 키워드는 XTM1.0을 참조하였다.</p> <ul> <li>1) 토픽(Topic)<p>토픽맵에서 토픽은 엔터티-관계(E-R) 모델에서 엔터티와 인스턴스를 같이 포함하고 있다. 예를 들어, E-R모델에서 '학생'은 엔터티가 되고, 학생 중에 학번이 123이고 이름이 '홍길동'인 속성을 가지는 특정 학생은 엔터티의 인스턴스가 된다. 그러나 우리의 모델에서는 '학생'도 토픽이고, '홍길동'도 토픽이다. 단, 학생과 홍긴동은 인스턴스 관계(instance-of)라는 연관을 가질 수 있다.</p> <p>제안 기법에서 토픽은 토픽명, 토픽ID, 속성으로 구성된다. Fig. 3과 같은 구조로 카산드라에 저장된다.</p> <p>제안 기법에서 토픽은 카산드라의 슈퍼 컬럼 패밀리로 저장된다. 자연어로 표현되는 토픽명이 로우키로 사용되고, 중복가능하다. 로우 내부에 슈퍼 컬럼이 존재하는데, 슈퍼 컬럼명으로 토픽ID가 저장되고, 토픽 컬럼 패밀리에서 유일한 값을 가지는 기본키이다. 슈퍼 컬럼 내부에는 토픽의 속성인 'intanceof', 'identifiertype', 'identifier', 'scopetype', 'scope', 'occurrencetype', 'occurrence'가 하위 컬럼으로 저장되고, 그 값이 컬럼의 값으로 저장된다. instanceof, occurrencetype, occurrence`는 필수 속성이지만, 나머지는 선택적으로 사용할 수 있다. 이들 속성은 토픽의 의미를 구성 하는 역할을 수행하며 다음과 같은 용도를 가지고 있다. Fig. 4와 같은 관계를 가지고 있다.</p> <p>instanceof : 가장 인접한 상위 엔터티의 토픽명이 늘어간다. 상위 엔터티가 없는 최상위 토픽인 경우엔 class라고 기록한다. '배'라는 토픽명을 가진 토픽이 3개가 있다면, 모두 '배'라는 로우에 기록된다. 그리고 각각 토픽ID로 슈퍼컬럼에서 구분되어 저장되지만, 이것으로 이들을 구분 할 수 없다. 이들은 instanceof로 구분가능하다. 각각의 토픽에는 instanceof 값으로 운송수단, 과일, 인간신체기관으로 각각 기록되어 있다면, '배'라는 토픽들의 의미를 구분할 수 있다.</p> <p>identifiertype, identifier : 선택적으로 기록할 수 있다. 예를 들면, 같은 이름을 쓰는 사람들의 경우, 같은 토픽명을 사용하기 때문에 같은 로우에 저장된다. 같은 로우에서 각각의 슈퍼 컬럼을 가지겠지만, instanceof 값이 '사람'이라는 같은 값을 가진다. 따라서 instanceof로는 구분이 불가능하다. identifiertype의 값에 구분하고자 하는 속성명 넣고, 그값을 identifier에 기록한다. 예를 들어, indentifiertype 값에 '주민번호'라고 기록하고 identifier 값에 주민번호를 기록한다. 이 속성으로 같은 이름의 사람을 구분할 수 있다.</p> <p>occurrencetype, occurrence : 토픽맵에서 중요한 구성 요소 중 하나이다. occurrence는 해당 토픽의 상세한 정보를 가지고 있는 저장소의 주소이다. 이 주소값은 카산드라 내부의 키스페이스명에서부터 로우키값까지 어플리케이션에서 필요에 의해 정의할 수 있다. 직접적인 주소를 가지고 있어서 스캔과정 없이, 바로 그 값을 찾을 수 있다. occurrencetype은 그 주소가 어떤 형태의 주소인지를 나타낸다. 저장소는 카산드라 내부일 수도 있고, 다른 파일시스템, 혹은 외부의 관계형 데이터베이스일 수도 있다.</p> <p>Fig. 5는 토픽 의미 구분 예시를 나타내었다.</p> <p>scopetype, scope: 이 속성은 어플리케이션에서 토픽을 어느 범위까지 사용할지를 필요에 따라 선택적으로 사용할 수 있다. 또한 필요에 따라 인덱스를 부여해 2개 이상의 scope을 가질 수 있다. 예를 들어, scopetype이 'language' 이고 scope이 'kor'라면 한국어 버전의 어플리케이션에서만 사용되는 토픽으로 정의할 수 있다.</p> <p>위와 같은 속성들은 인간과 컴퓨터 모두가 토픽의 의미를 구분할 수 있게 한다.</p></li> <li>2) 연관(Association)<p>연관은 토픽 간에 관계를 나타낸다. E-R 모델에서는 엔터티들 간의 관계(relation)가 인스턴스들의 관계를 대표한다. 그러나 제안 기법에서 연관은 관계와 달리, 각 토픽은 각자 고유한 연관을 가진다.</p> <p>연관은 주로 '주어토픽 - 동사 - 목적어토픽'으로 표현된다. 여기서 동사에 해당되는 부분이 연관이다. 연관은 방향성을 가지고 있다. 이 방향은 연관을 표현하는 동사의 형태로 구분할 수 있다. 예를 들어, '홍길동은 - 주문한다. - A핸드폰을'에서 '주문한다'는 '홍길동 토픽과 A핸드폰 토픽의 관계를 나타내고 있다. 두 토픽의 관계는 다른 방향으로도 가능하다. 'A핸드폰은 - 주문된다. - 홍길동에 의해'와 같이 표현할 수 있다. 연관은 반드시 두 개의 토픽을 멤버로 가진다.</p> <p>연관이 저장되는 방법은 Fig. 6과 같다. 연관도 토픽과 마찬가지로 슈퍼 컬럼 패밀리에 저장된다. 로우키로 사용된 AssociationID는 "연관명_목적어토픽ID'으로 표현된다. 위의 예라면, '주문한다_TABC01234(A핸드폰의 토픽ID)'가 된다. 슈퍼 컬럼명으로 주어토픽의 토픽ID가 기록되어 로우키와 슈퍼 컬럼명이 복합으로 연관 컬럼 패밀리의 고유키를 만든다.<p>사람이라는 토픽의 인스턴스인 홍긴동은 다른 토픽과의 관계로 그 역할이 정해진다. B회사라는 토픽과 고용관계에 있다면, 홍긴동은 B회사의 직원이 된다. 그리고 C회사와 고객관계에 있다면, 홍길동은 C회사의 고객이 된다. 이렇게 관계는 역할을 설명할 수 있기 때문에 역할을 따로 정의할 필요가 없어진다.</p> <p>또한 두 토픽간의 관계에서는 트랜잭션이 발생한다. A사람과 B쇼핑몰회사는 주문단위의 트랜잭션이 발생한다. B쇼핑몰회사가 소유한 개별 상품 토픽과 A사람과의 관계에서 구매라는 트랜잭션이 발생한다고 볼 수 있다. 여기에 우리의 제안 모델이 표준 토픽맵과 다른 부분이 발생한다. 고유한 연관은 두 토픽간의 트랜잭션을 기록하기 위해 토픽처럼 occurrence를 가진다. 해당 어커런스에는 두 토픽 간에 발생한 트랜잭션을 기록한다. 이깃은 표준 토픽맵에는 없는 개념이다. 이 어커런스도 마찬가지로 occurrence_type을 통해 카산드라 뿐만 아니라, 외부 저장소를 가리킬 수 있다.</p> <p>슈퍼 컬럼 내부에는 연관을 구분하기 위한 별도의 구별자가 필요하지 않으므로 occurrence_type과 occurrence만 저장된다. 이 두 속성은 토픽과 동일한 기능과 역할을 한다.</p></li> <li>3) 어커런스(Occurrence)<p>어커런스는 토픽과 연관의 속성으로 이미 많은 설명을 하였다. 토픽의 어커런스는 토픽의 의미나 속성을 확장할 수 있고, 연관의 어커런스는 연관에 포함된 멤버들의 트랜잭션을 나타낼 수 있다.</p> <p>어커런스는 토픽, 연관의 성격에 따라 저장방법, 저장 구조, 저장위치를 모두 달리할 수 있다. 저장 위치는 필요에 따라 카산드라 외부에 저장될 수도 있다. 카산드라 내부에 저장되는 경우라면, 데이터의 성격에 따라 슈퍼 컬럼 또는 일반 컬럼에 저장되어질 수 있다. 로우키에 어커런스 주소값이 사용되는 제약 외에는 로우 내부에는 어떤 구조라도 상관없다. 일반적인 컬럼 지향 데이터베이스와 동일한 구조의 저장소가 될 것이다. 어떤 경우라도 로우키를 직접 가리키기 때문에 탐색시간은 매우 짧다.</p></li></ul>
|
우리가 제안하는 기법 중 그래프는 일반적인 그래프 구현방식과 다른데 노드에 해당되는 토픽과 간선에 해당되는 연관은 4차원 해시로 바이트 순으로 저장하여 토픽이나 연관을 빠르게 찾아서 그래프를 구성하고 토픽들 간의 관계에서 발생하는 트랜잭션을 저장한다. 제안한 기법의 데이터 모델 특징에서 토픽맵에서 토픽은 엔터티-관계(E-R) 모델에서 엔터티와 인스턴스를 같이 포함하고 있고, 토픽 간의 관계를 나타내는 연관은 E-R 모델에서 엔터티들 간의 관계가 인스턴스들의 관계를 대표하지만 제안 기법에서는 각 토픽은 각자 고유한 연관을 가진다. 그리고 토픽의 어커런스는 토픽의 의미나 속성을 확장할 수 있고, 연관의 어커런스는 연관에 포함된 멤버들의 트랜잭션을 나타낼 수 있는 어커런스는 토픽, 연관의 성격에 따라 저장방법, 저장 구조, 저장위치를 모두 달리하여 어떤 경우라도 로우키를 직접 가리키기 때문에 탐색시간이 짧다.
|
<h2>3.2 질의(Querying)</h2> <p>제안 기법에서 질의는 카산드라 질의 모델을 사용한다. 실제, 실험에서 질의를 구현할 때, 카산드라의 대표적인 JAVA 클라이언트 API인 '쓰리프트(Thrift)'를 이용하였다.</p> <p>카산드라와 RDBMS의 질의 방식에는 아래와 같은 차이가 있다.</p> <ul> <li>업데이트 질의 부재</li> <li>쓰기에서 레코드 레벨 원자성 제공</li> <li>서버측 트랜잭션 지원 부재</li> <li>중복 키 부재</li></ul> <p>카산드라에는 조정 가능한 일관성(Consistency) 레벨이있다. 레벨이 높을수록 더 많은 노드가 응답하기 때문에 각 복제본에 있는 값이 같음을 보장한다는 의미이다. 만약 두 노드가 응답한 타임스탬프가 다르면, 가장 최신의 타임스탬프의 값을 반환한다. 일관성 레벨에는 ZERO, ANY, ONE, QUORUM, ALL이 있다.</p> <p>카산드라의 기본적인 쓰기 속성이 몇 가지 있다. 첫째, 멤테이블과 SSTable을 사용으로 디스크 읽기나 찾기를 수행할 필요가 없다. 두 번째로, 모든 쓰기는 추가전용(Append-only)이다. 셋째, 커밋 로그와 힌트 핸드오프 디자인 덕분에 항상 쓰기가 가능하며, 컬럼 패밀리 내부에서 쓰기는 항상 원자적이다.</p> <p>카산드라 클라이언트가 데이터를 읽기 원한다면, 클러스터에 있는 노드 중 아무거나 연결해서 읽기를 수행할 수 있으며, 그 데이터가 복제본인지 알 필요가 없다. 클라이언트가 읽으려는 데이터가 없는 노드에 연결 되였다면, 연결된 노드는 토큰 범위를 식별해 데이터를 가지는 노드에서 데이터를 읽어오는 코디네이터 노드로 동작하게 된다.</p> <p>우리의 제안 모델에서 읽기는 카산드라 API를 활용하여 질의마다 질의의 답을 가져올 수 있는 프로그램을 만들어야 한다. 이는 대부분의 NOSQL의 특성이다. SQL 같은 편리함은 없지만, 사용자가 직접 최적화를 할 수 있기 때문에 빠른 질의처리가 가능하다. 상용 RDBMS의 튜닝에 소요되는 비용과 시간을 감안한다면, 질의를 직접 프로그램하는 것이 오히려 더 이득일 수 있다.</p> <p>우리 모델에서 질의를 구현할 때 사용하는 주요 API는 다음과 같다.</p> <ul> <li>get : 하나의 컬럼값을 찾는 API이다.</li> <li>slice_range_get: 하나의 로우에 있는 슈퍼컬럼이나 컬럼들을 찾는 API이다. 'slice range' 컬럼의 범위를 의미한다.</li> <li>key_range_get: 여러 로우에 동일한 컬럼을 찾는 API이다. 'key range'는 로우키의 범위를 의미한다.</li></ul> <p>이러한 주요 API분만 아니라 이외의 API들의 조합으로 제안 기법의 질의문 처리 프로그램이 프로그래밍할 수 있다. 또한 오픈소스인 카산드라를 이용하여 제안 기법에 최적화된 API를 개발하여 새로운 데이터베이스를 개발할 수 도 있을 것이다.</p>
|
카산드라는 몇가지 쓰기 속성을 가지고 있으며, 클라이언트가 데이터를 읽는다면, 클러스터에 있는 노드와 연결해 읽기를 수행하며, 조정 가능한 일관성 레벨이다. 키산드라의 주요 API 및 이외의 API들을 조합해 질의의 답을 가져오는 질의문 처리 프로그램을 만들어 제안 모델에서 읽을 수 있도록 해야하한다.
|
<h1>2. 관련 연구</h1> <h2>2.1 그래프 데이터베이스</h2> <p>그래프 데이터베이스는 소셜 네트워크의 부상으로 요즘 더욱 각광받고, 중요해지고 있는 NoSQL 중 하나이다.</p> <p>그래프 데이터베이스는 과거 지리학, 생물학, 사회학 등 학계에서 많이 활용되고 있다가 SNS의 등장과 함께 데이터간 상호연결성의 필요성이 증가함에 따라 일상 생활에서도 활용되고 있는 데이터 모델이다. 그래프 데이터베이스는 이미 많은 연구가 있어 왔다. 그래프를 더욱 효율적으로 사용하기 위해 질의를 편리하게 해주는 연구에서부터 요즘 tera-byte 수준의 빅데이터 그래프에 대한 연구에 이르기까지 많은 연구가 수행되어 왔다. 그러나 이러한 연구들은 더 많은 노드와 간선을 효율적으로 처리하기 위한 연구에 그치고 있다.</p> <p>그래프 데이터베이스는 데이터를 표현하기 위해 노드, 간선, 속성의 세 가지 기본적인 구성을 사용하고 방향성 유무의 특성을 가진다. 그래프 데이터베이스는 이러한 구성 외 에는 다른 제약이 없기 때문에 데이터를 데이터베이스의 제약 조건에 맞추기 위한 추가적인 변환 단계가 필요하지 않다. 또한 대다수 프로그래밍 언어와 데이터베이스에서는 관계성을 추론하지만, 관계성 그 자체는 외래키나 포인터를 사용해서 간접적이고, 추상적으로 표현되는 반면, 그래프 데이터베이스에서는 관계는 간선에 의해 직접적으로 표현된다. 이러한 장점으로 인해 애플리케이션을 직관적이고, 이해 하기 쉽고, 빠르게 모델링할 수 있다. 어떠한 형태의 데이터도 표현할 수 있기 때문에 새로 발견한 관계나 속성에 따라 스키마를 자연스럽게 발전시킬 수 있다. 우리는 이렇게 관계에 표현하기 위한 그래프를 연구하던 중에 그래프 데이터베이스로써 토픽맵 기능에 주목하였다.</p> <h2>2.2 토픽맵</h2> <p>토픽맵은 주제 중심 지식의 표현과 상호호환을 위해서 정보의 연계를 통한 정보의 발견에 중점을 두고 있다. 이러한 방식으로 지식정보를 체계적인 구조로 표현해 대용량의 지식정보를 효율적으로 검색하고 관리해 줄 수 있는 해결책으로 활용되고 있다. 토픽맵은 토픽, 연관, 어커런스의 주요 구성으로 그래프와 유사한 구조을 가진다. 토픽맵은 계층/수평 구조에 한계가 없으며, 다양한 관계들을 편리하게 생성/변경시킬 수 있다. 관계형 데이터 모델에 비해 클래스와 인스턴스, 관계 등의 확장이 매우 편리하며, 생성에 한계를 두지 않는다. 특히 우리가 주목한 토픽맵의 요소는 어커런스(occurence)로, 어커런스는 다양한 정보자원과 맵핑하여 데이터를 활용할 수 있다.</p> <p>토픽맵은 토픽 간의 관계를 표현하는 방법이 그래프와 유사하다. 또한 두 개의 토픽들 사이에 2개 이상의 관계를 가질 수 있는 다중 관계도 가능하다. 반면 같은 클래스에 포함된 모든 인스턴스에 동일한 관계들을 정의하기 때문에 저장되는 연관의 숫자가 많아진다. 그리고 토픽과 연관은 매우 복잡한 관계를 가지게 된다.</p> <p>이렇게 복잡한 관계를 표현하기 위해 표준 토픽맵은 XTM(XML Topic Maps)이라는 문서기반의 표현 언어를 사용한다. 이것은 저장되는 데이터 크기에 상당한 제약을 보였다. 이런 점을 개선하기 위해 토픽맵을 관계형 데이터 베이스에 저장하는 연구도 진행된 바 있다. 하지만 논문에서 10만여개의 토픽으로 이루어진 데이터를 관계형 데이터베이스에서 탐색하는데 10초가 걸렸다. 이는 보완이 필요한 사항이며, 수백만개나 그 이상의 대용량 데이터에서의 성능을 보장하기 위해 우리는 분산 처리/분산 저장 기술을 적용하기 위한 연구를 수행하였다.</p> <h2>2.3 카산드라</h2> <p>본 논문에서 수행할 실험에서는 866만여개의 토픽이 저장되고, 연관은 1300만여개 정도 된다. 물론 이 정도 데이터는 어느 관계형 데이터베이스라 해도 문제가 없을 수 있다. 하지만 저장되는 데이터가 급격하게 증가하게 되면 토픽과 연관의 탐색은 관계형 데이터베이스에서 심각한 성능 저하는 예측할 수 없게 된다. 분산처리는 이러한 병목을 해소시켜 줄 것이다.</p> <p>많은 분산기술이 적용된 NoSQL 중 가장 중점을 둔 사항은 신속한 확장 가능성과 데이터 저장 구조와 탐색 방식이었다. 토픽과 연관은 짧은 메시지로 구성되어 있다. 이는 SNS 사용하는 패턴과 비슷하여 SNS에서 많이 활용되고 있는 컬럼기반 NoSQL의 방식이 적절할 것으로 고려되었다. 그래서 대표적인 컬럼기반 데이터베이스인 Hbase와 카산드라가 선택되었다. 이 중 카산드라는 P2P방식의 클러스터 구성으로 단일 장애 지점이 없고, 클러스터 구성이 매우 손쉽다는 강점이 있었다. 또한 Hbase와 카산드라를 사용한 벤치마크 테스트 에서 카산드라가 쓰기에서 5배, 읽기에서 4배 좋은 성능을 보인 바 있다. 이런 사항들을 고려하여 우리 연구에서는 카산드라를 사용하였다.</p> <p>카산드라의 데이터 모델은 Fig. 1과 같다. 다중 머신은 하나의 클러스터를 이루고, 클러스터 내에 복수의 키스페이스를 가질 수 있다. 키스페이스 내부에 여러 개의 컬럼 패밀리를 생성할 수 있으며, 관계형 테이블과 유사한 역할을 한다. 컬럼 패밀러는 슈퍼 타입과 일반 타입이 존재한다. 컬럼 패밀리 내부에는 생성개수에 제한이 없는 로우와 마찬가지로 생성개수에 제한이 없는 컬럼과 값을 가진다. 카산드라는 희소 다차원 해시테이블 구조로 볼 수 있다.</p> <p>카산드라의 로우에는 고유키(로우키)가 있으며, 그 고유키로 데이터에 접근한다. 로우키는 항상 바이트 순서로 정렬된다. 토픽명을 로우키에 부여한다면, 토픽은 사전순으로 저장되고 정렬된다. 또한 이렇게 저장된 데이터가 분산처리 되기 때문에 윈하는 토픽을 빠르게 찾을 수 있다. 이것은 사람은 자연어를 그대로 사용하여 검색을 할 수 있고, 컴퓨터는 별다른 변환과정 없이 빠르게 데이터를 찾아 낼 수 있다.</p> <p>우리는 이러한 토픽맵과 카산드라의 특성을 이용하였다. 토픽맵 데이터 모델을 다차원 컬럼형 데이터베이스 시스템인 카산드라를 이용하여 저장하고 질의한다. 이런 조합의 기술은 스키마가 없는 그래프를 저장하기 편리하고, 토픽맵 질의에 적합한 데이터 정렬 구조를 가지게 된다. 더욱이 카산드라를 사용하면서 빅데이터 사이즈의 그래프 데이터베이스도 처리가 가능해진다. 이제 시작 단계의 구현물이라 한계는 많지만, 관계형 데이터베이스와의 실험에서 탁월한 성능을 보여주었다.</p>
|
여러 데이터간의 상호연결성의 필요성이 증가함에따라 그래프 데이터베이스는 일상 생활에서도 활용되고 있는 데이터 모델이 되었다. 이 중 토픽맵은 주제 중심 지식의 표현과 상호호환을 위해 정보의 연계를 통한 정보의 발견에 중점을 두고 있고 그래프 데이터베이스를 활용하여 구현할 수 있으며 카산드라는 P2P방식의 클러스터 구성으로 클러스터 구성이 매우 손쉽다는 강점이 있으며 Hbase와 카산드라를 사용한 벤치마크 테스트 에서 카산드라가 쓰기에서 5배, 읽기에서 4배 좋은 성능을 보인 바 있고 또한 카산드라를 사용하면서 빅데이터 사이즈의 그래프 데이터베이스도 처리가 가능해진다.
|
<h1>4. 사례 연구</h1> <p>이번 장에서는 실제로 관계형 데이터베이스에서 사용하는 데이터 집합을 활용하여 해당 스키파가 제안 기법에서 어떻게 적용되는지 살펴보겠다. 의미관계가 명확한 실제 데이터를 사용하는 것이 의미관계를 효율적으로 보여주는 토픽맵으로 옮기는 것이 효율적이다. 하지만 현실적인 어려움으로 인해, 대표적인 관계형 데이터베이스 벤치마크 도구인 TPC-H 에서 사용한 데이터 스키마와 데이터 집합을 사용하여 제안 기법에 적용하는 방법을 제시하겠다.</p> <h2>4.1 TPC-H 스키마</h2> <p>실제로 RDBMS에서 사용한 데이터를 이용한 것이 좋겠지만, 데이터를 구하는 것에 제약이 있기 때문에 우리가 사용할 데이터 집합은 RDBMS 벤치마킹 도구로 유명한 TPC-H에서 사용하는 데이터 집합이다.</p> <p>TPC-H 스키마는 객체들의 관계로 이루어진 스키마는 존재하지만, 그 의미 관계가 정확하지 않다. 테이블 내에 삽입되는 데이터 중 기본키는 순차적인 순서로 입력되지만, 나머지 컬럼들은 의미 없는 값들로 채워진다. Fig. 7은 TPC-H에서 사용한 데이터 집합의 스키마이다. 테이블 밑에 숫자는 테이블의 레코드수이다. 전체 데이터 집합의 크기는 대략 1GB이다. 자세한 크기는 4장 실험에서 설명한다. 이 스키마로 알 수 있는 시나리오는 각 대륙별, 국가별로 분포해 있는 고객과 공급사가 있고, 각 공급사로부터 부품을 공급받아 고객에게 주문을 받아 판매한다는 내용으로 해석할 수 있다.</p> <h2>4.2 제안 기법의 스키마</h2> <p>2장에서 설명한 바와 같이 제안 기법의 스키마는 (Figure 5)와 같다. 이 스키마는 의미를 나타낼 수 없다. 이 스키마 내부에 Fig. 7의 의미를 가지는 토픽과 연관, 어커런스가 담기게 된다. 이 절에서는 이 3가지 개념을 이용하여 TPC-H 스키마의 의미를 모두 담는 과정을 보이고자 한다.</p> <p>Fig. 8의 스키마에서 도출한 클래스 토픽은 nation,region, person, company, part, lineitem 이다. 그리고 관계토픽은 belong-to, live-in, is-in, supplier-of, customer-of, manufactured-by, consist-of, ordered-by, order-to이다. 그리고 연관은 Fig. 9같이 정의된다.</p> <p>customer 테이블과 supplier 테이블은 각각 person과 company 엔터티로 변환하였다. 고객은 person과 company와의 관계로 정의될 수 있기 때문이다. 그리고 company의 인스턴스 중에는 공급자 외에 이 데이터 소스의 소유자격인 TPCH corp. 이라는 가상의 회사를 추가해 person의 인스턴스들과 연관관계를 만들었다. 그리고 partsupp 테이블과 order 테이블은 엔터티로 선정되지 않았다. 각 공급자가 제공하는 부품은 부품명이 같더라도 다른 인스턴스가 되어야 하기 때문에 part와 partsupp 테이블을 합친 형태로 '부품명 -공급자명'을 형식을 같는 부품으로 변환하였다. 마지막으로 order 테이블의 데이터는 고객과 회사간에 트랜잭션으로 person과 company의 연관에 어커런스 되도록 처리하였다.</p> <p>각 테이블들의 저장되어 있는 레코드들의 name 컬럼, 즉, 실제 사용되는 이름들이 로우키의 값으로 사용된다. 그리고 나머지 컬럼들의 값들은 어커런스를 통해 저장된다. 그러나 인덱스 형태의 기본키 컬럼들은 토픽맵에 저장되지 않는다.</p> <p>저장되는 데이터의 예를 몇 가지 살펴보겠다.</p> <p>Fig. 10은 region의 인스턴스인 AFRICA 토픽의 데이터 입력 포맷이다. 로우키값(토픽명)은 'AFRICA'이고, 슈퍼컬럼명(토픽ID)은 'A0000001'이다. 'instanceof 컬럼의 값은 region이다. region 테이블이나 nation 테이블은 주키와 참조키 컬럼을 제외하면 name과 comment 컬럼만 남게 된다. 그래서 별도의 어커런스 공간에 저장하는 대신, occurrence type 컬럼값에 comment를 주고 occurrence 컬럼값으로 comment 내용을 입력하였다.</p> <p>Fig. 11는 'nation - belong-to - region'의 연관정의에 따라 AFRICA에 속한 국가를 표현한 데이터 입력 내용이다. 로우키에 'belong-to_A0000001'값은 연관ID이고, 수퍼 컬럼명인 'B0000001'는 해당 연관의 주어인 연관의 또 다른 멤버이 이다. 지역과 국가의 관계에는 별다른 트랜잭션이 없기 때문에 어커런스 타입은 none이고, 어커런스는 빈 값을 갖는다.</p> <p>이제 어커런스가 존재하는 토픽을 살펴보겠다.</p> <p>Fig. 12은 part의 인스턴스 중 하나를 저장하기 위한 입력 데이터이다. AFRICA와 같은 구조지만, 어커런스 타입에 'cassandra address'가 나와 있고, 어커런스 값으로 'NTOC_F0000001'를 가진다. 이것은 Occurrence_N 컬럼 패밀리에, 로우키가 'TOC_F0000001'인 데이터를 찾아가라는 의미이다. 해당 로우에는 관계형 테이블이 가지는 컬럼들이 컬럼/값으로 저장되어 있다.</p> <p>마지막으로 어커런스가 있는 연관을 살펴보겠다.</p> <p>Fig. 13은 lineitem과 person의 관계인 'order-to' 연관을 입력하는 모습이다. 이는 어커런스가 있는 토픽과 마찬가지 구조를 가진다. 어커런스값에 'S'는 Occurrence_S를 가리킨다. 해당 주소에 가면 Fig. 14 와 같은 데이터가 입력되어 있다. 로우값은 주소에 표시되어 있는 값이며, 연관의 어커런스는 토픽의 어커런스와 다르게 다른 멤버의 토픽ID를 슈퍼 컬럼값으로 갖는다. 그리고 컬럼값에 들어가는 값들은 lineitem 테이블에 있는 값들이다.</p> <p>이상의 방식으로 RDBMS에 저장되는 데이터를 제안 기법에 따라 입력하였다.</p>
|
본 논문에서는 관계형 데이터베이스 벤치마크 도구를 이용하고 데이터 스키마와 데이터 집합을 사용하여 제안된 기법에 적용하는 방법을 제시한다. 실제로 데이터를 구하는 것에는 어려움이 있기 때문에 TPC-H에서 사용하는 데이터 집합을 이용하여 실험한다. 제안된 기법의 스키마는 그 의미를 나타낼 수는 없지만 이 기법의 스키마의 내부에 토픽과 연관, 어커런스가 담기게 되는데 테이블을 엔터티로 변환하여 인스턴스들과의 연관관계를 만들고 엔터티로 선정되지 않은 테이블을 이용해 엔터티 간의 연관에 어커런스가 되도록 처리하는 과정을 거치게 된다.
|
<h1>2. 4차 산업혁명 시대의 에듀테크</h1> <p>김민영 외 논문에서는 빅데이터/인공지능 시대 온라인 교육시장의 혁신적인 변화와 맞물려 블록체인 기술의 교육적 활용에 관한 선도적 연구를 진행했다. 인간의 교육은 평생교육으로 변화했으며, 산·학·연·지자체들도 평생학습과 관련한 지속적인 연구를 진행하고 있다. 그러나 한 인간의 전 생애에 걸쳐 발생한 교육 데이터는 각 기관의 폐쇄적인 교육운영과 사회의 급속한 변화로 인해 지속적인 관리의 어려움을 겪고 있으며, 전 생애 중 적절한 시기에 활용되지 못하고 폐기되는 현상이 반복적으로 나타나고 있다. 이 논문에서는 이러한 문제들의 대안으로 블록체인 기술을 적용한 학습 서비스 플랫폼을 설계했으며, 블록체인의 교육적 활용을 위한 기초 연구가 될 것으로 기대된다.</p> <p>이 연구에서 진행된 배지체인(Badgechain) 서비스는 배지체인 솔루션, 배지체인과 연동된 Moodle LMS, 배지체인 Wallet 사이트를 통해 기관이 발급한 증명서를 학습자가 필요할 때 증빙자료로 활용할 수 있도록 하며, 이와 관련한 기록은 블록체인에 저장되어 학습자의 전 생애 걸쳐 활용될 수 있다.</p> <p>특히나 배지체인 Wallet은 API의 배포를 진행하여 여러 기관에서 발급된 배지를 조회 및 관리를 할 수 있도록 하고, 사용자 편의성 증진을 위한 UI/UX 설계를 통해 그 활용성을 높였다. 블록체인 기반 배지 서비스 플랫폼은 실질적 적용을 위한 고도화가 필요하며, 이와 더불어 공공 교육훈련 서비스 구축 가이드 제시를 위한 연구를 지속적으로 해나갈 계획이다. 또한 이 연구는 서비스 모델 타당성 검토 및 발전방안 수입을 위한 지속적인 연구가 필요하다.</p> <p>김양훈 논문에서는 기존 단방향 지식전달의 고전적인 이러닝 혹은 일부 양방향 소통체계를 가진 시스템에서는 새롭게 창출되고 있는 기술을 가진 인력 양성에 필요한 콘텐츠를 구축하기 어렵다. 이에 양방향 소통체계를 기반으로 실시간으로 학습자와 소통하며 문제해결형 교육을 진행할 수 있는 협동형 이러닝 시스템을 제안한다.</p> <p>이 연구에서 개발된 시스템은 실습 콘텐츠를 학습자가 학습할 때 교수자의 실시간 협동 지원을 함으로써 대면 환경과 유사한 효과를 얻을 수 있도록 한다. 시스템에는 교수자, 에듀테크 시스템, 학생으로 구분된다. 에듀테크 시스템에서는 교수자와 학습자의 연결과 협동학습 콘텐츠에 대한 외부 개입을 제한적으로 수행하기 위해 실습용 시뮬레이션 콘텐츠를 오픈한다. 또한 이 논문에서는 보안 교육을 위한 시뮬레이션 기반의 협동형 이러닝 시스템을 사용자 측면에서 검증을 수행하였다.</p> <p>효용성 검증은 만족도, 이해도, 사용성 3개의 항목으로 조사하였으며, 종합적 측면에서 개발한 콘텐츠가 기존의 콘텐츠에 비해 효용성이 있는 것으로 나타났다. 이에 본 연구에서는 다음 3 가지 의미가 있다. 기존의 단방향 지식전달 환경에서 양방향으로의 적극 전환이 학습자의 교육 만족도를 높이고, 비대면 환경을 고려한 실습 콘텐츠을 개발함으로써 현장 학습과 유사한 효과를 나타낼 수 있다. 또한 시뮬레이션 기반의 실습 콘텐츠를 위한 교수자 또는 학습자는 사전학습을 수행해야 한다.</p> <p>김제영 외 논문에서는 고령화 사회인 우리나라가 2025년에는 전체 인구의 \( 20 \% \)가 넘을 것으로 예상되면서 노인의 자발적 사회적 활동과 재취업의 기회를 갖기 위해 모바일 학습 콘텐츠를 제공하였다. 모바일 학습 콘텐츠는 스마트폰에서 사용할 수 있는 앱을 통해 제공되며, 실버세대의 신체적 특징등을 고려하여 개발되었다</p> <p>이 연구에서는 실버세대의 신체적 특징중 시각적 퇴화로 인해 가독성이 매우 떨어지는 문제점을 동영상으로 학습 콘텐츠를 제공하는 것으로 해결하는 동영상 영어사전 앱을 개발한다. 이를 위해 텍스트를 영상으로 변환시켜주는 OCR(optical character recognition) 입력 방식을 사용하였고, 스마트폰의 용량 한계를 대처하기 위해 Youtube API 등을 이용하였다. 또한 동영상 뿐만 아니라 문자 영어 사전을 제공하였다.</p> <p>본 연구에서는 학습 콘텐츠 앱으로써 개발만이 아니라 60세 이상의 노인을 대상으로 학업 성취도, 학습 만족도를 비교하여 사용 편의성을 평가하였다. 그 결과 학업성취는 문자와 동영상 영어사전 간에 약 12.4 포인트 정도의 차이가 있었으며, 학습 만족도 또한 문자를 이용한 학습이 \( 77.6 \% \)인 것에 비해 동영상 영어 사전은 \( 88.2 \% \)로 평가되었다. 시스템 사용성에 대해서는 \( 76.5 \% \) 정도가 매우 그렇다라고 답변이 되었다.</p> <p>기존 학습관리시스템(나이스, K-에듀파인)에서 접근 권한이 없는 교사에게 기관정보관리 책임자가 임의적으로 권한을 줄 수 있는 문제가 있다. 이에 천지영 외 논문에서는 차세대 학습관리에서 민감한 개인정보에 대한 암호화 및 복호화를 제공하고, 로그 정보의 위·변조 및 삭제를 방지하기 위해 블록체인에 로그 정보를 저장함으로 안정성을 확보할 수 있는 감사시스템을 제안하였다.</p> <p>제안된 감사시스템에서는 차세대학습관리 시스템 관리자, 개인정보관리 책임자, 감사자, 사용자로 구성을 한다. 로그 정보에서는 계정, 접속일시, 접속지 정보, 정보 주체 정보, 수행 업무 등을 기록하게 되어 있으나, 데이터 테이블 등 변경이 되었을 때 책임자의 정보를 확보가 어렵게 된다. 이에 책임 추적성에 대한 정보를 추가로 저장함으로써 보안성을 높일 수 있도록 한다. 또한 책임 추적성은 개인정보를 포함으로 로그 정보에 대한 암호화와 복호화를 제공한다. 이러한 개인 정보는 블록체인에 기록을 함으로써 접속 기록 등에 대한 위. 변조를 막을 수 있으므로 무결성을 보장받을 수 있다.</p>
|
평생교육의 중요성은 증대되며 관련 연구는 지속되고 있다. 하지만 각 기관의 폐쇄적 교육 운영, 사회의 급속한 변화로 교육 데이터가 관리되지 못하고 폐기가 많이 된다. 이에 협동형 이러닝 시스템을 제안하며, 이 시스템은 교수자, 에듀테크 시스템, 학생으로 구분된다. 이 연구는 OCR 입력 방식을 썼고, Youtube API 등을 이용해 동영상 영어사전 앱을 개발한다. 학습 콘텐츠 앱개발 뿐만 아니라 60세 이상 노인 대상 사용 편의성도 평가했다. 비교 차세대 학습관리에서 민감한 개인정보에 대해 위,변조를 예방하는 블록체인을 이용해 로그 정보를 저장해 안정성을 높인 감사시스템을 제안했다.
|
<h1>2. CNN을 이용한 기존의 뇌전증 검출 연구들</h1> <p>뇌전증 환자에게서 나타나는 EEG 신호의 특징을 분석하기 위하여 Acharya 외와 Ullah 외는 Bonn 대학의 데이터세트를 이용하였다. 이 데이터세트는 뇌파를 측정하기 위한 표준화된 전극 위치에서 EEG 신호를 획득하였다. A부터 E까지 총 5개의 세트로 구성되어 있다. 세트 A와 B는 5명의 건강한 지원자로부터 획득한 EEG 신호로, 편안히 깨어있는 상태에서 눈을 뜬 상태(A)와 눈을 감은 상태(B)에서 측정되었다. 세트 C, D, E는 5명의 간질 환자에게서 측정한 신호로, 세트 C와 D는 간질 발작이 없는 상태에서 각기 다른 뇌 영역에서 측정되었다. 세트 E는 간질 발작이 발생할 때 측정된 EEG 신호이다. 데이터세트는 각 피험자로부터 100개 씩, 총 500 개의 단일 채널 인스턴스로 구성되어 있으며, 각각의 EEG 인스턴스는 23.6초 동안의 뇌의 활동을 기록한 것으로 4,097차원의 벡터 데이터이다.</p> <p>Acharya 외는 4,097차원의 EEG 벡터 인스턴스를 CNN의 입력층에 바로 적용하였다. CNN은 5쌍의 합성곱과 맥스풀링(max pooling) 층, 그리고 3개의 완전연결 층으로 설계하였다. 전체 데이터 중 \( 90 \% \)를 훈련 세트, \( 10 \% \)를 테스트 세트로 하여 뇌전증 발작 유무에 대하여 \( 90.33 \% \), 정상인, 간질 환자 중 발작이 없는 경우, 발작이 발생한 경우, 이렇게 3-class(AB vs CD vs E)에 대해서는 \( 88.67 \% \)의 정확도(accuracy)를 보였다. Ullah 외는 EEG 벡터 인스턴스를 1,024차원을 갖는 EEG 신호로 분할하여 CNN의 입력으로 사용하였다. CNN 입력으로 사용될 EEG 신호의 길이가 축소되어 정보의 손실이 발생하지만 CNN 학습을 위한 학습 데이터를 확장한 것이다. Conv-1, Conv-2, Conv-3, 그리고 2개의 완전연결 층으로 CNN의 구조를 설계하였으며, 각 Conv-n 층은 합성 곱, 배치 정규화, ReLU 활성화 층으로 구성하였다. 전체 데이터 중 \( 90 \% \)를 훈련 세트, \( 10 \% \)를 테스트 세트로 사용하여, 뇌전증 발작 유무와 'AB vs CD vs E' 분류에 대하여 각각 \( 99.7 \%\), \(99.1 \% \)의 정확도를 보고하였다.</p> <p>MaO 외와 Xu 외는 뇌전증 환자와 일반인에게서 획득한 뇌파를 분류하기 위하여 Bonn 데이터세트를 1초 단위로 분할한 UCI 데이터세트를 사용하였다. 분할된 EEG 신호는 178차원의 벡터로 UCI 데이터세트는 총 11,500개의 데이터로 구성되어 있다. Mao 외는 EEG 신호를 연속 웨이블릿 변환(CWT)을 거쳐 2차원 영상으로 변환한 후, 2차원 합성곱 층 3개와 완전연결 층 2개로 구성된 2D-CNN을 구성하였다. \( 70 \% \)의 훈련 세트와 \( 30 \% \)의 테스트 세트로 실험한 결과 5-class(A vs B vs C vs D vs E)에 대하여 \( 74.49 \% \)의 정확도를 얻었다. Xu 외는 CNN에 장단기메모리(Long Short-Term Memory, LSTM)를 결합하여 EEG 신호를 분류하였다. 제안한 CNN-LSTM 모델은 전반부에 1차원 합성 곱 층 4개와 완전연결 층, 그리고 후반부에 LSTM 층 2개와 완전연결 층 3개로 구성되어 있다. 이 모델은 \( 90 \% \)의 훈련 세트와 \( 10 \% \)의 테스트 세트를 적용하여, 뇌전증 발작 여부를 식별하는 2-class(ABCD vs E)와 5-class(A vs B vs C vs D vs E)에 대하여 각각 \( 99.39 \% \)와 \( 82.00 \% \)의 정확도를 보고하였다.</p>
|
뇌전증 환자에게서 나타나는 EEG 신호의 특징을 분석하기 위해 뇌파를 측정하기 위한 표준화된 전극 위치에서 EEG 신호를 획득하는 Bonn 대학의 데이터세트를 이용하여 실험을 진행한 Acharya 외와 Ullah 외의 연구를 살펴본다. 해당 실험에서는 4,097차원의 EEG 벡터 인스턴스를 CNN의 입력층에 바로 적용하고 5쌍의 합성곱과 맥스풀링 층, 그리고 3개의 완전연결 층으로 CNN을 설계하였으며 뇌전증 발작 유무와 'AB vs CD vs E' 분류에 대해 각 \( 99.7 \%\), \(99.1 \% \)의 정확도를 보고한다. MaO 외와 Xu 외는 뇌전증 환자와 일반인에게서 획득한 뇌파를 분류하기 위해 Bonn 데이터세트를 1초 단위로 분할되었으며 총 11,500개의 데이터로 구성된 UCI 데이터세트를 활용한다. 해당 모델을 이용하여 뇌전증 발작 여부를 식별하는 2-class(ABCD vs E)와 5-class(A vs B vs C vs D vs E)에 대하여 각각 \( 99.39 \% \)와 \( 82.00 \% \)의 정확도를 결과로 얻었다.
|
<h1>1. 서 론</h1> <p>뇌전증은 뇌 신경세포가 일시적인 이상으로 과도한 흥분 상태가 되어 의식 소실이나 발작을 일으키는 가장 일반적인 뇌 질환으로 국내 뇌전증 환자 수는 25만 명에서 36만 명 정도로 추정된다. 뇌전증은 뇌자기 공명 영상, 양전자 방출 단층촬영법, 뇌파검사 등을 통해 진단이 이루어진다. 뇌파(electroencephalogram, EEG)는 뇌 신경세포들간의 정보 전달 과정에서 발생하는 전기적 신호를 두피 표면에서 측정한 것으로, 뇌 활동을 분석하는데 유용한 정보를 제공한다. EEG 신호의 분석을 통해 뇌전증 발작을 비롯한 주의력 결핍 장애, 알콜 중독, 불안 장애 등의 진단에 사용될 뿐만 아니라 심각한 행동 장애가 있는 사람들을 지원하는 인터페이스로도 주목받고 있다.</p> <p>신경과 전문의가 EEG 신호를 육안으로 분석하여 뇌전증 발작을 검출하기 위해서는 많은 시간과 노력이 요구된다. 따라서 EEG 신호를 자동으로 분석하는 컴퓨터 보조 진단 시스템(computer-aided diagnosis system)에 대한 요구가 나타나고 있으며, 이러한 시스템을 개발하기 위해서는 EEG 신호로부터 자동으로 뇌전증 발작을 검출하는 기술이 필수적이다. EEG 신호를 분석하여 발작 여부를 검출하는 것은 신호 분류의 문제로 볼 수 있다. 신호 처리의 측면에서 살펴보면 EEG 신호에는 관심 대상이 되는 신호 외에 눈의 깜박임이나 팔다리의 움직임에 의해 발생하는 잡파(artifact)가 내포되어 있고, 피험자에 따라 형태학적 특징이 조금씩 다르게 나타나기 때문에 일관된 특징을 추출하는데 어려움이 발생하고, 기계 학습의 측면에서 이 문제를 해결하기 위해서는 분류기를 학습시키기 위한 충분한 데이터를 확보해야 한다.</p> <p>Ricardo 외는 국소 퓨리에 변환(short time Fourier transform)을 적용하여 시간-주파수의 2차원 영상으로 변환하였고, Mao 외는 연속 웨이블릿 변환(continuous wavelet transform)을 적용하여 EEG 신호로부터 2차원 영상을 생성하여 특징을 추출하였다. EEG 신호의 시간-주파수 특징을 추출하기 위하여 EEG 신호를 연속적으로 다른 스케일을 갖는 신호로 분할하는 이산 웨이블릿 변환(discrete wavelet trans-form, DWT)이 여러 연구에서 사용되었다. Kumar 외은 DWT를 3레벨, Hsu \& Yu[10]는 4레벨까지 적용하여 특징을 추출하였다. EEG 신호를 5개의 서브 밴드로 분해하여 비선형 특징을 지지벡터머신(support vector machine, SVM)을 이용하여 분류한 Hsu & Yu는 유전자 알고리즘을 적용하여 최적의 조합을 갖는 특징 부분집합을 선택하여 성능을개선하였다. Savadkoohi 외는 시간, 주파수, 시간-주파수라는 3개의 도메인에서 특징을 추출하였다. 각각 버터워스 필터, 퓨리에 변환, 웨이블릿 변환을 적용한 후 각 도메인의 데이터가 갖는 통계적 특징을 추출하였다. 5개 주파수 대역에서 추출한 특징은 평균(mean), 분산(variance), 대칭도(skewness), 첨도(curtosis)로 총 60개의 통계적 특징을 기반으로 K-NN(K-nearest neighbors)과 SVM 분류기로 신호를 식별하였다. Bhattacharyya 외는 23개 채널을 갖는 다변량 EEG 신호에서 최소의 표준편차를 나타내는 신호를 포함하여 5개 채널을 자동으로 선택한 후 엠피리컬 웨이블릿 변환(empirical wavelet transform)을 이용한 순간 진폭과 주파수를 구하여 진폭의 평균, 진폭 변화 절대값에 대한 평균과 분산을 특징으로 이용하였다.</p> <p>컴퓨터 비전 분야에서 합성곱 신경망(convolutional neural network, CNN)을 이용한 연구들이 우수한 성과를 나타냄에 따라 최근에는 CNN을 이용하여 EEG 신호의 특징을 추출하고 인식하는 연구들이 주목을 받고 있다. Mao 외는 1 차원 EEG 신호에 CWT를 적용하여 2차원 영상을 생성한 후 3쌍의 합성곱(convolution)과 맥스풀링(max pooling) 계층으로 구성한 2D-CNN을 이용하여 뇌전증을 식별하였다. EEG 신호를 두뇌-컴퓨터 인터페이스(brain-computer interface, BCI에 적용하기 위하여 Schirrmeister 외는 EEG 신호를 분류하는데 적합한 CNN 구조를 탐색하였다. BCI 대회에 사용된 공개된 EEG 데이터 세트를 사용하여 실험한 결과 EEG 신호를 디코딩하는데 널리 사용되는 필터뱅크 공통공간 패턴(filter bank common spatial pattern) 방식보다 CNN을 이용한 방식이 정확도가 높게 나타났다. 그리고 2개의 컨벌루션 계층으로 구성한 얕은 CNN이 4개 컨벌루션 계층으로 구성한 깊은 CNN 보다 좋은 성능을 나타내는 것으로 보고하였다. Sandheep 외는 한 쌍의 컨벌루션과 맥스풀링 계층, 그리고 3개의 완전연결계층을 갖는 매우 단순한 신경망으로도 우울증 검출이 가능함을 보였다.</p> <p>CNN을 이용한 기존 연구들은 EEG 신호를 분류하는데 적합한 신경망의 구조에 중점을 두고 연구를 진행하였다. 일반적으로 CNN의 계층이 늘어나면 학습해야 할 파라미터의 개수가 증가하고 이에 따라 학습을 위하여 더 많은 데이터를 요구한다. 획득한 EEG 신호는 일정한 시간 또는 길이 간격으로 분할하여 분석하므로, EEG 신호의 단위 길이를 짧게 설정하면 입력 데이터로부터 더 많은 데이터를 생성할 수 있다. 그러나 EEG 신호가 짧으면 합성곱이나 맥스풀링 계층에서 사용되는 커널의 크기를 설정하는데 제약이 발생하게 된다. 이와 같이 EEG 신호의 단위 길이는 CNN의 내부 구조뿐만 아니라 데이터의 양적인 측면에도 영향을 준다. 따라서 본 연구에서는 뇌전증 발작을 검출하는데 적합한 EEG 신호의 길이를 탐색하고, 동일한 CNN 구조로 길이가 다른 EEG 신호를 학습시키고 앙상블을 통해 성능을 개선하는 방식을 제안한다.</p> <p>본 논문의 구성은 다음과 같다. 서론에 이어 2장에서는 CNN을 이용하여 뇌전증 발작 신호를 검출한 기존 연구들을 살펴보고, 3장에서는 EEG 신호의 특징을 추출하고 분류하기 위해 제안한 방식에 대하여 설명한다. 4장에서는 공개된 EEG 데이터 세트를 이용한 실험 결과를 제시하고, 기존 연구와의 비교를 통해 제안된 방법의 타당성을 제시한다. 끝으로 5장에서는 본 연구의 결론과 향후 과제에 대하여 논의한다.</p>
|
뇌파(EEG)는 뇌 활동을 분석하는데 유용한 정보를 제공하는데, 신경과 전문의가 EEG 신호를 분석하여 뇌전증 발작을 검출 과정을 돕기 위해 EEG 신호를 자동으로 분석하는 컴퓨터 보조 진단 시스템과 EEG 신호로부터 자동으로 뇌전증 발작을 검출하는 기술들이 요구되어 진다. EEG 신호를 분석하여 발작 여부를 검출하는 것은 신호 분류의 문제로 볼 수 있는데, 본 연구에서는 뇌전증 발작을 검출하는데 적합한 EEG 신호의 길이를 탐색하고, 동일한 CNN 구조로 길이가 다른 EEG 신호를 학습시키고 앙상블을 통해 성능을 개선하는 방식을 제안한다. 2장은 기존 연구들을 살펴보고, 3장은 EEG 신호의 특징을 추출 분류하기 위한 제안을, 4장은 EEG 데이터 세트를 이용한 실험 결과를 제시한 후기존 연구들과 비교하며, 5장은 본 연구의 결론과 향후 과제에 대해서 쓰였다.
|
<h1>1. 서 론</h1> <p>2007년 전 세계적으로 애플의 아이폰 열풍과 함께 아이폰에서 동작이 가능한 애플리케이션을 판매하는 애플의 앱스토어의 성공 이후 수많은 단말기 사업자와 플랫폼 사업자, 통신 사업자들은 앞다투어 독자적인 마켓플레이스 구축에 나서고 있다. 이후 스마트폰에서 사용할 수 있는 애플리케이션의 숫자가 크게 증가하였다. 또한, 애플의 아이폰에 대항하는 구글의 안드로이드폰이 생기며 안드로이드 운영체제 전용의 안드로이드 마켓도 생겨났다. 또한 전 세계 통신사와 단말기 회사가 모여 구글과 애플의 모바일 시장독점을 견제하기 위해 웹 애플리케이션 기반의 WAC(Wholesale Applications Community)을 결성하였다.</p> <p>기존의 네이티브 애플리케이션 스토어(애플 스토어, 안드로이드 마켓)는 운영체제와 단말기에 종속적인 단점 때문에 각 플랫폼별로 애플리케이션을 개발해야 한다. 각 플랫폼별로 애플리케이션을 개발해야 하는 단점을 해결하기 위해 등장한 것이 바로 웹 애플리케이션이다.</p> <p>웹 애플리케이션이 등장하게 된 배경에는 여러 사업자들이 한 플랫폼에 맞춰 개발하기보다는 웹 표준 언어를 사용하여 애플리케이션을 개발하면 플랫폼을 가리지 않고 모든 스마트폰을 지원할 수 있는 것에 있다. 본 논문에서 제안하는 웹 애플리케이션 스토어는 바로 이런 웹 애플리케이션을 지원하는 마켓이다. 웹 애플리케이션 스토어는 운영체제, 플랫폼에 종속적이지 않기 위해 웹 표준언어로 제작하며 크로스 플랫폼을 지원한다.</p> <p>웹 애플리케이션 스토어는 차세대 웹 기반 언어(HTML5 CSS3, Java Script)로 제작된 애플리케이션들로 이루어진 애플리케이션을 배포하는 스토어이며 현재 Chrome Web Store, OpenAppMkt 등이 있다. 그러나 이러한 웹 애플리케이션 스토어는 Apple의 AppStore와 Google의 Android Market과 같이 서로 상호보완이 이루어지지 않고 웹 애플리케이션이 등록된 스토어에서만 해당 웹 애플리케이션이 존재하게 되어 사용자에게 있어 선택의 폭이 좁아지게 되거나 번거로움이 생기는 단점을 해결하기 위해 OWS를 제안한다.</p> <p>웹 애플리케이션 스토어 간의 연동을 하기 위해 제시한 웹 애플리케이션 스토어 형태의 OWS(Open Web Store)는 각각의 OWS 간의 연동을 통하여 글로벌한 애플리케이션 연동이 목적이다. 각 플랫폼에 종속적이지 않고 크게 뒤떨어지지 않는 성능을 가진 웹 애플리케이션이 많아진다면 웹 애플리케이션 스토어는 구글과 애플의 독적점인 애플리케이션 시장구조에 대하여 해결책이 될 수 있을 것이다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서는 기존에 연구되던 관련 연구와 애플리케이션 스토어에 대해 기술하고 3장에서는 본 논문에서 제안하는 웹 애플리케이션 스토어인 OWS의 구조에 대하여 살펴보고 4장에서는 OWS 인터페이스를 기술한다. 5장에서는 연동 시나리오를 기초로 한 OWS의 연동 시나리오 구현에 대하여 기술한다. 마지막으로 6장에서는 향후 연구 방향에 대해 설명하고 결론을 맺는다.</p>
|
웹 애플리케이션의 등장배경에는 각 사업자들이 한 플랫폼에 맞춰 개발하지 않고 웹 표준 언어를 사용한 애플리케이션을 개발하면 모든 스마트폰을 지원할 수 있는 것에 있다. 제안하는 웹 애플리케이션은 바로 이런 웹 애플리케이션을 지원하는 마켓이다. 웹 애플리케이션 스토어는 차세대 웹 기반 언어로 제작된 앱으로 이루어진 앱을 배포하는 스토어이며 현재 Chrome Web Store, OpenAppMkt 이다.
|
<h2>2.3 Chrome Web Store</h2> <p>구글의 크롬 웹 스토어는 웹 기반의 앱스토어이다. Installable Web Apps(설치형 웹 앱)라는 형태로 된 패키지 파일을 브라우저로 내려받아 설치하는 방식이다. 크롬 OS는 사용자가 유지, 보수, 관리, 보안을 신경 쓰지 않고 애플리케이션을 편하게 사용만 하면 되는 장점을 지니고 있다. 네트워크 환경만 지원된다면 크롬 북을 이용해 작업했던 데이터들을 다른 곳에서 크롬 북이 아닌 다른 머신을 이용해서 활용하는데 있어서도 매우 유연한 장점을 가지고 있다. 하지만 웹 기반 크롬 브라우저 상태에서 작업을 수행하다 보니 네트워크 환경이 불안정하거나 접속이 끊길 경우 지속적인 작업이 어려운 단점이 있다. 이런 단점을 방지하기 위해 특수한 경우나 몇몇 애플리케이션에서는 오프라인에서 작업을 수행하는 기능을 제공하고 있기도 하다. 또 하나의 단점으로는 크롬 브라우저에서만 애플리케이션을 사용할 수 있기에 크롬 OS에 종속적이다.</p> <h2>2.4 WAC(Wholesale Applications Community)</h2> <p>WAC은 2010년 MWC(Mobile World Congress)에서 창설된 연합체이다. 세계 24개 통신사가 연합하여 새로운 애플리케이션 스토어를 구축하여 Apple과 Google에 집중되어 있는 스마트폰 시장에서 경쟁력을 갖추기 위해 출범했다. 2012년 현재 72개의 통신사 및 제조사가 참여하고 있다.</p> <p>WAC은 나라별 상위권에 드는 24개 통신사를 바탕으로 하기에 기본적으로 거대한 시장이다. 만약 WAC의 계획대로 애플리케이션 스토어가 만들어진다면 스마트폰 애플리케이션 시장에 엄청난 폭발력을 보일 것이다. 하지만 WAC의 계획대로 진행이 되려면 국제적인 표준 플랫폼 개발이 우선되어야 한다. 또한, 통신사별 이해관계를 잘 해결하지 못하면 수포로 돌아갈 가능성도 크다. 현재 제기되는 통신사 간 이해와 스마트폰의 빠른 변화에 대응하고 시장변화를 따라갈 수만 있다면 WAC의 계획대로 거대한 시장이 생길 수 있을 것이다.</p> <p>WAC의 플랫폼 구조는 다음과 같다. 개발자들은 WAC에서 제공하는 SDK를 이용하여 웹 애플리케이션을 제작한다. 개발자가 제작한 웹 애플리케이션은 관리자 계정으로 WAC에 등록할 수 있다. 관리자 계정으로 등록한 웹 애플리케이션을 App Store와 연동하면 사용자는 해당 App Store에서 과금 후 다운로드 받아 이용한다.</p> <h2>2.5 K-WAC (Korea-WAC)</h2> <p>K-WAC은 국내 3개 통신사(SKT, LG U+, KT)에 관계없이 애플리케이션을 등록 및 판매를 자유롭게 할 수 있는 한국형 통합 App Store이다. WAC의 한국형 버전으로 전세계 개발자들이 WAC에 등록한 애플리케이션을 K-WAC 혹은 국내 3대 통신사의 App Store를 통해 판매 가능한 것이 장점이다. K-WAC은 WAC의 최초 서드 파티 애플리케이션 마켓으로 WAC에서 애플리케이션 정보를 얻어온다. 그리고 이 정보를 토대로 국내 3사 통신사에 동일한 애플리케이션을 공급할 수가 있다. 이는 애플리케이션 개발자로 하여금 다양한 마켓에서 애플리케이션을 판매할 수 있기 때문에 개발자에게 유리한 환경을 제공한다. Fig. 2는 WAC과 K-WAC 간의 연동과 국내 3사 통신사가 국내외 개발자들이 제작하여 등록한 웹 애플리케이션에 대한 유통과정을 보여주고 있다.</p>
|
구글의 크롬 웹 스토어는 웹 기반의 앱스토어로 Installable Web Apps(설치형 웹 앱)라는 형태로 된 패키지 파일을 브라우저로 내려받아 설치하는 방식을 갖고 있다. WAC은 2010년 MWC(Mobile World Congress)에서 창설된 연합체이며 개발자들은 WAC에서 제공하는 SDK를 이용하여 웹 애플리케이션을 제작한다. K-WAC은 국내 3개 통신사에 관계없이 애플리케이션을 등록, 판매가 자유로운 한국형 통합 App Store이다.
|
<h2>5.2 애플리케이션 연동 시나리오 구현</h2> <p>본 논문에서 제안하는 개방형 웹 애플리케이션 스토어의 아키텍처, 모듈, 인터페이스, API 를 토대로 구현하였다. 서버는 구글 앱 엔진을 사용하였으며 애플리케이션 연동을 위한 애플리케이션 스토어는 총 3개로 구현하였다. 애플리케이션을 가지고 있는 First Store와 애플리케이션이 연동되는 Second Store, Third Store로 애플리케이션 연동 테스트를 수행한다.</p> <p>총 3개의 애플리케이션 스토어 중 애플리케이션 목록을 모두 가지고 있는 스토어는 Fig. 8의 First Store이다. Fig. 9와 Fig. 10은 First Store에서 애플리케이션을 연동할 수신 측 애플리케이션 스토어 이다.</p> <p>First Store는 총 12개의 애플리케이션을 가지고 있으며, Second Store와 Third Store로 애플리케이션 리스트와 애플리케이션을 연동하는 역할을 수행한다. Second Store와 Third Store는 First Store에서 애플리케이션을 연동 받아 각각 5개, 1개의 애플리케이션을 저장하고 있다.</p> <p>애플리케이션을 연동하는 처음 과정은 First Store의 SAM 모듈에서 First Store Storefront에 데이터베이스에 생성, 저장해놓은 애플리케이션 리스트를 요청하는 것이다. 데이터베이스에 저장해놓은 애플리케이션 리스트는 XML 파일 구조로 저장되어 있다.</p> <p>Fig. 8의 왼쪽 메뉴 중 App List Request를 누르면 SAM 모듈에서 Storefront 모듈로 애플리케이션 리스트를 요청한다. App List Request를 누르면 Table 5에서 OWS-3 인터페이스에 정의되어 있는 Shared App List API를 이용하여 SAM 모듈에서 Storefront 모듈로 애플리케이션 리스트를 요청하고, Fig. 5에 송신측 모듈 간 연동 순서도에서 OWS-1 인터페이스를 통해 요청된 애플리케이션 리스트를 XML 파일 형식으로 SAM 모듈로 전송한다. Fig. 11은 요청 완료 후 First Store Storefront에서 First Store SAM 모듈로 전송되는 XML 파일이다.</p> <p>First Store는 총 12개의 애플리케이션을 가지고 있으므로 Fig. 11과 같이 12개의 애플리케이션 정보가 담긴 리스트가 전송된다. 현재 애플리케이션 리스트는 First Store의 SAM 모듈에 존재하고 있으므로 Second Store와 Third Store의 SAM 모듈로부터 애플리케이션 리스트 요청이 오면 Fig. 11의 XML 파일을 전송한다.</p> <p>OWS에서 애플리케이션 연동을 하기 위해서는 SAM 모듈 간의 연동 과정이 필요하다. First Store SAM 모듈에 저장되어 있는 애플리케이션 리스트를 Second Store SAM 모듈과 Third Store SAM 모듈로 연동하기 위해서는 Second Store SAM 모듈 혹은 Third Store SAM 모듈에서 First Store SAM 모듈로 애플리케이션 리스트를 요청해야 한다. 다음 과정은 SAM 모듈 간 애플리케이션 리스트 연동하는 과정이다.</p> <p>Fig. 10의 아래 그림 왼쪽 메뉴 중 Shared App List Request를 누르면 Table 4의 OWS-2 인터페이스의 App Information Transfer API를 통해 송신 측 SAM 모듈과 수신 측 SAM 모듈간의 애플리케이션 리스트 연동이 이루어진다. 이 과정은 Fig. 5와 Fig. 6에서 OWS-2 에 해당하는 부분이다. 그 결과 Fig. 12의 XML 파일이 Second Store SAM 모듈로 전송되는 것을 확인할 수 있다.</p> <p>현재 애플리케이션 리스트는 Second Store 혹은 Third Store 의 SAM 모듈에 존재한다. 애플리케이션 리스트를 Table 5와 같이 OWS-3 인터페이스의 수신 측 OWS App List API를 통해 수신 측 SAM 모듈에 존재하는 송신 측 애플리케이션 리스트를 Storefront에 전송한다. 이 부분은 Fig. 6의 순서도에서 수신 측 SAM 모듈과 수신 측 Storefront에서 OWS-3 인터페이스로 정보를 연동하는 부분이다.</p> <p>애플리케이션 연동 마지막 과정은 수신 측 Storefront 모듈에서 애플리케이션 리스트를 확인한 후 연동을 원하는 애플리케이션 ID를 해당 애플리케이션이 등록되어 있는 웹 애플리케이션 주소로 요청하면 해당 ID의 애플리케이션 정보가 담긴 XML 파일이 First Store에서 Second Store 혹은 Third Store로 전송된다. Fig. 8의 Facebook 애플리케이션 연동을 원할 때 해당 애플리케이션 ID(XML 파일에 있는 Facebook 애플리케이션의 ID는 10이다.)를 First Store의 주소로 애플리케이션 연동을 요청한다. 이 때 사용되는 API는 Fig. 7의 OWS-1 인터페이스인 수신 측 OWS App Share를 사용하여 SAM 모듈에게 애플리케이션 연동을 요청한다.</p> <p>Second Store SAM 모듈과 Third Store SAM 모듈은 Facebook 애플리케이션을 연동하기 위해 First Store에 Fig. 7의 OWS-2 인터페이스의 App Download Request를 통해 애플리케이션 연동 요청을 한다. 연동 요청을 받은 First Store SAM모듈은 연동 요청 정보를 Fig. 7에서 보이듯이 OWS-3 인터페이스의 Shared App Transfer Request API를 통해 애플리케이션 연동 요청을 하고 애플리케이션은 해당 API의 Response를 통해 Facebook 애플리케이션 정보를 전달한다.</p> <p>Facebook 애플리케이션 정보는 Fig. 13과 같이 XML파일형식으로 Response API를 통해 Seconds Store 혹은 Third Store로 전송된다.</p> <p>XML은 파싱되어 수신 측 Storefront 모듈의 데이터베이스에 저장되고 애플리케이션의 연동이 완료된다.</p> <p>Fig. 14와 Fig. 15는 Facebook 애플리케이션이 연동 된 후의 Storefront 모습이다. Fig. 9와 Fig. 10과 비교해 볼 때 Facebook 애플리케이션이 생긴 것을 확인 할 수 있다.</p>
|
본 논문에서는 개방형 웹 애플리케이션 스토어의 아키텍처, 모듈, 인터페이스, API를 토대로 구현한 뒤 애플리케이션을 가지고 있는 First Store와 애플리케이션이 연동되는 Second Store, Third Store로 애플리케이션 연동 테스트를 수행했다. 애플리케이션을 연동하는 과정의 첫번째는 First Store의 SAM 모듈에서 First Store Storefront에 데이터베이스에 생성, 저장해놓은 애플리케이션 리스트를 요청하는 것이고, 애플리케이션 연동 마지막 과정은 수신 측 Storefront 모듈에서 애플리케이션 리스트를 확인한 뒤 연동을 원하는 애플리케이션 ID를 해당 애플리케이션이 등록되어 있는 웹 애플리케이션 주소로 요청하면 해당 ID의 애플리케이션 정보가 담긴 XML 파일이 3개의 스토어 중 하나로 전송된다.
|
<h2>2.6 애플리케이션 스토어 분석</h2> <p>애플리케이션 간 비교 분석은 WIP(Wireless Industry Partnership)의 애플리케이션 스토어 목록을 참고하여 조사한 후 작성하였다. 또한 추가적으로 인터넷 검색을 통하여 앱 스토어를 검색하였고 구동OS, 연회비, 수익 분배 등의 관련 정보를 제공한다.</p> <p>애플리케이션 스토어에서 다루는 스마트폰 운영체제의 경우 가장 큰 비율을 차지하는 것이 구글사의 안드로이드OS를 다루는 애플리케이션 스토어 이고 두 번째 로는 애플사의 iOS를 다루는 애플리케이션 스토어가 많았다. Fig. 3은 애플리케이션 스토어에서 다루는 OS에 대한 그래프이다. 하지만 애플리케이션 전체 시장은 구글사와 애플사의 점유율이 \( 70 \% \)이상을 육박한다. 이러한 단점으로 독점이 아닌 크로스 플랫폼을 지원하는 애플리케이션 스토어가 등장하지만 그 영향력을 발휘하기에는 역부족이다. 아래의 Table 1은 WIP에서 제공하는 애플리케이션 스토어 목록 중 스토어를 종류별로 분류하고 수를 나타낸 표이다.</p> <h1>3. OWS 구조</h1> <p>기존의 애플리케이션 스토어의 단점을 극복하기 위한 대안으로 본 논문에서는 OWS(Open Web Store)를 제안한다. OWS는 기존의 애플리케이션 스토어의 단점인 플랫폼에 종속적인 단점을 보완한다. 또한 사용자로 하여금 다양한 애플리케이션을 선택할 수 있게 하며 구글사와 애플사의 애플리케이션 시장 독점 현상을 대처할 수 있는 대안으로 제안한다. 현재 그 요구사항을 국내 표준화 기구(TTA)에 제출한 상태이다.</p> <p>애플리케이션 개발자가 애플리케이션을 판매할 경우 해당 단말기 운영체제에 맞는 애플리케이션 스토어에만 애플리케이션을 등록할 수 있다. 하지만 웹 애플리케이션 스토어는 표준 웹 언어로 애플리케이션을 제작하기 때문에 플랫폼에 구애받지 않고 다양한 애플리케이션 스토어에 업로드 할 수 있다. 또 애플리케이션 스토어 간 연동을 통해 다양한 애플리케이션을 유통할 수 있는 장점을 가지고 있다.</p> <p>OWS는 OMA에서 제안한 TAS를 토대로 설계한 애플리케이션 스토어 간 연동이 가능한 개방형 웹 애플리케이션 스토어다. Fig. 4에 기술한 OWS의 구조는 TAS의 Storefront 모듈에 연동 부분을 설계하여 추가함으로써 Extended Storefront 모듈을 설계한 것이다. 기존의 Storefront 모듈과 다른 점은 연동 모듈인 SAM(Shared App Management)모듈과 정책 모듈인 Policy 모듈, Policy Provider 모듈이 추가되어 있다. 또한 각 모듈들의 기능에 맞는 API들의 모음인 인터페이스도 각각 추가되었다. 우선 각 모듈들에 대하여 설명하고 전체적인 구조를 기술하겠다.</p> <h2>3.1 Policy</h2> <p>Policy 모듈은 크게 2가지 기능을 수행한다. 애플리케이션을 송신할 때와 애플리케이션을 수신할 때로 나뉜다. 애플리케이션을 송신할 때는 Policy 모듈이 애플리케이션의 상태를 확인한다. 처음 개발자가 애플리케이션을 등록할 때 검수 받는 과정과 유사하다. 애플리케이션의 정보 상태, 버전, 데이터, 용량 등이 초기에 Storefront 모듈에 등록되었을 때나 업데이트가 되었을 때의 최근 정보와 같은지 판단하고 다르다면 애플리케이션 전송을 거부하고, 검수가 통과된다면 수신 측 TAS에게 애플리케이션을 전송해도 된다는 결과를 SAM 모듈에 통보한다. 애플리케이션을 수신할 때는 애플리케이션을 송신 측 TAS에서 수신 측 SAM로 전송하면, 전송받은 애플리케이션에 대한 정보가 Policy Provider 모듈로부터 적용된 검수 정책과 수신 측 TAS의 조건에 부합하는지 확인하는 기능을 수행한다.</p>
|
애플리케이션 스토어에서 다루는 스마트폰 운영체제의 경우 가장 큰 비율을 차지하는 것이 구글사의 안드로이드OS를 다루는 애플리케이션 스토어 이고 두 번째 로는 애플사의 iOS를 다루는 애플리케이션 스토어가 많았다.기존의 애플리케이션 스토어의 단점을 극복하기 위한 대안으로 본 논문에서는 OWS(Open Web Store)를 제안한다.OWS는 기존의 애플리케이션 스토어의 단점인 플랫폼에 종속적인 단점을 보완한다. 또한 사용자로 하여금 다양한 애플리케이션을 선택할 수 있게 하며 구글사와 애플사의 애플리케이션 시장 독점 현상을 대처할 수 있는 대안으로 제안한다. Policy 모듈은 크게 2가지 기능을 수행하는데, 애플리케이션을 송신할 때, 애플레케이션을 수신할 때로 나뉜다.
|
<h1>2. 관련 연구</h1> <h2>2.1 웹 애플리케이션</h2> <p>아이폰 또는 안드로이드 플랫폼과 같은 고정된 특정 플랫폼에서만 동작하는 애플리케이션을 네이티브 애플리케이션이라고 한다. 이 네이티브 애플리케이션은 특정 플랫폼에서 해당 단말기의 성능을 최대한 사용할 수 있기 때문에 최적화된 애플리케이션을 사용할 수 있다. 반대로 웹 애플리케이션은 네이티브 애플리케이션에 비하여 단말기의 자원을 완전히 사용할 수 없기 때문에 네이티브 애플리케이션에 비하여 상대적으로 최적화되어 있지 못하다. 하지만 웹 애플리케이션의 장점은 웹상에서 애플리케이션이 동작하기 때문에 기존의 네이티브 애플리케이션이 가지고 있는 플랫폼 종속이라는 면에서 자유롭다.</p> <p>웹 애플리케이션은 차세대 웹 표준 언어인 HTML5를 기반으로 하여 웹 애플리케이션의 동작을 인식하는 자바스크립트와 GUI 부분을 담당하는 CSS3로 구성된다. 따라서 기존의 자바 개발자나 웹 개발자들이 쉽게 애플리케이션을 제작할 수 있다. HTML5는 기존의 HTML4나 XHTML에 비해 많은 발전이 이루어진 언어라서 써드파티 플러그인 없이도 많은 작업을 수행할 수 있게 되어 플랫폼에 종속적이지 않고 웹상에서 동작하는 더 나은 웹 애플리케이션을 제작할 수 있다. 또한, W3C에서 웹 애플리케이션을 위해서 모바일 기기에 대한 내부 자원에 접근할 수 있도록 device API를 만들고 있어 좀 더 단말기에 최적화된 웹 애플리케이션이 제작 가능하다.</p> <p>웹 애플리케이션의 단점인 느린 속도와 내부 자원을 비효율적으로 접근하는 방법을 개선하기 위해 기존의 웹 애플리케이션을 네이티브 애플리케이션으로 바꾸는 프로그램이 있다. 이러한 방법으로 만들어지는 애플리케이션을 하이브리드 애플리케이션이라고 하며 device API를 통하여 웹 애플리케이션을 감싸서 네이티브 애플리케이션으로 만들어 준다. 따라서 어떤 플랫폼에 대한 네이티브 애플리케이션으로 바꿀 수가 있고 특정 플랫폼의 애플리케이션 스토어에 등록하여 판매가 가능하다. 기본적으로 웹 애플리케이션이기 때문에 화면구성과 같은 부분은 네이티브 애플리케이션과 다르게 서버 측에서 동적으로 업데이트가 가능한 장점이 있다.</p> <h2>2.2 TAS(Telco Application Store)</h2> <p>OMA는 모바일 데이터 서비스의 범세계적 활성화를 위해 기술 규격 개발 및 상호 운용성을 검증하기 위한 포럼이다. TAS는 OMA(Open Mobile Alliance)에서 제안하는 애플리케이션 스토어의 구조이며, 이를 구성하기 위한 다양한 모듈, 모듈 사이의 인터페이스와 그 인터페이스에 해당하는 API로 구성되어 있다. 단일 애플리케이션 스토어의 독자적인 기능만 제안하고 있으며 본 논문에서 제안하는 OWS는 기존 TAS에 연동 모듈을 추가하여 웹 애플리케이션 스토어 하나의 독자적인 기능뿐만 아니라 스토어끼리 연동 모듈을 통하여 다양한 애플리케이션을 보유하는데 의의가 있다. Fig. 1은 TAS의 구조이며 총 6개의 모듈과 모듈간 6개의 인터페이스로 구성되어 있다. 모듈은 애플리케이션을 판매하는 스토어를 구성하는 주체이며 애플리케이션 구매, 판매, 검수 등 각 모듈은 그에 해당하는 기능을 수행한다. 인터페이스는 TAS의 각 모듈 간의 기능에 맞게 수행하는 API의 모음이다.</p>
|
아이폰 또는 안드로이드 플랫폼과 같은 고정된 특정 플랫폼에서만 동작하는 애플리케이션을 네이티브 애플리케이션이라고 하며 네이티브 애플리케이션은 특정 플랫폼에서 해당 단말기의 성능을 최대한 사용할 수 있기 때문에 최적화된 애플리케이션을 사용할 수 있다. OMA는 모바일 데이터 서비스의 범세계적 활성화를 위해 기술 규격 개발 및 상호 운용성을 검증하기 위한 포럼이며 TAS는 OMA(Open Mobile Alliance)에서 제안하는 애플리케이션 스토어의 구조이며, 이를 구성하기 위한 다양한 모듈, 모듈 사이의 인터페이스와 그 인터페이스에 해당하는 API로 구성되어 있다.
|
<h1>4. OWS 인터페이스의 API 리스트</h1><p>OWS의 API 리스트는 각 OWS 인터페이스마다 존재한다. OWS의 인터페이스에 있는 API는 연동하기 위해 필요한 기능 부분을 설계하였다. 현재 웹 애플리케이션 연동 프로토콜 요구사항은 국내 표준화 기구(TTA)에 제안한 상태이다. 각 OWS 인터페이스 별로 API 리스트를 설명한다.</p><h2>4.1 OWS-1</h2> <p>애플리케이션을 연동하기 위한 모듈인 SAM 모듈에서 Storefront 모듈에게 애플리케이션 리스트를 요청하거나 수신 측 Storefront 모듈에서 애플리케이션 연동 요청이 들어왔을 때 애플리케이션을 연동하는 기능, 또 다른 OWS에게서 받아온 애플리케이션이 송신 측 애플리케이션을 등록한 개발자나 불량 신고로 인해 삭제되었을 때 애플리케이션이 연동된 수신 측 애플리케이션도 삭제하기 위한 삭제 혹은 업데이트 연동 기능, 사용자의 구매, 환불에 의한 정보 연동 등에 대한 기능이 이루어지는 인터페이스다. 다음 Table 3은 OWS-1 인터페이스를 구성하는 API 리스트이다.</p> <h2>4.2 OWS-2</h2> <p>OWS-2 인터페이스는 연동하기 위해 송신 측 OWS의 SAM 모듈과 수신 측 OWS의 SAM 모듈 간의 인터페이스이다. 송신 측에서는 애플리케이션 리스트 혹은 애플리케이션 정보들을 Storefront에서 전송받은 뒤 수신 측 SAM으로 정보를 전달하는 기능을 수행한다. 다음 Table 4는 OWS-2 인터페이스를 구성하는 API 리스트이다.</p> <h2>4.3 OWS-3</h2> <p>OWS-3 인터페이스는 OWS-4와 OWS-5 인터페이스를 통해 검수받은 애플리케이션 및 인접 OWS에게 전송받은 애플리케이션을 등록하기 위해 Storefront에 전송하는데 사용되는 인터페이스이다. 다음 Table 5는 OWS-3 인터페이스를 구성하는 API 리스트이다.</p> <h2>4.4 OWS-4</h2> <p>OWS-4는 수신 측 OWS에서 전송받은 애플리케이션을 검수하는데 사용되는 인터페이스이다. 송, 수신하는 관점에서 두 가지의 기능을 수행한다. 애플리케이션 정보들을 전송할 때는 Storefront에 등록된 정보와 부합하고 변화가 있는지 등에 대한 정보를 검수하고 수신 측에서의 OWS-4 인터페이스는 수신 측 조건에 맞는지 검수하는 기능을 수행한다. 다음 Table 6은 OWS-4 인터페이스를 구성하는 API 리스트이다.</p> <h2>4.5 OWS-5</h2> <p>OWS-5 인터페이스는 OWS-4 인터페이스를 통한 애플리케이션 검수가 통과되지 않은 경우 지속적으로 해당 애플리케이션에 대한 보고서를 보내는데 사용되는 인터페이스이다. 다음 Table 7은 OWS-5 인터페이스를 구성하는 API 리스트이다.</p> <h2>4.6 OWS-6</h2> <p>OWS-6 인터페이스는 SAM에서 전송받은 애플리케이션을 검수하기 위한 내용 및 정책 등을 결정하기 위한 인터페이스이다. OWS는 지역에 따라 다른 이해관계나 정책 등을 결정하는 외부 모듈(Policy Provider)에서 Policy 모듈로 제공하는 기능을 수행한다. 외부 모듈이기 때문에 API가 존재하지 않으며 지역에 따른 검수 정책을 Policy 모듈에 공급하는 기능을 수행한다.</p> <h1>5. 연동 시나리오 및 구현</h1> <p>Fig. 7은 애플리케이션 송신 측 Storefront 모듈과 수신측 Storefront 모듈 간 애플리케이션 리스트 연동 후 리스트 목록에서 연동하길 원하는 애플리케이션을 요청하는 순서도이다.</p> <h2>5.1 연동 시나리오</h2> <p>연동 시나리오는 애플리케이션이 등록되어 있는 송신 측 Storefront 모듈은 데이터베이스에 애플리케이션 정보를 가지고 있다고 가정한다. SAM 모듈은 Storefront 모듈에 애플리케이션 리스트를 요청하고, 수신 측 Store의 SAM 모듈로 애플리케이션 리스트를 전송한다. 수신 측 SAM 모듈은 전송받은 애플리케이션 리스트를 수신 측 Storefront 모듈에 전송하며, 수신 측 Storefront 모듈은 송신 측 Storefront 모듈에서 전송받은 애플리케이션 리스트에 있는 애플리케이션 중 연동을 원하는 애플리케이션의 ID로 애플리케이션 요청을 하게 되고, 송신 측 Storefront는 서버의 데이터베이스에 저장된 해당 애플리케이션을 수신 Storefront 모듈로 전송하는 시나리오를 설계하였다.</p>
|
연동 시나리오는 송신 측 Storefront 모듈이 데이터베이스에 애플리케이션 정보를 가지고 있다는 가정하에, 수신 측 SAM 모듈은 리스트를 수신 측 Storefront 모듈에 전송, 수신 측 Storefront 모듈은 송신 측 Storefront 모듈에서 전송받은 애플리케이션의 ID로 애플리케이션 요청, 송신 측 Storefornt는 해당 애플리케이션을 수신 Storefront 모듈로 전송하는 시나리오를 설계하였다.
|
<h2>3.2 Policy Provider</h2> <p>Policy Provider 모듈은 External 모듈로 직접적으로 OWS에서 관여하지 않는다. 각 TAS별로 애플리케이션 검수 기준과 이해관계가 다르기 때문에 그 기준에 부합하는 정책을 각 TAS마다 다르게 부여한다. 외부 기관에서 TAS에 애플리케이션 검수하는데 필요한 조건을 보내고 TAS는 이 검수 정책에 맞게 애플리케이션 및 정보를 검수하는 기능을 수행한다.</p> <h2>3.3 SAM(Shared App Management)</h2> <p>SAM 모듈은 TAS내에서 실질적인 애플리케이션 연동을 위한 모듈이다. 애플리케이션 연동에 관한 모든 일들은 SAM 모듈을 거치게 된다. 한 웹 스토어에서 애플리케이션을 수신 측 TAS로 보내기 위해 최초로 수신 측 Store front 모듈에서 애플리케이션이나 리스트를 받아 Policy 모듈의 검수과정을 거친 후 송신 측 TAS의 SAM로 전송하는 과정을 수행하고, 애플리케이션을 수신할 때에도 Policy 모듈의 검수과정을 거친 뒤 Storefront 모듈로 애플리케이션을 전송하는 기능을 수행한다.</p> <h2>3.4 OWS 인터페이스</h2> <p>본 논문에서 제안하는 SAM 모듈, Policy Provider 모듈, Policy 모듈 간의 인터페이스는 총 6가지로 구성된다. 제안하는 6가지 인터페이스에는 그 기능을 수행하기 위한 API로 구성된다. 다음의 Table 2는 모듈 간 6가지의 인터페이스의 기능에 대한 표이다.</p> <h2>3.5 모듈 간 연동 송신, 수신 순서도</h2> <p>Fig. 5는 OWS간 애플리케이션을 공유하기 위해 송신 측에서 수행되는 인터페이스 흐름을 보여주는 순서도 이다. 수신 측 OWS의 Storefront 모듈로 애플리케이션을 연동하기 위한 모듈인 SAM 모듈로 애플리케이션의 리스트 및 관련 정보들을 전송한다. 이 후 애플리케이션의 이상 유무 확인을 위해 Policy 모듈에서 검수확인을 거친 뒤 연동을 하기 위한 수신 측 OWS의 SAM 모듈로 애플리케이션 리스트 및 관련 정보들을 전송한다.</p> <p>Fig. 6은 OWS간 애플리케이션을 공유하기 위해 수신 측에서 수행되는 인터페이스 흐름을 보여주는 순서도 이다.송신 측에서 전송 받은 애플리케이션 관련 정보를 Storefront 모듈로 전송하기 전 해당하는 국가나 지역 혹은 OWS에 정책, 이해관계에 의해서 제한되는 내용에 대해 Policy 모듈에서 검수작업을 거치게 된다. 검수작업을 마친 애플리케이션은 최종적으로 다른 OWS에 등록이 되기 위해 Storefront 모듈로 애플리케이션을 전송하게 된다. 연동이되는 마지막 과정은 애플리케이션 연동을 요청해온 OWS에결과를 전송한다.</p> <h1>4. OWS 인터페이스의 API 리스트</h1> <p>OWS의 API 리스트는 각 OWS 인터페이스마다 존재한다. OWS의 인터페이스에 있는 API는 연동하기 위해 필요한 기능 부분을 설계 하였다. 현재 웹 애플리케이션 연동 프로토콜 요구사항은 국내 표준화 기구(TTA)에 제안한 상태이다. 각 OWS 인터페이스별로 API 리스트를 설명한다.</p>
|
Policy Provider 모듈은 External 모듈로 OWS에 직접적으로 관여하지 않으며 SAM 모듈은 TAS 내에서 실질적인 애플리케이션 연동을 위한 모듈이다. 제안하는 6가지 인터페이스에는 그 기능을 수행하기 위한 API로 구성된다. 모듈 간 연동 송수신에 있어서는 수신 측인 SAM 모듈로 애플리케이션의 리스트 및 관련 정보들을 전송하며 송신 측에서 전송받은 애플리케이션 관련 정보를 Storefront 모듈로 전송하기 전 Policy 모듈에서 검수작업을 거치게 된다.
|
<h2>3. 특징점 재검출</h2><p>특징점 추적에 사용된 LKT는 그림 6과 같이 추적된 특징점이 취득된 영상 프레임 밖으로 특징점이 벗어날 경우 더 이상 추적할 수 없다는 단점이 있다. 이러한 문제점을 보완하기 위해 그림 7과 같이 추가로 특징점을 검출하고, 이를 카메라 위치 정보 계산에 사용한다. 재검출된 2차원 특징점은 초기화 단계에서 사용된 특징점의 2차원 좌표가 3차원 좌표로 변환되는 방법과 유사하게 3차원 좌표로 변환한다. 하지만 초기화 단계에서 수행했던 변환 방법과는 조금은 다르다. 검출된 특징점이 동일 평면상에 놓여있다고 가정하고 수행했던 초기화 단계와 달리, 이후 연속된 프레임에서는 재검출된 특징점의 3차원 좌표의 깊이 값을 0이라고 가정할 수 없다. 따라서 먼저 재검출을 수행한 프레임에서 이미 추적하고 있던 특징점인 2차원 좌표 \( \widetilde{\mathrm{m}} \)와 변환한 3차원 좌표 \( \widetilde{\mathrm{M}} \) 간의 관계인 \( \widetilde{\mathrm{H}} \) 행렬을 식 (8)과 같이 구한다. \( \widetilde{\mathrm{H}} \) 행렬은 2차원 공간상의 사영변화행렬(perspective transformation matrix)로써, 검출된 특징점이 동일 평면상이라는 가정 때문에 이와 같은 관계가 성립된다. (8)에서 구한 \( \widetilde{\mathrm{H}} \) 행렬을 식 (9)에 적용함으로써, 새로 검출된 2차원 특징점 좌표 \( \tilde{n} \)의 3차원 좌표 \( \tilde{\mathrm{N}} \)을 얻을 수 있다.</p><p>\( \mathrm{H}\left[\begin{array}{cccc}m_{1 x} & m_{2 x} & \ldots & m_{n x} \\ m_{1 y} & m_{2 y} & \ldots & m_{n y} \\ 1 & 1 & \ldots & 1\end{array}\right]=\left[\begin{array}{cccc}M_{1 x} & M_{2 x} & \ldots & M_{n x} \\ M_{1 y} & M_{2 y} & \ldots & M_{n y} \\ 1 & 1 & \ldots & 1\end{array}\right] \)<caption>(8)</caption></p><p>\( \mathrm{H}\left[\begin{array}{cccc}n_{1 x} & n_{2 x} & \ldots & n_{n x} \\ n_{1 y} & n_{2 y} & \ldots & n_{n y} \\ 1 & 1 & \ldots & 1\end{array}\right]=\left[\begin{array}{cccc}N_{1 x} & N_{2 x} & \ldots & N_{n x} \\ N_{1 y} & N_{2 y} & \ldots & N_{n y} \\ 1 & 1 & \ldots & 1\end{array}\right] \)<caption>(9)</caption></p>
|
본 논문은 LKT를 사용해 추적한 특징점은 취득된 영상 프레임 영역을 벗어날 경우 더 이상 추적할 수 없기에 추가로 특징점을 검출해 카메라의 위치 정보 계산을 한다는 걸 설명하고 있다. 먼저 재검출 한 프레임에서 이미 추적하고 있던 특징점인 2차원 좌표와 변환한 3차원 좌표 간의 관계를 나타내는 행렬을 구하는 수식과, 이 식을 통해 새로 검출된 2차원 특징점 좌표의 3차원 좌표를 얻을 수 있는 식을 확인할 수 있다.
|
<h1>I. 서 론</h1><p>증강현실(AR: Augmented Reality)은 가상과 실사의 영상들이 정합(registration)되어 사용자에게 새로운 형태의 컴퓨팅 환경을 제공한다. 현실 세계를 가상 세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상 환경과 연계되어 구현된다. 하지만 기본적으로 현실 환경을 주축으로 구현되며, 컴퓨터 그래픽은 현실 환경에 필요한 정보를 추가로 제공하는 역할을 한다. 사용자가 보는 실사 영상과 3차원 가상 영상의 융합을 통해서 현실 환경과 가상의 컴퓨터 그래픽의 구분이 모호해짐으로써 현실 환경의 확장을 가져다준다. 무엇보다 직관적 인터페이스(perceptual interface)와 유비쿼터스 컴퓨팅(ubiquitous computing) 등에 대한 응용 가능성으로 다양한 형태의 증강현실 기반 프로그램들이 연구되고 있다. 최근 스마트폰 기반으로 출시되는 다양한 프로그램들은 GPS(Global Positioning System) 센서, 전자 나침반등을 사용하여 2차원 정보를 실사 영상에 정합하는 형태이다. 위와 같은 접근 방법은 간단하게 증강현실 시스템을 구성할 수 있다는 장점이 있지만, 3차원 객체를 정합을 위한 카메라 위치 정보를 계산할 수 없기 때문에 실질적인 의미인 현실 환경의 확장이라는 증강현실 시스템 구현에는 어려움이 있다. 이에 반해 별도의 다른 입력장치 없이 카메라를 이용하는 방법은 카메라에서 취득한 영상만을 이용하여 시스템을 구성한다. 카메라를 사용한 시스템은 영상으로부터의 3차원 기하학 정보 취득 기술을 기반으로 구현된다. 이를 위해서는 배경 영상의 2차원 공간과 실제 좌표계의 3차원 공간 사이의 사영 관계를 이용하여 카메라 위치 정보를 취득하기 위한 정확한 계산 과정이 필수적이다. 계산된 카메라 위치 정보를 통해 3차원 객체를 정합시킴으로써 실질적 의미의 증강현실 시스템을 구성할 수 있다.</p><p>일반적으로 카메라를 이용한 시스템은 취득한 영상에서 미리 지정된 특정한 형태의 마커(marker) 정보를 추출하고, 마커의 위치 정보를 통해서 카메라 위치 정보를 계산한다. 마커 기반의 시스템은 무엇보다 간단하게 증강현실 시스템을 구현할 수 있다는 장점이 있다. 하지만 카메라 취득 영상 내에 마커가 존재하지 않거나 마커의 일부가 가려짐 등으로 인해 마커 정보 추출이 불가능한 경우 시스템 구동이 되지 않는 단점을 가지고 있다. 또한 시스템 구동을 위해서는 특정한 형태의 마커가 항상 요구되어 사용자 접근이 불편하다는 단점을 가지고 있다. 이러한 이유로 최근 특정한 마커 형태를 사용하지 않고 배경 영상에서 취득할 수 있는 객체를 자연마커로 생성하여 마커로 사용한 시스템이나, 배경 영상에서 검출한 특징점을 통해 객체의 위치 인식 및 지도를 작성한 증강현실 시스템들이 관심을 받고 있다. 무엇보다 위와 같은 시스템들의 장점은 미리 지정된 특정한 형태의 마커를 사용하지 않기 때문에 사용자의 접근이 편리하여 보다 자연스러운 의미의 증강현실 시스템을 구성 할 수 있다는 것이다.</p><p>본 논문에서는 위와 같은 연구들과 마찬가지로 마커 기반의 증강 현실 시스템의 문제점을 보완하기 위해서, 특정한 형태의 마커를 사용하지 않고 카메라에서 취득한 영상만을 가지고 특징을 검출하여 카메라의 위치 정보를 계산하는 방법을 제안한다. 제안하는 기법은 배경 영상 내 동일 평면상의 특징점을 검출하고, 광류(optical flow) 방법으로 특징점을 추적함으로써 수행된다. 최초 검출한 특징점과 이후 추적된 특징점의 관계를 계산하여 3차원 객체 정합에 필요한 카메라 위치 정보를 계산할 수 있다. 제안된 방법은 미리 지정된 마커를 사용하지 않기 때문에 사용자의 접근이 편리하고 특정한 형태의 마커를 사용하지 않는 다른 시스템보다 비교적 간단하게 구현할 수 있어 다양한 모바일 환경에서 유용하게 이용될 수 있을 것으로 예상한다.</p><p>본 논문의 구성은 다음과 같다. Ⅱ장에서는 제안된 기하학 정보 추정 기법에 대해서 설명한다. 그리고 Ⅲ장에서 제안된 기법에 대한 실험 결과를 보이고, Ⅳ장에서 결론 및 향후 연구 계획을 논한다.</p>
|
배경 영상 내 동일 평면상의 특징점을 검출하고, 광류 방법으로 특징점을 추적함으로써 마커 기반의 증강 현실 시스템 문제를 보완하고 카메라 취득한 영상만을 가진 특징을 검출하여 카메라의 위치정보를 계산하는 방법을 제안한다. 제안된 방법의 장점으로는 사용자의 접근이 편리하고 다른 시스템보다 간단하게 구현하여 모바일 환경에서 유용할 것으로 예상한다.
|
<h1>II. 제안된 기법의 개요</h1><p>본 논문에서 제안하는 기법에 대한 간략한 개념도를 그림 1에 보인다. 사용자는 모바일 기기를 사용하여 가상의 3차원 객체를 정합시킬 영역을 편의에 따라 설정하여 자연마커로 생성한다. 해당 영역에서 특징점 검출 및 추적을 이용하여 가상의 3차원 객체를 그림과 같이 정합할 수 있다. 제안된 방법의 수행과정은 그림 2에 보인다. 가상의 3차원 객체를 카메라로부터 취득된 영상에 정합하기 위해, 먼저 취득된 영상으로부터 특징점을 검출한다. 검출된 2차원 특징점의 좌표를 3차원 공간상의 좌표로 변환하고, 이후 카메라에서 취득된 연속된 프레임마다 최초 프레임에서 검출된 2차원 좌표의 특징점을 추적한다. 최초 프레임에서 검출되어 변환한 특징점 좌표와 추적된 특징점 좌표 간의 상관관계를 이용하여 카메라 위치 정보를 계산하고, 이를 통해 3차원 객체의 정합을 한다. 특징점 검출 및 3차원 좌표로 변환은 시스템의 초기화 단계에 해당하고, 이것은 그림 3에서 보듯이 객체가 정합되는 위치를 결정하게 된다. 하지만 카메라 입력 영상이 2차원 정보만을 가지고 있기 때문에 객체의 3차원 관계를 정의할 수 없다. 따라서 초기화 단계는 해당 프레임에서 카메라가 배경 영상의 수직 방향에 위치함을 가정하고, 검출된 모든 특징점이 동일한 평면상에 위치한다는 전제하에 수행된다. 이후 연속된 프레임에서 수행하면서 초기화 단계에서 검출한 특징점을 추적하고, 특징점의 추적 여부에 따라 재검출을 수행하여 객체의 정합을 유지한다.</p><h2>1. 특징점 검출 및 추적</h2><p>취득한 영상 내 검출한 특징은 매 프레임마다 동일한 배경 영상 내 특징으로 검출되어야 하기 때문에, 일반적으로 밝기 값의 변화가 급격하게 변화하여 큰 미분 계수를 갖는 코너점을 검출하는 것이 유리하다. 제안하는 알고리즘에서는 코너점과 같은 추적하기 좋은 특징점을 검출하기 위해 Shi-Tomasi 검출 방법을 사용한다. 일반적으로 가장 널리 사용되는 해리스 코너 검출 방법(Harris corner detection)은 영상 밝기 값의 2차 미분 값을 이용한다. 영상 내 각각의 화소에서 2차 미분으로 구성된 헤시안 행렬(hessian matrix)의 고유값(eigenvalue)이 모두 큰 값을 가질 경우 해당 화소를 코너라고 간주한다. 2차 미분 영상은 균일한 기울기(gradient)에서 값을 가지지 않기 때문에 코너 검출에 유용하다. 반면에 Shi-Tomasi 코너 검출 방법은 헤시안 행렬의 2개의 고유값에서 작은 고유값의 크기가 특정 임계치보다 큰 경우 해당 화소를 추적하기 좋은 대상으로 판별한다.</p><p>검출한 특징점의 기하학적인 측정치를 추출하기 위해서는 정수형 화소 좌표 대신에 실수형의 좌표를 사용해야 한다. 일반적으로 영상에서 뾰족한 정점(peak)을 찾을 때, 이 점이 화소의 정중앙에 위치하는 경우는 드물다. 이를 위해 서브 픽셀 코너 검출방법(sub-pixel corner detection)을 사용한다. 포물선과 같은 곡선을 이용한 적합(fitting)을 수행함으로써 화소들 사이에 존재하는 정점의 좌표를 찾는다.</p><p>검출한 특징점을 추적하는 방법은 LKT(Lukas-Kanade Tracker)을 사용한다. 이 방법은 미리 지정된 화소들 위에 씌워진 작은 윈도우로부터 얻은 지역 정보만을 이용하고, 추적할 점을 미리 지정하여 수행하는 희소 광류 방식(sparse optical flow)이다. LKT는 밝기 항상성(brightness constancy), 시간 지속성(temporal persistence), 공간 일관성(spatial coherence)의 3가지 가정에 기초를 둔다. 밝기 항상성은 연속된 특정 화소들의 밝기 값이 다른 시간의 프레임에도 일정하다는 가정이다. 따라서 식 (1)에서 시간축 \(t\)에 대한 편미분 값이 0이다. 이를 통해 동일한 밝기 값을 가진 영역을 추적함으로서 연속된 프레임 간의 속도의 양을 계산할 수 있다. \( I_{x}, I_{y}, I_{t} \)는 각각 \(x\), \(y\), 시간축의 편미분 결과이고, \(u\), \(v\)는 \(x\), \(y\)축의 좌표 변화량을 의미한다. 공간 일관성은 시간에 따라 이동 변화량을 갖는 특정 화소의 주변 화소들이 일관된 좌표의 변화량을 가질 것이라는 가정이다. 식 (1)에서 하나의 함수로 두 개의 변수 \((u, v)\)를 계산할 수 없기에 근방 25개의 화소들이 동일한 변화량을 갖는다는 가정으로 식 (2)과 같이 변수 \(u\), \(v\)의 값을 최소자승법을 통해 계산할 수 있다.</p><p>\( \frac{\partial I}{\partial x}\left(\frac{\partial x}{\partial t}\right)+\frac{\partial I}{\partial y}\left(\frac{\partial y}{\partial t}\right)+\frac{\partial I}{\partial t}=0 \\ \frac{\partial I}{\partial x}=I_{x}, \frac{\partial I}{\partial y}=I_{y}, \frac{\partial I}{\partial t}=I_{t}, \frac{\partial x}{\partial t}=u, \frac{\partial y}{\partial t}=v \)<caption>(1)</caption></p><p>\( \left[\begin{array}{cc}I_{x}\left(p_{1}\right) & I_{y}\left(p_{1}\right) \\ I_{x}\left(p_{2}\right) & I_{y}\left(p_{2}\right) \\ \ldots & \ldots \\ I_{x}\left(p_{25}\right) & I_{y}\left(p_{25}\right)\end{array}\right]\left[\begin{array}{l}u \\ v\end{array}\right]=-\left[\begin{array}{c}\sum I_{x} I_{t} \\ \sum I_{y} I_{t}\end{array}\right] \)<caption>(2)</caption></p><p>LKT는 시간 변화량에 비해서 좌표 변화량이 크지 않다는 시간 지속성을 가정하여 작은 지역 윈도우 영역을 사용하기 때문에 연산속도가 빠르다. 하지만 작은 지역 윈도우 크기보다 큰 움직임이 발생하였을 경우에는 움직임을 계산하지 못하는 단점이 있다. 이러한 문제점을 해결하기 위해 가우시안 영상 피라미드(gaussian image pyramid)를 이용한 방법이 사용된다. 본 영상으로부터 가우시안 영상 피라미드를 구성하고, 크기가 작은 계층에서 추적을 시작하여 점점 크기가 큰 계층으로 갈수록 추적 변화량을 누적하여, 제한된 크기의 윈도우를 사용하여도 급격한 좌표의 변화량을 검출할 수 있다.</p>
|
사용자는 모바일 기기를 사용하여 가상의 3차원 객체를 정합시킬 영역을 편의에 따라 설정하여 자연마커로 생성하고, 해당 영역에서 특징점 검출 및 추적을 이용하여 가상의 3차원 객체를 정합할 수 있다. 취득한 영상 내 검출한 특징은 매 프레임마다 동일한 배경 영상 내 특징으로 검출되어야 하기 때문에, 일반적으로 밝기 값의 변화가 급격하게 변화하여 큰 미분계수를 갖는 코너점을 검출하는 것이 유리하다. 검출한 특징점의 기하학적인 측정치를 추출하기 위해서는 정수형 화소 좌표 대신에 실수형의 좌표를 사용해야 하며, 검출한 특징점을 추적하는 방법은 LKT를 사용한다.
|
<h1>요 약</h1> <p>모델 체킹 방법은 가능한 모든 경우를 자동으로 확인할 수 있으며, 코드가 구현되기 이전의 명세서나 디자인의 검증에도 적용할 수 있어 고위험 시스템의 검증에 활발히 적용되어왔다. 그러나 이러한 엄밀한 검증기법에 대한 일반적인 이해 부족과 테스팅에 비해 높은 검증 비용으로 인하여, 일반적인 소프트웨어들은 여전히 인력에 의한 테스팅과 같은 기초적인 방법에 의존하여 검증이 수행되고 있다. 본 논문에서는 그 대표적인 예인 온라인 게임 서버를 대상으로, SPIN 모델 체커(SPIN model checker)를 이용한 자동화 검증 방법을 적용하는 실험적인 연구를 수행하여 검증 비용 대비 효과에 근거한 적용성을 판단하였다. 연구 결과, \( 5 \sim 7 \mathrm { ~GB } \) 이내의 메모리와 10분 이내의 시간 내에서 온라인 게임 서버 파티 시스템의 주요 득성들을 검증할 수 있음을 보였고, 이 과정에서 기존에 파악하지 못한 오류도 검출하였다. 이로부터 인력에 의한 테스팅에 비해 납득할만한 수준의 검증 비용으로 엄밀하고 효과적인 검증이 가능하다는 결론을 도출할 수 있었다.</p> <h1>1. 서 론</h1> <p>오늘날 우리는 수많은 정보통신기술(Information and Communication Technology, ICT) 시스템에 둘러싸여 있다. 가깝게는 우리 손에 들려 있는 스마트폰부터 시작해서 의료 기기, 인터넷 뱅킹, 항공권 발매 시스템 등 ICT 시스템이 없는 생활은 상상하기 어렵다. 그에 맞춰 신뢰할 수 있는 ICT시스템에 대한 요구도 커지고 있다. 신뢰할 수 없는 ICT 시스템의 경우 스마트폰 오작동과 같은 가벼운 오류를 유발할 수도 있지만 인텔 펜티엄 부동소수점 연산 오류로 인한 교환 사태 및 Therac-25 방사선 치료기기로 인한 사망사건 같은 치명적인 결과를 초래할 수도 있다. 다행히 고위험 시스템(Critical system)의 경우 대부분의 사람들이 시스템 신뢰도의 중요성을 잘 알고 있고 다양한 검증(Verification)방법을 사용하고 있다.</p> <p>반면 오류 대응 비용이 상대적으로 적은 시스템의 경우 소프트웨어 검증 절차가 간략한 경우가 많다. 대표적으로</p> <p>온라인 게임 서버를 들 수 있는데, 이는 상시 서비스를 제공하는 시스템임에도 불구하고 비용의 문제에 의해 주로 인력에 의한 테스팅과 단위 테스팅(Unit testing)에 의존하고 있다. 하지만 온라인 게임 서버는 대량의 사용자가 동시에 서비스를 제공받기 때문에, 잠재적인 오류는 다수의 사용자에게 동시에 불편을 유발할 수 있는 큰 장애를 가져올 수 있다.</p> <p>따라서 본 연구에서는 온라인 게임 서버에서 특정 모듈을 사례로 엄밀한 검증 방법인 모델 체킹(Model checking)을 수행하고, 이에 대한 검증 비용이 실제로 타당한지를 파악하는 실험적인 연구를 수행한다. 이를 위해 온라인 게임 서버를 모델링한 예시 및 검증하고자 하는 속성을 설명하고, 실제 모델 체킹 결과 및 검증에 소요된 비용에 대해 논의한다.</p>
|
오늘 날 신뢰할 수 있는 ICT시스템에 대한 요구가 커지고있다. 그래서 본문에서는 온라인 게임 서버를 대상으로 SPIN 모델 체커를 이용한 자동화 검증 방법을 적용하여 검증 비용 대비 효과에 근거한 적용성 연구하였다. \( 5 \sim 7 \mathrm { ~GB } \) 이내의 메모리와 10분 이내의 시간 내에서 온라인 게임 서버 파티 시스템의 주요 득성들을 검증하고 이 과정에서 기존에 파악하지 못한 오류도 검출 하였으며 인력에 의한 테스팅에 비해 납득할만한 수준의 검증 비용으로 엄밀하고 효과적인 검증이 가능하다는 결론을 내었다.
|
<p>p2의 경우에 다른 LTL식들에 비해 많은 자원이 필요한 것을 알 수 있는데 이는 LTL식에 포함된 시제연산자 수의 차이로 인한 것이다. LTL식 검증의 시간 복잡도는 \( | \phi| \)가 LTL식의 길이(시제연산자 수), \( | \mathrm { S } | \)가 상태의 개수일 때 \( \mathrm { O } \left (| \mathrm { S } | \cdot 2 ^ { | \phi| } \right ) \)이며, 다른 LTL식들이 [] 하나의 시제연산자만을 포함하고 있는 것에 비하여 p2는 [] 와 W, 두 개의 시제 연산자를 포함하고 있다.</p> <p>Table 10은 다른 설정은 동일하게 하고 전체 사용자 수만 조정했을 때의 메모리 사용량과 처리 시간을 보여주는데 전체 상태 증가에 따른 소요자원의 지수적 증가를 쉽게 확인할 수 있다.</p> <h1>6. 결론 및 향후 연구</h1> <p>본 논문에서는 게임서버의 파티시스템에 SPIN 모델 체커를 이용한 자동화 검증 시스템을 적용하였다. 검증 대상이 된 파티 시스템이 어느 정도 정형화된 상태이고 내부 테스팅이 진행된 후라 심각한 오류는 발견되지 않았다. 하지만 테스팅으로 발견하지 못한 오류를 발견할 수 있었고 검증 비용도 현재의 데스크톱 컴퓨터로 무리가 없는 수준이었다.</p> <p>다만 모델링 과정에서 세심한 주의가 필요하고 Table 10에서 볼 수 있듯 허용하는 자원에 맞는 시스템 모델링의 규모를 정할 때도 많은 시행착오를 거치게 된다. 아직까지 그다지 사용자 친화적이지 않은 SPIN 작업환경도 많은 개선의 여지가 있다. 그럼에도 불구하고 일반적인 소프트웨어 프로젝트에서 테스팅이 차지하는 시간과 비용이 대략 \( 50 \% \)라는 사실을 고려해본다면 모든 상태를 검사할 수 있고 자동화되어있다는 점에서 중요도가 크면서 복잡도가 높지 않은 시스템의 추가적인 검증 방법으로 고려할만하다.</p> <p>그 예로 게임 아이템 거래를 들 수 있는데 아이템 판매는 온라인 게임 매출의 절반 이상(2013년 기준 \(54.7 \% \)을 차지할 정도로 중요하지만, 관련된 오류는 끊임없이 나타나고 있으며 이로 인해 정상 사용자를 제재하는 경우까지 발생하였다. 이러한 오류들은 대부분 초기 작업 및 업데이트 과정에서 발생한 일반적이지 않은 오류 발생 경로를 기존 검증 과정에서 검출하지 못할 때 발생하므로 모델 체킹 방법을 사용하면 오류 발생 빈도를 상당히 낮출 수 있다. 또한 개인정보 보호와도 밀접한 관계가 있는 사용자 인증 처리도 시스템의 복잡도에 비해 그 중요성이 훨씬 크므로 충분히 적용할 가치가 있을 것으로 판단한다.</p>
|
p2는 LTL 식보다 많은 자원을 필요로 하며 사용자 수를 조정했을 때 전체 상태가 증가하면 소요자원은 지수적으로 증가함을 알 수 있었다. 본 논문에서는 게임서버 파티시스템에 SPIN을 이용한 검증 시스템을 적용했고 테스팅에서 발견치 못한 오류를 발견했다. SPIN 환경이 아직 사용자 친화적이지는 않지만 전체 상태를 검사할 수 있고 자동화되어 있으며, 특히 게임 아이템 거래 오류 발생 시 모델 체킹 방법을 통해 발생 빈도를 낮출 수 있다.
|
<p>게임 사용자를 나타내는 모델은 Table4 와 같으며 해당 프로세스는 모든 메시지를 임의로 보내도록 모델링되었다.</p> <h2>4.3 게임 서버</h2> <p>서버는 메시지 큐에서 메시지를 하나씩 꺼내 해당 메시지 종류에 맞는 처리를 수행한다. 메시지는 메시지 종류에 해당하는 핸들러에서 처리된다.</p> <p>아래 Table 6은 메시지 핸들러 중 하나인 OnInvite()를 나타낸다.</p> <p>Table 6의 ":: else” 앞에 나타나는 부분들은 해당 메시지의 요청이 유효한 요청인지 검증하는 부분으로, 이는 실제 게임서버의 검증 절차와 동일하다.</p> <p>사용자 및 서버 프로세스를 생성하는 초기화 모델은 아래 Table 7과 같으며, 해당 모델은 다수의 사용자 프로세스와 하나의 서버 프로세스를 생성한다.</p> <h2>4.4 검증 특성</h2> <p>본 논문에서는 서버 파티 시스템 정보의 완전성(Integrity)검증에 초점을 맞춘다. 검증할 특성을 표현한 LTL식들은 아래 Table 8과 같으며 지면관계상 유사한 식들은 제외하였다.</p> <h1>5. 결 과</h1> <p>검증을 수행한 환경은 다음과 같다.</p> <ul> <li>OS : MS Windows7 \(64- \mathrm { bit } \)</li> <li>CPU : Intel i7-3770@ \(3.40 \mathrm { GHz } \),</li> <li>Memory : \( 12 \mathrm { GB } \)</li> <li>Spin Version : 6.3.2</li></ul> <p>또한 메모리 사용량을 줄이기 위해 해시 압축(hash com-paction) 옵션을 사용하였다. 아래 Table 9는 검증에 사용된 설정과 각각의 특성을 검증하기 위해 소요된 자원 및 그 결과를 나타낸다.</p> <p>주요 검증 설정값인 전체 사용자 수, 전체 파티 수 및 최대 파티원 수는 메모리제약 때문에 파티 시스템 제어 중 발생 가능한 경우를 모두 포함하는 범위 내에서 최소화하였다.</p> <p>검증 결과 LTL 식 p6의 검증이 실패했는데, 이는 파티 생성 시 파티원들의 초대 상태 초기화의 문제로 인한 것이었다. 예를 들면, 초대한 사용자 U0와 승낙한 사용자 U1으로 새로운 파티를 만드는 순간, 다른 사용자 U2가 U0와 U1에게 동시에 초대를 보낸 상태였다고 하면, 파티 생성 과정에서 U2가 U1에게 보낸 초대는 정상적으로 초기화(제거)하는 데 비해 U2가 U0에게 보낸 초대는 초기화하지 않고 있었다. 반례의 분석 결과 현재 파티 시스템에 치명적인 문제를 야기하는 오류는 아니었다. 그러나 초기화 오류는 시스템의 안전성과 신뢰도를 저해하는 주요 원인 중의 하나로 알려져 있다.</p> <p>또한 검증 결과 최대 12분의 시간과 \( 7 \mathrm { GB } \)의 메모리가 소요되었으며, 이는 최근 일반적인 장비로도 충분히 소화할 수 있는 비용이다. 이와 같이 납득할만한 비용 내에서 모델 체킹을 이용한 검증을 수행할 수 있다는 것을 확인할 수 있었다.</p>
|
이 논문은 서버 파티 시스템 정보의 완전성 검증에 집중하며, 메시지 핸들러인 OnInvite()에 대해 살펴보았다. 주요 검증 설정값인 전체 사용자 수, 전체 파티 수, 최대 파티원 수는 메모리 제약으로 인해 파티 시스템 제어 중 모든 경우를 포함하는 범위 내에서 최소화하였다. 검증 결과, 파티원들의 초대 상태 초기화 문제로 인해 LTL 식 p6의 검증이 실패한 것으로 확인되었다. 그러나 이 검증 과정에서 소요된 시간과 메모리는 현재 일반적인 장비에서도 충분히 감당할 수 있음을 알려주었다.
|
<h1>2. 모델 체킹</h1> <p>모델 체킹이란 시스템을 추상화한 모델에 대해, 해당 모델이 시스템에서 반드시 만족해야 할 특성들을 만족하고 있는지를 확인하는 방법이다. 모델 체킹을 위해서는 우선 모델 명세 언어를 활용해 모델을 작성하고, 시제 논리를 활용해 시스템이 만족해야 하는 검증 특성을 표현해야 한다. 모델 체킹 도구는 모델과 검증 특성을 입력받아, 수학적 논리 증명과정을 통해 해당 모델이 검증 특성을 만족하는지를 입증하고, 만약 검증이 실패한다면 이에 대한 반례를 사용자에게 제공한다. 사용자는 이 반례를 활용해 소프트웨어에서 발생할 수 있는 위험성을 파악하고, 모델 혹은 검증 대상 시스템을 수정할 수 있다. Fig. 1은 이에 대한 과정을 도식화한 것이다.</p> <p>모델 검증 도구 SPIN은 오픈 소스 소프트웨어로서 동시성(concurrency)을 갖는 소프트웨어 시스템의 검증에 주로 사용한다. SPIN에서 모델은 정형 명세 PROMELA로 표현되고, 검증 특성은 LTL(Linear Temporal Logic)의 형태로 표현된다. PROMELA는 비결정적 오토마타 및 비동기적 분산 프로세스의 설계를 지원한다. 또한 메시지 채널을 이용해 메시지의 동기적/비동기적 통신 모델링이 가능하다. 본 논문의 검증 대상인 온라인 게임 서버의 경우, 서버-사용자 형태의 분산 시스템으로 구성되며 메시지를 통해 통신하기 때문에 해당 기능들을 제공하는 PROMELA로 표현하기 적합한 시스템이다.</p> <p>SPIN은 우주 임무를 위한 다수의 알고리즘이나, 차량 전장용 운영체제[9] 등의 안전중요성 시스템 검증에 성공적으로 활용되었다.</p> <p>PROMELA는 C와 유사한 문법을 사용하며 Table 1에서 기본적인 예제 코드를 볼 수 있다. 이 예제는 두 고객과 그들의 주문을 처리하는 점원을 모델링하고 있으며 재고가 부족한 상황이 발생할 수 있는지를 검증하고 있다. 시작은 init 프로세스에서 하게 되며 init 내에서 하나의 점원 프로세스(ProcClerk)와 두 개의 고객 프로세스(ProcCustomer)를 실행한다. 이 네 개의 프로세스들은 임의의 순서대로 실행 될 수 있으며 SPIN 모델 체커에서 가능한 모든 상황들을 확인하게 된다. 고객 프로세스는 주문 채널(g_orderChannel)을 통해 점원과 통신하게 되며 if 구문과 3개의 skip 구문은 무작위 선택을 위한 것이다. 결과적으로 고객 프로세스는 주문 채널에 한 개 상품 주문, 두 개 상품 주문, 세 개 상품 주문 중 하나를 전달한 후 종료한다. 점원 프로세스는 do 무한루프 내에서 주문 채널로 들어온 주문량을 확인해 재고 수량(g_stock)에서 빼는 처리를 반복 수행한다. 여기서 검증 하고자 하는 것은 초기 재고 수량이 5일 때 두 명의 고객을 처리하는 과정에서 재고가 부족한 경우가 발생할 수 있는지를 확인하려는 것으로 LTL식 \( \mathrm{p} 0 \) 로 나타냈다. LTL식 p0는 재고 수량이 항상(“[]”연산자) 0 이상이어야 한다는 것으로 이 조건을 만족하지 못하는 경우가 있으면 검증은 실패한다. 두 고객 모두 3개씩 주문할 때 재고 수량이 -1이 되고 이 경우를 확인한 SPIN 모델 체커는 실패를 반환한다.</p> <p>Table 1이 나타내는 시스템의 상태들을 그래프로 나타내면 Fig. 2와 같다. 스핀 모델 체커는 해당 그래프를 깊이 우선 탐색으로 순회하면서 LTL식 p0가 만족하는지 확인하며 점선으로 표시된 실패 경로에 이를 때 실패 경로와 함께 오류를 반환하게 된다.</p> <p>Fig. 2에서도 쉽게 볼 수 있듯이 전체 상태의 개수는 지수적으로 증가하게 되는데 이에 따라 메모리 사용량과 처리 시간도 같이 늘어나게 된다. 이 문제를 해결하기 위해 다양한 최적화 기법에 대한 연구가 진행되었으며[10], 이러한 기법들과 가용 메모리 증가로 인한 결과를 Fig. 3에서 볼 수 있다. Fig. 3은 벨 연구소에서 실험용 전화기 스위치를 대상으로 20 년에 걸쳐 진행한 것으로 모델 체킹의 현실적인 적용 가능성을 보여준다.</p>
|
모델 체킹을 위해서는 우선 모델 명세 언어를 활용해 모델을 작성하고, 시제 논리를 활용해 시스템이 만족해야 하는 검증 특성을 표현해야 한다. 모델 검증 도구 SPIN은 오픈 소스 소프트웨어로서 동시성(concurrency)을 갖는 소프트웨어 시스템의 검증에 주로 사용한다. 본 논문의 검증 대상인 온라인 게임 서버는 서버-사용자 형태의 분산 시스템으로 구성되 메시지를 통한 통신이므로 PROMELA로 표현하기 적합하다.
|
<h1>3. 온라인 게임 서버의 파티 시스템</h1> <p>본 논문에서 사용할 검증 대상은 현재 개발 중인 R사의 온라인 게임 T의 파티 시스템으로, 현 시스템은 아직 개발자 내부 테스팅만 거친 상태이다. 게임에서의 파티 시스템은 혼자서 처리하기 어려운 적이나 임무를 여러 게임 사용자들과 협력하여 해결하게 해주는 그룹 구성 시스템이다. 파티는 여기서의 개개 그룹을 나타내며 다수의(보통 2~5인) 게임 사용자가 서로의 장점을 살려가며 게임을 하게 된다. 파티 내의 각 사용자를 파티원이라 하고 초대, 추방 등의 권한을 가지고 있는 파티원을 파티장이라 한다. 파티의 수명주기(life cycle)를 간략하게 나타내면 Fig. 4와 같다.</p> <p>파티 시스템은 많은 온라인게임에서 지원하는 주요 요소로 시스템의 완전성(Integrity)을 유지하지 않으면 파티원 전체에게 정상적인 서비스를 제공할 수 없을 뿐 아니라 심각한 경우 이로 인해 서버 전체 장애를 유발할 수도 있다.</p> <p>기존에도 Fig. 5에 나타난 것처럼 다양한 테스트 방법을 사용하고 있었지만 가능한 모든 경우를 검증하는 것은 쉽지 않으며 악의적인 사용자의 공격(프로토콜을 따르지 않은 무작위 패킷 발송 같은)까지 고려하게 되면 모든 경우를 검증 한다는 것은 사실상 불가능하다.</p> <p>이로 인해 본 논문에서는 자동화가 가능하면서 동시에 모든 경우를 검증할 수 있는 모델 체킹을 이용한다. 모델 체킹은 오토마타 기반이므로 실수형 변수 사용같이 상태의 수에 거의 제한이 없게 되는 경우에는 사용하기 어려운데, 파티 시스템에서의 파티 생성/파괴, 파티원 초대/추방 등의 처리는 모두 이산적이어서 이를 이용한 검증에 적합하다.</p> <h1>4. SPIN을 이용한 검증</h1> <h2>4.1 시스템 모델링</h2> <p>온라인 게임은 게임 서버 하나에 다수의 사용자가 접속하는 형태로 프로세스를 모델링할 수 있다. 또한 다수의 사용자는 서버로 동시에 메시지를 보내지만 서버에서는 하나의 메시지 큐(message queue)를 사용하므로 사용자와 서버 간 통신은 하나의 채널로 표현했다. Fig. 6은 본 시스템에 대한 개요를 나타낸다.</p> <p>각 사용자가 서버로 보내는 메시지(mtype)는 Table 2와 같으며 각 사용자들은 이 메시지를 공통의 채널을 통해 서버로 보내게 된다.</p> <p>메시지, 채널, 사용자 및 파티를 모델링한 PROMELA 코드는 다음 Table 3 과 같으며 Fig. 6과 대응하는 요소들은 원문자(①, ②, ③)로 표시되어있다.</p> <h2>4.2 게임 사용자</h2> <p>게임 사용자는 악의적 사용자를 가정한다. 악의적 사용이란 정해진 프로토콜과 다르게 메시지를 보내는 것으로 해킹 시도에 해당한다. 파티 초대를 받지 않았는데도 초대 승낙 메시지를 보내는 경우가 한 예이다.</p>
|
본 논문의 검증 대상은 현재 개발 중인 R사의 온라인 게임 T의 파티 시스템으로, 게임에서의 파티 시스템은 처리하기 어려운 적이나 임무를 여러 게임 사용자들과 협력하여 해결하게 해주는 그룹 구성 시스템이며 파티 시스템은 많은 온라인게임에서 지원하나 시스템의 완전성을 유지하지 않으면 파티원 전체에게 정상적인 서비스를 제공할 수 없을 뿐 아니라 이로 인해 서버 전체 장애를 유발할 수도 있어 이로 인해 본 논문에서는 자동화와 모든 경우를 검증할 수 있는 모델 체킹을 이용한다.
|
<h1>4. CBD 설계와 SOA 설계의 매핑(mapping)</h1> <p>CBD의 컴포넌트와 SOA의 서비스는 재사용하기 위한 목적으로 설계되고 구현된다. 그로 인하여 CBD설계와 SOA설계에는 다음과 같은 공통점이 있다. 먼저, CBD 설계와 SOA 설계는 각각 개발 대상인 컴포넌트와 서비스의 재사용성을 확보하기 위한 단계 및 관련 산출물이 존재한다는 점이다. 또한, CBD 와 SOA 에서는 각각 컴포넌트와 서비스를 사용하기 위하여, 블랙 박스 형태의 인터페이스를 분리하여 제공한다. 반면, 컴포넌트와 서비스는 각각 배포 형태와 관련 표준 및 기술이 다르기 때문에 이에 해당하는 기술에 따른 제약사항 및 고려사항 등에서는 차이점이 있다. 그러므로 CBD 설계와 SOA 설계를 매핑함에 있어서는 두 가지 형태가 존재한다. 먼저 전체매핑의 경우는 CBD 설계가 모두 SOA 설계로 변환됨을 의미한다. 즉, CBD 설계 결과를 있는 그대로 SOA 설계에서 사용할 수 있는 경우를 의미한다. 부분매핑의 경우는 CBD 설계 결과를 이용하여 SOA 설계를 유도함을 의미한다. SOA 설계 시 필요한 정보가 CBD 설계 결과에 포함되어 있지만, 있는 그대로 사용할 수 있는 것이 아닌 경우에 해당한다. 즉, (그림 3)에서처럼 CBD 설계와 SOA 설계에서의 매핑관계에서는 3개의 전체매핑 및 6개의 부분매핑이 존재한다.</p> <p>전체매핑 01. 공통성 및 가변성 모델과 서비스 어댑테이션 모델: CBD 설계 메타 모델 중 공통성 및 가변성 모델은 컴포넌트의 재사용을 위한 설계 산출물이다. 공통성 및 가변성을 모델링하기 위하여, 컴포넌트가 재사용될 수 있는 도메인의 요구사항을 분석하여 그 중 공통 요구사항을 식별하고, 공통 요구사항 중 가변적인 요구사항을 식별하여 정리한다. 그리고 공통성 및 가변성 모델을 토대로 컴포넌트를 설계하여 사용자의 요구에 맞춰 특화할 수 있는 부분을 설계 및 구현한다.</p> <p>서비스 어댑테이션 모델 역시 서비스의 재사용성을 위한 설계 산출물이다. 서비스를 재사용할 수 있도록 설계하기 위해서는 서비스 요구사항의 공통성 및 가변성이 식별되어야 한다. 즉, 컴포넌트를 위한 공통성 및 가변성 모델의 산출물은 서비스 어댑테이션 모델에서 모두 활용할 수 있다.</p> <p>전체매핑 02. 컴포넌트와 서비스: 컴포넌트는 역할에 따라서 비즈니스 로직 컴포넌트 및 데이터 관점 컴포넌트로 분류할 수 있지만, 이런 분류에 속하지 않는 컴포넌트도 존재한다. 이런 경우는 일반적으로 컴포넌트 내부에 컨트롤러 기능 및 모델 기능을 모두 포함하고 있으며, 독립성 및 모듈성이 높다. 일반적으로 서비스 또한 컨트롤러 기능 및 모델 기능을 모두 포함한다. 그로 인하여 사용자가 특정 기능을 요청하였을 때, 모든 기능을 내부적으로 수행할 수 있도록 설계 및 구현된다. 그러므로 이런 경우 컴포넌트 설계의 전부가 서비스 설계에 모두 활용된다.</p> <p>전체매핑 03. Provided 인터페이스와 서비스 인터페이스: 컴포넌트 인터페이스 중 Provided 인터페이스는 컴포넌트가 제공하는 기능 및 필요로 하는 기능을 명세한다. 서비스 인터페이스 역시 서비스의 기능성을 공개하기 위하여 서비스가 제공하는 기능성을 명세하기 위해서 사용된다. 그러므로 컴포넌트 인터페이스 중 Provided 인터페이스를 이용하여 서비스 인터페이스를 도출할 수 있다.</p> <p></p>
|
CBD 설계와 SOA 설계는 각각 개발 대상인 컴포넌트와 서비스의 재사용성을 확보하기 위한 단계 및 관련 산출물이 존재하고, 각각 컴포넌트와 서비스를 사용하기 위하여 블랙 박스 형태의 인터페이스를 분리하여 제공하지만, 컴포넌트와 서비스는 각각 배포 형태와 관련 표준 및 기술이 다르기 때문에 이에 해당하는 기술에 따른 제약사항 및 고려사항 등에따라 CBD 설계가 모두 SOA 설계로 변환되는 전체매핑과 CBD 설계 결과를 이용하여 SOA 설계를 유도하는 부분매핑의 형태로 존재한다.
|
<h1>7. 평가 및 결론</h1> <p>컴포넌트 기반 개발과 SOA를 기반으로 한 개발은 방법 측면에서 공통점을 갖고 있다. 즉, 재사용 가능한 기능 단위를 만들고, 이를 기반으로 하여 애플리케이션을 만든다. 그로 인하여, CBD 설계와 SOA 설계에서 공통점이 있으며, 이런 공통점을 활용하여 본 논문에서는 CBD 설계에서 SOA 설계로의 변환 기법을 정의하였다. 먼저, CBD 설계와 SOA 설계의 핵심요소를 정리하여, 요소 간의 매핑관계를 정의하였다. 그런 다음, 각 매핑에 따른 변환 기법을 지시사항과 예제를 통하여 설명하였다. 마지막으로, 제안한 변환 기법을 활용하여 컴포넌트 기반으로 개발한 여행 관리 시스템의 CBD 설계를 SOA 설계로 변환하였다. 사례연구를 통하여서 보았듯이, CBD 설계에서 얻을 수 있는 산출물 및 요소들은 모두 SOA 설계로 변환할 수 있다. 단, 컴포넌트와 서비스 간의 관계가 다대 다이기 때문에 변환 기법에서 언급하고 있는 고려사항을 충분히 반영하면, 여행 관리 시스템의 CBD 설계를 SOA 설계로 변환한 것처럼 대부분의 CBD 설계의 결과가 SOA 설계로 변환될 수 있을 것이다.</p> <p>본 논문에서 제안한 변환 기법은 다른 연구와 비교하여 다음과 같은 장점을 갖고 있다.</p> <ul> <li>모델 재사용을 통한 생산성 향상: 기존의 Lee의 연구는 코드 재사용을 통하여 CBD 결과물을 활용하는 방안을 제안한다. 그러나 구현 결과를 활용하는 방법의 경우, 특정 플랫폼에 제한되어서 활용될 수 있다. 즉 서비스의 운영 환경이 컴포넌트의 운영 환경과 다른 경우, 구현 결과를 사용하지 못하는 경우가 발생할 수 있다. 또한, Jiang의 연구의 경우 CBD 설계 기술을 SOA 설계에 활용하기 위한 방안을 제안한다. 이 경우 처음부터 SOA를 설계하는 것과 다르지 않은 결과를 가져온다. 그러나 본 논문에서 제안한 변환 기법의 경우 기존에 있는 CBD 설계 모델을 변환함으로써, SOA 설계 자체에 걸리는 소요 시간 및 노력을 줄일 수 있다.</li> <li>모델 간 변환을 활용한 생산성 향상: 기존의 Lee의 연구, Jiang의 연구는 모델 간 변환을 다루고 있지 않다. 모델 간 변환을 통하여 얻을 수 있는 점은 구현과 독립적이기 때문에 실제 변환된 SOA 설계를 여러 플랫폼에서 구현할 수 있다. 그러므로 하나의 설계를 활용하여 여러 플랫폼에서 구현할 수 있으므로 생산성을 향상시킬 수 있다. 본 논문에서 제안한 변환 기법은 모델 간 변환을 통해 플 랫폼 독립적인 SOA 설계를 얻을 뿐 아니라, 관련 설계에 따른 구현 결과물도 추가 보충자료로 활용할 수 있는 기틀을 제공하고 있다.</li> <li>상세한 변환 기법을 통한 효율성: 기존의 Brown의 연구는 CBD 설계에서 SOA 설계로 변환하는 데에 추상화 단계를 비즈니스 관점에서 접근한다. 이로 인하여 설계 결과물의 추상화 단계가 높아서, 변환 과정이 이루어진 이후에 추가 설계하여야 하는 요소들이 많이 있다. 그러나 본 논문의 변환 기법의 경우 변환 기법의 추상화 단계를 설계 핵심 요소 관점에서 접근하여서, SOA 특화된 표준에 따른 추가 명세를 제외하고는 추가하여야 하는 작업이 많지 않다. 그러므로 효율성 측면에서 본 논문의 변환 기법이 높다고 할 수 있다.</li></ul> <p>또한, 이런 변환 기법을 활용하면, 기존에 운영하고 있는 시스템의 CBD 설계를 활용하게 되는 경우가 많기 때문에 신뢰성 있는 SOA 설계를 얻을 수 있다. 향후 연구로는 모델 기반 아키텍처의 기술을 적용하여 CBD 설계의 많은 부분을 SOA 설계로 자동 변환할 수 있는 기법 및 지원 도구의 개발을 수행하여 본 논문에서 제안한 변환 기법의 활용도를 향상시키기 위한 연구를 진행할 예정이다.</p>
|
컴포넌트 기반 개발과 SOA를 기반으로 한 개발은 방법 측면에서 공통점을 갖고 있다. 모델 재사용을 통한 생산성 향상, 모델 간 변환을 활용한 생산성 향상, 상세한 변환 기법을 통한 효율성과 같은 장점을 가진다. 결과적으로 기존에 운영하는 시스템의 CBD 설계를 활용하는 경우가 많아 신뢰성 있는 SOA 설계를 얻을 수 있다.
|
<h1>6. 사례 연구: 여행 관리 시스템</h1> <p>본 장에서는 사례 연구를 통하여 제안한 변환 기법의 적용범위 및 효율성을 보여준다. 사례 연구의 도메인으로는 여행 관리 시스템을 선정하였다. 현재 서비스되고 있는 여러 여행 관리 시스템을 살펴본 결과, 모듈화되고 재사용 가능한 단위의 여러 기능성을 제공하고 있고, 이런 기능성을 요구에 따라 특화시켜야 하는 부분이 있으며, 일련의 기능성들을 수행하기 위한 워크플로우를 제공하고 있 다. 즉, 컴포넌트 기반으로 개발하거나, 서비스 기반으로 개발하기에 적합한 특징을 갖고 있기 때문에 사례 연구의 도메인으로 선정하였다.</p> <p>여행 관리 시스템의 주요 기능은 비행 예약, 호텔 예약, 차량 예약 혹은 택시 예약, 일정 관리로 이루어진다. 그러므로 이런 기능을 수행하기 위하여 (그림 11)에서처럼 컨트롤 계층의 3가지 컴포넌트와 모델 계층의 5가지 컴포넌트가 필요하다. 여기서의 계층 구조는 CBD 설계에서 일반적으로 사용하는 MVC 아키텍처 스타일을 활용하였다.</p> <p>컨트롤 계층의 3개의 비즈니스 로직 컴포넌트는 각 기능성에 맞게 필요한 데이터를 가져오고 처리할 수 있도록 워크플로우를 포함하고 있다. 예를 들어, FlightBooking Controller는 비행 예약을 위하여 (그림 12)처럼 5개 단계로 구성된 비행기 예약하는 워크플로우를 포함하고 있다.</p> <p>모델 계층의 5개의 데이터 관점 컴포넌트는 주로 컨트롤 계층의 컴포넌트에서 요청하는 데이터를 관리하는 역할을 한다. 예를 들어 FlightBooking 컴포넌트는 소비자가 비행기를 예약하기 위해 질의하거나 정보를 등록하기 위하여 비행 스케줄 검색, 비행기 좌석 검색, 비행 예약 등의 기능을 제공한다. 또한, 소비자가 필요한 정보를 등록하기 위하여 비행기 정보 등록, 좌석 정보 등록, 비행 스케줄 등록과 같은 기능을 제공한다. 이런 기능을 위하여 FlightBooking 컴포넌트는 6개의 엔티티 클래스(Plane, FlightSeat, FlightEvent, Booking, Customer, Payment)로 구성된다.<표 1>은 FlightBooking 컴포넌트의 인터페이스를 보여준다. 이 컴포 넌트는 8개의 제공 인터페이스와 2개의 커스터마이즈 인터페이스로 구성된다.</p> <h2>6.1 전체매핑을 위한 변환 기법 적용</h2> <p>전체매핑 01. 여행 관리 시스템 공통성 및 가변성 모델에서 서비스 어댑테이션 모델로의 변환: FlightBooking 컴포넌트는 두 개의 커스터마이즈 오퍼레이션을 포함하고 있다. 이 오퍼레이션은 컴포넌트를 위한 가변치를 할당하기 위한 것이다. SOC에서 서비스 어댑테이션이 어떻게 발생하는지 의견의 일치가 아직 미흡하다. 서비스 컴포넌트에 해당하는 Provided 오퍼레이션을 추가하였으나, 서비스 가변성을 커스터마이즈하기 위한 목적으로 사용한다.</p> <p>(그림 13)은 전체매핑 01에 해당하는 컴포넌트 공통성 및 가변성 모델에서 서비스 어댑테이션 모델로의 변환 결과 중 하나이다. FlightBooking 컴포넌트에 비행 정보를 관리하는 오퍼레이션이 있는데 이 부분에서 각 항공사마다 다르게 관리할 수 있기 때문에 관련 가변성이 발생한다. 이렇게 설계된 가변성은 FlightBooking 서비스의 오퍼레이션에도 똑같이 설계 및 구현된다. 즉, 인터페이스 명세 양식은 다르지만 가변성을 위한 내부 클래스 설계 및 구현은 매핑된다.</p> <p>그림에서 다루고 있지는 않지만, FlightBooking 컴포넌트를 설계하는데 사용한 공통성 및 가변성 모델은 FlightBooking 서비스뿐 아니라 Traveler 서비스 및 Payment 서비스 어댑테이션 모델에도 매핑되었다. 예를 들어 FlightBooking 컴포넌트에서 항공료를 계산하는 로직 부분은 회사마다 다르지만, 관련 기능은 공통적으로 사용된다. 즉, 항공료를 계산하는 로직 부분이 가변점으로 설계되었고, 실제 로직은 가변치로 동적으로 할당할 수 있도록 플러그인 기법으로 설계 및 구현되었다. 이런 설계 및 구현은 Payment 서비스에서도 동일하게 활용될 수 있었다. 즉, Payment 서비스에서는 항공사마다 원하는 다른 항공료 계산 로직을 추가하여 어댑테이션을 수행할 수 있도록 어댑테이션 모델에 설계되었다.</p> <p>진체매핑 02. 여행 관리 시스템 컴포넌트에서 서비스로의 변환: 먼저 여행 관리 시스템 컴포넌트에서 서비스로의 변환을 하기 위하여, 비즈니스 로직 컴포넌트와 데이터 관점 컴포넌트로 나뉘어져 있는 컴포넌트들의 관계를 정의한다.<표 2>에서처럼 하나 이상의 관련된 컴포넌트를 모아서 컴포넌트 기능군으로 모은다. 그런 다음 이름, 기능, 제약사항을 이용하여 상위의 컴포넌트 설명을 작성한다.</p> <p>그런 다음, 컴포넌트 및 서비스 별로 매핑 관계를 표시하기 위하여 다중성을 추가한다. 예를 들어서 FlightBooking 컴포넌트 기능군과 같은 경우는 FlightBooking, Traveler, Payment 서비스로 매핑이 되었습니다. 이런 경우 FlightBooking 컴포넌트 기능군은 세 개의 서비스와 연관이 있으므로 이에 따른 다중성을 정의하자면 하나의 컴포넌트 기능군이 세 개의 서비스와 연관이 있다. 즉, 컴포넌트 기능군과 서비스의 관계는 일대 다의 관계로 정의된다.</p> <p>또한, 5개의 컴포넌트 기능군에서 사용하고 있는 기능성이 추출되어 하나의 서비스 Payment가 추가적으로 도출되었고, 또한 5 개의 컴포넌트 기능군을 제어할 수 있는 기능성이 추가적으로 필요하였기에 다른 하나의 서비스 Traveler가 추가적으로 도출되었습니다. 여기서 언급된 2개의 서비스 경우 여러 개의 컴포넌트의 일부 기능들이 추출되어 서비스로 구성되었기 때문에 컴포넌트 기능군과 서비스의 관계는 다대 일로 정의되었습니다. 여기서 언급된 2개의 서비스 경우 여러 개의 컴포넌트의 일부 기능들이 추출되어 서비스로 구성되었기 때문에 컴포넌트 기능군과 서비스의 관계는 다대 일로 정의된다. 그러므로 여행 관리 시스템에서 컴포넌트 기능군과 서비스는 (그림 14)와 같이 다대 다 관계로 정의되었다.</p> <p>추가된 서비스에서의 변환은 다음과 같다. 먼저, Traveler 서비스의 경우는 복합 서비스로써 FlightBooking, Hotel Booking, CarRental, TaxiReservtion 서비스에서 제공하는 기능성을 재사용하여 서로 간의 제어 흐름을 포함한다. 그러므로 각 컴포넌트에서 필요한 정보를 가져와서, 이를 기반으로 정의하여야 하기 때문에 여러 컴포넌트와 매핑된다고 할 수 있다. 두 번째, Payment 서비스의 경우는 여러 컴포넌트에서 모두 포함하고 있는 기능성을 재사용 가능하게 도출한 경우이다. 즉, 5개의 컴포넌트 기능군에서는 지불 기능을 각 컴포넌트의 기능에 맞게 포함하고 있다. 여기에서의 지불 기능은 각 컴포넌트의 기능에 맞게 요금 계산부터 과금까지 포함한다. 그러나 서비스로 매핑할 때는 요금 계산 이후의 과정만을 포함하여 재사용 가능할 수 있도록 매핑된다.</p> <p>전체매핑 03. 여행 관리 시스템 Provided 컴포넌트 인터페이스에서 서비스 인터페이스로의 변환:<표 1>에서처럼 FlightBooking 컴포넌트의 인터페이스는 8개의 제공 인터페이스와 2개의 커스터마이즈 인터페이스로 구성되어 있다. 예를 들어, 제공 인터페이스 중 bookFlight(planeID, flightSeatID, flightEventID)를 변환한다고 하자. bookFlight는 서비스 인터페이스의 오퍼레이션에 매핑된다. 이 오퍼레이션에 필요한 메시지는 tbookFlight로 정의하고, 관련 타입은 컴포넌트 제공 인터페이스의 시그니처인 planeID, flightSeatID, flightEventID와 매핑할 수 있도록 정의한다. 또한, 이 오퍼레이션의 경우는 반환 값이 있도록 정의되어 있으므로, 오퍼레이션의 패턴을 in-out으로 명세한다. 이에 따른 변환 결과는 (그림 15)와 같다.</p>
|
여행 관리 시스템은 비행 예약, 호텔 예약, 차량 예약 혹은 택시 예약, 일정 관리로 구성된다. 기능 수행에는 컨트롤 계층의 3가지 컴포넌트와 모델 계층의 5가지 컴포넌트가 필요하다. 모델 계층의 5개의 데이터 관점 중 FlightBooking 컴포넌트는 소비자가 비행기를 예약하기 위해 비행 스케줄 검색, 좌석 검색, 예약 등의 기능을 한다.
|
<h1>3. CBD 설계와 SOA 설계의 메타 모델</h1> <h2>3.1 CBD 설계의 핵심 요소</h2> <p>CBD 설계는 크게 컴포넌트 외부 상호 작용을 파악하는 것과 내부의 구조를 파악하는 것으로 나뉜다. 따라서 마르미 Ⅲ과 같은 CBD 관련 연구에서는 컴포넌트 외부 상호 작용을 파악하기 위한 단계와 내부의 구조를 파악하기 위한 단계를 정의하고 있으며, 각 단계마다 다른 종류의 산출물이 존재한다. 우리는 이런 관련 연구에서 정의하고 있는 단계 및 산출물에 따라 (그림 1)과 같이 CBD 설계의 메타모델을 유도하였다.</p> <p>컴포넌트: 컴포넌트는 크게 비즈니스 컴포넌트와 응용 컴포넌트로 나눌 수 있다. 비즈니스 컴포넌트란 구현의 대상이 되는 데이터 관점의 컴포넌트와 비즈니스 로직을 포함하는 컴포넌트를 말한다. 응용 컴포넌트란 비즈니스 컴포넌트의 구현을 위한 기술적인 컴포넌트를 말하는 것으로서 대부분 응용 컴포넌트는 프레임워크(Framework) 기술을 이용하여 구현하게 된다. 또한 응용 컴포넌트는 기술 아키텍처 위에서 비즈니스 컴포넌트의 수행을 지원하는 역할을 수행한다. 재사용성이 높은 비즈니스 컴포넌트를 개발하기 위해서는 범용성이 있으면서 확장가능하고 운영체제와 독립적인(Platform Independent) 응용 아키텍처 위에서 구현해야 한다. 본 논문의 메타모델에서 '컴포넌트'는 비즈니스 컴포넌트로써 CBD에서 기능을 수행하는 독립적인 모듈의 기본적인 단위이다. 이런 컴포넌트는 하나 이상의 클래스를 포함하고 있다. 또한, 컴포넌트는 하나 이상의 다른 컴포넌트를 포함하여 복합 컴포넌트를 구성할 수 있다. 그러므로 컴포넌트는 객체와 비교하여 재사용 단위가 크다.</p> <p>비즈니스 컴포넌트는 일반적으로 비즈니스 로직 컴포넌트와 데이터 관점 컴포넌트로 나뉜다. 비즈니스 로직 컴포넌트는 비즈니스 과정 내의 직무나, 절차서 내의 작업 단계들, 단계 별 요구되는 입력 및 출력 정보를 명세한다. 이런 작업 단계들은 워크플로우로 나타난다. 즉, 워크플로우에는 서로 독립적인 작업을 수행하기 위한 컴포넌트의 실행 순서 및 실행 패턴을 명세한다. 이런 비즈니스 로직 컴포넌트를 설계하기 위해서는 UML (Unified Modeling Language)의 액티비티 다이어그램, 시퀀스 다이어그램이나 커뮤니케이션 다이어그램 등을 활용할 수 있다. 데이터 관점 컴포넌트는 하나 이상의 엔티티 클래스로 구성된다. 엔티티 클래스는 일반적으로 컴포넌트에서 기능 수행을 하기 위하여 필요한 데이터 처리를 위한 함수를 제공한다. 즉, 데이터 관점 컴포넌트는 지속적으로 데이터 관리나, 비즈니스 로직 컴포넌트에서 요구하는 질의에 따른 데이터 처리를 위한 함수를 제공한다. 이런 데이터 관점 컴포넌트를 설계하기 위해서는 UML 의 클래스 다이어그램이나 객체 다이어그램 등을 활용할 수 있다.</p> <p>컴포넌트 인터페이스: CBD에서 인터페이스는 컴포넌트와 분리되어 구현한다. 예를 들어 엔터프라이즈 자바 빈즈 (Enterprise Java Beans)나 코바 (CORBA)와 같은 컴포넌트 기반 프로그래밍 언어에서 컴포넌트와 인터페이스를 구현하기 위한 구성 요소를 각각 제공하고 있다.</p> <p>컴포넌트 인터페이스는 일반적으로 인터페이스의 역할에 따라 Provided 인터페이스, Required 인터페이스, Customize 인터페이스로 나뉜다. Provided 인터페이스는 컴포넌트가 제공하는 기능을 명세하기 위하여 사용한다. 예를 들어 컴포넌트 A가 컴포넌트 B의 기능을 사용하는 경우를 고려해보자. 이런 경우 컴포넌트 A는 컴포넌트 B의 Provided 인터페이스를 사용하여, 관련 기능을 사용하게 된다.</p> <p>Required 인터페이스는 하나의 컴포넌트가 관련 기능을 수행함에 있어서 필요로 하는 기능을 명세하기 위하여 사용한다. 예를 들어, 컴포넌트 A가 기능을 수행할 때 관련 하위 기능이 여러 개 있다고 하자. 그렇지만 모든 기능을 컴포넌트 A에서 제공할 수 없기 때문에, 일부 기능은 다른 컴포넌트의 기능을 활용하여야 한다. 즉, 컴포넌트 A에서 제공하지 않고, 다른 컴포넌트에서 제공하는 기능을 활용하기 위하여, 관련 기능을 묶어서 인터페이스화하고 이를 명세한 것이 컴폰넌트 A의 Required 인터페이스가 된다. 결과적으로 Required 인터페이스와 Provided 인터페이스가 부합하는 것을 찾아서 컴포넌트 간의 조합을 수행하게 된다.</p> <p>Customize 인터페이스는 컴포넌트가 제공하는 기능성을 사용자의 요구에 맞게 특화할 수 있는 부분을 명세하기 위하여 사용한다. 컴포넌트는 재사용을 위하여 설계되고 개발된 것이기 때문에, 일반적으로 여러 애플리케이션에서 사용될 수 있도록 구성된다. 이런 컴포넌트의 재사용성을 향상시키기 위하여 사용자의 요구에 맞게 특화시킬 수 있는 부분이 내부적으로 설계 및 구현되어 있으며, 이를 외부에서 가능하게 해주는 것이 Customize 인터페이스이다.</p> <p>이런 세 가지 인터페이스를 명세한 문서를 컴포넌트 인터페이스 명세서라 하며, 명세서에는 인터페이스가 포함하고 있는 메소드 이름, 각 메소드의 매개 변수 및 반환 자료형이 기술된다. 또한, 인터페이스의 사용상의 의미를 기술하기 위하여, 각 메소드 실행 시 고려하여야 할 사전 조건, 사후 조건 및 제약 사항을 기술한다.</p> <p>공통성 및 가변성 (Commonality and Variability, C&V) 모델: 컴포넌트는 여러 애플리케이션에서 재사용할 수 있도록, 애플리케이션들의 공통성 및 가변성이 설계되어 구현된다. 이런 공통성 및 가변성은 컴포넌트 인터페이스 및 컴포넌트 구현에 영향을 끼친다. 즉, 공통성은 컴포넌트의 기능성이 되고, 가변성은 이런 공통 기능성 중 특화할 수 있는 부분과 매핑이 되며, 이런 특화를 외부에서 가능하게하기 위하여 커스터마이즈 인터페이스를 제공한다. 그러므로 공통성과 가변성은 설계되고 문서화되어야 한다. 그러므로 공통성 및 가변성 모델은 공통적인 특성과 공통적인 특성 중 가변적인 특성을 명세하고 있다. 또한, 가변적인 특성을 명세하기 위하여 가변이 발생하는 가변점과 가변점에 할당(binding)할 수 있는 유효한 가변치를 명세한다.</p>
|
CBD 관련 연구에서는 컴포넌트 외부 상호 작용 파악을 위한 단계와 내부 구조 파악을 위한 단계를 정의하고 있으며, 각 단계마다 다른 종류의 산출물이 존재한다. 컴포넌트는 크게 비즈니스 컴포넌트와 응용 컴포넌트로 구분할 수 있다. 컴포넌트 인터페이스는 일반적으로 인터페이스의 역할에 따라 Provided 인터페이스, Required 인터페이스, Customize 인터페이스로 나눌 수 있다. 이런 세 가지 인터페이스를 명세한 문서를 컴포넌트 인터페이스 명세서라고 일컫고, 명세서에는 인터페이스가 포함하고 있는 메소드 이름, 각 메소드의 매개 변수 및 반환 자료형 등이 기술되어 있다.
|
<h2>6.3 사례 연구 결과 분석 및 평가</h2> <p>본 사례 연구를 통하여 우리는 기존에 있는 여행 관리 시스템을 위한 CBD 설계를 변환하여 SOA 설계를 얻을 수 있었다. 사례연구에서는 논문에서 제안한 9개의 매핑관계 중 6개의 매핑관계를 활용하였고. 이를 기반으로 변환 기법을 적용하였으며, 우리는 다음과 같은 교훈을 얻을 수 있었다.</p> <ul> <li>CBD 설계와 SOA 설계로의 변환 기법의 효율성: CBD 설계의 결과 산출물의 대부분이 SOA 설계로 변환됨을 확인할 수 있었다. CBD 설계 결과 산출물의 대표적인 것이 컴포넌트 설계서, 컴포넌트 인터페이스 명세서, 공통성 및 가변성 모델이다. 또한 SOA 설계 결과 산출물의 대표적인 것이 서비스 설계서, 서비스 인터페이스 명세서, 비즈니스 프로세스 명세서, 서비스 어댑테이션 모델이다. 먼저, 서비스의 경우는 전체매핑 02와 부분매핑 03을 통하여 컴포넌트 설계서로부터 유도할 수 있었다. 특히, 이미 설계되어 있는 클래스 다이어그램을 가져올 수 있었으며, 이에 따라 CBD 설계를 기반으로 구현된 클래스 구현도 가져올 수 있는 기틀을 마련할 수 있었다. 그리고, 서비스 인터페이스 명세서의 경우, 전체매핑 03을 통하여 컴포넌트 인터페이스 명세서에 기술되어 있는 정보를 활용하여 유도할 수 있었다. 특히 서비스 인터페이스의 경우 서비스가 제공하는 기능만을 기술하고 있기 때문에 컴포넌트의 Provided 인터페이스와 쉽게 매핑될 수 있었다. 즉, 컴포넌트의 Provided 인터페이스 명세서에 있는 내용을 서비스 인터페이스 양식으로만 변환하면 되었 고 기타 추가작업은 없었다. 비즈니스 프로세스 명세서의 경우, 부분매핑 01을 통하여 비즈니스 로직 컴포넌트에 설계되어 있는 워크플로우 정보를 활용하여 유도할 수 있었다. 전체매핑 02로 인하여 도출된 추가적인 서비스와 관련된 제어흐름을 제외하고는 워크플로우에 기술하였던 대부분의 제어흐름을 그대로 가져올 수 있었다. 서비스 어댑테이션 모델의 경우, 전체매핑 01과 부분매핑 06을 통하여 유도할 수 있었다. 특히 서비스 어댑테이션 모델의 경우 전체매핑 01을 통하여 여행 관리 시스템에서 사용되는 서비스들의 가변성, 가변치 등을 모두 가져올 수 있었기 때문에 설계 측면에서 재사용성이 높다고 할 수 있었다. SOA 설계에 필요한 정보 및 설계 관련 내용이 이미 CBD 설계에 있었기 때문에 대부분 변환 과정만을 거쳐서 재사용할 수 있었다. 즉, 재사용을 통해 SOA 설계를 수행하였기 때문에, 처음부터 SOA 설계를 수행한 것에 비해 생산성이 향상될 수 있었다. 또한, 이미 운영 중인 시스템의 CBD 설계를 활용하였기 때문에 신뢰성을 보장할 수 있었으며, 설계의 상세도 측면 역시 보장할 수 있었다. 예를 들어 FlightBooking 컴포넌트의 경우, 설계와 설계를 기반으로 한 구현을 가져와서 서비스 설계 및 구현으로 변환하는 데 변환하여야 하는 클래스 설계가 1개, 관련 구현의 LOC 변경이 100 이하였으며, 이를 수행하는 데에 1시간 이하 소요되었습니다.</li> <li>CBD 설계에서 SOA 설계로의 변환 기법의 한계점: 서비스와 컴포넌트의 재사용에 대한 관점이 정확하게 일치하지 않아서 변환에서의 어려움이 발생할 수 있다. Payment와 같은 기능이 서비스로 도출된 것이 그 예이다. 본 논문에서 Payment와 같은 기능을 도출한 이유는 1) 이미 Payment와 관련된 것은 여러 문헌 및 산업계에서 서비스로 제공하고 있고, 2) 서비스는 기본적으로 인터넷을 통한 기능 활용을 가정하고 있기 때문에 CBD 설계와 같이 하나의 기능 모듈에 반드시 포함되어야 하는 것은 아니기 때문이었다. 즉 이처럼 일대 다, 혹은 다대일 매핑이 이루어질 때 관련 매핑에 따른 충분한 근거가 필요하였다. 서비스 인터페이스 명세서의 경우 WSDL에서 요구하는 표준 양식 및 데이터 유형이 있기 때문에 이와 관련된 부분은 변환 기법으로 해결할 수 없었다. 즉, 서비스와 컴포넌트의 사용 및 배치하는 방법이 다르기 때문에 이와 관련한 추가 설계가 필요하였다. 비즈니스 프로세스 명세서의 경우 BPEL에서 요구하는 표준 양식 및 데이터 유형이 있기 때문에 이와 관련된 부분은 변환 기법으로 해결할 수 없었다. 즉, 이에 따른 추가 설계가 필요하였다.</li></ul> <p>위와 같은 교훈에 따라, 변환 기법의 단점을 보완하기 위하여 우리는 다음과 같이 추가적으로 설계가 필요한 요소를 정리하고 관련 지침을 제공한다. CBD 설계에서 SOA 설계로 변환 시 추가적으로 해야 하는 것은 외부에서 서비스를 호출하기 위한 메시지 전송 프로토콜 정의, 서비스 자체의 엔드포인트 주소 등을 서비스 인터페이스에 추가 명세하는 부분이다. 또한, 복합 서비스나 비즈니스 프로세스의 경우, CBD 설계를 이용하여 워크플로우는 유도할 수 있지만, 복합 서비스 혹은 비즈니스 프로세스 특화된 액티비티는 추가적으로 명세 및 설계해주어야 한다. 마지막으로, BPEL을 이용하여 비즈니스 프로세스를 명세할 경우, 서비스 간의 호출 관계를 표현하기 위하여 BPEL 비즈니스 프로세스가 중 간자 역할을 한다. 이에 따라 비즈니스 프로세스 명세 시 서비스와 비즈니스 프로세스 간의 관계를 추가 명세하여야하며 이때 사용하게 되는 엔드포인트, 메시지 전송 프로토콜 등을 매핑시켜야 한다.</p>
|
여행 관리 시스템과 관련하여 기존의 CBD 설계를 변환하여 SOA 설계를 수행하였기 때문에 새로 SOA 설계를 수행한 것에 비해 생산성이 향상된다. 또한 이미 운영 중인 시스템의 CBD 설계를 활용하여 신뢰성 및 설계의 상세도 측면을 보장할 수 있다. 그러나 이러한 설계도 한계점이 있다. 우선 서비스와 컴포넌트의 재사용에 대한 관점이 정확하게 일치하지 않아 변환에 어려움이 발생할 수 있으며, 컴토넌트와 서비스의 사용 및 배치하는 방법이 다르기 때문에 추가 설계가 필요하다.
|
<p>전체매핑 02. 컴포넌트에서 서비스로의 변환: CBD 디자인에서는 전반적인 기능이 컴포넌트에 구조화되어 있다. 일반적으로 컴포넌트는 비즈니스 로직을 담당하는 비즈니스 로직 컴포넌트, 영구적인 데이터를 관리하는 데이터 컴포넌트로 나뉜다. 반면에, SOA 디자인에서는 전반적인 기능이 서비스에 구조화되어 있다. 컴포넌트는 설계 및 구현 단계의 유닛이지만, 서비스는 사용자가 인지할 수 있는 작업의 유닛이다. 이런 다름에도 불구하고, CBD의 컴포넌트 명세는 서비스 설명을 유도할 수 있는 주요 소스(source)이다. 그 이유는 컴포넌트 명세와 서비스 설명 모두 타겟 애플리케이션의 전반적인 기능을 표현하고 있기 때문이다.</p> <p>컴포넌트는 응집력이 좋은 독립적인 소프트웨어 모델이고, 서비스 또한 사용자에게 전달되는 작업의 독립적인 유닛이다. 그러나 컴포넌트와 서비스의 유닛 특성 상 언제나 일대 일 관계는 아니다. 그러므로 컴포넌트 명세로부터 우리가 기능, 시맨틱, 제약사항을 분석하고 이를 기반으로 컴포넌트 기능군을 분류한다. 그런 다음, 컴포넌트와 서비스 간 매핑 관계에서의 다중성(multiplicity)을 고려하여야 한다. (그림 5)에서처럼 컴포넌트와 서비스는 세 가지 유형의 매핑(일대 일, 다대 일, 일대 다)이 있다. 알맞은 매핑 형태를 결정하려면, 컴포넌트의 범위, 특성 등을 고려하여 분석하고, 이를 기반으로 정의해야 한다.</p> <p>둘째, 컴포넌트의 유형별로 서비스에 매핑하여야 한다. 먼저, 비즈니스 로직 컴포넌트의 경우, 다른 컴포넌트의 호출을 제어하고 있으며, 이를 위한 워크플로우를 정의하고 있다. 또한 복합 서비스 역시, 다른 서비스의 호출을 제어하고 있으며 이를 위한 제어 흐름을 포함하고 있다. 그러므로 워크플로우를 제어 흐름으로 변환하는 방법을 고려하여야 한다. 여기서 흐름의 변환은 여러 가지 형태가 있으며, 자세한 사항은 컴포넌트에서 비즈니스 프로세스로의 변환에서 다룬다.</p> <p>셋째, 컴포넌트와 서비스가 매핑된 이후에는, 컴포넌트의 오퍼레이션 집합과 서비스의 오퍼레이션 집합을 매핑하여야 한다. 서비스의 오퍼레이션 중 사용자가 사용할 수 있게 공개되는 오퍼레이션이 있고, 내부적으로만 사용하는 오퍼레이션이 있다. 즉, 컴포넌트에서 제공 인터페이스로 공개되는 오퍼레이션 집합을 기반으로 서비스 인터페이스로 공개되는 오퍼레이션으로 매핑이 이루어진다. 자세한 내용은 5장 2절에서 다룬다.</p> <p>컴포넌트에서 서비스로의 변환을 위한 단계는 다음과 같다. 먼저, 컴포넌트 명세로부터 컴포넌트에서 제공하는 기능성을 도출한다. 그런 다음 컴포넌트의 기능 복잡도 및 재사용성을 확인하여 매핑 관계에서의 다중성을 고려한다. 그런 다음 컴포넌트 유형에 따라 서비스로 매핑하는데, 비즈니스 로직 컴포넌트의 경우 워크플로우 요소를 복합 서비스의 제어 흐름으로 매핑한다. 데이터 관점 컴포넌트의 경우, 엔티티 클래스를 제어하는 클래스를 포함한 클래스 집합을 서비스로 매핑한다. 여기서 서비스 인터페이스를 이용하여 기능을 공개하는 후보 오퍼레이션 집합은 엔티티 클래스를 제어하는 클래스의 오퍼레이션 집합에서 도출한다.</p>
|
응집력이 좋은 독립적인 소프트웨어 모델인 컴포넌트에서 사용자에게 전달되는 작업의 독립적인 유닛인 서비스로 변환하는 매핑을 알아보면, 컴포넌트 명세로부터 컴포넌트에서 제공하는 기능성을 도출한 다음, 비즈니스 로직 컴포넌트는 워크플로우 요소를 복합 서비스의 제어 흐름으로 매핑, 데이터 관점 컴포넌트는 엔티티 클래스를 제어하는 클래스를 포함한 클래스 집합을 서비스로 매핑, 데이터 관점 컴포넌트는 엔티티 클래스를 제어하는 클래스를 포함한 클래스 집합을 서비스로 매핑하는 것이 있다.
|
<h1>1. 서론</h1> <p>소프트웨어 재사용은 소프트웨어 위기를 해결하기 위해 나온 방법 중 하나로써 소프트웨어 개발 시 기존에 있는 소프트웨어를 활용하여 원하는 소프트웨어를 만들고자 하는 것이다. 즉, 소프트웨어 개발 방법은 재사용 패러다임을 기반으로 발전하고 있다. 이 중 컴포넌트 기반 스프트웨어 개발 방법 (Component-based Software Development, CBD)은 업계에서 널리 사용하고 있는 재사용 패러다임 중 하나이다. 이 방법에서는 컴포넌트를 재사용할 수 있도록 개발하고, 이런 컴포넌트를 통합하고 필요한 추가 기능을 구현함으로써 원하는 애플리케이션을 개발한다.</p> <p>컴포넌트 기반 소프트웨어 개발 방법 이후에 소개된 서비스 지향 아키텍처(Service-Oriented Architecture, SOA) 기반 소프트웨어 개발 방법은 컴포넌트보다 더 높은 추상 레벨의 요소를 재사용하는 방법으로 많은 업계에서 이 패러다임을 활용하기 위해서 노력하고 있다. 이 방법에서는 먼저 서비스를 재사용할 수 있도록 개발하고, 개발된 서비스를 재사용할 수 있도록 표준 인터페이스를 명세한다. 그런 다음, 서비스와 서비스 인터페이스를 발행하여 공개하여서, 여러 사람들이 사용할 수 있게 한다. 즉, 서비스 지항 소프트웨어 개발 방법은 재사용 가능한 서비스를 즈합하여 서비스 기반 애플리케이션을 개발하는 것이다. 이처럼 재사용 가능한 서비스를 발행하고, 발행된 서비스를 재사용하여 원하는 기능을 사용하는 것을 서비스 지향 컴퓨팅 (Service-oriented Computing, SOC) 이라고 하는데, 이를 가능하게 하기 위하여 OASIS, W3C와 같은 단체에서 SOAP, UDDI, WSDL, BPEL과 같은 표준을 정의하고, 이런 표준에 따라 서비스를 개발할 것을 권고하고 있다. 그러나 많은 기업에서 서비스 지향 컴퓨팅을 활용한 프로젝트를 수행함에 있어서 어려움을 겪었으며, 많은 수의 프로젝트가 실패로 끝나는 경우도 많이 존재하였다. 그 이유는 서비스 지향 컴퓨팅에 대한 이해 부족과 체계적인 방법론 부족, 기존 시스템의 충분하지 않은 활용 등이었다.</p> <p>우리는 이를 해결하기 위하여 대표적인 CBD 방법론인 마르미 Ⅲ를 비롯한 다른 CBD 방법론을 분석하고, SOA 관련된 표준 및 참조 모델 등을 분석하였다. 그 결과 SOC를 위한 대부분의 표준이 CBD 개념과 구조를 기반으로 하고 있음을 알 수 있었다. 또한, 이미 많은 조직이 CBD 기반으로 프로젝트를 수행하고, 애플리케이션을 개발하였으므로 재사용할 수 있는 CBD 모델을 소유하고 있음을 알 수 있었다. 그러므로 SOD 모델을 개발하고 서비스 기반 애플리케이션을 개발함에 있어서, 기존의 CBD 모델을 변환하여 개발하는 것이 처음부터 개발하는 것보다 경제적이며, 소프트웨어 재사용 패러다임에도 부합한다.</p> <p>그러므로 본 연구에서는 CBD 설계를 SOA 설계로 변환하는 체계적인 방법에 초점을 맞추고 있다. 이를 위하여 먼저 CBD 설계와 SOA 설계의 구성 요소를 정리하고, 비교한다. SOA 설계 모델이 CBD 설계 모델을 기반으로 하고 있으나, SOC를 위한 추가적인 장치가 SOA 설계에 포함되어 있으므로, CBD 설계를 기반으로 변환할 수 있는 범위를 정의한다. 그런 다음, CBD 설계를 구성하는 요소를 SOA 설계로 변환하는데 필요한 기법을 정의한다. 각 기법을 정의함에 있어 단계별 지시사항 및 예제를 제공함으로써, 변환 기법의 효용성을 향상 시킨다. 또한, 사례 연구를 통하여 각 기법의 적용 순서 및 실효성을 보여준다. 마지막으로, CBD 설계를 변환하여 얻을 수 있는 SOA 설계와 추가적으로 설계하여야 하는 SOA 모델을 정리함으로써, CBD 설계 변환의 범위를 정의한다. 제안한 변환 기법을 통해 효과적으로 기존에 있는 CBD 설계를 SOA 설계로 변환하고, 서비스 기반 애플리케이션을 구현할 수 있을 것이다. 이 변환 기법 응용의 장점은 기존 CBD 설계와 SOA 설계 간의 일관성을 유지하면서 기존 설계의 재사용을 가능하게 하고, 서비스 지향 애플리케이션을 개발하는데 비용을 절감하는 데에 있다.</p>
|
본 논문에서는 서비스 지향 컴퓨팅에 대한 이해 부족과 체계적인 방법론 부족, 기존 시스템의 충분하지 않은 활용 문제를 해결하기 위해 CBD 설계를 SOA 설계로 변환하는 체계적인 방법을 연구했다. CBD 설계와 SOA 설계의 구성 요소를 정리해 비교하고 CBD 설계를 구성하는 요소를 SOA 설계로 변환하는데 필요한 기법을 정의한 후 사례 연구를 통하여 각 기법의 적용 순서와 그 실효성을 시사했다.
|
<h2>6.2 부분 매핑을 위한 변환 기법 적용</h2> <p>부분매핑 01. 여행 관리 시스템 비즈니스 로직 컴포넌트에서 비즈니스 프로세스로의 변환: 먼저 여행 관리 시스템 의 CBD 모델에 정의된 세 개의 비즈니스 로직 컴포넌트와 두 개의 컨트롤 클래스를 기반으로 비즈니스 프로세스 변환과정을 수행한다. 이를 위해 UML 액티비티(activity) 다이어그램을 이용하여 비즈니스 로직 컴포넌트와 컨트롤 클래스 내부에 설계되어 있는 워크플로우를 추출한다.</p> <p>(그림 16)은 TravelerScheduleController를 기반으로 한 비즈니스 프로세스 유도를 보여준다. 먼저, TravelSchedule Controller는 4개의 다른 비즈니스 로직 컴포넌트를 실행하는 제어 흐름을 포함하고 있다. 이를 기반으로 하여 비즈니스 프로세스의 워크플로우를 정의한다. 워크플로우를 정의하기에 앞서 이미 우리는 각 컴포넌트 기능군을 서비스로 매핑하였기 때문에 관련 기능을 호출하는 것을 일대 일로 매핑할 수 있었다. 단, Payment 서비스의 경우는 모든 컴포넌트에서 재사용할 수 있는 것이어서 추가적인 서비스로 추출하였으며, 이에 따라, 관련 비즈니스 프로세스에서도 Payment 서비스 호출하는 것을 추가하였다.</p> <p>부분매핑 03. 여행 관리 시스템 데이터 관점 컴포넌트에서 서비스 컴포넌트로의 변환: 전체매핑 02를 통해서 수행한 것을 기반으로 데이터 관점 컴포넌트를 서비스 컴포넌트로 변환한다. 예를 들어, (그림 17)은 FlightBooking 데이터 관점 컴포넌트의 변환 결과를 보여준다.</p> <p>FlightBooking과 관련 있는 데이터의 관리와 관련있는 클래스만 먼저 매핑한다. 클래스 매핑시 오퍼레이션이 질의와 관련있는 것인지 확인하여야 한다. 그런 다음, 전체매핑 02의 결과에 따라 Payment 관련된 클래스는 FlightBooking에서 제외하였다. 그리고 제외된 Payment 클래스는 Payment 서비스를 구성하는 클래스 중 하나로 매핑되었다. 이 변환 과정을 통하여서 FlightBooking 데이터 관점 컴포넌트가 2개의 서비스와 매핑됨을 확인할 수 있었다.</p> <p>부분매핑 06. 여행 관리 시스템 Customize 인터페이스와 서비스 어댑테이션 모델: (그림 18)은 FlightBooking 컴포넌트 Customize 인터페이스에서 서비스 어댑테이션 모델로의 변환의 예를 보여준다.</p> <p>먼저 메소드명과 매개변수 명은 서비스 어댑테이션 모델에서 하나의 서비스 오퍼레이션을 정의하는데 사용된다. 또한, 가변성 구현방식이 실제 가변 가능한 서비스 오퍼레이션을 정의하는 데 사용된다. 이와 같은 정보는 전체매핑 01의 과정을 통해서 얻을 수도 있다.</p> <p>부분매핑 02. 여행 관리 시스템 비즈니스 로직 컴포넌트와 워크플로우와 부분매핑 05. 여행 관리 시스템 Required 인터페이스와 워크플로우의 경우, 여행 관리 시스템이 특정 문맥에 맞추어진 시스템이어서 복합 서비스로 매핑할 대상이 없기 때문에, 이번 사례 연구에서 다루지 않았다. 또한 부분매핑 04. Required 인터페이스에서 비즈니스 프로세스로의 변환의 경우, 컴포넌트 설계 시 Required 인터페이스에 해당하는 부분은 없었기 때문에 이번 사례 연구에서 다루지 않았으나, 부분매핑 04의 경우 (그림 9)를 통해 충분히 적용성을 보여주고 있다.</p>
|
그림16은 TravelerScheduleController를 기반으로 한 비즈니스 프로세스유도 과정며, Payment 서비스의 경우는 모든 컴포넌트에서 재사용할 수 있는 것이어서 추가적인 서비스로 추출하였으며, 관련 비즈니스 프로세스에서도 Payment 서비스 호출하는 것을 추가하였다. 그림17은 FlightBooking 데이터 관점 컴포넌트의 변환 결과를, 그림 18은 FlightBooking 컴포넌트 Customize 인터페이스에서 서비스 어댑테이션 모델로의 변환을 보여주며, 인터페이스에서 비즈니스 프로세스로의 변환의 경우, 컴포넌트 설계 시 Required 인터페이스에 해당하는 부분은 없었기 때문에 이번 사례 연구에서 다루지 않았으나 그림9가 충분한 적용성을 보여준다.
|
<h2>3.2 SOA 설계의 핵심 요소</h2> <p>SOA 기반 애플리케이션은 일반적으로 계층적인 아키텍처를 기반으로 하고 있다. 우리는 SOC의 핵심 산출물을 정의하고 이를 기반으로 서비스 지향 설계에서 주요한 핵심 요소를 도출한다. (그림 2)는 이런 핵심요소와 요소 간의 관계를 정의한 메타 모델을 보여준다.</p> <p>비즈니스 프로세스(Business Process, BP): 비즈니스 프로세스는 서비스 소비자 관점에서 정의된 작업의 순서를 정의한 것으로, 사용자가 기업에서 수행하는 비즈니스 활동 또는 실행기술을 나타낸다. 비즈니스 프로세스는 비즈니스의 주요한 기능을 기술한다. 하나의 비즈니스 프로세스는 여러 개의 하위 프로세스로 분해될 수 있고, 하위 프로세스는 더 작은 단위로 분해될 수 있다. 일반적으로 BP는 유즈 케이스(use case)와 객체의 메소드보다 비교적 단위가 크고 작은 단위의 액티비티(activity) 간의 워크플로우로 정의된 다. 현재 비즈니스 프로세스를 명세하는 데에는 BPEL이 가장 널리 사용되고 있다.</p> <p>서비스: 서비스는 서비스 소비자가 원하는 요구사항을 만 족시킬 수 있는 하나 이상의 기능을 포함하는 단위이다. 서비스 소비자는 자신이 필요로 하는 요구사항을 만족시킬 수 있는 서비스를 호출하고, 서비스 제공자는 수익을 창출할 수 있는 기능을 서비스 형태로 제공한다. 즉, 서비스는 소비자의 요구사항에 맞는 기능을 서비스 제공자가 제공할 수 있도록 하는 수단이다. 서비스는 제공되는 기능의 크기 또는 범위에 따라서 단일 서비스 혹은 복합 서비스로 정의될 수 있다.</p> <p>단일 서비스(atomic service)는 더 이상 분해되지 않는 기능 단위로, 단순한 기능을 수행하는 태스크를 나타낸다. 단일 서비스는 필요한 기능을 모두 포함하고 있으므로, 다른 서비스와 상호작용하거나 다른 서비스에 의존하지 않고 독자적으로 기능을 수행한다. 이런 단일 서비스는 서비스 컴포넌트(service component)로 구현된다. 서비스는 서비스 인터페이스로만 서비스 소비자에게 노출되고, 서비스의 내부 구현을 숨겨져 있다. 그러므로 인터페이스가 잘 정의되어 있다면, 서비스 내부인 서비스 컴포넌트는 다양한 프로그래밍 패러다임을 이용하여 구현될 수 있다. 서비스 컴포넌트는 객체 지향 프로그래밍의 객체 또는 컴포넌트 기반 개발의 컴포넌트로 구현된다.</p> <p>복합 서비스(composite service)는 하나 이상의 서비스로 구성되어 워크플로우(Workflow)를 나타내며, 포함되는 서비스는 단일 서비스 또는 또 다른 복합 서비스가 될 수 있다. 워크플로우는 복합 서비스에 포함되는 여러 서비스간의 제어 흐름을 나타내며, 일반적으로 SOA에서는 워크플로우가 BPEL문서로 기술된다. 비즈니스 프로세스의 워크플로우와 복합 서비스의 워크플로우는 명세하는 방법은 BPEL로 동일하다. 그러나 비즈니스 프로세스의 경우 특정 애플리케이션 하나 만을 위해 정의하지만, 복합 서비스의 경우 여러 애플리케이션에서 재사용할 수 있는 목적으로 정의한다는 점이 다르다.</p> <p>서비스 인터페이스: 서비스가 제공하는 기능은 서비스의 구현 내용을 숨긴 상태에서 오직 서비스 인터페이스를 통해 사용자에게 제공된다. 즉, 서비스 인터페이스는 서비스 소비자가 서비스와 상호작용할 수 있는 수단을 제공한다. 서비스 인터페이스는 특정 프로토콜, 오펴레이션, 입력 데이터 등 서비스를 호출하는데 필요한 정보를 포함한다. 서비스 인터페이스는 서비스 소비자나 다른 서비스에서 참조할 수 있는 형태로 표현되며, 서비스 기능을 사용하거나 서비스로부터 실행 결과를 받기 위해 서비스 소비자가 제공해야 하 는 정보를 기술한다. SOA에서 서비스 인터페이스는 WSDL을 이용해서 명세되고 서비스 저장소에 등록되며, UDDI와 같은 서비스 발견 메커니즘을 통해서 발견된다.</p> <p>서비스 어댑테이션(adaptation) 모델: SOC에서는 서비스의 재사용을 위해 서비스는 공통적인 특성으로 필수적으로 갖고 있어야 한다. 서비스의 공통적인 특성은 사용자나 문맥(context)에 따라 조금씩 달라질 수 있는데, 이를 가변성이라 일컫는다. 그러므로, 공통성과 가변성 (C&V)는 이 산출물에 서술되어야 하며, 적절한 어댑테이션 메커니즘(mechanism)이 서비스 컴포넌트 설계 시 내제되어야 한다. 서비스 어댑테이션 모델은 가변점과 각 서비스에 맞는 관련 있는 가변점을 포함하고 있다.</p>
|
본 논문에서는 서비스 소비자 관점에서 정의된 작업의 순서를 정의한 비즈니스 프로세스, 기능의 크기나 범위에 따라 분류되는 단일 서비스와 복합 서비스, 특정 프로토콜과 오퍼레이션과 입력 데이터 등의 서비스를 호출하는데 필요한 정보를 포함하는 서비스 인터페이스, 가변점과 각 서비스에 맞는 연관된 가변점을 포함하는 서비스 어댑테이션 모델에 대해서 정의한다.
|
<p>부분매핑 01. 비즈니스 로직 컴포넌트와 비즈니스 프로세스: CBD에서 비즈니스 로직 컴포넌트는 마크로 워크플로우를 포함하고 있다. 이 마크로 워크플로우에는 다른 비즈니스 로직 컴포넌트나 데이터 관점 컴포넌트의 호출 순서가 포함되어 있으며, 이 호출 순서는 여러 곳에서 재사용할 수 있는 형태로 제공된다. 이런 워크플로우 설계에는 UML의 액티비티 다이어그램 등이 활용된다. 비즈니스 프로세스 역시 다른 서비스를 제어하기 위한 일련의 제어 흐름 (Control flow)을 갖고 있다. 제어 흐름에 따라서 다른 서비스들의 호 출을 결정한다. 그러므로 컴포넌트의 마크로 워크플로우를 기반으로 비즈니스 프로세스의 제어 흐름을 도출할 수 있다. 그러나 비즈니스 로직 컴포넌트의 워크플로우는 재사용을 기반으로 설계되었으나, 비즈니스 프로세스의 제어 흐름은 특정 문맥(context)에 맞게 설계되어 있다. 그러므로 특정문맥에 맞게 재사용 가능한 워크플로우를 특화시키고, 문맥 특화적인 설계를 추가하여야 한다.</p> <p>부분매핑 02. 비즈니스 로직 컴포넌트와 복합 서비스 워크플로우: 비즈니스 로직 컴포넌트와 복합 서비스의 워크플 로우는 목적 측면에서 동일하다. 즉, 재사용할 수 있는 제어 흐름을 포함하고 있기 때문에 부분매핑 01과 달리 특화시키는 과정은 필요하지 않다. 그러나 비즈니스 로직 컴포넌트의 워크플로우와 복합 서비스의 워크플로우의 설계 결과가 다르기 때문에 비즈니스 로직 컴포넌트 워크플로우 설계의 내용을 가져와서 복합 서비스의 워크플로우 설계에 활용하는 부분매핑이 이루어진다.</p> <p>부분매핑 03. 데이터 관점 컴포넌트와 서비스 컴포넌트: 데이터 관점 컴포넌트는 엔티티 클래스를 포함하고 있으며, 지속적으로 데이터 관리나, 비즈니스 로직 컴포넌트에서 요구하는 질의에 따른 데이터 처리를 위한 함수를 제공한다. 이런 기능은 서비스에서도 역시 필요하다. 즉, 서비스에서 제공하는 대부분의 기능성은 사용자에게 입력을 받아서 그 입력에 대한 처리를 한다거나, 요청에 따른 응답을 수행한다. 이를 위해서는 서비스를 구현하고 있는 컴포넌트 중에서 데이터 관점 컴포넌트의 기능성을 포함하고 있는 것이 있어야 하므로 전체 매핑될 수 있다. 즉, 서비스 컴포넌트가 데이터 관점 컴포넌트를 포함한다 할 수 있다.</p> <p>부분매핑 04. Required 인터페이스와 비즈니즈 프로세스: 비즈니스 프로세스는 다른 서비스의 호출을 제어하고 있다. 이를 위하여 연결되는 두 개의 서비스 간의 입력 및 출력의 매핑 관계를 정의하여야 한다. 이 매핑 관계를 정의하기 위하여 비즈니스 프로세스가 중재자 역할을 하는데, 이 때 비즈니스 프로세스 측면에서 필요로 하는 오퍼레이션 및 관련 속성을 명세하여야 한다. 즉, 비즈니스 프로세스 측면에서 필요로 하는 오퍼레이션 및 관련 속성의 의미하는 바는 서비스를 실행하기 위하여 선행 서비스에서 수행되어야 하는 오퍼레이션 및 관련 속성을 의미하게 된다. 즉, 이런 정보를 명세하기 위하여 컴포넌트의 Required 인터페이스가 활용될 수 있다.</p> <p>부분매핑 05. Required 인터페이스와 워크플로우: 복합 서비스의 워크플로우는 비즈니스 프로세스의 제어 흐름 중 재사용 가능하다는 점만 다르기 때문에, 활용될 수 있는 이유는 부분매핑 04에서 언급한 것과 동일하다.</p> <p>부분매핑 06. Customize 인터페이스와 서비스 어댑테이션 모델: 컴포넌트 인터페이스 중 커스터마이즈 인터페이스의 경우, 현재 서비스 인터페이스를 명세하는 대표적인 표준인 WSDL에서 명세할 수 있는 방법을 제공하고 있지 않다. 반면, Customize 인터페이스에서 컴포넌트를 특화하기 위하여 제공하는 오퍼레이션 집합들은 컴포넌트의 가변성 지원 정도를 요약해서 보여준다. 이 정보는 서비스 어댑테이션을 수행하기 위한 명세에서 사용될 수 있다.</p> <p>이렇게 정의된 매핑 관계를 기반으로 5장에서 변환 기법을 정의한다. 그러나 (그림 3)의 매핑 관계에서 보듯이 모든 SOA 설계 산출물이 CBD 설계 산출물로부터 유도되지는 않는다. 단일 서비스 및 복합 서비스를 정의하기 위한 구성 요소는 CBD 설계 산출물로부터 유도되지만, 직접적으로 단일 서비스 및 복합 서비스를 정의할 수는 없다. 그 이유는 컴포넌트에서 정의하는 재사용 단위와 서비스에서 정의하는 재사용 단위가 차이가 있을 수 있기 때문이다. 그러므로 본 논문에서는 CBD 설계 산출물에서 SOA 설계 산출물로 변 환이 되지 않는 단일 서비스 및 복합 서비스 설계에 대한 지침을 다룬다.</p>
|
본 논문에서는 정의된 매핑 관계를 바탕으로 변환 기법을 정의한다. 그러나 직접적으로 복합 서비스와 단일 서비스를 정의할 수는 없어 서비스에서 정의하는 재사용 단위와 컴포넌트에서 정의하는 재사용 단위가 차이가 있을 수 있기 때문에 CBD 설계 산출물에서 SOA 설계 산출물로 변환이 되지 않는 복합 서비스와 단일 서비스 설계에 대한 지침을 다룬다.
|
<p>부분매핑 02. 비즈니스 로직 컴포넌트에서 복합 서비스의 워크플로우로의 변환: 비즈니스 로직 컴포넌트에서 복합 서비스의 워크플로우로의 변환은 부분매핑 01의 경우와 비슷하다. 단, 비즈니스 로직 컴포넌트와 마찬가지로 복합 서비스는 재사용을 목적으로 설계 및 구현되기 때문에 특정 문맥에 맞게 특화시키는 작업은 수행하지 않아도 된다.</p> <p>부분매핑 03. 데이터 관점 컴포넌트에서 서비스 컴포넌트로의 변환: 데이터 관점 컴포넌트는 데이터베이스의 데이터를 관리하기 위한 질의를 담당하는 클래스와 이런 질의를 제어하는 클래스로 나뉜다. 질의를 담당하는 클래스의 경우 데이터베이스에 접속하고 질의를 전송하기 위한 JDBC 드라이버와 질의 자체를 담당하는 오퍼레이션을 포함한다. 질의를 제어하는 클래스는 컴포넌트의 Provided 인터페이스와 매핑될 수 있도록 질의의 추상화 레벨을 향상시켜서 오퍼레이션을 정의한다.</p> <p>서비스 역시 대부분 데이터를 다루고 있기 때문에 서비스의 데이터를 저장하고 있는 데이터베이스의 데이터를 관리하기 위한 질의를 담당하는 클래스와 이런 질의를 제어하는 클래스를 포함한다. 그러나 서비스의 경우 질의만을 위한 기능성을 제공하지 않고, 이런 질의를 통해 얻을 수 있는 사용자 관점의 기능성이 필요하다. 또한, 데이터 관점 컴포넌트에서 제공하고 있는 질의를 담당하는 클래스에서 사용하고 있는 JDBC 드라이버의 경우 서비스 컴포넌트에 부합될 수도 있고 아닐 수도 있다. 그러므로 데이터 관점 컴포 넌트에서 정의하고 있는 질의를 위한 오퍼레이션만 서비스 컴포넌트로 변환이 가능하다.</p> <p>부분매핑 04. Required 인터페이스에서 비즈니스 프로세스로의 변환: 컴포넌트 Required 인터페이스는 특정 기능의 수행을 위해서 다른 컴포넌트의 기능성을 사용하기 위하여 정의한다. 즉, Required 인터페이스는 다른 컴포넌트의 호출을 암시적으로 명세한다.</p> <p>SOA 설계에서 비즈니스 프로세스는 여러 서비스 간의 호출을 제어하기 위한 흐름을 포함한다. 이 흐름에는 관련 있는 두 개의 서비스 오퍼레이션 간의 입력 및 출력의 연관 관계를 포함한다. 이런 연관 관계를 정의하기 위하여 BPEL로 명세된 비즈니스 프로세스의 경우, 중재자 역할을 한다. 즉, 두 개의 서비스 오퍼레이션 간의 호출 관계는 비즈니스 프로세스를 거쳐서 수행되게 된다. 즉, 비즈니스 프로세스에는 서비스 호출을 위해 필요한 입력을 명세하여야 한다. (그림 9)는 Required 인터페이스에 명세되어 있는 정보를 활용하여 비즈니스 프로세스에 필요한 정보를 유도하는 것을 보여준다. 즉, Required 인터페이스에 있는 오퍼레이션 이름은<invoke>라는 엘리먼트 안에 기술하여야 하는 operation 어트리뷰트에 매핑되고, 입력 매개 변수는 inputVariable 어트리뷰트에 매핑된다. 그러나 Required 인터페이스 정보의 활용은 비즈니스 프로세스가 이미 도출되어 있다는 가정에서 활용가능하기 때문에 비즈니스 프로세스의 워크플로우 자체를 정의하는 데에는 도움이 되지 않는다. 즉, 비즈니스 프로세스의 워크플로우가 결정되어 있는 상태에서 상세 정보를 기술하는 데에 이 변환이 활용된다.</p> <p>부분매핑 05. Required 인터페이스에서 복합 서비스 워크플로우로의 변환: Required 인터페이스에서 복합 서비스 워크플로우로의 변환은 부분매핑 04의 경우와 비슷하다. 비즈니스 프로세스와 복합 서비스의 워크플로우의 설계 결과물은 동일하게 BPEL 문서와 WSDL 문서이기 때문이다. 즉, 부분매핑 04에서 언급한 바와 같이 Required 인터페이스 명세서에서 인터페이스를 구성하고 있는 오퍼레이션 이름, 입력 매개 변수의 이름과 타입이 워크플로우로 매핑될 수 있다. 그러므로 변환을 하기 위한 수행 절차 및 내용은 부분 매핑 04와 동일하다. 단, 부분매핑 04와 다른 점은 매핑된 결과물인 복합 서비스 워크플로우가 재사용 가능하다는 점이다.</p> <p>부분매핑 06. Customize 인터페이스에서 서비스 어댑테이션 모델로의 변환: 컴포넌트 인터페이스 중 커스터마이즈 인터페이스의 경우, 현재 서비스 인터페이스를 명세하는 대표적인 표준인 WSDL에서 명세할 수 있는 방법을 제공하고 있지 않다. 반면, Customize 인터페이스에서 컴포넌트를 특화하기 위하여 제공하는 오퍼레이션 집합들은 컴포넌트의 가변성 지원 정도를 요약해서 보여준다. 즉, (그림 10)에서처럼 Customize 인터페이스를 포함하고 있는 컴포넌트, 인터페이스 이름, 인터페이스 내의 메소드 이름 등을 명세하고 있다.</p> <p>이 정보 중 가변성 구현방식에 기입되어 있는 정보가 서비스 어댑테이션 모델의 각 어댑테이션 할 수 있는 지점으로 매핑된다. 즉, 가변성 구현 방식에는 가변점 유형, 가변치 유형, 가능한 가변치 등이 명세된다. 관련 내용은 서비스 어댑테이션에서 어댑테이션을 수행하여야 할 지점, 어댑테이션 가능한 범위 등을 명세하는 데 사용될 수 있다.</p>
|
비즈니스 로직 컴포넌트에서 복합 서비스의 워크플로우로의 변환은 부분매핑 01의 경우와 비슷, 데이터 관점 컴포넌트는 데이터베이스의 데이터를 관리하기 위한 질의를 담당하는 클래스와 제어하는 클래스로 나뉘고 컴포넌트 Required 인터페이스는 특정 기능의 수행을 위해서 다른 컴포넌트의 기능성을 사용하기 위하여 정의, Required 인터페이스에서 복합 서비스 워크플로우로의 변환은 부분매핑 04의 경우와 비슷하며 컴포넌트 인터페이스 중 커스터마이즈 인터페이스의 경우, 현재 서비스 인터페이스를 명세하는 대표적인 표준인 WSDL에서 명세할 수 있는 방법을 제공하고 있지 않다.
|
<h1>5. 매핑에 따른 변환 기법</h1> <h2>5.1 전체 매핑을 위한 변환 기법</h2> <p>전체매핑 01. 공통성 및 가변성 모델에서 서비스 어댑테이션 모델로의 변환: CBD 가변성 모델은 가변점, 가변성 유형, 가변치, 범위를 기술하고 있다. CBD에서 가변점과 가변치는 컴포넌트에 설계되고 커스터마이즈 인터페이스를 통해 해결된다. SOA에서 서비스 어댑테이션은 프로토콜(protocol)과 연결, 메시지 형태, 순차나 오퍼레이션(operation), 이와 같이 세 개의 형태로 나뉘어진다. (그림 4)는 CBD의 공통성 및 가변성 모델에서 서비스 어댑테이션 모델로의 변환을 보여준다.</p> <p>먼저, 컴포넌트 인터페이스의 가변성은 서비스 인터페이스의 가변성으로 변환된다. 일반적으로 컴포넌트 인터페이스의 가변점은 인터페이스를 구성하는 오퍼레이션의 입, 출력 메시지 유형 (예를 들어 매개 변수 개수, 매개 변수 타입)이다. 서비스 인터페이스를 구성하는 오퍼레이션의 입, 출력 메시지 유형은 일반적으로 XML 스키마를 이용하여 정의하게 되어 있으며, 스키마를 변경시킴에 따라 특화활동이 가능하다. 즉, 가능한 가변치에 해당하는 서비스 오퍼레이션의 입, 출력 메시지의 유형을 XML 스키마에 정의하고 정의된 여러 XML 스키마 중 요청에 따라 인터페이스 가변성을 특화시키도록 한다. 그러므로 컴포넌트 인터페이스의 가변성은 서비스 인터페이스와 관련있는 입, 출력 메시지 유형을 위한 XML 스키마로 매핑될 수 있다.</p> <p>둘째, 컴포넌트의 워크플로우 가변성은 컴포넌트 내에 있는 컨트롤 클래스가 엔티티 클래스를 호출하는 순서에서의 가변성을 의미한다. 서비스 역시 컴포넌트처럼 컨트롤러 클래스와 엔티티 클래스로 구성된다. 즉, 서비스 내에서의 워크플로우 가변성 역시 서비스 내에 있는 컨트롤 클래스가 엔티티 클래스를 호출하는 순서에서의 가변성이 되며, 이에 따라 컴포넌트를 위해 설계해놓은 워크플로우 가변성이 그대로 매핑된다.</p> <p>셋째, 컴포넌트의 어트리뷰트 가변성은 컴포넌트 내에 클래스를 구성하는 어트리뷰트의 개수 및 각어트리뷰트의 유형에서 가변성이 발생한다. 서비스를 구성하는 것 역시 클래스이므로 컴포넌트의 어트리뷰트 가변성을 모두 매핑할 수 있다.</p> <p>넷째, 컴포넌트의 메소드 가변성은 컴포넌트를 구성하고 있는 클래스의 메소드를 구현하는 로직에서의 가변성을 의미한다. 서비스를 구성하는 것 역시 클래스이므로 컴포넌트의 메소드 가변성을 모두 매핑할 수 있다.</p> <p>다섯째, 컴포넌트의 지속성 가변성은 컴포넌트에서 처리하는 데이터 중 외부 데이터베이스에 저장하는 부분에서의 가변성을 의미한다. 서비스 역시 내부에서 처리하는 데이터가 있으며 영구적으로 관리하기 위해서는 일반적으로 외부 데이 터베이스를 사용한다. 즉, 컴포넌트에서 외부 데이터베이스를 사용하는 데 있어서 발생하는 가변성은 서비스에서 외부 데이터베이스를 사용하기 위해 필요한 가변성과 동일하다.</p> <p>이를 위해서 세 가지 스텝을 적용할 수 있다. 첫째, 컴포넌트의 C&V 모델을 기반으로 서비스 컴포넌트의 공통성과 가변성을 식별한다. 둘째, 사용자가 서비스를 개인화할 수 있도록 문맥을 제공한다. 마지막으로, 서비스 어댑테이션 모델을 설계하고 명세한다.</p>
|
CBD에서 가변점과 가변치는 컴포넌트에 설계되고 커스터마이즈 인터페이스를 통해 해결되며 SOA에서 서비스 어댑테이션은 프로토콜과 연결, 메시지 형태, 순차나 오퍼레이션과 같이 세 개의 형태로 나뉘어지며 컴포넌트 인터페이스의 가변성은 서비스 인터페이스의 가변성으로 변환되고 가변점은 인터페이스를 구성하는 오퍼레이션의 입, 출력 메시지 유형으로 XML 스키마를 이용하여 정의하게 되어 있어 스키마를 변경시킴에 따라 특화활동이 가능하다.
|
<p>전체매핑 03. Provided 인터페이스에서 서비스 인터페이스로의 변환: 비즈니스 로직과 데이터 관점 컴포넌트의 인터페이스 모두 서비스 인터페이스로 매핑한다. CBD에서 비즈니스 로직 컴포넌트의 워크플로우는 마크로(macro) 워크플로우와 마이크로(micro) 워크플로우로 나뉜다. 마크로 워크플로우는 상위 수준의 컴포넌트 간 흐름이고, 마이크로 워크플로우는 클래스나 내부 컴포넌트 간 흐름으로 비교적 상세하게 기술된다. 4장 2절에서 언급하였듯이, SOC에서는 마크로 워크플로우는 비즈니스 프로세스에 매핑되고 제어된다. 그러므로 본 절에서는 비즈니스 로직 컴포넌트의 마이크로 워크플로우와 데이터 관점 컴포넌트의 인터페이스만 고려하면 된다. (그림 6)에서 보는 바와 같이, 비즈니스 로직 컴포넌트의 마이크로 워크플로우는 로직(logic)이나 연산 (computation)을 처리하는 서비스의 인터페이스와 매핑된다. 그리고 데이터 관점 컴포넌트의 인터페이스는 데이터를 관리하는 서비스 컴포넌트의 인터페이스와 매핑된다.</p> <p>이를 위해 다음과 같은 세 가지 스텝을 적용할 수 있다. 첫째, 각 비즈니스 로직 컴포넌트의 마이크로 워크플로우를 식별하고, 로직을 처리하는 서비스 컴포넌트의 인터페이스로 매핑한다. 둘째, 각 데이터 관점 컴포넌트의 인터페이스를 식별하고 데이터를 관리하는 서비스 컴포넌트의 인터페이스로 매핑한다. SOC에서 서비스 인터페이스는 WSDL로 명세되고, UDDDI에 등록된다. 먼저, 비즈니스 프로세스로부터 인터 페이스가 정의되는데, 이 인터페이스는 서비스 컴포넌트가 반드시 준수해야 하는 것을 정의하고 있다. 컴포넌트 인터페이스와 서비스 컴포넌트의 인터페이스로 예상되는 것과 사이에 차이가 생길 수 있다. 그러므로 마지막 스텝에서는 컴포넌트 인터페이스의 시그니처 조절하여 서비스 컴포넌트 인터페이스의 시그니처에 알맞게 해야 한다. 이는 이름을 다시 명명하거나, 매개변수를 묶거나, 데이터 타입을 조절하거나, 매개변수 리스트를 재배치하는 것으로 가능하다.</p> <p>(그림 7)은 Provided 인터페이스에서 서비스 인터페이스로의 변환하기 위한 유도 과정을 보여준다. 유도 시 WSDL에서 매개변수를 명세하는 표준 방법을 준수해야 한다. 인터페이스 오퍼레이션(operation)은<interface>태그(tag) 안에서 \( \left \langle \right . \) operation name \( \left . = { } ^ {\prime \prime \prime \prime } \right \rangle \)으로 표현할 수 있다. 매개변수 이름은<operation>태그 안에서 \(< \) input label \( = { } ^ {\prime \prime } \) in \( ^ {\prime \prime } \)element \( = { } ^ {\prime \prime \prime \prime } >\)로, 반환 메시지의 이름은 \(< \) output label \( = \) "out \( { } ^ {\prime \prime } \)element \( = ^ {\prime \prime \prime \prime } >\)로 표현 가능하다. 그리고 오퍼레이션, 매개변수, 반환 메시지의 타입은 \(< \)type \( >\) 이나 \(< \)complexType \( >\)을 이용하여 기술할 수 있다.</p>
|
컴포넌트 인터페이스와 서비스 컴포넌트의 인터페이스로 예상되는 것에 차이가 생길 수 있으므로 마지막 스텝에서는 컴포넌트 인터페이스의 시그니처 조절하여 서비스 컴포넌트 인터페이스의 시그니처에 알맞게 해야 한다. 이름을 다시 명명, 매개변수를 묶거나, 데이터 타입을 조절, 매개변수 리스트를 재배치하는 것이다.
|
<h2>5.3 매핑되지 않는 요소를 위한 설계 기법</h2> <p>단일 서비스 및 복합 서비스를 구현을 위해 설계 정보는 모두 매핑이 가능하지만, SOA 설계 및 구현을 위해서는 SOA 표준에 따라서 인터넷을 통하여 서비스를 사용할 수 있도록 서비스화하는 요소들이 존재한다.</p> <p>단일 서비스를 위한 서비스 인터페이스 정의: 서비스를 명세함에 있어서 일반적으로 WSDL 표준을 따른다. WSDL은 4개의 주요 엘리먼트인 \( \langle \) types \( \rangle \), \( \langle \) message \( \rangle \), \( \langle \) portType \( \rangle \), \( \langle \) bindings \( \rangle \)로 구성된다. 이 엘리먼트 중에 \( \langle \) types \( \rangle \), \( \langle \) message \( \rangle \), \( \langle \) portType \( \rangle \)는 컴포넌트의 Provided 인터페이스에 기술된 내용에서 매핑된다. \( \langle \) bindings \( \rangle \)는 단일 서비스를 호출하기 위해 사용하여야 할 프로토콜, 호출할 수 있는 엔드포인트(endpoint) 주소 등을 명세하여야 한다.</p> <p>복합 서비스를 위한 비즈니스 프로세스 및 서비스 인터페이스 정의: 단일 서비스와 마찬가지로, WSDL 인터페이스는 서비스 소비자가 BPEL로 정의된 비즈니스 프로세스를 접근하고 호출하기 위해 필요하다. 다른 서비스들과 상호 작용을 한다. BPEL에서 복합 서비스와 상호 작용하는 모든 파트너는 \( \langle \) partnerLinks \( \rangle \) 엘리먼트에 정의된다. \( \langle \) receive \( \rangle \)와 \( \langle \) reply \( \rangle \)액티비티에서 명세된 partnerLink 어트리뷰트는 서비스 소비자가 비즈니스 프로세스를 호출하고 프로세스로부터 응답을 얻는 것을 가능하게 해준다. 그리고 \( \langle \) invoke \( \rangle \) 액티비티에서 명세된 partnerLink속성은 비즈니스 프로세스가 다른 서비스와 상호 작용하는 것을 가능하게 해준다. 이와 동시에 복합서비스를 위한 WSDL에서는 \( \langle \) partnerLinks \( \rangle \)을 이용하여 복합 서비스에 참여하는 모든 파트너들에 대한 정보를 \( \langle \) partnerLinks \( \rangle \)에 정의된 정보와 동일하게 선언해야 한다. 또한, 복합 서비스를 호출하기 위해 사용하여야 할 프로토콜, 호출할 수 있는 엔드포인트 주소 등을 명세하여야 한다.</p> <p></p>
|
단일 서비스를 위한 서비스 인터페이스 정의는 일반적으로 WSDL 표준을 따르며, 복합 서비스를 구현하기 위한 설계 정보는 모두 매핑이 가능하다. 하지만 인터넷 서비스화하에 필요한 요소들이 SOA 표준에 따라 존재해야 한다. BPEL에서는 복합 서비스와 상호 작용하는 모든 파트너는 \( \langle \) partnerLinks \( \rangle \) 요소에 정의된다.
|
<h1>2. 관련 연구</h1> <p>Lee의 연구는 기존에 있는 CBD 워크벤치를 활용하여 웹 서비스 기반의 애플리케이션을 구현하는 방법을 제안한다. 이를 위하여, 이 연구에서는 구현된 컴포넌트의 기능을 활용하여 웹 서비스로 래핑하는 방법을 사용하고 있다. 즉, 기존에 있는 컴포넌트 구현을 바꾸지 않고, 외부에 추가적인 장치를 구현함으로써 CBD 기반의 애플리케이션을 서비스 기반 애플리케이션으로 변환하는 데에 초점을 맞추고 있 다. 그러나 컴포넌트의 배포형태는 바이너리 코드로써 기능성을 제공하는 데에는 충분하지만, 컴포넌트 자체가 서비스로 일대 일 매핑이 될 수도 있고, 그렇지 않을 수도 있다. 이를 해결하기 위해서는 CBD 설계를 활용하여야 하지만, Lee의 연구에서는 CBD 구현 결과를 활용하고 있기 때문에, SOA 에서 말하는 서비스 개념을 만족하는 서비스를 설계 및 구현하는 데에는 한계점이 있다.</p> <p>Brown의 연구는 본 연구와 비슷하게 컴포넌트에서 웹 서비스의 변환에 대해 다룬다. 이를 위해 먼저 컴포넌트와 웹 서비스 간의 공통성 및 가변성을 분석한다. 이를 기반으로 컴포넌트에서 웹 서비스의 변환을 위한 주요 활동을 정의한다. 주요 활동은 크게 두 가지로 정제(Refinement)와 변환(Transformation)이 그것이다. 정제 활동은 컴포넌트에서 서비스로 정제하기 위해 필요한 비즈니스적인 관점에 대해 다루고 있고, 변환 활동은 정제 활동에서 나온 결과물을 기반으로 한 리팩토링, 모델 간 변환, 모델-코드 변환을 통하여 웹 서비스를 도출하고 있다. 그러나 Brown의 연구에서 모델 간 변환 및 모델-코드 변환을 다루고 있으나, CBD 설계와 SOA 설계의 주요 요소를 활용한 측면이 아니라 컴포넌트와 서비스의 비즈니스적인 관점의 차이를 기반으로 변환을 기술하고 있다. 즉, 실제 CBD 설계를 SOA 설계로 변환하는 데에는 한계점이 있다.</p> <p>Jiang의 연구는 컴포넌트 기반으로 서비스를 만드는 프레임워크를 제안하고 있다. 이 프레임워크를 통해서 모바일 데이터 서비스의 설계와 개발을 단순화하는데 목적을 두고 있다. 즉, 이 프레임워크를 사용하여, 모바일 서비스의 구조, 행위, 배치 등을 UML로 설계할 수 있는 기반을 제공하고 있다. 그러나 이 연구에서는 서비스를 설계하는 데에 있어서 CBD 설계 기술이 어떻게 사용될 수 있는 지에 초점을 맞추고 있어서, 기존에 우리가 갖고 있는 CBD 설계 자산을 활용하여 SOA 설계를 도출하는 데에는 한계가 있다.</p> <p>현재, 대부분의 연구에서 서비스를 설계하고 개발하려면 컴포넌트의 역할이 중요하다는 것을 역설하고 있다. 그러나 컴포넌트 구현 결과를 활용하거나, 비즈니스 관점에서의 CBD 설계와 SOA 설계의 변환을 다룸으로써, 변환의 추상화 레벨이 너무 높거나, 너무 낮다. 즉, 이미 우리가 갖고 있을 수 있는 CBD 설계를 SOA 설계로 변환하여 기존 설계의 재사용을 가능하게 하고, 비용을 절감하게 하기에는 한계점이 있다.</p>
|
Lee의 연구는 기존에 있는 CBD 워크벤치를 활용하여 웹 서비스 기반의 애플리케이션을 구현하는 방법을 제안하지만, SOA 에서 말하는 서비스 개념을 만족하는 서비스를 설계 및 구현하는 데에는 한계점이 있다. 또, Jiang의 연구는 컴포넌트 기반으로 서비스를 만드는 프레임워크를 제안하고 있는 등 현재 대부분의 연구에서 서비스를 설계하고 개발하려면 컴포넌트의 역할이 중요하다는 것을 역설하고 있지만, 이미 우리가 갖고 있을 수 있는 CBD 설계를 SOA 설계로 변환하여 기존 설계의 재사용을 가능하게 하고, 비용을 절감하게 하기에는 한계점이 있다.
|
<h1>요 약</h1> <p>안전과 보안상의 이유로 감시 카메라의 시장이 확대되고 있으며 이에 대해 영상 인식 및 추적에 관한 연구도 활발히 진행 중에 있으나인식 및 추적되는 객체의 정보를 획득하여 객체를 식별하는 데는 한계가 있다. 특히, 감시카메라가 활용되는 쇼핑몰, 공항 등과 같은 개방된 공간에서는 다수의 객체들을 식별하기란 더욱 어렵다. 따라서 본 논문에서는 기존의 영상기반 객체 인식 및 추적 시스템에 RFID 기술을 더하여 객체 식별기능을 추가하고자 하였으며 영상 기반과 RFID의 문제 해결을 위해 상호 보완하고자 하였다. 그리하여 시스템의 모듈별 상호작용을 통해 영상기반 객체 인식 및 추적에 실패할 수 있는 문제와 RFID의 인식 오류로 발생할 수 있는 문제에 대한 해결 방안을제시하였다. 객체의 식별 정도를 4단계로 분류하여 가장 최상의 단계로 객체가 식별이 되도록 시스템을 설계해 식별된 객체의 데이터 신뢰성을 유지할 수 있도록 하였다. 시스템의 효율성 판단을 위해 시뮬레이션 프로그램을 구현하여 이를 입증하였다.</p> <h1>1. 서 론</h1> <p>최근 학교 폭력, 묻지마 범죄 등 날로 증가하는 강력 범죄 발생이 빈번해지면서 안전과 보안에 대해 관심이 증가하고 있으며 이에 따라 감시 카메라의 설치가 증가하고 있. 또한, 감시카메라 뿐만 아니라 IP 카메라의 등장으로 인하여 영상 기반 객체 인식 및 추적 기술의 적용분야가 기존에 비해 더 확대되어 다양한 분야에서의 연구가 활발히 진행되고 있다.<p>그 중에서도 실시간 환경에 더욱 적합하도록 객체 인식및 추적과 관련한 연산을 줄이기 위한 연구가 가장 많이 진행 되어오고 있으며, 배경 차 알고리즘과 모션 히스토리 이미지 알고리즘을 융합한 알고리즘이나 파티클 필터를 활용하는 등 다중 객체를 인식 및 추적하는 연구 사례가 있다. 최근에는 지능형 CCTV의 등장함에 따라 객체 인식 및 추적뿐만 아니라 무리지어 다니는 객체들의 인식 및 추적이나 객체의 특정 행위를 인식하여 해당 객체를 추적하는연구가 진행되고 있다.</p> <p>그러나 실질적으로 다수의 객체가 존재하고 객체들의 다양한 동선이 발생하는 실시간 환경에서는 객체 인식 및 추적뿐만 아니라 객체의 식별을 필요로 하는 경우가 발생한다. 단순히 객체를 인식해 추적하는 것은 객체에 대한 정보가 존재하지 않아 객체 추적 전이나 후에 객체의 정보를 별도로 파악해야만 했으며 활용 분야가 한정적이었다. 하지만인식되는 객체의 식별을 통해 인식 및 추적함으로써 범죄자나 특정 고객의 위치, 특성을 파악하는 등 객체의 정보를활용할 수 있어 넓은 분야에 적용이 가능해진다. 예를 들자면, CCTV 통합 관제 센터 모니터 요원의 전문성이 부족하여 생겼던 문제점을 해결해 줄 수 있을 것이다.</p>
|
감시 카메라의 시장 확대 및 영상 인식 및 추적 연구가 활발하게 진행되고 있으나, 객체를 식별하는 데는 한계가 있다. 이 논문에서는 기존의 영상을 이용하여 객체 인식 및 추적 시스템에 RFID 기술을 더하여 객체 식별기능을 추가하였다. 이는 영상 기반과 RFID이 가지고있는 문제 보완하기위해 제안하였다. 4단계로 분류한 객체의 식별 정도를 유지하고, 시뮬레이션 프로그램을 통해 시스템의 효율성을 입증하였다.
|
<h1>4. 시스템 모듈별 통신</h1> <h2>4.1 Server와 VSN의 통신</h2> <p>VSN과 Server의 통신은 VSN이 객체 추적에 문제가 발생한 경우에 이루어진다. 영상 기반이기 때문에 빛이나 장애물 등 주변 환경에 대한 영향을 받아 객체를 추적하다 놓치는 경우와 객체 사이의 거리가 가까워 중첩되어 보이기때문에 객체를 인식하기 어려워 문제가 발생하는 경우로 나뉜다. VSN은 이러한 문제가 발생하게 되면, 놓친 객체의 정보를 서버에 전송한다. 이는 위의 Fig. 6과 같으며 객체가 50개가 존재하는 환경이라고 가정한다.</p> <p>이 문제는 VSN이 Server에 이를 알리며 Server가 해결한다. Fig. 6(a)와 같은 경우는 기존 객체의 정보와 상관없이 이전에 부여되지 않은 새 객체 ID 부여(ID 51)와 함께 초기화가 이루어지며, Fig. 6(b)와 같은 경우에는 객체들을GA로 묶음으로써 문제가 같이 발생한 다른 객체의 정보를 포함한 형태가 만들어지고 앞에서 이미 ID 51이 생성되었으므로 다음 새 ID인 ID 52와 ID 53이 각각의 객체에 부여된다. 이 때, 기존 ID는 객체의 Object History에 저장된다.</p> <p>새 ID를 부여함으로써 객체 식별하는 시간을 지연시키고기존 객체의 정보를 완벽히 복구할 수는 없지만 예상치 못한 데이터 손실의 문제를 기존 ID 정보를 통하여 조금이나마 해결할 수 있으며 추후 일어날 수 있는 객체의 잘못된감지 발생을 사전에 차단함으로써 Server는 신뢰성 높은 객체의 정보를 관리할 수 있다.</p> <h2>4.2 Server와 Cluster의 통신</h2> <p>Server와 Cluster의 통신은 객체가 Cluster로부터 완전히나가는 경우에 발생한다. 객체가 Cluster를 완전히 나갈 때해당 객체 정보를 해당 Cluster의 위치 정보와 함께 Server에 전송하면 Server의 데이터베이스에서 해당 객체의 정보를 갱신한다. 그러나 이때, Server에 저장된 데이터를 갱신할 때 데이터가 충돌하는 경우가 발생할 수 있다. 예를 들어, ID가 1인 객체의 RFID가 3이라고 이미 저장되어 있다고 가정할 때 Server 데이터베이스 갱신을 통해 ID가 2인객체의 RFID 역시 3으로 감지되어 저장된다고 할 때, 기존에 저장된 객체 정보와 충돌할 수 있다. 이러한 경우에Server는 최근에 저장된 데이터가 정확성이 더 높다고 판단하고 기존에 저장된 ID 1이 현재 위치해있는 Cluster에게ID 1에 관한 현재 정보를 요구한다. 이로써 Server에 저장된 객체 정보의 정확성을 높인다.</p> <p>또한, Server에서 저장된 객체 정보를 토대로 Server 내에서 GA에서 SA로 변환하는 확인 과정이 별도로 발생하며SA로 변환된 객체가 존재하는 경우, 객체 정보가 수정된다.이 때 Server는 해당 객체가 위치한 Cluster로 객체 정보를전송해 Cluster와 Server 모두 최신 데이터를 유지할 수 있도록 한다.</p>
|
VSN과 Server의 통신은 장애물 등 주변 환경에 대한 영향을 받아 객체를 추적하다 놓치는 경우와 객체 사이의 거리가 가까워 중첩으로 인해 객체를 인식하기 어려운 경우에 VSN이 놓친 객제 정보를 서버에 전송하며 이루어지며, Server와 Cluster의 통신은 객체가 Cluster를 완전히 나갈 겨우 객체 정보를 Cluster의 위치 정보와 함께 Server에 전송하며 이루어져 Server의 데이터베이스에서 해당 객체의 정보를 갱신하도록 한다.
|
<h1>5. 시스템의 효율성 증대를 위한 방법</h1> <h2>5.1 GA를 SA로 변환 방법</h2> <p>시스템의 객체 식별 정도를 높이기 위하여 GA를 SA로의변환이 요구된다. 다수의 객체와 Cluster가 존재하는 환경일수록 처리해야할 데이터의 양은 비록 커지지만 객체의 감지가 더욱 활발히 이루어진다. 즉, Fig. 7과 같이 다수의Cluster가 존재하는 환경에서 그 수에 비례하여 객체의 감지발생률이 높아진다. 이러한 환경에서의 객체 식별이 SA인객체의 수가 더 많이 발생할 수 있고 GA가 계속 발생하더라도 Fig. 8과 같이 가장 많이 감지된 객체의 RFID를 발견하거나 객체의 RFID가 GA에서 SA로 변환되는 과정을 통해다른 객체까지도 SA로 변환될 수 있다. 즉, 객체와 Cluster가 많으면 많을수록 객체 감지 발생률이 높아 식별이 더 잘이루어지며 Cluster의 증가로 인해 Server의 업데이트가 더자주 발생하므로 데이터의 신뢰성이 유지될 수 있다.</p> <h2>5.2 FA를 TA로 변환하기 위한 해결 방법</h2> <p>앞서 설명한 Fig. 4와 같은 Cluster의 형태인 경우, 다수RFID 태그 충돌 문제로 인하여 FA가 발생할 수 있다. 뿐만 아니라 실제 환경에서 RFID의 신호는 유동적이기 때문에Fig. 9와 같이 RFID 감지 선이 Visual Sensor 인식 선을 넘어가는 경우가 발생할 수 있다. 이때는, RFID가 먼저 감지가 된 후에 Visual Sensor로 인식하게 되며 다른 객체로 식별하여 FA가 발생 확률이 크다.</p> <p>RF 신호의 변동을 예측하기 어렵기 때문에 FA의 수를없앨 수는 없으나 FA인 객체를 찾아내어 해당 객체의RFID를 삭제하거나 FA인 객체의 올바른 RFID를 찾아서바꿔줌으로써 FA의 수를 최소화할 수 있다. 이를 위해 Fig.10과 같은 방식을 이용한다. 이 방식은 Cluster 크기보다 크게 c-region을 설정하는 방법으로 기존에 객체가 Cluster를나갈 때 Server와 통신을 했다면, Cluster가 아닌 c-region을 나갈 때 Server와의 통신을 함으로써 최대한 Server에데이터가 업데이트 되는 것을 늦춘다. 업데이트를 늦춘 시간동안 Server에서 Cluster에게 객체에 대한 데이터를 제공함으로써 해당 객체의 RFID가 잘못됨을 판단하며 객체가 다시 Cluster 내부에 들어가 객체 감지 및 추적이 다시 이뤄짐으로써 객체에 대한 정보를 다시 얻을 수도 있다.</p> <h1>6. 시뮬레이션 실행 및 결과</h1> <h2>6.1 시뮬레이션 구현</h2> <p>앞서 설명한 시스템 설계대로 Visual Studio 2012 소프트웨어가 설치된 환경에서 실제 국내의 한 쇼핑몰 일부분을 바탕으로 시뮬레이션을 구현하였다. 시스템의 Cluster와 Server에서 이루어지는 알고리즘은 다음 Figs. 11, 12와 같다.</p> <h2>6.2 시뮬레이션 실행 길과</h2> <p>시뮬레이션 프로그램은 1000초 동안 각 Cluster의 위치를사용자들의 왕래가 많은 비교적 넓은 공간으로 설정하여Fig. 13과 같이 진행되었다. 객체는 노란 네모, Cluster의Visual Sensor 감지 선은 초록색, RFID 감지 선은 빨간색,Cluster 밖의 c-reigion은 보라색 선으로 표현하였다. 또한,RFID가 유동적으로 변하는 실제 상황과 유사한 환경으로맞추기 위하여 Cluster의 형태를 5초 주기로 Cluster 모양을변형하도록 설정하였다.</p> <p>시뮬레이션 프로그램을 객체의 개수가 50개와 100개,Cluster의 개수를 4개와 8개로 각각 4개의 상황에 따라 실행해 보았으며 실행 결과는 Fig. 14와 같이 SA, GA, FA의 변화를 그래프로 표현하였다. 이를 통하여 객체와 Cluster의 개수가 많을수록 GA와 SA의 발생이 더욱 활발함을 알 수 있었으며 시스템의 효율성에 객체와 Cluster의 개수가 영향을미치는 것을 확인할 수 있었다. 또한, 객체가 GA 형태로 감지된 경우의 SA 형태로 변환과 FA 형태로 감지된 경우의TA 형태로 변환이 잘 이루어짐을 보였다. 전체적으로 시뮬레이션 결과 그래프는 SA 형태의 객체 개수가 제일 많았으며 이는 시스템의 객체 식별이 잘 이루어졌음을 의미한다.</p> <h1>7. 결 론</h1> <p>기존 감시카메라 영상 기반 다수 객체 인식 및 추적하는시스템에 RFID를 활용하여 인식된 객체를 식별하는 기능을더해 성능을 높인 시스템을 제안하였다. 다수의 객체가 존재하고 다양한 객체의 움직임이 발생되는 개방된 공간에서Server와 Cluster, VSN으로 구성된 시스템의 각 모듈별 상호작용을 통해 객체의 데이터 정확성 및 신뢰성을 높였으며,영상기반에서 발생할 수 있는 객체의 인식 및 추적 실패와RFID의 태그 충돌로 인해 발생할 수 있는 RFID 인식 실패문제에 대처하기 위한 방안을 제시하였다.</p> <p>이러한 시스템 설계를 바탕으로 국내의 쇼핑몰을 예시로들어 시뮬레이션 프로그램을 구현하였다. 실행 결과, 시간에따라 SA의 수 증가 및 GA와 FA의 수 감소하는 모습을 통해 객체의 식별이 잘 이루어짐을 확인하였으며 시스템의 효용성을 검증하였다. 뿐만 아니라 객체와 Cluster의 개수가많을수록 객체의 움직임 파악이 쉬워 객체의 식별이 더욱빠르게 가능함을 확인하였다.</p> <p>추후, 앞서 시스템에서 제안한 Cluster의 구조에서 VSN의 바깥 선과 안쪽 선의 간격, FA를 TA로 바꾸기 위해 제안된 c-region의 간격에 따라서 객체의 인식 속도와 서버의업데이트 속도가 달라질 수 있다. 또한 Cluster의 개수가 많을수록 객체의 식별은 빠르게 발생하지만 Cluster와 Server사이, VSN과 Server 사이에 통신 문제가 발생할 가능성도있다. 이에 따른 적당한 기준을 세울 필요가 있으며 이에 대한 연구가 추가적으로 필요하다.</p>
|
RFID를 영상기반 다수 객체 인식 및 추적시스템에 적용시켜서 인식된 객체를 더욱 더 잘 식별하는 시스템을 개발했다. 식별률을 높이기 위해서 FA를 TA로 바꾸는 과정이 들어갔다. 추가적으로 RF신호의 변동 예측을 위해서 FA 객체를 찾아내서 거기에 대응되는 RFID를 삭제하는 등 방법으로 FA를 최소화 할 수도 있었다. 실험 결과 SA의 수 증가와 GA, FA의 수 감소 모습을 통해서 효율성이 좋다고 판단했다. 여기에 더해 cluster 개수가 많을수록 객체 식별이 더욱 빠름을 확인했다. 하지만 서버와의 통신 문제 발생 가능성이 존재하기 때문에, 기준이 명확하게 필요하며, 추가적인 연구도 필수적이다.
|
<h1>2. 시스템 개요 및 구성</h1> <p>본 연구는 다수의 객체가 다양하게 움직일 수 있는 환경인 공항, 쇼핑몰, 사무실 등 개방된 공간을 주요 환경으로 설정한다. 즉, 홀로 다니거나 무리지어 다니는 객체들의 다양한 동선이 발생해야 하며 복잡한 공간의 구조로 인해 객체들의 동선에 영향을 끼치지 않아야 한다. 그래서 Fig. 1과 같이 Cluster와 Visual Sensor를 사람들이 가장 많이 이용하는 주요 공간 곳곳에 설치하고 각 모듈의 Server와 통신을 통해 객체를 식별하고 추적함으로써 모든 객체의 데이터를 관리하는 방식으로 시스템이 운영된다. 이 때, 객체는 각각의 고유 ID를 통해 구분하며 하나의 RFID를 지닌다고 가정한다. 즉, 하나의 객체 ID는 한 개의 RFID만을 가지게 된다.</p> <p>본 연구에서 제안하는 시스템의 구성은 다음과 같다.</p> <ul> <li>Server - RFID를 지닌 모든 객체들의 데이터 관리</li> <li>Visual Sensor Network(VSN) - 감시 카메라를 통한 객체 인식 및 추적</li> <li>Cluster - Cluster 영역 내에 있는 객체를 RFID로 식별</li></ul> <p>Server, VSN, Cluster와 같이 세 가지 모듈로 구성되어각 모듈별 상호작용을 통해 시스템이 운영된다. Cluster와 Sever는 각각 객체 정보를 관리하는 DB를 가지고 있으며 서로 객체의 데이터를 전송함으로써 객체 정보의 정확성 및 신뢰성을 높인다. Fig. 2는 세 가지 모듈로 구성된 이 시스템의 구성을 도식화한 것이다.</p> <p>객체의 식별은 객체 식별 여부, 객체 식별의 정확성, 식별된 객체의 수에 따라 나누어 판단한다. 우선, 객체 식별 여부는 객체가 식별되었는가 아닌가에 대해 UA(UnknownAssociation)과 KA(Known Association)으로 나뉜다. 객체가 Cluster 내부에 들어가 인식이 되어야만 UA에서 KA 상태로 변환된다. 두 번째로, 객체 식별이 올바르게 이루어졌는가에 대해 TA(True Association)과 FA(False Association)으로 나뉜다. 즉, 객체가 자신의 RFID에 맞게 잘 감지된 경우에는 TA이며 자신의 RFID가 아닌 다른 객체의 RFID가감지된 경우에는 FA이다. FA는 RFID의 다중 태그 인식으로 인한 충돌 문제로 발생할 수 있다. FA인 객체를 TA로 바꾸어 FA인 객체의 수를 최소화하는 것이 이 시스템의 주요 목표이다. 마지막으로, 객체가 TA라는 전제하에 RFID가 감지된 객체의 수가 1개 혹은 다수인지에 따라 SA(SingleAssociation)과 GA(Group Association)로 나뉜다. 객체가 SA인 경우에 홀로 식별되었으므로 다른 객체와의 혼동이 없기 때문에 식별이 가장 잘 되었다고 판단한다. 반면, 객체가 GA인 경우 무리지어 다니는 다른 객체들과 같이 묶여 식별되었으므로 SA에 비해 비교적 식별이 정확히 되지 않았다고 판단할 수 있다. 그러나 추후 다른 Cluster에 진입함으로써 인식되는 RFID 데이터를 통해 SA로 변환될 수 있어 잠재적 식별 가능 상태로 판단한다. Fig. 3은 객체 식별유형에 따라 이 내용을 도식화한 것이다.</p>
|
하나의 객체 ID는 한 개의 RFID을 갖는다. 객체의 식별은 객체 식별 여부인 UA와 KA, 객체 식별의 정확성인 TA와 FA, 식별된 객체의 수 SA와 GA로 나누어 판단한다.
|
<h1>5. 플래시 콘텐츠의 접근성 개선 방법</h1> <p>접근성 평가 결과에서 나타난 오류들과 경고들을 해결하기 위해서 학습콘텐츠 개발 시 대체텍스트, 내비게이션, 단축키 및 논리적 순서, 계층적 트리구조를 접근성을 개선 할 수있는 방법을 다음과 같이 제시할 수 있다.</p> <p>우선 플래시에서 가장 문제시 되는 접근성 오류는 대체 텍스트와 관련된 항목에서 가장 오류가 많이 지적되고 있음을 알 수 있다. 대체 텍스트(text equivalent)에 대한 오류를 개선하기 위해서는 HTML의 경우 ‘alt' 사용을 사용하면 되지만 플래시에서는 ActionScript 또는 액세스 가능성 패널의 이름 필드를 이용하면 된다. 짧은 대체 텍스트는 이름 필드를 사용하고 긴 대체 텍스트의 경우는 설명 필드를 이용하면 접근성을 충분히 보장할 수 있다. 대체 텍스트가 필요하지 않는 경우는 대체 텍스트를 null로 제공해야 한다.</p> <p>둘째, 키보드의 내비게이션 문제를 해결이 필요한데, 이는 브라우저를 이용하여 주소 창에서부터 시작해 Tab키(정방향)와 Shift + Tab키(역방향)를 이용하여 문서 처음부터 끝까지 모든 기능을 이용할 수 있는지 점검해야 한다.</p> <p>셋째, 플래시 콘텐츠는 버튼에 단축키를 제공해서 접근성을 높일 수 있다. 지체 장애인들은 키보드를 사용하는데 어려움이 있으므로 누르는 키의 수를 줄일 수 있는 단축키를 제공하는 것이 바람직하다. 또한, 이동하는 순서가 화면에 보이는 배치 순서와 같거나 읽어주는 순거가 논리적으로 적합하게 구성될 수 있도록 해야 한다.</p> <p>넷째, 부모와 자식 간의 계층적인 트리의 구조와 트리의 깊이에서도 명확한 트리의 구조를 제시하여 마우스를 사용할 수 없는 장애인들이 키보드로도 모든 컨트롤을 제어 가능 할 수 있도록 해야 한다. 액세스 가능성 패널에서 ‘자식객체 액세스 가능’ 옵션을 선택하여 자식 객체들에게도 별도의 접근성 지원할 수 있다.</p> <h1>6. 결 론</h1> <p>국내 이러닝 콘텐츠들이 주로 사용하는 플래시 기법은 사이버대학의 콘텐츠 제작 기법으로도 많이 활용되고 있다. 그러나 플래시의 접근성 기술을 활용하는 제작 기법은 초보단계이며, 이에 대한 평가는 거의 이루어지지 않고 있다.</p> <p>본 연구는 AccChecker 평가도구를 이용한 국내 사이버대학의 플래시 이러닝 콘텐츠 접근성을 분석하였다. 그 결과,하나의 콘텐츠에서 18개-54개의 오류와 최고 71개의 경고수준이 조사된 콘텐츠도 있었다. 오류 평가항목에서는 대체텍스트, 계층적인 트리의 구조, 키보드 내비게이션에 대한 오류가 가장 심각했으며, 경고는 트리의 깊이와 속성의 문제로 인한 접근성 제한을 확인 할 수 있었다.</p> <p>사이버교육의 대상과 범위가 점차 확대되면서, 이러닝 콘텐츠의 접근성은 중요한 현안으로 대두되고 있다. 사이버대학의 이러닝 콘텐츠들이 플래시를 사용할 경우 접근성 개선을 위한 기술을 확보하고 이에 대한 인식 확산이 시급하다.</p> <p>특히, 모든 학습자가 실질적으로 학습 콘텐츠에 대해 어떠한 제한이 없이 접근이 가능 할 수 있도록 설계단계부터 접근성을 고려되어야 하며, 설계 시 접근성 개선을 위해 IWACG와 보편적 학습설계(UDL: Universal Design for Learning)를 활용하는 것도 필요하다. 마지막으로 더 나아가 플래시와 같은 신기술 관련 제작 기법이나 새로운 웹 접근성 표준 기술사양 등을 고려한 다각적인 연구가 필요하며 개발자, 설계자들과 CEO의 인식 개선과 접근성 기술을 습득할 수 있는 교육이 필요하다.</p>
|
플래시 콘텐츠의 접근성 개선 방법으로 대체 텍스트, 내비게이션, 단축키 및 논리적 순서, 계층적 트리구조를 사용하는 것이 좋다. 국내 사이버대학의 플래시 이러닝 콘텐츠 접근성을 AccChecker 평가도구를 이용해 분석한 결과, 대체 텍스트, 계층적인 트리의 구조, 키보드 내비게이션에 대한 오류가 가장 심각하고, 경고는 트리의 깊이와 속성의 문제로 인한 접근성 제한이 확인되었다.
|
<h1>2. 문헌 연구</h1> <h2>2.1 웹 접근성</h2> <p>Tim Berners-Lee(1998)는 웹이란 '장애에 구애 없이 모든 사람들이 손쉽게 정보를 공유할 수 있는 공간'이라고 정의하였으며, 이것은 웹 콘텐츠 특히 이러닝 콘텐츠를 제작할 때에도 장애에 구애됨이 없이 누구나 접근할 수 있어야 함을 시사하고 있다.</p> <p>접근성(Accessibility)이란 장애에게 국한된 것이 아니라 모든 사람이 정보통신 기기나 서비스를 손쉽게 활용할 수있도록 만드는 것을 말하는 것이다. W3C(World WideWeb Consortium)는 웹 접근성을 “장애를 가진 사람들도 웹을 이용할 수 있도록 보장하는 것으로, 장애를 가진 사람들이 웹 콘텐츠를 인식하고, 운영하고, 이해하고, 기술에 상관없이 이용할 수 있도록 웹 콘텐츠를 만드는 것”로 정의하고 있다.</p> <p>즉, 웹 접근성이란 장애인, 노인 등 어떠한 사용자, 어떠한 기술 환경에서도 전문적인 능력이나 다른 사람의 도움이 없이 웹 사이트에서 제공하는 모든 정보에 동등하게 접근 할 수 있도록 보장하는 것이라 할 수 있다. 이는 사용자들이 웹 자료를 사용할 수 있도록 개발자들에 의해 사용하는 접근성 기술과 대체 시스템, 혹은 장애인과 노년층이 활용할수 있는 보조공학 기기의 활용을 가능하게 하는 것을 포함할 수 있다.</p> <h2>2.2 사이버대학교의 웹컨텐츠</h2> <p>평생교육법에 근거해 시작한 사이버대학은 최근 고등교육법에 적용을 받고 있다. 현재 정부에서 인가받은 국내 사이버대학은 2011년 개교 예정인 학교(한국복지사이버대)를 포함하여 4년제는 16개, 2년제는 2개교로 총 18개교이다. 최근 사이버대학원과정이 제공되면서 평생교육과 고등교육이 가능해 폭넓은 대상자를 가질 수 있게 되었다. 현재 인가받은 18개 사이버대학에서는 제공하고 있는 웹콘텐츠를 살펴본 결과, 사이버대학 콘텐츠 플래시 기반인 것을 알 수 있다. 대부분은 플래시 기반에서 AOD나 VOD및 강의 녹화방식으로 제공되는 경우, 플래시 기반에서 강의를 다운로드 또는 스트리밍 방식으로 제공하는 경우 등으로 나누어진다.</p> <p>웹 접근성 평가 선행연구들은 플래시 콘텐츠의 접근성 평가를 다루지 않았으며, 대부분 K-WAH나, A-Prompt, FAE 등의 접근성 평가 도구를 활용하여 웹 구조와 HTML 스타일 등을 평가하고있다.</p> <h2>2.3 플래시 콘텐츠의 접근성</h2> <p>HTML과 CSS 위주로 작성한 일반적인 웹콘텐츠는 웹페이지의 일부 정보를 갱신할 경우 전체페이지를 로딩해야하므로 복잡한 기능을 수행할 때 많은 웹페이지의 로딩과 전환이 필요하다. 이러한 HTML 환경은 사용자와 콘텐츠의 상호작용이 정적이어서 동적 콘텐츠나 데스크톱 프로그램과 같이 복잡한 기능을 구현하기 어렵다.</p> <p>이에 반해 플래시는 벡터 이미지를 사용하기 때문에 브라우저 창의 크기가 바뀌더라도 화면의 질이 떨어지지 않으며, 화려한 디자인의 웹 콘텐츠를 구현할 수있어서 인터넷 콘텐츠에 가장 많이 사용되는 표준이다.</p> <p>하지만 플래시는 기존의 HTML 환경에서는 사용하지 않았던 정보의 계층적인 형태를 표현하는 트리컨트롤(TreeControl), 지도를 표시하는 맵 컨트롤(Map Control) 등은 장애인, 특히 시각장애인에게는 더욱 생소하여 접근하는데 어려움이 있다. 또한, 마우스를 이용한 드래그앤드롭(drag-and-drop)은 키보드 사용을 구현하기 매우 어려우며, 구현하더라도 장애인들이 키보드로 실행하기 위해서는 키보드를 누르는 횟수가 늘어나 접근하기에 어려울 수 있다.</p> <h2>2.4 국내외 웹접근성 지침</h2> <p>국제 표준화 기구인 W3C의 WAI(Web AccessibilityInitiative)에서 제정된 웹 접근성 지침WCAG2.0(WebContents Accessibility Guideline 2.0)이 가장 대표적인 지침으로 우리나라를 비롯해 일본 등 세계여러나라, 혹은 민간 기관의 지침들이 WCAG의 지침을 따르거나 이를 바탕으로한 자국 지침을 개발해 사용하고있다.</p> <p>WCAG 2.0은 지각성(perceivable), 운용성(operable), 이해성(understandable) 그리고 내성(robust)이라는 4가지 원칙과그 아래에 12가지 지침을 가지고 있다.</p> <p>우리나라도 장차법을 제정하면서 WCAG 1.0을 참고하여 2003년에 국내 실정에 맞게 한국형 웹 콘텐츠 접근성 지침으로 KWCAG을 개발했으나 현재 IWCAG 2.0인 인터넷 웹 접근성 지침을 국내 기준으로 활용하고있다. IWACG2.0역시 인식, 운용, 이해의 용이성과 기술적 진보성(Robust)의 4지침으로 14개의 세부 항목으로 구성되어 있다. 그러나 국내 지침들도 HTML 및 CSS 기반 웹 콘텐츠의 접근성 중심으로 기술되어 있어서 아직 Flash, Flex, Ajax, Sliveright 등과 같은 Rich Media 형태로 제공되는 이러닝 콘텐츠의 접근성 지침으로 활용하기에는 부족하다.</p>
|
웹 접근성이란 장애를 가진 사람들도 웹을 이용할 수 있도록 보장하고, 웹 콘텐츠를 인식하고, 운영하고, 이해하고, 기술에 상관없이 이용할 수 있도록 콘텐츠를 만드는것이다. HTML, CSS를 위주로 작성된 웹 콘텐츠는 일부 정보를 갱신할때 전체페이지를 갱신해야하므로 많은 로딩과 전환이 필요하다. 플래시는 이러한 HTML,CSS의 단점을 보완해주지만 장애인, 특히 시각장애인에게는 더욱 생소하여 웹 접근성이 떨어진다. 때문에 웹접근성에 대한 지침이 만들어졌는데 W3C의 WAI에서 제정한 웹 접근성지침이 대표적이다.
|
<h1>요 약</h1> <p>최근 이러닝은 다양한 계층의 교육 수요자들의 학습 욕구를 충족시켜주고 특히 직업교육, 고등교육, 평생교육, 특수교육 등 교육서비스의 분야를 확대해 나가고 있다. 국내 사이버대학에서 제공하는 이러닝 콘텐츠들은 플래시 애니메이션으로 제작되는 많은 양의 콘텐츠들로 되어있어 장애를 가지고 있는 사용자들이 접근하기 쉽지 않게 개발되었음이 지적되어 왔다. 본 연구는 AccChecker를 사용해 플래시 콘텐츠의 접근성을 분석한 결과 문제점을 지적하고 이에 대한 개선 방안을 제시하였다. 가장 많은 문제점은 대체 텍스트와 키보드 내비게이션, 속성, 트리의 깊이와 구조 등으로 분석되었으며, ‘장애’를 가진 학생들과 저시력 사용자들이 접근하기에 매우 어려운 것으로 조사되었다. 따라서 국내 이러닝 콘텐츠가 더 많은 사용자들을 위한 ‘실질적’인 서비스 확대하기 위해서는 접근성을 확보해 장애 정도에 따른 사용자들이 모두 수월하게 접근 할 수 있도록 개발되어야 한다. 접근성은 개발단계에서 수정 혹은 보완되기 보다는 설계 단계부터 고려되어야 하기 때문에 접근성과 보편적 설계는 개발자만이 아니라 설계자들과 CEO의 이해와 함께 필요 기술이 확보되어야 한다</p> <h1>1. 서 론</h1> <p>최근 평생교육과 사회 재교육에 대한 수요확대에 따라서 시간과 장소의 제약에 벗어나 학습자가 접근할 수 있는 평생교육형태의 사이버대학이 운영되고 있다.</p> <p>현재 국내 이러닝 콘텐츠 대부분이 플래시(Flash)기반으로 제작된 경우가 많은데, 사이버대학 또한 파일의 형태와 콘텐츠 유형이 플래시로 구성된 유사한 구조를 가지고 있다. 플래시는 HTML 기반의 웹 콘텐츠에 비해 다운로드에시간이 걸리는 문제는 있지만, 화려한 애니메이션과 함께 고급스러운 음향 효과를 함께 제공하며 화려한 디자인의 웹 콘텐츠를 구현할 수 있는 장점이 있어서 플래시 기술이 광범위하게 사용되고 있다. 하지만 플래시 콘텐츠는 장애를 가진 학습자나 노인 학습자에게는 멀티미디어 환경에 적응하지 못하는 새로운 어려움을 주고 있다.</p> <p>또한 국가 표준 웹 콘텐츠의 접근성 평가는 주로 HTML및 CSS(Cascade Style Sheet)로 작성된 것만 평가를 하고있으며, 선행 연구들에서도 웹 접근성 평가시 플래시를 제외하여 HTML 및 CSS로 작성된 웹 콘텐츠에 대한 접근성을 평가하고 분석하고 있다. 이러한 평가들은 웹 콘텐츠를 평가하는데 실질적으로 부분적인 평가에 지나지 않는다.</p> <p>본 연구에서는 국내외 접근성 지침, 플래시 콘텐츠에 대한 접근성을 조사하고 AccChecker(UI AccessiblilityChecker)를 이용하여 서울에 위치한 9개의 사이버대학의 플래시 이러닝 콘텐츠 접근성을 평가하고, 그에 대한 접근성의 문제점을 파악하여 향후 국내 플래시 이러닝 콘텐츠로 구성되어 있는 사이버대학의 접근성 개선을 위한 방안을 제시하고자 한다.</p>
|
최근 이러닝은 학습 욕구를 충족시켜주기 위해서 교육서비스의 분야를 확대해 나가고 있으며 국내 사이버대학에서 제공하는 이러닝 콘텐츠들은 장애를 가지고 있는 사용자들은 접근하기 쉽지 않아 학습자가 쉽게 접근할 수 있도록 평생교육형태의 사이버대학이 운영되고 있으며 국가 표준 웹 콘텐츠의 접근성 평가는 주로 HTML및 CSS로 작성된 것만 평가를 하고 선행 연구들에서도 웹 접근성 평가시 플래시를 제외하여 HTML 및 CSS로 작성된 웹 콘텐츠에 대한 접근성을 평가하고 분석하고 있다.
|
<h1>I. 서 론</h1><p>비디오 영상을 이용한 정보 획득, 식별, 추적 등의 영상 처리 응용이 내장형 시스템에 널리 적용되어 감에 따라, 제한된 재원을 가지는 내장형 시스템의 특성을 고려한 실시간 영상 처리 기법 개발에 관심이 집중되고있다. 영상 처리 응용 분야에서는, 활용 하고자 하는 목적에 따라 여러 영상 처리 알고리즘들이 조합되어 사용된다. 예를 들어, 영상 처리를 이용해 외부 영상의 분석 및 추적을 수행한 응용 분야에서는, 영상 내에서의 특징을 추출하는 알고리즘, 추적해야 할 특징을 선별하는 알고리즘, 그리고 선별된 특징들의 이동거리를 추출하는 알고리즘으로 구성되었다. 이렇게 여러 영상처리 알고리즘들이 조합되어 실시간으로 내장형 시스템에서 수행되기 위해서는, 알고리즘들이 효율적으로 처리되어 수행 시간이 단축되어야 한다. 영상 내 특징 추출 알고리즘은 추적뿐만 아니라 획득, 식별 등의 다양한 분야에서 영상 내 분석이 필요한 특징들의 정보를, 다른 알고리즘들에게 제공하는 역할로 사용된다. 광범위하게 응용되는 특징 추출 기법의 수행 시간을 단축하면, 영상 처리를 적용한 다양한 응용 분야에서 조합되는 다른 알고리즘들의 수행 시간 여유를 확보할 수 있기 때문에, 특징 추출 알고리즘의 수행시간을 단축시킬 필요성이 있다.</p><p>널리 이용되는 특징 추출 기법들로서는 SIFT, Harris, SUSAN 등이 있으나, 적은 하드웨어 자원으로 구성된 내장형 시스템에서 실시간 처리되도록 구현하기에는 계산 수식이 복잡해 실시간 요건을 만족시키기 힘들거나 시스템 구현비용이 커진다. 본 논문에서는 구현비용 및 실시간을 고려하여 수식이 비교적 단순한 FAST-n (Feature from Accelerated Segment Test)알고리즘을 하드웨어로 구현하였다. FAST-n 알고리즘은 기준 픽셀과 인접 픽셀들 간의 어둡고 밝음을 임계값을 이용해 판단하고, \(n\)개 이상의 연속되는 인접 픽셀들이 어두운 상태 혹은 밝은 상태를 유지하면 해당 기준 픽셀을 특징으로 판단한다. 처리 과정이 간단한 가감셈 연산과 비교 연산만으로 구성되기 때문에 순수 하드웨어 구현시, 적은 비용을 들여 로직 설계가 가능하여 하드웨어 가속기에 해당 알고리즘을 선정하고 구현하였다.</p><p>\( 640 \times 480 \) 화소 크기의 초당 25프레임을 출력하는 비디오 신호를 내장형 시스템이 입력받아 프레임 별 영상의 모든 픽셀들에 대해 특징 여부를 판단하는 과정이 요구되면, 영상 크기에 의해 메모리로 부터 읽고 처리해야할 계산 양이 많아진다. 많은 계산 양을 실시간 처리 요건에 따라 일반 목적 프로세서가 장착된 내장형 시스템에서 수행하면 하드웨어 구현 비용 증가뿐만 아니라, 고속 클럭 동작에 따른 하드웨어 발열의 효율적인 처리가 요구된다. 그러나 FPGA를 이용하면 비교적 적은 하드웨어 비용으로 실시간 처리가 가능하게 구현할 수 있고, 일반 목적 프로세서와 비교해 낮은 클록을 사용하기 때문에 하드웨어 발열과 전력 소모를 저하시킬 수 있다.</p><p>본 연구에서는 Rosten의 FAST-n 알고리즘의 \(n\)에 9를 적용(FAST-9)하여 실시간 처리가 가능한 하드웨어 가속기를 로직으로 FPGA에 구현하였다. Ⅱ장에서는 FAST-9 알고리즘을 3단계로 구분하여 설명하고, 설계된 하드웨어 가속기를 설명 세부적으로 설명한다. Ⅲ장에서는 구현된 하드웨어를 합성 툴과 시뮬레이션 툴을 사용해 구현 비용 및 성능 분석을 수행한다. Ⅳ장에서는 제안한 하드웨어 가속기에 대해 결론을 지었다.</p>
|
특징 추출 기법의 수행 시간 여유 확보를 위해 특징 추출 알고리즘의 수행 시간을 단축시킬 필요가 있어, 본 연구에서는 FAST-n 을 적용해 하드웨어 가속기를 로직으로 FPGA에 구현했다. 본 논문에서는 FAST-9 알고리즘을 3단계로 설명하고 세부적으로 하드웨어 가속기를 설명하며, 구현된 하드웨어를 합성 툴과 시뮬레이션 툴을 사용해서 성능을 분석하여 최종적으로 결론을 짓는다.
|
<h2>2. 하드웨어 구현</h2><p>본 논문에서는 디지털 논리 회로를 이용해 FAST-9 하드웨어 가속기(그림 2)를 FPGA에 설계하였다. 구현된 FAST-9 하드웨어 가속기는 알고리즘을 수행하기 위해 크게 특징 후보를 추출하는 FD 단계, 특징 후보들의 점수를 생성하는 FS단계, 그리고 인접한 특징 후보들 간의 점수를 비교해 대표 특징을 찾는 NMS 단계로 나누어 설계하였다. 설계된 각 모듈들은 처리 효율을 향상시키기 위해 파이프라인 구조를 채택하였다. 각 단계에서 필요로 하는 데이터들의 접근성을 높이기 위해 Block RAM (BRAM)을 사용하였다. 특히, 외부 메모리와 가속기 간의 접근성을 높이기 위해 사용된 BRAM은 Finite-state Machine (FSM)을 사용해 제어하였다. 하드웨어 가속기는 전체 영상에서 8줄 씩을 미리 저장할 수 있게 순환 구조의 Pixel Line을 두었다. Feature Information과 Feature Position 정보를 저장하고 부르기 위해 First In First Out (FIFO)를 이용하였다. FS 모듈의 결과물 중 특징 후보들의 점수는 정보의 양이 방대하기 때문에 외부 메모리에 \( 640 \times 480 \mathrm{~KB} \) 를 할당하고 저장하였다. 이렇게 외부 메모리에 저장된 특징 후보의 점수들은 4줄까지 저장 가능한 순환 구조의 Score Line을 두어, NMS 모듈이 저장된 특징 후보들의 점수를 외부 메모리로부터 가능한 지연 없이 읽어오도록 설계하였다. 제안한 가속기의 설정 및 시작과 끝은 FPGA에 내장된 PPCA40 프로세서를 이용해 소프트웨어로 처리하였다. 설계된 하드웨어는 아래 절차에 따라 수행된다. PPCA40 프로세서는 비디오 영상이 외부 메모리에 저장되고 있는지를 확인하다가, 외부 메모리에 비디오 영상이 저장되면, 가속기 내부 Configuration 레지스터에 임계값, 각 단계의 가속기 모듈들이 사용할 외부 메모리 주소, 그리고 영상 크기에 대한 정보를 가속기가 동작하도록 설정한다. FD 모듈(그림 3)은 외부 메모리에 저장된 영상 내에서 특징을 찾기 위해 다음과 같이 수행한다.</p><p>1-1) 특징을 찾기 위해 기준 픽셀과 비교할 인접 픽셀 16개를 Pixel Line에서 읽어온다.</p><p>1-2) 다음으로 Configuration 레지스터에서 읽어와 임계값과 기준 픽셀과의 합(bmax)과 차(bmin)를 구해 16개의 인접 픽셀과 비교할 정보를 생성하고 레지스터에 저장한다.</p><p>1-3) 만약, 저장된 합과 인접 픽셀을 비교해 인접 픽셀이 크면 \( S_{b r i g h t} \) 로 설정하고, 저장된 차와 인접 픽셀을 비교해 인접 픽셀이 작으면 \( S_{d a r k} \) 로 설정한다.</p><p>1-4) 설정된 인접 픽셀들의 결과가 아홉 개 이상 연속으로 \( S_{b r i g h t} \) 이거나 \( S_{d a r k} \) 이면, 이를 특징 후보로 정의하고 FS 모듈로 전송하기위해 Feature Information FIFO에 저장한다.</p><p>FS 모듈(그림 4)은 Feature Information FIFO의 상태를 살펴보다가 데이터가 저장되면, 저장된 특징 후보 정보를 읽어 특징 후보의 점수를 산정한다. 특징 점수는 Feature Information FIFO에 저장되어있는 특징이 특징 상태를 유지할 수 있는 최대 임계값이다. FS 모듈의 특징 여부를 판단하는 연산은 FD 모듈과 동일하며, 특징 상태가 유지되는 최대 임계값을 찾는 로직이 추가되었다. FS 모듈은 처리는 다음과 같다.</p><p>2-1) Configuration 레지스터에 저장된 임계값을 bmin 에 저장하고 bmax에 255를 저장하고 평균값을 구해서 저장한다.</p><p>2-2) 저장한 평균값과 Feature Information에 저장되어있던 인접 픽셀들과 비교해 인접픽셀이 크면 \( S_{b r i g h t} \), 작으면 \( S_{d a r k} \) 로 설정한다. 설정된 \( S_{b r i g h t} \) 또는 \( S_{d a r k} \) 가 9개 이상 연속이면 특징으로 판단한다.</p><p>2-3) 특징이면 bmin 값은 유지하고 bmax 값을 평균값으로 대체하고, 특징이 아니면 bmin 값을 평균값으로 대체하고 bmax 값은 유지한다.</p><p>2-4) 사용된 bmin, bmax가 같으면 bmin 값을 특징 후보의 점수로 정의해서 외부 메모리에 저장하고 외부 메모리 주소 정보를 Feature Position FIFO에 저장한다. 만약, 서로 다르면 저장된 bmin, bmax를 이용해 2-1)부터 다시 수행한다.</p><p>마지막으로 NMS 모듈(그림 5)은 외부 메모리에 저장되어있는 인접한 특징 후보들의 점수를 비교해, 가장 높은 점수를 가진 특징 후보를 특징으로 처리한다. 처리 절차는 다음과 같다.</p><p>3-1) Feature Position FIFO에 저장되어있는 기준 특징 후보 점수의 외부 메모리 주소를 읽어온다. 읽어온 주소 정보를 이용해 인접 특징 후보 점수들의 외부 메모리 주소를 계산한다.</p><p>3-2) 계산된 주소들로부터 특징 후보들의 점수를 읽어온 다음, 기준 특징 후보 점수와 비교한다.</p><p>3-3) 만약, 기준 특징 후보의 점수가 인접한 주변 점수들보다 크면 선택된 특징 후보를 특징으로 간주해 저장하지만, 작거나 같게 되면 특징에서 제외한다.</p><p>3-4) Feature Position FIFO에 저장되어있는 모든 특징 후보 정보에 대해서 상위 절차를 수행한다.</p><p>제안한 하드웨어 가속기는 입력 영상에 대해 FD 그리고 FS 단계를 거쳐 NMS 단계를 수행해 특징 추출을 마치게 되면, 인터럽트 제어기에 인터럽트 신호를 '1'로 설정함으로서 PPCA40 프로세서에게 특징 추출이 완료되었음을 알려준다.</p>
|
디지털 논리 회로를 이용한 FAST-9 하드웨어 가속기는 알고리즘을 수행위해 특징 후보를 추출(FD), 특징 후보들의 점수를 생성(FS), 인접한 특징 후보들 간의 점수를 비교해 대표 특징을 찾는 단계(NMS)로 나누어 설계하였다. 설계된 각 모듈들은 처리 효율을 향상시키기 위해 파이프라인 구조를 채택하였고 각 단계에서 데이터들의 접근성을 높이기 위해 BRAM을 사용하였다. PPCA40 프로세서는 비디오 영상이 외부 메모리에 비디오 영상이 저장되면, 가속기 내부 Configuration 레지스터에 임계값, 가속기 모듈들이 사용할 외부 메모리 주소, 영상 크기에 대한 정보를 가속기가 동작하도록 설정한다. 디지털 논리 회로를 이용한 FAST-9 하드웨어 가속기는 입력 영상에 대해 수행위해 특징 후보를 추출하는 단계 그리고 특징 후보들의 점수를 생성하는 단계를 거쳐 인접한 특징 후보들 간의 점수를 비교해 대표 특징을 찾는 단계를 수행으로 추출하면 인터럽트 제어기에 인터럽트 신호를 '1'로 설정하고 PPCA40 프로세서에게 특징 추출이 완료를 알려준다.
|
<h1>Ⅱ. 본 론</h1><h2>1. FAST-9 알고리즘</h2><p>일반적인 특징 추출 알고리즘은 입력 영상 내의 모든 픽셀들에 대해 특징 추출 검사를 하기 때문에, 추출된 특징 정보만을 사용하는 다른 알고리즘에 비해 수행 시간이 길다. 따라서 내장형 시스템에 적용할 특징 추출 알고리즘의 선정은 영상 처리를 수행하는데 소요되는 수행시간을 결정짓는 중요한 요소가 된다. 최근 자주 사용되는 알고리즘 중, Harris 및 DoG (Difference of Gaussian)를 적용한 SIFT 특징 추출 기법은 상관관계에 기반을 둔 적분연산을 수행해 수식을 하드웨어로 구현하였을 시의 구현 비용이 증가하고 처리 시간이 오래 걸리는 반면, FAST-9 기법은 구간 비교방식을 이용한 가감산 및 비교 연산을 수행하기 때문에 알고리즘을 하드웨어로 구현하였을 시에 적은 하드웨어 비용이 요구될 뿐만 아니라 신속 처리가 가능하다.</p><p>그림 1은 FAST-9 알고리즘을 설명하는 그림이다. FAST-9 기법은 3단계로 나누어 정의된다. 특정 픽셀을 인접한 픽셀들과 임계값 \(t\)를 기준으로 비교해, 9개 이상의 인접 픽셀들이 연속으로 밝거나 어두울 경우를 찾아 특징 후보를 정의하는 Feature Detection (FD) 단계, 각 특징 후보들의 특징 정도에 따라 점수를 부여하는 Feature Score (FS) 단계, 그리고 인접한 특징 후보들 간의 점수를 비교해 높은 점수를 가진 특징을 찾는 Non-maximal Suppression (NMS) 단계로 구성된다.</p><p>\( S_{p \rightarrow x}=\left\{\begin{array}{cr}S_{\text {dark }}, & I_{p \rightarrow x} \leq I_{p}-t \\ S_{s}, & I_{p}-t<I_{p \rightarrow x}<I_{p}+t \\ S_{\text {bright }}, & I_{p}+t \leq I_{p \rightarrow x}\end{array}\right. \)<caption>(1)</caption></p><p>FD 단계에서 사용되는 수식 (1)은 영상의 모든 픽셀에 적용되어 수행되어야 하기 때문에, 이의 처리 시간이 특징 추출 알고리즘의 전체 수행 시간 중 큰 비중을 차지한다. 선택된 기준 픽셀 \( I_{p} \) 와 원형으로 기준 픽셀 주변에 위치하고 있는 16개의 인접 픽셀 \( I_{p \rightarrow x} \) \( (x \in\{1,2, \ldots, 15,16\}) \) 들이 기준 픽셀 보다 밝은지 어두운지를 판단하는 수치적 기준인, 임계값 \( \mathrm{t} \) 를 설정한다. 설정된 임계값과 기준 픽셀의 합과 차를 이용하여, 만약 기준 픽셀과 임계값 \( t \) 의 차보다 인접 픽셀 값이 작으면 인접 픽셀을 \( S_{d a r k} \) 로, 임계값과 기준 픽셀과의 합보다 인접 픽셀 값이 크면 인접 픽셀을 \( S_{b r i g h t} \) 로 정의한다. 정의된 인접 픽셀들이 9개 이상 연속으로 \( S_{d a r k} \) 나 또는 \( S_{b r i g h t} \) 이면, 기준 픽셀을 특징 후보로 정의한다.</p><p>\( V=\max \left(\sum_{x \in S_{\text {Srigkt }}}\left|I_{p \rightarrow x}-I_{p}\right|-t, \sum_{x \in S_{\text {derk }}}\left|I_{p}-I_{p \rightarrow x}\right|-t\right) \)<caption>(2)</caption></p><p>특징 후보로 정의된 기준 픽셀들은 FS 단계에서 수식 (2)를 사용해 특징 정도에 따라 점수를 부여한다. 이는 FD 단계에서 사용한 임계값 \(t\)가 사용자가 초기에 임의로 설정한 값이라, 추출된 특징들은 임의성을 지니게 되기 때문이다. 이러한 특징들의 임의성을 NMS 단계에서 보상하고자 미리 수행되는 수식으로, FD 단계에서 특징으로 추출된 기준 픽셀 \( I_{p} \) 이 인접 픽셀 \( I_{p \rightarrow x} \) 들에 대해 특징 상태를 유지할 수 있는 최대 임계값 \(t\)를 찾고, 찾아진 임계값 \(t\)를 특징 점수로 정의한다.</p><p>FAST-9 알고리즘은 FD 단계에서 사용자 임의로 선정된 임계값 \(t\)를 사용하였기 때문에 임계값 \(t\)에 의존적인 특징 후보들이 추출된다. 이렇게 추출된 특징들은 FAST-9 알고리즘이 특징들 간의 비교방식을 취하지 않기 때문에 인접 특징들 간의 계산결과가 상호 영향을 주지 않아, 복수의 특징들이 밀집되어 발견된다. 그러나 특징이라 부를 수 있는 픽셀은 인접영역을 대표해야 하므로, NMS 단계에서는 군집되어 발견된 특징들 간의 점수를 비교하여 가장 점수가 큰 특징 후보를 제외한 나머지 특징 후보들을 제거한다. 찾아진 대표 특징 후보는 특징으로 정의된다. 대표 특징을 찾는 과정에서 서로의 특징 점수를 비교해야 하기 때문에 많은 비교연산이 수반된다.</p>
|
FAST-9 기법은 구간 비교방식을 이용한 가감산 및 비교 연산을 수행하기 때문에 알고리즘을 하드웨어로 구현하였을 시에 적은 하드웨어 비용이 요구되며 신속 처리가 가능한 특징 추출 알고리즘인데, 특정 픽셀을 인접한 픽셀들과 임계값 \(t\)를 기준으로 비교해, 9개 이상의 인접 픽셀들이 연속으로 밝거나 어두울 경우를 찾아 특징 후보를 정의하는 Feature Detection (FD) 단계, 각 특징 후보들의 특징 정도에 따라 점수를 부여하는 Feature Score (FS) 단계, 그리고 인접한 특징 후보들 간의 점수를 비교해 높은 점수를 가진 특징을 찾는 Non-maximal Suppression (NMS) 단계로 구성된다. FAST-9 알고리즘을 통해 추출된 특징들은 특징들 간의 비교방식을 취하지 않기 때문에 인접 특징들 간의 계산결과가 상호 영향을 주지 않아 복수의 특징들이 밀집되어 발견되게 되므로 NMS 단계에서 군집되어 발견된 특징들 간의 점수를 비교하여 가장 점수가 큰 특징 후보를 제외한 나머지 특징 후보를 제거하여 인접영역을 대표하는 특징으로 만든다.
|
<p>DSTree는 알파벳 순서와 같은 단순한 정렬기준을 이용하여 한 번의 스캔으로 트리를 구성한다. 특별한 추가 작업없이 알파벳 순서와 같은 단순 기준으로 트리를 구성하기 때문에 실행 속도가 매우 빠르다. 또한 스트리밍 데이터 마이닝이 가능하다. 하지만 이 역시 고정 기준을 이용해 트리를 생성하기 때문에 충분히 높은 압축률을 보장하지 않는다. 또한 DSTree는 최근의 윈도우 사이즈만큼의 데이터만을 유지하기 때문에 오래된 데이터에 대해서는 유효성을 보장하지 않는다.</p> <p>이 논문에서는 고정된 기준을 이용하여 아이템 정렬 순서를 정하지 않고, 가변하는 아이템 빈도 수를 반영할 수 있는 규칙 기반의 새로운 트리 생성 방법을 소개한다. 또한 하위 경로 내 빈도수가 동일한 아이템들을 하나의 노드로 표현하는 집합 노드 방식을 제시하여 노드의 수를 좀 더 줄일 수 있도록 하였다. 이 두 가지 제시된 방법을 통해 지속적으로 데이터 입력이 일어나는 incremental 데이터베이스에서도 트리 생성이 가능하도록 하고, 트리의 압축률을 향상시키면서 기존의 FP-tree보다 빠른 처리 시간을 보장하는 트리 생성 방식을 제시한다.</p> <h2>\(4 \). 우리가 제시하는 방법</h2> <p>기존의 FP-Tree는 발생빈도수라는 절대적인 기준을 통해 트리를 생성하고 있다. 하지만 이 논문에서는 교집합 규칙을 이용하여 트리를 생성하는 새로운 방법을 제시하고 있다.</p> <p>교집합 규칙 기반의 IRFP-tree는 특정한 기준을 이용해 아이템을 정렬하여 트리를 구성하는 방식이 아닌, 각 트랜잭션이 입력될 때 마다 교집합을 이용하여 교차하여 발생된 아이템들을 묶어 상위 노드로, 빈번하지 않게 발생한 아이템들의 집합을 하위 노드로 하여 트리를 생성해 나가는 방식이다. 하나의 노드에는 하나의 아이템만 포함될 수도 있고, 하나의 노드에 여러 아이템들이 포함될 수도 있다. 이 방법은 트랜잭션 내 아이템들을 재정렬 할 필요가 없으며, 계속되는 트랜잭션의 유입도 문제가 되지 않기 때문에 점진적 데이터 마이닝(incremental datamining)에도 적용이 가능하다. 새로운 하위 트리가 생성될 경우 아이템 집합들 중에서 가장 교집합이 많은, 다시 말하면 입력된 트랜잭션까지가장 빈도수가 높은 아이템 집합이 상위 노드가 되도록 유도하기 때문에 트랜잭션이 입력될 때 마다 그 때 까지의 아이템 빈도수가 지속적으로 적용되어 노드 최적화가 가능하다.</p> <p>Fig. \(5 \)와 Fig. \(6 \)은 Fig. \(1 \)-(b)의 트랜잭션 데이터베이스예를 이용하여 IRFP-tree를 생성하는 방법을 하나는 집합표현 방식으로, 하나는 트리 구조로 나타낸 것이다. Fig. \(1 \)-(ⅱ)의 트랜잭션 \(100, 200 \)이 들어온 경우, Fig. \(5 \)-(ⅱ)와 같이 두 집합의 교집합인 \( \{ a,c,f,m \} \)은 두 번 씩 발생되었고, \( \{ p \} \) 와 \( \{ b \} \) 아이템 집합은 한 번 씩 발생되었다. 이를 트리를 이용해 나타내면 Fig. \(6 \)-(ii)와 같이 표현할 수 있다. 이처럼 트랜잭션이 유입될 때 마다 교집합을 이용해 아이템 집합들을 묶어 나가면 최종적으로 Fig. \(7 \)과 같은 트리를 생성할수 있다.</p>
|
해당 논문은 고정된 기준을 이용하여 아이템 정렬 순서를 정하는 대신 가변하는 아이템 빈도 수를 반영하는 규칙 기반의 새로운 트리 생성 방법을 소개하고 있다. 그리고 하위 경로 내 빈도수가 동일한 아이템들을 하나의 노드로 표현하여 노드 수를 줄였다. 이 방법들을 통하여 지속적으로 데이터 입력이 일어나는 incremental 데이터베이스에서도 트리 생성이 가능하도록 하였고, 트리의 압축률을 향상시키면서 기존의 FP-tree보다 빠른 처리가 가능한 트리 생성 방식을 제시하고 있다.
|
<p>FP-tree는 전체 데이터베이스를 한번 스캔하여 데이터베이스 내에 아이템들의 발생 빈도 수를 구하고, 이를 이용하여 또 한번 데이터베이스를 스캔하며 트리를 구성한다.FP-Tree는 트리를 구성하기 전 전체 데이터베이스 스캔을 통해 아이템의 발생 빈도를 구해야 하기 때문에 두 번의 데이터베이스 스캔이 필요할 뿐만아니라 가변하는 데이터베이스에서 적용이 불가능하다. 이런 단점을 극복하기 위해 많은 빈도패턴 트리 생성 방법이 연구되었다. 기존의 FP-tree를스트리밍 데이터베이스에서 적용 가능하도록 FP-stream구조가 제시되었고, 트리 생성 시 가지치기를 통해 조건 트리를 최소한으로 생성할 수 있도록 하는 COFI-tree,메모리 대신 DB를 사용하도록 하는 DRFP-tree, FP-tree의 아이템 발생 빈도 수를 구하기 위한 데이터베이스 스캔을 줄이기 위한 방법으로 알파벳 순 특정 기준을 이용해 트리를 구성하는 CanTree 등의 빈도패턴 트리 구조가 제시되었다. 이 중 DS-Tree는 알파벳 순서나 사전편찬순서와 같은 단순한 기준을 이용하여 트리를 구성하기 때문에 단 한번의 데이터베이스 스캔으로 빈도 패턴 트리를 구성하여 FP-tree보다 비슷하거나 빠른 속도를 보장하며, 스트리밍 환경에서 빈도 패턴 마이닝을 위한 트리 구성이 가능하다.</p> <p>이러한 연구들은 대부분 트리를 구성할 때 아이템 발생빈도나 알파벳 순서, 사전편찬순서 등의 절대적인 기준을이용하여 트랜잭션 내 아이템들을 정렬하고 트리를 구성한다. 하지만 절대적인 기준을 이용해 트리를 구성할 경우 트랜잭션이 입력될 때 마다 변하는 아이템들의 빈도 수 변화를 충분히 반영하지 못해 충분히 높은 압축률을 얻을 수 없다. Goethals, Vaarandi, 그리고 Buehrer 등이 연구한 바에 따르면 아주 큰 데이터베이스를 주 기억장치에서 마이닝하기는 어려움이 있다고 하였다. 이처럼 메모리상에서 처리되는 FP-tree기반의 빈도패턴분석 방법에 있어서 메모리 효율성은 매우 중요한 요소가 아닐 수 없다.</p> <p>본 논문에서는 절대적인 아이템 정렬 기준을 이용하지 않고 각 트랜잭션이 입력되어 트리를 구성할 때 마다 변하는아이템 발생 빈도가 반영될 수 있도록 교집합 규칙이라는 새로운 패러다임을 이용하여 트리를 생성하고, 단 한번의데이터베이스 스캔만으로 빠른 속도로 기존의 FP-tree에 비해 높은 압축률을 보이며 가변하는 데이터베이스에서 빈도패턴 마이닝을 위한 트리를 구성할 수 있는 새로운 방법을 제시하고 실험을 통해 기존의 방법들과 비교 분석하였다.</p> <p>\(2 \)장에서는 본 논문과 관련된 연구들 특히 FP-Tree 및DSTree에 대해 살펴보고, \(3 \)장에서 기존 연구의 문제점을 분석한 후 \(4 \)장에서 우리가 제시하는 새로운 빈도 패턴 트리에 대해 설명하고 \(5 \)장에서 실험을 통해 새로운 방법과 기존방법을 비교 분석하였다.</p>
|
FP-tree는 데이터베이스를 스캔하여 구성하는 빈도패턴 트리로, 가변하는 데이터베이스에서 적용이 불가능하다. 따라서 다양한 빈도패턴 트리 생성 방법이 연구되었고, DS-Tree는 단 한번의 데이터베이스 스캔으로 FP-tree와 비슷한 속도를 보장하며 스트리밍 환경에서도 사용 가능하다. 본 논문에서는 교집합 규칙을 이용하여 아이템 발생 빈도 변화가 반영되도록 트리를 생성하고, 데이터베이스에서 빈도패턴 마이닝을 위해 트리를 구성할 수 있는 방법을 제시하였다.
|
<h2>\(2 \). 관련 연구</h2> <p>Apriori는 연관규칙에서 가장 대표적인 알고리즘으로 이진 연관규칙에 대한 빈발항목집합을 찾아내는데 유용한 알고리즘이다. Apriori 알고리즘은 실제 발생되는 빈발 패턴을 찾아내는 데 가장 좋은 성능을 보여준다. 하지만 반복적으로 후보 항목집합들을 생성하고 데이터베이스를 스캔 하면서 지지도를 계산하기 때문에 처리 시간이 많이 소비된다. 이를 보완하기 위해 후보집합의 수를 줄이거나 데이터베이스의 스캔 횟수를 줄이기 위한 여러 연구가 진행되어 왔다.그 중 FP-Growth 알고리즘은 후보집합을 생성하지 않고단 두 번의 데이터베이스 스캔만으로 빈발패턴 분석이 가능하여 주목을 받고 있다.</p> <p>FP-Tree 알고리즘은 기존의 여러 연관규칙 알고리즘들과는 달리 Apriori 방법을 사용하지 않는다. 빈발 항목집합들에 대한 중요하고 양적인 정보를 FP-Tree라 부르는 확장된prefix tree 구조에 저장한다. FP-Tree는 두 번의 데이터베이스 스캔만으로 빈도 패턴 트리를 생성한다. 첫 번째 데이터베이스 스캔을 통해 각 아이템들의 빈발횟수를 카운트하여 아이템의 우선순위를 결정한다. 두 번째 데이터베이스스캔을 통해 입력되는 각 아이템 집합을 빈발횟수를 이용하여 정렬한다.</p> <p>아래 FP Tree를 생성하는 간단한 예가 나타나 있다. Fig. \(1 \)-(a)는 FP Tree를 생성하기 위한 예제 트랜잭션 데이터베이스이다. 이 트랜잭션 데이터베이스는 다섯 개의 트랜잭션을 가지고 있다. 트리 생성할 때 최소지지도는 \(3 \)으로 한다.각 행은 한 개의 트랜잭션 내에 동시에 발생한 아이템들의 집합으로 구성되어 있고, TID로 구분된다. 이 예제 트랜잭션 데이터베이스를 이용하여 FP-Tree를 생성하기 위해, 우선 아이템들의 빈도수를 구해야 한다. 데이터베이스에 표현된 아이템들의 수를 카운트하기 위해 처음으로 데이터베이스를 한 번 스캔한다. 그리고 나서, 빈도 아이템 리스트를만들기 위해 아이템들을 빈도수가 많은 순서대로 최소 지지도 이상인 아이템들만 FP Tree를 생성하는데 사용된다. Fig. \(1 \)-(c)는 최소지지도 이상의 빈도수를 가진 아이템들을 빈도수가 많은 순서대로 정렬한 것이다.</p> <p>다음 단계는, FP-tree를 생성하기 위해 트랜잭션 데이터베이스를 두 번째로 스캔 한다. 루트부터 시작해서 전위 트리 방식으로 루트 하위 트리로 하나씩 트랜잭션들을 추가한다. 각 트랜잭션을 읽은 후, 그 아이템들을 빈도수의 역순으로 재정렬한다. 최소지지도에 미치지 못하는 아이템들은 고려하지 않는다. Fig. \(1 \)-(b)는 Fig. \(1 \)-(a)의 지지도 \(3 \) 미만인 아이템들을 생략하고 정렬한 후의 트랜잭션을 보여준다. Fig. \(1 \)의 ( \(1 \))~( \(4 \))는 FP-tree를 위해 Fig. \(1 \)-(b)의 다섯 개의 트랜잭션을 더하기 위한 네 단계의 FP-Tree 생성 절차를보여준다. Fig. \(2 \)는 Fig. \(1 \)-(a)의 트랜잭션 데이터베이스에 대한 최종적인 FP-tree와 그 헤더 테이블을 보여준다.</p>
|
Apriori는 연관규칙에서 가장 대표적인 알고리즘으로 이진 연관규칙에 대한 빈발항목집합을 찾아내는데 유용하지만 반복해서 후보 항목집합들을 생성하고 데이터베이스를 스캔하면서 지지도를 계산하기 때문에 처리 시간이 많이 걸린다. FP-Tree 알고리즘은 기존의 여러 연관규칙 알고리즘들과는 달리 Apriori 방법을 사용하지 않고, 빈발 항목집합들에 대한 중요하고 양적인 정보를 FP-Tree라 부르는 확장된 prefix tree 구조에 저장하여 두 번의 데이터베이스 스캔만으로 빈도 패턴 트리를 생성한다.
|
<h1>IRFP-tree(Intersection Rule Based FP-tree): 메모리 효율성을 향상시키기 위해 교집합 규칙 기반의 패러다임을 적용한 FP-tree</h1> <h2>요 약</h2> <p>대용량 데이터베이스의 빈도패턴 분석을 위해 기존의 Apriori 방식의 단점을 보완할 수 있는 새로운 트리 기반의 빈도 패턴 분석 알고리즘이 최근 다양하게 연구되고 있다. 그 중 FP-tree는 이러한 빈도 패턴을 분석하기 위해 빈도 패턴을 표현하는 트리 구조로 단 두 번의 전체 데이터베이스 스캔을 통해 빠르게 트리를 구성할 수 있으며 FP-grwoth를 통해 빈도 패턴을 분석할 수 있다. 이처럼 빈도 패턴 트리의 노드 수는 트리 자체의 메모리 할당량과도 연관이 있지만 그 후 growth의 메모리 자원 소비 및 처리 속도에도 영향을 미치게 된다. 따라서 빈도 패턴 트리의 노드 수의 감소는 트리 자체뿐만 아니라 빈도 패턴 분석에 있어서도 매우 중요하다. 하지만 FP-tree는 전체 아이템 수라는 고정된 기준 문제로 인해 충분한 노드 수의 압축률을 갖지 못하고 있다. 본 논문에서는 이러한 FP-tree의 문제를 보완하여 좀 더 노드 수를 감소시킬 수 있도록 교집합 규칙이라는 새로운 패러다임을 적용한 빈도 패턴 트리인 IRFP-tree를 제시하고 실험을 통해 그 성능에 대해 증명하였다.</p> <h2>\(1 \). 서 론</h2> <p>빈도 패턴 마이닝은 데이터 마이닝 분야에서 광범위하게 연구되어 왔다. \(1993 \)년에 소개된 이래로, Apriori 방법은 데이터 마이닝 분야에서 많은 관심을 받아왔다. 하지만 Apriori 기반의 접근방법들은 많은 후보 집합을 생성하고 잦은 데이터베이스 스캔으로 인해 비용이 많이 든다는 단점을 가지고 있다. 이러한 단점을 극복하기 위해 많은 논문에서 트랜잭션 데이터베이스로부터 빈도 아이템 집합들을 계산해내는 새로운 데이터 구조를 제시하고 있다. 이러한 데이터구조들 중 최근에 가장 인기 있는 것 중 하나가 FP-tree 구조이다.</p> <p>FP-tree는 Apriori 방식의 접근방법의 단점을 피하고빈도 패턴들과 관련한 중요하고 양적인 정보를 저장하기 위한 확장된 prefix-tree 구조이다. FP-tree는 단 두 번의 전체 데이터베이스 스캔으로 트리를 생성함으로써 비용이 많이 들고 반복적인 데이터베이스 스캔을 피할 수 있다. 또한FP-tree 기반의 마이닝 기법인 FP-growth를 이용하여 완전한 빈도 패턴들의 집합을 마이닝할 수 있다. FP-tree를 이용한 빈도 패턴 마이닝이 Apriori 알고리즘이나 그 밖에 최근의 새로운 패턴 마이닝 방법에 대한 연구들보다 매우 빠르다는 것은 \([3] \)에서 제시한 연구에서 실험을 통해 확인되었다.</p>
|
Apriori 기반의 방법들은 후보 집합을 많이 생성하고 데이터베이스를 자주 스캔하여 비용이 많이 드는 단점이 있다. FP-tree는 이런 단점을 피하고 양적이고 중요한 정보를 저장하기 위한 확장된 prefix-tree 구조로 두 번의 데이터베이스를 스캔하여 트리를 빠르게 구성하며 FP-grwoth를 통해 빈도 패턴을 분석한다. 본 논문은 교집합 규칙이라는 패러다임을 적용하여 노드 수를 줄이도록 패턴 트리인 IRFP-tree를 제시하였고 실험을 통해 그 성능에 대해 증명하였다.
|
<p>앞서 기존의 FP-tree가 가진 고정된 기준 문제에 대한 실험을 통해 변화하는 빈도 수를 반영한다면 노드의 압축률을 줄일 수 있다는 것을 확인하고 이 때 특정 기준이 아닌 교집합 규칙 기반의 IRFP-tree 알고리즘을 이용하여 이러한 교집합 문제를 해결할 수 있음을 실험을 통해 알아보았다.</p> <p>이제 본격적으로 우리가 제시하는 IRFP-tree와 기존의FP-tree 그리고 DS-tree 알고리즘을 이용한 트리 생성을 통해 각 트리의 노드 압축률 및 트리 생성 속도를 실험을 통해 살펴보았다. 실험 데이터베이스는 \(1000 \)개의 트랜잭션으로 시작하여 그 수를 \(1000 \)개씩 증가시켜가며 \(1,000,000 \)개까지의 트랜잭션을 이용해 트리를 생성하였을 때 각각의 트리에 생성되는 노드의 수와 처리속도를 비교 실험하였다.</p> <p>Fig. \(10 \)은 트랜잭션 수 증가에 따른 각 트리에 생성된 노드의 수이다. 각 트랜잭션 개수마다 \(50 \)개의 랜덤한 데이터파일을 생성하여 실험한 후 그 평균을 그래프에 기록하였다. 그래프의 좌측 축은 각 트리의 생성된 노드 수를, 하단의 축은 트랜잭션의 수를 나타낸다. Fig. \(3 \)의 그래프에서 보는 바와 같이 전체 아이템 빈도 수라는 고정된 기준을 이용하는 FP-tree와 알파벳이나 사전편찬순서 등의 고정된 기준을 이용하는 DS-tree의 경우 거의 유사한 개수의 노드를 생성하고 있음을 볼 수 있다. 하지만 우리가 제시하는 교집합규칙 기반의 FP-tree는 앞선 트리들에 비해 더 적은 수의노드를 생성하고 있고, IRFP-tree의 특성 중 하나인 하나의 노드가 여러 개의 아이템을 가질 수 있는 집합 표현방식을사용할 경우 IRFP-tree가 절대적인 노드 수의 감소를 보여준다. 이러한 노드 수 감소를 통해 메모리 자원의 소비를 줄여줄 수 있고, growth를 통한 패턴 분석에 사용되는 노드의 수를 감소시킴으로써 growth의 메모리 자원 소비를 줄이고 그 속도를 향상시키는데 도움이 될 것이다.</p> <p>Fig. \(11 \)은 실험 데이터베이스를 이용해 트리를 생성할 때 걸리는 시간을 그래프로 표현한 것이다. 세로축은 시간을 나타내고 가로축은 사용된 트랜잭션의 수를 나타낸다. Fig. \(4 \)의 그래프에서 보여지는 바와 같이 기존에 가장 빠른 성능을 보이는 DS-tree에 비해서도 IRFP-tree 알고리즘을 이용한 트리 생성 속도가 더 빠르고 트랜잭션 크기가 커질수록 트리 생성 속도에서 큰 차이를 보이고 있다.</p> <p>이처럼 우리가 제시한 IRFP-tree는 기존의 트리들에 비해 노드의 압축률을 증가시켜주며 그 처리속도 또한 감소시켜줄 수 있다는 것을 실험을 통해 확인하였다.</p> <h2>6. 결론 및 향후 연구과제</h2> <p>IRFP-tree는 교집합 규칙이라는 새로운 트리 생성 패러다임을 이용하여 생성되는 노드수를 최소화 하고 그 처리시간 또한 줄여줄 수 있다. 규칙 기반의 알고리즘이기 때문에 트리 생성 후 새로운 트랜잭션이 생성된 경우 추가 처리가 가능하여 스트리밍 데이터에서도 유용하게 사용될 수 있으며, 또한 DRFP-tree와 같이 트리를 생성하며 각 노드를 집합으로 표현하는 것 역시 가능하다. 이러한 장점을 통해 IRFP-tree는 빅 데이터에서 빠른 데이터 분석을 돕고 메모리에 의존적인 FP-tree의 문제를 일부 해결 가능할 것으로 보인다.</p> <p>현재는 트리 생성 알고리즘만을 제시하였기 때문에 트리생성 후 패턴을 분석하는 Growth 알고리즘은 기존의 FP-Growth를 이용하고 있다. 하지만 IRFP-tree에 적합한 Growth방법을 이용하여 빅 데이터 분석을 위한 좀 더 빠르고 효율적인 빈도 패턴 분석이 가능하도록 새로운 Growth 방법에 대해 연구하고 있으며 실험 단계에 있다. 이러한 빈도 패턴을 표현하는 트리 생성 방식의 제시 및 새로운 Growth방법의 제시를통해 좀 더 효과적이고 효율적인 빅 데이터 분석에 기여할 수 있을 것이다.</p>
|
IRFP-tree 알고리즘을 이용한 트리 생성 실험을 통해 노드 압축률과 처리속도가 기존 FP-tree, DS-tree보다 높은 것을 확인하였다. IRFP-tree는 교집합 규칙 기반의 알고리즘을 사용하여 생성 노드 수를 줄여주고 처리 속도를 높이며, 새로 생성된 트랜잭션의 추가 처리를 통해 스트리밍 데이터에도 유용하고, 각 노드를 집합으로 표현할 수 있다. 빅 데이터의 빠른 데이터 분석을 돕고, 메모리에 의존적인 FP-tree의 문제를 해결하는데 IRFP-tree의 활용될 기대되며, IRFP-tree에 적합한 Growth 방법의 연구 또한 필요하다.
|
<p>이와 같이 FP-tree는 Apriori에 비해 데이터베이스의 잦은 스캔을 줄여준다. 또한 후보집합을 생성하지 않기 때문에 대용량의 데이터로부터 빈발항목집합을 찾아내는데 유용하다. 하지만 트리의 깊이가 깊어지고 노드의 수가 많아질경우 메모리크기의 의존성이 크고, 마이닝에 많은 처리 시간이 소비될 수 있다.</p> <p>FP-Tree가 소개된 이래로 COFI-tree, DRFP-tree, CanTree, DSTree, AFOPT-tree, CATS Tree 등 많은 빈도 패턴 마이닝을 위한 tree구조가 제시되었다.</p> <p>FP-Tree는 전체 데이터베이스를 읽고 아이템의 빈발 횟수를 이용하여 트리를 구성하기 때문에 고정된 데이터베이스에만 적용되는 데이터의 마이닝 기법으로 스트리밍 데이터베이스에서는 사용할 수 없다. 이러한 FP-tree의 제약 조건을 벗어나기 위해 Carson Kai-Sang Leung, Quamrul I.Khan은 \([10] \)에서 스트리밍 데이터베이스에서의 마이닝을 위한 DS-Tree라는 연관규칙 마이닝 방법을 제시하고 있다. DS-Tree는 아이템 빈발횟수를 이용하지 않고 알파벳 순서나 사전편찬순서 등 아이템 특성에 맞도록 사용자가 정한 기준으로 아이템들을 정렬한다. 정렬 후 윈도우 크기만큼 트랜잭션의 집합인 배치를 읽어와 트리를 생성한다.</p> <p>DSTree는 고정된 데이터베이스뿐만 아니라 데이터 스트림 환경에서도 적용할 수 있는 트리 구성 방법이다. FP-tree에서 아이템 빈발 횟수를 아이템 정렬 기준으로 이용한 것에 반해, DSTree에서는 트리 구성을 위한 기준으로 알파벳순이나 사전 편찬 순과 같은 단순한 기준을 이용하고 있다. 따라서 아이템 정렬 기준을 찾기 위한 데이터베이스 스캔이 생략될 수 있기 때문에 단 한 번의 데이터베이스 스캔으로 트리 구성이 가능하며, 데이터 스트림 환경에서도 트리 구성이 가능하다. 또한 단 한 번의 데이터 스캔만이 필요하기 때문에 트리를 구성하는데 걸리는 시간을 매우 줄일 수 있다. 아래 DSTree를 구성하는 방법을 설명하였다.</p> <p>Fig. \(3 \)은 DSTree를 구성하는 한 가지 예이다. Fig. \(3 \)의 Example \(1 \)은 DSTree 예제 트랜잭션 데이터베이스이다. 트리를 구성하기 위해 최소지지도는 \(3 \)으로, 윈도우 사이즈는 \(2 \)개의 배치로, 각 배치는 \(3 \)개의 트랜잭션을 포함하도록 구성하였다. 아이템 정렬 기준은 알파벳 순서로 하였다. Fig. \(3 \)의 오른쪽 상단의 트리는 Time T일 때의 DSTree를 보여준다. Time T는 첫 번째와 두 번째 배치가 들어와 트리로 구성하는 시기이다. 우선 첫 번째 배치의 트랜잭션 순서대로 트리를 구성하며 아이템 우측에 발생 빈도를 표기한다. 그후 두 번째 배치의 트랜잭션을 순서대로 입력하여 트리를 구성하며, 그 발생 빈도는 첫 번째 배치의 아이템 발생 빈도 수와 구분하여 그 뒤에 입력한다. Time T가 되어 세 번째 배치가 들어오면 첫 번째 배치의 아이템 발생 빈도를 삭제하고, 두 번째 배치의 아이템 발생 빈도를 좌측으로 한칸 이동시킨 후, 세 번째 배치의 트랜잭션 순서대로 트리를 구성하며 아이템 발생 빈도를 저장한다. 이처럼 DSTree의 경우 가장 최근의 윈도우 크기만큼의 데이터에 대해서만 정보를 저장하며, 오래된 정보는 무시한다.</p>
|
FP-Tree는 빈발항목집합을 찾는데 유용하며, Apriori에 비해 데이터베이스의 잦은 스캔을 줄여주는 기법이다. 그러나 깊이가 깊어지고 노드가 많아질 경우 메모리 크기 의존성이 크고, 마이닝 처리에 많은 시간이 소비된다. DSTree는 FP-tree의 제약 조건을 벗어나기 위해 제시된 마이닝 방법으로, 사용자가 정한 기준(알파벳 순, 사전 편찬 순)으로 아이템을 정렬하고 윈도우 크기만큼 트랜잭션의 집합인 배치를 읽어 트리를 구성하는 방법이다. 단 한 번의 데이터베이스 스캔만으로 트리를 구성할 수 있고, 데이터 스트림 환경에서도 적용할 수 있다.
|
<h2>\(3 \). 기존 연구들의 문제점 분석</h2> <p>앞서 언급한 바와 같이 기존에 연구된 FP-tree 기반의빈도 패턴 트리 구조는 고정된 기준을 이용하여 트리를 생성하기 때문에 충분한 노드의 압축률을 얻을 수 없다. 트리의 노드 수 증가는 메모리의 소비의 증가뿐만 아니라 FPGrowth를 실행할 때 방문하는 경로를 증가시키며, 트리 생성 비용 증가시키기 때문에 가능한 한 높은 압축률의 트리를 구성할 필요가 있다. 트리를 생성할 때 지속적으로 변하는 아이템 빈도 수를 반영할 수 있다면 노드의 최적화를 통해 트리의 전체 노드 수를 줄일 수 있을 것이다.</p> <p>Fig. \(4 \)는 고정적인 기준으로 트리를 생성하는 FP-Tree의문제에 대해 그림으로 나타낸 것으로 Fig. \(4 \)-(a)는 실험 데이터를 이용해 만든 FP-Tree의 예를, Fig. \(4 \)-(b)는 가변하는 트랜잭션 아이템 빈도 수를 반영하여 트리를 재 생성 했을 경우 압축률을 보여주고 있다. FP-Tree는 트리를 생성하기 전 한 번만 DB내 전체 아이템 수를 계산하여 빈도 아이템 리스트를 만든다. 이 빈도 아이템 리스트는 트리 생성하기 전에 만들어져 트리가 다 만들어 질 때까지 변하지 않는다. 하지만 특정 트랜잭션까지 트리 생성 후 남은 트랜잭션들의 아이템 빈도 수는 처음 계산한 아이템 발생 빈도 수와 다를 수 있다. Fig. \(4 \)-(a)에서 T \(600 \)까지 트리가 생성된 이후 남은 트랜잭션들의 아이템 발생 빈도 수를 계산한 결과 아이템 발생 빈도순서는 \( \mathrm { B } >\mathrm { C } >\mathrm { D } >\mathrm { F } \) 에서 \( \mathrm { C } >\mathrm { D } >\mathrm { B } >\mathrm { F } \) 로 변한 것을 볼 수 있다. 이처럼 변화된 아이템 정렬 기준을 이용해 트리를 생성한 결과, T \(700 \)에서 T \(900 \)까지 트리 생성노드 수는 FP-tree의 \( \mathrm { FP } \)-tree의 \( \{\mathrm { B } : 1, \mathrm { C } : 1, \mathrm { D } : 1, \mathrm { C } : 2, \mathrm { D } : 1, \mathrm { ~F } \) \( : 1 \} \) 의 \(6 \) 개에서 \( \{\mathrm { C } : 3, \mathrm { D } : 2, \mathrm { ~B } : 1, \mathrm { ~F } : 1 \} \) 의 \(4 \) 개로 줄어든 것을 볼 수 있다. 이는 고정된 기준을 이용해 트리를 생성하기 때문에 생기는 문제로, 빈도 수 뿐만 아니라 알파벳순서나 사전편찬순서 등 트리 생성 전 만들어진 하나의 기준을 이용해 전체 트리를 생성하기 때문에 발생하는 문제이다. 트랜잭션을 입력할 때마다 변하는 아이템 발생 빈도를 트리 생성에 반영할 수 있다면 FP-Tree 이상의 압축률을 가진 트리를 만들 수 있을 것이다.</p>
|
FP-Tree 기반의 빈도 패턴 트리 구조는 고정된 기준으로 트리를 생성하여 압축률을 높이는 데 한계가 있다. 트리의 노드 수가 증가하면 메모리 사용량과 실행 비용이 증가하므로, 가능한 한 높은 압축률의 트리가 필요하다. 기존 방식은 트리 생성 전에 빈도 아이템 리스트를 만들고 이를 고정 기준으로 트리를 생성하는데, 이로 인해 트랜잭션의 아이템 빈도 변화가 고려되지 못한다. 따라서, 변화된 아이템 정렬 기준을 이용하여 트리를 생성하면 더 높은 압축률을 얻을 수 있다. 트랜잭션 입력 시 아이템 발생 빈도의 변화를 반영하면 FP-Tree보다 더 효율적인 압축률을 가진 트리를 구성할 수 있다.
|
<p>Fig. \(6 \)에서와 같이 교집합 규칙을 이용한 IRFP-tree는 하나의 노드가 아이템 집합을 갖는 형태의 트리를 가지게 된다. 이처럼 집합으로 표현된 노드 방식은 Growth를 수행할 때 방문하는 노드의 수를 감소시키는 이점을 줄 수 있다. 또한 특정 기준이 아닌 규칙 기반의 트리 이기 때문에 구축된 트리에서 트랜잭션의 추가 및 삭제가 용이하다.</p> <p>하지만 FP-tree와 정당한 노드 수의 비교를 위해 우리는다음과 같이 하나의 노드가 하나의 아이템을 갖는 형태의 IRFP-tree 또한 생성하였다.</p> <p>Fig. \(7 \)에서는 규칙 기반의 새로운 패러다임을 적용시켜 고정된 기준 문제를 해결한 IRFP-tree가 집합 방식을 사용하지 않는다 하더라도 기존의 FP-tree에 비해 노드 수를 더욱 감소시켰다는 것을 보여주기 위해 집합방식을 사용하지 않고 하나의 노드가 하나의 아이템을 표현하는 FP-tree 표현 방법에 맞추어 트리를 표현한 것이다. Fig. \(7 \)의 IRFP-tree에서 점선으로 나타난 노드들의 묶음은 IRFP-tree의 집합표현이다.</p> <p>RFP-tree를 생성하기 위한 알고리즘은 Pseudo Code \(1 \).에 나타나 있다.</p> <p>FP-tree의 생성 알고리즘에선 트리 생성 전 처리 단계인 전체 DB를 스캔하여 아이템의 빈도수를 계산하고 그를 이용하여 아이템 순위를 정하고 각 트랜잭션의 아이템들을 아이템 빈도 수의 역순으로 정렬한 후 트리를 구성해야 하는 비용이 필요하다. 하지만 IRFP-tree는 그러한 트리 구성의 전 처리 단계가 필요치 않고 바로 DB의 트랜잭션을 읽어들이며 트리의 생성을 진행하기 때문에 전처리 비용을 줄일수 있다. 또한 FP-tree의 경우 DB로부터 하나의 트랜잭션을 읽어와 트랜잭션 내의 아이템들을 하나씩 읽어나가며 트리를 구성하지만, IRFP-tree는 한 트랜잭션을 읽어와 트랜잭션 단위로 트리를 구성하기 때문에 FP-tree에 비해 시간비용을 줄일 수 있었다.</p> <p>다음 장 에서는 앞서 살펴본 IRFP-tree의 개별 노드 표현방법 및 집합표현방법을 이용하여 실험을 통해 IRFP-tree와 FP-tree, DS-tree의 트리 구성 시간 및 노드 최적화 율에 대해 좀 더 객관적이고 정당하게 비교 분석해 보았다.</p> <h2>\(5 \). 실 험</h2> <p>이 장에서는 우리가 제시한 IRFP-Tree의 성능을 기존의FP-tree, DS-Tree와 실험을 통해 비교해 보고 그 결과에 대해 분석하였다. 샘플 데이터베이스를 이용하여 앞서 살펴본 각각의 트리를 생성하고, 이 때 각 트리의 생성 시간과 생성된 노드의 수를 비교하였다. 똑같은 빈도 패턴을 찾아낼 경우, 트리 생성 속도가 빠르고 생성된 노드의 수가 적을수록 성능이 좋은 알고리즘으로 평가하였다.</p>
|
본 연구는 교집합 규칙을 이용한 IRFP-tree를 제안하며, 이는 하나의 노드가 아이템 집합을 표현하는 형태를 채택함. 이 구조는 Growth를 수행할 때 방문하는 노드 수를 줄이는 이점을 제공하고, 규칙 기반으로 트랜잭션의 추가 및 삭제를 용이하게 함. 또한, 집합 방식을 사용하지 않는다 하더라도 기존의 FP-tree에 비해 노드 수를 더 감소시킴을 보여준다.
|
<p>실험을 위해 사용된 샘플 데이터베이스의 구성은 다음과 같다. 아이템은 총 \(26 \)가지이며, 이 \(26 \)가지의 아이템을 랜덤하게 발생하여 하나의 아이템 집합을 만든다. 이 하나의 아이템 집합을 하나의 트랜잭션이라 할 때, 트랜잭션의 개수에 따른 트리 성능 변화의 비교를 위해 트랜잭션의 수를 증가시켜 가며 총 \(T10I4D100K \)과 유사한 양의 데이터를 이용하여 실험하였다.</p> <p>우선, 본 실험에 앞서 논문에서 문제 제기한 기존 FP-tree의 고정된 기준 문제에 대해 실험해보았다. 고정된 기준을 이용하여 FP-tree를 구성할 경우 실제로 노드 압축률에 대한 문제가 발생되는지 알아보기 위해, 트리를 생성할 때 아이템 빈도수의 변화에 대해 반영한 개선된 FP-tree를 구현하여 새로 개선된 FP-tree가 기존의 FP-tree에 비해 어느정도의 노드 압축률을 보이는지 실험하였다. 이를 평가하기 위해 실험 데이터베이스를 이용하여 기존의 FP-tree와 개선된 FP-tree, 그리고 우리가 제시하는 IRFP-tree 알고리즘을 이용하여 트리를 생성하며 각각의 트리에 생성된 노드의 수를 비교하였다. 실험을 위해 \(10,000 \)의 트랜잭션을 \(1000 \)개씩 증가시켜 가며 \(18,000 \)개까지의 데이터 파일을 생성하며, 각 트랜잭션의 개수마다 랜덤하게 \(50 \)가지의 데이터파일을 생성하여 총 \(450 \)개의 데이터를 파일을 이용해 각각의 트리를 생성하였다</p> <p>Fig. \(8 \)은 기존의 FP-tree와 개선된 FP-tree, 우리가 제시하는 IRFP-tree 알고리즘을 이용하여 트리를 생성한 경우 각각 트리의 노드 수를 그래프로 보여주고 있다. IRFP-tree의 경우는 좀 더 정당한 비교를 위하여 하나의 노드가 하나의 아이템만을 표현하도록 개별 노드 트리를 사용하였다. 그래프의 가로축은 실험을 위해 생성한 데이터베이스를 구성하는 트랜잭션의 수를 나타내고, 좌측 축은 노드의 수를, 우측 축은 전체 생성된 아이템의 수를 보여준다. 각 트랜잭션 개수 크기의 \(50 \)개의 데이터파일을 실험 데이터베이스로 만들어 트리를 구축하여 그 평균 노드 수 및 평균 아이템의 수를 그래프로 표현하였다. Fig. \(4 \)에서와 같이 FP-tree와 수정된 FP-tree의 생성된 노드의 수는 어느 정도 차이를 보인다. 이러한 차이는 트랜잭션의 수가 증가할수록 노드 수의 차이가 커진다. 반면 논문에서 제시한 IRFP-tree의 경우 역시 고정 기준의 문제가 해결되었기 때문에 수정된 FP-tree와 유사한 노드 수를 생성한다.</p> <p>Fig. \(9 \)는 실험을 통해 나타난 FP-tree 대비 IRFP-tree의 노드 감소 비율을 그래프로 표현한 것이다. 그래프의 가로축은 트랜잭션의 수를, 세로축은 FP-tree에 비해 IRFP-tree의 노드 감소 비율을 백분율로 나타낸 것이다. 그래프에서와 같이 기존의 FP-tree를 이용하면 데이터베이스의 데이터베이스의 크기가 커질수록 노드의 압축률이 떨어지는 것을 볼 수 있다. 또한 감소량의 표준편차에서 보는 바와 같이 IRFP-tree를 이용하면 일시적인 현상이 아닌 안정적으로 노드의 압축률을 증가시켜 주는 것을 확인할 수 있다. 이처럼 빅 데이터에서의 패턴 분석에 IRFP-tree를 이용한다면 기존의 FP-tree에 비해 노드의 압축률을 증가시킬 수 있을 것으로 보인다.</p>
|
먼저는 본 실험을 진행하기전에 논문에서 문제 제기한 기존 FP-tree의 고정된 기준 문제에 대해 실험을 해보았다. 고정된 기준을 이용해서 FP-tree를 구성하는 경우 실제로 노드 압축률에 대한 문제가 발생되는지 알아보고자 트리를 생성할 때 아이템 빈도수의 변화에 대해서 반영한 개선된 FP-tree를 구현해서 새로 개선된 FP-tree가 기존의 FP-tree에 비해 어느정도의 노드 압축률을 나타내는지 실험을 했다. 논문에서 제시한 IRFP-tree의 경우에는 고정 기준의 문제가 해결이 되었기 때문에 수정된 FP-tree와 유사한 노드 수가 생성이 되었다. 그리고, 빅 데이터에서의 패턴 분석에서 IRFP-tree를 이용을 한다면 기존의 FP-tree에 비해 노드의 압축률 증가가 가능할 수 있음을 보인다.
|
<h1>1. 서 론</h1><p>보다 편리하고 쾌적한 삶을 영위하고자 하는 사람들의 욕구가 더욱 증대됨에 따라서, 환경 보존, 에너지, 건강, 주거 환경, 사회 환경, 교육 등 국가 전반에 걸친 다양한 분야에서 새로운 서비스들이 활발하게 개발되고 있다. 또한 오늘날에는 서비스를 제공받는 사용자에게 현재 상황을 반영한 더 높은 수준의 서비스를 제공하고자 하는 추세이기 때문에, 상황 정보를 수집하기 위한 관심이 높아지고 있다.</p><p>특히 사회 환경 분야에서는 교통 정보나 사고, 공기오염도, 날씨 등 수집되는 상황 정보들을 바탕으로 교통 통제 서비스와 같은 공익 성격이 강한 서비스들을 제공한다. 이러한 종류의 서비스들은 보통 관제 센터를 중심으로 광범위한 범위에서 상황 정보를 수집하고 가공하여 필요한 서비스 정보를 생성한다. 따라서 관제 센터에서 상황정보를 수집하는 원격 장비를 효율적으로 통합 관리하기 위한 기술이 중요한 관심사가 되었다.</p><p>또한 사용자가 요구하는 서비스의 수준이 높아지면서 정보의 집중화를 방지하고 서비스의 효율성을 높이기 위하여, 중앙 집중식 처리방식에 개별 분산식 처리방식을 결합한 새로운 서비스 시나리오가 활발히 개발되고 있다. 즉, 상황정보를 수집하는 장비들은 중앙 관제센터의 개입없이 수집한 상황정보를 기반으로 일정수준의 단순한 상황적응형 서비스들을 개별적으로 처리한다. 오늘날에는 신호등이나 가로등, 광고판, 벽 등과 같이 주변에서 흔히 볼 수 있는 다양한 공공시설물들을 활용하여 상황 정보를 수집하며, 동시에 사용자에게 실제적으로 서비스를 제공하는 매체로도 사용된다. 따라서 이러한 목적을 위한 공공시설물은 상황정보를 수집하는 기능과 함께, 자체적으로 서비스를 제공하기 위한 제어기능을 갖는 새로운 형태의 디지털 컨버전스 장비로 주목받고 있다. 따라서 제어기능을 갖는 디지털 컨버전스 장비들은 특정 목적을 위한 전용 장비라기보다, 주변의 환경에 대한 정보를 수집하고, 적합한 서비스를 제공하기 위해 적절히 판단할 수 있는 능력이 있으며, 적절한 서비스를 제공하는 매체로 활용될 수 있다.</p><p>본 논문에서는 먼저 네트워크 장비의 관리와 상태 모니터링을 위해 널리 사용되고 있는 SNMP를 제어기능을 가진 디지털 컨버전스 장비의 관리에 적용할 때의 문제점을 파악한 후, SNMP을 확장하여 그 해결책을 제시하였다. 디지털 컨버전스 장비의 장치 제어를 지원하기 위하여 SNMP 엔진에 DDS(Device Driver Subsystem)를 추가하고 CADM (Control Agent Driver Model)을 정의하여 SNMP의 구조를 확장하며, SNMP set 명령어를 확장한 새로운 제어용 set 명령어를 정의하였다. 또한, 발달하는 기술과 함께 높아지는 사용자의 요구사항에 적합한 고수준의 서비스를 제공하기 위하여 대용량 메시지를 전송할 수 있는 SNMP 기술이 필요하다. 이러한 요구사항을 해결하기 위하여 새롭게 정의한 제어용 set 명령어의 메시지 규약을 해지하고, 용량이 큰 메시지를 처리할 수 있도록 기존의 Response와 InformRequest 명령어를 보완한 명령어를 새롭게 정의하여 추가하였다.</p><p>본 논문의 구성은 다음과 같다. 2장에서는 SNMP의 기본적인 구조와 제어기능 지원 방법을 설명한다. 그리고 제어기능을 갖는 디지털 컨버전스 장비를 관리하기 위한 시스템의 일반적인 구조를 설명한다. 3장에서는 제어기능을 갖는 디지털 컨버전스 장비들을 관리하기 위한 관련연구들을 논의한다. 4장에서는 확장 SNMP을 소개하고, 5장에서는 확장 SNMP의 실험결과를 보이고, 성능평가를 한다. 6장에서는 결론과 향후 연구 과제를 논한다.</p>
|
다양한 상황 정보 수집을 기반으로 한 높은 수준의 서비스를 제공하기 위하여, 상황정보를 수집할 뿐 아니라 서비스를 제공하기 위한 제어기능이 포함된 디지털 컨버전스 장비가 주목받고있다. 디지털 컨버전스 장비의 장치 제어를 위한 보다 확장된 SNMP가 제안되었으며, 해당 확장은 DDS(Device Driver Subsystem)의 추가, CADM (Control Agent Driver Model) 정의, SNMP set 명령어 확장 및 보완을 통하여 이루어졌다.
|
<h1>2. 배 경</h1><h2>2.1 SNMP 개요</h2><p>SNMP는 네트워크 장비를 관리 감시하기 위한 목적으로 TCP/IP 상에 정의된 응용 계층 표준 프로토콜이다. SNMP로 관리되는 장비들은 자신의 정보를 MIB (Management Information Base)라고 불리는 트리 형태로 유지하게 되는데, 원격 관리자는 해당 장비의 MIB 노드의 값을 참조하는 방식으로 장비를 관리한다. MIB는 ASN.1 표기법을 따르는 SMI (Structure of Management Information) 형식으로 정의되어 공개된다. 따라서 관리 대상 장비의 MIB 정의만 얻으면 바로 관리가 가능한 것이 SNMP가 갖는 장점 중의 하나이다. (그림 1)은 SNMP 관리를 개념적으로 보여주고 있다.</p><p>MIB의 노드들은 OID (Object Identifier)로 구분되는데, 그 값은 MIB의 루트 노드로부터 해당 노드까지의 경로이다. 각 노드들에 부여되는 숫자는 해당 노드의 형제 노드들(sibling)과의 구분을 위한 식별 번호이기 때문에 형제 노드들 간의 크기나 순서를 뜻하지는 않는다. MIB의 구조는 표준으로 정의되어 있으나, OID 1.3.6.1.4.1에 해당하는 enterprises(1) 노드에 장비 고유의 정보를 추가하는 부분이 있다. 이 부분에 각 제조회사별로 부여된 고유의 회사번호와 장비번호를 이용하여 장비 고유의 MIB 서브트리를 정의 한다.</p><p>SNMP를 사용하여 관리하거나 관리되는 대상을 SNMP 매니저 또는 SNMP 에이전트라고 불렀으나, 가장 최근 버전인 SNMP v3에서는 모두 SNMP 엔티티라고 부른다. SNMP 엔티티는 프로토콜을 버전별로 해석하고 인증과 접근제어 처리를 담당하는 SNMP 엔진과 MIB로 접근하여 실제 관리되는 정보들을 불러오거나 수정하는 기능을 수행하는 어플리케이션들로 구성된다. (그림 2)는 SNMP v3에서의 SNMP 엔티티 구조를 보여주고 있다.</p><h2>2.2 SNMP에서의 제어 처리</h2><p>장비를 효과적으로 관리하기 위해서는 필요에 따라 장비의 설정을 변경해야 하고, 장비 재시작과 같은 장비 제어가 필요한 경우가 있다. 그러나 SNMP에서는 장비를 제어하기 위한 별도의 명령어를 지원하지 않기 때문에, SNMP의 SetRequest 명령어를 활용하여 장비를 제어하는 방법을 사용하고 있다. 명령어 후킹(command hooking), OID 모니터링, 설정 및 실행(Set & Execute) 방법 등이 SNMP의 SetRequest 명령어를 활용하는 대표적인 방법이다.</p><p>명령어 후킹 방법은 장비의 SNMP 어플리케이션에 명령어가 도착할 때마다 이를 가로채서 명령어와 OID를 검사하고, OID가 제어를 필요로 하는 OID와 일치하면 그에 따른 제어를 처리하는 방법이다. 명령어 후킹 방법은 가장 많이 사용되고 있는 SNMP SetRequest를 활용하는 장비제어 방법이다. OID 모니터링 방법은 특정 OID를 모니터링하여 변화를 감지했을 때 간접적으로 제어를 처리하는 방법이다. 마지막으로 설정 및 실행 방법은 SNMP 엔티티가 제어 처리를 위한 게이트웨이로서의 역할을 수행하고 제어 처리는 별도의 프로세스를 이용하여 처리하는 방법으로 SNMP로 관리가 가능한 서버장비에서 주로 사용된다. 본 논문에서의 장비 제어는 명령어 후킹 방법을 사용한다.</p><h2>2.3 제어기능을 갖는 디지털 컨버전스 장비</h2><p>제어기능을 갖는 디지털 컨버전스 장비는 상황적응형 서비스를 실현하기 위하여 상황을 인식하는데 필요한 정보를 수집하고 이를 원격 관리자로 전달하는 역할을 하는 센싱 정보수집 기능과 원격 관리자로부터 제어 명령을 전달받아 장비 자체 또는 외부에 연결된 작동 장치를 제어하는 역할을 수행할 수 있는 제어 기능을 갖춘 장비이다. 주로 신호등이나 가로등, 광고판, 벽 등과 같은 공공시설에 임베디드 되어 있다. (그림 3)은 제어기능을 갖는 디지털 컨버전스 장비를 관리하기 위한 시스템의 일반적인 구조를 나타내고 있다.</p><p>제어기능을 갖는 디지털 컨버전스 장비는 일반적으로 센서와 연결되는 센싱 데이터 처리기와 장비로 전달되는 제어 명령을 처리하는 제어명령 처리기, 원격 관리자로부터의 요청을 처리하고 모니터링과 같은 서비스를 제공하는 관리 명령 처리기, 그리고 자료 공유를 위한 정보베이스(Information Base)로 구성된다. 종류에 따라 자동화 처리를 위하여 상황 정보의 조건부 자동 처리기가 추가로 포함되기도 한다. 조건부 자동 처리기는 수집되는 센싱 정보를 모니터링하다가 검사하는 조건이 만족되면 그에 따른 적절한 동작 명령을 발생시키는 모듈이다. 본 논문에서는 제어기능을 갖는 디지털 컨버전스 장비의 관리를 위해 센싱 데이터 처리기, 제어 명령 처리기, 관리 명령 처리기, 정보베이스, 원격 관리자 기능을 4장에서 제안하는 확장 SNMP을 이용하여 설계하고 구현한다.</p>
|
해당 논문에서는 제어 기능을 갖는 디지털 컨버전스 장비의 3가지 구성 요소를 살펴 보면서 명령어 후킹 방법으로 장비 제어를 사용한다. 이와 함께 확장 SNMP을 이용하여 관리 명령 처리기, 원격 관리자 기능 등을 설계 및 구현하며 디지털 컨버전스 장비를 관리한다.
|
<h1>5. 실험 및 성능 평가</h1><p>4장에서 설계한 확장 SNMP를 구현하여 온도정보 수집기능과 문자 출력 기능을 가지고 있는 도로상황 표시기에 설치하고 제어 및 관리 기능을 실험하였다. (그림 12)와 같이 지능형 도로상황 표시기에는 확장 SNMP 에이전트가 설치되어 있고, 확장 SNMP 매니저를 사용하는 원격 관리자가 제공하는 다양한 정보를 출력하거나 현재의 온도를 모니터링하는 작업을 수행한다. 그러나 온도 센서에 의해서 노면의 온도가 기준 이상으로 올라가면, 도로상황 표시기의 SNMP 에이전트는 그 상황을 인식하여, 원격 관리자의 개입없이 자동으로 LCD 디스플레이에 경고 메시지를 표시하는 상황인지 SNMP 어플리케이션을 탑재하고 있다.</p><p>확장 SNMP의 구현을 위하여 공개 소프트웨어인 SNMP4J 1.9.1g를 확장하였다. 확장 SNMP 에이전트와 확장 SNMP 매니저는 Intel P4 프로세서에 Windows Vista 운영체제가 작동되는 PC 환경에서 구동되었으며, JVM은 Sun의 JRE 6 Update 2 를 사용하였다. 사용한 온도센서는 원칩 솔루션(Onechip Solutions)사의 ST-052TM/RT 온도센서보드를 사용하였고, 제어용 LCD 디스플레이는 콤파일(Comfile)사의 CLCD216-G 보드를 사용하였다. 두 보드를 PC에 연결하기 위하여 콤파일사의 RS232 변환기 보드를 사용하였다. 도로 상황표시기를 위한 MIB는 (그림 13)과 같다.</p><p>PC에 확장 SNMP 에이전트가 실행될 때, CADM은 cadmActuatorTable에 등록되어 있는 지능형 도로상황표시기 작동기 드라이버의 cadmActuatorInitStro을 읽어서 작동기 드라이버를 초기화시킨다. 지능형 도로상황표시기를 위한 CADM 작동기 드라이버는 온도센서로부터 온도를 \( 0.5 \) 초 간격으로 읽어 도로상황표시기를 위한 MIB의 현재온도 OID (1.3.6.1.4.1.8072.1.1.1 ) 값을 갱신한다. 한편 확장 SNMP 에이전트는 지능형 도로표시기를 위한 상황인지 SNMP 어플리케이션을 구동시키고, 어플리케이션은 현재온도 OID 값을 모니터링하여, \( 31^{\circ} \mathrm{C} \) 미만이면 CADM의 write() 인터페이스를 사용하여 LCDDisplayActuator (OID: 1.3.6.1.4.1.8072.1.2.1)에 "Normal" 문자열 쓰고, \( 31^{\circ} \mathrm{C} \) 이상이면 “Warning" 문자열을 기록한다. (그림 14)는 노면 온도에 따른 상황을 표시하는 상황인지 SNMP 어플리케이션의 작동 예를 보여준다.</p><p>한편, 원격 관리자는 확장 SNMP 매니저를 사용하여 도로상황 표시기를 관리할 수 있다. (그림 15)는 원격관리자가 도로상황 표시기의 LCD 디스플레이를 제어하는 예로써 원격 관리자는 확장된 set 명령어를 사용하여 도로상황 표시기의 LCD 디스플레이에 "Hello World"을 출력한다. 그리고 확장 SNMP는 명령어 길이의 제약사항을 제거하였기 때문에 용량이 큰 XML 문서도 전달할 수 있다. (그림 16)은 get 명령어로 현재 온도 oid에 대하여 그 값을 요청했을 때, 확장된 response 명령어를 이용하여 도로상황 표시기가 수집한 온도를 XML 형태로 응답받는 예를 보여주고 있다.</p><p>다음의 (그림 17)은 구현한 확장 SNMP의 성능을 나타내고 있다. 성능평가를 위하여 확장하기 전 SNMP4J의 에이전트와 SNMPRequest라는 매니저 프로그램을 이용하여 일반 set 명령어와 get-response 명령어의 응답시간을 측정하였고, 확장 SNMP 에이전트와 확장 매니저의 확장 set 명령어와 get-확장 response 명령어의 응답시간을 측정하여 비교하였다. 실험환경은 위의 도로상황표시기의 실험환경과 동일하고 사용한 SNMP 버전은 SNMPv3이므로 보안과 접근 제어에 대한 처리가 수반된다. UDP의 데이타그램은 메시지 제약이 있으므로 메시지 길이 제약여부에 대한 실험을 위하여 에이전트들은 TCP 모드로 작동시켜 실험하였으며, TCP 모드는 대용량 메시지 전송에 있어서 메시지 순서와 신뢰성을 보장할 수 있다는 장점이 있다. (그림 17)의 a와<표 2>는 일반 set 명령과 확장 set 명령의 응답시간을 나타내고 있으며, (그림 17)의 b와<표 3>은 일반 get-response 명령과 확장 SNMP에서 get-확장 response 명령의 응답시간을 나타내고 있다. 모든 실험의 결과 값은 10번씩 측정한 값의 평균값을 사용하였다.</p><p>(그림 17)과<표 2>,<표 3>을 통하여 확장하기 전과 확장 후 set, get 명령어의 응답시간의 차이는 약 \( 5 \mathrm{~ms} \) 이내로 확장 SNMP의 응답시간이 확장 전 SNMP와 거의 유사함을 알 수 있다. 또한 확장 전 SNMP는 메시지 제약이 있으므로 \(5 \mathrm{Kbytes}\) 이상의 데이타를 전송할 수 없으며, 확장 SNMP는 메시지 제약을 해결한 확장 set, 확장 response 명령을 사용하였으므로 \(5 \mathrm{Kbytes}\) 이상의 데이타도 전송할 수 있음을 알 수 있다. 전송 메시지의 크기가 \(50\mathrm{ KBytes}\) 보다 작을 때는 확장 set 및 get-확장 Response 명령의 응답시간이 메시지 크기에 거의 영향을 받지 않지만, 그 이상되면 수행시간이 증가됨을 알 수 있다. 그 이유는 확장 SNMP의 메시지를 전송할 때 사용하는 버퍼의 크기가 \(512\mathrm{ Kbytes}\)로 설정되어 있기 때문에 버퍼링 시간의 증가로 응답시간이 증가하게 되는 것이다.</p>
|
본 논문에서는 확장 SNMP를 온도정보 수집과 문자 출력 기능을 가지고 있는 도로상황 표시기에 설치해 그 기능을 실험한 결과를 보여주고 있다. 확장 전 에이전트와 매니저 프로그램을 이용하여 일반 set 명령어와 get-response 명령어의 응답시간을 측정했고, 확장 SNMP 에이전트와 확장 매니저의 확장 set 명령어와 get-확장 response 명령어의 응답시간을 측정하여 성능을 비교했다. 그 결과 전송 메시지의 크기가 \(50\mathrm{ KBytes}\) 이상이 되면 확장 set 및 get-확장 Response 명령 응답 시간이 증가된다는 점을 확인했다.
|
<h2>4.2 CADM 정의</h2><p>DDS의 드라이버 모델로 CADM (Control Actuator Driver Model)을 정의하였다. CADM은 장치를 제어하기 위하여 장치 추상화를 통한 서비스 API를 SNMP 어플리케이션에 제공한다. (그림 5)는 CADM의 내부 구조와 SNMP 어플리케이션과 CADM을 위해 정의한 snmpCadmMIB와의 관계를 나타내고 있다. CADM은 SNMP 어플리케이션이 제어장비에 접근하고 제어할 수 있도록 CADM 서비스 인터페이스를 제공한다. 또한 제어작동기 매니저(Control Actuator Manager)는 CADM 모듈이 시작될 때 cadmActuatorTable에 설정되어 있는 제어장치에 대한 초기화 설정 정보를 이용하여 드라이버들을 초기화하고 관리하며, SNMP 어플리케이션의 제어장비에 대한 사용 요청을 해당 제어작동기 매니저에 전달한다.</p><p>CADM에서는 제어 장치에 대한 서비스를 제공하기 위하여 (그림 6)과 같은 snmpCadmMIB를 정의한다. snmpCadmMIB는 OID가 1.3.6.1.7.1인 snmpv3Modules 노드의 첫 번째 자식노드로 정의되고, 제어 OID 정보, 작동기 드라이버 정보를 포함하는 cadmControlOIDTable과 cadmAcutuatorTable이 정의되어 있다.</p><h3>4.2.1 cadmControlOIDTable (OID: 1.3 .6 .1 .7 .1 .1 .1 .1 )</h3><p>CadmControlOIDTable은 장비 제어관련 OID에 대한 정보들을 저장하는 MIB이다. cadmControlOIDTalble의 cadmControlName 컬럼은 CADM에서의 장비제어명을 저장하고, cadmControlOID 컬럼은 장비제어명에 대한 실제 제어 관련 OID의 경로를 저장한다. cadmControlActuatorName은 제어 관련 OID에 해당하는 실제 작동기 드라이버 이름을 저장한다. CADM에서 cadmControlOID 컬럼에 제어와 관련된 OID 경로들을 설정함으로써 확장 SNMP 에이전트는 getActuatorName() 인터페이스를 이용하여 주어진 ID가 제어에 관련된 경로에 위치하는가를 판단하여 제어와 관련된 처리를 수행한다. 제어 에이전트는 SetRequest가 도착하였을 때, (그림 7)과 같이 CADM 제어 인터페이스의 getActuatorName() 인터페이스를 이용하여 명령어에 포함되어 있는 OID가 제어와 관련된 OID 인지를 cadmControlOIDTable 에서 검사하고, 제어와 관련된 OID일 경우 제어처리를 담당할 해당 cadmControlAcutaorName을 돌려보내 DDS에서 명령을 처리하게 한다. 따라서 설정을 위한 본래 SNMP set 명령어와 제어를 위한 set 명령어 활용의 모호함을 해결할 수 있다.</p><h3>4.2.2 cadmActuatorTable (OID: 1.3 .6 .1 .7 .1 .1 .1 .2 )</h3><p>cadmActuatorTable은 작동기 드라이버에 대한 정보를 저장하는 MIB로서, 드라이버 타입과 초기 설정 값을 가지고있는 테이블이다. 제어작동기 매니저는 dmAcutatorTable 정보를 바탕으로 작동기 드라이버를 초기화하여 작동기로 명령어를 전달하기 위한 준비를 하고, cadmActuatorName을 관리하여 제어관련 OID에 대한 명령어를 실제 작동기 드라이버에 전달한다. (그림 8)는 제어작동기 매니저가 cadmActuatorTable 정보를 바탕으로 제어 장치에 대한 드라이버를 초기화하고 제어 명령이 전달되는 과정을 보여주고 있다. cadmActuatorName으로 식별되는 각각의 드라이버들은 제어 장치의 종류와 초기화하는 방법에 대한 문자열을 가지고 있는데, 이를 바탕으로 CADM이 처음 작동될 때 제어장치 드라이버들을 초기화하고 드라이버들을 관리하면서 SNMP 어플리케이션으로부터의 요청에 따라 장치로의 입출력과 관련된 처리를 수행한다.</p><h3>4.2 .3 CADM 서비스 인터페이스</h3><p>CADM에서 SNMP 어플리케이션에 제공하는 서비스 API는 (그림 9)와 같이 getActuatorName(), read(), write()이있다. getActuatorName() 메소드는 주어진 OID가 제어와 관련된 처리를 해야 하는지를 확인하는 메소드로, OID가 장치 제어를 위한 OID이면 장치로 입출력할 수 있도록 작동기 이름을 보내고, 아니면 null을 보낸다. read() 메소드는 작동기로부터 최대 길이가 size인 데이터를 읽어서 버퍼에 저장한다. wirte() 메소드는 버퍼의 데이터를 최대길이 size 길이만큼 읽어서 작동기에 기록함으로써 제어처리를 하게한다.</p><h2>4.3 SNMP 명령어 추가</h2><p>기존의 SNMP 명령어와 기능은 동일하면서 대용량 메시지를 처리할 수 있도록 새로 추가한 3개의 SNMP 명령어는 snmpV3e-set-request, snmpV3e-response, snmpV3e-inform-request이다.<표 1>은 새롭게 추가된 명령어에 해당하는 메시지의 식별자를 보여준다.</p><p>새로 추가되는 세 개의 명령어에 대한 PDU 정의는 RFC 3416에 근간하여 확장하였다. (그림 10)은 새로 추가된 snmpV3e-set-request, snmpV3e-response, snmpV3e-inform-request를 위하여 ASN.1 형식으로 기술된 PDU 정의, 즉 SNMPv3e-SetRequest-PDU, SNMPv3e-Response-PDU, SNMPv3e-InformRequest-PDU를 보여주고 있다.</p><p>(그림 11)은 추가된 PDU에 대한 실제 PDU 타입 정의를 나타내고 있다. 새롭게 추가된 snmpV3e-set-request, snmpV3e-response, snmpV3e-inform-request 명령어는 그 기능이나 형식이 기존의 set-request, response, inform-request 명령과 동일하기 때문에 동일한 본래의 PDU 타입을 그대로 사용하도록 정의하였다. 그러므로 추가되는 명령어는 (그림 4) SNMP 엔진의 접근제어와 보안 기능을 그대로 활용할 수 있다.</p><p>SNMP 엔진의 디스패처는 네트워크에서 전달받은 SNMP 메시지를 메시지 처리 서브시스템, 보안 서브 시스템, 접근 제어 서브 시스템을 사용하여 해석해서 PDU로 만들고, 이를 적절한 SNMP 어플리케이션에 전달하는 역할을 수행한다. 메시지 처리 서브시스템은 메시지를 SNMP 해당 버전에 따라 해석하는 역할을 담당한다. 따라서 메시지 처리 서브시스템에는 SNMPv1, SNMPv2, SNMPv3c, SNMPv3에 해당하는 각각의 메시지 모델이 있다. 추가된 새 개의 명령어는 SNMPv3e라는 새로운 메시지 처리 모델로 새롭게 추가된 후에 디스패처에서 SNMP 메시지 혜더에 기록되어 있는<표 1>의 명령어 식별자를 분석하여 SNMPv3e 메시지 처리 모델을 호출할 수 있게 된다. 디스패처는 또한 새롭게 추가된 세 개의 명령어에 대하여 메시지 제약을 해제하기 위하여 디스패처내의 transport mapping에서 수행하는 메시지 제약을 해제 하여 대용량 메시지를 전송할 있도록 하였다.</p>
|
본 논문은 DDS의 드라이버 모델로 CADM을 정의하고 SNMP 명령어를 소개하고 있다. CADM는 서비스 API를 SNMP 어플리케이션에 제공하여 장치를 제어한다. 또한 제어작동기 매니저는 cadmActuatorTable에 설정되어 있는 정보를 이용하여 드라이버들을 초기화하며, SNMP 어플리케이션의 사용 요청을 해당 매니저에 전달한다. SNMP 명령어와 기능은 동일하면서 대용량 메시지 처리가 가능한 3개의 SNMP 명령어는 snmpV3e-inform-request, snmpV3e-response, snmpV3e-set-request이다. SNMP 엔진의 디스패처는 전달받은 SNMP 메시지를 해석해서 PDU로 만들고, 이를 적절한 SNMP 어플리케이션에 전달한다.
|
<h1>4. 확장 SNMP 설계</h1><h2>4.1 확장 SNMP 개요</h2><p>사회 인프라 시설에 임베디드되어 있는 제어기능을 갖춘 디지털 컨버전스 장비들을 관리할 때, 서로 다른 플랫폼을 사용하는 장비들을 통합 관리하는 것이 필요하므로, SNMP와 같은 표준화된 프로토콜을 사용하는 것이 유용하다. 그런데 제어 기능의 비중이 더욱 커지면서 다양한 장비를 제어해야 할 필요성이 대두되었지만, SNMP 프로토콜은 장비 제어를 위한 별도의 명령어를 지원하지 않는다. SNMP에 제어 기능을 제공하기 위하여 SNMP SetRequest 명령을 가로채서 장비를 제어하는 방법들을 사용하지만, 여전히 점차 다양해지는 제어 장비들을 효율적으로 제어할 수 있는 방법은 없다. 이러한 문제점들을 해결하기 위하여 본 논문에서는 SNMP 엔티티의 구조를 개선함으로써 SNMP를 확장하였다. 또한 상황 적응형 서비스 제공에 적합한 용량이 큰 메시지 처리를 가능하게 하기 위하여 새로운 명령어를 추가로 정의하였다.</p><h3>4.1.1 SNMP 엔티티 구조개선</h3><p>다양한 장치 제어를 위해 관리 프로토콜 차원의 서비스를 제공하도록 SNMP 엔티티의 엔진 부분에 장치 드라이버 서브시스템 개념을 도입하여 제어 장치에 대한 드라이버 계층화와 서비스 추상화를 제공한다. 이와 같은 장치 드라이버 개념의 도입은 제어 장치에 대한 접근을 용이하게 만들어주기 때문에 다양한 형태의 상황 적응형 서비스를 제공할 수 있는 SNMP 어플리케이션을 쉽게 탑재할 수 있게 한다. 따라서 SNMP 엔진 내에 새로운 서브시스템인 DDS (Device Driver Subsystem)를 추가하고 장치 드라이버에 대한 고수준의 서비스 API를 제공하여 장치 계층화와 추상화를 제공한다. SNMP 엔진 내의 다른 서브시스템과 마찬가지로 DDS는 목적별로 다양한 형태의 Model들을 설계할 수 있다. 본 논문에서는 장치 제어와 관련된 모델인 CADM (Control Actuator Driver Model)을 제시한다.</p><p>(그림 4)는 SNMP 엔진 내에 DDS를 새로 추가한 SNMP 엔티티 구조도를 나타내고 있다. 새로 추가되는 SNMP 엔티티의 서브시스템인 DDS는 장치로의 접근과 관련된 서브 시스템으로써, SNMP 엔티티 내의 모든 어플리케이션은 DDS의 서비스 API를 이용하여 장비를 공유하여 사용할 수 있다. (그림 4)의 SNMP 어플리케이션은 DDS의 서비스 API를 이용하는 상황인지 어플리케이션이다.</p><h3>4.1.2 SNMP 명령어 추가</h3><p>SNMP의 명령어는 \( 576 \mathrm{bytes } \)를 넘지 않도록 권장하고 있다. TCP/IP 통신이 갖는 패킷의 단편화(fragmentation)현상이 통신의 신뢰성을 떨어뜨리기 때문에, 어떠한 프로토콜을 사용하거나 네트워크 장비를 경유하더라도 단편화가 일어나지 않는 크기인 \( 576 \mathrm{ bytes } \)를 넘지 않도록 권장하고 있다. 그러나 GetBulkRequest 명령어와 같이 메시지의 길이가 길어지면서 회사에 따라 임의로 최대 길이를 \( 576 \mathrm{bytes } \) 보다 크게 설정하여 사용하고 있지만, 표준 권장 사항이 아니므로 장비 간의 큰 메시지는 메시지의 전달이 보장되지 않는다.</p><p>그러나 발달하는 기술과 함께 높아지는 사용자의 요구사항에 적합한 고수준의 서비스를 제공하기 위하여 점차 용량이 큰 메시지를 전송할 수 있는 SNMP 명령어의 필요성이 증가하고 있다. 그 한 예로 국내에 설치되어 있는 도로전광 표지판(VMS: Variable message Signs) 관리를 들 수 있다. VMS의 경우 일반적으로 한글을 한 줄에 8음절씩 두 줄까지 표시할 수 있는 \( 400 * 100 \) 해상도를 갖고, 2색 또는 3색 LED를 사용한다. 따라서 한 화면을 표현하는데 \( 10 \mathrm{~KB} \) (2색의 경우), \( 20 \mathrm{~KB} \) (3색의 경우) 정도의 정보가 필요하다. 고품질의 정보표현을 위하여 출력 색상수가 점차로 늘어나는 추세이고, VMS의 해상도 또한 점점 높아지는 추세를 생각할 때, 한 화면을 표현하기 위한 정보의 양은 더욱 증가할 것이다. 따라서 관제센터에서 SNMP 에이전트에 연결되어 있는 VMS의 화면을 관리 및 제어하기 위한 정보의 교환양은 \(567 \mathrm{ bytes}\)의 메시지 제약을 가지는 SNMP 명령어로는 불가능하다.</p><p>대용량 메시지 전달이 필요한 다른 예로 로그정보의 관리를 들 수 있다. 센서나 작동기에 동작내역을 기록한 로그정보를 저장하고 있을 때 관리자는 필요에 따라 로그정보를 요청하게 된다. 기기의 종류와 동작 내역에 따라 로그정보의 종류는 매우 가변적일 수 있으므로 그 크기 또한 다양하다. 따라서 관제센터에서 \( \mathrm{ 576 bytes } \)이상의 로그 정보를 전송 받기 위해서는 명령 메시지 크기의 제약이 없는 SNMP 명령어가 필요하다. 또한, 최근에는 데이타의 상호운용성을 높이기 위하여 데이타를 XML 형태로 주고 받는 경우가 많다. 그러나 텍스트 기반의 XML 메시지의 단점은 메시지 크기가 커진다는 것이므로 XML 문서를 포함하는 메시지를 SNMP에서 전송하기 위해서는 메시지 크기의 제약이 없는 SNMP 명령어가 필요하다.</p><p>이를 위하여 본 논문에서는 기존의 SetRequest, Response 명령어와 업링크(uplink)형 통지(notification)를 처리하는 InformRequest 명령어를 보완하여 snmpV3e-set-request, snmpV3e-response, snmpV3e-inform-request의 3개의 명령어를 추가로 정의하였다. snmpV3e-set-request는 제어용 set 명령어로서 용량이 큰 메시지를 전송할 수 있는 다운링크형 제어 명령어이다. 따라서 관제센터에서 VMS의 화면에 고품질을 위한 용량이 큰 데이타를 표시하고 싶을 때, VMS 제어 명령어와 표시하고자 하는 데이타를 snmpV3e-set-request 명령어에 담아 VMS를 관리하는 에이전트에 전송하게 된다. snmpV3e-response는 센서 또는 작동기에서 용량이 큰 데이타를 가져올 때 사용한다. 즉 위의 로그 정보의 예처럼 관제센터에서 센서 또는 작동기에 있는 로그정보를 획득하고 싶을 때, SNMP get 명령어를 이용하여 요청하게 되고 에이전트는 snmpV3e-response 명령어에 용량이 큰 로그 정보를 실어 응답메시지를 전송한다. snmpV3e-inform-request는 센서나 작동기에서 발생한 통지사항을 관제센타, 즉 SNMP 매니저로 전송하는 명령어로서 용량이 큰 통지메시지를 전송할 수 있다. 새로 추가되는 명령어는 새로운 명령어 코드를 사용하기 때문에 확장 SNMP를 지원하지 않는 기존의 SNMP 원격 관리자나 SNMP 장비와의 통신에서 알 수 없는 명령어 코드로 인식하므로 기존 장비에서 오동작이 발생되지 않는다.</p>
|
SNMP 엔티티의 구조를 개선함으로써 SNMP를 확장하고 용량이 큰 메시지 처리가 가능해지도록 새로운 명령어를 추가로 정의하여 기존 문제점을 개선하는 방법을 제안한다. 장치 제어와 관련된 모델인 CADM을 제안하며 기존의 명령어와 업링크형 통지를 처리하는 명령어를 보완하여 3개의 명령어를 추가로 정의하며 새로 추가된 명령어는 확장 SNMP를 지원하지 않는 기존 원격 관리자나 장비와의 통신에서는 알 수 없는 명령어 코드로 인식되므로 기존 장비에서 오동작이 나타나지 않는다는 이점을 가진다.
|
<h1>3. 관련 연구</h1><p>현재 네트워크로 연결된 디지털 컨버전스 장비들을 관리하기 위하여 내장형 웹과 CGi를 이용한 관리, 자체 프로토콜을 사용하는 Java 애플릿 또는 전용 도구를 이용한 관리, SNMP을 이용한 관리 등이 사용되고 있다. 먼저, 웹서버와 CGI를 이용하고 PC에서 웹브라우저로 접속하여 각종 설정을 변경하거나 버튼 클릭으로 장비를 제어하는 방법은 가장 널리 사용되는 방법이지만, 소규모 장비의 설정과 제어에 유리하기 때문에 통합 관제센터와 같은 대규모 관리 서버에는 적합하지 않다. 자체 프로토콜을 사용하는 Java 애플릿이나 전용 도구를 사용하는 관리 기법은 주로 디지털 컨버전스 장비들의 실시간 모니터링에 많이 사용된다. 자체 프로토콜을 사용하므로 장비에서 제공되는 모든 기능을 자유롭게 활용할 수 있다는 장점을 가지지만, 이질적인 장비들을 통합 관리하기에는 부적합하다. SNMP를 이용하면 장비의 유지 보수 및 대규모 시스템 관리, 그리고 이질적인 장비의 통합 관리에 유리한데, 이는 SNMP와 같은 표준 관리 프로토콜이 갖는 장점이다. 또한 SNMP 트랩(trap) 기능은 긴급 상황을 정확하게 관리자에게 통보할 수 있다. 따라서 관리를 위해 SNMP에 대한 사전 지식을 습득해야 하는 어려움은 있지만, 센싱정보 수집 기능 위주의 기존 디지털 컨버전스 장비들을 통합 관제하는 센터에 유용하게 활용될 수 있다.</p><p>제어기능을 갖춘 디지털 컨버전스 장비는 상황정보를 수집하기 위한 센서들뿐만 아니라 수집된 상황정보를 기반으로 서비스를 수행하기 위한 작동기(actuator)들을 갖추고 있 는 장비이다. 따라서 제어기능을 갖춘 디지털 컨버전스 장비들을 관리하기 위해서는 연결되어 있는 센서들뿐만 아니라 작동기들까지 효율적으로 관리할 수 있어야 한다. SNMP를 기반으로 임베디드 장비에 연결되어 있는 센서들과 작동기들을 효율적으로 관리하기 위한 관련 연구로는 [12-14]가 있다.</p><p>[12]는 센서와 제어장치들로 구성된 여러 종류의 필드버스(fieldbus) 통신망을 통합 관리하기 위하여 구조적으로 하나의 마스터 에이전트와 여러 개의 서브 에이전트 구조를 가지는 확장된 SNMP 기술을 사용한다. 즉 각각의 필드버스 통신망에 하나의 SNMP 서브 에이전트를 구동시켜 데이타를 수집하고, 서브 에이전트들을 통합하는 하나의 마스터 에이전트는 SNMP 요청을 처리하고 MIB를 관리한다. [12]는 여러 종류의 필드버스 통신망을 통합 관리하기에 적합한 기술이지만, SNMP와 함께 확장된 SNMP 기술의 습득이 더 필요하고, SNMP 본연의 기능인 모니터링에 적합하지만 제어 기술에 대한 구체적인 방법은 제시하지 못하고 있다. 또한 연결되는 필드버스 통신망에 적합한 각각의 서브 에이전트 개발이 필요하므로 개발을 위한 시간과 노력이 많이 필요하다. 반면 본 논문에서 제시하는 확장 SNMP는 SNMP 명령어만을 확장하였으므로 별도의 기술 습득이 필요 없으며, 또한 연결되는 센서 또는 작동기에 적합한 드라이버를 개발하면 쉽게 확장 SNMP로 통합 관리할 수 있다는 장점이 있다.</p><p>[13]은 센서와 작동기들을 모니터링하고 제어하기 위한 국제표준인 IEEE 1451.2의 STIM (Smart Transducer Interface Module)을 SNMP 기반으로 개발함으로써 SNMP 의 장점인 표준 프로토콜로서의 유명성 및 구현의 용이성과 IEEE 1451.2 표준성을 장점으로 갖는 관리 시스템을 구축하였다. IEEE 1451의 NCAP (Network Capable Application Processor)는 하드웨어 리소스의 요구사항이 높고, 사용하는 객체 모델을 실제 구현하기 매우 어렵다는 단점을 가지므로 네트워크에 연결을 제공하는 NCAP을 SNMP 에이전트로 대체한 것이다. 그러나 IEEE 1451.2의 STIM 의 센싱 데이타를 저장하기 위한 포맷인 TEDS (Transducer Electronic Data Sheet)를 SNMP의 MIB로 바꿀 때 몇몇 데이타 타입에 대하여 정확하게 MIB 데이타 타입으로 변환할 수 없다는 문제점이 발생하며, IEEE 1451.2을 지원하는 센서와 작동기전용이라는 한계성을 가진다. 반면 본 논문에서 제안하는 확장 SNMP는 데이타 변환이 필요없고, CADM의 드라이버 인터페이스로 간단한 read, wrtie 오퍼레이션을 제공하므로 드라이버 개발이 쉬워 확장성이 뛰어나다. 따라서 CADM을 위한 IEEE 1451.2의 STIM 드라이버를 개발하여 IEEE 1451.2 센서와 작동기를 관리할 수 있다.</p><p>[14]는 센서와 제어장치들을 포함하는 분산 시스템을 통합 관리하기 위하여 SNMP 에이전트를 개발하였다. [14]는 센서나 작동기에서 발생하는 데이타를 검사하여 에이전트에 기록되어 있는 알람 조건과 비교하고 알람 상황이 발생하면 SNMP Trap을 이용하여 관리자에게 이를 알린다. [14]는 센서와 제어장치를 효과적으로 관리하기 위하여 새롭게 TestRequest, TrapAck라는 명령어를 정의하여 제공하고 있다. [14]는 새로운 SNMP 명령어를 정의하여 센서와 제어장치를 관리한다는 점에서 본 논문과 접근법이 비슷하지만, 본 논문에서는 SNMP의 취약한 제어기능을 보강하기 위하여 SNMP 명령어를 확장하였으므로 그 목적이 다르다. 또한, [14]는 센서나 제어장치들이 연결되어 있는 통신망 또는 임베디드 장비에 최적화된 SNMP 에이전트들을 각각 개발해야 하는 단점이 있는 반면, 본 연구는 CADM 이라는 센서 및 작동기들을 추상화한 모델을 사용함으로써 센서나 작동기에 독립적인 SNMP 에이전트를 개발할 수 있다는 장점을 가진다.</p>
|
디지털 컨버전스 장비 관리를 위해 내장형 웹과 CGi, Java 애플릿, SNMP 등을 이용하고 있다. SNMP를 토대로 임베디드 장비에 연결되어 있는 센서들과 작동기들을 효율적으로 관리하기 위한 연구들로 연구 [12]는 필드버스 통신망을 통합 관리를 위해 하나의 마스터 에이전트와 여러 개의 서브 에이전트 구조를 가지는 확장된 SNMP 기술을 사용하고 연구 [13]은 SNMP 의 유명성 및 구현의 용이성과 IEEE 1451.2 표준성을 장점으로 갖는 관리 시스템을 구축하였고 연구 [14]는 분산 시스템 통합 관리를 위해 SNMP 에이전트를 개발하였다.
|
<h1>중첩 클러스터를 이용한 피드백 문서의 재샘플링 기법</h1> <h2>요 약</h2> <p>대부분의 잠정적 적합피드백기법들은 질의에 대해 검색된 상위검색문서들이 적합하다고 가정하고, 그 문서들을 질의 확장을 위한 피드백 문서로 이용하고 있다. 그러나 초기검색결과에는 상당한 양의 부적합 문서를 포함하고 있는 것이 현실이다. 이 논문에서는 보다 좋은 피드백 문서를 선택하기 위해서 중첩클러스터를 이용한 피드백문서의 재샘플링 기법을 제안한다. 주요 아이디어는 질의 중심적인 초기검색문서집합에 대해서 중첩이 허용된 문서클러스터를 이용하여 문서들 사이의 관계를 반영하여 질의에 핵심역할을 하는 지배적 문서를 찾고, 이 문서들을 반복적으로 피드백 하여 질의가 내포하는 핵심 주제를 강조하는 것이다. 대규모 실험집합인 TREC GOV2와 WT10g에 대한 실험비교에서, 최근 잠정적 적합피드백 기법들 중에서 가장 좋은 성능을 보이고 있는 적합모델보다 재샘플링기법이 우수한 성능향상을 보였다. 제안기법에 대한 검증을 위해서 피드백문서에 포함된 적합문서의 정도를 나타내는 적합밀도를 측정하였다. 재샘플링 기법이 TREC 실험집합에 대해서 적합모델에 비해 높은 적합밀도를 보였고, 이 결과 적합피드백에서 검색성능을 향상시키게 되었다. 이는 제안 기법이 잠정적 적합피드백에서 유효한 방법임을 알 수 있다.</p> <h1>1. 서 론</h1> <p>정보검색에서 검색된 결과를 이용해서 질의를 확장하거나 질의 가중치를 조정하는 잠정적 적합 피드백(Pseudo-Relevance Feedback) 기법은 원래 질의를 사용한 검색결과 보다 성능향상을 보여오고 있다. 대부분의 잠정적 적합피드백 기법 \( [15,23,22] \) 은 원래 질의에 대해 검색된 상위 검색문서집합이 잠정적으로 질의에 대해 적합하다고 가정하고, 그 문서들을 이용해서 질의를 확장하거나 원래 질의의 가중치를 조정한다. 이는 적합피드백에서 실제로 적합한 문서를 사용하는 것과 비슷한 처리 과정이다[26].</p> <p>그러나 일반적으로 상위검색결과는 부적합한 문서들을 포함하고 있다. 검색결과 상위 10 개의 문서에 대한 정확률이 \( 0.5 \) 일 때 \( (\mathrm{P} @ 10), 5 \) 개의 문서는 질의에 적합한 문서이지만, 5 개의 문서는 부적합한 문서들이다. 이는 현재의 정보검색 성능 수준이고, 심지어 현재의 모든 정보검색 모델에서 공통적으로 나타나고 있는 행태이다. 이러한 부적합문서들이 상당수 포함된 문서들로부터의 질의 확장은 원래 질의로부터 질의 표현을 동떨어지게 만드는 결과를 초래하게 된다.</p> <p>본 논문은 잠정적 적합피드백을 위해 적합한 문서들을 더 많이 포함시키기 위해 클러스터를 바탕으로 한 재샘플링 기법을 제안한다. 특히 웹 문서와 같은 대량의 문서집합에 대한 초기 검색집합은 다양한 세부주제를 포함할 수 있기 때문에, 초기 검색결과집합에 대해 생성된 문서 클러스터는 질의에 대한 문서의 행태를 잘 표현할 수 있다. 초기 검색 집합에 대한 클러스터링에서 적합 문서들로만 구성된 하나의 최적의 클러스터를 생성할 수 있다면 그것을 이용해서 피드백을 하면 이상적일 것이나, 하나의 최적의 클러스터를 찾는 것은 클러스터링에서 여전히 어려운 문제로 남아있다. 따라서 본 연구에서는 생성된 클러스터들 중에서 최상위로 선택된 여러 클러스터들을 적합 클러스터로 가정하고 피드백을 위해 사용한다. 이때 클러스터들이 상위 검색문서들에 대해서 같은 문서를 중복해서 포함할 수 있도록 허용한다. 클러스터 생성시 지배적 역할을 하는 문서(dominant document)는 여러 클러스터에 반복적으로 나타나고 질의와 클러스터의 관련도에 따른 클러스터 순위에서도 높은 우선순위로 나타난다고 본다. 이러한 클러스터 형성에서 지배적 역할을 하는 문서를 반복해서 피드백 함으로써 확장된 질의는 원래 질의에 대한 핵심주제를 강조할 수 있을 것으로 기대한다. 클러스터에 중복으로 나타나는 문서를 반복해서 이용하는 것이 재샘플링 효과이다.</p>
|
대부분의 잠정적 적합 피드백 기법은 질의에 대해 검색된 상위 검색문서집합이 질의에 대해 적합하다고 가정 후 그 문서들을 이용하여 질의를 확장하고 원래 질의의 가중치를 조정하는데, 상위검색결과는 일반적으로 부적합한 문서들을 포함하고 있기 때문에 이러한 문서로부터의 질의 확장은 질의 표현을 동떨어지게 만든다. 이에 따라 본 논문은 클러스터에 중복으로 나타나는 문서를 반복해서 이용하는 재샘플링 효과를 이용하여 잠정적 적합피드백을 위해 적합한 문서를 더 많이 포함시키는 기법을 제안하였다.
|
<h1>6. 관련 연구</h1> <p>적합피드백 (Relevance feedback)와 잠정적 적합피드백 (pseudo-relevance feedback)은 처음 검색결과를 이용해서ㅡ적합문서나 잠정적 적합문서를 이용해서 원래 질의를 다시 작성함으로써 검색의 정확도를 향상시키는데 효율적인 방법으로 알려져 있다. TREC 2008 [30]의 적합피드백 트랙 (relevance feedback track)을 새로 시작하면서 적합피드백에 관한 새롭게 관심을 받게 되었다.</p> <p>전형적인 잠정적 적합피드백 알고리즘인 Okapi \( \mathrm{BM} 25 \) [22]와 적합모델 [15] 등은 검색된 초기검색결과의 상위 문서들은 질의에 적합하다고 가정을 하고 있다. 이 방법의 성능을 향상시키기 위한 연구는 문서 대신 문단(passage)을 이용하는 방법 [33], 지역문맥분석 기법 [31], 질의에 대해 정규화된 추정 기법 [29], 잠정적 개념을 이용하는 기법 [20] 등이 있다. 이러한 연구들도 기본적인 가정은 상위검색결과가 질의에 대해 적합하다는 것이다.</p> <p>반면에 최근에 초기검색결과의 상위문서를 그대로 피드백으로 사용하지 않고, 샘플링과 재샘플링을 통해서 피드백을 하는 연구가 있다. Sakai 등에 의해 제안된 선택적 샘플링 기법 [25]에서는 클러스터링 기준에 따라 상위 검색된 문서들 중에서 일부를 피드백에 사용하지 않도록 한다. 이때 클러스터는 문서들 사이의 유사도에 의해 생성된 것이 아니라 같은 질의 어휘 집합을 갖느냐에 따른 것이다. 샘플링의 목적은 보다 다양하고 새로운 문서집합을 피드백에 사용하려는 것이다. 이는 상위 문서들은 서로 비슷하거나 중복될 것 이라는 기본 가정에 따른 것이다. 본 연구에서 지배적 문서를 반복적으로 사용하는 기본 가정과는 서로 다르다.</p> <p>Collins-Tompson와 Callan에 의해 제안된 재샘플링 기법 [5]은 질의에 대해 검색된 상위 문서에 대한 부트스트랩 샘플링과 질의 어휘에서 하나의 어휘를 제거해서 만든 질의 변이를 사용한다. 질의 변이를 사용한 가정은 질의 어휘들중의 하나는 쓸데없는 어휘일 것이라는 것이다. 그들의 실험분석에서 언급한 것처럼, 성능향상은 문서 재샘플링이 아니라 질의 변이를 사용한 것의 효과이다. 본 연구에서는 주로 상위검색결과에 대한 재샘플링의 효과에 초점을 맞춘 것이다.</p> <p>정보검색의 다른 측면에서는, 많은 검색기법이 성능향상을 위해서 클러스터 가설(cluster hypothesis)을 채택해오고 있다. 클러스터 가설은 아주 가깝게 관련된 문서들은 같은 질의에 대해 적합하다 [11]고 보고 있다. 클러스터를 이용하여 순위를 다시 매긴 기법 \( [16,17] \) 은 벡터공간검색 모델에서 성공적인 결과를 보였다. 클러스터 기반 언어모델 검색 기법 [18]은 질의를 생성하는 확률로 클러스터를 순위화 한 것으로 질의확률검색모델에 비해 성능향상을 보였다. 지역 점수 정규화 (local score regularization) 기법 [6]은 주제별 관련문서들이 유사한 점수를 받도록 문서유사도 행렬을 이용해서 초기검색 점수를 적응시킨 것으로, 언어모델에서 좋은 결과를 보였다. 또한, 클러스터 정보를 문서기반 언어모델에 통합한 기법 [12], 그래프구조 틀 안에서 클러스터기반 언어모델을 이용한 재순위화 기법 [14], 유사 그래프 구조를 이용한 재순위화 기법 [34] 등 클러스터 정보를 이용하여 검색 결과를 향상시키는 연구가 지금도 계속 연구되고 있다.</p> <h1>7. 결 론</h1> <p>본 연구에서 제안한 방법인 중첩 클러스터를 이용해서 상위검색 문서들을 재샘플링하여 피드백 하는 것은 잠정적 적합피드백에서 유효한 방법이다. 거의 모든 실험집합에서 일관적으로 성능향상을 보였고, 특히 대규모의 다양한 문서를 포함하는 TREC GOV2와 TREC WT10g 컬렉션에서는 상당히 우수한 성능향상을 보였다. 정보검색모델에서 우수한 성능을 보이는 언어모델 (LM)과 잠정적 적합피드백에서 최고의 성능을 보이는 적합모델 \( (\mathrm{RM}) \) 과의 비교실험에서 \( \mathrm{GOV} 2 \) 집합에 대한 상대적인 성능향상은 각각 \( 16.82 \% \) 와 \( 6.28 \% \) 를 보였다. \( \mathrm{WT} 10 \mathrm{~g} \) 집합에 대해서는 각각 \( 19.63 \% \) 와 \( 26.38 \% \) 의 성능향상을 보였다. 클러스터에 기반한 재샘플링에 의한 질의 확장이 어떻게 성능향상을 도왔는지에 대한 검증을 위해서 적합밀도를 측정했는데, 모든 실험집합에 대해서 비교 피드백모델 보다 높은 적합밀도를 보였음을 확인 하였다. 이러한 실험결과에서 중첩 클러스터가 질의에 대해 핵심 문서를 찾는데 도움이 되었음을 알 수 있다.</p> <p>향후 연구에서는 질의 특성에 따른 클러스터링 결과의 적용 방법과 클러스터링에 질의 변이를 채택하는 방법에 대한 연구가 필요하다. 또한 클러스터의 표현으로 단순히 문서들을 연결하지 않고, 보다 나은 클러스터 표현 방법과 클러스터 순위화 방법에 대한 연구가 필요하다.</p>
|
적합피드백과 잠정적 적합피드백은 처음 검색결과를 이용하여 적합문서나 잠정적 적합문서를 이용해서 원래 질의를 다시 작성함으로써 검색의 정확도를 향상시키는 효율적인 방법으로 알려져 있다. 최근에는 초기검색결과의 상위문서를 그대로 피드백으로 사용하지 않고, 샘플링과 재샘플링을 통해서 피드백을 하는 연구가 있다. 샘플링의 목적은 보다 다양하고 새로운 문서집합을 피드백에 사용하려는 것이다. Collins-Tompson와 Callan에 의해 제안된 재샘플링 기법은 질의에 대해 검색된 상위 문서에 대한 부트스트랩 샘플링과 질의 어휘에서 하나의 어휘를 제거해서 만든 질의 변이를 사용한다. 중첩 클러스터를 이용해서 상위검색 문서들을 재샘플링하여 피드백 하는 것은 잠정적 적합피드백에서 우수한 성능을 보였다.
|
<p>여기서 \( P_{M L}(w \mid D) \) 은 문서 \( D \) 에서의 어휘 \( w \) 의 최대확률추정을 나타내고, Coll은 전체문서집합, \( \mu \) 은 평활 매개변수 (smoothing parameter)를 나타낸다. \( |D| \) 와 \( \mid \) Coll|은 문서 \( D \) 와 전체문서집합 Coll의 길이를 나타낸다. \( \operatorname{freq}(w, D) \) 와 \( \operatorname{freq}(w, \operatorname{Coll}) \) 은 문서 \( D \) 와 전체문서집합 Coll에서의 어휘 \( w \)의 빈도수를 나타낸다. 평활 매개변수는 실험에서 각 전체 문서집합에 대한 학습질의를 이용해서 학습을 하였다.</p> <p>그 다음으로, 검색된 \( N \) 개의 문서집합에 대해서 지배적 문서들을 찾기 위해서 최근접이웃 \( (k-n e a r e s t ~ n e i g h b o r s ; \) \( k-\mathrm{NN} \) ) 클러스터링 [9]을 하였다. 최근접이웃 클러스터링 방법은 전체 문서들 사이의 유사도를 모두 계산해서, 각 문서에 대해서 유사도가 높은 순서대로 \( \mathrm{k} \) 개의 가장 가까운 문서 (이웃)을 선택해서 그 문서에 대한 클러스터를 형성하도록 한다. (실험에서 \( N \) 은 100 으로 설정하였고, \( k \) 는 5 로 설정하였다.) 클러스터를 생성하는데 드는 시간복잡도는 \( \mathrm{O}\left(\mathrm{N}^{2}\right) \) 이다. 이때, 하나의 문서는 여러 개의 클러스터에 속할 수 있다. 즉,\( k-\mathrm{NN} \) 클러스터링은 중첩클러스터를 생성한다.</p> <p>문서 유사도(document similarity) 계산을 위해서 문서는 각 어휘를 tfidf 가중치로 계산한 후 코사인 정규화를 하여 표현하였다. 유사도 측정은 코사인 계수(cosine coefficient)를 이용하여 최상위 검색문서들에 대해서 계산하였다.</p> <p>본 연구에서의 가정은 질의를 잘 표현한 지배적 문서는 높은 유사도로 여러 개의 이웃과 관계를 맺고, 또한 여러 클러스터를 형성하는데 핵심 역할을 할 것이라는 것이다. 반면에 부적합한 문서는 이상적으로는 높은 유사도의 이웃을 갖지 않아서 그 자신으로만 된 클러스터 (singleton)을 형성해야 하지만, 실제로는 일반 어휘나 여러 개의 뜻을 갖는 어휘 등으로 인해서 이웃들을 가져서 클러스터를 형성할 수도 있다. 문서 클러스터는 유사도 계산에서 문서와 어휘들 사이의 관계를 반영할 수 있다. 본 연구에서는 어떤 문서가 여러 클러스터의 멤버이고, 이 클러스터가 질의와 밀접한 관련이 높은 것이라면, 이러한 문서를 지배적 문서라고 가정하였고, 이 지배적 문서를 질의 확장을 위해서 반복적으로 피드백을 한 것이다.</p> <p>클러스터를 생성한 후, 클러스터기반 질의확률 언어모델 (cluster-based query-likelihood language model) [18]을 이용하여 클러스터를 순위화 한다. 최상위로 순위화된 클러스터들에 속하는 문서들이 피드백을 위해 사용된다. 여기서 클러스터는 피드백 문서를 선택하기 위해서만 사용된다.</p> <p>클러스터기반 언어모델에서 클러스터는 자신의 멤버로 속한 모든 문서를 연결해서 하나의 큰 문서처럼 표현한 후 언어모델에 적용한 것이다.</p> <caption>\( P(Q \mid C l u)=\prod_{i=1}^{m} P\left(q_{i} \mid C l u\right) \)</caption> <caption>(4)<p></caption> <caption>\( P(w \mid C l u)=\frac{|C l u|}{|C l u|+\lambda} P_{M L}(w \mid C l u)+\frac{\lambda}{|C l u|+\lambda} P_{M L}(w \mid \) Coll \( ) \)</caption> <caption>(5)</caption> <p> <caption>\( P_{M L}(w \mid C l u)=\frac{\text { freq }(w, C l u)}{|C l u|}, P_{M L}(w \mid \) Coll \( )=\frac{\text { freq }(w, \text { Coll })}{\mid \text { Coll } \mid} \)</caption> <caption>(6)</caption>
|
최근접이웃 클러스터링 방법은 전체 문서들 사이의 유사도를 모두 계산해서, 각 문서에 대해서 유사도가 높은 순서대로 \( \mathrm{k} \)개의 가장 가까운 문서을 선택해서 그 문서에 대한 클러스터를 형성하도록 하고, 유사도는 코사인 계수를 이용하여 최상위 검색문서들에 대해서 계산하였다. 본 연구의 가정은 질의를 잘 표현한 지배적 문서는 높은 유사도로 여러 개의 이웃과 관계를 맺고, 또한 여러 클러스터를 형성하는데 핵심 역할을 할 것이라는 것이다. 어떤 문서가 여러 클러스터의 멤버이고, 이 클러스터가 질의와 관련이 높은 것이라면, 이러한 문서를 지배적 문서라고 가정하였고, 이 지배적 문서를 질의 확장을 위해서 반복적으로 피드백을 하였다. 클러스터 생성 후, 클러스터기반 질의확률 언어모델을 이용하여 클러스터를 순위화하고 여기에 속하는 문서들이 피드백에 사용된다.
|
<p>통계학에서 재샘플링 (부트스트래핑) [8]은 통계적 추론과정으로, 원래 샘플로부터 반환을 하면서 무작위로 샘플링 함으로써 보다 견고한 추정을 하면서 샘플 통계(중간값, 분산 등)의 정확도를 추정하고자 하는 기법이다. 원래 샘플 공간으로부터 보다 좋은 예제들을 선택할 수 있는 방법이 있다면, 무작위 샘플링(random sampling)을 하는 것 보다는 선택적 샘플링 (selective sampling)을 하는 것이 보다 더 좋은 결과를 낼 수 있을 것이다. 기계학습 연구분야에서 부스팅 (Boosting) [27,10] 기법은 선택적 재샘플링의 하나이다. 이는 약 학습자 (weak learner)가 이전 약 학습자가 잘 못 분류한 예제들에 중점을 두도록 하기 위해서 학습 예제들의 분포를 적응적으로 변화시키는 데 사용하는 반복적 절차이다.</p> <p>잠정적 적합피드백에서의 초기 검색집합은 샘플링 분포를 추정하기 위한 질의확장 어휘의 샘플공간으로 볼 수 있다. 질의는 여러 세부주제 (subtopics)를 포함할 수 있기 때문에, 검색집합은 여러 세부주제 그룹으로 나뉘어질 수 있다. 어떤 문서가 여러 세부주제를 표현하고 있으면, 클러스터링에서 각 세부주제에 따른 클러스터에 나타날 것이다. 그래서 이러한 문서를 지배 문서라고 한다. 잠정 적합피드백 문제에서 분포를 변화시킬 어떤 방향을 찾기 위해, 질의에 대해 지배적 문서 (dominant document)를 질의가 내포하는 주제들을 잘 표현한 문서로서, 문서들 사이에서도 여러 가까운 이웃 문서들과 높은 유사도의 관계를 가질 것이라고 가정을 하였다. 따라서, 중첩 클러스터에서 지배 문서는 질의에 대해 높은 우선순위를 갖는 여러 클러스터에 나타날 것이다. 이러한 지배 문서로부터 확장 어휘를 선택한다면 모든 세부 주제와 관련된 문서를 검색할 수 있는 어휘를 선택할 수 있을 것이다.</p> <p>이러한 가정에 기초하여, 초기 검색문서집합 공간으로부터 최근접이웃 (k-Nearest Neighbors) 클러스터링 기법을 이용하여 중첩된 클러스터를 생성하고, 문서를 선택적으로 다시 샘플링하여 피드백을 한다.</p> <h1>3. 중첩 클러스터를 이용한 피드백 문서의 재샘플링 기법</h1> <p>본 연구에서 제안한 클러스터를 이용한 재샘플링 기법은 정보검색을 위한 언어모델(language model)[21]과 적합 모델 (relevance model) [15] 틀 안에서 피드백을 위해 보다 적합한 문서를 획득하기 위한 방법이다. 적합 모델은 가장 첨단의 잠정적 적합피드백 기법으로서, 상위 검색문서들로부터 질의 모델을 구축하는 가장 강력한 방법으로 알려져 있다.[15, 7]</p> <p>제안 기법의 핵심은 질의와 높은 관련도를 갖는 클러스터들에 중복되어 나타나는 지배적 문서는 다른 문서들에 비해 질의 확장에서 질의 어휘 표현에 보다 더 기여할 것이라는 것이다. 잠정적 적합피드백을 위해 중첩 클러스터를 이용한 재샘플링 과정은 다음과 같다.</p> <p>우선, 주어진 질의에 대해 언어모델 [21]에 기반해서 문서들을 검색한다. 이때 언어모델에서 문서에 나타나지 않은 질의 어휘를 다루기 위해 디리슈레 평활 (Dirichlet smoothing) [35]을 이용하였다.</p> <p>통계적 언어모델은 텍스트의 일부를 생성하는 가능한 모든 단어 열에 대한 확률 분포 [22]를 나타낸다. 정보검색에서 언어모델은 문서 그 자체를 모델로 다루고, 질의는 문서 모델로부터 생성된 텍스트의 열로써 다룬다. 질의확률 검색 모델(query-likelihood retrieval model)은 최대확률추정을 이용하여 문서언어모델을 추정한다. 문서는 문서언어모델로부터 질의를 생성 또는 샘플링 할 확률 \( P(Q \mid D) \) 에 의해서 순위화된다.</p> <caption>\( P(Q \mid D)=\prod_{i=1}^{m} P\left(q_{i} \mid D\right) \)</caption> <caption>(1)</caption> <p>여기서 \( q_{i} \) 는 \( i \) 번째 질의 어휘, \( m \) 은 질의 \( Q \) 의 어휘 개수이고, \( D \) 는 문서 모델을 나타낸다. 디리슈레 평활은 문서에 나타나지 않은 질의 어휘에 대해 0 이 아닌 값으로 추정하는데 사용된다. 질의확률 언어모델에 적용된 것은 다음과 같다:</p> <caption>\( P(w \mid D)=\frac{|D|}{|D|+\mu} P_{M L}(w \mid D)+\frac{\mu}{|D|+\mu} P_{M L}(w \mid \) Coll \( ) \)</caption> <caption>(2)</caption> <p> <caption>\( P_{M L}(w \mid D)=\frac{\operatorname{freq}(w, D)}{|D|}, P_{M L}(w \mid \operatorname{Coll})=\frac{\operatorname{freq}(w, \text { Coll })}{|\operatorname{Coll}|} \)</caption> <caption>(3)</caption>
|
통계학에서 재샘플링은 보다 견고한 추정을 하기 위해 무작위로 샘플링하는 기법이다. 부스팅 기법은 선택적 재샘플링의 하나로, 약학습자가 잘 못 분류한 예제들에 중점을 두도록 하기 위해 학습 예제들의 분포를 적응적으로 변화시키는 데 사용한다. 잠정적 적합피드백 문제에서는 질의에 대해 지배적 문서를 찾고, 이러한 문서로부터 확장 어휘를 선택하여 모든 세부 주제와 관련된 문서를 검색할 수 있는 어휘를 선택한다. 이를 위해 최근접이웃 클러스터링 기법을 이용하여 중첩된 클러스터를 생성하고, 문서를 선택적으로 재샘플링해서 피드백을 한다. 본 연구에서 제안한 기법의 핵심은 질의와 높은 연관이 있는 클러스터에 중복되어 나타나는 문서는 다른 것들에 비해 질의 어휘 표현에 보다 더 기여할 것이라는 것이다.
|
<p>적합피드백 연구에서 클러스터링을 이용한 연구는 이 논문이 처음은 아니다. 사실 클러스터링은 잠정적 적합피드백에 관한 초기 연구 [1]에서 언급이 되었으나, 초기의 클러스터를 이용한 시도는 성능향상을 보이지 못했다. 본 논문에서는 클러스터를 이용하되 지배적 문서를 재샘플링 함으로써 검색 성능을 상당히 개선시킨 새로운 연구로써 의미가 있다.</p> <p>본 연구에서 클러스터와 재샘플링을 이용한 동기는 다음과 같다: (1) 초기 검색문서집합은 질의 중심적인 순위화를 나타내는 것이지 문서와 문서들 사이의 관계를 고려하지는 못한다. (2) 잠정적 적합피드백을 위한 질의 확장 문제는 학습예제들에 의존해서 질의와 밀접한 관련이 있는 어휘를 학습하는 문제로, 이는 학습예제들에 의존해서 정확한 결정 경계를 학습하는 분류(classification) 문제와 비슷하다고 본다. 따라서 본 연구에서는 이 문제를 기계학습연구의 부스팅 (Boosting) 기법 [27, 10]에서 학습하기 어려운 예제들을 반복적으로 학습예제로 선택함으로써 약학습자(weak learner)를 학습이 어려운 예제들 쪽으로 결정경계(decision boundary)를 바꾸도록 학습을 시키는 것에 착안하여, 질의 확장을 위해서 초기 검색집합의 지배적인 문서들을 반복적으로 선택해서 반영함으로써 지배적인 문서들 쪽으로 질의 확장을 할 수 있도록 접근한다. 문서들 사이의 관계를 반영하기 위해 클러스터링을 하면서 중복 문서클러스터를 허용한 것에 대한 기본 가정은 질의를 잘 표현하고 있는 문서는 질의와 관련이 높은 여러 개의 가까운 이웃들을 가질 것이고, 또한 세부주제를 표현하고 있어서 여러 클러스터를 형성하는데 중심 역할을 하는 문서들이 있다고 가정한 것이다. 반복적으로 그러한 지배적 문서들을 피드백 함으로써 질의가 표현 하고자 하는 핵심 주제들을 강조할 수 있을 것이다.</p> <p>다양한 TREC 컬렉션들에 대한 실험을 통해서 본 논문에서 제안한 클러스터를 이용한 재샘플링 기법이 피드백을 위한 문서들에 대해 높은 적합 밀도(relevance density)를 갖도록 기여하는 것을 보인다. TREC WT10g와 GOV2 컬렉션과 같은 대규모의 웹 컬렉션에 대해서 현재 가장 우수한 성능을 보이는 기법인 적합모델(relevance model) [15]과의 비교실험에서 상당한 성능향상을 나타냄을 보인다.</p> <p>본 논문의 구성은 다음과 같다. 2절에서는 선택적 재샘플링 기법의 가정에 대해 설명하고, 3절에서 중첩 클러스터를 이용한 피드백 문서의 재샘플링 기법을 소개한다. 4절에서 다양한 TREC 컬렉션들에 대한 실험 결과 및 분석을 하고, 5절에서 적합밀도에 의한 검증을 한다. 6절에서 관련 연구를 소개하고, 7절에서 결론을 맺는다.</p> <h1>2. 선택적 재샘플링 기법</h1> <p>잠정적 적합피드백의 주요 이슈는 상위 검색문서집합에서어떻게 적합한 문서를 선택하고, 그 문서들에서 어떻게 확장 어휘를 선택하는가 하는 것이다. 본 연구에서는 보다 적합한 피드백 문서를 선택하는 문제를 다룬다. 전형적인 잠정적 적합피드백 기법의 문제는 정확률이 낮은 상위 검색문서집합에서 확장 어휘를 선택한다는 것이다. 보다 적합한 문서집합에서 확장 어휘를 선택할 수 있다면 보다 좋은 질의 표현이 될 것이다.</p>
|
잠정적 적합피드백에서 상위 검색문서집합에서 적합한 문서를 선택하고 확장 어휘를 선택하는 문제가 주요 이슈이다. 전형적인 잠정적 적합피드백 기법은 정확률이 낮은 상위 검색문서집합에서 확장 어휘를 선택하는데 문제가 있다. 따라서 피드백을 통해 질의의 핵심 주제를 강조할 수 있을 것이다.
|
<h1>3. 제안 모델</h1> <p>제안 모델의 구조도는 Fig. 1과 같다. 제안 모델은 파생변수 생성 단계, 잠재변수 추출 단계, 주가 등락 예측 단계 및 매매 결정의 네 단계로 구성되어 있다. 파생변수 생성(Derived Variable Generation) 단계에서는 과거 주가 데이터로부터 캔들(Candle) 관련 파생변수를 생성하고 이를 투자자별 순매매 동향 데이터(Net Trading Trend)와 통합하여 입력 데이터를 생성한다. 잠재변수 추출(Latent Variable Extraction) 단계에서는 입력 데이터로부터 수익률 예측에 영향을 미치는 잠재변수를 추출한다. 주가 등락 예측(Stock Price Fluctuation Prediction) 단계에서는 추출된 잠재변수를 기반으로 주가의 등락을 예측하고 마지막으로 매매 결정(Trading Decision) 단계에서는 전단계의 예측값을 기반으로 매수 또는 매도를 결정한다.</p> <h2>3.1 파생변수 생성</h2> <p>캔들 차트는 주가의 변동을 시각적으로 분석하는데 사용되는 지표이다. 파생변수 생성 단계에서는 수집된 과거 주가 변수로부터 캔들 차트의 정보를 표현하는 파생변수의 값을 추출한다. 캔들은 몸통(Body), 윗꼬리(Upper Tail), 아랫꼬리 (Lower Tail)로 구성되어 있으며, 각 부분은 OHLC (Open-High-Low-Close) 변수(시가 \( \left(\mathrm{Open}_{t}\right) \), 고가 \( \left(H i g h_{t}\right) \), 저가 \( \left(\mathrm{Low}_{t}\right) \), (종가 \( \operatorname{aose}_{t} \)))로부터 계산된다. Table 1은 OHLC 변수로부터 파생된 캔들 관련 변수의 정의이다. 본 연구에서는 Table 1의 캔들 정보와 별개로 (Open \( _{t} \)- aose \( _{t-1} \))로 계산되는 '전일종가 대비 당일시가' 변수를 추가로 사용한다.</p> <h2>3.2 잠재변수 추출</h2> <p>잠재변수 추출 단계는 Table 1에 정의된 변수들로부터 비지도 학습 방법 중 하나인 적층 오토인코더(SAE)를 사용하여 수익률 예측에 영향을 미치는 잠재변수를 추출한다. 잠재변수 추출 단계에서 사용된 적층 오토인코더의 구조는 Fig. 2와 같다. 잠재변수 추출단계에서 사용된 적층 오토인코더는 인코더와 디코더 층으로 구성되며, 입력값과 출력값 오차의 최소화를 목표로 하여 모델을 학습한다. 제안 모델에서는 수익률 예측에 필요한 잠재변수를 표현하기 위하여 적층 오토인코더의 파라미터를 최적화하는 과정과 압축된 값으로 학습한 주가 등락 예측 모듈의 수익률을 평가하는 과정을 반복하며 파라미터를 최적화한다. 파라미터 최적화의 상세 내용은 4장에서 기술한다.</p> <h2>3.3 주가 등락 예측</h2> <p>주가 등락 예측 단계에서는 잠재변수 추출 단계를 통하여 재구성된 데이터가 입력으로 주어졌을 때 LSTM을 이용하여 당일 시가 대비 당일 종가 등락을 예측한다. 이 단계에서 사용되는 LSTM은 당일 시가 대비 당일 종가 등락 여부를 Target으로 하여 Loss Function을 최소화하는 방식으로 학습된다. 입력 데이터는 시퀀스 정보를 학습하기 위하여 Time Step의 형태로 구성된다. Time Step은 과거 \( n \)일의 데이터를 사용하여 Target을 예측할지 결정한다. 주가 등락 예측 단계의 LSTM은 단층의 은닉층으로 구성되어 있으며 도식화된 LSTM 구조는 Fig. 3과 같다.</p> <h2>3.4 매매 결정</h2> <p>매매 결정 단계에서는 주가 등락 예측 결과를 기반으로 매수 또는 매도를 결정한다. 매매 결정을 위해서는 다양한 전략이 사용될 수 있으나, 본 연구에서는 앞 단계까지의 주가 등락 예측 정확도 향상에 초점을 맞추기 위하여 Table 2와 같은 단순화된 매매 전략을 사용한다. Table 2의 전략은 장전 예측 결과가 '상승'이면 당일 시가에 매수하고 종가에 매도하며 '하락'이면 매수/매도를 하지 않는 전략이다.</p>
|
제안된 모델은 총 네 단계로 구성되어 있다: 파생변수 생성, 잠재변수 추출, 주가 등락 예측, 매매 결정. 첫 단계에서는 과거 주가와 캔들 관련 파생변수를 생성하여 순매매 동향 데이터와 통합한다. 둘째 단계에서는 이러한 입력 데이터로부터 수익률에 영향을 주는 잠재변수를 찾아낸다. 셋째 단계에서는 이 잠재변수를 바탕으로 주가의 상승과 하락을 예측하며, 마지막 단계에서는 이런 예측 결과를 활용하여 매수 또는 매도를 결정한다.
|
<h2>4.5 모델별 예측 정확도 비교 실험 결과</h2> <p>Fig. 8은 모델별 예측 정확도(Accuracy)를 비교한 것이다. B2의 예측 정확도는 0.49 로, 이는 당일 시가 대비 종가의 상승일과 하락일 비율이 거의 비슷함을 의미한다. B3의 정확도는 0.55로, 이는 당일 종가 대비 익일 시가의 상승일이 하락일 보다 더 많다는 것을 의미한다. B4은 다른 비교모델들에 비해 낮은 정확도(0.46)를 보였다. 이는 전일 S&P500의 시가 대비 종가 등락 여부만으로는 KOSPI200의 등락 예측이 어렵다는 것을 의미한다. Fig. 8에 따르면 제안 모델이 비교 모델 대비 가장 높은 정확도(0.59)를 보였다.</p> <p>각 모델들의 정확도와 수익률 순위를 비교하면, MLP와 LSTM의 경우 수익률은 각각 3.39, 및 3.75로 LSTM이 약간 높지만 정확도는 MLP 0.55, LSTM 0.54로 MLP가 높은 것 으로 평가되었다. 또한, PCA+LSTM과 MLP의 정확도는 0.55로 거의 동일하지만 수익률은 MLP 3.39, PCA+LSTM 4.42로 PCA+LSTM이 높은 것으로 평가되었다. 이는 더 높은 정확도가 반드시 더 높은 수익률을 의미하지 않는다는 것을 의미하며, 상승 하락의 폭에 따라 수익률이 영향을 받기 때문인 것으로 해석된다.</p> <p>Table 8은 제안 모델의 예측 결과에 대한 혼동행렬 (Confusion Matrix)이다. 제안 모델은 실제 상승과 하락의 횟수가 115 회 및 118회로 거의 비슷한 것에 비해 상승 예측 횟수 136회, 하락 예측 횟수 97회로 하락 예측보단 상승 예측을 더 많이 한 것으로 평가되었으며, Precision=0.57, Recall=0.68, F1-score=0.62로 산출되었다.</p> <p>Table 9는 제안 모델의 수익률을 월별로 분석한 것이다. Test 기간 동안의 일 등락률의 월별 누적값(Cumulative Daily Fluctuation)과 월 등락률(Monthly Fluctuation), 그리고 같은 기간 제안 모델의 월 수익률(Monthly Yield)이 비교되어 있다. Table 9의 예측 성공 평균\( \left(\right. \) Avgerage \( \left.^{U p}\right) \), 예측 실패 평균 \( \left(\right. \) Avgerage\( \left.^{D o w n}\right) \)은 각각 예측을 성공하였을 때, 실패하였을 때의 등락률의 평균이다.</p> <p>일 등락률의 월별 누적값과 월 등락률을 비교하였을 때 대부분의 달에서 거의 비슷한 값을 보이는 것으로 평가되었다. 그러나 12월에는 일 등락률 월별 누적값은-1.39, 월 등락률 은 5.16으로 큰 차이를 보이는데 이는 12월에는 당일 종가 대비 익일 시가의 상승(갭 상승)이 많았던 것이 그 이유인 것으로 추측된다.</p> <p>전체 기간 중 상승 횟수는 115회, 하락 횟수는 118회로 월 등락률 누적값은 -6.29이지만 제안 모델은 총 136회의 상승 예측에서 78회의 상승 예측에 성공하여(약 \( 57 \%)+8.26 \)의 누적 수익률(Monthly Yield의 Total)을 기록하였다. 특히 9월의 경우 상승 7회, 하락 12회로 월 등락률이-6.89이지만 제안 모델에서는 10회의 상승 예측에서 6회의 성공, 9회의 하락예측에서 8회 성공하여 \( +1.08 \)의 누적 수익률을 기록하 였다. Table 9와 Fig. 7의 수익률이 서로 다른 이유는 매 거래 시 발생하는 수익이나 손실을 투자금 변화에 적용하였는지의 여부이다. Fig. 7에서 측정된 수익률의 경우 이전 거래의 수익이나 손실에 따른 투자금의 변화를 다음 거래의 투자금에 적용한 경우이고, Table 9에서 측정된 수익률의 경우 이전 거래의 수익이나 손실에 따른 투자금의 변화를 적용하지 않고 수익률의 누적값을 측정한 경우이므로 차이가 있다. Fig. 9는 Test 기간에서의 누적 수익률 변화이다. Test 기간의 후반부로 갈수록 제안 모델인 SAE+LSTM과 비교 모델들과의 누적 수익률의 차이가 벌어지는 것으로 평가되었다.</p>
|
모델별 예측 정확도를 비교하면 B2의 예측 정확도는 0.49, B3의 정확도는 0.55, B4의 정확도는 0.46로 제안 모델이 가장 높은 정확도(0.59)를 보였다. MLP는 3.39, LSTM는 3.75의 수익률로 LSTM이 약간 높지만 정확도는 MLP 0.55, LSTM 0.54로 MLP가 높은 것으로 평가되었다. 일 등락률의 월별 누적값과 월 등락률를 비교해 보면 대대분의 달에서 비슷한 것으로 평가되었다.
|
<h1>요 약</h1> <p>주가 예측은 경제, 통계, 컴퓨터 공학 등 여러 분야에서 연구되는 주제이며, 특히 최근에는 기본적 지표나 기술적 지표 등 다양한 지표로부터 인공지능 모델을 학습하여 주가의 변동을 예측하는 연구들이 활발해지고 있다. 본 연구에서는 S&P500 등의 해외지수, 과거 KOSPI 지수, 그리고 KOSPI 투자자별 매매 동향으로부터 KOSPI의 등락을 예측하는 덥러닝 모델을 제안한다. 제안 모델은 주가 등락 예측을 위하여 비지도 학습 방법인 적층 오토인코더를 이용하여 잠재변수를 추출하고, 추출된 잠재변수로부터 시계열 데이터 학습에 적합한 LSTM 모델로 학습하여 당일 시가 대비 종가의 등락을 예측하며, 예측된 값을 기반으로 매수 또는 매도를 결정한다. 본 연구에서 제안하는 모델과 비교 모델들의 수익률 및 예측 정확도를 비교한 결과 제안 모델이 비교 모델들 보다 우수한 성능을 보였다.</p> <h1>1. 서 론</h1> <p>주식은 기업이 주주의 출자에 대하여 교부하는 유가 증권이자 자본 국가의 핵심적인 역할을 한다. 주가 예측에 대한 연구는 통계, 경제, 컴퓨터 공학 등 여러 분야에서 수행되고 있으며, 특히 최근에는 다양한 지표로부터 인공지능 모델을 학습하여 주가의 변동을 예측하는 연구들이 활발해 지고 있다. 기계학습에 사용되는 지표를 기준으로 이들 연구들을 구분하면 캔들 차트 및 보조 지표 등의 기술적 지표(Technical Indicator)로부터 인공지능 모델을 학습하여 주가를 예측하는 연구들과 재무제표 등의 기본적 지표(Fundamental Indicator)로부터 인공지능 모델을 학습하여 주가를 예측하는 연구들이 수행되었다. 또한, 연구의 목적에 따라 이들 연구들을 구분하면 국가별 주가 지수나 개별 종목에 대 한 주가 등락을 예측하는 연구와 주가 등락 예측결과를 기반으로 수익률을 평가하는 연구 등이 있다. 본 연구에서는 S&P500 등의 해외지수, 과거 KOSPI (KOrea Composite Stock Price Index) 지수, 그리고 KOSPI 투자자별 매매 동향으로부터 KOSPI의 등락을 예측하는 딥러닝 모델을 제안한다. 제안 모델은 당일 KOSPI 시가 대비 종가 등락을 당일 장전 동시호가 전에 예측하여 주식 매매를 결정한다. 주가 등락 예측을 위하여 S&P500의 캔들 차트 데이터와 KOSPI 투자자별 순매매 동향 데이터로부터 적층 오토인코더(Stacked Auto-Encoder; SAE)를 이용하여 주가 등락에 영향을 끼치는 잠재변수를 추출한다. 이는 데이터를 재구성하는 학습과정을 통해 특징을 더욱 효율적으로 표현하는 데이터를 추출하기 위함이다. 추출된 잠재변수로부터 시계열 데이터 학습에 적합한 장단기 메모리 네트워크(Long Short-Term Memory; LSTM)를 학습하여 당일 시가 대비 종가의 등락을 예측하며, 예측된 값을 기반으로 매수 또는 매도를 결정한다.</p>
|
본 연구에서는 주가 등락 예측을 위하여 비지도 학습 방법인 적층 오토인코더를 이용하여 잠재변수를 추출하고, 추출된 잠재변수로부터 시계열 데이터 학습에 적합한 LSTM 모델로 학습하여 당일 시가 대비 종가의 등락을 예측하며, 예측된 값을 기반으로 매수 또는 매도를 결정하하는 모델을 제안하였는데 이것은 비교 모델들의 수익률 및 예측 정확도를 비교한 결과 제안 모델이 비교 모델들 보다 우수한 성능을 보였다.
|
<p>본 논문의 구성은 다음과 같다. 2장에서는 관련 연구들을 소개하며, 3장에서는 본 연구에서 제안하는 주가 등락 예측모델을 설명한다. 4장에서는 제안 모델의 성능을 다른 모델들과 실험적으로 비교, 분석하고, 마지막 5장에서는 결론과 향후 연구 방향을 기술한다.</p> <h1>2. 관련 연구</h1> <p>인공지능 기반의 주가 등락 예측 연구는 크게 지도학습 기반의 연구와 비지도학습 기반의 연구로 구분된다. 지도학습 기반의 연구 중 기본적 지표를 이용한 주가 예측 연구는 다음과 같다. 이윤한은 기업 재무제표를 기반으로 순환 신경망 모델과 다중 퍼셉트론 모델을 학습하여 주가가 상승할 종목을 예측한 후 장기적으로 '매수 후 보유' 전략을 사용했을 때의 수익률을 평가하였다. 허준영은 기업의 분기별 재무정보를 입력으로 하여 KOSPI200에 속한 기업의 분기 마지막일로부터 1~2개월 후의 주가를 SVM를 이용하여 예측하였다.</p> <p>지도학습 기반의 연구 중 기술적 지표를 이용한 주가 예측 연구로, Siou Jhih Guo는 캔들 차트 데이터로부터 CNN을 학습하여 다음날 주가의 변동을 예측하는 Deep Candlestick Predictor 프레임워크를 제안하였다. Rosdyana Mangir Irawan Kusuma는 캔들 차트 데이터로부터 CNN을 학습하 여 대만과 인도네시아 60개 상장사의 주가 등락을 예측하였다. 이우식은 KOSPI의 상대강도지수, 모멘텀, 변화율지표 등 기술적 분석 지표들로부터 Decision Tree, SVM, Deep Learning 모델을 학습하여 KOSPI 일별 종가의 방향성 예측 성능을 비교 평가하였다. Chongda Liu는 S&P500의 기술적 분석 지표 들과 유가, 다른 나라의 종합 주가 지수 등으로부터 Logistic Regression, Naive Bayes 등의 모델을 학습하여 S&P500의 종가 등락 예측 정확도를 비교하였다.</p> <p>기본적 분석 지표와 기술적 분석 지표를 함께 이용한 연구로 김성근은 46개 상장 기업을 표본으로 선정한 후 자기 자본비율, 시가총액 증가율, 주식거래량 증가율 등 16개의 변수로부터 인공신경망을 학습하여 수익률을 예측하였다. 비지도 학습을 이용한 주가 예측 연구로 Guosheng Hu는 Convolutional AutoEncoder를 통하여 512차원의 특징으로 표현된 캔들 차트를 군집화한 후 각 군집의 샤프 비율을 최적화하는 방법으로 포트폴리오를 구성하는 방법을 제시하였다. 샤프 비율은 투자성과를 평가함에 있어서 해당 투자의 위험을 조정하여 반영하는 지표이다. Seksan Sangsawad[는 주가변수 OHLC(Open-High-Low-Close) 데이터에 K-Means알고리즘을 적용하여 12비트의 캔들 차트 특징을 추출한 후 추출된 정보를 기반으로 차트를 재구성하여 실제 캔들 차트와의 유사도를 비교하였다.</p> <p>지도 학습과 비지도 학습을 함께 이용한 주가 예측 연구로 Wei Bao는 WSAEs(Wavelet Transforms + Stacked Auto-Encoder)를 사용하여 입력 데이터로부터 잠재 변수를 추출한 후 지도 학습을 이용하여 경제수준이 각기 다른 나라들의 주가 지수 동향을 예측하는 모델을 제시하였다.</p>
|
지도학습과 비지도학습을 함께 이용한 주가 예측 연구로 Wei Bao는 WSAEs(Wavelet Transforms + Stacked Auto-Encoder)를 사용하여 입력데이터로부터 잠재 변수를 추출후 지도학습을 이용해 경제수준이 다른 나라들의 주가 지수 동향을 예측하는 모델을 제시하였다. 인공지능 기반의 주가 등락 예측 연구는 크게 지도학습 기반의 연구와 비지도학습 기반의 연구로 구분되고 지도학습 기반의 연구 중 기본적 지표를 이용한 주가 예측 연구는 다음과 같다.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.