passage
stringlengths 5
922k
| summary
stringlengths 0
10.2k
|
---|---|
<h1>1. 서 론</h1> <p>현재 사이버 공격이 더욱 지능화됨에 따라 공격자들은 알려지지 않은 취약점을 악용하고 지능적으로 다양해지고 있다. 지능적으로 다양해지는 공격을 방어하는 것은 매우 중요한 문제이다. 문제를 해결하는 방법으로 가장 많이 사용하는</p> <p>솔루션 중 하나는 침입 탐지 시스템(Intrusion Detection System)이다. 침입 탐지 시스템은 네트워크 기반인 NIDS(Network-based Intrusion Detection System), 호스트 기반인 HIDS(Host-based Intrusion Detection System) 두 가지 방식으로 나눌 수 있다. 호스트 기반 침입 탐지 시스템은 네트워크 기반 침입 탐지 시스템과 달리 시스템 내부와 외부를 전체적으로 관찰해야 하는 단점이 있다. 하지만 네트워크 기반 침입 탐지 시스템에서 탐지할 수 없는 침입을 탐지 할 수 있는 장점이 있어서 많은 연구가 필요하다. 또한, 침입 탐지 시스템에는 두 가지 유형이 있다. 오용탐지와 이상 탐지로 나눌 수 있다. 오용탐지는 알려진 시그니처를 기반으로 사용자나 시스템 또는 프로그램의 행동이 공격 패턴과 일치하는지 검사하는 방법이다. 이상 탐지는 오용탐지 방법과 달리 정상적인 패턴을 기반으로 비정상 행위를 탐지하는 방법이다. 오용탐지는 알려지지 않은 새로운 공격을 탐지하기 어렵다는 단점이 있지만, 이상 탐지는 알려지지 않은 새로운 공격을 탐지 할 수 있다는 장점이 있다. 그러나 이상 탐지는 다양한 정상적인 사용 패턴을 정의하기가 어렵고 학습되지 않은 정상적인 패턴은 이상 행위로 간주하기 때문에 오경보율이 증가한다는 문제점이 있다. 최근 딥러닝 기술의 발전으로 인해 ICT(Information & Communication Technology) 분야 및 IoT(Internet of Things) 분야에 많은 연구가 이루어져 다양한 지능형 서비스들이 제공되고 있다. 이러한 기술발전에 따라 보안 분야에서는 침입 탐지 시스템에 딥러닝 기술이 적용되는 연구가 진행되는 사례가 있다. 딥러닝은 심층신경망을 통해 자체 기능을 학습하여 앞서 말한 약점을 보완할 수 있는 기술이다. 즉, 기계 학습(Machine Learning)과 딥러닝은 자체적으로 이상 행위를 학습하고 정상적인 패턴을 구분하여 오경보를 줄일 수 있다. 현재 다양한 연구들이 비정상 행위를 탐지하기 위해 딥러닝을 침입 탐지 시스템 연구에 사용한다.</p> <p>본 논문에서는 벡터 데이터를 이미지로 변환하여 비정상 행위에 대한 딥러닝 기반 탐지 모델을 생성하여 연구를 진행 한다. 딥러닝 모델은 새로운 공격이 발견될 때마다 학습해야하는 문제점 때문에 많은 데이터를 학습할 때 효율적이지 못하다. 따라서, 적은 양의 데이터를 학습하여 우수한 성능을 보이는 Few-Shot Learning 기법을 사용하기 위해 Siamese-CNN 을 제안한다. 정확성은 Few-Shot Learning 기법을 사용하여 정확성을 계산했으며, Siamese-CNN의 성능을 확인 하기 위해 Vanilla-CNN과 성능을 비교했다. 그 후, Vanilla-CNN 과 Siamese-CNN 중 어떠한 모델이 공격 유형을 가장 잘 찾아낼 수 있는지에 대한 최종 결과를 서술하였다.</p>
|
침입 탐지 시스템은 네트워크 기반의 NIDS와 호스트 기반의 HIDS로 나눌 수 있다. 호스트 기반 시스템은 시스템 내부와 외부를 모두 관찰해야 하는 단점이 있지만, 네트워크 기반 시스템에서 탐지하지 못하는 침입을 탐지하는 장점이 있다. 이 약점을 보완하기 위해 딥러닝은 심층신경망을 통해 이상 행위를 학습하고 정상 패턴을 구분하여 오경보를 줄이는 기술을 가지고 있다.
|
<p>M 과 N 은 각각의 열과 행의 수를 나타낸다. 변환한 샘플을 \( 64 \times 64 \) 픽셀의 이미지로 변환했다. Table 2는 LID-DS 데이터 세트를 변환한 이미지 개수이다.</p> <h2>3.4 Siamese Network</h2> <p>본 논문에서 사용한 Siamese Networks는 Fig. 3의 Siamese Network 파트와 같이 같은 형태를 가지는 두 개의Convolutional Neural Network로 구성되어 있다. 두 개의 입력 이미지는 Convolution Layer를 통해 각각의 특징 벡터를 생성한다. 생성된 두 개의 특징 벡터 간의 거리를 유클리드 거리 방법으로 계산하여 유사성 점수를 통해 두 이미지가 같은 클래스인지 아닌지 판단한다.</p> <p>Table 3을 통해 본 논문에서 제안된 Siamese Network 의 구조를 확인할 수 있다. 마지막 층을 제외한 Layer의 활성화 함수로 LeakyReLU를 사용하였다.</p> <h2>3.5 N-way K-Shot Learning</h2> <p>Siamese Network 모델의 학습이 제대로 이루어졌는지 확인하기 위해 Few-Shot Learning의 방법의 하나인 N-way K-shot Learning 방법을 사용했다. N-way K-shot Learning은 데이터 세트를 훈련에 사용하는 서포트 데이터(Support Data)와 테스트에 사용하는 쿼리 데이터(Query Data)로 구성한다. \( \mathrm { N } \) 은 범주의 수, \( \mathrm { K } \) 는 범주별 서포트 데이터의 수를 의미한다. N-way K-shot Learning은 \( \mathrm { N } \) 의 값이 작아질수록 더 정확한 예측이 가능하고 \( \mathrm { N } \) 의 값이 클수록 정확성이 낮아진다. 일반적으로 실험에서는 \( \mathrm { N } \) 은 \( 2 \sim 10 \) 개 이하, \( \mathrm { K } \) 를 1 개 또는 5개로 설정한다.</p> <h2>3.6 Siamese-CNN and Vanilla-CNN</h2> <p>본 논문에서는 침입 탐지 분류 모델로 합성곱 신경망을 사용한다. Table 4와 Fig. 3의 Siamese-CNN 파트와 같이 제안된 합성곱 신경망의 구조를 확인할 수 있으며, Siamese Network의 Weight를 사용하여 학습을 진행한다.</p> <p>마지막 층을 제외한 Layer의 활성화 함수로 relu를 사용하였다. input_shape는 \( 64 \times 64 \) 크기와 1개의 컬러 채널을 가지고 있으므로 (64,64,1) 의 튜플 값을 가진다. 그리고 사소한 변화를 무시하기 위해서 Maxpooling2D를 통해 주요 값만 추출하여 작은 출력값을 만들어 사용했다. 또한, Conv2D와 Maxpooling은 2차원을 주로 다루기 때문에 전 결합 층에 전달하기 위해서는 1 차원으로 전달해야 하므로 Flatten 함수를 사용하여 1 차원으로 변환하였다.</p>
|
본 논문에서는 Siamese Networks를 활용해 두 개의 입력 이미지로부터 특징 벡터를 합성곱 계층을 통해 추출한다. 본 연구의 핵심은 침입 탐지 분류 모델에 합성곱 신경망을 도입한 것이다. 이 구조는 Siamese Network의 가중치를 사용하여 학습되며, Table 4와 Fig. 3의 Siamese-CNN 파트에서 확인할 수 있다.
|
<h1>3. 데이터 세트 소개 및 모델 구현</h1> <p>본 논문에서 제안하는 구조는 Fig. 1과 같다. LID-DS Dataset, PreProcessing, 이미지 생성, Siamese Network, Siamese-CNN, N-way K-Shot Learning으로 구성되어 있으며, 본 절에서 각 파트에 대해서 나뉘어 설명한다. 3.1절은 LID-DS Dataset 에 대한 설명을 한다. 3.2절은 PreProcessing 파트이며, 데이터 형식에 따른 데이터 정규화 과정을 서술한다. 3.3 절은 1 차원 벡터 데이터를 3차원 이미지 데이터로 변환하는 과정을 서술한다. 3.4 절은 Siamese Network 파트로 같은 형태를 가지는 두 개의 Convolutional Neural Network에 대한 구조를 살펴본다. 3.5절은 N-way K-Shot Learning 파트로, N과 K 에 대한 설명 및 특징에 관해서 설명한 뒤 3.6 절을 통해 본 논문에서 제안하는 Siamese-CNN의 구조를 살펴본다. 3.7절은 Train Test Split 파트이며, 실험에 사용한 Train Test 데이터의 비율을 서술한다.</p> <h2>3.1 LID-DS Dataset</h2> <p>본 논문에서 사용한 LID-DS 데이터 세트는 2018년 Leipzig University에서 호스트 기반 침입 탐지 시스템의 이상 탐지연구를 위한 LID-DS 데이터 세트를 공개했다.</p> <p>LID-DS 데이터 세트는 기존에 공개되었던 데이터 세트보다 최신 컴퓨터 시스템의 특징들과 사이버 공격 방법 및 사이버 공격 시나리오로 구성되어 있다. Table 1은 기존에 공개되 었던 침입 탐지 데이터 세트와 LID-DS 데이터 세트를 비교한 표이다.</p> <p>Table 1과 같이 기존에 공개되었던 데이터 세트들은 너무 오래되어 현재 시스템 특징을 반영하고 있지 못하거나, 일련의 시스템 콜 형태로 구성되어 있어 침입 탐지 시스템 연구에 사용하기에 적합하지 않다. 따라서 본 논문에서는 현재 시스템 특징들과 다양한 사이버 공격 방법으로 구성된 LID-DS 데이터 세트를 사용하여 실험을 진행했다.</p> <h2>3.2 PreProcessina</h2> <p>LID-DS 데이터 세트는 Fig. 1의 PreProcessing 파트와 같이 모든 데이터에 대해 Argument Feature와 결측값은 삭제하였고event_time Feature는 콜론(:)을 제거했다. event_direction 과 event_type은 LabelEncoder를 사용하여 숫자로 변환했다.</p> <p>Process 카테고리는 총 16 개로 구성되어 있다. 또한,Process의 개수는 공격 방법마다 다르다. 그에 따라, 각 사이버 공격 방법에 사용된 Process들은 하나의 Process로 통합했다. 그 결과 총 10 개의 Process로 구성된 라벨들은 LabelEncoder를 사용하여 각 Process에 라벨을 붙여 사용했다. 그리고 MinMaxScaler는 0에서 255값을 사용하여 Normalization을 진행했다.</p> <h2>\( 3.3 \) 이미지 생성</h2> <p>각 샘플들은 0 에서 255 사이의 값을 가지고 있다. 본 논문에서는 Fig. 1의 Vector to Image 파트와 같이 샘플들을 8bit vector로 변환하고, grayscale 유형의 이미지 데이터를 생성했다. Fig. 2 는 데이터 전처리하는 과정과 이미지로 생성된 과정을 나타낸 그림이다. grayscale 이미지는 한 가지 유형의 컬러로 구성된 구조를 가지며 최종적으로, \( \mathrm { MxNx1 } \) 픽셀 배열로 변환한다.</p>
|
2018년 Leipzig University에서 공개한 호스트 기반 침입 탐지 시스템의 이상 탐지연구를 위한 LID-DS 데이터 세트는 기존 데이터 세트보다 최신 컴퓨터 시스템의 특징과 사이버 공격 방법 및 시나리오로 구성되어 있다. PreProcessing 파트에서는 Argument Feature와 결측값 및 event_time Feature의 콜론(:)을 제거하고, event_direction과 event_type은 LabelEncoder를 사용하여 숫자로 변환하고, Process를 통합해 LabelEncoder를 통해 라벨을 붙이고 MinMaxScaler를 사용하여 0과 1 사이의 값으로 정규화한 뒤 8bit vector를 이용해 grayscale의 그림으로 나타내었다.
|
<p>Vanilla-CNN의 제안된 합성곱 신경망의 구조는 Table 4 와 같다. 즉, Fig. 3의 Siamese-CNN 학습 과정 중 Siamese Net-work의 Weight를 사용하는 과정을 제외한 모든 구조는 같다.</p> <h2>3.7 Train Test Split</h2> <p>훈련 데이터와 테스트 데이터는 train_test_split 모듈을 사용하여 일반적으로 많이 사용하는 \( 8: 2 \) 비율로 나누어 실험을 진행했다. 훈련 데이터를 학습시킨 후 테스트 데이터를 사용하여 모델을 평가하는 과정에서 과적합(Overfitting) 현상을 발견했다. 과적합이란 모델이 너무 과적합 되도록 학습한 나머지, 올바른 예측을 하지 못하는 현상을 말한다. 과적합을 방지하기 위하여 다른 비율로 나누어진 데이터를 포함하여 Cross-validation 으로 모델평가를 진행한 결과 7:3 비율로 나누어진 데이터 세트의 모델 성능이 가장 높았다. 따라서 본 논문에서는 훈련 데이터와 테스트 데이터를 7:3 비율로 나누어 사용했다.</p> <h1>4. 평가 지표 및 실험 결과</h1> <h2>\( 4.1 \) 평가 지표</h2> <p>학습된 모델의 성능 평가는 Precision, Recall, F1 Score를 사용했으며 성능 평가 및 정확도의 Equation은 다음과 같다.</p> <p>Equation (1)은 Precision 공식의 한 예이다.</p> <p>\( \operatorname { Precision } ( \) 정밀도 \( ) = \frac { T P } { F P + T P } \),<caption>(1)</catipn></p> <p>Equation (2)은 Recall 공식의 한 예이다.</p> <p>\( \operatorname { Recall } ( \) 재현율 \( )= \frac { T P } { F N + T P } \),<caption>(2)</catipn></p> <p>Equation (3)은 F1 Score 공식의 한 예이다.</p> <p>\( F 1= \frac { 2 } {\frac { 1 } {\text { recall } } + \frac { 1 } {\text { precision } } } =2 * \frac {\text { precision } * \text { recall } } {\text { precision } + \text { recall } } \),<caption>(3)</catipn></p> <p>Equation (4)은 Accuracy 공식의 한 예이다.</p> <p>\( \operatorname { Accuracy } ( \) 정 확도 \( )= \frac { T N + T P } { T N + F P + F N + T P } \),<caption>(4)</catipn></p> <p>Equation (1), (2), (3), (4) 수식에 대한 속성은 Fig. 4, Table 5와 같다.</p>
|
훈련과 테스트의 데이터를 8:2 비율로 실험을 진행하는 과정에서 과적합 현상을 발견했다. 과적합 방지를 위해 다른 비율로 나눈 데이터를 포함해 모델평가를 실시한 결과 7:3 비율이 모델 성능이 가장 높았기 때문에 본 논문에선 훈련 데이터와 테스트 데이터를 7:3 비율로 사용했다. 학습된 모델의 성능 평가는 Precision, Recall, F1 Score를 사용했으며 성능 평가와 정확도의 Equation (1), (2), (3), (4) 수식에 대한 속성은 Fig. 4, Table 5에서 볼 수 있다.
|
<p>사이버 공격 방법은 서로 같은 유형의 사이버 공격 방법이기 때문에 각각 하나의 공격 방법으로 볼 수 있다.</p> <p>따라서, 10 개의 사이버 공격 방법을 8 개의 사이버 공격 방법으로 변환했다. Table 9는 10 개의 사이버 공격 방법에서 8개의 사이버 공격 방법으로 변환한 표이다.</p> <p>변환한 8 개의 사이버 공격을 사용하여 Siamese-CNN의 성능을 다시 확인했다.</p> <p>Fig. 7은 8개의 사이버 공격을 사용한 Siamese-CNN의 학습 과정을 시각화한 그림이다. 학습한 Siamese-CNN의 성능을 확인한 결과는 Table 10 과 같으며, 성능에 대한 Confusion Matrix는 Fig. 8과 같다.</p> <p>위의 결과와 같이 8 개의 사이버 공격 방법으로 변환한 뒤 실험을 진행한 결과 10 개의 사이버 공격 방법으로 분류한 Siamese-CNN보다 정확성이 약 \( 2 \% \), Recall이 약 \( 2 \% \) 향상 된 것을 확인했다.</p> <h1>5. 결론 및 추후 연구</h1> <p>본 논문에서 소개하는 LID-DS 데이터 세트는 시스템의 보안 취약점을 최신 상태로 구성되어 있다. 기본 스레드 정보가 사라지지 않고 다양한 유형의 HIDS 를 평가하는 데 사용 할 수 있다. 각 데이터에 대한 유사성을 확인하기 위해 1 차원 벡터 데이터를 3차원 이미지 데이터로 변환하여 재구성했다.</p> <p>딥러닝 기반의 침입 탐지 시스템은 새로운 공격이 발견될 때 마다 다시 학습을 진행해야 한다는 단점이 있다. 이를 해결하기 위해, 적은 양의 데이터를 학습하여 우수한 성능을 보이는 Few-Shot Learning 기법을 사용하기 위해 Siamese Network를</p> <p>생성하여 모델의 성능을 확인했다. 그 후, 각 사이버 공격 방법을 분류하기 위해 본 논문에서 제안하는 Siamese Network의 Weight를 사용하는 Siamese-CNN과 Vanilla-CNN의 성능 평가를 진행했다. 그 결과 일반적인 Vanilla-CNN보다 Siamese-CNN 의 정확성이 약 \( 3 \% \), Recall이 약 \( 4 \% \) 높은 것을 확인했다.</p> <p>각 사이버 공격 방법이 제대로 분류되었는지 확인하기 위해서 Confusion Matrix를 확인해본 결과 4 가지의 사이버 공격 방법을 2가지의 사이버 공격 방법으로 변환할 수 있는</p> <p>것을 확인했다. 따라서, 10 개의 사이버 공격 방법을 8 개의 사이버 공격 방법으로 줄여서 성능을 다시 평가한 결과 10 개의 사이버 공격 방법을 분류한 Siamese-CNN보다 정확성은 약 \( 2 \% \) 증가하였고 Precision \( 4 \% \), Recall \( 2 \% \), F1-Score \( 1 \% \) 증가한 것을 확인했다.</p> <p>향후 연구로 이미지로 변환한 LID-DS 데이터 세트를 활용하여 다양한 사이버 공격에 대한 침입 탐지하는 연구를 진행할 것이다. 제안한 모델의 Hyper Parameter 값을 최적화하여 새로운 사이버 공격과 내부 사이버 공격에 대한 침입 탐지 정확성을 더욱 높이는 연구를 진행할 것이다. 또한, 최근 생성되고 있는 침입 탐지 데이터 세트에 대해서 실험을 확장 시킬 수 있다.</p>
|
적은 양의 데이터 학습으로도 우수한 성능을 보이는 Few-Shot Learning 기법을 사용하기 위해 Siamese Network를 생성하여 모델의 성능을 확인했으며 Siamese Network의 Weight를 사용하는 Siamese-CNN과 Vanilla-CNN의 성능 평가를 진행하여 일반적인 Vanilla-CNN보다 Siamese-CNN의 정확성이 약 \( 3 \% \), Recall이 약 \( 4 \% \) 높은 것을 확인하였다.
|
<p>Precision(정밀도)은 True라고 분류한 것 중에서 실제 True인 것의 비율이며, Recall(재현율)은 실제 True라고 분류한 것 중에서 실제 True인 것의 비율이다. F1-Score(조화평균)는 Precision과 Recall의 조화평균이다. 즉, 모델의 성능을 측정하는 데 있어서 Precision과 Recall은 유용하게 사용되지만 실제로 모델이 얼마나 효과적인지 설명할 방법이 없으므로 F1-Score라는 방법을 사용하여 실제로 모델이 효과적인지 아닌지 판단하는 데 사용한다. Accuracy(정확성)는 Precision, Recall과 달리 False를 False라고 예측한 예도 옳은 경우로 계산하기 때문에 Equation (4)와 같이 계산한다.</p> <h2>\( 4.2 \) 실험 결과</h2> <p>\( 64 \times 64 \) 의 크기로 이미지를 변환한 LID-DS 데이터 세트를 사용하여 \( 3.5 \) 파트에서 생성한 Siamese Network를 사용하 여 실험을 진행하였다. Fig. 5는 생성한 Siamese Network의 학습 과정을 시각화한 그림이다.</p> <p>학습된 Siamese Network의 모델의 성능을 확인하기 위해서 \( 3.6 \) 파트에서 제안한 \( \mathrm { N } \)-way One-shot Learning을 사용하였다. \( \mathrm { N } \) 은 \( 1,2,3,4 \) 에 대해 \( \mathrm { N } \)-way 테스트를 진행했다. 성능 평가를 하기 위해 사용한 데이터는 \( 3.7 \) 파트의 테스트 데이터를 사용했다.</p> <p>테스트는 N값의 테스트에 대해 step_epoch를 2000번 수행하였고 2000 번을 수행한 평균 정확성을 계산했다. 그 결과 Table 6과 같다.</p> <p>LID-DS 데이터 세트의 각 사이버 공격 방법을 분류하기 위해 Fig. 3과 같이 저장한 Siamese Network의 Weight를 Siamese-CNN에 불러와 실험을 진행했다.</p> <p>Table 7은 Siamese Network의 Weight를 사용하여 생성된 Siamese-CNN과 Weight를 사용하지 않은 Vanilla- \( \mathrm { CNN } \) 에 대한 성능 비교 결과이다.</p> <p>Table 7의 결과를 보면 Siamese-CNN이 Vanilla-CNN보다 정확성이 약 \( 3 \% \), Recall이 약 \( 4 \% \) 높은 결과를 보여주었다. 각 사이버 공격 방법이 제대로 분류가 되었는지 확인하기 위해 Siamese-CNN의 Confusion Matrix를 확인했으며 그 결과 Fig. 6과 같다. 또한, Fig. 6에 분류된 사이버 공격 방법과 이름은 Table 8과 같다.</p> <p>Fig. 6을 보면 \( (0,2) \) 와 \( (4,5),(7,8) \) 사이버 공격 방법이 제대로 분류되지 얂고 있는 점을 확인했다. Bruteforce와 CVE-2014 사이버 공격 방법을 제외한 (CVE-2018, CVE-2019)는 정보 유출에 대한 사이버 공격 방법으로 CVE-2019 는 CVE-2018 의 취약점을 보완한 사이버 공격 방법이다. (PHP, SQL ) 사이버 공격 방법은 OWASP(Open Web Application Security Project)에서 식별한 취약점으로 PHP 와 SQL은 공격자가 인터프리터에 적대적인 데이터를 보낼 수 있는 공격으로 분류했다. 따라서 (CVE-2018, CVE-2019), (PHP, SQL)</p>
|
Precision과 Recall을 사용하여 모델의 성능을 평가하기 위해 F1-Score라는 방법을 사용한다. LID-DS 데이터 세트로 Siamese Network를 학습하고 N-way One-shot Learning을 사용하여 step_epoch를 수행하여 테스트한 결과, 정확성을 알 수 있었고 Weight를 사용한 Siamese-CNN과 Vanilla- CNN의 비교 결과, Siamese-CNN이 정확성이 약 \( 3 \% \), Recall이 약 \( 4 \% \) 높은 결과를 보여주었다. Confusion Matrix를 통해 각 사이버 공격 방법이 제대로 분류되었는지 확인하였다.
|
<p>하는 방법을 제안했다. 또한, KDD 데이터 세트를 사용하여 제안된 모델을 평가하고 실험 결과는 모델이 SVM 및 DBN(Deep Belief Network) 알고리즘보다 침입 탐지에 더 효율적임을 보여주었다.</p> <p>Upadhyay 등은 41개의 KDD 데이터 세트의 컬럼 중에서 무작위로 선택된 36개의 컬럼을 사용했다. 그 후 데이터 세트를 \( 6 \times 6 \) 크기의 이미지로 변환한 다음 나머지 기능을 다른 변수에 저장하여 \( \mathrm { CNN } \) 모델을 학습했다. 실험 결과 제안된 모델 의 침입 탐지 오류가 \( 2 \% \) 미만인 것으로 나타났으며, 데이터를 이미지로 변환하여 분석하는 것이 더 효율적임을 보여주었다.</p> <h2>2.3 Siamese Networks</h2> <p>Siamese Network는 같은 형태의 네트워크를 사용하여 서로 다른 2개의 입력 데이터를 처리하는 네트워크이다. 네트워크들은 가중치를 공유하며 입력 이미지에 대한 특징 벡터를 생성한다. 같은 클래스의 이미지들은 벡터 공간에서 가깝게, 서로 다른 클래스의 이미지들은 멀게 표현되도록 학습한다. 즉, 거리 함수를 사용하여 생성된 특징 벡터 간의 거리를 계산하여 두 이미지가 같은 클래스인지의 아닌지 판단한다. 거리 함수는 일반적으로 유클리드 거리(Euclidean distance)나 코사인 거리(cosine distance)와 같은 일반적인 유사도 함수를 사용한다. Hsiao 등은 Siamese Network를 사용하여 샘플 간의 유사성 순위를 매기도록 훈련했다. 또한, N-way one-shot 작업을 통해 정확성을 계산했다. 그 결과 일반적인 딥러닝 모델보다 더 효율적임을 보여주었다.</p> <p>Hsiao 등은 Siamese Network를 사용하여 샘플 간의 유사성 순위를 매기도록 훈련했다. 또한, N-way one-shot 작업을 통해 정확성을 계산했다. 그 결과 일반적인 딥러닝 모델보다 더 효율적임을 보여주었다.</p> <p>Moustakidis 등[은 특징 벡터를 이미지로 변환하는 Vec2im 방법과 새로운 특징을 추출하는 파이프라인을 제안했다. 또한, 입력 데이터 차원을 1 차원으로 줄이기 위해 Siamese convolutional neural network를 사용하여 NSL-KDD 침입 탐지 데이터 세트에 적용했다.</p> <p>Taigman 등은 표준 교차 엔트로피 손실과 오류 역전파를 사용하여 Siamese Network를 훈련했다. 각 샘플 간의 L1 거리에 유사성을 예측하고 각 샘플의 얼굴이 같은 얼굴인지 예측한다.</p> <h2>2.4 Few-Shot Learning</h2> <p>Few-Shot Learning은 데이터가 충분한 데이터 세트를 사용하여 Meta Learning을 진행하고, 각 클래스에 포함된 데이터가 적은 데이터 세트를 분류하기 위한 학습 방법이다.</p> <p>본 논문에서는 Siamese Network에서 두 이미지에 대한 특징 벡터 학습과 벡터 사이의 거리를 비교한다. 또한, 각 사이버 공격 방법에 대한 유사성 점수를 비교하여 같은 공격인지 아닌지 탐지하는 모델을 제안한다.</p>
|
Upadhyay 등은 KDD 데이터 세트를 사용하여 CNN 모델을 학습하고, 침입 탐지 오류가 2% 미만인 것으로 나타났으며, 데이터를 이미지로 변환하여 분석하는 것이 더 효율적임을 보여주었다. Hsiao 등은 Siamese Network를 사용하여 N-way one-shot 작업을 통해 정확성을 계산하고, Taigman 등은 표준 교차 엔트로피 손실과 오류 역전파를 사용하여 Siamese Network를 훈련했다.
|
<h1>2. 관련 연구</h1> <h2>\( 2.1 \) 침입 탐지 데이터 세트</h2> <p>KDD99 데이터 세트는 침입 탐지 시스템을 평가하기 위해 DARPA(Defense Advanced Research Projects Agency) 및 AFRL(Air Force Research Laboratory)의 후원으로 MIT에서 최초로 침입 탐지 시스템에 대한 표준 데이터 공개했다. 데이터 종류는 서비스 거부 DoS, 사용자 대 루트 (U2R), 원격 대 로컬 공격 (R2L) 및 Probe 공격의 네 가지 공격 범주로 구성되어 있다. KDD99 데이터 세트는 침입 탐지 시스템 평가를 위해 많은 연구가 진행되고 있다.</p> <p>UNM 데이터 세트는 KDD99 데이터 세트보다 최신에 공개된 데이터 세트이지만 데이터들이 일련의 시스템 콜 형태로 구성되어 있다.</p> <p>침입 탐지 시스템 분야에서 KDD99 및 UNM과 같은 데이터 세트는 오래된 데이터 세트로 현재 사용 중인 컴퓨터 시스템의 특징을 포함하지 않는다. 이를 해결하기 위해 2013년 Australian Defense Force Academy(ADFA)에서 호스트 기반 침입 탐지 시스템을 평가하기 위해 ADFA 데이터 세트를 공개했다. ADFA 데이터 세트에는 정상 및 공격 데이터를 일련의 시스템 콜로 구성되어 있다.</p> <h2>\( 2.2 \) 침입 탐지 관련 연구</h2> <p>침입 탐지 시스템은 사이버 공격 패턴에 대한 정상 패턴과 비정상 패턴을 비교하여 비정상 행위를 탐지하고 차단하는 시스템이다.</p> <p>Laskov 등9]은 Decision Tree, K-NN(K-Nearest Neighbor), MLP(Multi-Layer Perceptron), K-means, SVM(Support Vector Machine) 등 다양한 기계학습 알고리즘을 침입 탐지에 적용했고, 각 알고리즘을 ROC(Receiver Operator Characteristic) 곡선을 사용해 비교했다.</p> <p>Kim 등은 침입 탐지 시스템에서 SVM과 K-NN 같은 기계학습 알고리즘을 사용하여 높은 오경보율을 보이는 문제점을 해결하기 위한 연구를 진행했다.</p> <p>Kim 등은 비정상 행위 기반의 호스트 침입 탐지 시스템을 설계하는 데 있어, LSTM-Based System-Call Language Modeling 방법을 제안하였다. 기존 방법들에서 자주 발생하는 높은 오탐율(False-Alarm Rate) 문제를 해결하기 위해서, 저자는 새로운 앙상블(Ensemble) 방법을 사용하여 문제점을 해결했다.</p> <p>Ravipati 등은 LID-DS 데이터 세트의 특징과 가장 비슷한 KDD99 데이터 세트를 이용하여 8가지의 기계학습 알고리즘을 실험한 결과로 성능 평가 및 오탐율 수치를 보여주었다. 최근 딥러닝 기술의 발전으로 인해 CNN 을 기반으로 바이너리 및 다양한 범주의 공격을 탐지하는 수많은 연구도 진행 되고 있다.</p> <p>Khan 등은 새로운 침입 탐지 모델을 제안하기 위해 기계학습 알고리즘을 사용할 때의 단점을 지적했다. CNN 기반 네트워크 침입 탐지 모델과 소프트 맥스 알고리즘을 결합</p>
|
KDD99 데이터 세트는 DARPA와 AFRL의 후원으로 MIT에서 침입 탐지 시스템을 평가하기 위해 공개한 데이터 세트로이다. 2013년 호스트 기반 침입 탐지 시스템의 평가를 위하여 ADFA 데이터 세트를 공개했다. 침입 탐지 시스템은 사이버 공격 패턴에 대한 정상 패턴과 비정상 패턴을 비교하여 비정상 행위를 탐지하고 차단하는 시스템이며, Decision Tree, K-NN, MLP, K-means, SVM 등 다양한 기계학습 알고리즘을 이용하여 ROC 곡선을 사용해 비교하였다.
|
<h1>IV. 실험 결과</h1> <p>표 1은 Y 비트맵 모드의 화질을 알아보기 위해서, 일반적인 AMBTC의 PSNR 결과와 1-단계 CMBQ-BTC의 PSNR 결과를 비교한 자료이다. 사용된 BTC의 블록 크기는 \(2 \times4 \)이고, 평가 영상은 \(540 \times540 \) 크기의 영상을 사용하였다. 1-단계 CMBQ-BTC의 복호화 과정은Y 비트맵 모드의 두 가지 출력을 모두 복호하여, 손실이 적은 모드를 선택하는 방법을 사용하였다. 일반적인AMBTC 결과와 1-단계 CMBQ-BTC 결과를 PSNR 으로 비교한 결과, 1-단계 CMBQ-BTC의 PSNR이 일반적인 AMBTC 결과보다 평균 \(0.84 \mathrm { dB } \) 낮은 PSNR 결과를 얻어 RGB 비트맵으로 Y 비트맵 적용기법의 유효성을 확인하였다.</p> <p>표 2는 CMBQ-BTC의 성능을 분석하기 위해서 \(540 \times540 \) 크기의 영상에 대해서, CMBQ-BTC 결과를일반적인 AMBTC와 Y 비트맵을 RGB 각각의 비트맵에 활용하여 BTC를 수행한 결과와 비교한 자료이다.CMBQ-BTC의 블록크기는 \(6 \times4 \) 로서, \(6:1 \)의 압축 비율을 갖는다. 동일한 블록 크기인 \(6x4 \)의 2-level AMBTC와 비교해서, CMBQ-BTC가 평균 \(1.21 \mathrm { dB } \) 높은 PSNR결과를 확인 할 수 있었다. 그리고 \(4 \times4 \) 블록의AMBTC 결과와 비교해서 CMBQ-BTC의 결과가 평균 \(0.42 \mathrm { dB } \) 낮은 PSNR 결과를 확인 할 수 있었다. 그리고 CMBQ-BTC와 동일한 압축 비율을 갖으면서, \(4 \times4 \)의 블록크기에서 Y 비트맵으로 RGB 각각의 비트맵에 활용하여 BTC를 수행한 결과와 비교해서, CMBQ-BTC결과가 평균 \(0.32 \mathrm { dB } \) 높은 PSNR 결과를 확인할 수 있었다.</p> <p>그림 6은 lena 영상의 edge 부분에서 AMBTC( \(4 \times4 \))와 CMBQ-BTC를 수행한 결과이다. 그림 6(a)과 6(b)로부터 원본 영상과 AMBTC 복원 결과를 비교해 보면, 화질 면에서 차이가 발생한다. 하지만 그림 6(b)과 6(c)로부터 AMBTC 복원 결과와 CMBQ-BTC 복원 결과를 비교해 보면 유사한 edge가 형성되어 있음을 확인할 수 있다.</p> <h1>V. 결 론</h1> <p>본 논문에서는 \(6:1 \)의 높은 압축비로 낮은 압축손실을 얻기 위해서, 비트맵 데이터와 양자화 데이터 모두를 압축하는 CMBQ-BTC를 제안하였다. CMBQ-BTC는 원본 블록을 3개로 분리하여, RGB 각각에 Y 비트맵을 활용하여, 비트맵 데이터를 압축하였고, 분리된 서브블록의 상위 평균과 하위 평균의 정보를 압축시키기 위해서, 상위 평균과 하위 평균들을 원본 블록의 4-levelBTC의 양자화 데이터로 부호화하여 복호기로 전송하는 방법으로 상위 평균과 하위 평균들을 압축하였다.알고리즘의 성능 분석을 위해서, 다양한 영상에 대해서,일반적인 AMBTC의 PSNR 결과와 비교 분석하였다.CMBQ-BTC 압축 기법은 \(6:1 \)의 높은 압축비를 갖으면서, \(6 \times4 \) 블록 크기의 2-level AMBTC 결과보다 \(1.21 \mathrm { dB } \) 높은 PSNR 결과를 얻을 수 있었으며, \(4:1 \)의 압축비를 갖는 \(4 \times4 \) 블록 크기의 2-level AMBTC 결과와 비교해 보면 \(0.42 \mathrm { dB } \) 정도 낮은 PSNR 결과가 확인되어, 본논문에서 제안하는 CMBQ-BTC 알고리즘의 효율성을 확인하였다.</p>
|
Y 비트맵 모드의 화질을 알아보기 위해, \(2\times4\)블록 크기의 일반적인 AMBTC과 1-단계 CMBQ-BTC의 PSNR결과를 비교한 결과, 1-단계 CMBQ-BTC의 PSNR이 일반적인 AMBTC 결과보다 0.84 dB 낮은 결과를 얻었다. lena영상의 edge부분에서 AMBTC(\(4\times4\))와 CMBQ-BTC를 수행한 결과를 비교해 보니, CMBQ-BTC복원 결과가 유사한 edge가 형성되어 있음을 확인할 수 있었다. CMBQ-BTC 압축 기법은 \(6\times4\)블록 크기의 2-level AMBTC결과와 \(4\times4\)블록 크기의 2-level AMBTC결과를 비교 해보니 본논문에서 제안하는 CMBQ-BTC알고리즘의 효율성을 확인할 수 있었다.
|
<h2>3.2. 2-단계 CMBQ-BTC 압축</h2> <p>1-단계에서 세분화 한 서브블록들에서 Y 비트맵 모드의 출력 신호인, Y 비트맵과 Y 비트맵의 반전 중 하나를 선택하였고, 서브블록들에서 상위 평균과 하위 평균들을 얻을 수 있었다. 2-단계 과정은 분리된 서브블록에서의 상위 평균과 하위 평균들을 압축하여 압축률을 높이는 과정이다. 그림 4는 2-단계 CMBQ-BTC의 도식도이다. 2-단계 적용방법은 \(6 \times4 \) 원본 블록에서 입력 데이터를 4-level BTC 과정을 수행한 후, 복원하여,4개의 양자화된 데이터를 얻는다. 그리고 1-단계에서 구한 세분화한 3개의 블록에서 상위 평균과 하위 평균들을 4-level 양자화로 복원된 4개의 복원 데이터와 비교하여, 가장 근접한 양자화 값을 선택한다. 즉, 2-단계 과정에서는 \(2 \times4 \) 서브블록 3개의 상위 평균과 하위 평균값, 총 6개는, 원본 블록 \(6 \times4 \)의 4-level BTC 로 복원된4개의 값과, 근접한 값이라고 가정하고, 6개의 양자화데이터를 원본 블록의 4-level BTC의 복호된 값으로 대체하는 방법을 사용하였다. 1-단계 Y 비트맵 모드의 출력이 “1” 에서는 각각의 서브블록에서 상위 평균이하위 평균 보다 크거나 같으므로, (상위 평균, 하위 평균) 으로 표현하면, 4-level 비트맵은 (3,2), (3,1), (3,0),(2,1), (2,0), (1,0) 총 6개로 분류된다. 그리고 Y 비트맵모드의 출력이 “0” 에서는 상위 평균이 하위평균보다 작으므로, (상위 평균, 하위 평균) 으로 표현하면,4-level 비트맵은 (2,3), (1,3), (0,3), (1,2), (0,2), (0,1) 총 6개로 분류된다. 즉, Y 비트맵 모드를 복호기로 송부하면, 6개의 부호화로 표현이 가능하다. 이러한 부호화 데이터가 블록마다 개별적으로 존재하므로, RGB 각각216( \(6 \times6 \times6 \))개의 부호화 데이터로 표현이 가능하게 되어, 총 \(24 \mathrm { bit } \) 으로 처리가 가능하다.</p> <p>그림 5는 본 논문에서 제안하는 CMBQ-BTC의 비트할당을 나타낸다. \(2 \times4 \times3 \)의 비트맵은 2-level 비트맵으로 총 \(24 \mathrm { bit } \)이며, 평균은 하위 \(1 \mathrm { bit } \)를 줄여, \(7 \mathrm { bit } \)로 적용하였고, 동작범위는 \(6 \mathrm { bit } \) 데이터를 적용하였다. 서브블록이 총 9개이므로, 1-단계 CMBQ-BTC의 Y 비트맵 모드는 총 \(9 \mathrm { bit } \)이다. 상위 평균과 하위 평균의 부호화는 총 \(24 \mathrm { bit } \)로 처리 할 수 있어, 조합하면, \(96 \mathrm { bit } \)를복호기로 전달하여, 복원이 가능하다. \(6 \times4 \) 블록의 총 \( \mathrm { bit } \)는 \(576 \mathrm { bit } \)이므로, CMBQ-BTC는 압축비가 \(6:1 \)임을 확인 할 수 있다.</p>
|
Y 비트맵 모드의 출력 신호중, Y 비트맵과 Y 비트맵의 반전 중 하나를 서브블록들에서 선택함으로 인해 1-단계에서 상위 평균과 하위 평균들을 얻을 수 있었고, 2-단계에선 분리된 서브블록에서 상위 평균과 하위 평균들을 압축하여 압축률을 높이는 과정을 했으며, 본 논문에서 제안하는 CMBQ-BTC의 Y 비트맵 모드는 총 \(9 \mathrm { bit } \)이다.
|
<h1>II. 이론적 배경</h1> <h2>2.1.2-level AMBTC</h2> <p>AMBTC는 1984년 Lema와 Mitchell에 의해서 발표된 방법으로 표준 BTC에 비해서 연산이 적어 실시간 연산에 유리한 기법이다. AMBTC의 비트맵 양자화level은 2-level 또는 4-level 이상으로, 구분이 가능하다. 2-level 양자화 방법을 설명하면, 그림 2와 같이, 전체 영상을 일정한 크기로 분할하여, 분할된 블록 마다 평균값을 계산하여 각 픽셀 값과 비교하여 평균이상이면 1, 미만이면 0을 할당한다. 2-level AMBTC는 입력영상을 단순히 평균을 기준으로 크거나 같은 값과 작은값으로만 복원 하게 되며, \(6\times4\)의 블록 크기 기준으로 \(4.8:1\)의 압축률을 가지게 된다.</p> <h2>2.2. 4-level AMBTC</h2> <p>일반적인 4-level AMBTC 압축은, 3개의 임계값을 기준으로 4개의 영역으로 분리한 다음, 블록내의 데이터를 11, 10, 01, 00의 비트맵으로 표현하여, 수신측에 전달하고, 비트맵 정보로 각각의 레벨에 맞는 데이터값으로 복원 할 수 있도록 하는 방법이다. 3개의 임계값을 활용한 4-level AMBTC 결과는 압축손실이 적어화질은 우수하지만, 3개의 임계값을 모두 복호기로 전달해야 하므로 압축률이 저하된다. 그래서 본 논문에서는 Wang의 논문에서 소개된 1개의 절대 중심 모멘트를 활용한 방법으로 진행하였다. 1개의 절대 중심 모멘트를 사용한 4-level BTC 압축 방법은 다음과 같다. 우선, 2-level AMBTC 방법을 사용하여, 블록 내의 상위평균(Bmax)과 하위평균(Bmin)을 구하고, 계산된 Bmax와 Bmin을 활용하여, 2개의 임계값 ( T\(_H\), T\(_L\)) 아래 식에 의해서, 얻을 수 있다.</p> <p>\( T_{H}=\left(3^{*} B \max +B \min \right) / 4 \\ T_{L}=\left(B \max +3^{*} B \min \right) / 4 \)<caption>(1)</caption></p> <p>그리고 T\(_H\)와 T\(_L\)값으로, 블록내의 평균 (\( \bar{B} \) )과 동작범위 (dynamic range, \( \bar{D} \) )를 아래 식에 의해서 구할 수있다.</p> <p>\( \bar{B}=\left[\frac{1}{e} \sum_{B(i) \geq T_{Z}}^{e} B(i)+\frac{1}{f} \sum_{B(i)<T_{Z}}^{f} B(i)\right] / 2 \)<caption>(2)</caption></p> <p>\( \bar{D}=\left[\frac{1}{e} \sum_{B(i) \geq T_{B}}^{e} B(i)-\frac{1}{f} \sum_{B(i)<T_{z}}^{f} B(i)\right] \)<caption>(3)</caption></p> <p>식(2) 와 식(3)에서, B(i)는 블록내의 영상 데이터이다. 그리고 \(e\)는 블록 내에서 T\(_H\) 보다 크거나 같은 데이터의 수이고, \(f\)는 블록 내에서 T\(_L\) 보다 작은 데이터의 수이다. 식(2) 와 식(3)에 의해서 구해진 평균과 동작범위를 활용하여, 3개의 임계값을 아래와 같이 구할 수있다.</p> <p>\( T H_{N}=\bar{B}+\frac{N-2}{3} \bar{D} \quad(N=1,2,3) \)<caption>(4)</caption></p> <p>구해진 TH\(_N\)은 기준 임계값이 3개이므로, 4개의 영역으로 표현가능하게 된다. 수신측에는 평균과 동작범위그리고, 4-level 비트맵으로 복원 시, 아래 수식에 따라서 복원하게 된다.</p> <p>\( \operatorname{Brec}(i)=\bar{B}+\frac{2^{*} Q(i)-3}{6} \bar{D} \)<caption>(5)</caption></p> <p>식(5)에서, Q(i)는 4-level 비트맵을 나타낸다.</p> <p>4-level AMBTC 압축 방법은 2-level 압축방법과 비교해서 압축손실은 개선되나, 4-level AMBTC는 \(6\times4\)의 블록에서 \(3:1\)의 압축률을 가지게 됨으로, 2-level 압축방법과 비교해서, 압축비는 현저히 감소하게 된다.</p>
|
AMBTC는 실시간 연산에 유리한 기법이며 비트화 양자 두 가지 level 이상으로 구분이 가능하다. 그중 4-level 압축은 압축 손실이 적어 화질은 우수하나, 압축률이 저하되는 단점이 있다.
|
<h1>I. 서 론</h1> <p>Liquid Crystal Display (LCD)는 넓은 해상도, 얇은두께, 낮은 전력 소비, 낮은 전자기파 방출 등의 장점으로 인하여, 디스플레이 시장에 폭 넓게 사용되어 지고있다. 하지만 LCD 는 동영상에서 액정의 늦은 반응 속도로 인한 motion-blur 현상이 발생하는 단점이 있다. LCD 에서 움직임 잔상이 보이는 이유는 CRT의 구동방식은 impulse-type 구조로서, 픽셀 데이터를 표현하는 형광체의 응답속도는 수 \(\mathrm{msec}\)인데 비하여, LCD의 구동 방식은 hold-type 구조로서, 액정의 응답속도가 수십 \(\mathrm{msec}\) 로 CRT에 비해서 현저히 늦기 때문이다. 이러한 LCD의 motion-blur 현상을 감소시키는 기술로널리 사용되는 방법이 액정에 주어진 화소보다 강하가나 약한 전압을 인가하여, 액정의 반응속도 향상시키는 오버드라이브(overdrive) 방법이다.</p> <p>오버드라이브 기술을 적용하기 위해서는 이전 프레임의 영상 데이터와 비교하여 현재 프레임의 영상 데이터의 변화 범위가 필요하기 때문에 그림 1에서와 같이 이전 프레임의 영상에 대한 정보를 저장하기 위해 외부의 프레임 메모리가 사용된다. 하지만, 오버드라이브 기술을 적용하기 위해서는 이전 프레임 데이터가 모두 필요하기 때문에, 압축을 적용하지 않으면, 메모리 크기가 커지게 되고, 메모리 대역폭이 증가되게 된다. 이러한 단점을 보완하고자, 오버드라이브를 적용하는T-Con(Timing Controller)에, 압축 알고리즘을 반영하여, 메모리 크기를 줄이는 연구가 진행되고 있다. 프레임 메모리를 줄이는 압축 방법으로는 이전 영상을 실시간으로 압축해서 저장하는 연산이 적은 압축 기술이필요함으로써, 구현이 간단한 Block Truncation Coding(BTC)이 널리 사용되고 있다. BTC는 1979년 Delp,Mitchell 그리고 Calton 등이 발표한 공간 코딩 방법으로 비교적 부호화를 위한 연산이 적어 하드웨어로 구현하기 간단한 압축 알고리즘으로 알려져 있다. 표준BTC 알고리즘은 입력 영상을 서브 블록으로 분리하고,평균, 표준편차 그리고 비트맵 데이터를 전송하여, 영상을 재구성하는 원리이다. 일반적으로 BTC 압축에서 낮은 압축 손실을 위해서는 블록 크기를 줄이거나, 양자화 레벨을 올려야 되나, 블록 크기를 줄이거나, 양자화 레벨을 올리는 방법은 압축률의 현저한 저하를 가져온다. BTC 압축에서 화질을 유지하면서, 압축 비율을 높이는 방법으로는 서브블록의 그레이 레벨을 나타내는 정보를 압축하는 방법과 서브블록의 비트맵을 압축하는 방법이 있다. 그레이 레벨을 나타내는 정보는 각 서브블록에서 원본 데이터를 양자화 한 데이터를 의미한다.즉, 표준 BTC 에서는 평균과 표준 편차, 2-levelAMBTC 에서는 상위평균과 하위평균을 의미한다. 본논문에서 제안한 CMBQ-BTC 압축 방법은 비트맵 데이터와 양자화 데이터 모두를 압축하는 방법을 사용하였다. 다양한 영상으로 시뮬레이션 결과 \(6:1\)의 높은 압축률을 가지면서, \(6\times4\) 블록 크기의 2-level AMBTC 결과보다 \(1.21\mathrm{dB}\) 높은 PSNR 결과를 얻을 수 있었으며, \(4:1\)의 압축비를 갖는 \(4\times4\) 블록 크기의 2-level AMBTC결과와 비교해 보면 \(0.42\mathrm{dB}\) 낮은 PSNR 결과를 확인하여, 본 알고리즘의 효율성을 확인하였다.</p>
|
Liquid Crystal Display (LCD)는 넓은 해상도, 얇은 폼 팩터, 낮은 전력 소비, 전자파 방출 최소화 등 다양한 장점으로 인해 디스플레이 시장에서 광범위하게 활용되고 있습니다. 그러나 LCD는 동영상을 표시할 때 액정의 느린 응답 속도로 인해 모션 블러가 발생하는 단점이 있습니다. LCD에서 모션 블러 현상을 줄이기 위해 광범위하게 사용되는 기술은 오버드라이브 방법입니다. 이 방법은 지정된 픽셀 값보다 낮거나 약한 전압을 액정에 적용하여 액정의 반응 속도를 높이고 모션 블러를 완화합니다.
|
<h1>III. CMBQ-BTC 압축 알고리즘</h1> <p>본 논문에서 제안하는 CMBQ-BTC 압축은 비트맵과 양자화 데이터 모두를 압축하는 방법으로 \(6\times4\)의 블록을 사용하며, 2단계로 나누어 비트맵 데이터와 양자화 데이터를 압축한다. 1-단계에서는 각각의 \(6\times4\) 블록을 \(2\times4\)블록으로 세분화 시킨 후, 서브블록의 비트맵을 luminance (Y)의 비트맵을 적용함으로서 비트맵 데이터를 압축시키는 효과를 얻을 수 있었다. 2-단계에서는 AMBTC의 양자화 데이터인 상위 평균과 하위 평균을 압축시키는 기법을 적용하였다. 일반적으로 블록을 세분화하여, BTC를 수행할 경우, 압축 손실은 감소하지만, 세분화된 블록마다 상위 평균과 하위 평균들은 세분화된 블록들만큼 증가하게 된다. 증가된 상위 평균과하위 평균들을 압축시키는 방법으로는 입력 데이터를 세분화 이전의 블록에서 4-level BTC를 수행한 후, 복원하여, 4개의 양자화 된 데이터를 얻고 1-단계에서 세분화된 서브블록에서 구한 상위 평균과 하위 평균들을, 4-level BTC 과정에서 복원된 4개의 양자화 데이터와 비교하여, 가장 근접한 양자화 데이터를 구하는 방법으로 서브블록의 상위 평균과 하위 평균 데이터들을 감소시켰다.</p> <h2>3.1. 1-단계 CMBQ-BTC 압축</h2> <p>비트맵을 압축하는 방법은 벡터 양자화 방법과 look-up 테이블을 이용하여 비트맵을 압축하는 방법이 있으나, 이와 같은 방법은 연산이 많고, 높은 품질의 복원 영상을 얻기 위해서는 많은 양의 look-up 테이블이 필요하다는 단점이 있다. Y의 비트맵을 RGB의 비트맵에 적용하는 방법은 연산이 적어 하드웨어 구성이 용이하고, Wang의 논문에서 발표된 내용처럼, 압축손실이 낮고, 높은 화질 특성을 얻을 수 있다.</p> <p>\( Y=0.299 R+0.587 G+0.114 B \\ C b=0.564(B-Y) \\ C r=0.713(R-Y) \)<caption>(6)</caption></p> <p>하지만, Y의 구성은 식 (6)에서와 같이, red, green,blue 데이터에 다른 비중을 두고 있어, Y의 비트맵으로RGB 각각의 비트맵으로 그대로 적용할 경우, 높은PSNR을 얻기 어렵다. 특히 blue 데이터의 경우에는 상대적으로 낮은 PSNR을 갖게 된다. 그래서 Wang의 논문에서는 Y의 비트맵으로 RGB의 비트맵으로 적용하는 방법으로 red 와 blue 데이터의 비티맵과 Y의 비트맵의 일치성을 판단하여, Y의 비트맵과 Y의 비트맵의 반전 중 하나를 선택하는 방법을 사용하였다. 본 논문에서 제안하는 CMBQ-BTC 1-단계 압축에서도 RGB 비트맵으로 Y의 비트맵을 활용하였고, 낮은 압축 손실을 얻게 하기 위해서, \(2\times4\) 블록을 사용하였다.</p> <p>그림 3은 1-단계 CMBQ-BTC의 도식도이다. 1-단계CMBQ-BTC 과정을 살펴보면, \(6\times4\) 블록을 \(2\times4\) 블록으로 세분화 하고, 분리된 \(2\times4\) 블록마다 Y 로 변환하여,Y의 비트맵을 구한다. 그리고 RGB 각각의 비트맵으로 Y의 비트맵과 Y의 비트맵 반전을 적용할 경우, 압축손실이 적은 모드를 선택하는 방법(이하 Y 비트맵 모드)을 사용하였다. Y 비트맵 모드의 선택 방법은 서브블록마다 Y의 비트맵을 사용하여 RGB의 상위 평균들과 하위 평균들을 구한다. 구해진 상위 평균이 하위 평균보다 크거나 같으면, Y 비트맵을 그대로 적용하는 모드로 선택하고, 반대로 하위 평균이 상위 평균보다 크면 Y의 비트맵과 입력 데이터의 비트맵과는 반전 관계이므로,Y 비트맵의 반전 모드를 선택하게 된다. 그러므로 서브블록마다 Y 비트맵 모드의 선택 신호가 필요하게 된다.</p>
|
논문에서는 \(6\times4\)의 블록을 이용해 2단계로 비트맵 데이터와 양자화 데이터를 압축하는 CMBQ-BTC 압축을 제안한다. 1단계에서는 각각의 \(6\times4\) 블록을 \(2\times4\)블록으로 세분화시키고 서브블록의 비트맵을 luminance의 비트맵에 적용해 비트맵 데이터를 압축시키고 2단계에서는 AMBTC의 양자화 데이터인 상위 평균과 하위 평균을 압축시켰다.
|
<h1>II. 홀로그래픽 비디오 서비스</h1><h2>1. 서비스 시스템의 제안</h2><p>컴퓨터 생성 홀로그램 기반의 디지털 홀로그래픽 기술을 이용한 비디오 서비스는 다양한 분야에서 제공될수 있다. 이러한 서비스를 위한 시스템의 형태는 그림 1과 같은 것으로 가정하였다. 그림 1은 depth 카메라와 RGB 카메라를 혼용한 홀로그램 획득 시스템을 이용한다. 최근 depth camera의 발달로 예전보다 쉽게 3차원 객체와 공간에 대한 깊이 정보를 획득할 수 있게 되었다. 이러한 depth camera를 이용하여 깊이 정보(광원의 위치 정보)를 획득하고 RGB 카메라를 이용하여 광원의 색차 및 밝기 정보를 획득한다. 광원 정보들은 전처리 과정을 거치면서 개선되고, 이렇게 획득된 3차원 공간상의 광원정보들에 컴퓨터 생성 홀로그램 기술을 적용하여 디지털 방식으로 홀로그램을 생성한다. 그림 1은 컴퓨터 생성 홀로그램 과정을 송신부(인코더)과 수신부(디코더) 중에서 어디에서 하느냐에 따라서 시스템 구성을 달리 할 수 있다. 수신부의 연산 능력이 부족할 경우에는 CGH를 송신부에서 수행해야 한다. 일반적인 수신부는 연산능력이 송신부에 비해서 현저히 떨어진다. CGH를 송신부에서 수행하는 경우에는 홀로그램 자체를 압축하고, 수신부에서 수행하는 경우에는 광원정보(혹은 깊이정보)를 압축한다. 홀로그램 자체를 압축하는 것은 깊이정보를 압축하는 것보다 훨씬 복잡하다.</p><p>그림 1의 시스템은 제약된 촬영 환경 하에서는 우수한 홀로그램을 얻을 수 있으나 아직도 깊이 카메라의 촬영 거리 및 적외선의 간섭/산란 등의 문제는 존재한다. 최근에 다양한 깊이 카메라가 개발되고 있는 추세를 고려한다면 이러한 문제들은 앞으로 많은 부분 해결이 가능할 것으로 전망한다.</p><h2>2. 스케일러블 비디오 코딩</h2><p>다양한 전송환경에 적응적인 비디오 부호화 기술인 스케일러블 비디오 코딩(scalable video coding, SVC)은 부호화 효율 저하를 최소로 하면서 공간과 시간 그리고 화질의 측면에서 적응적인 부호화 기능을 지원한다. 다양한 화질을 제공하는 기본적인 SVC의 구조는 그림 2와 같다. SVC 복호화기는 네트워크와 단말기의 연산능력에 따라 부호화된 비트스트림의 일부분만을 선택적으로 복호화함으로써 하나의 비트스트림에서 다양한 공간적, 시간적, 화절적 해상도를 가지는 비디오로 복호화할 수 있는 방법이다. MPEG-4 SVC에서 제공하는스케일러빌러티(scalability)의 종류로는 공간, 시간, SNR, 복합(hybrid) 스케일러빌러티 및 FGS(fine granularity scalability) 등이 있다. 이러한 스케일러빌러티를 제공하는 MPEG-4 SVC의 구조를 그림 3에 나타냈다.</p><h2>3. Holographic Characteristics</h2><p>부호화 대상인 디지털 홀로그램은 일반적인 2차원 영상과 비교할 때 시각적으로 다른 형태를 갖고 있다. 따라서 디지털 홀로그램을 신호처리적인 관점에서 다루기 위해서는 그 특성을 이해해야 한다. 본 논문에서 다루고자 하는 스케일러블 코딩 기법은 홀로그램의 화소 단위의 특성, 국부 영역의 특성, 그리고 주파수 특성을 활용한다. 이러한 특성들에 대해서는 이전 연구에서 이미 잘 분석되어 있다.</p><p>2차원 자연 영상은 sample 혹은 pixel 단위로 subsampling 과정을 거치고 다시 원래의 영상과 동일한 공간적인 해상도를 취할 경우에 원영상에서 고주파가 제거된 형태의 blurring 영상이 생성된다. 디지털 홀로그램에 대해 subsampling 과정을 수행하게 되면 원영상 혹은 원객체의 정보를 거의 소실하는 결과를 얻는다. 즉, 디지털 홀로그램을 구성하는 인접성분들은 홀로그램을 재생할 때 밀접한 관계를 갖는다는 것을 확인할 수 있다. 이러한 결과로부터 스케일링 방식의 스케일러블 코딩은 적합하지 않다는 정보를 얻을 수 있다.</p><p>디지털 홀로그램의 중심을 기준으로 분할한 후 역 Fresnel 변환 과정을 거치면 분할한 크기에 비례하여 스캐일링된 결과를 얻는다. 디지털 홀로그램의 국부영역에서는 그 영역에서 바라본 전체 객체의 정보가 모두 포함되고, 국부영역이 전체 홀로그램에 대해 위치하는 지점에 따른 복원 결과를 보인다. 국부적 영역의 특성은 홀로그램만의 독특한 특성으로 다른 시점에서 공간적 스케일러블 코딩의 가능성을 보여준다. 즉, 일반적인 2D 영상은 해상도를 조절하기 위해서 다운샘플링 혹은 스케일링 다운과 같은 과정을 수행하지만 홀로그램은 영역을 나눔으로써 공간적 스케일러블 코딩이 가능해지는 것이다.</p><p>홀로그램은 잡음과 같은 형태이고, 홀로그램의 주파수 특성도 2D 영상에서 나타나는 것과 다른 경향을 보인다. DCT(Discerete Cosine Transform) 혹은 DWT(Discrete Wavelet Transform)를 이용하여 주파수 영역으로 변환한 후에 저주파에서 고주파 계수들의 평균 에너지를 살펴보면 최저주파수 계수 및 영역에서 가장 큰 에너지를 보이는 것은 동일하지만 그 이후에 고주파 성분의 에너지가 증가하는 경향성은 2D 영상과 전혀 다르다는 것을 확인할 수 있다. 즉, 2D 영상과 같이 주파수 변환도구를 이용하여 데이터의 상관도를 추출한 후 계수들을 직접적으로 처리하는 것은 올바른 접근이라 할 수 없고, 부가적인 처리과정이 필요하다는 것을 알 수 있다.</p>
|
홀로그램은 광원 정보들은 전처리 과정을 거치면서 개선되고, 3차원 공간상의 광원정보들에 컴퓨터 생성 홀로그램 기술을 적용하여 생성한다. CGH를 송신부에서 수행하는 경우에는 홀로그램 자체를 압축하고, 수신부에서 수행하는 경우에는 광원정보(혹은 깊이정보)를 압축한다. 스케일러블 비디오 코딩은 부호화 효율 저하를 최소로 하면서 공간과 시간 그리고 화질의 측면에서 적응적인 부호화 기능을 지원한다. SVC 복호화기는 네트워크와 단말기의 연산능력에 따라 부호화된 비트스트림의 일부분만 복호화함으로써 하나의 비트스트림에서 다양한 공간적, 시간적, 화절적 해상도를 가지는 비디오로 복호화할 수 있는 방법이다. DCT 또는 DWT를 이용하여 주파수 영역으로 변환한 후에 저주파에서 고주파 계수들의 평균 에너지를 살펴보면 최저주파수 계수 및 영역에서 가장 큰 에너지을 보이지만 이후에 고주파 성분의 에너지가 증가는 것은 2D 영상과 다르다.
|
<h1>I. 서 론</h1><p>원래의 3차원 입체상을 공간상에 정확히 재현할 수 있는 가장 이상적인 입체 시각 시스템이 홀로그램이다. 최근 많은 사람들은 3차원 입체 비디오처리 기술의 최종목표를 홀로그램 서비스로 생각하고 있다. 홀로그래피 방식은 정해진 범위내의 어떤 시점에서도 관찰이 가능하도록 깊이감을 표현함으로써 관찰위치의 제약이 없고 자연스런 화상표현이 가능하다. 특히 안경을 착용할 필요 없이 자연영상을 보듯이 시청할 수 있어 3D 영상에서 발생되는 여러 문제들이 완전히 제거될 수 있다. 3D가 보편화되어감에 따라서 우리는 더욱 실감있는 입체를 요구하게 될 것이고 이것의 답은 분명히 홀로그램에 있음은 부인할 수 없다.</p><p>홀로그래픽 비디오 서비스의 구조가 어떠한 형태가 될지는 아직 모호한 상황이지만 홀로그래픽 기술은 다양한 응용분야에서 활용이 가능할 것으로 기대하고 있다. 그 응용 분야에는 3DTV와 같은 방송 기술을 비롯하여 광고, 스포츠, 화상통신, 화상회의, 모의실험, 그리고 군사용 훈련 등이 포함될 것으로 예측된다. 또한 쇼핑 등에서는 실물을 눈앞에 동일한 크기로 보여줌으로써 쇼핑을 도울 수 있을 것으로 사료된다. 이와 같이 홀로그램의 응용 분야는 다양할 것이고, 이러한 분야들은 각기 다른 네트워크 환경, 디스플레이 해상도 및 수신기의 연산 능력을 가지고 있을 것이다. 즉, 홀로그래픽 비디오 서비스도 현재의 전파를 이용한 디지털 방송 및 유선을 이용한 VoD 비디오 서비스와 같이 네트워크의 상태 및 수신 단말기의 성능에 따라서 다른 해상도 혹은 품질의 서비스를 제공해야 할 것이다. 이를 위해서 서비스 환경에 적응적인 홀로그래피 비디오 코딩 기술이 필요하다</p><p>일반적인 2D 비디오의 SVC 기술은 MPEG-4의 형태로 표준안이 마련되어 왔다. ISO/IEC 산하 MPEG(Moving Picture Experts Group) 및 ITU-T 산하 VCEG(Video Coding Experts Group)에서는 MPEG-4 SVC (Scalable Video Coding) 또는 H.264 Scalable Extension이라는 표준화를 함께 진행하였다. 새로운 스케일러블 비디오 기술인 MPEG-4 SVC는 표준화 초기 MPEG-21 part 13으로 시작하였고, 2003년도 이후부터는 MPEG-4 AVC(Advanced Video Coding) 또는 H.264 표준의 확장된 형태로 진행됨에 따라서 MPEG-4 part 10 Amd. 1이라는 명칭으로 바뀌게 되었다. 2D 영상과 홀로그램은 전혀 다른 특성을 가지고 있기 때문에 홀로그램의 스케일러블 코딩에 2D의 기술을 그대로 이용할 수는 없고, 홀로그램의 특성을 활용한 스케일러블 코딩 기법을 적용해야 한다. 스케일러블 비디오 신호처리 기법과 함께 비디오 코딩을 위한 압축 기법이 필요하다.</p><p>1990년대 초반부터 현재까지 디지털 홀로그램의 부호화에 대한 다양한 연구가 진행되었다. Yoshikawa는 홀로그램의 복원 해상도가 HVS에 비해 너무 크다는 것으로부터 해상도를 제한하는 방법과, 보간법을 이용하여 정보량을 줄이는 방법을 제안하였다. 또한 디지털 홀로그램을 1차원적으로 몇 개의 segment로 나누어 DCT를 수행하고, 동영상 압축 표준인 MPEG-1과 MPEG-2로 압축한 방법들이 제안되었다. Javidi는 [11]과 [12]에서 디지털 홀로그램을 무손실 부호화 방식의 압축하는 방법을 제안하였고, 무손실 부호화 방식을 손실 부호화 기술에 결합한 형태의 기술도 제안하였다. Liebling은 홀로그램의 분해를 위해 Fresnelet 기반의 변환기법을 만들고, 이를 이용하여 압축을 시도하였다. [14]에서는 실시간 네트워킹을 위해서 비트 패킹 동작에 의한 복소 스트림을 양자화하는 압축 방식도 제안되었다. 최근 홀로그램을 압축하기 위해 다양한 디지털신호처리 기법들을 적극적으로 활용한 방식들도 제안되었다. 디지털 홀로그램을 분할하여 상관성이 높은 정보로 변환한 후에 H.264 등의 도구로 압축을 시도한 방식과 홀로그램으로부터 집적영상을 만든 후에 집적영상과 분할된 디지털 홀로그램과의 차이 정보를 압축하는 방식이 있다. [18]에서는 Motion- CompensatedTemporal Filtering (MCTF)를 이용하여 압축률을 더욱 향상시켰다. 또한 홀로그램을 Mallat tree 기반의 웨이블릿 변환을 수행한 이후에 부대역별로 압축을 시도한 연구도 있었다.</p><p>본 논문에서는 취득된 홀로그램을 다양한 수신 환경에서 재생하기 위한 스케일러블 홀로그래픽 비디오 코딩 기법(scalable holographic video coding, SHVC)을 제안한다. 이를 위해서 본 논문에서는 먼저 디지털 홀로그래픽 비디오 서비스 시스템의 구조를 제안한다. SHVC 기법의 기본적인 개념은 [3]에서 제안되었고, 본논문을 통해서 보완 및 구체화하고자 한다. 또한 디지털 홀로그램의 스케일러블 코딩에 대한 개념은 [18]에서 처음 도입되었다. 제안하고자 하는 코딩 기법은 크게 두 가지로 구성된다. 첫 번째 방법은 이미 홀로그램이 촬영되었거나 컴퓨터 생성 홀로그램 기법(computer generated hologram, CGH)을 통해서 생성된 경우에 적용되는 것이다. 홀로그램 평면 내의 각 화소들은 객체의 전체 광원에 대한 정보를 모두 포함하고 있다는 특성을 이용하여 홀로그램 기반의 해상도 스케일러블 코딩(hologram-based resolutional scalable coding, HRS)을 적용할 수 있다. 두 번째 방법은 홀로그램을 수신단에서 생성하는 경우에 적용되는 것이다. 이 경우에는 수신단에서 홀로그램을 생성하기 위해 광원 정보를 적응적으로 전송한다. 일부의 광원으로도 홀로그램을 생성할 수 있고, 재생할 수 있다는 특성을 이용하여 광원 기반의 SNR 스케일러블 코딩(light source-based SNR scalable coding, LSS) 기법을 제안한다. 광원 정보에 대한 손실은 CGH를 통해 생성된 디지털 홀로그램과 홀로그램을 복원한 재생상에 매우 큰 열화를 가져오기때문에 무손실 압축 기법을 사용한다.</p><p>본 논문은 다음과 같이 구성된다. II장에서는 홀로그램의 비디오 서비스를 위한 시스템의 구조에 대해서 논의한다. III장에서는 스케일러블 홀로그래픽 비디오 코딩 알고리즘을 제안한다. IV장에서는 제안한 기법을 이용한 스케일러블 코딩을 수행한 결과를 나타낸다. 마지막으로 V장에서 결론을 맺는다.</p>
|
3D의 보편화로 더욱 실감있는 입체를 요구하게 되고 이것의 해결책은 홀로그램에 있음은 부인할 수 없으며 홀로그램의 응용 분야는 다양하고 각기 다른 디스플레이 해상도, 네트워크 환경, 수신기의 연산 능력을 가지고 있을 것이다. 홀로그래픽 비디오 서비스 역시 현재의 전파를 이용한 디지털 방송 및 유선을 이용한 VoD 비디오 서비스와 같은 네트워크의 상태 및 수신 단말기의 성능에 의해 다른 해상도 혹은 품질의 서비스를 제공해야 하며 2D 영상과 홀로그램은 전혀 다른 특성을 가지고 있어 홀로그램의 특성을 활용한 스케일러블 코딩 기법을 적용해야 한다. 그러므로 본 논문에서는 다양한 수신 환경에서 재생하기 위한 스케일러블 홀로그래픽 비디오 코딩 기법을 제안한다.
|
<h1>III. 스케일러블 코딩</h1><h2>1. 홀로그램 기반의 공간 적응적 코딩</h2><p>홀로그램의 국부적인 영역의 특성을 이용하여 홀로그램 기반의 해상도 적응적 코딩기법을 제안한다. HRS 코딩은 디지털 홀로그램이 광학적 시스템과 CCD를 통해서 취득된 경우에 주로 사용하는 적응적 코딩 기법이다. 획득된 홀로그램은 분할과정을 거치면서 다양한 해상도의 정보로 분리(Cropping)가 되고, 분할/변환(Segmentation/Transform)을 거친 후에 압축 과정(Compression)을 거쳐서 비트스트림이 된다. 이 과정의 역과정을 통해서 다양한 해상도의 디지털 홀로그램이 복호화된다. 복호화된 디지털 홀로그램은 SLM(spacial light modulator)와 같은 홀로그래픽 디스플레이 장치를 통해서 서비스된다. 코딩의 적응성은 홀로그래픽 디스플레이 장치에 좌우될 수 있을 것이다. 이러한 HRS의 부호화 및 복호화 과정을 그림 4에 나타냈다.</p><p>HRS는 그림 5와 같은 홀로그램의 독특한 특성을 이용한 것이다. 작은 홀로그램의 테두리에 여분의 홀로그램 정보를 결합한 후에 그 홀로그램을 재생하면 고해상도의 객체를 공간상에 재생할 수 있다.</p><p>그림 5에서 홀로그램의 내부를 분할하고, 분할된 중심영역을 제외한 테두리 영역은 중심영역과 합해져서 고해상도를 제공하게 되는 상위계층(Enhanced layer)의 역할을 한다. 분할된 중심영역은 다시 중심영역과 테두리 영역으로 나누어진다. 나누어진 영역은 다시 기본계층과 상위계층에 해당하게 된다. 이렇게 중심을 기준으로 홀로그램을 다수 분할했을 때 최종적인 중심영역이 기본계층(Base layer)이 된다. 분할하는 단위는 홀로그램을 압축하는 과정과 밀접한 관계를 갖는다. 홀로그램의 압축과정 자체에 대해서는 본 논문에서 자세히 다루지 않고, 참고문헌으로 대신하고자 한다</p><p>HRS 코딩 방법에서 적응적 코딩 특성은 홀로그램을 분할하는 단위와 방식에 크게 좌우된다. 홀로그램을 분할하는 단위는 앞서 설명한 것과 같이 홀로그램의 압축기법과 밀접한 관계를 갖는다. 홀로그램을 압축하기 위해 비디오 스트림을 만들게 되는데 이 비디오 스트림의 해상도가 홀로그램을 분할하기 위한 기본 단위가 된다.</p><p>HRS를 위해 홀로그램을 분할하는 방법을 그림 6에 나타냈다. 그림 6에서 작은 격자가 홀로그램을 분할하기 위한 단위이고 본 논문에서는 \( 64 \times 64\)의 크기를 사용한다. 실험에 \( 1,024 \times 1,024 \) 크기의 홀로그램을 사용하기 때문에 총 256개의 홀로그램 격자로 나누어지고 짝수 크기로 격자 집합에 대해서 HRS를 수행한다면 총 8단계의 코딩이 가능하다. 각 단계를 그림 6에 Level0에서 Level7까지 나타냈다.</p><h2>2. 광원기반의 SNR 적응적 코딩</h2><p>다음으로 홀로그램을 생성하는 광원의 조절을 통해 적응적 서비스를 제공할 수 있는 광원기반의 SNR 적응적 코딩기법을 제안한다. 그림 7에 LSS 코딩의 개요를 나타냈다. LSS 코딩은 광학 시스템의 CCD 카메라를 통해서 디지털 홀로그램이 직접적으로 취득된 경우가 아니라 카메라 시스템으로부터 깊이 정보와 밝기 정보를 획득한 후에 CGH를 이용하여 홀로그램을 생성하는 경우에 이용할 수 있다. 스테레오 혹은 다시점 카메라 시스템을 통해서 다수의 영상을 획득한 후에 스테레오 정합 등의 기법을 통해서 깊이 영상을 취득할 수도 있지만 이렇게 추출된 깊이 영상을 통해 얻어진 CGH는 열화가 매우 심하여 사용할 수 없다. LSS 방식의 경우에 CGH를 부호화와 복호화 중에서 어느 단계에서 하느냐에 따라서 시스템의 구조가 많이 달라질 수 있는데 본 논문에서는 CGH를 복호화 과정에서 수행하는 것으로 국한하여 알고리즘을 제안한다. CGH를 복호화 과정에서 수행할 경우에는 HRS에 비해서 높은 압축 효율을 보장할 수 있지만 CGH의 연산량을 고려한다면 단말기의 성능이 좋아야만 한다.</p><p>획득된 광원(depth map+RGB)의 개수를 조절하고 분리한 후에 이 정보를 압축한다. 이 정보는 일반적인 2D 정보와 유사하기 때문에 HRS와 같은 특별한 압축 알고리즘을 사용하지 않아도 되고, 압축 효율이 우수하다.</p><p>그러나 [3]의 논문에서도 볼 수 있듯이 이 과정에서 광원에 대한 정보가 일부라도 손상되면 CGH를 통해 생성되는 홀로그램의 품질은 대폭 감소한다. 따라서 광원 정보는 무손실 압축을 하는 것이 적합하다. 복호화 과정에서는 압축된 광원 정보를 복원한 후에 결정된 서비스의 품질에 따라서 광원의 개수를 선택하여 화질을 선택한다. 이 과정에서 보간 등을 통해 광원의 개수를 증가시킨 후에 CGH를 수행하면 높은 화질의 디지털 홀로그램을 얻을 수 없다. 이에 대한 실험 결과도 [3]을 통해서 확인이 가능하다. CGH를 통해서 최종적으로 얻어진 디지털 홀로그램은 레이저 및 SLM을 이용하여 공간상에 재생된다.</p><p>그림 7(a)에는 앞에서 설명한 LSS 부호화 과정을 나타냈다. 입력된 광원에 대한 정보들은 분리되고 네트워크 대역폭 및 수신 단말기의 성능에 따라서 전송되는 광원의 양이 결정된다. LSS의 복호화 과정은 그림 7(b)에 나타냈는데 전송된 광원 정보를 복원한 후에 분리된 광원을 이용하여 CGH를 수행하여 홀로그램을 생성한다. 수신 환경이 좋을수록 더 많은 광원을 수신하고, 이들을 결합하여 더욱 좋은 품질의 홀로그램을 생성할 수 있다.</p>
|
디지털 홀로그램이 광학적 시스템과 CCD를 통해서 얻어질 때 사용되는 HRS코딩은 홀로그램의 테두리에 여분의 홀로그램 정보를 결합하여 고해상도의 객체를 재생하는 적응적 코딩기법이다. LSS 코딩은 광원의 조절을 통해 적응적 서비스를 제공하는 SNR 적응적 코딩기법인데, 카메라 시스템에서 깊이 및 밝기 정보를 얻고 CGH를 이용하여 홀로그램을 생성하는 경우에 이용 가능한 기법을 제안하였다.
|
<h1>요 약</h1> <p>최근 들어, 스마트 기기의 수요가 급증하면서 기존의 3G 표준에 비해 향상된 품질을 제공하는 long-term evolution (LTE)서비스가 전 세계적으로 활발히 보급되고 있다. 2010년에 발표된 릴리즈 10은 흔히 LTE-Advanced (LTE-A)로 불리는데, LTE-A의 여러 특징 중 다중사용자 MIMO (MU-MIMO) 기술은 정보 처리량을 향상시키기 위한 LTE-A의 핵심기술로 근래 많은 주목을 받고 있다. 본 논문에서는 LTE 및 LTE-A 시스템에서 도입된 MU-MIMO 기술의 이론적 배경 및 표준의 주요특징을 소개한다.</p> <h1>Ⅰ. 서 론</h1> <p>최근 들어 스마트폰 사용자의 폭발적 증가에 따른 멀티미디어 및 인터넷 서비스의 급격한 수요증가로 인해 기존 3G 망이 포화 상태에 이르게 되자, 미국 버라이존을 비롯하여 우리나라의 SKT, LGU + 등 이동통신사들은 앞 다투어 차세대 이동통신 시스템인 LTE 서비스를 시작하고 있다. LTE는 long-term evolution의 약어로, 3G 이동통신 기술인 CDMA (코드분할 다중접속)과 WCDMA (광대역 부호분할다중접속)로부터 완전한 4세대로 진화해 가는 중간단계 기술로서 주목을받고 있다. 2004년에 시작된 LTE 표준화 작업은 범지상파 접속 (Universal Terrestrial Radio Access:UTRA)을 공고하게 하며 3세대 이동통신 무선 표준화단체인 3GPP (3rd Generation Partnership Project)가 제시한 라디오파 접속 구조를 최적화하는데 초점을 맞추고 있다. 초기단계 LTE의 설계목표는 3.5세대 이동통신망인 HSDPA (High Speed Downlink PackerAcess) 릴리즈 6의 하향링크 (downlink) 용량인 100Mbps와 HSUPA (High Speed Uplink PacketAccess)의 상향링크 (uplink) 용량인 50Mbps를 3배 가량 증진시키는 것이었다.</p> <p>LTE 표준의 기본이 되는 최초의 표준인 릴리즈 8(Rel. 8)은 2008년 12월에 발표되었고, 후속 표준인 릴리즈 9는 2009년 12월에 발표되었다. LTE-Advanced(LTE-A)로 불리는 LTE의 최신 표준인 릴리즈 10(Rel. 10)은 2009년 말에 국제통신 연합 (InternationalTelecommunication Union)의 승인을 받아 개발되기 시작하였다. LTE-A는 하향링크에서 LTE의 두 배인600Mbps의 전송률을 목표로 하고 있다. 이 목표가 현실화 될 때 데이터 전송 속도는 3세대의 HSPA보다 10배 이상 증진되어, 고화질 영상이나 네트워크 게임 등 온라인 상 서비스를 이동 중에도 편리하게 이용할 수있다.</p> <p>LTE-A에서 제안된 여러 특징 중 가장 주목할 만한특징으로, 높은 스펙트럼 효율성을 달성하기 위한 다중사용자 MIMO (MU-MIMO) 시스템을 들 수 있다. 본 논문에서는 LTE 와 LTE-A 표준에서 적용된 MU-MIMO 시스템의 이론적 배경 및 주요 특징을 소개하고자 한다. 먼저 Ⅱ장에서 LTE-A의 이론적 배경을 살펴본 후, Ⅲ장에서는 MU-MIMO 시스템이 실제 LTE 릴리즈 8 및 9에 적용되는 기술적 특징들을 설명한다. 그리고 Ⅳ장에서는 LTE-Advanced에 적용된MU-MIMO 기술을 정리하고, Ⅴ장에서는 결론을 제시한다.</p>
|
기존의 3G 표준에 비해 향상된 품질을 제공하는 LTE는 CDMA 및 WCDMA로부터 완전한 4세대로 진화해 가는 중간단계의 기술로서의 의의가 있다. 이러한 LTE의 표준화는 범지상파 접속을 공고하게 하고 라디오파 접속 구조를 최적화하는데 초점을 맞추고 있다. 특히 LTE의 최신 표준인 LTE-A는 데이터 전송 속도 증진을 통해 온라인 상 서비스를 이동 중에도 편리하게 이용할 수 있게 하고자 한다. 또한, LTE-A는 높은 스펙트럼 효율성을 달성하기 위한 다중사용자 MIMO 시스템을 특징으로 한다.
|
<h2>4.3. MU-MIMO의 투명성(transparency)</h2> <p>Transparent MU-MIMO 방식에서는 UE는 단지 제어 신호정보 (랭크나 DM-RS 포트 등)만 가지고도 디코딩을 수행할 수 있는데 반해, Non-transparentMU-MIMO 방식에서는 동시 사용되는 사용자에 대한정보가 제공되어야 한다. 동시 사용자 (co-scheduling)정보는 같이 사용되는 사용자의 총 랭크나 DM-RS 포트를 포함한다. 두 방식의 주요 차이점과 시스템 설계에 미치는 영향은 다음과 같다.</p> <ul> <li>스케쥴링 유연성: Transparent MU-MIMO 방식에서는 좀 더 유연한 스케쥴링을 허용한다. 예를 들면, Transparent MU-MIMO 하에서 MU-MIMO에 다중화된 사용자장치에 할당된 자원 (RBs)을 반드시 정렬할 필요가 없다. 기지국은 UE에 부분적으로 중첩된 자원을 할당할 수 있고, 서로 다른 RB에 다른수의 UE를 다중화 할 수도 있다. 또한 동시 사용되는 UE의 DM-RS 포트는 각 RB에 대해 동적으로 지정할 수 있다. 반면에, Non-transparent MU-MIMO하에서 기지국은 총 랭크 및 동시 사용되는 UE의 DM-RS 포트의 단일 신호화가 가능하도록 동시 사용되는 UE의 자원할당 정렬이 필요하다. 그러나 이는 기지국의 스케쥴러 유연성에 제한을 주어 MU-MIMO 시스템의 성능을 최대화시키기 어려울 수 있다.</li> <li>제어 신호화 부하: Transparent MU-MIMO는 동시 사용되는 UE에 대해 부가적 제어 신호화가 필요 없지만, Non-transparent MU-MIMO는 사용자 다중화를 지원하기 위해 더 많은 PDCCH (PhysicalDownlink Control Channel: 물리적 하향링크 제어채널) 자원 (신호 대 총 랭크와 같이 사용되는 UE의 DM-RS 포트)이 필요하다. PDCCH의 한정된 자원을 고려할 때, 제어정보 부하의 증가는 바람직하지 않으며 서브프레임 당 동시 사용되는 UE의 개수에 대해 좀 더 엄격한 제한이 필요하다.</li> <li>향상된 수신 기법의 지원: Non-transparentMU-MIMO에서는 제어 채널을 통해서 제공되는 여러 가지 정보를 활용하여 향상된 수신 알고리듬을 사용할 수 있다. 예컨대 UE에서 사용자간 간섭을완화 또는 억제하기 위해 간섭 제거 기법(interference rejection combining: IRC)과 같은 알고리듬이 사용될 수 있다. 이에 반해서 TransparentMU-MIMO에서는 동시 사용되는 UE에 대한 정보가 없으므로 블라인드 알고리듬 (예컨대non-parametric MMSE 알고리듬)을 사용할 수 밖에 없다. 더 우수한 수신 알고리즘을 사용하기 위한 부가적 신호화 이슈는 릴리즈 10 이후에 계속 논의되고 있다.</li></ul> <h2>4.4. SU/MU-MIMO의 동적 스위칭</h2> <p>SU-MIMO 시스템은 같은 시간/주파수 대에 다중 스트림을 전송함으로써 사용자 정보 처리량의 피크치 및 평균치를 향상시키는데 반해, MU-MIMO 시스템은 다중사용자 다이버시티를 도입함으로써 피크치와 평균치, 그리고 시스템의 전송률을 증진시킨다. 상보적인 두 시스템의 장점을 극대화하기 위해, 릴리즈 10은SU-MIMO와 MU-MIMO 모드 사이에 동적 스위칭을 도입하였다 그림 3에 동적 스위칭의 구조를 나타내었다. 동적 스위칭을 사용할 때 서브프레임 당 채널 상황과 트래픽량에 따라 한 모드에서 다른 모드로 쉽게 전환이 가능하다.</p> <p>SU/MU-MIMO 동적 스위칭 뿐 아니라 SU-MIMO 모드에서 랭크 변경 (rank adaptation)을 지원하기 위해 DM-RS 안테나 포트와 계층의 수에 대한 정보가 UE에 제공되어야 한다. 이를 위하여, 새로운 하향링크 제어정보 (downlink control information; DCI) 포맷인 DCI포맷 2C를 도입되었다.</p> <h2>4.5. 이중 코드북 구조</h2> <p>릴리즈 10은 이중 단계 피드백 기법을 채택한다. 이 중 단계 피드백에서 프리코더는 두 개의 행렬 ( \( W_{1} \) 과 \( \left.W_{2}\right) \)로 구성되는데 각각은 별도의 코드북에 속한다. 복합 프리코더는 두 행렬의 곱으로 다음과 같이 주어진다.</p> <p>\( W=W_{1} W_{2} \)<caption>(1)</caption></p> <p>위에서 \( W_{1} \)은 광대역 및 long term 채널 특성을 반영 하며 \( W_{2} \)는 주파수 선택성 (frequency selectivity) 채널과 short term 채널 감쇄를 반영한다. 본 기법은 CSI 피드백 성분을 두 종류로 분리함으로써 단일 코드북을 사용할 때 보다 더 나은 성능을 달성하면서도 낮은 피 드백 부하를 갖게 되는 장점이 있다. 릴리즈 10 코드 북을 설계하는데 필요한 고려사항 및 제약조건은 다음과 같다.</p> <ul> <li>코드북 설계에서는 프리코딩 이득을 크게 얻을 수있는 랭크 1/2에 주안점을 둔다.</li> <li>프리코딩 행렬에서 모든 요소는 전력 증폭 설계의 부하를 줄이기 위해 같은 크기 (일정한 modulus)를가져야 한다.</li> <li>일정한 평균 전송 전력을 유지하기 위해 유니터리 프리코딩을 채택한다.</li> <li>\( W_{1}\left(=\left[\begin{array}{lll}X & 0 ; 0 & X\end{array}\right]\right) \)는 어떠한 간격 (예를 들면 \( \lambda / 2 \)나 \( \lambda / 4) \)을 가진 dual-polarized 안테나 배열의 공간 불변성을 충족시키도록 블록 대각화 시켜야 한다.</li> <li>\( X \) 는 \( 4 \times N_{b} \)행렬이며 여기서 \( N_{b} \)는 빔의 개수(1~4)이다. 각 \( W_{1} \)에 대해, 주파수 선택 프리코딩의 가장자리 효과를 줄이기 위해 이웃한 중첩 빔을 사용한다.</li> <li>\( W_{1} \)으로부터 최소한 16개의 8-Tx DFT가 생성되며, 분극 사이의 위상이동을 대처하고 ULA안테나 배열의 공간불변성을 유지하기 위해 \( W_{2} \)를 통한 co-phasing을 수행하여야 한다.</li></ul> <p>이중 코드북 구조는 8-Tx 모드에만 적용된다. 4-Tx나 2-Tx 모드에서는 이중 코드북 설계에 의해 얻어지는 이득에 한계가 있기 때문에, 이들 모드는 여전히 잔여 코드북(릴리즈 8 기반의 코드북)을 채용한다.</p> <h2>4.6. CSI 피드백 방식</h2> <p>피드백 방식을 설계할 때 고려되는 사항은 다음과 같다.</p> <ul> <li>역방향 호환성이 보장되어야 한다. 릴리즈 8/9 네트워크에 진입하는 릴리즈 10 UE는 중단 없는 서비스(seamless service)를 위해 릴리즈 8/9 시스템에 부합하는 피드백 정보(PMI, RI, CQI)를 제공할 수 있어야 한다. 이와 비슷하게 PMI, RI, 그리고 CQI 피드백 방식은 릴리즈 10 네트워크에서 릴리즈 8/9 사용자 장치를 지원하여야 한다.</li> <li>피드백 부하를 고려하여 설계하여야 한다. 피드백 방식에는 직접 피드백과 간접 피드백의 두 가지 형태가 있다. 직접 피드백은 UE에서 기지국으로 채널 행렬 H또는 공분산 (covariance) 행렬 \( H H^{H} \)를 전송하는 방식이며, 간접 피드백은 릴리즈 8 방식의 PMI, RI 및 CQI를 사용하는 방식을 의미한다. 피드백 부하가 낮은 장점으로 인하여 릴리즈 8, 9, 10에서 간접 피드백 방식이 지속적으로 채택되었다. 하지만, 높은 이득을 요구로 하는 이후의 릴리즈에서 직접 피드백 방식이 계속 논의될 것으로 보인다.</li> <li>UE 피드백 설계에서 실제적 배열 시나리오를 고려하여야 한다. 안테나를 실장하는 공간의 제한으로 인해 사용자 장치에서 뿐 아니라 기지국에서도 넓은 공간이 허용되지 않는다. 물리적 공간을 줄이기 위해 흔히 사용하는 기술은 dual-polarized 안테나를 채용하는 것으로, 이는 안테나를 짝지어 분극 평행 안테나를 형성하는 것이다. 2-Tx 모드에서는 ULA가 적합하며, 4-Tx나 8-Tx 모드에서는 직교하는 분극 배열이 좀 더 적합할 수 있다.</li> <li>피드백 메커니즘은 위의 고려사항들을 반영하고 또한 하향채널의 성능과 상향채널간의 tradeoff를 고려하여 설계하여야 하며 차후의 릴리즈에서 계속 논의 발전될 것이다.</li></ul>
|
Transparent MU-MIMO 방식은 UE는 단지 제어 신호정보으로 디코딩을 수행할 수 있지만, Non-transparent MU-MIMO 방식은 동시 사용되는 사용자에 대한 정보가 제공되어야 한다. SU-MIMO 시스템은 다중 스트림을 전송해서 사용자 정보 처리량의 피크치 및 평균치를 향상시키는 반면, MU-MIMO 시스템은 다중사용자 다이버시티를 도입하여 피크치,평균치, 시스템의 전송률을 증진시킨다. 릴리즈 10은 SU-MIMO와 MU-MIMO 모드 사이에 동적 스위칭을 도입하여 상보적인 두 시스템의 장점을 극대화하였고 이중단계 CSI 피드백 기법을 채택하였다.
|
<h1>Ⅳ. LTE Release 10에서 MU-MIMO</h1> <p>LTE-A 시스템의 상용화를 위해서는 정보 처리량(throughput)의 최고치와 평균치, 그리고 셀 경계 스펙트럼 효율성 등 ITU-R (ITU Radio CommunicationSector)에서 설정한 여러 요구조건을 만족시켜야 한다. 이를 만족시키기 위하여 릴리즈 10에서 새로 도입된기술적 특징들은 다음과 같이 요약된다.</p> <ul> <li>높은 차원 (8×8 MIMO 까지)의 SU-MIMO 모드를 지원하며 또한 MU-MIMO의 성능을 향상시키기 위해, 하향링크에 CRS와 DM-RS 그리고 CSI-RS 등 새로운 파일럿 RS를 도입하였다. CRS는 CSI측정과 잔여 (릴리즈 8/9) 전송의 복조 뿐 아니라 제어 채널의 디코딩 등 UE의 여러 과정에 이용된다. 릴리즈 9에 도입한 DM-RS는 릴리즈 10에서는 새로운 전송 모드에서 랭크-8까지의 전송을 지원하도록 확대되었다.</li> <li>SU-MIMO와 MU-MIMO 간에 동적 스위칭을 도입하였다. 이로서 DM-RS를 사용하여 UE에 프리코딩 정보를 제공할 필요 없이, 기지국은 UE의 MIMO작동 모드를 원활하게 변경할 수 있다. 이는 통신형태나 UE의 개수 등 시스템의 조건이나 채널에서의 변화에 기지국이 신속히 대응할 수 있도록 돕는다.</li> <li>피드백 부하를 줄이기 위해 8-Tx 배열에 이중 코드북 (dual codebook) 구조를 채용하였는데, 첫 번째 코드북은 광역밴드와 long term 채널에 관여하고 다른 코드북은 주파수 선택성 채널이나 short term채널을 담당하도록 설계되었다.</li></ul> <h2>4.1. 파일럿 신호 (reference signal)의 설계</h2> <p>근래 들어 비교적 낮은 복잡도를 가지면서도, 높은채널 용량을 얻을 수 있는 다양한 프리코딩 기법들이 제안되었다. 앞에서 언급한 바와 같이, 이러한 방식들은 CSI 피드백의 정확도가 충분히 큰 경우에만 이득을 얻을 수 있다. 파일럿이 차지하는 오버헤드를 피하면서 CSI의 품질을 유지하기 위해, CRS를 단순히 확장하는 대신 릴리즈 10은 별도의 DM-RS/CSI-RS 접근방식을 채용하였다. 릴리즈 10에서 도입된 파일럿 신호의 주요 특징은 다음과 같다.</p> <ul> <li>파일럿의 부하를 제한하기 위해 CRS는 4개의 송신 안테나까지만 정의되었다.</li> <li>새로 도입된 송신모드(송신모드 9: TM 9)에서는, CSI-RS를 이용하여 CSI측정을 수행한다. CSI-RS는 8개의 송신 안테나까지 적용되지만 CRS에 비해 상당히 낮은 부하를 가진다.</li> <li>rank-4까지 지원할 수 있는 잔여 송신 모드(transmission mode)에서는 CRS를 이용하여 CSI측정을 수행한다.</li></ul> <p>DM-RS는 CSI측정에 사용하기에는 적절하지 않다. 왜냐하면 DM-RS는 각각의 UE가 사용되는 시간/주파수 자원에서만 간헐적으로 존재하기 때문이다. 반면에 CSI-RS는 프리코딩 되지 않으며 또한 모든 대역에 대해 사용되기 때문에 CSI측정에 적합하다. 이 때 부하를 최소화하기 위해 CSI-RS는 서브프레임 (subframe) (그림 2)의 한 부분으로 전송된다. 이는 복조와 CSI 측정을 위해 사용되는 CRS와 구분되며, 따라서 매 서브프레임마다 전송할 필요가 있다.</p> <p>CRS와 달리, DM-RS는 데이터가 존재하는 시간/주파수에서만 전송하면 된다. 따라서, DM-RS는 데이터전송 랭크 (rank)가 전송 안테나 수보다 작은 경우 (8개의 송신 안테나 배열의 경우) 파일럿 부하가 줄어드는 이점이 있다. 실제로 릴리즈 10에서 DM-RS 패턴은 파일럿 부하를 최소화하기 위해 각 랭크에 대해 최적화되었다. 릴리즈 10에서 랭크가 3-8의 경우에 DM-RS 패턴은 릴리즈 9에서 랭크 2에 대한 경우의 확장으로, 하이브리드 (hybrid) 코드/주파수 분할 다중화에 기반을 두고 있다. 랭크 1과 2의 경우 제 1 및 2계층에 대한 DM-RS 패턴은 코드 분할 다중화에 의해 다중화되는 반면, 랭크가 3과 4인 경우에는 제 1 계층 및 2 계층 그리고 제 3 계층 및 4 계층에 대한 DM-RS 패턴은 주파수 분할 다중화 (FDM)에 의해 다중화된다.</p> <h2>4.2. MU-MIMO의 차원화</h2> <p>릴리즈 10에서는 성능 및 신호의 부하를 종합적으로 고려하여, MU-MIMO 시스템의 차원 (dimension)에 대해 다음과 같은 제한을 두었다.</p> <ul> <li>최대 4개까지의 UE를 동시에 스케쥴링 할 수 있다.</li> <li>각 UE마다 최대 두 개까지만 계층을 할당한다.</li> <li>계층의 총합이 4개를 초과하지 않는다.</li></ul> <p>4개의 UE를 할당하는 경우 각 UE는 평균적으로 총전송 전력의 1/4만 할당 받게 되어 각각의 UE의 SINR이 상당히 낮아지게 된다. 따라서, 셀 내에 다수의 UE를 포함하는 경우 (즉, SINR이 높은 UE를 높은 확률로 찾아낼 수 있는 경우)를 제외하고는 대부분의 경우 그다지 효과적이지 못하다. 예를 들면, UE 사이에 공간분리가 쉬운 단일 폴 (single-pole) ULA 시스템에서는 4개의 계층에 대한 지원이 가능하지만, 이중 편광(dual-polarized) 배열을 가진 경우에는 MU-MIMO 간섭을 제어하기 매우 어렵기 때문에 동시 사용되는 UE의 개수는 대부분의 경우 2가 된다.</p> <p>높은 상관관계를 가진 ULA의 경우 기지국 노드는 두 개의 스트림 (stream)을 분리하여 두 개의 UE로 보낼 수 있기 때문에 공간다중화 이득을 얻을 수 있다. 이는 셀 내에 UE의 개수가 많아 다중사용자 스케쥴링에 의해 공간 자유도를 증가시킬 수 있는 경우에 적합하다. 실제로도 이러한 경우에는 UE당 랭크-1 전송이 가장 효율적이다. 랭크-1 보다 큰 경우에 ULA에서의 이득은 그다지 크지 않으나, 이중편광 시스템에서는 증가하게 된다. 예를 들면, 이중 편광 8개의 송신 안테나 배열에서는 각 분극 배열이 빔을 형성하여 UE쪽으로 스트림을 보낼 수 있기 때문에 UE당 랭크-2로 전송할 경우 성능의 향상을 얻을 수 있다.</p>
|
LTE-A 시스템의 상용화를 위해서는 정보 처리량의 최고치와 평균치,셀 경계 스펙트럼 효율성 등 여러 요구조건을 만족시켜야 하므로 릴리즈10에 도입된 새로운 기술 특징은 다음과 같다. 고차원의 SU-MIMO 모드를 지원하며 또한 MU-MIMO의 성능을 향상시키기 위해, 하향링크에 CRS와 DM-RS 그리고 CSI-RS 등 새로운 파일럿 RS를 도입하였고, SU-MIMO와 MU-MIMO 간에 동적 스위칭을 도입하여 기지국은 UE의 MIMO작동 모드를 원활하게 변경할 수 있다. 이중 코드북 구조를 적용하여 코드북에 따라 광역밴드와 long term 채널에 관여하거나 주파수 선택성 채널이나 short term채널을 담당하도록 하여 피드백 부하를 줄였다.
|
<h1>5. 공통평가기준을 통한 디지털 프린터 보안기능별 기반기술 시험 방법 개발</h1><p>본 장에서는 4장에서 도출한 시험항목을 바탕으로 공통평가기준에 따라 시험항목에 따른 시험목적을 도출한 후, 세부 시험방법에 대해 개발한다. 개발자가 제공하지 않는 기능에 대해서는 시험/평가 하지 않으며 제공하는 기능에 한해서 다음과 같은 시험이 이루어져야 한다.</p><h2>5.1 잔여정보 보호 기술</h2><p>완전삭제와 관련된 시험항목으로는 완전삭제를 수행하는 기능 리스트 생성, 저장매체 식별, 완전삭제 알고리즘 식별, 완전삭제 알고리즘 소스코드 확인, 포렌식 툴을 이용한 데이터 복구 여부 확인이 있다. 잔여정보 보호 기능시험의 전체 흐름도는 (그림 7)과 같다.</p><h3>5.1.1 완전삭제를 수행하는 기능 리스트 생성</h3><p>개발자가 제공하는 완전삭제 기능에 대해서 시험하기 위해서는 존재하는 기능 리스트를 생성해야 한다. 완전삭제 기능 리스트 생성을 시험하기 위한 시험목적과 시험절차는<표 11>과 같다.</p><h3>5.1.2 저장매체 식별</h3><p>디지털 프린터의 저장매체 식별 시험항목은<표 12>와 같다. 디지털 프린터의 저장매체로는 일반적으로 하드디스크와 플래시 메모리가 이용되고 있다.</p><h3>5.1.3 완전삭제 알고리즘 식별</h3><p>디지털 프린터 내에서 이루어지는 완전삭제가 어떠한 알고리즘을 이용하고 있는지 식별해야 한다. 완전삭제 알고리즘 식별 시험항목은<표 13>과 같다.</p><h3>5.1.4 완전삭제 알고리즘의 소스코드 확인</h3><p><표 14>에서 시험하는 소스코드 확인은 WhiteBox시험의 일종으로 정보보호제품 평가등급 중 EAL3까지는 수행하지 않아도 된다. EAL4를 요구하는 보안기능을 수행하는 디지털 프린터에서는 보안기능을 확인하는데 소스코드 확인이 필수적이다. 따라서 디지털 프린터의 소스코드 중에서 보안 기능에 해당하는 소스코드가 무엇이며 소스코드가 알고리즘에 맞게 설계되어 구현되었는지 명확히 확인해야 한다.</p><h3>5.1.5 포렌식 툴을 이용한 데이터 복구 여부 확인</h3><p>실제 완전삭제가 이루어지는지 포렌식 툴을 이용하여 시험하는 절차는<표 15>와 같다. 대표적인 포렌식 툴로는 Logicube, FinalData, WinHex, EnCase 등이 있다.</p><h2>5.2 보안인쇄 기술</h2><p>보안인쇄 기능 시험에 대한 전체 흐름도는 (그림 8)과 같다. 보안 인쇄 기술에 대한 시험항목은 보안인쇄를 수행하는 기능 리스트 생성, PIN에 대한 시험, 보안적용 대상에 대한 기밀성 확인, PIN의 길이나 입력횟수의 초과 시 차단여부 확인이 있다.</p><h3>5.2.1 보안인쇄를 수행하는 기능 리스트 생성</h3><p>개발자가 제공하는 보안인쇄 기능에 대해서 시험하기 위해서는 존재하는 기능 리스트를 생성해야 한다. 보안인쇄 기능 리스트 생성을 시험하기 위한 시험목적과 시험절차는<표 16>과 같다.</p><h3>5.2.2 PIN에 대한 시험</h3><p>PIN에 대한 시험목적과 시험절차로는<표 17>과 같다. 본 시험 시 명세서 및 설명서에서 서술하고 있는 지원 포맷을 확인해야 하며 지원 포맷 내에서 PIN을 입력하여 제대로 출력되는지 확인해야 한다. 또한 명세서 및 설명서에서 서술하고 있는 미지원 포맷으로 PIN을 입력하였을 경우 에러메시지 출력 여부를 확인해야 한다.</p><h3>5.2.3 보안 적용 대상에 대한 기밀성 시험</h3><p>보안 적용 대상에 대한 기밀성 시험과 관련된 시험목적과 시험절차는<표 18>,<표 19>,<표 20>에서 서술하고 있다.</p><p><표 18>과 관련된 시험 시 PIN이 암호화 되어 전송되는지 확인하여야 하며 암호화되어 있다면 암호화에 사용된 알고리즘의 적절성을 확인해야 한다. 또한 전송 과정 중 특정부분에서 암호화 시 사용된 키에 대한 정보가 노출되는지 확인해야 한다.</p><p><표 19>와 관련된 시험 시 PIN이 디지털 프린터 내에 저장되어 있는지 확인해야 하며 이 때, 암호화 되어 저장되는지 확인해야 한다. 또한 암호화에 사용된 알고리즘의 적절성을 확인해야 하며 특정 부분에서 암호화에 사용된 키가 노출되는지 확인해야 한다.</p><p><표 20>과 관련된 시험 시 보안문서가 디지털 프린터 내에 암호화되어 저장되는지 확인해야 하며 암호화에 사용된 알고리즘의 적절성을 확인해야 한다. 또한 특정 부분에서 보안문서를 암호화 하는데 사용된 키에 대한 정보가 노출되는지 확인해야 한다.</p><h3>5.2.4 PIN의 길이나 입력횟수의 초과 시 차단 여부 확인</h3><p><표 21>과 관련된 시험 시 명세서 및 설명서에서 서술하고 있는 PIN의 입력 범위를 확인해야 하며 입력 범위 내에서 PIN을 입력하여 제대로 출력되는지 확인해야 한다. 또한 명세서 및 설명서에서 서술하고 있는 입력범위를 벗어나는 PIN을 입력하였을 경우의 에러메시지 출력 여부를 확인해야 한다.</p><p><표 22>와 관련된 시험 시 명세서 및 설명서에서 서술하고 있는 PIN 입력 허용 횟수를 확인해야 하며 입력 허용 횟수 내에서 PIN을 입력하여 제대로 출력되는지 확인해야한다. 또한 PIN 입력 횟수가 명세서 및 설명서에서 서술하고 있는 허용 횟수를 넘어서는 경우의 에러메시지 출력 여부를 확인해야 한다.</p>
|
해당 논문에서는 공통평가기준에 따라 시험항목에 따른 시험목적을 도출한 후 세부 시험방법에 대해 개발하며 보안 인쇄 기술에 대한 시험항목을 면밀히 살펴본다. 또한 보안 적용 대상에 대한 기밀성 시험과 관련된 시험목적과 시험절차를 표를 활용하여 서술한다.
|
<h1>1. 서 론</h1><p>최근 컴퓨터 기술의 급속한 발전으로 인해 기존의 텍스트위주의 사용자 환경에서 벗어나 이미지, 그래픽, 오디오 및 비디오 데이터 등을 제공하는 멀티미디어 사용자 환경으로 변화하고 있다. 현재 대다수의 기업 및 공공기관에서는 업무의 효율성 증대와 경비 절감을 위해 프린터에 복사기, 스캐너, 팩시밀리 등의 기능을 통합하여, 인쇄/복사/스캔/팩스 외에도 대용량 문서 데이터 저장, 네트워크 통신 등의 기능을 갖춘 기기를 사용하고 있다. 이러한 기기는 디지털 프린터, 디지털 복합기, HCD(Hard-Copy Device), MFD(Multi-Function Device), MFP(Multi-Function Peripheral) 등으로 불린다. 본 논문에서는 이하 디지털 프린터로 통칭한다.</p><p>최근에는 산업기술 유출 방지를 위해서 디지털 프린터에 중요 데이터 유출 방지를 위한 보안기능을 구현하고 있다. 이러한 디지털 프린터는 하드디스크나 플래시 메모리 등의 저장장치와 인터넷 또는 전화 회선에 연결되는 통신장치가 내장되어 있는데, 이로 인하여 데이터에 대한 접근 권한이 없는 자가 특정 문서 파일 등을 출력하거나 팩스, 스캔할 때 저장되는 데이터가 유출되는 등의 보안 문제가 야기될 수 있다. 특히 보안에 민감한 파일이나 문서가 노출될 경우, 기업이나 국가에 큰 손실을 유발할 수 있기 때문에 저장되는 데이터를 암호화하거나 삭제하는 보안 기능 및 사용자에 대한 식별 및 인증, 접근제어 기능 등은 디지털 프린터 시장의 새로운 경쟁요소로 부각되고 있다.</p><p>이에 일본에서는 업체들을 중심으로 공통평가기준(CC, Common Criteria) 평가 인증이 활발히 진행되고 있으며, 미국에서는 정부에서 조달기준으로 디지털 프린터에 대한 CC 인증을 요구하고 있다. 또한 초기에 CC 인증을 경험한 주요 디지털 프린터 관련 업체들은 자체적으로 디지털 프린터에 대한 보호프로파일(PP, Protection Profile)을 개발하고 있다. 국내에서는 디지털 프린터 내의 하드디스크 데이터의 완전 삭제 기능에 대한 보안적합성 검증을 의무화하고 있다. 하지만 국가적으로 디지털 프린터에 대한 보안 인식은 아직도 미비한 상태이며, CC 인증 사례도 한 건이다. 국내에서 생산되는 디지털 프린터가 해외 수출 및 관련 업체들과의 경쟁에서 뒤처지지 않기 위해서는 CC 인증이 절실한 시점이지만, 디지털 프린터에 대한 인식과 평가 방법에 대한 지식이 부족하여 CC 평가를 준비하는 개발자 및 평가자가 어려움을 겪고 있다.</p><p>이에 추후 평가 수요가 급격하게 증가할 것으로 보이는 디지털 프린터의 보안기능 기반기술 시험방법 및 평가요소기술 확보를 위하여 본 논문에서는 2장에서 국내·외의 주요 디지털 프린터 업체 제품에 포함되어 있는 보안 기능 및 주요 업체들의 디지털 프린터 보안기능 개발 동향을 분석하고, 3장에서는 분석된 각 보안기능별 특성을 파악한다. 4장에서는 디지털 프린터 보안기능 평가 및 시험을 위한 시험항목을 도출하고 5장에서는 도출된 시험항목에 따른 시험/평가 가이드라인을 제시한다. 끝으로 6장에서는 결론을 맺는다.</p>
|
최근 디지털 프린터의 사용이 늘어나며 산업기술 유출 방지를 위해 디지털 프린터에 중요 데이터 유출 방지를 위한 보안기능을 구현하고 있다. 그러나 국내에서 생산되는 디지털 프린터는 보안 인식이 미비한 상태이며, CC 평가를 준비하는 개발자 및 평가자가 어려움을 겪고 있다. 본 논문에서는 디지털 프린터의 보안기능 기반기술 시험방법 및 평가요소 확보를 위한 내용을 담고 있다.
|
<h2>5.3 위조/복제 방지 기술</h2><p>디지털 워터마크를 활용한 위조 및 복제 방지 기술에 대한 시험항목은 위조/복제 방지를 수행하는 기능 리스트 생성, 워터마크의 실제 반응 확인, 워터마크를 통해 실제 주요 기능 차단확인, 그리고 워터마크 훼손 변조 시 동작여부 확인으로 구성될 수 있다. 위조/복제 방지 기술 시험을 위한 전체 흐름도는 (그림 9)와 같다.</p><h3>5.3.1 위조/복제 방지를 수행하는 기능 리스트 생성</h3><p>개발자가 제공하는 위조/복제 방지 기능에 대해서 시험하기 위해서는 존재하는 기능 리스트를 생성해야 한다. 위조/복제 방지 기능 리스트 생성을 시험하기 위한 시험목적과 시험절차는<표 23>과 같다.</p><h3>5.3.2 디지털 워터마크에 대한 디지털 프린터의 실제 반응 시험</h3><p><표 24>는 디지털 프린터에서 실제 워터마크가 출력되는지 확인하는 시험절차이다.</p><p>출력된 디지털 워터마크가 입력된 스트링 또는 이미지 파일과 일치하는지 확인하기 위하여 스트링의 경우 특수문자 및 기호에 대한 정상 출력여부를 시험해야 하며 제한된 스트링의 크기를 초과하여 입력 한 후, 에러 메시지 또는 정상출력 여부를 확인한다. 또한 다양한 폰트의 스트링에 대한 워터마크 출력 여부를 확인해야 하며 이미지 파일의 경우, 지원하는 이미지 포맷 및 미지원 이미지 포맷에 대해서도 정상출력 여부를 확인해야 한다. 제한된 이미지의 크기를 초과하여 입력한 후, 에러 메시지 또는 정상 출력 여부를 확인해야 한다.</p><h3>5.3.3 디지털 워터마크를 통해 실제 주요기능 차단 여부 확인</h3><p>디지털 워터마크가 인쇄된 문서에 대해 복사, 스캔, 출력, 팩스 전송 등의 기능이 차단되는지 여부를 확인하기 위한 시험방법은<표 25>와 같다.</p><h3>5.3.4 디지털 워터마크 훼손/변조 시 동작여부 확인</h3><p><표 26>과<표 27>은 디지털 워터마크 기술의 훼손/변조 시 동작여부를 시험하기 위한 시험목적과 시험절차이다.</p><p><표 26>과 관련된 시험 시 짧은 길이의 스트링 또는 특수문자 및 기호를 워터마크로 사용할 경우와 작은 크기의 이미지 파일을 워터마크로 사용해 본 경우에 대해서도 확인해야 한다.</p><p><표 27>과 관련된 시험 시 디지털 워터마크에 적용된 스트링 및 이미지 일부를 가리거나 싸인펜 등을 이용하여 인위적으로 변조한 경우에 대해서도 확인해야 한다. 또한 디지털 워터마크가 적용된 문서에 대해 위치를 변경하거나 비스듬하게 놓은 경우에 대해서도 확인해야 한다.</p><h2>5.4 출력 접근제어 기술</h2><p>사용자 인증을 사용한 출력 접근제어 기술에 대한 시험항목은 출력 접근제어를 수행하는 기능 리스트 생성, 사용자 별 접근제어 정책 확인, 인증 메커니즘, 인증서버 동작 시험과 인증. 메커니즘의 적합성 확인, 인증 서버의 간전성 확인으로 구성된다. 출력 접근제어 기술 시험을 위한 전체 흐름도는 (그림 10)과 같다.</p><h3>5.4.1 출력 접근제어를 수행하는 기능 리스트 생성</h3><p>개발자가 제공하는 출력 접근제어 기능에 대해서 시험하기 위해서는 존재하는 기능 리스트를 생성해야 한다. 출력 접근제어 기능 리스트 생성을 시험하기 위한 시험목적과 시험절차는<표 28>과 같다.</p><h3>5.4.2 사용자별 접근제어 정책 확인</h3><p><표 29>,<표 30>,<표 31>까지는 사용자별 접근제어 정책 확인을 위한 시험목적과 시험절차를 나타낸 것이다.</p><p><표 29>와 관련된 시험 시 관리자 및 사용자 계정 생성시 입력되는 정보를 확인해야 하며 관리자 모드에서 수행 가능한 작업과 사용자 모드에서 수행 가능한 작업을 확인해야 한다.</p><p><표 30>과 관련된 시험 시 평가자는 명세서와 설명서에 관리자 모드와 사용자 모드 인증 절차가 서술되어 있는지 확인해야 하며 각각 관리자 모드와 사용자 모드로 인증 시 입력되는 정보와 인증 절차가 서로 상이한지 확인해야 한다.</p><p><표 31>과 관련된 시험 시 사용자가 접근 가능한 기능과 관리자가 접근 가능한 기능을 구별하여 확인해야 한다.</p><h3>5.4.3 인증 메커니즘, 인증 서버 동작 시험</h3><p><표 32>부터<표 35>는 인증 메커니즘과 인증 서버가 올바르게 동작하는지 확인하기 위한 시험항목에 대한 시험 방법이다.</p><p><표 32>와 관련된 시험 시 연속 인증 실패 후 일정 기간 계정 잠금이 수행되는지 확인해야 하며 계정 잠금을 어느 기간까지 설정 가능한지 확인해야 한다. 또한 감사 기록을 바탕으로 연속 인증을 시도한 사용자에 대해 추적성을 제공하는지 확인해야 하며 관리자는 일정한 주기로 감사기록을 검토할 수 있는 기능이 있는지 확인해야 한다.</p><p><표 33>의 경우 사용자가 관리자에 의해 설정된 권한 이외의 모든 기능을 수행하여 작업이 이루어지는지 확인해야 하고 인증을 거친 사용자가 다른 사용자로 위장 가능한 지 확인해야 한다. 또한 인증 과정을 여러 번 수행할 경우 위와 같은 결과가 발생하는지 확인해야 한다.</p><p><표 34>의 경우 비정상적인 행동이 탐지된 후 이를 관리자에게 알리는지 확인해야 하며 해당 작업이 보류되고 관리자의 확인을 거쳐 수행되거나 해당 작업이 삭제되고 이를 통보하는지 확인해야 한다.</p><p><표 35>와 관련된 시험 시 인증 과정에서 이용하는 함수를 신뢰할 수 있는지 확인해야 하며 인증 정보가 함수를 몇 번 통과한 뒤 저장되는지 확인해야 한다.</p><h3>5.4.4 인증 메커니즘의 적합성 확인</h3><p><표 36>~<표 38>은 인증 메커니즘의 적합성 확인을 위한 시험목적과 시험절차를 나타낸 것이다.</p><p><표 36>과 관련된 시험 시 평가자는 인증 메커니즘에 사용되는 알고리즘을 확인해야 하며 취약성 조사 사이트에서 해당 알고리즘에 대한 취약점을 확인해야 한다. 또한 인증 실패 시, 인증서버 내에서 인증 시도 횟수를 감산하는지 확인해야 한다.</p><p><표 37>과 관련된 시험 시 인증에 사용되는 정보를 확인 해야 하며 인증 실패 메시지가 인증 실페에 대한 정보 외의 다른 추가 정보를 제공하는지 확인해야 한다. 또한 인증서버 내 인증 시도 횟수에 대한 설정 기능 존재 유무를 확인해야 한다.</p><p><표 38>과 관련된 시험 시 명세서 및 설명서에서 서술하고 있는 지원 가능한 인증정보 포맷을 확인해야 하며 사용자 인증 정책이 존재하는지 확인해야 한다. 또한 인증 시 사용되는 인증정보가 사용자의 정보를 바탕으로 생성하는지 확인해야 하며 시스템을 사용하는 모든 사용자가 서로 다른 인증정보를 사용하는지 확인해야 한다.</p><h3>5.4.5 인증서버의 안전성 확인</h3><p><표 39>~<표 41>은 인증서버의 안전성을 확인하기 위한 시험목적과 시험절차이다.</p><p><표 39>와 관련된 시험 시 평가자는 명세서 및 설명서에서 서술하는 인증 절차 외에 다른 방법의 인증이 가능한지 확인해야 하며 인증 시도 시 입력하는 사용자 정보와 인증 서버 내 저장되어 있는 사용자 정보를 확인해야 한다. 또한 인증 시도 전 암호 모듈 작동 여부를 확인해야 하며 재생 공격(Replay Attack)에 대한 방지 기능이 있는지 확인해야 한다.</p><p><표 40>과 관련된 시험 시 감사 기록 저장 공간이 부족할 때, 새로운 감사 기록을 기존의 가장 오래된 기록 위에 덮어쓰거나 이를 예방하기 위해 정기적인 백업 기능을 수행 하는지 확인해야 한다. 또한 저장 공간 부족을 예방하기 위해 설정된 용량 초과 시 이를 관리자에게 미리 알려주는 기능이 있는지 확인해야 한다.</p><p><표 41>과 관련된 시험 시 방화벽 또는 침입 탐지 시스템 메커니즘 방식을 확인해야 하며 부정상적 패킷을 탐지할 경우 대응 방안의 여부 및 로그 기록 생성 여부를 확인해야 한다.</p>
|
위조/복제 방지를 수행하는 기능 리스트 생성, 워터마크의 실제 반응 확인, 워터마크를 통해 실제 주요 기능 차단확인, 그리고 워터마크 훼손 변조 시 동작여부 확인으로 디지털 워터마크를 활용한 위조 및 복제 방지 기술에 대한 시험항목이 구성될 수 있다. 출력 접근제어를 수행하는 기능 리스트 생성, 사용자 별 접근제어에 대한 정책 확인, 인증 메커니즘, 인증서버 동작 시험과 인증, 메커니즘의 적합성 확인, 인증 서버의 간전성을 확인하는 것은 출력 접근제어 기술에 대한 시험항목으로 이루어진다.
|
<p>사용자의 현재 Top Sites 페이지의 구성 정보는 ‘TopSites. plist' 파일에서 확인할 수 있다. 각 'TopSiteTitle'/'TopSiteURLString' 태그에서 Top Sites에 등록되어 있는 웹 페이지의 타이틀과 전체 주소를 얻을 수 있다. Top Sites의 구성 정보는 즐겨찾기에 등록되어 있는 웹 페이지 중에서도 사용자가 빈번히 방문하는 웹 사이트는 무엇인지 알 수 있게 한다.</p> <p>평소 자주 즐겨 방문하는 웹 페이지에 대해서 사파리를 이용하는 사용자는 웹 브라우저에서 제공하는 북마크 기능을 활용하여 사이트를 등록할 수 있다. 사파리에 등록되어 있는 즐겨찻기 목록은 'Bookmarks.plist' 파일에 기록되어 있다. 'Bookmarks.plist'에 저장되어 있는 즐겨 찾기 목록에 기반하여, 평소 사용자가 자주 방문하는 사이트와 관심 사항이 무엇인지 알아 낼 수 있다. 'Bookmarks.plist'의 'title' 태그에는 사용자가 즐겨 찾는 사이트의 타이틀이 저장되어 있고, 'URLString' 태그에는 사이트의 전체 URL 주소를 가리키고 있다.</p> <p>'Downloads.plist' 파일에는 사용자가 웹 서핑을 하면서 인터넷 사이트에서 다운 받은 파일 목록이 기록되어 있다. 'Downloads.plist' 파일의 각 'DownloadEntryURL' 태그에서 사용자가 다운로드 받은 파일의 전체 URL 경로이며, 'DownloadEntryPath' 태는 저장되어 있는 정보는 다운받은 파일이 최종적으로 저장된 폴더가 어느 곳인지 가리키고 있다.</p> <p>'History.plist' 파일은 사용자가 방문한 웹 사이트 목록을 저장하고 있다. 'History.plist' 파일의 'display Title'/'LastVisitedDate' 태그는 사용자가 방문한 웹 사이트의 타이틀과 마지막으로 방문한 시간에 관한 정보, 웹 페이지의 전체 URL가 기록되어 있다.</p> <p>웹 페이지에 사용자가 마지막으로 방문한 시간 정보를 담고 있는 'LastVisitedDate' 태그에 저장되어 데이터는 Apple에서 정의한 double 형태의 'NSTimeInterval' 변수를 사용하고 있다. 'NSTimeInterval' 변수는 10,000년의 시간차 범위를 포함하는 sub-millisecond를 사용한다. 즉, 'LastVisitedDate' 태그에 저장되어 있는 값은 sub-millisecond 표현된 0년도부터 현재 연도까지의 시간차를 뜻한다. 마지막으로 방문한 시간 정보, Apple에서 제공하는 시간 관련 클래스 'NSCalendarDate'를 통해서 '연/월/일/시/분/초' 시간 표현 형태로 변환할 수 있다.</p> <h2>4.9 최근 원격 접속 서버와 사용 항목 및 폴더</h2> <p>사용자가 접속했던 외부 원격서버와 공유 디렉터리, 최근에 열람해 보았던 문서, 실행했던 프로그램에 정보는 최근 사용 항목/폴더 행태로 기록한다. 또한 Mac 운영체제의 기본 미디어 플레이어 프로그램인 퀵 타임 플레이어에서 재생된 파일, 문서 작성 도구인 Text Edit가 작성하던 파일 목록을 저장하고 있다. 최근 사용 항목/폴더 목록을 점검하여, 사용자가 가장 최근에 열람한 파일, 실행시켰던 항목, 외부 원격 서버에 대한 정보와 더불어 사용자가 재생시킨 파일, 작성하고 있었던 파일이 무엇이었는지를 확인할 수 있다.</p>
|
사파리의 'TopSites.plist', 'Bookmarks.plist', 'Downloads.plist' 및 'History.plist' 파일을 이용하면, 사용자가 자주 방문하는 웹 사이트, 다운로드한 파일 목록, 마지막으로 방문한 시간 정보 등을 확인할 수 있다. Apple에서 제공하는 'NSTimeInterval' 변수를 사용하여 sub-millisecond로 0년부터 현재까지의 시간차를 표현하고, 'NSCalendarDate' 클래스를 이용하여 연/월/일/시/분/초로 변환할 수 있다.
|
<p>기존의 연구를 바탕으로 좀 더 효율적인 Mac OS X 디지털 포렌식 분석을 위한 MacMarshal과 같은 Mac 운영체제 디지털 포렌식 분석 도구가 개발, 판매되고 있다. 그러나 앞서 제시된 Mac OS X 디지털 포렌식 분석 방법과 도구에서는 Mac OS X 시스템 상에서 분석해야 할 대상 선정에 있어 운영체제의 기초적인 사항만을 논하고 있어, 포렌식 분석 과정에서 필요한 사용자 행동을 파악하기 위해 필요한 중요 정보를 획득하는데 어려움이 있다. 또한 언급한 운영체제상의 중요 항목을 분석하기 위한 좀 더 구체적이고 자세한 기법연구가 부족하기 때문에 사용자 흔적 정보수집에 대한 효과적인 방안을 세울 수가 없다. 이에 본 논문에서는 Mac OS X 시스템 상의 사용자 행위를 유추 또는 역추적 할 수 있는 중요 사용자 행위 및 흔적 정보를 효과적으로 수집할 수 있는 방안을 제시하고자 한다.</p> <h1>3. Mac OS X 포렌식 분석을 위한 준비 단계</h1> <p>기존의 Windows/Linux 계열 디지덜 포렌식 조사시 활성 데이터 수집 및 여러 다양한 디지털 포렌식 분석에 앞서 지켜야할 사항과 준비과정에 관한 작업을 Mac 환경에서 수행할 경우 신속한 라이브 데이터 수집 및 기타 여러 분석에 방해를 줄 수 있으며, 중요한 디지털 증거의 무결성을 손상시킬 수 있다. Mac OS X 시스템의 원활한 데이터 수집과 디지털 증거의 무결성을 지키기 위해서는 Mac 운영체제의 포렌식 작업을 수행하는 분석가는 Windows/Linux 계열과는 다른 Mac 운영체제만의 특성을 파악하고 이해하고 있어야 한다.</p> <h2>3.1 장치 중재 데몬 시스템 (Disk Arbitration)</h2> <p>Mac OS X에서는 사용자 컴퓨터상에 새롭게 마운트, 언마운트가 이루어지는 저장장치나 미디어 관련 또는 파일시스템 상에서 변화되는 상황에 대해서 실시간으로 감시/제어하고 이에 대한 사항을 운영체제에 통보하기 위한 장치 중재 데몬이 있다. Mac OS X에서는 사용자가 일일이 직접 새로운 하드웨어나 저장장치를 추가하기 위해 마운트, 언 마운트를 실행해야 할 필요가 없이, 장치 중재 데몬에 의한 장치 관리가 자동으로 이루어진다. 포렌식 분석을 수행하기 위해 USB, CD와 같은 매체를 대상 컴퓨터에 장착시켰을 경우 장치 중재 데몬 시스템에 의해 지정된 파티션 지점에 장치가 마운트 된다. 이러한 장치의 변경 사항은 현재 운영체제에서 동작중인 모든 프로세스에 통보가 되고, 최종적으로 조사가 진행 중인 도중에 대상 하드 디스크 드라이브에 변화를 일으켜 버린다. 이러한 사항은 디지털 포렌식 분석에 있어서 최고 우선시 되고 있으며, 가장 중요한 사항인 증거의 무결성을 헤칠 수 있는 요소가 된다. Mac OS X에 대한 활성시스템 조사 및 하드 디스크 드라이브 이미지 복사를 수행하기 위해서는 조사대상 컴퓨터의 '/usr/ sbin/diskarbitrationd' 서비스를 중지시켜야 한다.</p>
|
Mac OS X 디지털 포렌식 분석을 위해 MacMarshal과 같은 도구가 개발, 판매되고 있으나, 사용자 행동을 파악하기 위한 중요 정보를 획득하기 어렵다. 본 논문에서는 Mac OS X 시스템 상의 사용자 행위를 파악하기 위한 정보를 효과적으로 수집하는 방법을 제시하고자 한다. 이를 위해서는 Mac 운영체제가 가지는 고유한 특성을 파악하고 있어야 하는데, 활성시스템을 조사하고 하드 디스크 드라이브 이미지 복사를 위해서는 컴퓨터의 '/usr/sbin/diskarbitrationd' 서비스를 중지시켜야 한다.
|
<h3>4.10.2 Yahoo Messenger</h3> <p>야후 메신저는 인터넷 포털 사이트 Yahoo에서 개발하여 사용자에게 제공하고 있는 인터넷 메신저 프로그램이다. 야후 메신저는 MS Windows, Mac OS X 환경에서 구동될 수 있도록 제작되었으며, 사용자는 야후 메신저를 통해 다른사람과 인터넷 메시지를 주고받을 수 있다.</p> <p>야후 메신저를 활용해 다른 사람과 대화를 나눈 사용자는 자신의 대화 내역을 저장할 수 있다. 'User/[User ID]/Library/Application Support/Yahoo! Messenger/Logs/[User ID]' 디렉터리의 .ychat 파일에서 메신저 사용자가 저장시킨 상대방과의 대화내역을 얻을 수 있다. .ychat 파일의 'NS.string' 태그에 상대방과 주고받은 대화기록이 저장되어 있으며, 대화상대와 메시지를 주고받은 시간에 관한 정보는 'NSTimeInterval'값으로 'NS.time' 태그에 저장되어 있다.</p> <h2>4.11 캐시 데이터</h2> <p>Mac OS X에서 구동되는 데몬과 프로그램은 'System/Library/Caches' 디렉터리의 하위 폴더에 자신만의 캐시 데이터 공간을 할당 받는다. 캐시 디렉터리에는 다양한 프로그램이 남긴 캐시 데이터들이 저장되어 있으며, 이러한 정보들은 중요한 디지털 증거로서 활용될 수 있다. 기본적으로 Mac OS X에서 지정한 SQLite 포맷으로 프로그램 자신의 다양한 캐시 정보를 기록하고 있으며, 각 프로그램마다 추가적으로 사용하는 특정 데이터 포맷으로 캐시 정보가 저장되어 있다.</p> <p>기본 SQLite 데이터베이스 포맷으로 저장되어 있는 캐시 데이터 가운데에서 위젯 캐시 파일은 현재 위젯에 등록되어 있는 프로그램이 접속했던 아이피 주소, 위젯 프로그램이 그동안 받아보고 있던 정보가 저장되어 있다. 사파리 웹 브라우저 캐시 파일에는 그동안 사용자가 방문했던 사이트에 대한 기록이 있다.</p> <h2>4.12 Virtual Memory (가상 메모리)</h2> <p>보다 효율적인 운영체제의 메모리 관리를 위해 Mac OS X는 가상 메모리 기법과 캐시 메모리 방식을 사용하고 있다. 가상 메모리 방식은 컴퓨터의 물리적인 RAM 영역의 공간이 부족한 상황이 발생할 경우, 운영체제 상에서 하드 디스크의 일부분을 실제 메모리 영역과 같이 Page In/Page Out 하여 활용하는 기법을 말한다. 운영체제에서 할당한 가상 메모리 영역은 '/var/vm/' 폴더의 'swapfile0' 이름을 가진 파일 형태로, 하드 디스크 상의 일부분에 할당되어 있다.</p> <p>가상 메모리 영역으로 사용되고 있는 '\var/vm/swapfile0' 파일에 보내진 RAM 메모리 데이터는 운영체제가 재부팅이 수행되는 과정에서도 사라지지 않고 남아있게 된다. 'swapfile0' 파일에서 운영체제를 사용했던 사용자가 본 문서의 문자열과 키보드를 타이핑 했던 정보, 이미지 파일과 사용자 ID/Password 정보와 같은 포렌식 분석에 있어 중요한 데이터를 추출할 수 있다.</p>
|
야후 메신저는 MS Windows, Mac OS X 환경에서 구동하며, 사용자는 이를 이용해 사람들과 인터넷 메시지를 주고받을 수 있다. 다양한 프로그램이 남긴 캐시 데이터들은 캐시 디렉터리에 저장되며, 중요한 디지털 증거로서 이 정보들을 활용할 수 있다. 가상 메모리 기법은 컴퓨터의 물리적인 RAM 영역 공간이 부족해지면 운영체제에서 하드 디스크 일부분을 실제 메모리 영역처럼 Page In/Page Out 하여 활용하는 방법이다.
|
<h1>1. 서 론</h1> <p>Mac OS X는 10.0 버전의 Cheetah를 시작으로 하여, 최근에는 Snow Leopard(1.6)가 개발되어 사용자에게 배포되고 있다. Mac OS 시스템은 Darwin 커닐 위에 OpenGL 기반의 그래픽 계층이 존재하머 상위에 Cocoa, Carbon과 같은 기술을 활용한 애플리케이션 계층과 Aqua GUI 환경을 제공한다.</p> <p>전통적으로 Mac 운영체제는 전자출판, 디자인, 멀티미디어 부문 등에서 높은 시장 점유율을 차지하고 있었다. 현재의 Mac 운영체제는 랩톱 컴퓨터 Mac Book, 데스크톱 컴퓨터 iMac을 비롯한 iPod, iPhone, iPad와 같은 휴대용 모바일 기기에 이르기까지 광범위하게 탑재되어 전 세계적으로 많은 사람들에 의해서 이용되고 있다. 기존의 전자출판, 디자인과 같은 미디어를 포함한 Mac OS에 대한 활용성이 일반 개인 사용자에게도 사용률이 점차 증가하고 있다.</p> <p>Mac OS X를 사용하는 일반 컴퓨터 사용자가 증가함에 따라 Mac OS X를 조사할 가능성이 높아지고 있다. 실제로, "The New York State Computer Crime Unit"의 자료에 의하면 전체 컴퓨터 범죄 수사 중에 만나게 되는 대상 시스템 중에 약 \(5\sim 10{\%} \)가 Mac OS X임을 확인할 수 있다. 그러나 최근까지 운영체제에 대한 포렌식 분석기법연구 등은 MS Windows 또는 Linux 계열의 OS 위주로 이루어져 왔다.</p> <p>기존의 MS 계열 운영체제 위주로 연구가 진행되어 오던 디지털 포렌식 분석 기법으로는 MS의 운영체제와는 전혀 다른 원리와 구조를 가진 Mac OS X를 조사하는 것은 어렵다. 본 논문에서는 Apple Mac OS X Leopard(10,5)와 최근에 출시된 Snow Leopard(10.6) 운영체제에서 중요 증거가 될 수 있는 사용자 흔적 정보 수집에 관한 방안을 제시한다.</p> <h1>2. 관련 연구</h1> <p>Mac 운영체제에 대한 디지털 포렌식 분석 기법 분석의 필요성이 요구되면서 기초적으로 Mac OS X를 분석하는데 있어서 사전에 준비해야 할 항목과 시스템에 대한 포렌식 절차와 기법에 관한 기초적인 사항에 대해서 Phlip Craiger가 서술했다. Phlip Craiger가 제시한 기본적인 Mac OS X 분석을 위해 필요한 준비사항과 절차를 바탕으로 Mac OS X 시스템에 대한 디지털 포렌식 분석에 있어 필요한 점검 사항과 분석대상으로 삼아야 할 시스템상의 중요 항목에 대해서 Robert A. Joyce, Nick Peelman이 언급했다. 이와 같은 Mac OS X포렌식 연구에서 Mac 운영 체제의 디지털 포렌식 분석을 위해서 필요한 검사항목과 조사해야 할 사항에 대해서 제시가 되었다.</p>
|
Mac OS X의 활용성이 개인 사용자에게 점차 인기를 얻고 있음에 따라, 디지털 포렌식 분석 기법에 대한 필요성이 증가하였다. 본문은 이에 따라 Mac OS X에 대한 디지털 포렌식 절차 및 기법을 탐색하는데 필요한 사전 준비 사항을 Phlip Craiger가 설명한 것에 대해 다룬다.
|
<p>'/User/[User ID]/Library/Preferences/loginwindow.plist' 파일은 Mac OS X에 등록된 사용자가 운영체제의 데스크톱 환경에 로그인 한 후 실행되는 프로그램 목록과 각 항목의 전체경로를 저장하고 있다. 프로그램 목록의 'AliasData' 태그에는 Base64로 인코딩 되어 있다.</p> <p>'/System/Library/LaunchAgents/', '/System/Library/LaunchDemons/' 디렉터리에는 Mac OS X가 부팅되면서 실행되는 각종 시스템 운영을 위해 필요한 서비스가 포함되어 있다. 운영체제에서 제공하는 기본 서비스 이외의 서비스를 'User/[User ID]/Library/LaunchAgents/ 디렉터리에 추가적으로 등록할 수 있다.</p> <p>각 'LaunchAgents', 'LaunchDemons' 디렉터리는 시작 프로그램과 관련된 정보를 담고 있는 .plist 파일을 저장하고 있다. 각 .plist 파일의 'Label' 태그는 현재 시스템에 등록되어 있는 시작 서비스 프로그램의 파일명이며, 'ProgramArguments' 태그는 실행파일이 가진 전체 디렉터리 경로를 가리키고 있다.</p> <h2>4.4 프로그램 사용 기록</h2> <p>Mac에서 구동되는 프로그램은 자신이 동작하는 동안에 발생한 여러 상황과 오류에 대해서 기록을 남긴다. 운영체제에서 실행되었던 프로그램의 구동 기록은 '/private/var/log 폴더의 system.log에 각 상황이 발생한 시간 정보와 프로그램 동작 중 발생한 사항이 저장된다.</p> <p>system.log 파일에서 특정 프로그램의 실행 여부와 동작한 시간, 동작 과정에 발생한 여러 다양한 상황에 관한 정보를 획득할 수 있다.</p> <h2>4.5 프린터 출력 정보</h2> <p>Mac 운영체제에서 제공하는 프린터 인쇄 기능(Common Unix Printing System)을 활용하여 자신이 원하고자 하는 문서 또는 이미지와 같은 파일을 출력할 수 있다. 기록되어 있는 프린터 인쇄 기록에서 사용자가 특정 문서를 언제 어떤 프린터 장치를 이용해서 무슨 파일명의 문서를 출력했는지를 알아낼 수 있다.</p> <p>파일 출력에 관한 기록은 '/private/var/spool/cups' 디렉터리에 출럭했던 문서별로 저장 되어있다. '/private/var/ spool/cups' 폴더에 저장되어 있는 프린터 출력 기록을 토대로 프린터 장치를 사용해 문서를 출력한 사용자의 ID, 출력한 파일의 이름, 인쇄 시각을 알아낼 수 있다.</p> <h2>4.6 외부 저장매체 사용내역</h2> <p>Mac 운영체제의 사용자는 자신의 iMac 데스크톱에 기본으로 장착되어 있는 하드 디스크 드라이브와는 별도로 외부 저장매체를 활용할 수 있다. Mac OS X는 사용자가 추가한 외부 저장매체에 대한 포맷, 마운트, 언 마운트, CD/DVD 데이터 복사 등의 여러 기능을 제공하고 있다.</p> <p>현재 iMac 데스크톱에 어떠한 형태의 저장매체가 부착되었는가와 해당 매체에 대해서 마운트/언 마운트 행위부터 포맷, 파티션 생성에 관한 작업 기록을 파악해야 한다. 이러한 정보를 바탕으로 사용자의 iMac 데스크톱에 부착되어 있는 하드 디스크 드라이브 이외에 사건과 관련된 중요한 디지털 증거가 저장되어 있을 수 있는 외부 저장매체가 무엇인지 알아낼 수 있다.</p>
|
'Mac OS X'의 사용자 로그인 이후 실행되는 프로그램 목록과 그 경로는 '/User/[User ID]/Library/Preferences/loginwindow. plist'에 저장됨. 프로그램의 작동 기록은 '/private/var/log 폴더의 system. log'에, 파일 출력 기록은 '/private/var/spool/cups' 디렉터리에 저장됨. 이 정보를 활용하여 iMac 데스크톱의 외부 저장매체에서 중요한 디지털 증거를 찾아낼 수 있음.
|
<h2>3.2 Property List</h2> <p>Apple 계열의 운영체제는 시스템 운영에 필요한 설정, 관련 옵션, 프로그램/서비스 로그, 파일 속성 정보와 같은 다양한 데이터를 Property List 파일에 저장한다. Property List 파일은 다양한 형태의 정보를 객체화 시켜 저장하고 있는 직렬화 파일로서 확장자명을 .plist를 사용한다. .plist파일은 Apple에서 자체적으로 정의한 DTD(Document Type Declaration)를 사용하는 XML (Extensible Markup Language) 포맷을 기반으로 하고 있다. Mac OS X에서 동작하는 어플리케이션은 .plist 파일에 XML형태의 Foundation class/Core Foundation Type을 활용하여, 새롭게 데이터를 추가하거나 수정/삭제한다. 각 class, type에서 지정한 XML 태그와 저장되어 있는 데이터의 형태는<표 1>과 같다.</p> <h2>3.3 기본 디렉터리 구조</h2> <p>초기 Mac 운영체제는 Unix 기반으로 하였기 때문에, 동일한 디렉터리 구조와 파일명을 그대로 사용하는 경우도 있으나, 최근 배포되고 있는 Mac OS X의 경우에는 Unix 운영체제와 다른 디렉터리 구조를 가지고 있다. 시스템을 운영하기 위해 필요한 설정파일과 시스템이 기본적으로 기록하는 로그파일은/Library 폴더에 기록이 된다. 각 어플리케이션이 사용하는 각종 설정과 옵션이 기록된 파일과 로그는 /Users/[User ID]/Library 폴더에 저장되어 있다.</p> <p>시스템은 별다른 옵션을 주지 않는 이상 새롭게 추가되는 각 사용자가 이용하게 될 디렉터리를/Users의 하위 폴더에 생성한다. 운영체제에 등록된 사용자와 그룹에게 할당되어 있는 디렉터리와 쉘, 유저 아이콘에 대한 정보는/private/var/db/dslocal/nodes/Default 폴더(<표 2>)에 기록된다.</p> <h2>3.4 운영 체제 버전</h2> <p>Mac OS X 시리즈의 운영체제는 각 버전마다 가지고 있는 OS의 특성에 따라 파일과 위치가 서로 제각각 이다. 이러한 운영체제 버전 상의 차이점에도 독립적인 포렌식 작업을 수행하기 위해서는 현재 iMac 데스크 탑 컴퓨터에 설치되어 있는 Mac 운영체제의 버전을 알아낸 후, 그에 해당하는 Mac OS X의 버전에 알맞은 적합한 포렌식 분석 기법을 선정해야 한다.</p> <p>'/System/Library/CoreServices' 폴더에 속해 있는 'System-Version.plist' 파일(그림 2)은 현재 사용자 컴퓨터에 인스톨되어 있는 Mac OS X의 메이저 버전과 좀 더 자세한 운영체제의 빌드 버전에 관한 정보를 담고 있다.</p> <h1>4. Mac OS X 운영체제의 사용자 흔적 정보 수집 방안</h1> <h2>4.1 컴퓨터 부팅/종료 및 사용자 로그인 시각</h2> <p>컴퓨터의 부팅/종료 시각은 실질적으로 사용자가 보유한 iMac 데스크톱이 사용되었던 시간대를 알려주는 중요 데이터다. iMac 데스크톱이 시작해서 종료된 시간정보를 바탕으로 특정 시각에 컴퓨터의 구동 여부에 대해서 판단할 수 있다. Mac 운영체제가 설치되어 있는 컴퓨터의 부팅/종료/사용자 로그인 시각은 '/private/var/log/ 폴더의 secure.log에 기록되어 있다.</p>
|
Apple 계열의 운영체제는 다양한 데이터를 Property List 파일에 XML 포맷의 Foundation class/Core Foundation Type으로 저장하고, Mac OS X에서 동작하는 어플리케이션은 .plist 파일에 새롭게 데이터를 추가하거나 수정/삭제한다. /Library 폴더에는 시스템을 운영에 필요한 설정파일과 로그파일이 저장되고, /Users/[User ID]/Library 폴더에는 각 어플리케이션이 사용하는 각종 설정과 로그가 저장된다. 현재 사용자 컴퓨터에 설치된 Mac OS X의 버전 정보는 System-Version.plist파일에 저장한다.
|
<p>최근 사용 항목은 크게 2가지 카테고리로 분류된다. 하나는 각종 실행 파일을 포함하는 응용프로그램 카테고리이며, 또 하나는 일반 문서에서부터 이미지 동영상 등 다양한 포맷 형태의 파일을 포함하는 도큐먼트 카테고리이다. 사용자가 최근에 실행시키거나 열람해본 응용프로그램/도큐먼트 카테고리의 다양한 파일 항목에 관한 정보는 'com.apple.recentitems.plist' 파일에서 얻을 수 있다.</p> <p>'com.apple.recentitems.plist'의 'Name' 태그에는 최근 열어본 각 퐈일 항목의 파일명이 저장되어 있으며, 'Alias' 태그는 파일 항목의 전체 경로를 가리키고 있는 문자열 값을 Base64로 인코딩 하여 저장하고 있다.</p> <p>최근 사용 폴더는 기본적으로 사용자가 최근에 열람해 본 폴더를 기록하고 있으며, 추가적으로 컴퓨터에 연결한 외부 저장장치의 폴더 정보와 사용자가 등록한 NetBIOS/FTP와 같은 원격 공유 폴더의 경로를 포함하고 있다. 이런 식으로, 사용자가 최근에 열어본 폴더 또는 컴퓨터에 연결한 CD 드라이브/USB를 장치를 비롯한 외부 원격 공유 폴더에 관한 정보는 'com.apple.finder.plist' 파일에서 얻을 수 있다.</p> <p>'com.apple.finder.plist'의 'Name' 태그에는 최근 사용자가 열람한 운영체제의 폴더를 비롯한 원격공유폴더/외부저장장치 디렉터리 폴더명이 기록되어 있으며, '_CFURLAliasData' 태그는 사용자가 열어본 디렉터리의 전체 경로를 가리키고 있는 문자열 값을 Base64로 인코딩 하여 저장하고 있다.</p> <p>'com.apple.quicktimeplayer.plist'에서 퀵타임 플레이어를 통해 재생시킨 각종 미디어 파일의 목록을 얻을 수 있다. 'dataRef' 태그는 최근 사용자가 시청한 음악파일과 동영상 파일의 전체 경로가 Base64 형태로 기록되어 있으며, 'name' 태그는 직접적으로 사용자가 재생시킨 파일명이 저장되어 있다.</p> <p>'com.apple.TextEdit.LSSharedFileList.plist'에는 사용자가 Text Edit 프로그램을 사용하여 문석 작업을 했던 문서 파일 목록을 기록되어 있다. 'Bookmark' 태그에는 최근 사용자가 새로 작성했거나 기존에 존재하던 문서 파일에 대한 전체 경로를 Base64 형태로 저장하고 있으며, 'Name' 태그에는 문서 파일의 실질적인 파일명이 적혀 있다.</p> <h2>4.10 인터넷 메신저 정보</h2> <h3>4.10.1 iChat Messenger</h3> <p>다른 사람과 인터넷 메시지를 주고받을 수 있는 클라이언트 프로그램으로서 Mac OS는 기본적으로 사용자에게 iChat 메신저 프로그램을 제공하고 있다. User는 iChat 프로그램을 활용하여 AIM, Jabber의 메신저 클라이언트로서 사용할 수 있다.</p> <p>iChat을 통해 다른 사람과 대화를 나눈 사용자가 자신이 상대방과 주고받은 메시지를 저장 했을 경우, 대화내역은 '/User/[User ID]/Documents/' 폴더의 '.ichat' 파일에 저장된다. .ichat 파일의 'NS.string' 태그에 저장되어 있는 값으로 부터 상대방과 주고받은 메시지를 확인할 수 있다. 상대방과 메시지를 주고받은 시간에 관한 정보는 NSTimeInterval 값으로 'NS.time' 태그에 저장되어 있다.</p>
|
Mac OS는 기본적으로 사용자에게 iChat 메신저 프로그램을 제공하고, AIM, Jabber 등의 메신저 클라이언트로 사용할 수 있다. 사용자가 최근 사용한 응용프로그램 도큐먼트, 폴더, 미디어 파일 등의 정보는 com apple recentitems plist 이 있고, iChat을 통해 저정하면 /User/[User ID]/Documents/ 폴더 내 ichat 파일에 저장이 된다.
|
<p>사용자에 의해 외부 저장 드라이브, USB 그 밖의 미디어 매체에 수행한 마운트, 언 마운트, 포맷 그리고 CD/DVD 데이터 복사 등과 관련된 작업을 '/Users/reaper91/Library/Logs/' 폴더의 'DiskUtility.log', 'DiscRecording.log' 파일에 기록한다.</p> <p>'DiskUtility.log', 'DiscRecording.log' 기록되어 있는 로그 목록에서 운영체제에 등록된 사용자가 최근에 저장매체에 수행한 다양한 작업에 관한 것을 알아 낼 수 있다. 로그 파일에 저장되어 있는 데이터를 바탕으로 외부 저장장치의 장착 여부를 알 수 있다. 또한 CD 생성 작업 역시 알 수 있다.</p> <h2>4.7 E-Mail</h2> <p>E-Mail 메시지는 사용자가 용의자로 의심할 수 있는 다른 사람과 교환한 범죄 관련 중요 데이터를 포함 함고 있을 수 있다. Mac OS X에서 사용자에게 기본으로 제공하는 E-Mail 클라이언트 프로그램에서 사용자가 그동안 다른 사용자와 주고받은 메일을 획득할 수 있다.</p> <p>Mac 운영체제의 E-Mail 클라이언트 프로그램에서 수신한 메일은 각 계정 별로 '/Users/[User ID]/Library/Mail/[계정명]/INBOX.mbox/Messages/' 폴더에 수신된 메일별로 저장되며, 메일 데이터는 emlx 포맷 구조로 이루어져 있다. emlx 포맷 구조의 이메일은 보낸 시간에 관한 정보가 저장되어 있으며, From 항목에서 이메일을 보낸 대상서버와 사용자 계정에 관한 정보를 알아낼 수 있다. To 항목에서 메일을 받아본 사람이 누구인지 확인할 수 있으며, 실제 메일 내용은 Base64로 인코딩 되어 있다.</p> <h2>4.8 웹 브라우저 사용 내역</h2> <p>Safari는 처음 Mac 운영체제를 설치하면 기본으로 제공되는 웹 브라우저 프로그램이다. 사용자는 웹 브라우저를 활용하여 다양한 웹 사이트에서 정보를 알아낼 수 있으며, 임의의 데이터를 받아볼 수 있다. Mac 운영체제 상에서 Safari를 활용하여 임의의 여러 웹 사이트를 방문한 사용자의 최근 웹 사이트 방문내역, 다운로드 받은 파일과, 즐겨찾기 목록을 확인해야 한다. 접속한 웹 페이지에서 볼 수 있는 정보와 평소 자주 방문하는 사이트에 대한 즐겨찾기 목록에서 사용자가 사이트에 자주 접속하여 알아보고자 했던 중요 데이터를 획득할 수 있다.</p> <p>운영체제에 등록된 각 사용자의 사파리 웹 브라우저 사용내역은 '/Users/[User ID]/Library/Safari/' 디렉터리에 저장되어 있는 .plist 파일(<표 4>)에서 확인할 수 있다. 각 .plist 파일에서 최근에 방문한 사이트 목록, 사용자의 즐겨찾기 목록과 최근 다운로드 받은 파일목록에 관한 정보를 얻을 수 있다.</p> <p>사파리 웹 브라우저는 사용자가 자주 방문하는 웹 페이지를 즐겨찾기 이외에 별도로 Top Sites에 등록할 수 있다. Top Sites는 웹 브라우저의 새 윈도우 생성/새 탭을 생성 하게될 경우 나타나게 되는 기본 페이지로서, 사용자는 Top Sites에 등록되어 있는 사이트를 접속할 수 있다.</p>
|
'DiskUtility. log', 'DiscRecording. log'의 로그 목록을 통해 Mac 운영체제에서 사용자가 최근에 저장 매체에서 수행한 작업에 대한 정보를 파악할 수 있다. 이러한 사용자의 E-Mail 클라이언트 프로그램은 수신 메일을 '/Users/[User ID]/Library/Mail/[계정명]/INBOX. mbox/Messages/' 경로에 메일 당 한 개씩 emlx 형식으로 저장한다. 또한, 사용자의 사파리 웹 브라우저 사용 기록은 '/Users/[User ID]/Library/Safari/' 디렉터리에 있는 .plist 파일에서 확인할 수 있다.
|
<p>secure.log 파일에 운영체제가 부팅되면서 제일 먼저 시작하는 com.apple.SecurityServer 서비스가 구동된 시간정보로부터 컴퓨터의 전원이 켜진 시각(그림 3)을 확인할 수 있으며, 특정 사용자에 의해 컴퓨터가 종료된 시간정보(그림 4)는 secure.log에 기록되어 있는 shutdown 작업이 시작된 시각으로 부터 얻을 수 있다.</p> <p>사용자가 컴퓨터에 접근한 로그인 시각은 2가지 형태로 나뉘어 기록된다. 로컬에서 로그인하여 거치는 인증방식은 SecurityAgent에 의해 이루어지며, 원격 사용자에 의한 접근은 telnet, ssh 등의 프로토콜에 의해 처리된다. 해당 서비스의 사용자 인증 기록을 secure.log에서 확인함으로써 로그인 시각을 알 수 있다.</p> <h2>4.2 하드 디스크 드라이브/네트워크 상태 정보</h2> <p>iMac 데스크톱은 기본적으로 하나의 단일 하드 디스크 드라이브와 유무선 네트워크 장비 그리고 블루투스와 FireWire와 같은 통신 장비를 탑재하고 있다. 사용자는 데스크톱에 새롭게 하드 디스크 드라이브를 추가/ 교체하고 자신만의 파티션으로 나누어 사용할 수 있으며, iMac의 네트워크 장비에 의해 인터넷 사용을 비롯한 각종 네트워크 통신 작업을 수행할 수 있다.</p> <p>컴퓨터에 부착되어 있는 하드 디스크 드라이브와 네트워크 장비에 대한 사용기록은 '/private/var/log/' 폴더의 daily.out/weekly.out 각 파일에 하루/일주일 단위로 나뉘어 저장된다. 'daily.out/weekly.out' 파일에서 사용자가 지정한 파티션으로 마운트 했던 하드 디스크 드라이브와 네트워크 장비의 활성화 상태, 할당한 MAC/IP 주소에 대한 변경 내역을 확인할 수 있다.</p> <p>이러한 정보를 기반으로 하드 디스크 드라이브의 파티션을 변경하거나 새롭게 추가했었던 사항과 전체크기, 사용량 변화, 네트워크 장비를 교체한 행위, 할당된 MAC/IP 주소의 변화를 추적할 수 있다.</p> <h2>4.3 자동 실행 프로그램</h2> <p>운영체제가 사용하는 프로세스를 제외하고 Mac OS 시스템의 사용자는 자신만의 프로세스 또는 어플리케이션을 별도로 시작 프로세스와 데몬으로 추가할 수 있다. 시스템에 등록된 사용자가 추가시킨 프로세스에는 특정 시스템으로의 자동 연결 기능 또는 악의적인 의도로 제작된 어플리케이션이나 스크립트 등이 있는데, Mac OS X 운영체제가 부팅해서 가동되기 시작하면서 부터 실행되는 프로세스와 데몬에 관한 정보는<표 3>과 같이 총 6곳의 파일과 디렉터리에 포함되어 있다. 시스템의 시작 프로그램에 관한 정보를 얻을 수 있다.</p> <p>'/System/Library/StartupItems/', '/Library/StartupItems/' 디렉터리에는 Mac OS X의 부팅이 이루어지고 사용자 로그인이 완료된 후에 실행이 되는 파일이 포함되어 있다.</p> <p>각 폴더는 실행되어야 할 프로그램의 실제 실행 파일과 'StartupPrameters.plist'라는 이름을 가진 파일을 포함하고 있다. 각 실행 프로그램명의 폴더에 속한 'StartupPrameters.plist' 파일에는 시작 프로그램의 초기 설정 또는 옵션을 지정하는 여러 가지 인자 값이 담겨있다.</p>
|
사용자가 컴퓨터에 접근한 로그인 시각은 2가지 형태로 나뉘어 기록되는데, 로컬에서 로그인하여 거치는 인증방식은 SecurityAgent로, 원격 사용자에 의한 접근은 프로토콜에 의해 처리된다. HDD와 네트워크 장비에 대한 사용기록은 특정 파일에 일정 단위로 저장된다. 사용자로 인해 추가된 프로세스에는 특정 시스템에 자동으로 연결해주는 기능이나 나쁜 의도로 제작된 어플리케이션, 스크립트 등이 있는데, Mac OS X 운영체제가 부팅해서 가동되기 시작하면서 부터 실행되는 프로세스와 데몬에 관한 정보는<표 3>과 같이 총 6곳의 파일과 디렉터리에 포함되어 있다.
|
<h1>패치 기반 대기강도 추정 알고리즘의 하드웨어 설계</h1> <h2>요약</h2> <h3>Ⅰ. 서론</h3> <p>영상처리 기술은 우리가 사용하는 기기 및 실생활에 널리 이용되며, 그 중에서 안개 제거 분야는 4차 산업의 핵심 기술인 자율주행 및 지능형 \( \mathrm { CCTV } \) 등 컴표터 비전에 기반한 기술에 중요한 역할을 담당한다. 안개 제거 기술은 10 년 동안 영상신호처리 분야에서 활발허 연구되어 왔으며, 최근에는 머신러닝 및 덥러넝 기술을 통한 안개 제거 기술도 활발히 연구되고 있다. 이러한 안개 제거 기술에서 특히 대기강도 추정 방법이 중요하다. 대표적인 대기강도 추정 방법으로는 \( \mathrm { He } \) 의 \( \mathrm { DCP } ( \mathrm { DarkChannel Prior } \)) 방법을 예로 들 수 있다. DCP방법은 안개가 없는 부분의 픽셀값들은 RGB 3 채널 중에서 적어도 한 채널의 명도 값이 매우 낮은 경향을 보이는데 입각한 기술로써, 대기강도 추정 시 입력 영상의 밝기 값 중 상위 \( 0.1 \% \) 안의 픽셀을 추정한다. 이러한 DCP 방법은 실내 영상에서의 안개 제거는 효과적이지만, 하늘 지역을 포함한 실외영상에서는 안개 제거 시 어두워지는 단점이 있다. 실내 영상의 경우 안개특성이 일관적이지만, 실외 영상의 경우 자연적인 영향 때문에 여러 가지 안개특성을 지닌다. DCP 방 법에서 \( 0.1 \% \) 의 상수 값은 실외의 여러 가지 안개 조건을 적응적으로 감지할 수 없기 때문에 안개 제거에 한계가 있다. 다음으로 널리 사용되는 방법으로는 Kim이 제안한 쿼드트리(Quad Tree)에 기반한 대기 강도 추정 방식이다. 쿼드트리 방법은 입력 영상을 네 개의 블록으로 분할하고, 각 블록의 푁셀의 밝기 평균값을 계산하여 대소비교 후 가장 큰 밝기 평균값의 블록을 선택한다. 선택된 블록을 다시 네 개로 분할하여 미리 실정한 임계값까지 연산을 반복한다. 쿼드트리 방식은 여러 가지 입력 영상에 따라 적응적으로 안개 탐지를 할 수 있다는 장점이 있다. 하지만 네 개의 분할된 평균값을 저장하기 위해 프레임 메 모리를 사용해야하는 점에서 하드웨어 설계로는 적합하지 않고, 카메라로 촬영되는 안개 영상들은 대부분 영상 상단에 안개가 포착된다는 점에서 불필요하게 영상의 하단까지 연산할 경우 연산량이 많아지는 단점이 발생한다.</p> <p>본 논문에서는 단일 영상 안개 제거를 위한 패치기반 대기강도 추정 하드웨어용 알고리즘 개발과 국제 표준 \( 4 \mathrm { ~K } (4096 \times 2160) \) 영상에 실시간 대응할 수 있는 하드웨어 실계를 구현하며, 카메라 특성에 따라 안개가 포착되는 영상 상단만 연산하여 대기 강도를 추정함으로써 하드웨어 크기를 줄인 구조를 제안한다</p>
|
본 논문에서는 안개 제거 기술의 핵심 기술인 대기강도 추정 방법인 DCP 방법과 Kim이 제안한 쿼드트리 방법의 한계를 극복하기 위해, 패치 기반 대기강도 추정 알고리즘의 하드웨어 설계를 구현하여 국제 표준 4K 영상에 실시간 대응할 수 있는 하드웨어 실계를 제안하고 있다. 또한 카메라 특성에 따라 안개가 포착되는 영상 상단만 연산하여 대기 강도를 추정함으로써 하드웨어 크기를 줄인 구조를 제안하고 있다.
|
<p>본 논문의 구성은 다음과 같다. 팡에서는 패치기반의 대기 강포 추성 알고리즘에 대해 설명하고, 국제 표준 \( 4 \mathrm { ~K } \) 영상에 대응할 수 있는 하드웨어 구조와 \( \mathrm { FPGA } \) 구현을 위한 XILINX 합성 결과를 제시한다. 마지막으로 Ⅲ장에서는 제안하는 방법의 결론에 대해 서술하여 본 논문을 마무리한다.</p> <h2>Ⅱ. 본론</h2> <p>대부분의 안개 제거 방법들은 대부분의 안개 제거 방법들은 수식 1 과 같이 안개 제거 모델링에 기반한다.</p> <p>\( I(x, y) = J(x, y) t(x, y) + A(1-t(x, y)) \)<caption>(1)</caption></p> <p>\( \mathrm { I } \) 는 입력영상, \( \mathrm { t } \) 는 전달량, \( \mathrm { x } \) 와 \( \mathrm { y } \) 는 영상 내의 \( \mathrm { x } \)축, \( \mathrm { y } \) 축을 나타내고, \( \mathrm { A } \) 는 대기강포, \( \mathrm { J } \) 는 안개가 제거된 결과 영상이다. 본 논문에서는 안개 제거를 위해 \( \mathrm { A } \) (대기강도)를 추정하는 방법을 제시한다.</p> <h3>1. 패치 기반 대기강도 추정 알고리즘</h3> <p>그림 1은 제안하는 방법의 블록도이다. 먼저 입력영상에 패치를 적용하기 전에 패치에 관련된 파라미터들을 설정한다. 패치의 파라미터로는 패치의 가로(p_width), 세로(p_height) 길이와 \( \mathrm { x } \) 축, \( \mathrm { y } \) 축의 패치간 거리(x_jump, \( \mathrm { y } _ {\text { jump } } \) ), 패치의 시작점(x,y) 등이 있다. 패치의 가로는 \( 32,64,128,256 \) 세로는 \( 16,32,64,128 \) 로 2 의 승수로 구성되며, 입력 영상에 크기에 따라 사용자가 직접 설정할 수 있다. 파라미터가 설정되면 수식2, 3에 따라 패치의 개수가 정해진다. \( \mathrm { n } \) 은 패치의 개수, \( \mathrm { k } \) 는 행의 개수이다.</p> <p>\( x + p_ { - } \)width * \( n + x_ { - } j u m p ^ { * } (n-1) \leq \) width</p>
|
다수의 안개 제거 방법은 안개 제거 모델링에 수식 1을 바탕으로 한다. 이때 패치의 파라미터는 가로와 세로의 길이, \( \mathrm { x } \) 축과 \( \mathrm { y } \) 축의 패치간 거리, 그리고 패치의 시작점 등이 포함된다. 그리고 이러한 값들은 주어진 수식을 만족해야 한다.
|
<p>따라서 향후에는 IT비용의 투자 대비 효과 극대화를 위해 준비기간을 단축시키는 방안을 모색하는 것도 매우 중요한 신차세대시스템 구축의 기본 목표가 될 것으로 유추해 볼 수 잇다.</p> <p>둘째, 우리나라 코어벵킹 모델(솔루션)의 라이프사이클은 약 \(11 \) 년의 주기를 갖고 있다.</p> <p>코어뱅킹 모델의 라이프사이클은 현재까지의 수명기간 \(9.4 \)년과 향후 지속예상 기간 \(5.4 \)년을 합한 \(14.8 \)년으로 추정되었다. 또한 이미 소멸된 모델들의 라이프사이클과도 일치함을 알 수가 있다.</p> <p>그러나 현재 적용중인 모델 \(10 \)개중 장기간 적왕중인 \( \mathrm { A } \), \( \mathrm { B } \) 군의 모델 \(3 \)개를 제외한 \(7 \)개 모델의 라이프사이클은 현재까지 적용기간 \(5.6 \) 년과 향후 지속예상 기간 \(6 \) 년을 합한 \(11.6 \) 년으로 추정되었다. 이러한 결과는 우리나라 금융 IT 시스템의 라이프사이클 \(10 \) 년과 거의 일치한다고 볼 수가 있다.</p> <p>금용IT 시스템과 코어뱅킹 모델의 라이프사이클은 반드시 일치해야 할 필요는 없다. 왜냐하면 금용 IT 시스템의 라이프사이클 추정치는 개별 금융회사들이 운영하는 IT 시스템의 라이프사이클 자료로 분석한 것이 아니기 때문이다. 그럼에도 불구하고 라이프사이클 기간이 개략적으로 일치하는 것은 우리나라 금융회사들은 IT시스템 게편작업시 코어뱅킹 모델까지도 전면 개편하는 빅뱅방식을 주로 채텐하고 있음을 반증한다.</p> <p>셋째, 코어벵킹 모델 제조회사의 지속적인 성능향상과 신기능 확대 노력이 라이프사이클을 연장시키고 금융기관의 신뢰를 확보하였다.</p> <p>아시아, 유럽 은행에서 다수 적용되고 있던 BANCS 모델은 다양한 은행들로부터 얻어진 공통적인 표준 기능을 파라미터 드리븐 방식의 테이블로 함축시킨 패키지를 확보하였으며, 이후에도 더욱 강력한 우월성을 확보하기 위한 노력을 지속적으로 수행하였다. 특히 우리나라의 경우 BANCS 모델 적용 은행들이 모두 피합병되어 적용 사례가 없는 상황에서도 약 \(5년 동안 끈질긴 노력을 통해 재기할 수 있었다는 사실 등은 우리나라 개발업체와 관계자들이 타산지석으로 삼아야 한다.</p>\)<p>넷째, 코어벵킹 모델의 선정은 객관적인 벤치마킹 과정을 통해 진행되어야 한다.</p> <p>향후 진행둴 차기 IT시스템의 코어뱅킹 모델의 발전 기저를 제시하기 위한 수단으로 BANCS 모델의 장기간 라이프사이클 지속 요인을 추적하였다.</p> <p>과거 대부분 은행들이 사용하던 IBM Mainframe에서 적용되었던 모델은 일본 BM이 일본의 득정은행과 함께 공동 개발했던 CAP이라는 모델이다. 이후 \(1993 \)년 IBM 아시아 태평양지역 본부에서 당시에 여러 나라에서 사용하던 \(7 \)개의 주요 모델들을 대상으로 벤치마킹을 실시하고, \(18 \) 개 항목에 대한 평가결과 BANCS가 가장 우수한 모델로 선정되었고 이의 결과를 재검증하기 위해 당시 Ernst & Young 컨설팅 회사에 구체직인 분석작업 컨설팅을 의뢰하는 평가과정이 진행되었다.</p>
|
둘째, 한국의 코어뱅킹 모델의 라이프사이클은 약 11년 주기를 갖고 있음에도 불구하고 라이프사이클 기간이 일치하는 것은 금융회사들의 IT시스템 개편작업시 빅뱅방식을 채택하기 때문이다. 셋째, 코어뱅킹 모델 제조회사의 성능향상과 신기능 확대 노력이 라이프사이클을 연장시키고 금융기관의 신뢰를 확보하였다. 넷째, 코어뱅킹 모델 선정은 객관적인 벤치마킹 과정을 통해 진행되어야 하는데, 차기 IT시스템의 코어뱅킹 모델의 발전 기저를 제시하기 위해 BANCS 모델의 장기간 라이프사이클 지속 요인을 추적하였다.
|
<p>지금까지 우리나라에 적용된 코어뱅킹 모델 10 개의 라이프사이클을 \( \mathrm { A } , \mathrm { B } , \mathrm { C } \) 간 군별 가중치를 감안하여 분석해 본 결과 \(14.8 \)년으로 추정되었다. 이는 도입기부터 성장기 까지 우리나라 은행 대부분이 사용헸던 모델, 즉 TCS, CAP, Coreframe 등 \(3 \)개 모두 약 \(15 \) 년의 라이프사이클을 가졌었다는 사실과 비교해볼 때도 검증결과가 일치함을 알 수가 있 는데, Coreframe은 관점에 따라 코어뱅킹 모델보다는 프레 임워크로 분류하여 제외시킬 수도 있다.</p> <p>여기에서 가장 주목할 사실은 BANCS 모델은 라이프사이클이 현재까지 \(25 \) 년을 포함하여 향후 예상 \(8 \)년을 합쳐 무려 \(33 \) 년에 이르고 있다는 것이다.</p> <p>IT 기술의 발전이 급속히 진행되는 최신 IT기술을 선재 적용하는 금용IT 분야에서 업무처리 지원용 소프트웨어의 라이프사이클이 \(30 \) 년 이상 지속되고 있는 사실은 획기적인 사실이다.</p> <h1>6. 결 론</h1> <h2>6.1 연구 결과</h2> <p>금융산업과 IT는 매우 민감한 관계이며 금용IT 분야는 IT산업 전체 규모의 약 \( 25 \% \) 를 차지하고 있음에도 불구하고 아직까지 관련 분야의 연구가 부족하였고 체계적으로 정리된 사실이 없던 중, 본 연구를 통해 몇 가지 중요한 결론과 함께 향후 금융기관에게 주는 시사점들을 발견하였다.</p> <p>이에 저자는 지금까지 입증된 사실들과 역추적 과정을 통해 습득한 교훈을 통해 조만간 가시화될 차기 IT시스템 구축 및 코어뱅킹 모델의 중장기적 발전전락 수립을 위해 몇 가지 결론과 함께 방향을 제시한다.</p> <p>첫째, 우리나라 금융IT 시스템의 라이프사이클은 약 \(10 \) 년 주기를 갖고 있다.</p> <p>\(1970 \) 년대 초부터 \(2011 \) 년 현재까지 금융 IT 관점에서 주요 팩트와 정책적인 지표, 은행권 전략과 실적 등을 정리한 내용을 보면 우리나라 은행권의 IT시스템 라이프사이클은 \(10 \) 년을 주기로 큰 변화를 보이고 있다. 이러한 주기는 은행권이 금융산업 분야에서 선도적 입지를 갖고 있어 증권, 보험, 카드 등 타 금융권에도 영향을 미치므로 적어도 우리나라에서는 전반전인 금용IT 시스템의 라이프사이클로 판단하더라도 문제가 없다.</p> <p>\(10 \) 년의 기간은 금융권의 일반적인 행태로 볼 때, 계획수립전 조율기간 \(1 \)년, 기본계힉 수립 기간 \(1 \) 년, 계획확정 및 본격 추진을 위한 준비기간 \(1 \) 년, 개발기간 \(2 \) 년, 시스템 운영 기간 \(10 \) 년으로 구분해 볼 수 있는뎨, 조율, 수립, 준비, 개발 기간 5 년은 운영기간 10 년 중에 진행되는 작업으로써 중첩되는 기간이다. 즉 새로운 시스템 구축을 위해 무려 5년의 준비기간이 항상 소요된다는 뜻이다.</p>
|
본 논문에서 \(10 \) 년의 기간은 금융권의 일반적인 행태로 볼 때, 계획수립전 조율기간 \(1 \)년, 기본계힉 수립 기간 \(1 \) 년, 계획확정 및 본격 추진을 위한 준비기간 \(1 \) 년, 개발기간 \(2 \) 년, 시스템 운영 기간 \(10 \) 년으로 구분해 볼 수 있는뎨, 조율, 수립, 준비, 개발 기간 5 년은 운영기간 10 년 중에 진행되는 작업으로써 중첩되는 기간이으로, 결국 새로운 시스템 구축을 위해 무려 5년의 준비기간이 항상 필요하다고 사료된다.
|
<p>아울러 금융산업은 타 분야보다도 IT 의존도가 높은 이유로 인해 IT비용 투자에 대한 개넘이 비교적 관대한 측면이 있어 하드웨어, 각종 소프트웨어, 통신망, 다양한 채널 확대에 경쟁적인 투자가 진행되어 왔으나, \(2010 \)년대 부터는 내부 역량강화를 위한 프로세스 개선 등 조직 전반의 효율화, 그린IT, 스마트, 컨버젼스, 클라우드 등 지능사회 진입에 대비한 다양한 전략을 검토하면서 일부 금융기관들은 본격적인 컨설팅 작업에 착수하고 있다.</p> <h1>4. 코어뱅킹 모델의 사례별 비교분석</h1> <h2>4.1 코어뱅킹 모델 현황</h2> <p>지금까지 국내 은햄에서 사용 내지는 검토되었던 코어뱅킹 모델의 종류는<표 \(7 \)>과 같으며, 이외에도 구체적인 자료가 미비하고 추진실적이 확인되지 않은 모델 그리고 제 \(2 \)금융귄(보험, 증귄, 카드 등)에서 사용되는 모델들은 분석 대상에서 제외하였다.</p> <h2>4.2 코어뱅킹 모델 분석</h2> <p>금용IT 발전단계별 코어뱅킹 모델수, 제조국가, 과거 적용 은행수, 현재 적용 은행수를 분석해보면 다음<표 \(8 \)>과 같다. 확장기인 \(2000 \)년대에 \(8 \)개 국가로 부터 \(13 \)개의 모델이 국내에 소개 또는 제안되어 코어뱅킹 모델 전성시대를 이루었으며 우리나라 금융IT 발전이 역동적으로 진행되었음을 의미하며, 이 시기에 우리나라 최초로 베트남에 금용IT를 수출하는 등 본격적인 금융IT의 글로벌화가 시작되었다.</p> <p>현재 우리나라 은행권에 적용되고 있는 코어뱅킹 모델중 \(1990 \)년대 모델이 \(7 \)개 은행, \(2000 \)년대 모델이 \(13 \)개 은행, \(2010 \)년대 모델이 \(1 \)개 은행에서 사용되어지고 있다.</p> <p>이와 같이 우리나라에는 지금까지 \(30 \) 개의 코어뱅킹 모델이 알려져 있으며 이를 제조국별로 분석하면<표 \(9 \)>에서 보듯이 한국 모델이 총 \(12 \) 개로 \( 40 \% \) 를 차지하였다. 북미 \(7 \) 개 모델중 소개만 되었던 캐나다 \(1 \)개 모델을 제외하면 \(6 \)개 모델이 모두 미국 모델로서 우리나라 전산화의 도입기부터 성장기 중반까지만 적용되었으며, 현재 이를 적용하고 있는 은행들이 새로운 모델을 검토중이므로 몇 년 이후에는 모두 소멸될 곳으로 예측된다. 아울러 유럽 \(5 \)개 모델중 실제 적용되고 있는 모델은 \(1 \) 개이며, 일본과 아시아 모델도 현제 적용사례가 없다.</p> <p>결과적으로 현재 우리나라에 적용되고 있는 대부분의 모델들은 호주의 BANCS 모델과 한국에서 개발된 모델이며, 우리나라 금용IT 기술력이 \(2000 \)년대 확장기를 통해 급속히 발전하고 있음을 반증한다.</p> <caption> <표 \(7 \)>은행 코어뱅킹 모델 현황</caption> <tbody><tr><td>저품명</td><td>공급회사 *</td><td>제조국*</td><td>적용년도*</td><td>기종*</td></tr><tr><td>SYSTEMATICS</td><td>ALTEL</td><td>미국</td><td>\(1975 \)</td><td>IBM</td></tr><tr><td>SYNERGY</td><td>CDSL</td><td>캐나다</td><td>\(1975 \)</td><td>NCR</td></tr><tr><td>TCS</td><td>한국IBM</td><td>미국</td><td>\(1977 \)</td><td>IBM</td></tr><tr><td>Coreframe</td><td>UNISYS</td><td>미국</td><td>\(1979 \)</td><td>UNISYS</td></tr><tr><td>HOGAN</td><td>CSC</td><td>미국</td><td>\(1980 \)</td><td>IBM</td></tr><tr><td>Reiance \(2000 \)</td><td>M&1</td><td>미국</td><td>\(1980 \)</td><td>NCR</td></tr><tr><td>RFS</td><td>PAXUS</td><td>호주</td><td>\(1982 \)</td><td>NCR,IBM</td></tr><tr><td>CAP</td><td>한국IBM</td><td>일본</td><td>\(1985 \)</td><td>IBM</td></tr><tr><td>BANCS</td><td>호주FNS</td><td>호주</td><td>\(1986 \)</td><td>NCR,IBM</td></tr><tr><td>BANCS-K</td><td>큐로컴</td><td>한국</td><td>\(1993 \)</td><td>UNIX,IBM</td></tr><tr><td>NEWTON</td><td>IMS시스템</td><td>한국</td><td>\(1995 \)</td><td>NCR,UNIX</td></tr><tr><td>기타(분산)</td><td>자체</td><td>한국</td><td>\(1995 \)</td><td>UNIX</td></tr><tr><td>RB \(2020 \)</td><td>한국IBM</td><td>동남아</td><td>\(1995 \)</td><td>IBM</td></tr><tr><td>Carebank</td><td>한국IBM</td><td>덴마크</td><td>\(1997 \)</td><td>IBM</td></tr><tr><td>e-BANK</td><td>한국IBM</td><td>한국</td><td>\(2000 \)</td><td>IBM</td></tr><tr><td>COINS</td><td>현대경보기술</td><td>한국</td><td>\(2000 \)</td><td>UNIX</td></tr><tr><td>BankingWeb21</td><td>NJFS</td><td>일본</td><td>\(2000 \)</td><td>IBM</td></tr><tr><td>Corebanking</td><td>SAP</td><td>독일</td><td>\(2000 \)</td><td>IBM</td></tr><tr><td>Sanchez</td><td>FIDELITY</td><td>영국</td><td>\(2000 \)</td><td>IBM</td></tr><tr><td>알타미라</td><td>엑센츄어</td><td>스페인</td><td>\(2002 \)</td><td>IBM</td></tr><tr><td>Flexcube</td><td>오라클</td><td>인도</td><td>\(2002 \)</td><td>UNIX,IBM</td></tr><tr><td>기타(CBD)</td><td>SKC&C</td><td>한국</td><td>\(2003 \)</td><td>UNIX</td></tr><tr><td>GLOBUS</td><td>티메노스</td><td>그리스</td><td>\(2004 \)</td><td>IBM</td></tr><tr><td>기타</td><td>자체</td><td>미국</td><td>\(2005 \)</td><td>IBM</td></tr><tr><td>ProBark</td><td>티맥스소프트</td><td>한국</td><td>\(2006 \)</td><td>UNIX</td></tr><tr><td>KoreBank</td><td>현대정보기술</td><td>한국</td><td>\(2009 \)</td><td>UNIX</td></tr><tr><td>ProFrame</td><td>티맥스소프트</td><td>한국</td><td>\(2006 \)</td><td>UNIX</td></tr><tr><td>넥스코어</td><td>SKC&C</td><td>한국</td><td>\(2010 \)</td><td>UNIX</td></tr><tr><td>시스테미어</td><td>삼청SDS</td><td>한국</td><td>\(2011 \)</td><td>IBM</td></tr><tr><td>데본-C</td><td>LGCNS</td><td>한국</td><td>\(2011 \)</td><td>UNIX</td></tr></tbody></table>
|
금융산업은 IT 의존도가 높아 통신망, 하드웨어, 소프트웨어, 다양한 채널 확대에 많은 투자가 진행되고 있다. 2010년대부터는 내부 역량강화를 위한 프로세스 개선 등 조직 전반의 효율화, 그린IT, 스마트, 컨버젼스, 클라우드 등 지능사회 진입에 대비한 다양한 전략을 검토하고 있으며, 금융 IT 발전단계별 코어뱅킹 모델수, 제조국가, 과거 적용 은행수, 현재 적용 은행수를 분석해 보면 다음과 같다. 우리나라에는 지금까지 30개의 코어뱅킹 모델이 알려져 있으며 이를 제조국별로 분석하면 한국 모델이 총 12개로 \( 40 \% \)를 차지하였으며, 결과적으로 현재 우리나라에 적용되고 있는 대부분의 모델들은 호주의 BANCS 모델과 한국에서 개발된 모델이며, 우리나라 금용IT 기술력이 \(2000 \)년대 확장기를 통해 급속히 발전하고 있음을 알 수 있다.
|
<h2>3.2 금융IT 모델의 발전과정 분석</h2> <p>우리나라 금융IT 발전 과정에서 추진되었던 중요 정책과 주요 펙트들을 조사 분석한 후 이를 본 연구 관점에 따라<표 \(6 \)>으로 정리하고 평가하였다.</p> <p>세계적으로 금융산업의 기조는 영국을 중심으로 한 유럽식 모델과 이를 변형시켜 발전시킨 미국식 모델로 구분된다. 따라서 금융IT 분야도 이러한 흐름과 발전과정의 맥을 같이 하고 있으며, 우리나라는 유럽식 모델을 받아들여 변형시킨 일본의 금융산업 모델을 근간으로 \(1990 \)년대까지 발전시켜 나갔다.</p> <p>그러나 이후에 최신 IT기술을 적극적으로 수용하고 주서버를 IBM Mainframe을 주로 사용함에 따라 자연스럽게 일본의 금융IT 기술을 따라잡았고 미국, 유럽 등 선진국의 금융산업 모델을 벤치마킹하면서 금융IT 기술은 어느 정도 대등한 위치에 있다고 평가할 수가 있다.</p> <p>\(1980 \)년대 중반 종합온라인 시대를 거치면서 \(10 \)년 정도로 예측하던 금융IT 시스템의 라이프사이클이 도래하면서 새로운 모델의 코어뱅킹 모델을 찾게 되었는데, 전 세계적으로 당시에 개방형 시스템의 보급이 활발히 이루어짐에 따라, 그동안 주서버 공급업체가 제안하는 모델이외의 선택의 폭이 극히 제한적이었던 은행들은 본격적으로 다양한 모델을 검토하게 되었다.</p> <p>이러한 움직임은 우리나라 금융IT 기술 발전에 획기적인 계기가 되었으며 비로소 본격적인 차세대 시스템 시대로 진입하였다. 그러나 시스템의 안정성을 가장 중요시하는 은행권은 계속 관망적인 자세를 가져오던 중, 국산 컴퓨터 및 소프트웨어 개발을 추구하던 정보통신부(현 지식경제부)가 우체국금융시스템을 대상으로 국산 컴퓨터 및 국산 소프트웨어 사용을 전제로 한 우체국금융지역분산시스템 구축 사업을 진행하면서 본격화 되었다.</p> <p>우체국금융시스템은 당시에 예금, 보험업무를 전국 약 \(2,800 \)개 우체국에서 일일 약 \(2 \)백만건의 거래를 처리하는 큰 규모로 IBM Mainframe을 사용하고 있었는데, 새로운 시스템은 주서버를 UNIX 서버로 교체하고 지역별로 서버를 분산 배치시키는 계획으로서 세계적으로도 유래가 없는 고난도의 사업이었다. 따라서 사업자가 중간에 바뀌는 우여곡절 끝에 국내 최초로 IBM Mainframe을 UNIX 서버로 교체시킨 첫 사례로 회의적인 시각을 갖고 있던 금융권에 새로운 가능성을 보여주면서 다른 은행들이 IBM Mainframe을 UNLX 서버로 교체하는 기폭제가 되었다.</p> <p>이후 차세대 시스템 구축을 통해 여러 은행들이 IBM Mainframe을 UNIX 서버로 교체하였으며, 아울러 코어뱅킹 모델도 다양한 제품들이 검토 내지는 채택되기 시작하였다. 또한 \(2000 \)년대 부터는 IT업무의 기술적, 인력적 한계로 인해 외부 전문업체의 도움을 받게 되었고 이로 인해 우리나라 금융 IT 산업은 질적 양적인 측면에서 급속히 발전하게 되어 금융IT 기술을 한 차원 업그레이드 시키는 계기가 되었고, \(1990 \)년대에 완성되어 사용중인 IT시스템의 라이프싸이클 도래에 따른 차세대 시스템 개발과 금융보안 기술의 중요성이 부각되기 시작하였다.</p>
|
우리나라의 금융IT 분야는 1990년대까지 일본의 금융산업 모델을 기반으로 발전하였으며, 이후 IBM Mainframe 주서버의 도입과 함께 선진국의 금융IT 기술을 적극 수용하였다. 은행권의 안정성 중심적 관망 태도는 정보통신부(지식경제부)가 우체국금융시스템 구축을 추진하면서 국산 컴퓨터와 소프트웨어 사용이 확산되는 계기를 만들었다. 이에 따라 다수의 은행들은 IBM Mainframe을 UNIX 서버로 교체하고, 코어뱅킹 모델도 다양한 제품들이 검토 및 채택되기 시작하였다.
|
<p>소멸된 모델들은 \(1 \) 개 모델당 평균 \(4.7 \)개 은행에서 적용되었던 반면에 현재 적용중인 모델들은 \(1 \)개 모델당 평균 \(2 \)개 은행에만 적용되어지고 있다. 이러한 현상은 \(1990 \) 년대 까지는 금융IT 환경이 열악하고 기술력이나 금융산업이 본격적인 괘도에 진입하기 이전이므로 외국계 공급회사(제조회사)의 제시 모델을 그대로 적용할 수 밖에 없었던 상황과 일치한다. 이후 본격적인 성장기에 접어들면서 \(2000 \) 년대에 다양한 모델이 국산화되기 시작했고 은행의 글로벌 경쟁력 확보 등을 위한 다변화 차원에서 외국계 모델들도 경쟁적으로 도입되었다는 것을 보여준다.</p> <p>또한 소멸, 적용, 접목중인 \(18 \) 개 모델과 \(52 \) 개 적용 은행을 구체적인 모델별로 분석해보면<표 \(11 \)>과 같다.</p> <h1>5. 코어뱅킹 모델의 방향설정을 위한 분석결과</h1> <h2>5.1 코어뱅킹 모델별 라이프사이클</h2> <p> <표 \(12 \)>는 우리나라 은행에 이미 적용된(소멸 포함) 코어빙킹 모델의 라이프사이클을 정리한 것이다.</p> <p>Coreframe 모델은 도표상에 라이프사이클이 \(30 \)년으로 표시되어 있는데 이는 특정 서버(UNISYS)에서만 적용된 모델로써 고유한 코어뱅킹 모델이라기 보다는 일반적인 Middleware 성격의 Platform에 가까우므로 본 연구대상으로써의 특별한 의미를 갖지 않는다. TCS 모델은 오래전부터 북미에서 광범위하게 적용되던 모델로써 우리나라 최초 적용시점은 \(1977 \) 년 이지만 본 연구의 취지에 따라 라이프사이클 적용 시점을 \(1970 \) 년으로 가정한다.</p> <p>CAP 모델은 일본IBM과 일본의 한 은행이 공동으로 개발한 모델로 일본내 모든 IBM Mainframe 사용 은행은 물론 \(1980 \)년대 부터 \(2000 \)년대 초까지 우리나라에서 IBM Mainframe을 사용하던 모든 은행들이 적용하던 모델로서, 우리나라 금용IT 기술발전에 많은 역할을 담당하였으며, \(1990 \)년대에 CAP-I, CAP-A 버전까지 발전되었다가 소멸되었고 이후에는 IBM이 자체 코어벵킹 모델을 제시하지 못하면서 은행들은 다양한 코어뱅킹 모델의 시연장이 되었으며 사례를 보면<표 \(13 \)>과 같다.</p> <caption> <표 \(13 \)>IBM 사용은행의 코어뱅킹 모델 다변화</caption> <tbody><tr><td rowspan=2>구 분</td><td colspan=2>\(1970 \)년대~ \(1990 \)년대</td><td colspan=2>\(2000 \)년대</td></tr><tr><td>최초 서버</td><td>교체 서버</td><td>최초 모델</td><td>교체 모델</td></tr><tr><td>국민</td><td>IBM M/F</td><td>IBM M/F</td><td>CAP</td><td>e-Bank</td></tr><tr><td>우리</td><td>IBM M/F</td><td>IBM M/F</td><td>CAP</td><td>알타미라</td></tr><tr><td>기업</td><td>IBM M/F</td><td>IBM M/F</td><td>CAP</td><td>GLOBUS</td></tr><tr><td>외환</td><td>IBM M/F</td><td>IBM Unix</td><td>CAP</td><td>BANCS</td></tr><tr><td>우체국</td><td>IBM M/F</td><td>HP Unix</td><td>-</td><td>CONS</td></tr></tbody></table>
|
Coreframe 모델은 특정 서버에만 적용되는 모델이며, Middleware 성격의 Platform에 가까워 특별한 의미를 가지지 않는다. TCS 모델은 북미에서 널리 적용되었으며, 우리나라에서는 1977년에 최초로 적용되었다. CAP 모델은 일본IBM과 일본의 한 은행이 공동 개발한 모델로, 일본 및 우리나라의 모든 IBM Mainframe 사용 은행에서 적용되었다. 이 모델은 우리나라 금융 IT 기술 발전에 큰 역할을 하였다. 이후, 2000년대에 들어서는 다양한 모델이 국산화되고, 은행의 글로벌 경쟁력 확보를 위해 다양한 외국 모델들이 도입되었다.
|
<p>IBM은 1997년에 최대 25개 은행에 Mainframe형 주서버를 공급하였으나 이후 점차 축소되어 2011년에는 13개 은행에 주서버를 공급함으로써 대략 1년에 1개 은행씩 기종을 철수하는 상황이 발생하였고, 13개 은행 중에서도 5~6개 기종은 유닉스형 오픈 서버로 교체됨으로써, 대용량 안정성을 최우선으로 하는 Mainframe형 서버가 적어도 우리나라 금융시장에서는 상당히 위축되어 있음을 알 수가 있다. 이의 주된 원인은 IBM의 대고객 서비스 정책이 오랜기간 동안 사용 은행들의 불만을 증대시켰고, 가장 핵심적인 문제는 바로 2000년대 은행들의 대고객 서비스 향상 전략을 이끌어줄 수 있는 차세대 코어뱅킹 모델을 명확하게 제시하지 못했다는 점이다. 이후로 국내외의 많은 코어뱅킹 솔루션 전문기업들이 다양한 모델들을 제시하는 출발점이 되었다.</p> <p>UNISYS는 처음부터 별도의 코어뱅킹 모델을 활용하지 않았으며 1990년대 이후에도 코어뱅킹 모델을 제시하지 못하였고, 결국 2011년에 우리나라 시장에서 완전히 철수하였다.</p> <p>반면에 1990년 후반부터 개방형 시스템이 시장에서 본격적으로 도입되고 UNIX 기종의 대표주자인 HP 서버가 대용량처리 가능성을 보여주면서 부터 본격적으로 운용되기 시작하여 평균 2년에 1개 은행씩 신규 은행을 확보하여 2011년에 7개 은행의 주서버로 운용되고 있다.</p> <h1>3. 금융IT 발전과 코어뱅킹 모델의 분류</h1> <h2>3.1 현행 코어뱅킹 모델의 분류</h2> <p>코어뱅킹 모델은 금융기관 중에서 주로 은행의 IT시스템에 적용되는 업무처리용 공통프로그램의 집합체를 의미한다. 그러나 모델 중에는 은행뿐만 아니라 다른 업종의 금융기관도 사용할 수 있는 모델도 많이 개발되고 있다. 반면에 코어뱅킹 모델로 개발되어 있지 않고 다양한 응용시스템을 체계적으로 개발할 수 있도록 아키텍쳐를 제공해주는 개념 구조를 프레임워크라고 한다.</p> <p>따라서 코어뱅킹 모델은 다수의 은행들에 의해 재사용이 될 가능성이 어느 정도 인지를 놓고 평가하게 되는 반면, 프레임워크는 비슷한 업무형태를 갖는 다른 금융기관이 없을 경우 주로 사용하게 되며, 코어뱅킹 모델은 통상 은행, 증권, 보험 회사 그룹으로 특화된 모델로 활용하게 된다.</p> <p>이러한 기준에 따라 코어뱅킹 모델 또는 프레임워크의 적용여부와 적용가능성 차원에서<ol type=1 start=1><li>은행 코어뱅킹 모델</li> <li>증권/보험 코어 모델</li> <li>금융 프레임워크</li> <li>기타 모델</li></ol>등으로 적용대상을 구분하면<표 5>와 같다.</p> <p>이를 분석해보면 코어뱅킹 모델 적용대상 19개, 증권/보험 코어 모델 대상 117개, 금융 프레임워크 대상 24개, 기타 모델 대상 112개 기관으로 나타났다. 대상 기관수만 보면 은행 코어뱅킹 모델 적용대상은 가장 적지만 조직의 방대함, 업무처리 규모, 국가산업 분야에서의 중요도, IT시스템의 용량, 적용기술 수준 등에서 가장 비중있게 다룰 가치가 있다고 하겠다. 따라서 본 연구의 범위는 은행 그룹에서 활용하는 코어뱅킹 모델을 대상으로 한다.</p> <caption> <표 5>코어뱅킹 모델 분류</caption> <table border><tbody><tr><td>분류 기준</td><td>기관 종류</td><td>기관수</td><td>코어모델/프레임워크 적용대상</td></tr><tr><td rowspan=5>은행</td><td>한국은행</td><td>1 </td><td>□</td></tr><tr><td>시중은행</td><td>7</td><td>O</td></tr><tr><td>지방은행</td><td>6 </td><td>O</td></tr><tr><td>특수은행</td><td>5</td><td>O</td></tr><tr><td>저축은행</td><td>105 </td><td>△</td></tr><tr><td rowspan=2>금융투자업자</td><td>증권회사</td><td>39 </td><td>◇</td></tr><tr><td>운용사</td><td>38</td><td>◇</td></tr><tr><td rowspan=2>보험회사</td><td>생명보험회사</td><td>22</td><td>◇</td></tr><tr><td>손해보험회사</td><td>18 </td><td>◇</td></tr><tr><td rowspan=6>기타관련기관</td><td>카드사</td><td>6 </td><td>□</td></tr><tr><td>우체국금융</td><td>1 </td><td>O</td></tr><tr><td>기금</td><td>2</td><td>□</td></tr><tr><td>은행관련기관</td><td>2</td><td>□</td></tr><tr><td>증권관련기관</td><td>5 </td><td>□</td></tr><tr><td>보험관련기관</td><td>4</td><td>□</td></tr><tr><td>저축기관중앙회</td><td></td><td>4</td><td>□</td></tr><tr><td>외국은행국내지점</td><td></td><td>7</td><td>△</td></tr><tr><td>합계</td><td></td><td>272</td><td></td></tr></tbody></table>
|
Mainframe형 주서버는 대고객 서비스 향상 전략을 이끌어줄 수 있는 차세대 코어뱅킹 모델을 명확하게 제시하지 못하고 있어 사용 은행들의 불만이 커지고 있다. 따라서 본 논문에서는 은행 그룹에서 활용하는 코어뱅킹 모델을 대상으로 연구한다. 코어뱅킹 모델은 은행의 IT시스템에 적용되는 업무처리용 공통프로그램의 집합체를 의미하며, 프레임워크는 다양한 응용시스템을 체계적으로 개발할 수 있도록 아키텍쳐를 제공해주는 개념 구조를 의미한다. 코어뱅킹 모델 또는 프레임워크의 적용여부와 적용가능성 차원에서 적용대상은 은행 코어뱅킹 모델, 증권/보험 코어 모델, 금융 프레임워크, 기타모델로 구분할 수 있다.
|
<p>시스템의 성능을 평가하기 위해 RDB to RDF 변환 시간을 비교한다. 변환 시간은 매핑 파일을 작성하는 단계는 고려하지 않는다. Fig. 7는 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하는 시간에 대한 비교결과를 나타낸다. D2RQ, RDBToOnto, Morph, 제안 시스템을 이용하여 관계형 데이터베이스에 저장된 데이터를 RDF형태의 온톨로지로 변환하는 데 걸리는 시간을 튜플의 개수에 따라 측정하였다. Fig. 7은 제안 시스템이 다른 연구에 비해 가장 빠른 처리 시간을 갖는 것을 보인다. 따라서 제안 시스템은 데이터 변환시간에서 다른 연구에 비해 우수한 성능을 갖는 것을 보인다.</p> <h2>5.2 정성적 평가</h2> <p>5.1절에서는 제안 시스템과 기존의 연구들의 RDB to RDF 변환 시간과 데이터 변환 결과를 비교하였다. 이 절에서는 기존 연구와 제안 시스템의 정성적 평가를 통해 성능비교 평가를 수행한다. RDB to RDF 변환에 대한 기존 연구들과 제안 시스템의 비교 분석 결과는 Table 6에 나타낸다.</p> <p>매핑 생성 속도는 매핑 정보 생성시 소요되는 시간을 구분하기 위한 평가 요소이다. 매핑 정보생성 방식은 자동, 반자동, 수동방식으로 구분되며 자동 생성 방식이 가장 우수하다. 하지만 관계형 데이터베이스 스키마 정보만을 변환하는 단점을 가진다. D2RQ와 RDBToOnto는 매핑 정보를 자동으로 생성하는 반면 제안 시스템과 Morph는 매핑 정보를 수동으로 생성한다. 따라서 D2RQ와 RDBToOnto가 매핑 정보 생성에서는 우수한 성능을 보인다. 매핑 언어의 재사용성은 시스템 독립적인 매핑 언어 사용 여부를 보여주는 평가 요소이다. 시스템 종속적인 매핑 언어를 사용하면 매핑언어에 대한 이해가 필요하다. 따라서 시스템마다 다른 매핑 언어의 사용은 매핑 언어 사용의 재사용성을 떨어트린다. D2RQ와 RDBToOnto는 각각의 매핑 언어를 사용하며 Morph와 제안 시스템은 R2RML을 사용한다. 이와 같은 이유로 Morph와 제안 시스템은 매핑 언어의 재사용성이 높다. 매핑 언어의 접근성은 표준화된 매핑 언어 사용 여부를 보여주는 평가 요소이다. Morph와 제안 시스템은 표준화된 매핑 언어를 사용하여 매핑 언어의 접근성이 높다. 또한 표준화된 매핑 언어의 사용으로 매핑 언어에 학습에 들어가는 비용이 적다. 마지막으로 온톨로지 확장성은 변환 된 온톨로지에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 28 정보처리학회논문지/소프트웨어 및 데이터 공학 제3권 제1호(2014. 1)ModelSpeed ofMappingGenerationReusabilityof MappingInfoAccessibilityof MappingInfoExtensionofontologyD2RQ high middle middle highRDBToOnto high low low middleMorph middle high high lowProposedSystem middle high high highTable 6. A comparative view of RDB to RDF mapping model매핑 생성 속도는 매핑 정보 생성시 소요되는 시간을 구분하기 위한 평가 요소이다. 매핑 정보생성 방식은 자동, 반자동, 수동방식으로 구분되며 자동 생성 방식이 가장 우수하다. 하지만 관계형 데이터베이스 스키마 정보만을 변환하는 단점을 가진다. D2RQ와 RDBToOnto는 매핑 정보를 자동으로 생성하는 반면 제안 시스템과 Morph는 매핑 정보를수동으로 생성한다. 따라서 D2RQ와 RDBToOnto가 매핑 정보 생성에서는 우수한 성능을 보인다. 매핑 언어의 재사용성은 시스템 독립적인 매핑 언어 사용 여부를 보여주는 평가 요소이다. 시스템 종속적인 매핑 언어를 사용하면 매핑언어에 대한 이해가 필요하다. 따라서 시스템마다 다른 매핑 언어의 사용은 매핑 언어 사용의 재사용성을 떨어트린다. D2RQ와 RDBToOnto는 각각의 매핑 언어를 사용하며 Morph와 제안 시스템은 R2RML을 사용한다. 이와 같은 이유로 Morph와 제안 시스템은 매핑 언어의 재사용성이 높다. 매핑 언어의 접근성은 표준화된 매핑 언어 사용 여부를 보여주는 평가 요소이다. Morph와 제안 시스템은 표준화된 매핑 언어를 사용하여 매핑 언어의 접근성이 높다. 또한 표준화된 매핑 언어의 사용으로 매핑 언어에 학습에 들어가는 비용이 적다. 마지막으로 온톨로지 확장성은 변환 된 온톨로지에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 추가할 수 있는지 여부를 확인할 수 있는 평가요소이다. 제안 시스템은 매핑 정보를 수정하여 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계정보에 대한 온톨로지를 추가하는 장점을 가진다. 이는 D2RQ와 동일한 기능이며 Morph에서는 지원하지 않는 기능이다. 따라서 제안 시스템은 D2RQ와 같은 우수한 성능을 보이며 표준화된 매핑 언어 사용을 통해 높은 매핑 정보의 접근성과 재사용성을 가진다.</p>
|
제안 시스템은 빠른 처리 시간을 가진 것으로 나타나며, 매핑 정보 생성 방식은 자동 방식이 가장 우수하다. D2RQ와 RDBToOnto는 매핑 정보를 자동으로 생성하지만, 제안 시스템과 Morph는 수동으로 생성한다. 또한 제안 시스템은 D2RQ와 비슷한 성능을 보이면서 표준화된 매핑 언어를 사용함으로써 매핑 정보의 접근성과 재사용성을 향상시킨다.
|
<h2>2.2 D2RQ</h2> <p>D2RQ는 매핑을 이용하여 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하는 대표적인 연구이다. D2RQ는 자체적으로 개발한 매핑 언어를 사용한다. D2RQ의 매핑 언어는 D2R에서 얻은 경험을 토대로 생성되었다. 매핑 언어에 따라 관계형 데이터베이스에 접근하여 스키마 정보에 대한 매핑 정보를 자동으로 생성한다. 자동으로 생성된 매핑 정보는 관계형 데이터베이스의 기본적인 정보만 가지고 있다. 따라서 사용자는 기본 키(Primary Key)와 외래 키(Foreign Key) 및 조인 관계에 대한 정보를 추가로 입력한다. 입력된 정보를 사용하여 풍부한 의미를 표현하여 자동 생성의 한계를 극복한다. D2RQ 서버는 생성된 매핑 정보를 참고하여 관계형 데이터베이스의 데이터를 RDF 형태의 온톨로지로 변환한다. 변환된 데이터는 시스템의 메모리에 RDF 형태의 온톨로지로 생성된다. 이렇게 생성된 데이터는 SPARQL을 통해 검색할 수 있다. 또한 D2RQ는 매핑 정보를 참고하여 SPARQL을 SQL로 변환한다. 질의문의 변환에 의한 매핑 모델은 데이터의 최신성을 보장하며 추가적인 트리플 저장소가 필요하지 않은 장점이 있다. 하지만 D2RQ의 질의문 변환은 조인 관계를 매핑정보에 정의하지 않았을 때는 변환을 지원하지 않는다. D2RQ는 동일한 컬럼 명에 대한 URI를 테이블 별로 다르게 지정해야 한다. 따라서 두 개 이상 존재하는 동일한 컬럼명을 검색하는 SPARQL 질의문의 결과값이 하나의 컬럼 명에 대한 결과값을 갖는 문제점이 있다. 마지막으로 D2RQ는 표준화된 매핑 언어를 사용하지 않아 매핑 언어에 대한 재사용성과 접근성이 낮다. 이는 매핑 언어의 학습에 들어가는 비용을 높인다.</p> <h2>2.3 RDBToOnto</h2> <p>RDBToOnto는 관계형 데이터베이스에 저장된 데이터를 온톨로지로 변환하는 연구로서 TAO 프로젝트에서 진행 하였다. 데이터 변환 방식은 관계형 데이터베이스의 테이블 및 컬럼에 대한 스키마 정보만을 온톨로지로 변환한다. RDBToOnto는 관계형 데이터베이스에 저장된 데이터의 의미를 표현하기 위해 RTAXON 학습 방법을 이용하여 자동분류를 지원한다. RTAXON에 정의된 규칙에 따라 카테고리에 관련된 어휘를 가지고 있는 단어에 대해 subClassOf관계를 자동으로 지원한다. 추가적으로, RDBToOnto는 사용자 정의에 의한 제약 조건을 추가, 데이터 중복을 방지를 위한 정규화 기능, 편리한 UI를 제공한다. RDBToOnto는 정적 구현 방식으로 데이터의 최신성을 보장하지 않는다. 그리고 데이터 변환을 위해 추가적인 변환 시간이 필요하므로 대용량의 데이터 처리에는 적합하지 않다. RDBToOnto는 표준화된 매핑 언어를 사용하지 않는다. 또한 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 표현하기 위한 온톨로지로 추가하는 데는 제약을 가진다.</p>
|
본 논문에서는 D2RQ는 매핑 언어를 통해 관계형 데이터베이스에 접근하여 RDF 형태의 온톨로지로 변환하는 대표적인 연구라 설명한다. RDBToOnto는 TAO 프로젝트에서 진행한 관계형 데이터베이스를 온톨로지로 변환하는 연구로, RTAXON 학습 방법을 사용하여 자동분류를 지원하고 UI를 제공한다. 그러나 RDBToOnto는 정적 구현 방법이기에 데이터의 최신성을 보장하지 않는 단점이 있다.
|
<p>위와 같은 문제를 해결하기 위해 W3C에서는 표준화된 매핑 언어인 R2RML을 제안 하였다. Morph와 DB2Triple는 R2RML에서 정의한 매핑 규칙을 사용하여 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환한다. 하지만 R2RML은 관계형 데이터베이스의 스키마 정보만을 RDF 형태의 온톨로지로 변환한다. 따라서 외부에 존재하는 테이블 및 컬럼과 내부의 테이블 및 컬럼 사이의 관계 정보를 표현하지 않는다. 또한 외래 키(Foreign Key)로 정의되지 않은 테이블 사이의 관계 정보에 대해서도 정의하지 못하여 온톨로지를 확장하는데 제약이 따른다. 이러한 문제점은 테이블 명과 컬럼 명 사이의 관계 정보를 온토롤지로 표현하여 해결한다. 따라서 R2RML에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 표현하기 위한 매핑 규칙 정의와 확장이 필요하다.</p> <p>이러한 문제점을 개선하기 위해 이 논문은 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑시스템을 제안한다. 제안 시스템은 표준화된 매핑 언어인 R2RML을 사용하며 RDFS 속성 정보를 매핑 모델에 추가한다. 추가된 RDFS 속성 정보는 관계형 데이터베이스에 정의된 관계 정보를 표현한다. 제안 시스템은 최종적으로 RDF의 클래스 및 속성으로 변환된 온톨로지를 표현한다. 또한 변환된 온톨로지는 온톨로지 저장소에 저장되며 SPARQL 질의문을 통하여 온톨로지를 검색할 수 있다.</p> <p>이 논문의 구성은 다음과 같다. 제2장에서는 관계형 데이터베이스를 RDF 형태의 온톨로지로 변환하기 위한 RDB to RDF 변환에 관련된 연구 내용을 기술하며, 제3장에서는 제안 시스템의 구조를 설명한다. 제4장에서는 제안 시스템의 구현 환경 및 방법에 관하여 기술하며, 제5장에서는 제안 시스템 검증을 위한 실험 결과 및 기존 연구와의 비교평가를 보인다. 마지막으로 제6장에서는 결론에 관해 기술한다.</p> <h1>2. 관련 연구</h1> <p>이 장에서는 관계형 데이터베이스를 RDF 형태의 온톨로지로 변환하는 연구의 필요성과 방법에 대해서 기술한다. 또한 기존 연구에서 제안된 매핑 모델에 대해서 논하며R2RML을 매핑 언어로 사용하는 연구에 관해서 기술한다. 또한 기존 연구에서 제안된 매핑 모델에 대해서 논하며R2RML을 매핑 언어로 사용하는 연구에 관해서 기술한다.</p> <h2>2.1 RDB2RDF</h2> <p>기존의 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하기 위한 방식으로 관계형 데이터베이스의 구성요소와 RDF의 구성요소를 매핑 하는 연구가 이루어졌다. RDB2RDF는 관계형 데이터베이스의 테이블을 RDF의 클래스로 매핑 하며 컬럼 및 속성은 RDF의 속성으로 매핑 한다. 이러한 매핑 규칙에 따라 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환한다. RDB2RDF에서 매핑은 구현 방식에 따라 정적, 동적 구현으로 구분된다. 정적 구현 방식은 매핑 규칙을 사용하여 관계형 데이터베이스에 저장된 데이터를 RDF로 변환한다. 정적 구현 방식의 변환은 구현이 쉽지만, 변화가 많은 데이터에는 적합하지 않다는 문제를 가진다. 동적 구현 방식은 SPARQL 질의문을 SQL로 변환하는 방식을 통해 관계형 데이터베이스에 저장된 데이터를 검색한다. 이는 관계형 데이터베이스에 저장된 데이터를 실시간으로 얻어올 수 있으므로 데이터의 최신성을 보장한다. 하지만 동적 방식은 질의문의 완전한 변환이 어려우므로 질의 처리 성능이 떨어지는 문제를 가진다.</p>
|
R2RML에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 표현하기 위한 매핑 규칙 정의와 확장이 필요한데, 이를 위해 이 논문은 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑시스템을 제안한다. 여기서 RDB2RDF는 관계형 데이터베이스의 테이블을 RDF의 클래스로 매핑 하며 컬럼 및 속성은 RDF의 속성으로 매핑하는데, 구현 방식에 다라 정적, 동적 구현으로 구분된다.
|
<h1>요 약</h1> <p>시맨틱 웹의 확산을 위해 관계형 데이터베이스에 저장된 데이터를 온톨로지로 변환하는 연구가 활발히 진행 중이다. 관계형 데이터베이스에 저장된 데이터를 온톨로지로 변환하기 위한 연구들은 관계형 데이터베이스의 구성 요소와 RDF 구성 요소를 매핑하는 방식인 RDB to RDF 매핑 모델을 주로 사용한다. 하지만 지금까지 제안된 매핑 모델들은 그 표현방식이 서로 다르며, 이는 사용자의 접근성과 재사용성을 떨어트린다. 이로 인해 표준화된 매핑 언어의 필요성이 대두되었으며, W3C에서는 RDB to RDF 모델의 표준 매핑 언어로서 R2RML을 제안하였다. R2RML은 관계형 데이터베이스 스키마 정보만을 RDF로 변환하는 특징을 가진다. 이와 같은 이유로 관계형 데이터베이스의 테이블 명, 컬럼 명 사이의 관계정보에 대한 온톨로지를 추가할 수 없다. 이 논문에서는 이러한 문제를 해결하기 위해 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑 시스템을 제안한다. 제안 시스템은 R2RML에서 정의한 관계형 데이터베이스의 스키마 정보에 RDFS 속성 정보를 확장하여 매핑 정보를 생성한다. 이러한 매핑 정보는 관계형 데이터베이스에 저장된 데이터를 RDFS 속성 정보가 포함된 RDF로 변환시킨다. 이 논문에서는 제안 시스템을 자바 기반의 프로토타입으로 구현하며, 비교 평가를 위해 관계형 데이터베이스에 저장된 데이터를 RDF로 변환하는 실험을 수행하고 결과를 D2RQ, RDBToOnto, Morph와 비교한다. 제안 시스템은 다른 연구들에 비해 변환한 온톨로지가 풍부한 의미관계를 표현하며, 데이터 변환 시간에서 가장 우수한 성능을 보인다.</p> <h1>1. 서 론</h1> <p>웹 온톨로지 언어를 사용하는 시맨틱 웹의 영향으로 온톨로지의 사용이 증가하고 있다. 또한 이를 저장하고 관리하기 위한 온톨로지 저장소에 대한 연구가 진행되고 있다. 온톨로지 저장소는 RDF 형태의 그래프 모델을 표현하기 위한 데이터 구조를 가진다. 이러한 데이터 구조는 대부분 관계형 데이터베이스에 저장된 데이터 구조와 다르다. 이로 인해 시맨틱 웹에서는 관계형 데이터베이스 기반의 웹 페이지에 저장된 데이터를 검색할 수 없는 문제를 가진다. 하지만 위와 같은 문제로 인해 시맨틱 웹에서 기존 웹 페이지에 저장된 데이터를 사용하지 않는 것은 시맨틱 웹의 확산을 막는 다른 문제를 발생시킨다. 따라서 시맨틱 웹에서도 기존 웹 페이지에 저장된 데이터를 사용하는 방법에 대한 연구의 필요성이 증가하였다.</p> <p>이러한 연구들은 관계형 데이터베이스에 저장된 데이터를 온톨로지로 변환하는 방법에 대한 것이 대부분이다. 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하기 위해서는 주로 매핑 방식을 이용한다. 또한 매핑 규칙을 표현하기 위해 다양한 매핑 언어들도 제안되고있다. DB2OWL은 매핑을 구현하기 위하여 R2O 언어를 개발하였으며, D2RQ의 경우에는 자체적으로 정의한 언어를 사용한다. 하지만 다양한 매핑 언어의 사용은 매핑 언어에 대한 접근성과 재사용성을 떨어뜨린다.</p>
|
본 연구는 관계형 데이터베이스 요소의 의미 관계를 고려한 RDB to RDF 매핑 시스템을 제안하며, 이를 자바로 구현한 프로토타입을 통해 실험한다. 결과적으로, 제안 시스템은 RDF로의 변환 과정에서 의미관계를 잘 표현하고 데이터 변환 시간 역시 뛰어난 성능을 보인다. 또한, D2RQ, RDBToOnto, Morph와 같은 기존의 연구와 비교평가하였다.
|
<p>관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하는 연구의 필요성에 따라 많은 연구들이 진행되었다. D2RQ와 RDBToOnto는 RDB to RDF 매핑 모델을 사용하는 대표적인 연구이다. 하지만 기존의 연구들은 표준화된 매핑 언어를 사용하지 않아 매핑 언어의 접근성과 재사용성이 떨어진다. 이러한 문제를 해결하기 위해 R2RML이 제안되었으며 R2RML을 적용한 대표적인 연구는 Morph와 DB2Triple이 있다. R2RML을 적용한 연구들은 표준화된 매핑 언어를 사용하였으나 관계형 데이터베이스의 스키마 정보만을 RDF로 변환하는 문제점을 가진다. 따라서 관계형 데이터베이스의 테이블 명, 컬럼 명 사이의 관계정보는 변환하지 않는다. 위와 같은 문제를 해결하기 위해 이 논문은 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑 시스템을 제안한다.</p> <h1>3. 제안 시스템</h1> <p>이 장에서는 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑 시스템 을 제안한다. 3.1절에서는 제안 시스템을 간략하게 소개하고 3.1.1절에서는 시스템 상세 구조를 설명한다. 3.1.2절에서는 이 논문에서 사용하는 주요 표기에 대하여 정의한다. 3.1.3절에서는 RDB to RDF 매퍼, 3.1.3절에서는 R2RML 분석기, 3.1.4절에서는 SQL 생성기, 3.1.5절에서는 RDB to RDF 변환기를 각각 설명한다. 마지막으로 3.2절에서 RDB to RDF 변환 프로세스를 기술하여 제안 시스템에 대한 설명을 마친다.</p> <h2>3.1 제안 시스템 개요</h2> <p>제안 시스템은 R2RML을 이용하여 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환한다. 또한 제안 시스템은 R2RML에 관계형 데이터베이스의 관계정보들을 RDFS 속성으로 추가하여 변환된 온톨로지에 추가한다. 이를 위해 RDB to RDF 매퍼, R2RML 분석기, SQL 생성기, RDB to RDF 변환기를 가진다. RDB to RDF매퍼는 RDB 구성요소와 RDF 구성요소를 매핑 하는 기능을 가진다. RDB to RDF 매퍼에서 정의한 규칙을 바탕으로 R2RML 분석기는 R2RML 문서를 분석한다. R2RML을 분석한 정보는 SQL 생성기에 전달되어 SQL을 생성한다. 위에서 생성된 SQL 질의문을 사용하여 관계형 데이터베이스의 저장된 데이터에 접근하여 데이터를 가져온다. 마지막으로 RDB to RDF 변환기를 통해 SQL 질의문을 통해 가져온 데이터를 RDF 형태의 온톨로지로 변환한다.</p> <h3>1) 제안 시스템 구조</h3> <p>Fig. 1은 제안 시스템 구조를 보여준다. 제안 시스템은 Fig. 1과 같이 “R2RML 분석”, “SQL 생성”, “RDB to RDF변환”의 세 부분으로 구성된다.</p> <p>- R2RML 분석: 사용자가 입력한 R2RML 문서를 분석하여 관계형 데이터베이스 스키마 정보를 정의한다. R2RML은 트리플사상을 기반으로 논리테이블, 주어사상, 술어목적어사상을 하위 노드로 가진다. 트리플사상은 하나의 테이블에 매핑되며 논리테이블 정보를 사용하여 테이블 정보를 정의한다. 또한 주어사상을 통해 주어에 정의할 rr:template 정보를 정의한다. 마지막으로 술어목적어사상 정보를 사용하여 술어와 목적어 정보를 정의한다.</p>
|
관계형 데이터베이스 구성 요소의 의미 관계를 고려하여 제안된 RDB to RDF 매핑 시스템은 R2RML 분석, SQL 생성, RDB to RDF변환의 세 부분으로 구성된다. RDB to RDF매퍼를 이용해 RDB와 RDF의 구성요소를 매핑하고, R2RML 문서를 R2RML 분석기로 분석하여 관계형 데이터베이스 스키마 정보를 정의하고 SQL을 생성한다. SQL 질의문을 이용해 관계형 데이터베이스에서 가져온 데이터는 RDB to RDF 변환기를 통해 RDF 형태의 온톨로지로 변환된다.
|
<h3>4) R2RML 분석기</h3> <p>Table 3은 R2RML을 분석기의 알고리즘을 나타낸다. R2RML 분석기는 입력 값으로 R2RMLd 를 갖고 출력 값은 TA[], CA[]를 가진다. R2RML 분석기에 입력된 R2RMLd는 파싱 함수를 이용하여 R2RML 문서 내 트리플사상을 정의한다. 트리플사상은 논리테이블, 주어사상, 술어목적어사상으로 구성되며 R2RML 문서 내 정의를 따라 TM[]에 저장된다. TM[]은 트리플사상으로 정의되며 R2RML 문서에는 한 개 이상의 트리플사상이 정의되어 있다. 따라서 TM[]은 리스트 형태의 자료구조를 가진다. 파싱 함수를 통해 TM[]의 정의가 완료되면 테이블과 컬럼 정보를 정의한다. SetTableAttr 함수는 TM[]에 정의된 논리테이블 정보와 주어사상 정보를 이용하여 테이블의 이름과 rr:template 정보를 정의한다. 이렇게 정의된 테이블 정보는 TA[]에 저장되며 TM[]의 수만큼 정보를 가진다. 테이블 속성 정의가 완료되면 AddTableAttr함수를 이용하여 테이블 속성 정보를 TA[] 리스트에 추가한다. TA[] 정보가 완료되면 컬럼 속성 정보를 정의한다. 컬럼 속성은 SetColumnAttr 함수를 통해 정의된다 이 때 컬럼 속성은 CA[]에 저장되며 컬럼 명과 컬럼 별칭을 정의하며 추가적으로 RDFS 속성 정보를 가진다. 컬럼 속성 정보의 정의가 완료되면 AddColumnAttr 함수를 이용하여 컬럼 속성 정보를 CA[] 리스트에 추가한다.</p> <h3>5) SQL 생성기</h3> <p>Table 4는 SQL 질의문을 생성하는 생성기의 알고리즘을 나타낸다. SQL 생성기는 TA[], CA[]를 입력 값을 갖고 SQL[]을 출력 값으로 가진다. TA[]에는 테이블 정보가 저장되어 있다. 따라서 SQL 질의문은 TA[]에 저장된 데이터를 기반으로 생성된다. TA[]에 저장된 테이블 명 정보는 SetFromStatement 함수를 통해 SQL 질의문의 From 절을 생성하는데 사용된다. 이때 생성된 SQL 질의문은 \( \mathrm { SQL } _ {\mathrm { from } } \)에 저장된다. SQL 질의문의 From 절의 생성이 완료되면 테이블의 기본 키 값을 설정한다. 테이블의 기본 키 명은 TA[]에 저장되어 있으며 기본 키 명을 Select 절에 추가하여 기본 키 값을 가져온다. 이렇게 설정된 기본 키 값은 주어를 정의할 때 사용된다. 기본 키 명의 정의가 완료되면 TA[]에 속한 컬럼 명을 Select 절에 추가한다. 컬럼 명은 CA[]에 저장되어 있으며 TA[]에 저장된 테이블 명과 CA[]에 저장된 테이블 명이 일치하는 경우에만 Select 절에 추가한다. CA[]에 저장된 컬럼 명을 Select 절에 추가하여 Select 절의 생성을 완료한다. Select 절의 생성이 완료되면 \( \mathrm { SQL } _ {\mathrm { s } } \)에 저장한다. 하나의 테이블 속성에 대한 SQL 질의문 변환이 완료되면 \( \mathrm { SQL } _ {\mathrm { s } } \)와 \( \mathrm { SQL } _ {\mathrm { from } } \)을 SQL[]에 저장한다. 각각의 테이블 속성마다 생성된 SQL 질의문은 SQL[]에 리스트 형태로 저장된다.</p>
|
Table 3는 R2RML 분석 알고리즘을, Table 4는 SQL 생성 알고리즘을 표현한다. R2RML 분석기는 R2RMLd를 입력으로 받아 TA[], CA[]를 출력하며, SQL 생성기는 TA[], CA[]를 입력으로 받아 SQL[]을 출력한다.
|
<h2>2.4 R2RML</h2> <p>W3C의 RDB2RDF 워킹 그룹에서는 매핑 언어의 표준화를 위하여 R2RML을 제안하였다. R2RML은 관계형 데이터베이스의 테이블, 뷰, SQL 질의문으로 이뤄진 데이터에 대한 매핑을 지원한다. R2RML은 트리플사상(LogicalTable)을 최상단 노드로 하며 하위 노드에 논리테이블(LogicalTable), 주어사상(SubjectMap), 술어목적어사상(PredicateObjecMap) 노드를 가진다. 각 테이블 정보는 트리플사상에 매핑 되며 논리테이블 노드는 테이블, 뷰, SQL 질의문에 대한 정보를 표현한다. 주어사상은 RDF 변환된 데이터의 주어(Subject)를 표현하며 rr:template을 사용하여 주어의 속성을 나타낸다. 이 때 rr:template 값은 기본 키의 컬럼 명을 포함하여 표현한다. rr:template에 포함된 기본 키의 컬럼 명은 기본키의 데이터 값으로 변환되어 주어를 구성한다. 술어목적어사상은 술어(Predicate)와 목적어(Object)의 값을 설정한다. 이 때 술어에는 RDF의 술어 정보를 표현하며 목적어사상(ObjectMap)에 RDF의 목적어 정보를 표현한다. 목적어사상은 컬럼 값을 표현하기도 하지만 rr:template 을 사용하여 특정컬럼 값을 표현할 수도 있다. 참조목적어사상(RefObjectMap)은 테이블간의 조인 관계를 표현한다. 즉, 참조목적어사상을 이용하여 조인 관계가 설정된 테이블간에 컬럼 값을 표현한다. 마지막으로 그래프사상(GraphMap)은 주어사상과 술어목적어사상에 포함되어 RDF의 그래프를 표현한다.</p> <h2>2.5 Morph</h2> <p>Morph는 W3C에서 제안한 R2RML을 구현하여 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하는 연구이다. Morph는 자바 기반 시스템으로 구성되어 있으며 수동으로 매핑 정보를 생성한다. 매핑 구현방식은 정적 방식을 사용하며 매핑 규칙은 R2RML의 정의에 따른다. R2RML의 정의에 따라 트리플사상 노드는 관계형 데이터베이스의 테이블과 1:1 대응된다. 트리플사상 노드의 하위 노드인 논리테이블, 주어사상, 술어목적어사상 노드를 사용하여 트리플사상에 정의된 테이블 명과 컬럼 명 정보를 표현한다. 또한 참조목적어사상을 이용하여 테이블 간 조인 관계를 표현한다. Morph는 표준화된 매핑 언어를 사용한다. 따라서 매핑 언어에 대한 접근성과 재사용성이 높다. 하지만 Morph는 R2RML에 정의된 관계형 데이터베이스 스키마 정보만을 RDF 형태의 온톨로지로 변환한다. 따라서 관계형 데이터베이스에 테이블 명과 컬럼 명 사이의 관계정보를 표현하는데 제약이 따른다.</p> <h2>2.6 DB2Triple</h2> <p>DB2Tripe은 W3C에서 제안한 R2RML과 다이렉트 매핑표준을 이용하여 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환한다. DB2Triple은 RDB2RDF워킹 그룹에서 검증을 받았으며 Antidot 사에서 자바 기반의 오픈 소스 형태로 제공하고 있다. 매핑 정보는 수동으로 생성하며 R2RML에서 정의한 매핑 규칙을 따른다. 따라서 트리플사상을 이용하여 관계형 데이터베이스의 테이블 정보를 표현한다. 매핑 구현 방식은 정적 방식을 사용하며 이는 실시간 변경 점이 많은 데이터에 대한 사용에 제약을 가진다. DB2Triple은 표준화된 매핑 언어인 R2RML을 사용하여 시스템 독립적인 매핑 언어를 사용하는 장점이 있다. 하지만 R2RML은 관계형 데이터베이스의 스키마 정보만을 RDF형태의 온톨로지로 변환한다. 따라서 DB2Triple은 관계형 데이터베이스의 테이블 명, 컬럼 명 사이의 관계정보는 변환하지 않는다. 또한 사용하기 편리한 UI를 제공하지 않아 자바라이브러리 파일을 사용자가 추가해야 하는 문제점을 가진다.</p>
|
Morph는 W3C의 RDB2RDF 워킹 그룹에서 매핑 언어의 표준화를 위해 제안한 제안한 R2RML을 구현해 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하는 연구이다. DB2Triple은 R2RML과 다이렉트 매핑표준을 이용해 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환한다.
|
<h2>4.3 구현 내용</h2> <p>제안 시스템은 사전에 R2RML 정보를 만들어야 한다. R2RML 정보는 접근하고자 하는 데이터베이스에 스키마 정보를 기반으로 만든다. 사전에 만들어진 R2RML 정보는 파싱 함수에 의해 TA[], CA[] 정보를 저장한다. TA[]와 CA[]정보를 바탕으로 관계형 데이터베이스에 저장된 데이터를 가져오기 위해 SQL 질의문을 생성한다. SQL 질의문은 트리플사상을 기반으로 생성한다. 따라서 트리플사상의 수만큼 SQL 질의문이 만들어진다. 이렇게 만들어진 SQL 질의문을 통해 관계형 데이터베이스에 저장된 데이터에 접근한다. SQL 질의문의 결과는 RDF 변환을 위한 데이터로 사용된다. R2RML에 정의된 규칙에 따라 질의 결과는 주어, 술어, 목적어로 변환된다. 관계형 데이터베이스에 저장된 데이터의 RDF 변환 시간은 \( 1 / 1,000 \) 초 단위로 제공하여 시간에 대한 성능을 평가한다.</p> <h1>5. 실험 및 평가</h1> <p>이 장에서는 RDB to RDF 변환 연구들에 대한 실험 결과를 기술한다. 또한 이 논문에서 제안한 시스템과 기존 연구들의 비교 분석을 통하여 정량적, 정성적 평가에 관해 기술한다.</p> <p>정량 평가를 위하여 변환된 데이터의 크기와 데이터 변환시간을 평가한다. 변환된 데이터의 크기는 제안 시스템과 다른 연구들의 변환 데이터의 크기 비교를 통하여 제안 시스템의 온톨로지 변환 양을 비교한다. 데이터 변환 시간은 관계형 데이터베이스의 데이터를 RDF로 변환하는 시간을 의미하며 제안 시스템의 성능을 평가한다. 제안 시스템과 비교하기 위한 평가 대상으로는 RDB에 저장된 데이터를 RDF로 변환하기 위한 연구인 D2RQ, RDBToOnto를 선정하였다. 또한 R2RML을 적용한 RDB to RDF 변환 연구인 Morph를 평가 대상으로 선정하였다. 실험을 위해 D2RQ, RDBToOnto, Morph, 제안 시스템은 동일한 관계형 데이터베이스에서 구현하였다. 데이터 생성은 UBA 온톨로지 생성기를 이용하였으며, 총 50,000개의 튜플을 관계형 데이터베이스에 저장하였다. 또한 모든 비교 실험은 윈도우 시스템에서 실행하였으며 관계형 데이터베이스는 MySQL을 사용하였다.</p> <h2>5.1 정량 평가</h2> <p>관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하는 양의 크기를 비교하기 위해 RDB to RDF 변환 데이터의 크기를 비교한다. 실험을 위해 총 10개의 관계형 데이터베이스 저장소를 생성하였다. 각 데이터베이스에는 데이터 크기를 5,000개 튜플 단위로 추가하여 총 50,000개 튜플을 저장하였다. Fig. 6은 제안 시스템에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계정보를 추가한 변환 결과를 나타낸다. D2RQ와 RDBToOnto의 경우에는 자동으로 추가하는 RDFS 속성 정보를 포함한 결과를 나타낸다. D2RQ와 RDBToOnto는 Morph보다 변환 데이터가 많았다. 관계형 데이터베이스에 저장된 데이터가 동일하지만 데이터 변환 결과가 다른 이유는 D2RQ는 레이블 속성을 변환 데이터에 자동으로 추가하기 때문이다. 또한 RDBToOnto는 RTAXON 학습 방법을 통해 지정된 단어의 경우 자체적으로 RDFS 속성을 추가하는 규칙을 가지고 있다. 따라서 관계형 데이터베이스의 스키마 정보만을 변환하는 Morph에 비해 D2RQ와 RDBToOnto는 많은 변환 결과를 보였다. 하지만 제안 시스템에 관계형 데이터 베이스의 관계 정보를 추가할 경우에는 제안 시스템이 가장 많은 양의 온톨로지를 생성하는 것을 보였다. 또한 제안 시스템은 매핑 정보에 추가 할 수 있는 RDFS 속성 종류가 많다. 따라서 제안 시스템에 관계형 데이터베이스의 관계 정보를 추가할 경우 다른 연구보다 많은 양의 변환 데이터를 생성하는 것을 보인다.</p>
|
제안 시스템의 변환 능력을 평가하기 위해 RDB to RDF 변환 데이터를 비교한 본 실험에서는 데이터베이스의 관계 정보를 추가하면 더 많은 데이터가 생성됨을 확인했다.
|
<h1>4. 구현</h1> <p>이 장에서는 제안 시스템의 구현 환경과 구현 내용을 보인다. 제안 시스템은 Windows 7 Enterprise K, Inter(r) Core(TM)2 Duo \( 2.66 \mathrm { ~Hz } \), \( 3.25 \) GB Memory, JRE 1.7.0_15, MySQL 5.613, Eclipse Indigo 로 구성된 환경에서 수행하였다. 제안 시스템을 실험하기 위해 온톨로지 생성도구 인 UBA(Univ-Benchmark Artificial Data Generator)를 이용하여 온톨로지 데이터를 생성한다[23]. 또한 UBA로부터 생성되는 온톨로지를 관계형 데이터베이스에 동일하게 생성한다. 이렇게 생성된 데이터는 제안 시스템과 기존 연구들의 성능을 비교하는데 사용된다.</p> <h2>4.1 R2RML 분석</h2> <p>Fig. 3은 제안 시스템에서 사용한 R2RML 예제를 나타낸다. R2RML은 관계형 데이터베이스 테이블을 트리플사상에 매핑하여 구현한다. 위에 정의한 매핑 규칙에 따라 관계형 데이터베이스에 존재하는 수만큼 트리플사상이 생성된다. 트리플사상 내 논리테이블에는 관계형 데이터베이스 테이블명 정보가 존재한다. 따라서 논리테이블 정보를 사용하여 관계형 데이터베이스 테이블 명 정보를 얻는다. 다음으로 주어사상에는 주어를 표현할 rr:template을 정의한다. 주어사상에서 정의한 rr:template에 따라 주어는 표현된다. 또한 rr:template은 관계형 데이터베이스 테이블의 기본 키 정보를 가지고 있다. rr:template에 존재하는 { } 안에는 해당 트리플사상에서 사용할 기본 키 정보가 저장되어 있다. 테이블 명, 기본 키 명, rr:template정보와 테이블 명은 TA[]에저장된다. TA[]는 트리플사상에 대응되기 때문에 관계형 데이터베이스 내 테이블 수만큼 테이블 속성 정보를 가진다. 마지막으로 술어목적어사상은 술어와 목적어 정보를 가지고 있다. RDF의 술어에 표현할 정보를 술어에 표현하며 실제컬럼 명은 목적어에 rr:column 태그를 사용하여 표현한다. 따라서 술어에 표현된 정보가 실제 RDF의 술어에 표현되며 RDF의 목적어에는 컬럼 값이 표현된다. 제안 시스템은 관계형 데이터베이스 스키마외에 RDFS 속성을 지원한다. 따라서 술어목적어사상에는 RDFS 속성을 추가할 수 있다. 예를 들어 rdfs:member 정보를 추가하기 위해서는 술어목적어 사상에 해당 정보를 추가하면 된다. Fig. 3은 rdfs:member정보를 추가한 예제를 나타낸다. 술어에 rdfs:member를 표현하면 제안 시스템은 해당 술어목적어사상은 RDFS 속성정보를 표현한 것으로 판단하여 목적어를 컬럼 값이 아닌 R2RML의 목적어에 저장된 정보를 사용하여 표현한다. 이렇게 생성된 술어목적어사상 정보는 CA[]에 저장된다. CA[]는 R2RML에서 정의한 술어목적어 수만큼 정의되며 SQL질의문 생성과 RDB to RDF 변환을 위한 정보로 사용된다.</p> <h2>4.2 RDB to RDF 변환</h2> <p>R2RML 정보를 바탕으로 만들어진 SQL 질의문을 사용하여 관계형 데이터베이스에 저장된 데이터에 접근한다. SQL 질의문을 통해 얻은 결과는 RDB to RDF 변환기 통해 RDF로 변환된다. 이때, TA[], CA[] 정보가 질의 결과를 RDF로 변환하기 위해 사용된다. 질의 결과의 하나의 레코드는 TA[]를 통해 주어를 정의한다. 하나의 레코드는 생성된 주어를 공유하며 술어와 목적어는 컬럼에 해당하는 CA[]정보를 활용하여 정의한다. Fig. 3의 예제는 주어사상의 rr:template에 http://www.Department1.Universi ty1.edu { name } 로 정의되어 있다. 따라서 주어는 위 정보를 따르며 해당 레코드의 기본 키 값이 name에 대치된다. 또한 술어목적어사상에 정의된 규칙에 따라 술어와 목적어를 정의한다. Fig. 5은 관계형 데이터베이스 스키마를 나타낸다. Fig. 4의 첫 번째 레코드의 주어는 http://www.Department1.University1.edu/UndergraduateStudent0으로 표현된다. 또한 rr:class 정보를 바탕으로 타입 정보를 설정한다. 각각의 컬럼 정보는 R2RML에 정의된 정보에 따라 술어와 목적어로 변환된다. Fig. 5는 R2RML 정보에 따라 변환된 결과를 나타낸다. 즉, Fig. 5는 Fig. 4의 데이터에 대한 온톨로지 변환 결과를 나타낸다.</p>
|
R2RML은 관계형 데이터베이스 테이블을, 테이블명 정보가 존재하는 논리테이블을 내부에 가진 트리플사상에 매핑에 구현한 것이다. 주어사상의 rr:template은 주어를 표현하며, 관계형 데이터베이스 테이블의 기본 키 정보를 {}안에 저장하고 있다. 트리플 사상에 대응하는 TA[]안에는 테이블 명, 기본 키 명, rr:template 정보가 저장된다. 술어목적어사상은 RDF와 rr:column을 사용한 술어 목적어 정보를 가지고 있으며, RDFS 속성의 추가가 가능하고, 생성된 정보는 SQL질의문 생성과 RDB to RDF 변환에 사용되는 CA[]에 저장된다. 생성된 SQL 질의문으로 저장된 데이터에 접근해, 결과를 RDF로 변환한다.
|
<p>- SQL 생성: R2RML 분석 단계에서 정의한 정보를 기반으로 SQL질의문을 생성한다. 트리플사상에는 관계형 데이터베이스의 테이블 정보가 정의되어 있다. 논리테이블 정보를 사용하여 SQL 질의문의 From 절을 정의한다. 다음으로 주어사상에 정의된 기본 키 정보를 활용하여 테이블의 기본키 정보를 Select 절에 추가한다. 마지막으로 술어목적어사상 정보를 바탕으로 컬럼 정보를 Select 절에 추가하여 SQL 질의문을 완성한다.</p> <p>- RDB to RDF 변환: RDB에 저장된 데이터를 RDF로 변환하여 저장한다. R2RML을 기반으로 생성된 SQL 질의문을 통해 관계형 데이터베이스에 저장된 데이터를 질의한다. SQL 질의문을 통해 가져온 결과는 질의결과를 관리하는 자료구조에 저장된다. 질의 결과에 저장된 데이터는 R2RML에 저장된 정보에 사용하여 RDF로 변환된다. 이때 주어는 주어사상에 저장된 정보를 사용하여 정의된다. 다음으로 술어, 목적어는 술어목적어사상에 저장된 정보를 사용하여 정의된다. 술어에 저장된 정보에 따라 목적어의 생성은 다음의 방법을 따른다. 첫째 술어에 저장된 정보가 관계형 데이터베이스의 스키마 정보이면 목적어는 관계형 데이터베이스에 저장된 데이터가 된다. 둘째 술어에 저장된 정보가 RDFS속성이면 목적어는 술어목적어사상에 정의된 정보를 따른다. 위에 방법에 따라 술어목적어사상의 정보는 술어, 목적어로 변환된다. SQL 질의문을 통해 생성된 질의 결과에 대한 변환이 완료되면 RDF 문서를 생성하여 변환을 완료한다.</p> <h3>2) 주요 표기 및 기호 정의</h3> <p>이 절에서는 이 논문에서 사용하는 주요 표기 및 기호 등에 대해 정의한다. 이 논문에서 사용하는 주요 표기 및 기호를 Table 1에 정리 한다.</p> <h3>3) RDB to RDF 매퍼</h3> <p>제안 시스템에서 제시하는 RDB to RDF 매핑 규칙은 Table 2와 같다. 관계형 데이터베이스의 구성요소를 테이블명, 뷰 명, 컬럼 명, 기본 키, 외래 키, 인스턴스로 정의한다. 또한 RDFS 구성요소는 총 17개의 속성을 매핑 대상으로 구성한다. RDFS의 속성 중 관계형 데이터베이스의 구성요소와 매핑 가능한 속성은 type, subClassOf, subPropertyOf, objectPropertyOf, domain, range이다. 다른 속성의 경우에는 관계형 데이터베이스의 구성요소와 매핑 시킬 수가 없다. 테이블 명과 뷰 명의 경우에는 type과 매핑하며 subClassOf속성을 사용하여 테이블 간의 상 하위 관계를 나타낸다. 마지막으로 2개 이상의 테이블을 연결하기 위해 사용되는 테이블은 domain과 range로 표현될 수 있다. 따라서 domain과 range도 테이블 명과 뷰 명으로 매핑된다. 기본 키와 외래 키는 objectProperty를 구성하여 표현한다. 이때 술어는 컬럼 명이 되므로 술어와 컬럼 명을 매핑 시킨다. 또한 주어는 기본 키와 외래 키로 매핑되며 인스턴스는 목적어와 매핑된다. 컬럼 명의 경우에는 subProperty를 사용하여 컬럼 간의상 하위 관계를 나타낼 수 있기 때문에 subProperty와 매핑된다. subProperty를 표현하기 위해 주어와 목적어에 컬럼명이 사용된다. 따라서 컬럼 명은 주어와 목적어로 매핑 될수 있다. 관계형 데이터베이스의 구성요소와 직접적으로 매핑 할 수 없는 11개의 RDFS 구성요소는 사용자의 정의에 따른다. 즉 관계형 데이터베이스의 인스턴스 정보는 사용자정의에 따라 매핑 하는 규칙을 따른다.</p>
|
관계형 데이터베이스의 구성요소는 테이블명, 뷰 명, 컬럼 명, 기본 키, 외래 키, 인스턴스 등을 들 수 있으며, RDFS의 속성 중 관계형 데이터베이스의 구성요소와 매핑 가능한 속성은 type, subClassOf, subPropertyOf, objectPropertyOf, domain, range이다. 2개 이상의 테이블 연결을 위해 사용되는 테이블은 domain과 range로 표현되고, 컬럼 명의 경우에는 subProperty를 사용하여 컬럼 간의상 하위 관계를 나타낼 수 있기 때문에 subProperty와 매핑된다. 관계형 데이터베이스의 구성요소와 매핑 할 수 없는 1RDFS 구성요소는 사용자의 정의에 따른다.
|
<h3>6) RDB to RDF 변환기</h3> <p>Table 5는 RDB to RDF 변환기의 알고리즘을 나타낸다. RDB to RDF 변환기는 입력 값으로 TA[], CA[], SQL[]을 가지며 출력 값으로 \( \mathrm { RDF } _ {\mathrm { d } } \)를 가진다. 입력된 SQL 질의문은 Query 함수를 통해 관계형 데이터베이스에 저장된 데이터에 질의한다. Query 함수는 모든 SQL 질의문에 대한 질의 결과를 RS에 저장한다. RS에 저장된 질의 결과는 각각의 저장 데이터별로 RDF로 변환된다. RS의 저장된 데이터를 RDF로 변환하는 과정은 TA[]에 저장된 데이터를 기반으로 한다. TA[]에는 테이블에 대한 정보가 저장되어 있다. 따라서 TA[]에 저장된 테이블 정보와 RS에 저장된 테이블 정보를 확인하여 일치하는 데이터를 찾는다. 테이블 정보가 일치하면 TA[]에 저장된 rr:template 정보를 참조하여 트리플의 주어 정보를 저장한다. 다음으로 CA[]에 저장된 컬럼정보를 사용하여 술어와 목적어 정보를 저장한다. 이때 술어의 정보가 RDFS 속성으로 설정되어 있으면 목적어 정보를 CA[] 설정된 데이터로 저장한다. 하나의 레코드에 대해RDF 변환이 완료되면 \( \mathrm { RDF } _ {\mathrm { d } } \) 문서에 추가한다. SQL 질의문결과 데이터의 변환이 완료된다.<h2>3.2 RDB to RDF 변환 프로세스</h2> <p>Fig. 2는 제안 시스템의 RDB to RDF 변환 프로세스를 나타낸다. 제안 시스템은 RDB to RDF a매퍼, R2RML 분석기, SQL 생성기, RDB to RDF 변환기를 가진다. 매퍼는 Generator 함수를 이용하여 관계형 데이터베이스 구성요소와 RDFS 구성 요소와의 매핑 규칙을 정의한다. R2RML 분석기는 정의된 매핑 규칙을 사용하여 파싱 함수를 통해 R2RML에 정의된 정보를 설정한다. 이때 SetTableAttr 함수와 SetColumnAttr 함수를 사용한다. 다음으로 AddTableAttr, AddColumnAttr 함수를 사용하여 관련 정보를 저장한다. R2RML에 정의된 정보의 분석이 끝나면 SQL 생성기는 SQL 질의문 생성을 시작한다. SQL 질의문을 Select, From절로 구분하며 R2RML의 분석 정보를 이용하여 Select, From 절을 정의한다. 또한 R2RML에 정의된 기본 키, 외래키 정보를 설정한다. 위와 같은 과정을 통해서 SQL 문을 생성하며 관계형 데이터베이스에 저장된 데이터를 질의한다. 마지막으로 RDB to RDF 변환기는 SQL 질의문을 통해 얻은 결과를 바탕으로 RDF를 생성한다. 이 때 테이블 명, 컬럼 명 사이의 관계정보가 R2RML에 정의되어 있으면 정의된 정보를 바탕으로RDF를 추가로 생성한다. R2RML에 정의된 모든 트리플사상의 변환이 완료되면 RDB to RDF변환 프로세스를 마친다.</p>
|
SQL 질의문은 Query 함수를 통해 RDB에 전달되어 결과는 RS에 저장된다. RS의 데이터는 TA[]의 정보와 일치하는지 확인하여 RDF로 변환된다. 변환 과정에서 TA[]의 테이블 정보와 RR 템플릿을 참조하여 주어 정보를 저장하고, CA[]의 컬럼 정보를 사용하여 술어와 목적어 정보를 저장한다. 변환된 RDF 데이터는 \( \mathrm { RDF } _ {\mathrm { d } } \)에 추가된다. RDB to RDF 변환 프로세스는 RDB to RDF 매퍼, R2RML 분석기, SQL 생성기, RDB to RDF 변환기로 구성되며, 매퍼는 RDB와 RDFS의 매핑 규칙을 정의하고, R2RML 분석기는 매핑 규칙을 파싱하여 정보를 설정한다. SQL 생성기는 SQL 질의문을 생성하고, RDB to RDF 변환기는 SQL 결과를 기반으로 RDF를 생성한다.
|
<h1>6. 결 론</h1> <p>시맨틱 웹 환경에서 기존의 웹에 저장된 데이터에 접근을 위해 많은 연구가 이루어져 왔다. 기존 웹에 저장된 데이터 구조는 시맨틱 웹에서 사용하는 데이터 구조와 다르게 구성되어 있다. 서로 다른 데이터 구조로 인해 시맨틱 웹에서는 기존 웹에 저장된 데이터를 이용할 수 문제점을 가진다. 하지만 기존의 웹에 저장된 데이터를 버리고 새로운 시맨틱웹 데이터를 구축하는 것은 많은 시간과 비용을 초래한다. 따라서 기존 웹에 저장된 데이터를 시맨틱 웹 환경에 맞게 변환하는 방법의 필요성이 대두되었다. 대부분의 변환 방법은 매핑 방식을 이용하여 관계형 데이터베이스 구성요소와 RDF 구성요소를 연결하는 방식을 사용한다. 하지만 매핑언어의 표준화가 이뤄지지 않아 시스템마다 다른 매핑 언어를 사용하였다. 따라서 W3C에서는 매핑 언어의 표준을 위해 R2RML을 제안하였다. 하지만 R2RML은 관계형 데이터베이스의 테이블명, 컬럼명, 저장된 데이터를 온톨로지로 변환하지는 않는다. 따라서 관계형 데이터베이스에 저장된 데이터를 단순히 RDF로 변환하는 것에 그친다. 풍부한 의미정보가 있지 않은 온톨로지는 사용에 제한적이다.</p> <p>이 논문에서는 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑 시스템을 제안하였다. 제안 시스템은 R2RML을 매핑 언어로 사용하며 R2RML에 저장된 정보를 이용하여 SQL 질의문을 생성한다. 위와 같이 생성된 SQL 질의문을 통해 관계형 데이터베이스에 저장된 데이터에 접근한다. SQL 질의문을 통해 얻은 관계형 데이터베이스에 저장된 데이터는 R2RML의 정해진 규칙에 따라 RDF로 변환된다. 제안 시스템은 추가적으로 R2RML에 RDFS 속성을 추가하여 데이터의 풍부한 의미 표현을 지원하였다. 제안 시스템에 대한 평가로 정량평가와 정성평가를 수행하였다. Morph, RDBToOnto, D2RQ를 비교 대상으로 선정하고, 변환된 데이터의 크기와 변환 시간을 측정하였다. 그 결과 제안 시스템은 신뢰성을 보장할 수 있으며 가장 빠른 변환 시간을 보여 우수한 성능을 보였다. 또한 정성적 비교 평가의 결과로 수동으로 매핑을 생성해야 하지만 표준화된 언어를 이용하여 매핑 정보에 높은 접근성과 재사용성을 보였다. 마지막으로 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 추가하여 높은 온톨로지 확장성을 보였다.</p>
|
R2RML은 관계형 데이터베이스의 테이블명, 컬럼명, 저장된 데이터를 온톨로지로 변환하지 않는 한계를 가지고 있다. 이를 해결하기 위해, 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑 시스템을 제안하였다. 이 시스템은 빠른 변환 시간과 높은 신뢰성을 보여주었으며, 매핑 정보에 높은 접근성과 재사용성을 보여주었다. 또한, 테이블명과 컬럼명 사이의 관계 정보를 추가함으로써 높은 온톨로지 확장성을 보여주었다.
|
<p>\( {\left [ \begin {array} { ll } A & B \\ C & D \end {array} \right ] = \left [ \begin {array} { cc } \cos \theta_ { a } & j Z_ { a } \sin \theta_ { a } \\ j Y_ { a } \sin \theta_ { a } & \cos \theta_ { a } \end {array} \right ] } \\ \times \left [ \begin {array} { cr } 1 & 0 \\ j Y_ { b } \tan \theta_ { b } 1 \end {array} \right ] \left [ \begin {array} { cc } \cos \theta_ { a } & j Z_ { a } \sin \theta_ { a } \\ j Y_ { a } \sin \theta_ { a } & \cos \theta_ { a } \end {array} \right ] \)<caption>(1)</caption></p> <p>위의 행렬의 각 요소는 아래와 같다.</p> <p>\( A=D= \cos 2 \theta_ { a } -b \sin 2 \theta_ { a } \)<caption>(1a)</caption></p> <p>\( B=j Z_ { a } \left ( \sin 2 \theta_ { a } -b \left (1- \cos 2 \theta_ { a } \right ) \right ) \)<caption>(1b)</caption></p> <p>\( C= \frac { j } { Z_ { a } } \left ( \sin 2 \theta_ { a } + b \left (1 + \cos 2 \theta_ { a } \right ) \right ) \)<caption>(1c)</caption></p> <p>위의 식에서 \( b= \frac { Z_ { a } } { 2 Z_ { b } } \tan \theta_ { b } \)를 나타낸다.</p> <p>위의 식(1)은 수식 전개의 단순화를 위하여 병렬 스터브가 1개만 부착된 경우인데 그림 1과 같이 동일한 위치에 다수의 스터브가 부착된 겅우에는 행렬 요소에 이를 고려하는 것은 간단하다. 즉, 그림 2와 같이 2개가 부착된 경우는 병렬 스터브의 파라미터 중 식(1c)의 표현을 \( j Y_ { b } \tan \theta_ { b } \)를 \( j Y_ { b } \left ( \tan \theta_ { b 1 } + \tan \theta_ { b 2 } \right ) \)로 변경하여 수식 유도를 하거나 아니면 최후의 유도한 결과식의 결과식에 치환하는 것이 편리하다.</p>
|
수식 전개의 단순화를 위하여 병렬 스터브가 1개만 부착된 식(1)을 병렬 스터브 2개가 부착된 경우로 변경하는 경우, 병렬 스터브의 파라미터 중 식(1c)의 표현을 \( j Y_ { b } \tan \theta_ { b } \)를 \( j Y_ { b } \left ( \tan \theta_ { b 1 } + \tan \theta_ { b 2 } \right ) \)로 변경하여 수식 유도를 하거나 아니면 최후의 유도한 결과식의 결과식에 치환하는 방법으로 가능하다.
|
<h1>요 약</h1> <p>이 논문은 브랜치라인 커플러에서 고조파 신호를 제거할 수 있는 변형된 설계 방법을 제안한다. 기존의 \( 1 / 4 \) 파장 길이의 전송선로의 중앙에 개방형 스터브를 추가한 후에, 설계 주파수에서는 커플러의 기능을 제공하고 고조파 주파수에서는 전송을 제한하는 특성을 갖는 커플러의 해를 구하는 것이 가능하다. 이의 검증 예로서 \( 1.0 \mathrm { GHz } \)에서 커플러를 제작하였으며 \( 2.0 \mathrm { GHz } \)와 \( 3.0 \mathrm { GHz } \)에서 \( -37.5 \mathrm { dB } \) 및 \( -42.7 \mathrm { dB } \)의 억압비를 나타내었다.</p> <h1>Ⅰ. 서 론</h1> <p>브랜치라인 커플러는 4-포트 네토워크로서 하나의 입력 신호를 2개의 출력 포트로 분할하는 기능을 하며 나머지 하나의 포트와는 아이솔레이션 기능올 제공한다. 이는 2개의 신호를 합성하거나 분할하는 기능을 제공한다. 이는 대칭형 증폭기, 대칭형 믹서 및 반사형 위상변위기의 입출력부에서 신호를 분할 및 합성하는데 주로 이용된다. 이 커플러는 동작주파수와 이의 홀수배 주파수에서 이상적인 특성을 나타내고 짝수배 주가수에 서는 일정한 한계를 갖는 특성을 나타낸다. 기본 주파수에 추가하여 고조파에서의 특성으로 인하여 브랜치라인 커플러가 사용되는 대칭형 증폭기나 믹서의 경우에 IMD(Intermodulation Distortion)로 인한 동작대역의 범위의 제한을 가져온다. 이를 막아주기 위해서는 고조파 주파수에서 신호의 전파를 막아주는 기능을 추가할 필요가 있다.</p> <p>이 논문에서는 기존의 브랜치 라인 커플러에서 기본 주파수에서의 기능은 유지하면서, 고조파 제거 기능을 제공하기 위하여 각각의 브랜치 라인의 중심에 개방형 스터브를 추가하고 원하는 특성을 제공하는 설계방법을 제안한다. 브랜치라인 커플러에서 스터브를 추가하여 부가적인 기능, 예를 들어 이중대역 특성을 제안한 형태는 많이 발표되었으나, 고조파 제거 기능을 추가한 것은 발표되지 않았다.</p> <p>스터브를 추가하여 설계 방법을 검증하기 위하여 마이크로스트립 커플러를 FR4 기판위에 구현하였다. 측정 결과는 제안한 구조에 대한 고조파 제거 기능을 확인하였고, 이에 부가적으로 기존의 커플러와 비교하여 제안하는 방식이 약 \( 63 \% \)의 소형화를 이루어 MMIC 또는 RFIC 회로 구현에 적합한 설계방법이 될 수 있음을 확인하였다.</p> <h1>Ⅱ. 회로해석</h1> <p>그림 1(a)는 전송선로의 중앙에 개방형 병렬 스터브가 추가된 제안하는 브랜치 라인 커플러를 나타내었는데, 고조파를 제거를 하는 데 있어서 가장 기본은 기존의 \( 1 / 4 \) 파장의 브랜치 라인을 개방형 스터브가 추가된 전송선로로 대치한 후 원하는 특성을 나타내는 파라미터를 구하는 것이다. 그림 1(b)에는 등가 브랜치 라인을 나타내었는데 \( Z_ { a } , Z_ { b } , \theta_ { a } \), 및 \( \theta_ { b } \)는 각각의 전송선로의 특성 임피던스와 전기적인 길이를 나타낸다. 이들 각각의 회로 요소의 \( A B C D \) 행렬을 곱하여 다음의 표현식을 얻는다.</p>
|
고조파 신호를 제거할 수 있는 변형된 브랜치라인 커플러 설계 방법은 기존의 \( 1 / 4 \) 파장 길이의 전송선로의 중앙에 개방형 스터브를 추가하여, 설계 주파수에서는 커플러의 기능을 제공하고 고조파 주파수에서는 전송을 제한하는 특성을 갖는 커플러의 해를 구한다. 이를 검증하여 \( -37.5 \mathrm { dB } \) 및 \( -42.7 \mathrm { dB } \)의 억압비를 나타내고, 소형화를 이루어 MMIC 또는 RFIC 회로 구현에 적합한 설계방법이 될 수 있음을 확인하였다.
|
<h1>Ⅲ. 실험 및 측정결과</h1> <p>앞장에서 유도한 이론식에 대한 검증을 위하여 그림 3에 \( 1.0 \mathrm{GHz} \)에서 동작하는 커플러를 제작하였는데 이는 2차\( (2.0 \mathrm{GHz}) \) 및 3차\( (3.0 \mathrm{GHz}) \) 고조파를 동시에 제거하는 기능을 갖는다. 다른 차수의 고조파도 차단 가능하지만 실제 옹용에서 2차와 3차 고조파가 제거되는 것이 실제적인 의미를 갖는다. 마이크로스트립형 전송로를 구현하기 위하여 유전율 \( 4.4 \)와 두께 \( 0.8 \mathrm{mm} \)인 FR4 기판을 이용하였다. \( \theta_{a}=20^{\circ} \)인 경우를 선택하였고 \( Z_{a} \)와 \( Z_{b} \)의 값은 식(5)~(6)를 이용하여 구하였다. 커플러의 수직부의 \( Z_{a} \) 및 \( Z_{b} \)의 값은 \( 137.4 \Omega \)과 \( 90.9 \Omega \)를 얻었다. 수평부의 \( Z_{a} \) 및 \( Z_{b} \)는 여기에 \( 0.707 \)배인 \( 97.0 \Omega \)과 \( 64.3 \Omega \)로 나타났다. 2차 고조파를 제거하기 위한 스터브는 \( 45^{\circ} \), 3 차 고조파를 제거하기 위한 스터브는 \( 30^{\circ} \) 의 전기적 길이를 갖는다. 크기 비교를 위하여 기존의 브래치 라인 커플러를 함께 나타내었는데 이는 \( 1890 \mathrm{mm}^{2} \)의 면적을 차지하며 제안하는 커플러는 \( 700 \mathrm{mm}^{2} \)을 차지하여 약 \( 63 \% \)의 크기 감소를 이루었다. 이는 참고문헌 [5]에서는 단순한 크기 감소만을 위한 설계인데 본 논문의 결과는 고조파 차단 기능과 더불어 소형화를 이루었다는 의미를 갖는다.</p> <p>그림 4에는 그림 3의 구조의 산란 계수에 대한 시뮬레이션 및 측정 결과를 나타내었다. 시뮬레이션 결과는 모멘트법에 기초한 상용 시뮬레이터인 ADS Momentum을 이용하였다. 그림 4(A)에는 전송 계수 \( \left(\mathrm{S}_{21}, \mathrm{~S}_{31}\right) \)을 나타내었는데 \( 1.0 \mathrm{GHz} \)에서는 \( -3.5 \pm 0.5 \mathrm{dB} \)의 삽입손실을 갖는 반면에 \( 2.0 \mathrm{GHz} \)와 \( 3.0 \mathrm{GHz} \)에서는 \( -37.5 \mathrm{dB} \)와 \( -42.7 \mathrm{dB} \)의 억압비(Suppression Level)를 나타내었다.</p> <p>그림 4(b)에는 반사손실\( \left(\mathrm{S}_{11}\right) \)과 아이솔레이션\( \left(\mathrm{S}_{41}\right) \)을 나타내었는데 \( 1.0 \mathrm{GHz} \)에서 \( -28.0 \mathrm{dB} \)인 반면에 2차 및 3차 고조파 주파수에서는 전반사에 가까운 \( -0.1 \mathrm{dB} \) 레벨의 \( \mathrm{S}_{11} \)을 나타내어 이들 주파수는 통과하지 못함을 나타내었다. 아이솔레이션은 설계 주파수와 고조파 모두에서 \( -30.0 \mathrm{dB} \) 이하를 나타내어 포트 4에 대하여는 제안하는 특성이 완전한 아이솔레이션을 제공하여 영향을 주지 않음을 알 수 있다.</p> <p>그림 4에서의 실험 결과는 시뮬레이션에서 얻은 결과와 전체 주파수 범위에서 유사한 결과를 얻었다.</p>
|
유도한 이론식의 검증을 위해 2차 및 3차 고조파를 동시에 제거하는 기능을 가지는 1.0GHz에서 동작하는 커플러를 제작하였으며 결과는 고조파 차단 기능과 더불어 소형화를 이루었다는 의미를 가지게 되었다.
|
<p>그림 1(b)의 회로는 기존의 커플러에서 \( 1 / 4 \) 파장의 전기적 길이를 갖는 브랜치 라인과 등가이므로 다음과 같아야 한다.</p> <p>\( \left[\begin{array}{ll}A & B \\ C & D\end{array}\right]=\left[\begin{array}{cc}0 & j Z_{c} \\ j Y_{c} & 0\end{array}\right] \)<caption>(2)</caption></p> <p>여기에서 \(Zc\)는 브랜치 라인의 위치에 따라서 \( Z_{0} \) 또는 \( Z_{0} / \sqrt{2} \)를 나타낸다. \( A=D=0 \)의 관계로부터 식 (1a)로부터 다음의 관계를 얻을 수 있다.</p> <p>\( b=\cot 2 \theta_{a} \)<caption>(3)</caption></p> <p>이를 식(1)의 각 요소에 대입하면 다음과 같은 행렬을 얻는다.</p> <p>\( \left[\begin{array}{cc}0 & j Z_{a} \tan \theta_{a} \\ j Y_{a} \cot \theta_{a} & 0\end{array}\right]=\left[\begin{array}{cc}0 & j Z_{c} \\ j Y_{e} & 0\end{array}\right] \)<caption>(4)</caption></p> <p>위의 식으로부터</p> <p>\( Z_{a} \tan \theta_{a}=Z_{c} \)<caption>(5)</caption></p> <p>의 관계를 얻을 수 있다.</p> <p>식 (3)를 변형하여 다음의 스터브의 특성 임피던스를 얻을 수 있다.</p> <p>\( Z_{b}=\frac{Z_{a}}{2} \tan 2 \theta_{a} \tan \theta_{b} \)<caption>(6)</caption></p> <p>위의 식 (5)~(6)으로부터 전송선로 파라미터를 구할 수 있다. 위의 식에서 \( Z_{a}, Z_{b}, \theta_{a} \) 및 \( \theta_{b} \)의 4개의 변수가 존재한다. 이 중에서 개방형 스터브의 길이 \( \theta_{0} \)는 차단하는 고조파의 차수\( (n) \)에 의하여 그 길이가 다음과 같이 정해진다.</p> <p>\( \theta_{b}=\frac{\pi}{2 n} \)<caption>(7)</caption></p> <p>나머지 3개의 변수는 식(5)~(6)의 상호 관계식에 의해서 해를 얻을 수 있다. 식(5)에서 \( \theta_{a}=\pi / 4 \)인 경우에는 \( b=0 \)이며 이는 병렬 스터브가 존재하지 않는 기존의 브랜치 라인 커플러에 해당한다. \( \theta_{a}=\pi / 4 \) 이하의 다른 전기적 길이에 대해서는 식 (5)으로부터 직렬 전송로의 전기적인 길이와 톡성 임피던스는 반비례 관계를 갖는다. 즉, 소형화를 위하여 전기적인 길이를 줄이면 특성 임피던스가 증가되는 관계를 갖는다. 식 (5)은 직렬 전송로의 상호 반비례 관계만을 나타내며 병렬 스터브의 특성과는 무관하다. 이는 차단하려는 주파수와 차단 주파수의 수를 결정하는 과정에서 편리한 특성이다. 그림 1과 같은 스터브가 추가된 구조는 직렬 전송로의 길이는 그림 2에 나타난 바와 같이 감소한다. 이는 Slow-wave 전송선로에 해당하여 크기 축소가 가능하게 된다. 이는 브랜치 라인의 전체적인 L과 C는 그 비율은 동일하게 하면서 그 값을 증가하고, 반면에 파장은 감소한다. 마이크로스트립 라인의 인덕턴스와 캐패시턴스는 라인의 선폭에 관련된다. 즉 인덕턴스는 선폭을 감소시키면 늘어난다. 반면에 캐패시턴스는 개방형 스터브에 의해서 추가된 형태이다. 그림 2에는 직렬 전송선로의 길이에 따른 정규화 특성 임피던스의 관계를 나타내었으며 반비례하는 특성이 잘 나타나 있다.</p> <p>직렬 전송선로의 파라미터를 결정한 후에 식(6)에 의하여 개방형 스터브의 특성 임피던스를 얻을 수 있다. 그림 2에는 여러 가지 제거되는 고조파의 차수에 대한 개방형 스터브의 특성 임피던스의 변화를 나타내었다.</p> <p>2차 고조파의 차단에 대한 결과와 3차 고조파 차단에 대한 결과를 나타내었다. 2차 및 3차 고조파를 동시에 제거하기 위해서는 식(1)의 \( \tan \theta_{b} \)를 \( \tan \theta_{b 1}+\tan \theta_{b 2} \)로 바꾸고 파라미터 값을 얻었으며 이 결과를 그림 2에 나타내었다. 단일 고조파 제거 시보다 2개의 고조파가 동시에 제거되는 경우에 병렬 스터브의 특성 임피던스가 증가함을 알 수 있다.</p>
|
상기 주어진 수식에서는 총 4개의 변수 \( Z_{a}, Z_{b}, \theta_{a}, \theta_{b} \)가 존재한다. 개방형 스터브의 길이 \( \theta_{0} \)는 제거하고자 하는 고조파의 차수 \( n \)에 의해 결정된다. 직렬 전송선로의 파라미터를 결정한 이후에는 식(6)을 통해 개방형 스터브의 특성 임피던스를 얻을 수 있으며, 이는 그림 2에서 다양한 고조파 차수에 대한 특성 임피던스의 변화를 보여준다. 두 개의 고조파가 동시에 제거될 경우, 단일 고조파 제거보다 병렬 스터브의 특성 임피던스가 증가한다는 것이 확인되었다. 2차 및 3차 고조파를 동시에 제거하기 위해, 식(1)의 \( \tan \theta_{b} \)를 \( \tan \theta_{b 1}+\tan \theta_{b 2} \)로 바꾸어 파라미터 값을 계산하였으며, 이 결과는 그림 2에서 확인할 수 있다. 이를 통해 고조파 제거 시스템의 성능 조절에 대한 통찰력을 얻을 수 있다.
|
<h1>I. 서 론</h1> <p>3 차원 레이저 스캐닝 센서 기술의 발달로 실제 공간 상에 존재하는 다양한 물체의 기하학적 정보를 쉽게 취득할 수 있게 되면서 3차원적인 GIS(GIS: Geographic Information System)을 구현하고 취득한 정보를 이용하여 구조물을 모델링하는 연구가 활발히 진행되고 있다. 톡히 라이다(LIDAR: LIght Detection And Ranging)는 짧은 시간 안에 높은 해상도의 3차원 영상 정보를 획득할 수 있는 측량장비로서 다양한 분야에서 중요한 기능을 담당하고 있다. 라이다 장비는 크게 항공라이다와 지상라이다로 구별되는데, 지상라이다는 항공라이다와 달리 특정한 구조물을 대상으로 3 차원 점군 데이터를 획득하기 위해 사용된다. 족 지상 라이다 데이터는 고도, 반사강도 동으로 구성되는 점군데이터로서 건물이나 수목을 비롯한 다양한 여러 구조물에 대한 정보가 포함된다.</p> <p>지상라이다 데이터의 경우에는 스캐닝 되는 3차원 정보롤 모두 가지고 있다는 점에서 신뢰도는 매우 높지만 이와 동시에 높은 정밀도를 가지기 때문에 데이터양이 매우 많은 특성이 있다. 또한 톡정 구조물 부근에는 주변 건물이나 수목 등 다양한 형태의 장애물이 존재하기 때문에 라이다 데이터로부터 구조물을 추출하거나 모델링하기 위해서는 잡음 데이터에 의한 영향을 최소화하기 위한 필터링 과정이 요구된다. 그러나 기존의 구조물에 대한 삼차원 모델링에 관한 연구는 항공라이다 분야에서 상대적으로 활발하게 수행되었다. Bartels 와 Wei는 지면점의 분리 절차를 우선적으로 수행하며 나머지 미분류점들로부터 지면에 대한 상대적인 높이 차이나 인접한 미분류점간 높이값의 변이정도를 기준으로 식생 및 건물 등의 3 차원 모델링을 실시하였다. McIntosh와 Krupnik은 정확한 3차원 표면 모델링을 위해 함께 취득한 항공사진으로부터 지형지물의 경계선 추출을 병용하였는데, 지형이 평탄한 주거지를 대상으로 하였다.</p> <p>그러나 이러한 방법은 항공라이다 데이터에 대해서는 적합하지만, 지상라이다의 경우에는 대상 구조물과 레이저 센서 사이에 유사한 크기의 장애물이 다양하게 존재하기 때문에 이를 직접적으로 적용할 때 성능이 만족스럽지 못할 뿐 아니라 여러 제한 요소를 피할 수 없다. 뿐만 아니라 구조물의 모델링 작업을 자동화하기 위해서는 가능하면 사용자의 개입을 최소화할 필요가 있다. 따라서 지상 라이다 데이터의 특성에 적합하며 사용자의 편의성을 고려한 새로운 모델링 기법의 개발이 필요하다.</p> <p>본 논문에서는 지상라이다 점군데이터로부터 구조물 영역을 추출하는 기법을 기반으로 하여 구조물을 모델링하는 기법을 제안한다. 즉 대상 구조물 영역의 추출을 위해 지상라이다 데이터에 포함된 색상 정보를 이용하여 구조물에 해당하는 점군데이터를 분할하고, Hough 변환을 통해 분할된 점군데이터로부터 삼차원 공간에서 구조물에 해당하는 직선 방정식을 추정한 후, 추정된 직선과 점군데이터 사이의 거리를 비교하는 방법을 사용한다. 이러한 과정을 거쳐 추출된 구조물은 모델링에 앞서 수행되는 데이터 클러스터링 과정에서 임계값을 설정하는 데에 필요하다. 최종적인 모델링 과정은 클러스터 단위로 TIN(Triangulated Irregular Network)을 생성함으로써 이루어진다.</p>
|
지상라이다는 점군데이터로서 다양한 구조물의 정보를 포함하는데, 지상 라이다 데이터의 특성과 구조물 모델링의 자동화를 고려했을 때 새로운 모델링 기법이 필요하므로, 본 논문은 점군데이터 구조물 영역 추출 기법을 기반으로한 구조물 모델링 기법을 제안한다.
|
<h1>II. 제안 방법</h1> <h2>1. 데이터 클러스터링</h2> <p>지상라이다의 경우는 일반적으로 목표 구조물이 정해진 상태에서 특정 영역만을 대상으로 측정이 이루어지기 때문에 획득한 데이터의 밀집도가 곺고 레이저 센서가 지상에 위치하기 때문에 구조물의 인근에 주변 건물이나 수목 등의 장애물이 존재할 가능성이 높다. 그리고 이와 같은 데이터 획득 과정에서 상애물 등으로 인해 발생하는 잡음은 구조물의 3차원 모델링 성능에 상당한 영향을 미친다. 즉 구조물의 표면을 표현하기 위해서 TIN 형태를 구성하는 과정에서 작은 잡음이라도 존재하면 구조물과 잡음 사이에 TIN이 생성되면서 잘못된 결과가 나타난다. 그림 1은 지상라이다에서 획득한 필드데이터로부터 TIN을 생성하는 과정에서 잡음의 존재로 인해 잘못된 결과가 얻어짐을 보여준다.</p> <p>이러한 결과는 구조물의 경계에 위치한 점과 잡음에 해당하는 점 사이에 TIN이 생성되기 때문에 발생한다. 따라서 안정적인 모델링 성능을 얻기 위해서는 잡음을 적절하게 필터링하는 과정이 반드시 요구된다.</p> <p>이를 위해 본 논문에서는 데이터 클러스터링을 통해 주어진 필드데이터를 여러 개의 클러스터로 구분하고 구조물에 해당하는 클러스터를 차례로 추가해 나가면서 모델링을 진행하는 방법을 사용한다.</p> <p>데이터 클러스터링 과정에서는 일단 분류를 위한 기준 축을 선택해야 한다. 일반적으로 특정 방향을 따라 잡음 데이터가 존재할수록 해당 방향의 데이터가 넓게 분포한다는 가정하에, \( \mathrm{x}, \mathrm{y}, \mathrm{z} \) 각 방향의 데이터 분포의 정도를 살펴보고 이 가운데 데이터가 가장 좁게 분포한 축을 우선적으로 선택하여 분석한다.</p> <p>그림 2 는 3 차원 필드 데이터의 \( \mathrm{x}, \mathrm{y}, \mathrm{z} \) 각 축에 대한 데이터의 분포를 나타낸다. 그립에서 보는 바와 같이 \( z \) 축 방향의 분포가 가장 집중되어 있음을 알 수 있다. 그러나 이와 같은 데이터의 분포만을 가지고는 클러스터링을 위한 임계값을 결정하기가 용이하지 않다. 따라서 본 논문에서는 우리의 이전 연구결과인 3차원 점군데이터로부터 구조물 영역 추출기법을 활용한다. 그림 3 은 3 차원 점군데이터로부터 구조물 영역 추출기법의 알고리즘 흐름도이다. Hough 변환을 활용하여 얻어진 직선 방정식을 임계값으로 하여 구조물을 추출하고 추출된 구조물 단위도 \( z \) 축의 데이터롤 나누어 클러스터링을 수행한다.</p> <h2>2. 클러스터 단위의 대화형 모델링</h2> <p>구조물의 모델링을 위해 Delaunay triangulation 기법을 이용하여 \( \mathrm{TIN} \) 을 생성한다. 이 기법은 삼각형을 이루는 임의의 세 점을 선택하여 외접원의 반지름을 구하고 이러한 원 안에 다른 꼭짓점이 존재하지 않는 형태로 불규칙적인 삼각형의 네트워크를 구성하는 방법이다. 그림 4는 임의의 점 데이터에 대한 Delaunay triangulation의 결과를 외접원과 함께 보여준다.</p> <p>그림 5 에서는 Delaunay triangulation 기법에서 삼각형의 세 꼭지점을 이루는 \( \mathrm{A}(\mathrm{x}, \mathrm{y}), \mathrm{B}(\mathrm{x}, \mathrm{y}), \mathrm{C}(\mathrm{x}, \mathrm{y}) \) 를 외접원과 핞께 평면상에 나타내었다. 여기서 점 \( \mathrm{A}, \mathrm{B}, \mathrm{C} \) 의 순서는 시계반대방향으로 정해진다.</p> <p>이제 새로운 임의의 점 \( \mathrm{D} \) 가 주어질 때 이 점이 삼각형 외접원의 내부에 존재하는지 아니면 외부에 존재하는지를 판단하여야 한다. 이를 판별하기 위한 기준은 식 (1)과 같다.</p> <p>\( D(A, B, C, D) =\begin{vmatrix} A_{x}A_{y}A^{2}_{x}+A^{2}_{y}1 \\ B_{x}B_{y}B^{2}_{x}+B^{2}_{y}1 \\ A_{x}A_{y}C^{2}_{x}+C^{2}_{y}1 \\ A_{x}A_{y}A^{2}_{x}+D^{2}_{y}1 \end{vmatrix} \\ =\begin{vmatrix}A_{x}-D_{x} & A_{y}-D_{y} & \left(A_{x}^{2}-D_{x}^{2}\right)-\left(A_{y}^{2}-D_{y}^{2}\right) \\ B_{x}-D_{x} & B_{y}-D_{y} & \left(B_{x}^{2}-D_{x}^{2}\right)-\left(B_{y}^{2}-D_{y}^{2}\right) \\ C_{x}-D_{x} & C_{y}-D_{y} & \left(C_{x}^{2}-D_{x}^{2}\right)-\left(C_{y}^{2}-D_{y}^{2}\right)\end{vmatrix}>0 \)<caption>(1)</caption></p> <p>여기서 \( \mathrm{D}(\mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D})=(0 \) 이면 점 \( \mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D} \) 는 동일원상에 존재하며, \( \mathrm{D}(\mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D})>0 \) 인 경우는. 점 \( \mathrm{D} \) 가 점 \( \mathrm{A}, \mathrm{B}, \mathrm{C} \) 의 외접원 내부에, \( \mathrm{D}(\mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D})<0 \) 인 경우는 외접원 외부에 존재한다.</p> <p>제안하는 방법에서는 앞서 분할된 클러스터 단위로 모델링을 수행하는데, 클러스터의 우선순위에 따라서 Delaunay triangulation 기법을 차례대로 적용한다. 여기서 클러스터의 우선순위는 클러스터에 포함된 점군데이터의 개수가 많을수록 높개 결정된다. 이는 일반적으로 잡음에 해당하는 클러스터의 경우에는 이에 포함된 점군데이터의 개수가 적기 때문이다. 따라서 일단 최고의 우선순위률 가지는 클러스터 즉 점군데이터를 가장 많이 포함하는 클러스터에 대해서 TIN을 생성한 훅, 클러스터를 차례대로 하나씩 더해 나가면서 TIN을 생성한다. 이 과정에서 사용자가 원하는 만큼의 클러스터를 선택함으로써 모댈링의 수준을 대화식으로 조정할 수 있다는 장점이 있다.</p>
|
지상라이다는 목표 구조물이 정해진 상태에서 특정 영역만을 대상으로 측정하기 때문에 데이터의 밀집도가 높고, 레이저 센서가 지상에 위치하기 때문에 구조물 주변 건물이나 수목 등의 장애물이 존재할 수 있다. 따라서 데이터 클러스터링을 통해 필드데이터를 여러 개의 클러스터로 구분하고 구조물에 해당하는 클러스터를 차례로 추가하는 모델링하여 \( \mathrm{x}, \mathrm{y}, \mathrm{z} \) 각축 방향으로 분포한 데이터 중 가장 좁게 분포한 축을 우선적으로 선택하여 분석한다. 클러스터의 우선순위에 따라서 Delaunay triangulation 기법을 차례대로 적용하는데, 사용자가 클러스터를 선택한 만큼 모델링의 수준을 대화식으로 조정할 수 있다는 장점이 있다.
|
<h1>I. 서 론</h1> <p>무선 기술의 발달로 인해 PDA, 노트북등의 보급이 확대됨에 따라 사용자가 이동 중에도 유선 환경에서 받는 서비스와 비슷한 품질의 무선서비스를 기대하기에 이르게 되었다. 이러한 무선 모바일 사용자의 증가는 모바일 노드를 식별하기 위한 새로운 주소 체계의 도입을 필요로 하게 되었다. 기존의 네트워크 망은 단말 장치의 고유성을 부여하고자 IP주소(Internet Protocol Address)를 사용하였으나, 무선 단말기에서는 무선 노드의 이동에 따라 복잡한 결과를 초래하게 된다. 이는 네트워크간의 이동이 있을 때마다 새롭게 아이피 주소를 갱신하여야 하며, 이에 따라 단말기의 고유한 주소를 보장해주지 못하기 때문이다.</p> <p>이러한 문제를 해결하고자 언제, 어디서나 장소에 관계없이 통신 네트워크에 접속하는 모바일 아이피 기법이 제안되었다. 이는 기존의 아이피 네트워크의 활용을 근간으로 하여 아이피 레이어에서의 모바일 아이피 광고 메시지를 통하여 모바일 노드의 본래의 고유 아이피 주소를 지속적으로 사용가능하게 함으로써 이동성을 보장해주는 기법이다.</p> <p>IEEE 802.11을 지원하는 무선 단말 장치는 전파 기술에 영향을 받아 실질적인 통신 범위에 제약이 있을 수 밖에 없다. 이는 곧 무선 액세스 포인트 통신 범위의 제한을 의미하며, 각각의 액세스 포인트가 속한 무선 네트워크를 이동하게 되는 모바일 노드에게는 기존에 통신을 유지하던 네트워크 망과의 연결을 끊고, 새로운 네트워크 망과의 연결을 생성하여야 하는 과정이 요구된다.</p> <p>이렇게 새로운 네트워크 망으로의 이동을 감지하고, 연결을 재설정하는 일련의 과정을 핸드오프 과정이라 한다. 모바일 아이피에서의 핸드오프는 두 가지 계층에서 발생되어 진다. 첫 번째 핸드오프 과정은 링크 레이어에서 발생한다. 실제 링크 레이어에서의 구분은 액세스 포인트에서의 새로운 광고 프레임(advertisement frame)을 수신함으로써 이루어지게 된다. 두 번째 핸드오프 과정은 아이피 레이어에서 발생하는데, 이것은 무선 네트워크 망을 구별하기 위하여 모바일 에이전트(Mobile Agent)에서 일정한 주기를 가지고 전송되어지는 모바일 아이피 광고 메시지(mobile IP advertisement) 패킷을 수신한 이후에 새로운 네트워크 영역에 진입한 것을 인지하게 됨으로써 이루어진다. 이러한 네트워크 레이어에서의 핸드오프 지연 시간은 모바일 광고 메시지(mobile advertisement)의 브로드캐스팅 주기와 밀접한 연관을 가지게 된다.</p> <p>본 논문에서는 모바일 아이피 등록 과정동안 야기되는 패킷 손실과 지연 시간을 줄이고자 링크 레이어에서의 새로운 네트워크 영역의 감지가 이루어지게 되는 경우 이를 이동이 예상되는 네트워크로 설정하여, 기존 액세스 포인트와의 연결이 끊어지는 경우 설정되어진 네트워크 영역으로 곧바로 패킷을 포워딩함으로써 전체적인 핸드오프 지연 시간과 패킷 손실을 감소시키는 기법을 제안하도록 한다.</p>
|
링크 레이어에서의 새로운 네트워크 영역의 감지가 이루어질 때 이를 이동이 예상되는 네트워크로 설정하여, 기존 액세스 포인트와의 연결이 끊어질 때 설정되어진 네트워크 영역으로 곧바로 패킷을 포워딩함으로 전체적인 핸드오프 지연 시간과 패킷 손실을 감소시켜 언제, 어디서나 장소에 관계없이 통신 네트워크에 접속하는 모바일 아이피 기법이 제안되었다.
|
<h1>V. 결 론</h1> <p>기존의 모바일 아이피 핸드오프 감소 기법은 최대 광고 메시지의 방송 주기만큼의 네트워크 핸드오프 지연시간을 단축시켜주는 효과적인 기법이다. 그러나 네트워크 영역을 인지 한 이후, 통신이 가능한 상태 임에도 불구하고 모바일 아이피 등록 과정을 거치는 동안, 모바일 노드로의 패킷이 손실 된다. 또한 이는 곧 핸드오프 지연 시간의 연장과도 직결된다.</p> <p>본 논문에서는 무선 액세스 포인트의 중첩된 신호 영역에서 모바일 노드가 기존의 액세스 포인트와 다른 MAC 주소를 가진 액세스 포인트를 감지하게 되면 이를 커넥션 풀 테이블에 저장하여 기존 네트워크에서의 패킷 전송이 실패하게 될 경우 테이블의 예측 이동 네트워크 정보를 활용하여 곧바로 모바일 아이피 등록 과정 동안에도 패킷의 전송이 이루어질 수 있는 기법을 제안하였다.</p> <p>제안한 커넥션 풀과 커넥션 히스토리 테이블을 유지하는 에이전트를 추가하여 성능을 측정한 결과 기존 핸드오프 감소 기법 대비 지연 시간에서 \( 56 \% \)의 뛰어난 성능 향상을 나타내었다. 또한 무선 서비스 가운데에 멀티미디어 스트리밍 서비스를 구현하여 패킷 손실 개수를 살펴본 결과에서도 0개에 가까운 패킷 손실만을 나타내어, 실제 서비스 환경에서도 끊김 현상이 없는 자연스러운 품질을 기대 할 수 있을 것으로 나타났다.</p> <p>이처럼 본 논문에서 제안하는 알고리즘은 기존의 핸드오프 지연 시간 감소 기법과 비교하여 지연 시간과 패킷 손실 면에서 성능이 향상되었음을 보이고 있다. 실제 모바일 호스트로의 패킷 전송과정을 보다 신속하게 이동 네트워크의 예측을 통하여 핸드오프 지연 시간을 단축하는 본 논문의 제안 기법은 0개에 가까운 패킷 손실을 나타냄으로써 실제적인 서비스 환경에서도 사용이 가능한 것으로 나타났다. 그러나 모바일 노드가 신호가 중첩되는 영역에서의 연속적인 이동을 보이고, 중첩 영역에서 이동 예상 네트워크로 이동하지 않고 서비스를 종료하는 경우 동의 모바일 노드의 이동 패턴의 상황에서는 제안한 예측 기법에 관련된 패킷 전송은 모두 오버헤드로 나타나는 문제점이 있게 된다. 이러한 모바일 노드의 이동 패턴을 고려한 오버헤드 감소 기법에 관하여, 향후 연구에서 다룰 생각이다. 또한 TCP 환경에서 패킷 재전송과 모바일 아이피에서의 핸드오프 지연 시간과의 관계에 대한 연구를 기반으로, 실제적인 인터넷 환경에서의 패킷 전송과 관련된 서비스 품질의 향상에 대한 연구로 확장시키고자 한다.</p>
|
본 논문에서는 무선 액세스 포인트의 중첩된 신호 영역에서 모바일 노드가 기존의 액세스 포인트와 다른 MAC 주소를 가진 액세스 포인트를 감지하게 되면 이를 커넥션 풀 테이블에 저장하여 테이블의 예측 이동 네트워크 정보를 활용하여 곧바로 모바일 아이피 등록 과정 동안에도 패킷의 전송이 이루어질 수 있는 기법을 제안했고, 커넥션 풀과 커넥션 히스토리 테이블을 유지하는 에이전트를 추가하여 성능을 측정한 결과 기존 핸드오프 감소 기법 대비 지연 시간에서 \( 56 \% \)의 뛰어난 성능 향상을 나타내었다.
|
<h1>II. 관련 연구</h1> <h2>1. 링크 레이어에서의 핸드오프</h2> <p>무선 통신에는 물리적인 통신 범위가 존재한다. 액세스 포인트(Access Point)의 패킷 전송 범위의 한계로 인하여 모바일 노드가 이동함에 따라 액세스 포인트 간의 이동 역시 발생할 수밖에 없게 된다.</p> <p>액세스 포인트 간의 이동이 이루어지게 되면 (그림 1)과 같이 AP1과 AP2로부터의 신호가 중첩되는 영역이 존재한다. 이 영역에서 모바일 노드의 네트워크 인터페이스 카드는 각각의 액세스 포인트로부터의 신호의 크기를 비교하여 신호가 강한 AP로의 링크 연결을 유지하게 된다. AP2의 통신 가능 영역에 가까워져 AP1에서 보다 강한 신호가 감지되는 순간 AP1과의 연결을 끊고 AP2와의 링크 연결을 갱신하는 링크 레이어 핸드오프가 수행 되게 된다.</p> <h2>2. 네트워크 레이어에서의 핸드오프</h2> <p>새로운 네트워크 영역으로 이동하여, 링크 레이어에서의 핸드오프가 완료되어 새로운 액세스 포인트와의 링크 연결이 이루어 진 후에는 모바일 광고 메시지를 수신하여 새로운 네트워크임을 감지하게 된다. 모바일 광고 메시지의 방송 주기가 \( T \)초이고, 모바일 노드의 링크 레이어 핸드오프가 완료된 시점과 최근 방송된 모바일 광고 메시지와의 시간 격차가 \( k \)초인 경우, 모바일 노드는 네트워크의 이동을 감지하기 위하여 \( T-k \)초를 대기하여야만 한다. \( T-k \)초는 네트워크 레이어에서의 핸드오프 지연 시간과 직결 되는데, 평균적으로는 \( \frac{T}{2} \)초의 네트워크 핸드오프 지연 시간을 가진다.</p> <h2>3. 캐싱 에이전트 기법</h2> <p>네트워크 레이어에서의 인식 과정보다 링크 레이어에서의 인식 과정에 소비되는 시간은 매우 적다. 그 시간은 네트워크 레이어 핸드오프 지연 시간의 \( 4 \% \) 정도이며, 따라서 링크 레이어의 핸드오프를 기반으로 모바일 아이피 핸드오프 과정을 수행하게 되면 전체적인 지연 시간을 감소시킬 수 있을 것이다.</p> <p>링크 레이어 핸드오프가 완료된 후 새로운 액세스 포인트와의 통신이 이루어지기 시작하면, 모바일 노드는 자신이 새롭게 이동한 링크 레이어의 네트워크 정보를 알기 위하여 간청 메시지(solicitation message)를 보낸다. 이러한 간청 메시지는 캐싱 에이전트(Caching agent)가 수신하여 처리하게 된다.</p> <p>캐싱 에이전트는 최근의 모바일 광고 메시지를 수신하여 저장한 후에 모바일 노드의 간청이 있는 경우에 모바일 광고 메시지를 재생(replaying)하여 최신의 모바일 광고를 즉시 수신할 수 있도록 지원하는 기능을 가진다.</p> <p>모바일 아이피 등록 과정은 새로운 네트워크에서의 모바일 노드의 진입을 홈 네트워크에 알리는 과정이다. 그런데 특정 모바일 노드가 속한 네트워크의 액세스 포인트와 인접한 액세스 포인트의 수는 한정적이다. 기존에 모바일 노드가 속하였던 네트워크에서의 패킷 전송이 실패하게 되어 포린 에이전트에서 해당 모바일 노드의 등록 취소(deregistration)가 이루어짐과 동시에 이웃한 모든 액세스 포인트들의 네트워크로의 패킷 포워딩이 이루어지게 되면, 모바일 아이피 등록 과정 동안 손실될 수 있는 패킷의 수를 0에 가깝게 줄일 수 있을 것이다. 그러나 실제 모바일 노드가 진입한 특정 네트워크 이외의 다른 이웃한 네트워크로의 패킷 포워딩에 따른 불필요한 네트워크 대역폭의 낭비와 기존 포린 에이전트에서의 패킷 포워딩에 따른 부하는 모두 불필요한 핸드오프 오버헤드를 발생 시키게 된다.</p>
|
모바일 노드의 네트워크 인터페이스 카드가 각각의 액세스 포인트로부터의 신호의 크기를 비교하여 신호가 강한 AP로 링크 연결을 갱신하는 링크 레이어 핸드오프가 완료된 후, 모바일 노드가 간청 메시지를 보내면 캐싱 에이전트는 모바일 광고 메시지를 재생하여 최신의 모바일 광고를 즉시 수신할 수 있도록 지원한다. 한편 모바일 아이피 등록 과정은 새로운 네트워크에서의 모바일 노드의 진입을 홈 네트워크에 알리는 과정이며, 이때 모바일 노드가 진입한 네트워크가 아닌 네트워크로의 패킷 포워딩에 따른 네트워크 대역폭 낭비와 기존 포린 에이전트에서의 패킷 포워딩에 따른 부하는 불필요한 핸드오프 오버헤드를 발생시킨다.
|
<h1>IV. 실 험</h1> <h2>1. 실험 환경</h2> <p>패킷 발생기로는 JM Studio 버전 2.1.1e를 사용하였으며 스트리밍은 H.263/RTP를 사용하였다. 포린 에이전트와 홈 에이전트는 Pentium4 \( 2.8 \mathrm{GHz}, 1 \mathrm{G} \) 메모리 PC를 사용하여 구현하였으며, 모바일 호스트는 Pentium M \( 1.6 \mathrm{GHz} \), \( 1 \mathrm{G} \) 메모리의 무선 노트북을 이용하여 구현하였다. 무선 액세스 포인트는 802.11b를 지원하는 D-Link사의 DL-524를 사용하여 Beacon frame rate는 \( 100 \mathrm{msec} \), Solicit Life Time은 \( 1,000 \mathrm{msec} \)로 설정하였다.</p> <h2>2. 모바일 아이피 소프트웨어 모듈 추가 및 수정</h2> <p>모바일 노드 소프트웨어인 JMIP의 구조는 네트워크 인터페이스 카드를 통하여 수신되는 모든 패킷의 정보를 링크 레이어 레벨에서 컨트롤 할 수 있는 Jpcap native 모듈을 기본으로 하여, 패킷을 분석하여 type \( =16 \)의 모바일 광고 메시지를 수신하게 되면, CoA를 부여받고 모바일 아이피 등록 과정을 수행함으로써, 핸드오프를 완료하게 된다. 이 때 기존의 모바일 에이전트에서는 자신이 가지고 있던 모바일 노드들에게 부여하였던 CoA 리스트 가운데에 해당 모바일 노드의 정보를 삭제하는 startDeregistration() 모듈을 수행하게 된다.</p> <p>모바일 노드가 가진 모듈 가운데에 updateNewAgentAdvt는 새로운 모바일 광고 메시지가 전송되어질 시점을 의미하게 된다. 모바일 에이전트에서는 이 시기에 자신의 CoA 리스트에서 해당 모바일 노드를 삭제하는 모듈을 수행하게 된다. 본 논문에서는 커넥션 풀과 커넥션 히스토리 테이블을 관리하며, 패킷 포워딩을 지시하는 모듈을 별도의 데몬 형식으로 실행하였다.</p> <h2>3. 성능 측정</h2> <p>모바일 노드가 기존의 무선 네트워크 망에서 마지막으로 패킷을 수신한 이후 핸드오프가 완료되어 이동한 무선 네트워크 망으로부터 최초로 패킷을 수신하게 된 순간까지 소요된 시간을 전체 핸드오프 지연 시간으로 측정하였다. 모바일 아이피 소프트웨어에서의 각 단계 별 모듈의 실행 시간을 기초로 하여 측정하였으며, 링크 레이어 핸드오프, 광고 메시지 간청 과정 및 네트워크 레이어 핸드오프와 모바일 아이피 등록 과정의 각 단계별 모듈의 과정으로 구분하여 수행하였다.</p> <p>핸드오프 지연 시간동안 손실될 것으로 예상할 수 있는 패킷 손실은 실제 무선 통신 서비스를 통하여 멀티 미디어 데이터를 보거나, 인터넷 전화와 같은 서비스를 이용하는 경우에는 손실되는 패킷의 개수가 화면이 일그러지거나, 상대방의 목소리의 끊김 현상의 직접적인 원인을 제공하게 된다. 이를 살펴보고자 본 논문에서는 모바일 노드에게 멀티미디어 스트리밍을 제공하면서 손실되는 패킷의 개수를 살펴보았다. RTP/UDP를 사용하여 패킷을 전송하는 방법으로 유실되는 패킷의 수를 정확히 파악할 수 있다. 그리고 RTP의 time stamp와 sequence number정보를 사용하여 시간에 따라 손실되는 패킷을 확인 할 수가 있다. 이것으로 시간에 따른 sequence number의 그래프를 그렸을 경우, 직선이 끊김이 생기지 않고 원만하게 나타날수록 패킷 손실이 적다는 것을 알 수 있다. 실험은 기존의 액세스 포인트의 전원을 차단함으로써, 새로운 액세스 포인트로의 링크 연결이 이루어지게 하여 수행하였다.</p> <p>(그림 8)의 그래프를 살펴보면, 직선의 끊김이 크지 않고, 비교적 원만하게 나타나고 있음을 볼 수 있다. 기존의 캐싱 에이전트에서의 패킷 손실 실험 역시 두 곳에서의 액세스 포인트와의 중첩 지역에서 기존의 액세스 포인트의 전원을 차단함으로써, 핸드오프를 발생 시켜 수행하였다. 전송 프로토콜은 H.263/UDP/RTP을 사용하였으며, 전송 속도는 \( 160 \mathrm{kbps} \)으로 설정하였다.</p> <p>(그림 9)에서의 그래프를 살펴보면, 제안된 기법에서의 그래프와 비교하여 직선의 끊김 현상이 크다는 것을 알 수가 있다. 각 그래프에서 나타난 Sequence number를 살펴보면 제안 기법에서는 2개, 기존의 캐싱 에이전트 기법에서는 5개 패킷이 손실되었음을 알 수가 있다. 즉 제안된 핸드오프 감소 기법이 기존의 캐싱 에이전트만을 사용한 기법에 비하여 성능이 향상되었음을 정량적으로 확인 할 수 있다. 20여회의 실험을 통한 실제 유실 된 평균 RTP 패킷의 수는 다음의 표를 통하여 확인 할 수 있다.</p> <p>위의 [표 1]에서 제안된 기법에서 패킷의 손실 또한 기존의 기법 대비 \( 43 \% \) 정도의 패킷 손실울 나타내고 있음을 확인 할 수 있다. 0개에 가까운 패킷 손실을 보인 이 실험의 결과로 무선 서비스를 받는 유저에게 서로 다른 네트워크를 이동하는 모바일 환경에서도 실제적으로 체감 할 수 없을 정도의 서비스 끊김 현상을 제공할 수 있을 것으로 기대된다.</p>
|
본 논문에서는 커넥션 풀과 커넥션 히스토리 테이블을 관리하며, 패킷 포워딩을 지시하는 모듈을 별도의 데몬 형식으로 실행하였는데, 모바일 노드가 기존의 무선 네트워크 망에서 마지막으로 패킷을 수신한 이후 핸드오프가 완료되어 이동한 무선 네트워크 망으로부터 최초로 패킷을 수신하게 된 순간까지 소요된 시간을 전체 핸드오프 지연 시간으로 측정하였다. 제안된 핸드오프 감소 기법이 기존의 캐싱 에이전트만을 사용한 기법에 비하여 성능이 향상되었음을 정량적으로 확인 할 수 있고, 패킷의 손실 또한 기존의 기법 대비 \( 43 \% \)정도의 패킷 손실울 나타내고 있음을 확인 할 수 있으므로 무선 서비스를 받는 유저에게 서로 다른 네트워크를 이동하는 모바일 환경에서도 실제적으로 체감 할 수 없을 정도의 서비스 끊김 현상을 제공할 수 있을 것으로 기대된다.
|
<h1>III. 제 안 기 법</h1> <p>기존 기법에서는 링크 레이어 핸드오프 이후 새로운 광고 메시지 수신까지의 지연 시간을 캐싱 에이전트를 통해 감소시켰다. 그러나 여전히 모바일 아이피 등록 과정에서 발생하는 지연 시간이 존재하고 이로 인해 패킷이 손실(drop)된다. 이러한 문제점을 개선하고자 본 논문에서는 링크 레이어 핸드오프 시 이동 방향 예측을 통하여, 모바일 아이피 등록 과정에서 발생하는 핸드오프 지연 시간과 패킷 손실을 최소화하는 기법을 제안하였다.</p> <p>제안 기법의 핵심 아이디어는 크게 두 가지이다. 하나는 중첩 영역에서 얻게 되는 새로운 AP에 대한 정보를 기존의 AP에 존재하는 포린 에이전트에 알려줌으로써 핸드오프가 발생했을 시 모바일 노드가 이동한 지역으로 전송 데이터를 우회시켜주는 것이다. 또한 CoA 생성으로 인한 지연 시간을 줄이기 위해 CoA pool을 만들어서 즉각적으로 CoA를 할당하도록 하였다. 이를 위해 각각의 포린 에이전트에 커넥션 풀을 탑재하였으며, 구체적인 방법은 다음과 같다.</p> <h2>1. 링크 레이어 핸드오프 예측</h2> <p>모바일 노드는 네트워크를 이동하면서 기존의 액세스 포인트로부터의 연결을 끊고 새로운 네트워크의 액세스 포인트와 통신을 시작한다. 액세스 포인트와의 통신은 모바일 노드의 네트워크 인터페이스 카드에서 담당하게 된다. 네트워크 인터페이스 카드는 자신에게 전송되어지는 신호들의 세기를 비교하여 가장 강하다고 판단되는 액세스 포인트의 신호를 선택하여 링크 레이어 핸드오프 과정을 시작한다.</p> <p>이와 같은 과정은 (그림 2)와 같이 두 개의 액세스 포인트의 신호가 중첩되는 영역에 모바일 노드가 위치하고 있을 때 수행된다.</p> <h2>2. 제안 기법</h2> <p>링크 레이어 핸드오프 감지를 통해 모바일 노드는 새로 진입하게 될 네트워크에 대한 MAC 어드레스 주소를 얻게 된다. 제안 기법은 이를 바탕으로 빠른 핸드오프 알고리즘을 제안한다.</p> <h3>(1) 전송 데이터 우회 기법</h3> <p>모바일 노드가 새로운 네트워크에 진입하게 됨에 따라 새로운 지역의 MAC 주소를 얻게 된다. 이 MAC 주소는 새 지역의 AP에 대한 정보라고 할 수 있다. 모바일 노드는 이 MAC 주소를 기존 지역에 존재하는 포린 에이전트에게 알려주게 된다.</p> <p>(그림 3)은 모바일 노드가 이동하면서 얻게 되는 MAC 주소를 포린 에이전트의 커넥션 풀 테이블에 업데이트하는 것을 나타내고 있다. 이를 통해 기존의 포 린 에이전트는 모바일 노드가 이동할 지역에 대한 정보를 얻게 된다. 그리고 모바일 노드가 기존 네트워크를 떠나서 핸드오프가 일어나게 되고, 기존 AP와의 연결이 끊기게 되면 현재 전송되고 있던 데이터를 모바일 노드의 이동 예상 네트워크 AP로 전송한다. 모바일 노드가 AP와의 연결이 끊겼다고 판단하는 시점은 모바일 노드로부터의 신호가 감지되지 않는 때이다. (그림 4)는 이러한 과정에 대한 내용을 나타내고 있다.</p> <p>(그림 3)의 링크 레이어 핸드오프 감지 알고리즘에 커넥션 풀 테이블 업데이트 과정을 반영한 알고리즘은 (그림 5)와 같다. 새로운 AP로부터의 신호가 감지되고, 또한 이러한 AP로부터의 신호가 최초의 경우인가를 flag를 두어 판단한 후에 최초의 신호라고 판명된 경우에 한하여 update_ConnectionPool()을 통하여 이동 예상 네트워크에 대한 정보를 업데이트한다.</p> <h3>(2)COA 풀을 통한 빠른 핸드오프 기법</h3> <p>모바일 IP에서는 이동 네트워크에서 사용할 임시적인 주소인 CoA를 사용한다. 그런데 기본적으로 이러한 CoA는 모바일 노드가 새로운 네트워크로 진입한 후 포린 에이전트에게 요청을 한 후에 새로 생성을 해서 할당이 된다. 그런데 이러한 과정이 핸드오프 지연 시간에 직접적으로 반영되기에 본 논문에서는 CoA 풀을 통한 빠른 CoA 할당 기법을 제안한다.</p> <p>(그림 6)은 포린 에이전트가 사용할 CoA를 보여주고 있다. 포린 에이전트는 모바일 노드로부터 CoA 간청 메시지가 들어오면 미리 생성되어 있는 CoA 풀에서 할당해 준다. CoA 풀의 크기는 고정된 크기로 정하였으나, 모바일 노드들의 유입성에 따라 동적으로 변할 수 있다. 본 논문에서는 실험을 위해 10개의 CoA 풀을 만들었다. CoA가 할당되면 포린 에이전트는 지속적으로 CoA를 생성하여 CoA 풀을 유지한다.</p> <p>(그림 7)는 제안 기법의 구동 순서를 중요 단계별로 나타낸 것으로 화살표의 번호 순서대로 진행이 된다.</p>
|
모바일 아이피 등록 과정에섯의 패킷 손실을 최소화하는 기법으로 2가지가 있다. 하나는 새로운 AP 모바일 노드를 이동한 지역으로 우회시키는 것이고 또 하나는 CoA pool을 생성해서 CoA를 할당하는 방법이다.
|
<p>\( C_ { i j } ^ { k } = \left \{\begin {aligned} \left |e ^ { k } \right |, & \text { if } C_ { i j } \in \operatorname { Path } \left (e ^ { k } \right ) \\ 0, & \text { otherwise } \end {aligned} \right . \)</p> <p>식 (2)에서 \( C_ { i j } \) 는 어플리케이션 코어 그래프 중 임의 두 코어 사이의 communication \( e ^ { k } (1 \leq k \leq E) \) 가 NoC의 노드 \( n_ { i } \) 와 \( n_ { j } \) 사이를 경유함 \( \left (=P a t h \left (e ^ { k } \right ) \right ) \) 을 가리키고 대역폭 제한 조건을 만족하기 위해서는 NoC 상의 임의 링크 \( l_ { i j } (1 \leq i, j \leq N) \) 를 경유하는 모든 communication의 총 합은 해당 링크의 최대 대역폭을 초과해서는 안된다는 의미이다.</p> <p>그림 2 에서 어플리케이션 코어 매핑의 예를 들었다. 그림 2 (a)는 시스템 실제 구성도에 대한 어플리케이션 코어 그래프를 나타낸다. 그림에서 화살표 및 숫자는 각각 두 코어 사이에 전송되는 데이타의 방향 및 양 \( ( \mathrm { MB } / \mathrm { s } ) \) 을 가리킨다. 그림 2 (b) 는 (a)를 mesh 구조의 NoC에 매핑한 결과이다.</p> <h2>2. ACO 파라미터의 정의</h2> <p>ACO는 개미로 모델링된 agent 들의 해집합 탐색 결과가 페로몬 테이블로 누적되고 이러한 페로몬은 다음 agent들의 탐색 시 기초 정보가 되어 보다 우수한 해를 선택하는 agent들을 점차로 증가시켜 어느 정도의 시간이 흐르면 결국 대부분의 agent들이 하나의 해로 수렴하는 형태로 최적 값을 찾는 방식이다. 보다 자세한 내용은 참고문헌 [9-10]을 참조바란다. 먼저 코어 매핑 문제를 ACO 기반으로 접근하기 전에 다음과 같이 몇 가지 전제를 하였다.</p> <ul> <li>NoC의 구조: Mesh</li> <li>라우팅 알고리즘: XY Routing</li> <li>서비스: Guaranteed Service</li> <li>코어 크기: 모든 코어의 크기는 동일함</li> <li>제한 조건: 링크 대역폭(Link Bandwidth)</li> <li>설계 목적: 네트워크 지연 시간, 즉 평균 홉 수</li></ul> <p>이외에도 트래픽 패턴은 균일하다고 가정하였으며 데이타의 패킷화 및 충돌로 인한 지연 시간은 별도로 고려하지 않았다. 매핑 문제를 위하여 ACO 주요 파라미터들을 다음과 같이 정의하였다.</p>
|
ACO는 개미 모델을 사용하여 최적의 해를 찾는 방법이다. NoC의 Mesh 구조, XY Routing 알고리즘, Guaranteed Service, 링크 대역폭 제한 조건, 평균 홉 수를 최소화하는 목적으로 ACO 파라미터들을 정의하였다. ACO를 사용하여 코어 매핑 문제를 해결하기 위해 개미 모델, Mesh 구조, XY Routing 알고리즘, Guaranteed Service, 링크 대역폭 제한 조건, 평균 홉 수를 최소화하는 목적으로 ACO 파라미터들을 정의하였다.
|
<p>최적화된 NoC 구성을 위해서는 코어 사이의 데이타 전송 스케쥴링과 코어 매핑을 묶어서 처리하는 것이 바람직하다. 그러나 태스크 단위의 스케쥴링 자체가 너무 복잡하기 때문에 먼저 코어간 데이타 전송양 및 시간을 고정시킨 이후에 매핑을 실행하고 그 결과에 따라 미리 고정한 스케쥴링을 수정하고 이후 같은 과정을 반복하면서 목표로 하는 결과를 유도하는 점진적인 방법을 사용하고 있다.</p> <h1>III. ACO 기반 어플리케이션 코어 매핑</h1> <h2>1. 문제의 정의(Problem Formulation)</h2> <p>매핑 문제를 어플리케이션 코어 그래프, \( \mathrm { G } (V, E) \) 로 정의하면 \( v_ { i } \in V \) 는 코어, \( e_ { i j } \in E \) 는 코어 \( v_ { i } \) 와 \( v_ { j } \) 사이를 연결하는 링크로서 연결된 코어 사이의 communication이 있음을 나타낸다. 그리고 \( e_ { i j } \) 의 값은 \( v_ { i } \) 와 \( v_ { j } \) 사이의 communication 양을 의미한다. 또한 mesh 구조의 NoC는 \( \mathrm { M } (N, L) \) 로 나타내며 \( n_ { i } \in N \) 는 NoC상의 노드, \( l_ { i j } \in L \)은 노드 \( n_ { i } \) 와 \( n_ { j } \) 사이를 연결하는 물리적인 선이 있음을 나타낸다. 그리고 \( l_ { i j } \) 의 값은 해당 링크의 대역폭을 의미한다. 상기 내용을 기반으로 어플리케이션 코어 매핑을 정의하면 식 (1)과 같다.</p> <p>\( \operatorname { map } : G \rightarrow M \), s.t.map \( \left (v_ { i } \right ) = n_ { j } \), \( \forall v_ { i } \in V, \exists n_ { j } \in N \)<caption>(1)</caption></p> <p>단 매핑은 \( |V| \leq|N| \) 일 때 성립하며 NoC 대역폭 제한 조건을 정의하면 다음과 같다.</p> <p>\( \sum_ { k=1 } ^ { |E| } C_ { i j } ^ { k } \leq \left |l_ { i j } \right |, \forall i, j \in N \)<caption>(2)</caption></p>
|
NoC 구성의 최적화를 위해 데이타 전송 스케쥴링과 코어 매핑을 묶어서 처리하며, 먼저 코어간 데이타 전송양 및 시간을 고정한 후 매핑을 실행하고 그 결과에 따라 미리 고정한 스케쥴링을 수정하는 점진적인 방법을 사용하고 있다.
|
<h1>IV. 실험 결과</h1> <p>제안한 알고리즘은 C 시뮬레이션을 통하여 검증하였으며 모든 실험은 Sun UltraSPARC III \( 1.2 \mathrm { GHz } \) 프로세서 시스템에서 진행되었다. 최종 결과 도출을 위해 사용한 ACO의 주요 파라미터 값은 다음과 같다.</p> <ul> <li>\( N_ {\text { colony } } : 10 \)</li> <li>\( \gamma \): 10 \)</li> <li>\( \rho: 0.95 \)</li> <li>\( \tau ^ {\min } : 2.0, \tau(0): 20.0 \) (페로몬의 초기 값)</li> <li>\( \Delta \tau: 0.2 \)</li></ul> <p>상기 값들은ACO 관련 이전 연구와 계산 시간 등을 고려하여 실험적으로 결정된 것이다. 그리고 실험에서 사용한 어플리케이션 코어 정보는 [8]에서 제시한 videoobject plane decoder를 사용하였다. 그러나 코어들의 트래픽 크기를 제외한 다른 세부 정보, 즉 크기나 전력 소모량에 관련된 정보가 없기 때문에 전력 소모량 최소화를 설계 목적으로 제시한 기존 결과와의 직접적인 비교는 불가능하다. 참고로 그림 2 (b)의 매핑 결과를 평균 홉 수만 계산하면 1.92 이며 \( \beta \) 의 값을 10, 그리고 \( \mathrm { B } / \mathrm { W } \) limit를 1000 으로 고정하고 본 논문에서 제안한 알고리즘으로 매핑하였을 때 평균 홉 수는 1.75이며 매핑 결과를 그림 4 에서 나타내었다. 그러나 설계 목적이 변화하거나 추가되더라도 그림 3 의 코어 매핑 과정 대부분은 그대로 유지되며 매핑 후 제한조건 만족 여부를 확인하는 부분과 일부 ACO 파라미터들의 조절만이 요구된다.</p> <p>또한 주어진 어플리케이션 코어 매핑 최적화를 위한 \( \beta \) 값 및 합당한 대역폭을 구하기 위하여 \( \beta \) 및 대역폭의 범위를 가변시키며 평균 네트워크 지연 시간을 구하였다. \( \beta \) 의 범위는 선험 값 \( \eta_ { i } \) 를 사용하지 않는 1 부터 선험 값에 의해 코어 위치가 거의 고정되는 20까지 고려하였고 링크 대역폭의 제한 영역은 입력된 코어 정보를 기준으로 유효 매핑 결과를 얻을 수 있는 최소 대역폭부터 임의 매핑이 가능한 대역폭 영역까지 실험하였다. 실험 결과는 표 1 에서 나타내었다.</p> <p>표 1의 1-2번 열은 대역폭을 \( 1000( \mathrm { MB } / \mathrm { s } ) \) 으로 고정하고 \( \beta \) 를 변화시키면서 평균 네트워크 지연(홉 수)을 측정한 결과이다. 결과를 보면 \( \beta \) 가 커지면서 트래픽이 많은 일부 코어들의 위치가 거의 일정하게 되고 이에 따라 최종 결과의 변화가 없어짐을 확인할 수 있다. 즉 \( \beta \)가 커지면 ant의 해집합 검색 범위가 줄어들어 알고리즘 계산 시간이 감소하지만 전체 최적 값에 이르지 못하고 국부 최적(local optimal) 값으로 수렴될 확률이 증가한다. 그러나 \( \beta \)가 작아지면 해집합 범위가 증가하여 최종 결과의 파동(fluctuation)이 발생할 확률이 증가하므로 이를 방지하기 위한 ACO 파라미터, 특히 강화 파라미터 \( ( \Delta \tau) \),의 일부 변경이 필요할 수 있다. 표 1의 3-4 번 열은 \( \beta \) 를 10 으로 고정하고 대역폭의 크기를 변화시 키면서 평균 네트워크 지연을 측정한 결과이다. 대역폭이 증가하면서 네트워크 지연 정도가 감소하는 것을 확인할 수 있으며 또한 계산 시간도 크게 감소하였다. 지금까지의 결과를 분석하면 대부분의 경우 근사화된 최적 값으로의 수렴은 보장되나 최종 결과에 이르는 시간 및 이에 요구되는 NoC 특성, 예를 들어 동작속도나 라우팅 알고리즘의 최적화도 동시에 이루기 위해서는 효과적인 ACO 파라미터의 결정이 선행되어야 함을 알 수 있다.</p> <p>12개의 코어로 구성된 본 실험에서 고정된 수행 조건 별로 제안된 알고리즘을 이용하여 최종 결과를 도출하는데 소요된 시간은 평균 1초 내외였다. 따라서 일반적으로 많은 수의 코어가 내장되는 NoC 기반 SoC 설계 과정에 쉽게 적용 가능하다고 판단된다.</p> <h1>V. 결 론</h1> <p>NoC는 이론적인 당위성보다는 현재 직면하고 있는 문제를 해결하기 위한 방법으로 대두된 것이고 아직까지는 다른 대안이 없기 때문에 많은 연구자들의 관심은 이제 NoC의 상용화와 시스템 구축 방법으로 수렴되고 있다. 본 연구에서 수행된 규칙적인 NoC 구조 하에서의 어플리케이션 코어 매핑 방법은 NoC 기초 연구의 일환일 뿐만 아니라 NoC 기반 SoC 설계 플랫폼 개발의 시작으로 향후 본 연구 성과는 실용적인 설계 플랫폼 구축과 이와 관련한 많은 아이디어를 도출하고 검증 할 수 있는 초석이 될 수 있을 것이다.</p>
|
\(\beta\)가 크면 ant의 해집합의 검색 영역이 줄어들기 때문에 알고리즘의 계산 시간이 줄어들지만 전체의 최적의 값에 다다르지 못하고 국부 최적의 값이 될 가능성이 증가하고 \(\beta\)가 작아지면 해집합의 검색 영역이 커져 결과의 파동이 발생할 확률이 커지므로 이를 막기 위한 ACO 파라미터, 특히 강화 파라미터의 일부분의 변경이 필요 할 수 있어 대역폭이 커지면 네트워크 지연 속도가 줄어들고 계산 시간도 크게 감소한다.
|
<h1>I. 서 론</h1> <p>Network-on-Chip(NoC)는 지금까지의 온칩연결구조와 달리 칩의 적용 분야 및 기능에 따라 매우 다양한 형태로 구현이 가능하기 때문에 전체 시스템 개발 시간 및 용도 별로 최적화된 구조를 위해서는 플랫폼 기반 설계 방식과 자동화가 매우 중요하다. 특히 멀티프로세서 시스템과 같이 범용 동작을 목표로 하는 시스템이 아니고 특정 목적과 기능울 가지는 시스템을 NoC 로 구현할 경우 더욱 중요하다고 할 수 있다. 따라서 표준화 되고 효율적인 NoC 기반 시스템 설계 과정 구축과 이를 지원하는 각종 툴의 개발은NoC 기반 시스템의 성공 유무를 결정하는 핵심 연구 분야이다. NoC 는 설계 고려 사항이 굉장히 많기 때문에 필요한 기능 및 구조를 제한된 개발 시간 하에서 효과적으로 도출하기 위해서는 상위 수준의NoC 모델링을 얼마나 정확하게 그리고 빠르게 할 수 있는가가 중요하다. 상위 수준의 NoC 개발은 C, C + + , XML 혹은 SystemC와 같은 상위 수준의 언어를 이용한 NoC의 생성 및 검증 단계를 의미한다. 상위 수준 NoC 개발의 최초 과정은 NoC 와 내장 코어 기술(description) 수준이나 방법, 벤치마크, 입출력 데이타의 형태나 내용 등에 대한 정의이다. NoC를 어떤 수준에서 어떻게 표현해야 하는지 그리고 어떤 내용이 포함되어야 하는지에 대한 사전 정의가 선행되고 이후 NoC 의 입출력 파라미터, 예를 들면 NoC 상의 패킷 형태 및 트래픽 특성에 대한 세부적인 결정이 필요하다. 이러한 선행 단계가 완료되면 두 번째 과정으 로 NoC 모델링 플랫폼을 구축해야 한다. 모델링 플랫폼은 mapper, scheduler, compiler 그리고 simulator를 통칭하는 것으로 NoC 자동 생성에 필요한 관련 툴 또는 방법을 의미한다. Mapper란 SoC에 내장되는 여러 블럭들을 NoC 상에 할당하는 것으로 최적화를 위해서 는 NoC 생성과 동시에 이루어져야 한다. 하지만 문제의 단순화를 위해서 두 문제를 분리하여 처리할 수 있다. Scheduler는 현재 구성에서 최소의 리소스만으로 전체 패킷 처리량(throughput)을 최대화시키고자 하는 것이다. 이 결과에 따라 기존의 매핑 과정을 다시 취할 수 있다. Compiler란 NoC 기술 수준을 변경하는 것으로 상위 수준의 NoC 모델을 합성 가능한 RTL 또는 SystemC수준의 형태로 변형하는 것을 포함한다. 마지막으로 simulator는 결정된 NoC 모델을 가상적으로 시뮬레이션하는 것으로 성능 평가 및 예측에 사용한다. 그림 1 에서 상위 수준 NoC 개발의 전체적인 과정을 나타내었다.<p>일단 생성된 NoC는 실제 코어 모델을 NoC에 할당하고 task 단위로 스케쥴링하여 해당 결과가 설계 목적에 부합되는지를 확인한다. 설계 목적과 부합되지 않으면 다시 매핑 및 스케쥴링 과정을 반복하는데 일정 횟수까지 목표를 만족시키지 못하면 다시 상위로 올라가서 NoC 파라미터들을 수정하여 새로운 NoC모델을 만들어 다시 그림 1 의 과정을 수행한다.</p>
|
Network-on-Chip(NoC)는 기존 구조와는 달리 다양한 형태로 구현이 가능하며 특히 특정 목적과 기능을 가지는 시스템을 NoC로 구현할 경우 더욱 중요하다. 그렇기 때문에 표준화 된 효율적인 NoC 기반 시스템을 설계하는 과정과 이를 지원하는 각종 툴의 개발이 핵심 연구 분야이다. C, C++, 파이썬 등 여러 가지 언어를 사용하여 상위 수준의 NoC 모델링을 통해 필요한 기능 및 구조를 제한된 개발 시간 하에서 효과적으로 도출하는 것이 중요하며 이를 위해서는 상위 수준의 NoC 모델링을 어마나 정확하고 빠르게 할 수 있는지가 중요하다.
|
<p>\( p_ { i } (k)= \frac {\tau_ { i } (k) \cdot \beta } {\sum_ {\epsilon=1 } ^ { N } \left ( \tau_ { i } ( \epsilon) \cdot \beta \right ) } , \begin {array} { l } \text { if } \eta(i)=k, \beta \geq 1 \\ \text { else } \\ \beta=1 \end {array} \)<caption>(4)</caption></p> <p>식 (4)를 간단히 정리하면 \( p_ { i } (k) \) 는 현재 비어있는 노드 중 하나를 선택할 때 이미 할당된 다른 코어와 그 위치에 대한 선호도의 총 합을 기준으로 가장 높은 선호도를 부여받은 노드에 대한 할당 가능성을 증가시키는 것이다. 식에서 \( \beta \) 는 할당될 노드 중 선험 값으로 결정된 노드에 대해서는 다른 노드에 비해 상대적인 선호도를 증가시키기 위해 가중치를 부여하는 파라미터로 이 값은 프로그램 상에서 임의 변경 가능하다. 단 최초로 매핑되는 코어와 그 위치는 완전 임의 방식으로 선정한다.</p> <h3>페로몬 정보의 수정</h3> <p>모든 코어를 매핑한 이후 네트워크 지연 시간을 측정하여 그 결과에 따라 해당 매핑의 우수성을 평가하고 그 내용을 페로몬 정보 수정을 통하여 반영하는 과정이다.</p> <p>\( \tau(t + 1)= \rho \cdot \tau(t) + \Delta \tau(t) \)<caption>(5)</caption></p> <p>상기 식 (5)에서 \( \rho \) 는 페로몬의 평균 감쇠 파라미터이며 \( \Delta \tau \) 는 페로몬 강화 파라미터이다. 알고리즘 성능에 큰 영향을 미치는 강화 파라미터는 현재 상수 값으로 고정시키는 방식을 사용한다.</p> <h3>Exploration과 Exploitation의 균형을 위한 방법</h3> <p>해집합의 충분한 검색 및 결과 값의 신뢰성을 위하여 iteration-best \( \operatorname { solution } \left (S ^ { i b } \right ) \) 와 global-best solution \( \left (S ^ {\mathrm { gb } } \right ) \), 그리고 페로몬의 최소값 \( \left ( \tau ^ {\min } \right ) \) 설정 방식을 적용한다. 또한 군집체(colony) 당 ant의 수는 하나로 고정한다.</p> <h2>3. ACO 기반 어플리케이션 코어 매핑 과정</h2> <p>전체적인 ACO 기반 어플리케이션 코어 매핑 과정은 그림 3에서 나타내었다. 매핑 과정에 대한 세부 설명에 앞서 사용된 ACO 파라미터 중 앞에서 언급하지 않은 것을 정의하면 다음과 같다.</p> <ul> <li>\( N_ { i b } \) : Iteration-best ant의 수</li> <li>\( N_ {\text { colony: } } \) 하나의 군집체 내 ant의 수</li> <li>\( \gamma \). \( S ^ { g b } \) 를 다시 사용하기 위해 대기하는 횟수</li></ul> <p>그림 3 의 1번 라인은 모든 코어들에 대한 선험 값을 구하는 과정이다. 전체 코어 중 일부에만 선험 값을 할당하는 경우 추가적인 파라미터를 사용하여 트래픽 유발 상위 몇 \( \% \) 블럭에만 할당할 것인가에 대한 결정이 필요하며 현재는 상위 \( 15 \% \) 블럭으로 한정하였다. 2번 라인의 경우 지금까지 언급한 모든 ACO 파라미터의 초기 값을 결정하는 과정이다. 3번 라인은 페로몬 정보를 초기화시키는 과정으로 초기 값은 일반적으로 \( \rho \) 의 크기에 따라 결정되며 현재는 \( 100 /(100- \rho) \) 로 정의하였다. 그리고 4번 라인부터 ACO를 이용한 반복적인 매핑 과정이 시작된다. 전체 매핑 과정은 크게 2개의 루프로 구성되는데 첫 번째 루프(5번 라인부터 시작)는 iteration-best solution을 구하는 과정이며 두 번째 루프(6번 라인에서 시작)는 군집체 단위의 코어 매핑 결과를 구하는 과정이다. 7번 라인에서 구한 매핑 결과는 대역폭 제한 조건을 검사하고 이를 만족할 경우에만 네트워크 지연 시간 계산을 통하여 최종 매핑 결과 값으로 확정하게 된다. 만약 대역폭 조건을 위반하는 경우 별도의 네트워크 지연 시간 계산 없이 사전에 결정한 최대 지연 시간으로 할당한다. 군집체 단위의 매핑 결과는 iteration-best solution 및 패로몬 정보 수정에 사용한다. 그리고 일정 횟수의 iteration-best solution이 반영되면 그 중 가장 우수한 매핑 결과를 global-best solution과 비교, 기존 solution보다 우수할 경우 이를 대체하며 global-best solution 결과는 8 번마다 한 번 씩 페로몬 수정에 사용한다.</p>
|
ACO 기반 어플리케이션 코어 매핑 과정에서 식 (4)는 현재 비어있는 노드 중 하나를 선택할 때 이미 할당된 다른 코어와 그 위치에 대한 선호도의 총 합을 기준으로 가장 높은 선호도를 부여받은 노드에 대한 할당 가능성을 증가시키는 것으로, ACO 파라미터는 \(\alpha\)는 페로몬 정보의 중요도, \(\beta\)는 할당될 노드 중 선험 값으로 결정된 노드에 대해 상대적인 선호도를 증가시키기 위한 가중치, \(\rho\)는 페로몬의 평균 감쇠 파라미터, \(\Delta\tau\)는 페로몬 강화 파라미터, \(\gamma\)는 학습 속도를 나타낸다.
|
<h3>페로몬의 정의 \( \left ( \tau_ { i } (k) \right ) \)</h3> <p>페로몬, \( \tau_ { i } (k) \) 는 코어 \( i \) 가 노드 \( k \) 에 위치하는 것에 대한 선호도이며 다음과 같이 계산된다.</p> <p>\( \begin {aligned} \tau_ { i } (k)=& \Sigma_ { g_ { j } \in S } \tau \left (k_ { i } , g_ { j } \right ) \\ & 1 \leq i, j \leq V, 1 \leq k, g \leq N \end {aligned} \)<caption>(3)</caption></p> <p>식 (3)에서 \( S \) 는 현재 ant에 의하여 이미 다른 노드에 매핑된 코어들의 집합이며 \( g_ { j } \) 는 코어 \( j \) 가 \( g \) 노드에 위치하고 있다는 것을 나타낸다. 결국 상기 식에서 \( (k_ { i } \), \( g_ { j } \) )가 의미하는 것은 노드 \( g \) 에 코어 \( j \) 가 위치하고 있을 때 노드 \( k \) 에 코어 \( i \) 가 매핑되는 것에 대한 선호도를 가리킨다.</p> <h3>선험 값의 선정 \( \left ( \eta_ { i } \right ) \)</h3> <p>선험 값 \( \eta_ { i } \) 는 다양한 동작 조건 하에서 최적 값을 좀 더 수월하게 구하기 위해 사전 결정되거나 이미 알고있는 주요 정보를 매핑 위치 선택에 참조할 수 있도록 삽입하는 과정이다. 본 연구에서 사용되는 \( \eta_ { i } \) 는 어플리케이션 코어 중 다른 코어와의 데이타 송수신 양이 많은 것을 골라 이웃 노드와의 연결 링크가 많은 노드에 우선적으로 배정하는 방식을 사용한다. 즉 그림 2 의 예제 중 vop reconstruction처럼 트래픽을 많이 유발하는 블럭을 가능하면 mesh의 내부 노드에 할당되도록 가중치를 부여하는 것이다. 물론 실제 코어 매핑 시 페로몬 정보와 선험 값의 반영 비율은 임의로 조절이 가능하다.</p> <h3>페로몬과 선험 값을 이용한 확률적인 결정</h3> <p>Ant가 코어 \( i \) 를 노드 \( k \) 에 할당하는 확률 값, \( p_ { i } (k) \) 는 다음과 같이 계산된다.</p>
|
페로몬 \(\tau_{i}(k)\)는 코어 \(i\)가 노드 \(k\)에 위치하는 것에 대한 선호도이며, \(\tau_{i}(k)\)\(=\Sigma_{g_{j}\in S}\tau\left(k_{i} ,g_{j}\right )\)(\(1\leq i, j\leq V\), \(1\leq k, g \leq N \))가 성립한다. 선험 값 \(\eta_ {i}\)는 다양한 동작 조건 하에서 최적 값을 구하기 위해 사전 결정되거나 이미 알고있는 주요 정보를 매핑 위치 선택에 참조해 삽입하는 과정이며, 코어 매핑 시 페로몬 정보와 선험 값의 반영 비율은 조절 가능하다.
|
<p>본 연구에서는 이러한 NoC 설계 과정 중 가장 포괄적이며 NoC의 장점을 최대화할 수 있는 NoC 구조에 어플리케이션 코어들과 여러 작업 등을 매핑하는 방법을 개발한다. NoC 매핑 및 스케쥴링은 NP-complete 문제 수준의 복잡도를 가지고 있기 때문에 많은 계산 시간이 요구되므로 효과적인 근사화 알고리즘이 필요하다.</p> <h1>II. 기존 연구의 분석</h1> <p>NoC 개발을 위해 제일 먼저 선행되어야 할 것은 구현 과정에서 고려되어야 할 여러 요구 조건들이다. 이러한 요구 조건에는 설계자가 판단하고 결정할 설계 목적(design or user objective)들과 설계 제한조건(design constraint), 그리고 내장되는 코어들의 특성(core characteristic) 등이 포함된다. 상기 조건들은 상호 의존적으로 하나의 조건이 다른 조건들에 미치는 영향이 적용 범위 및 정도에 따라 다양하기 때문에 많은 가정 및 선험적인 접근이 필요하다. 예를 들면 어떤 코어가 초당 \( 100 \mathrm { Mbyte } \) 정도의 대역폭을 필요로 한다면 이를 만족시키기 위해서는 NoC의 동작 속도와 링크 폭 등의 제어 조건이 있다. 그 중 동작 속도를 조절하면 NoC의 전력 소모량, 타이밍 조건 등이 변화하고 이에 따라 NoC의 레이아웃이나 네트워크 연결부의 구조 등이 가변될 수 있다. 만약 NoC의 레이아웃이 변경되면 데이터 패킷의 평균 라우팅 거리가 바뀌기 때문에 NoC의 전체 throughput이 변경된다. 이러한 throughput에 대한 제어 조건으로 다시 NoC의 동작 속도나 링크 폭 등이 사용될 수 있으므로 결국 무한 반복 과정이 발생한다. 따라서 문제의 단순화를 위해 일부 조건은 고정하는 방식으로 접근해야 한다.</p> <p>최근 수년간 NoC 개발 과정에서 발생하는 다양한 문제들을 제기하며 이에 대한 효과적인 개선 방안들이 꾸준히 발표되고 있다. 그러나 아직까지는 많은 제한 요소 및 가정을 전제로 하는 적용 분야별 혹은 NoC토폴로지 단위의 성능 해석 및 관련 개발 방법 이외에는 일반적으로 통용될 수 있는 방법론이 아직은 전무한 상황이다.</p> <p>NoC 매핑을 위해 사용되는 설계 목적으로는 평균 홉 수, 전송 에너지 등을 주로 사용하며 최근에는 복수개의 평가 기준을 적용시킨 경우나 실제 사용 시 발생하는 다양한 시스템의 기능에 따라 매핑 결과를 변화시키는 아이디어도 발표되었다. 그러나 코어의 크기나 동작이 확연히 다른 경우 이웃한 두 노드의 라우터는 전송 지연 시간과 전력 소모량이 크게 달라진다. 따라서 정확한 지연 시간 및 전력 소모량을 계산하기 위해서는 매핑 과정에서 레이아웃에 대한 정보도 추가하는 것이 보다 정확한 결과를 도출하기 위하여 필요하다. 그러나 이에 따른 알고리즘의 복잡도는 추가되는 정보의 양에 비례해 증가할 것이다. 또한 열적 평형 문제도 함께 고려하는 것이 필요한데 이것은 고밀도 구조에서 발생하는 hotspot으로 인한 열적 불평등이 초래하는 하드웨어의 수명 단축 및 오동작 가능성을 줄이기 위함이다.</p>
|
설계자가 판단하고 결정할 설계 목적들과 설계 제한조건, 그리고 내장되는 코어들의 특성등은 상호 의존적으로 하나의 조건이 다른 조건들에 미치는 영향이 적용 범위 및 정도에 따라 다양하다. 정확한 지연 시간 및 전력 소모량을 계산하기 위해서는 매핑 과정에서 레이아웃에 대한 정보도 추가하는 것이 정확한 결과를 도출하게 하고, 고밀도 구조에서 발생하는 hotspot으로 인한 열적 불평등이 초래하는 하드웨어의 수명 단축 및 오동작을 줄이기 위해 열적 평형 문제도 함께 고려하여야 한다.
|
<h1>요 약</h1> <p>21 세기 정보화 사회에서 요구되는 정보통신 전문 인력을 양성하기 위하여 시간과 공간적 제약을 벗어나 정보통신 전문교육을 효율적으로 실시할 수 있는 온라인 교육을 통하여 교육 수요자 측면에서의 열린 평생교육의 필요성이 절실하게 요구되는 현실이다. 이에 따라 본 연구는 원격 교육 컨텐츠의 표준화 모델에 대하여 살펴보고 특히 정보통신 관련 컨텐츠의 표준 모형을 제시하여, 사이버대학의 정보통신 교과목 컨텐츠 제작과 운영의 기초 자료로 활용할 수 있도록 함으로써 온라인상에서의 정보통신 교과목을 효율적으로 운영하여 교육의 효과를 극대화할 수 있도록 기여하고자 하였다. 본 연구를 통해 현재 사이버대학 및 사이버 교육 기관의 정보통신 관련 컨텐츠의 현황과 문제점을 분석하고 사이버 교육 컨텐츠 제작에 관한 국제 표준화 활동에 대한 연구를 수행하여 정보통신 교과목의 컨텐츠 표준모형을 제시하였다.</p> <h1>I. 서 론</h1> <p>정보통신 기술의 발전과 함께 교육 체제는 다양한 형태로 변화하고 있다. 이 중 하나가 기존의 교실 중심의 집단 학습 체제에서 가상 교육 체제로 빠르게 전환되어 가고 있다. 가상 교육 체제는 자원 중심적이며 수요자 중심의 교육 체제로, 개방적이며 상호작용적 특성을 지닌 교육 체제이다.</p> <p>가상 교육 체제에서 특히 주목을 받는 것은 온라인 원격 교육이다. 온라인 원격 교육은 단 방향 교사 중심의 교육 체제에서 양방향 학습자 중심의 교육 체제 구축을 그 목표로 하고 있다. 온라인 원격 교육의 특성을 요약하면 다음과 같다.</p> <ul> <li>가. 효율적인 상호작용 증가로 인한 맞춤식 교육 가능</li> <li>나. 학습자 중심으로 참여 지향적 실천적 교육 실현</li> <li>다. 학습 수요자의 요구를 반영한 교육 구현</li> <li>라. 교육의 적시성, 적절성, 현장성에 부응</li> <li>마. 교육과정 운영에 따른 시간 및 비용 절감</li> <li>바. 다양하고 풍부한 정보에 대한 접근용이</li></ul> <p>원격교육(e-learning)은 컴퓨터기 반(computer-based) 교육, 웹 기반(web-based) 교육, 가상학습(virtual classroom), 디지털 협업(digital collaboration)을 포함하는 개념으로 기술기반(technology-based) 교육을 의미한다.</p> <p>현재 e-learning에 기반한 사이버 교육기관 및 컨텐츠는 계속 증가하고 있으나 사이버 교육 컨텐츠의 표준화된 제작 절차 및 운영 모델은 부재한 상태라 할 수 있다. 이에 따라 국제 표준에 기반한 e-learning 컨텐츠의 개발, 활용 및 컨텐츠에 대한 품질 관리의 필요성이 절실하게 대두되고 있는 실정이다.</p> <p>본 논문에서는 사이버 교육기관에서 제작 운영 중인 컨텐츠의 문제점과 현황을 분석하고 IEEE, AICC, ADL 등 국내외 다양한 연구기관 등을 통해 진행되고 있는 국제 원격교육 표준화에 관한 연구 성과 등을 바탕으로 국내 상황에 최적화될 수 있는 국제 표준모델을 분석하고 국제 원격교육 표준을 적용하여 컨텐츠의 재활용성, 내구성, 접근성 및 호환성을 만족하는 표준 제작 모델을 제시하고자 한다.</p>
|
21세기 정보화 사회에서는 시간과 공간적 제약을 벗어나 정보통신 전문교육을 효율적으로 실시할 수 있는 온라인 교육이 요구되는데, 이에 따라 온라인상에서의 정보통신 교과목을 효율적으로 운영하여 교육의 효과를 극대화할 수 있도록 기여하고자 사이버대학 및 사이버 교육 기관의 정보통신 관련 컨텐츠의 현황과 문제점을 분석하고 사이버 교육 컨텐츠 제작에 관한 국제 표준화 활동에 대한 연구를 한다.
|
<h1>IV. 결론 및 활용방안</h1> <p>국내외 사례 분석 결과 대부분의 IT 교육기관의 경우 IT 분야의 빠른 변화 속에서 사회환경 및 기업의 다양한 교육 요구에 부합하지 못하는 상황에 직면하고 있으며 새로운 발전 발향을 모색하고 있다. Stanford, e-Cornell, MIT, Arizona State University, Virginia Tech 와 같은 대학들은 다양하게 세분화된 학습자의 교육요구에 보다 적응적으로 대응하기 위한 전략들을 시도하고 있으며, 이러한 발전 방향의 큰 흐름은 표준화를 기반으로 한 컨텐츠 및 시스템 개발을 통해 학습자 개개인의 교육요구에 부합할 수 있도록 학습자 스스로 다양한 방식으로 계획하고 구조화할 수 있는 학습단위(학습객체)를 제공하고 있다.</p> <p>본 연구를 통해 IT 교과목 컨텐츠 유형을 지식의 이해 및 습득을 중심으로 하는 Knowledge_based Course(이론중심과정)과 지식의 활용과 적용을 중심으로 하는 Skill_based Course(기술중심과정)으로 분류하여 두가지 유형이 복합된 형태로 컨텐츠를 제작할 것을 제시하였다.</p> <h2>1. 기대효과</h2> <p>21C 지식기반사회에서는 지식의 축적과 내부적인 지식의 전달 뿐만 아니라 지식의 전 세계적인 공유와 다양한 활용이 부각됨에 따라 국제표준에 근거한 컨텐츠 및 관련 시스템 개발의 필요성 및 중요성을 인식하게 되었다.</p> <p>국제표준에 근거한 컨텐츠 개발을 위해서는 교육을 포괄하는 모든 형태의 지식 정보의 재활용성(Reusability), 접근성(Accessibility), 상호호환성(Interoperability), 내구성(Durability)과 같은 기본요건을 만족시키는 표준화된 제작 모형(모델링)이 요구되었으며 궁극적으로 각 사용자들에게 적합한 개인화, 차별화된 지식정보를 적시에 사용자가 원하는 형태로 제공함으로써 개인별, 집단적 학습효과 및 생산성을 최대화하기 위해 국제표준에 근거한 컨텐츠 표준화 모델의 개발은 필수적이라는 인식이 공통적으로 형성되었다.</p> <p>현재 국내 원격교육기관들은 원격교육 시스템 및CP(Contents Provider)들이 공급하는 비 표준화된 교육관리 시스템 및 컨텐츠를 제공받음으로써 컨텐츠와 학습자 간의 상호작용을 제어할 수 있는 기능이 미비 혹은 부재한 현상이 일어나게 되며 컨텐츠의 재활용성과 유연성 및 확장성에 제한을 받고 있는 실정이다. 더욱이 컨텐츠 제작에 있어 비전문적인 개발 및 제작 인력구성과 표준화된 제작절차의 부재는 이러한 현상을 더욱 부채질하고 있는 실정이다.</p> <p>본 연구는 현재 국내원격교육 기관들이 직면하고 있는 컨텐츠 제작의 표준화 요구를 수용하여 국제원격교육표준에 기반하여 각 유형에 맞는 컨텐츠 모델을 제공함으로써 컨텐츠의 품질을 강화하고 지식공동체 구축을 통한 지식의 공유와 활용을 가능케 하는 등의 기대효과를 거둘 수 있을 것으로 예상된다.</p> <h2>2. 활용방안</h2> <p>본 연구를 통해 현재 국내외 원격교육현황, 국내 원격교육의 위치, 국제원격교육표준화 동향 등을 파악할 수 있게 됨으로써 향후 국내 원격교육의 지향점 및 발전방향 그리고 원격교육표준화 동향에 있어서의 국제적인 리더십확보를 위한 요소를 도출하여 적용시킬 수 있을 것으로 예상된다.</p> <p>국제원격교육표준(SCORM) 기반의 표준화된 원격교육 컨텐츠 제작모델과 향후 정보통신 관련 사이버대학의 컨텐츠 제작 및 운영의 지침으로 활용 가능하며 컨텐츠 표준화 모델을 통해 국내 사이버 교육 기관에 대한 가이드라인으로서의 역할을 할 수 있으며 이를 통해 활용성이 극대화된 컨텐츠를 제작할 수 있으며 전문화된 컨텐츠 구축체계를 통해 그 활용도가 매우 높을 것으로 예상된다.</p> <p>또한 컨텐츠 개발, 운영, 피드백 등 각 단계에서의 표준화된 개발방법론을 적용하고 제작단계별 품질검수체제 구축 및 객관화된 컨텐츠 품질평가체계를 적용한다면 한층 더 높은 품질의 컨텐츠를 서비스할 수 있으며 이를 바탕으로 학습자의 만족도를 최대로 끌어올릴 수 있는 원격교육서비스 체제를 구축할 수 있을 것이다.</p> <h2>3. 향후 발전방향</h2> <h3>가. 컨텐츠 공유체제 구축</h3> <p>전국 사이버대학 및 원격교육기관 간 컨텐츠 공유체제를 구축하여 각 대학간 혹은 기관간 지식 격차를 극복하고 교육의 내실화에 기여하고 교육경쟁력 강화를 도모하도록 한다.</p> <p>이를 위하여 컨텐츠 제작 시 제시된 컨텐츠 표준제작 모델을 준수하고 모든 컨텐츠는 학습객체(LO: Learning Object) 단위를 기본으로 제작하며 XML 기반의 메타데이터로 관리하여 SCORM 표준에서 제시한 메타데이터를 컨텐츠 공유 시스템에서 이용 가능하도록 재조정하도록 한다.</p> <h3>나. 지식 공유체제 구축</h3> <p>각 개별 원격교육기관을 축으로 생성, 축적된 각종 컨텐츠, 정보 및 지식자원들은 네트워크를 통해 공유, 활용되도록 하여 생성, 취합, 공유된 컨텐츠 및 정보들을 지식라이브러리 구축을 통해 지식공동체를 생성하며 이러한 컨텐츠 공유시스템을 기반으로 구축된 지식공동체는 단순한 교육 컨텐츠 및 정보 외에 최적화된 Best Practice 및 Case 정보 등 지식의 활용적 측면에서의 강화요소를 축적, 활용하여 개별적인 인적자원의 경쟁력 강화 뿐만 아니라 이를 통해 국가 경쟁력 강화로 확대하도록 한다.</p>
|
IT 교과목 컨텐츠 유형은이론적중심과정과 기술중심과정으로 분류하여 두가지 유형이 복합된 컨텐츠를 제작하는데 표준화 요구를 수용하여 국제원격교육표준에 기반하여 각 유형에 맞는 컨텐츠 모델을 제공함으로써 컨텐츠의 품질을 강화하고 지식공동체 구축을 통한 지식의 공유와 활용을 가능케 하며 각 대학간 혹은 기관간 지식 격차를 극복하고 지식의 활용적 측면에서의 강화요소를 축적, 활용하여 개별적인 인적자원의 경쟁력 강화 뿐만 아니라 이를 통해 국가 경쟁력 강화로 확대하도록 한다.
|
<h1>II. 국내원격교육의 현황</h1> <p>IT 과목의 특성상, 사용자의 요구와 기술 환경의 급격한 변화에 따라 컨텐츠의 업그레이드의 즉시성은 비용측면과 함께 교육 효과를 거둠에 있어 매우 중요한 요소이다. 그러나 대부분의 기관이 특정 저작도구를 사용하여 컨텐츠를 개발함에 따라 컨텐츠의 유연성과 재활용성에 크게 제약을 받게 되었다. 이는 컨텐츠를 업그레이드함에 있어 새로운 비용이 추가되는 요인을 발생시키며 이는 다시 컨텐츠의 즉시적인 업그레이드에 제한을 가하는 악순환이 발생하게 된다.</p> <p>대부분의 국내외 사이버교육기관이 컨텐츠 표준을 적용하지 않고 있는 실정이다. 특히 정보통신사이버대학을 포함하여 국내 사이버대학의 IT 계열학과의 경우 표준화를 통한 컨텐츠의 재사용성 등 컨텐츠 공유 개념이 도입이 되었을 경우 비용절감 및 지식공유를 통해 질 높은 컨텐츠의 재생산 등 사용자의 요구에 충실한 사이버 교육체제를 구축할 수 있을 것이다.</p> <p>교육 시스템의 표준화는 컨텐츠 표준화와 함께 원격 교육에 있어 매우 중요한 요소 중의 하나이다. 통상 LMS로 알려진 원격교육시스템은 컨텐츠와 코스의 관리, 적절한 학습 활동을 학습자에게 제공, 학습자 등록과 학습자 프로파일 관리, 학습자의 학습 활동 데이터의 수집/기록/보고, 학습자에 맞추어진 학습과정 계획, 학습 평가 및 시험 시행, 인터페이스 제공 등이 주요한 기능이나 대부분의 교육기관 등은 학습과정 및 진도관리, 간단한 성적관리 등 기본적인 기능에 그쳐 실제적인 학습제어 및 트래킹을 통한 학습자 진단 기능 등이 부재한 것으로 나타났다. 이와 같은 현상은 다수의 컨텐츠 공급자를 통한 비 표준화된 컨텐츠를 서비스함에 따라 교육플랫폼이 단순해질 수밖에 없었고 이에 따라 컨텐츠와 학습자 간의 상호작용을 제어할 수 있는 기능이 미비 혹은 부재한 현상이 일어나게 되었다.</p> <p>Blended Learning은 최근 원격교육체제의 새로운 패러다임으로 대두되고 있는 교육체제의 일부분으로 원격 교육의 장점을 극대화하고 전통적인 교육요소인 면대면 교육을 도입함으로써 원격교육에서의 교육자-학습자 간, 학습자-학습자 간의 상호작용 부재를 극복하고자 하는 것이다. 현재 사이버 대학 및 기업체 등 재교육 기관에서도 온라인 교육의 효율성과 오프라인 교육의 효과성을 혼합한 Blended Learning을 도입하고 있는 추세이다. 그러나 사례분석에 따르면 관리의 효율성과 비용 측면에서 대부분 교육공급자 위주의 학습을 전개하고 있다. 많은 교육기관 등이 원격교육 상의 한계점을 극복하고자 시스템적으로 학습자와의 상호 작용성을 극대화하고자 하나 비용대비 효과측면에서 그리고 프로그램 개발의 한계성으로 인해 많은 제한을 받고 있는 것이 사실이다.</p>
|
대부분의 국내 사이버교육기관이 컨텐츠 표준을 적용하지 않아 컨텐츠 업그레이드에 새로운 비용이 발생하거나 즉시적인 업그레이드에 제한을 주는 일이 발생한다. 교육시스템의 표준화와 컨텐츠 표준화는 원격교육에 아주 중요한 요소이다. 원격교육시스템은 주요기능보다는 기본기능 활용에 그쳐 교육플랫폼이 단순화되고 컨텐츠와 학습자간의 상호작용을 제어하는 기능이 미비해졌다. Blended Learning은 원격교육의 장범을 극대화하고 면대면 교육을 도입함으로써 원격교육에서의 상호작용의 부재를 막고자하였다. 그러나 비용대비 효과측면과 프로그램개발의 한계로 어려움을 겪고 있다.
|
<h1>III. 원격교육 표준 컨텐츠 제작모델 분석</h1> <h2>1. 컨텐츠 제작의 표준화</h2> <p>컨텐츠 제작에 있어 표준화를 통해 해당 개발 단계에서 수행해야 할 주요 임무, 참여 인력, 절차, 산출물 등을 명확히 해야 한다. 개발 단계는 기획, 설계, 제작, 시험 평가의 네 단계로 제안한다.</p> <h3>가. 기획 단계</h3> <p>기획 단계에서 이루어져야 할 내용은 다음과 같다.</p> <p>(1) 새로운 컨텐츠의 필요성과 특성에 대한 요구사항 파악 및 정의</p> <p>(2) 요구사항 분석, 학습대상자 분석을 통한 전반적인 컨텐츠 서비스 기획 활동</p> <p>(3) 개발되어질 컨텐츠의 양 및 소요예산, 투입 인력 등에 대한 계획과 개발완료 후 학습 대상자에게 제공될 서비스 형태 결정</p> <p>(4) SCORM 자체에 대한 적용여부를 우선적 결정</p> <p>(5) 사이버교육 기반의 LMS를 사용할 것인지에 대한 판단과 LMS를 사용하지 않을 경우의 컨텐츠 서비스 방법, 학습관리정보(CMI Data model) 사용여부 및 사용할 경우의 그 사용정도, 관리할 메타 데이터 정보의 수준을 필수항목에 국한할 것인지 재량항목도 기술할 것인지에 따라 서비스의 범위가 달라지고 준용할 수 있는 SCORM의 범위도 따라서 달라지게 된다.</p> <h3>나. 설계 단계</h3> <p>설계 단계에서 수행되어야 할 사항은 다음과 같다.</p> <p>(1) 기획 단계에서 정의된 가르치고자 하는 해당 교수 영역의 학습 주제를 세분화하여 분류</p> <p>(2) 학습목표와 교수내용에 따라 적절한 크기의 학습 객체 단위를 도출</p> <p>(3) 도출된 학습주제 간의 위계를 구성하여 학습주제 간의 계열화 작업을 한다.</p> <p>(4) 각각의 학습객체 (SCO) 별로 학습의 순서를 구성하는 학습 흐름도를 작성</p> <p>(5) 상기 구조가 확정되면 기획 단계에서 기술된 메타데이터 항목 이외에 교수설계자가 정의할 수 있는 메타테이터 항목을 결정한다.</p> <p>(6) 각각의 SCO 별로 스토리보드 작성 작업에 들어간다.</p> <p>(7) 하나의 SCO를 개발하는데 필요한 교수 학습 전략과 동기부여 전략, 학습자와의 상호작용, 네비게이션 및 화면설계 등의 내용이 스토리보드에 기술되도록 한다.</p> <p>(8) 교수설계자는 교수자와 내용전문가와 협동으로 학습자의 상태를 추적하여 적절한 피드백 제공과 코스 운영을 위하여 학습관리정보항목(CMI Data model)을 정의한다.</p> <h3>다. 제작 단계</h3> <p>다음은 제작 단계에서 수행되어야 할 내용이다.</p> <p>(1) 설계 단계에서 작성된 컨텐츠 설계서인 스토리보드에 의해 학습 자료인 Asset과 SCO를 제작한다.</p> <p>(2) SCORM 개발 방법론의 또 하나의 특징은 Bottom-up 개발이 가능하다는 것이다. 이미 제작되어 있는 raw media 형태의 학습자료(Asset)를 재활용하거나, 새로이 제작한 Asset을 이용하여 SCO를 구성할 수 있다.</p> <p>(3) 교수설계자가 할 수 없는 영역인 기술 영역에 대한 메타데이터 기술이 이루어져야 한다. 그 대상은 실제 컨텐츠 제작을 완료하고 해당 컨텐츠의 기술적 정보와 제약 조건 등을 기술하여야 한다.</p> <p>(4) 패키징, 즉 개발 완료된 각 SCO들을 엮어서 하나의 코스로 구성한다. 코스의 구조 및 사용되는 학습객체 SCO들 간의 전후/위계 관계, 자원에 대한 정보를 Manifest XML 파일로 작성한다. 패키징 단계에서 학습자 정보나 학습이수상황 등을 관리할 수 있는 표준화된 Data model을 사용하여 학습관리의 상세한 정보에 따른 컨텐츠 계열화 처리를 가능하게 한다.</p> <h3>라. 시험 및 평가</h3> <p>XML 로 작성된 메타데이터에 대한 시험과 개발된 SCO 및Manifest 파일에 대한 SCORM 준용 시험으로 구분하여 시험을 실시한다. 평가 관리는 개발의 마지막 단계에서 실시하는 것이 아니라 각 단계별로 컨텐츠 설계 및 제작의 품질을 제고하는 목적으로 수행되어야 한다.</p>
|
컨텐츠는 제작에 있어서 수행해야 할 주요 임무, 참여 인력, 절차, 산출물 등을 명확히 하고 개발 단계는 기획,설계,제작,시험평가로 총 네 단계로 제안한다. 시험평가를 제외한 세 가지 단계는 순서대로 수행하며 시험평가 즉 평가 관리는 마지막 단계가 아닌 각 단계별의 컨텐츠 설계 및 제작의 품질을 높이는 역할을 한다.
|
<p>국내 e-Learning 사례분석을 통해 제기된 가장 중요한 문제점은 다음과 같다.</p> <h2>1. 표준화 문제</h2> <p>효과적인 e-Learning을 실현하기 위해서는 시스템 제공자, 컨텐츠 제공자, 서비스 제공자가 표준화된 지침에 따라 시스템과 컨텐츠를 개발, 구축하고, 서비스 제공자는 이를 기반으로 서비스를 행해야 한다. 효과적인 원격 교육체제를 구축하여 서비스를 제공하기 위해서는 면대면 혹은 오프라인 교육에 비해 비용이 많이 발생하는 것은 당연하지만, 이는 초기 구축 과정의 경우이고, 축적된 컨텐츠의 재활용성을 높이고 다양한 서비스를 통해 수강자의 학습 만족도가 상승된다면 이는 비용 이산의 효과를 거두는 결과로 연결된다.</p> <h2>2. 컨텐츠의 질</h2> <p>컨텐츠의 질은 학습자의 학습 효율성과 효과성율 결정짓는 가장 중요한 요소이다. 컨텐츠의 질을 높이기 위한 두 가지 방안은 컨텐츠 제작 방식의 표준화와 컨텐츠 질 관리를 위한 평가요소의 도입이다. 컨텐츠 제작방식의 표준화는 국제 원격교육표준인 SCORM을 도입하는 것과 SCORM을 기반으로 하여 개발하는 컨텐츠의 질을 높이기 위한 개발팀의 전문성을 확보하는 것이다. 각 팀의 전문성을 극대로 한 교수설계 팀과 기술 구현 팀의 협업체 구성이 컨텐츠의 질을 좌우하는 중요한 요소로 대두된다. 또한 효과적인 컨텐츠 질 관리를 위해서는 전문화된 개발팀 구성 외에도 컨텐츠 개발 후 객관적인 평가영역을 통해 컨텐츠의 라이프 사이클을 결정하는 평가체제의 도입과 적용이 필요하다.</p> <h2>3. 교육환경문제</h2> <p>국내 환경은 학습 과정 자체가 강사 의존형인 경우가 많았으며 이러한 현상은 원격교육 공간에서도 드러나는 실정이다. 또한, 시스템적 지원이 미비한 것도 학습자가 학습의욕을 가지는데 제한적인 요소가 된다. 대부분이 획일화된 컨텐츠 내용 및 구조상의 문제로 인해 원격교육을 활용한 교육이 학습동기를 부여하는 데는 미약하다.</p> <h2>4. 의식문제</h2> <p>학습자 대부분이 원격교육을 이용하는 주된 이유를 비용절감으로 생각하고 본래 원격교육 내지는 교육이 가지는 지식생산성 촉진 가능성은 그다지 염두에 두지 않았기 때문에 국내에서의 원격교육은 도입이 시작되어서 바로 지식 교환 및 주입형 교육이 주류를 이루었고 지향점이었던 상호작용적 원격교육의 도입은 계속 늦어지고 있다. 이는 컨텐츠의 질에도 영향을 미쳐 비용절감을 모토로 삼다 보니 컨텐츠 개발에 필요한 투자에 인색한 것이 현재 국내 원격교육의 현실이다.</p> <h2>5. 연결성의 문제</h2> <p>현재 국내 네트워크는 교육 컨텐츠를 제공하는 대학 간 컨소시엄, 산학협력 및 정부차원의 고속정보통신망, 연구망, 기업망 각각 별도로 구성되어 있다. 학습자는 별도의 네트워크 내에서만 교육을 받을 수 있기 때문에 망간 상호연동이 불가능하며, 그럼으로써 정보의 공유 및 지식전달도 한정된다. 향후 보안측면 등을 고려하여 네트워크간의 연동이 가능토록 해야 할 것이며, 특히 네트워크의 연결 확장을 위해서도 표준의 도입은 시급하다고 볼 수 있다.</p>
|
효과적인 e-Learning을 위해서 서비스 제공자, 시스템 제공자, 컨텐츠 제공자가 표준화된 지침에 따라서 시스템과 컨텐츠를 구축, 개발하고, 서비스 제공자는 이를 기반해서 서비스를 행해야 한다. 컨텐츠 질을 높이기 위해서 컨텐츠 질 관리를 위한 평가요소의 도입과 컨텐츠 제작 방식의 표준화의 두가지 방안이 있다. 국내 환경은 학습 과정이 강사 의존형이 많으므로 이런 현상들이 원격교육 공간에서도 드러나는 실정이다. 컨텐츠 질에 영향을 주는 비용절감을 고려해서 컨텐츠 개발에 필요한 투자에 인색하다는 것이 국내 원격교육이 처한 현실이다. 또한 학습자는 별도의 네트워크에서만 교육을 받을 수 있음으로 상호연동이 불가능하고 지식전달과 정보 공유에만 한정된다.
|
<h3>라. 컨텐츠 저장소(Content Repositories) 및 강좌 목록(Offering Catalog)</h3> <p>컨텐츠 저장소는 컨텐츠 저작자, 관리자, 교수자 및 학습자 등이 학습 객체에 손쉽게 접근할 수 있도록 학습 객체를 저장한 데이터베이스라 할 수 있다. 이와 같은 컨텐츠 저장소는 어떠한 종류의 컨텐츠들도 처리할 수 있는 기능을 보유하고 있어야 한다.</p> <p>컨텐츠 저장소가 여러 학습 객체들을 효과적으로 검색하고 관리하기 위해서는 학습 객체들에 대한 설명 데이터, 즉 메타데이터를 포함하고 있어야 하며, 학습 객체에 대한 메타데이터를 이용하여 컨텐츠는 재사용이 가능하여 진다.</p> <p>컨텐츠 저장소의 기능 중 하나가 컨텐츠 관리이다. 즉, 컨텐츠 저장소는 컨텐츠 관리 시스템 (CMS) : Content Management System)의 일부라고 할 수도 있다. 컨텐츠 관리 기능은 컨텐츠 버전 관리, 체크인 및 체크아웃, 인증 작업 처리 등이 해당된다.</p> <p>강좌 목록은 강좌들을 저장하는 툭수 용도의 저장소라고 간주할 수 있다. 이 때 학습 강좌는 학습 과정을 위하여 관련 컨텐츠들을 패키징하여 저장하게 된다. 학습 환경의 물리적인 구성 여건에 따라 강좌 목록은 컨텐츠 저장소에 통합될 수도 있으나, 경우에 따라서는 별도의 요소로 구성될 수도 있다.</p> <h3>마. 학습 계획도구(Learning Planner)</h3> <p>학습 계획도구는 e-Learning 시스템의 다양한 사용자로 하여금 학습에 대한 계획을 수립할 수 있도록 지원한다. 즉, 학습자의 학습 목표 결정, 학습자의 현재 지식이나 기술의 수준을 평가한다. 또한, 학위 진행 분석(Degree process analysis)을 통하여 학습자의 현재 지식이나 기술 수준을 학습 목표와 비교하여 분석한다. 특정 학습자에 대한 학습 계획(learning plan)을 수립하여 학습 경로 상에 위치한 학습 강좌(learning offerings) 들을 이용하여 표현한다.</p> <h3>바. 학습자 등록도구(Leaner Registrar)</h3> <p>학습자가 다양한 방법에 의하여 학습 강좌에 접근할 수 있도록 지원한다.</p> <h3>사. 전달 환경(Delivery Environment)</h3> <p>학습자가 학습 컨텐츠와 그 이외의 학습 요소들에 접근할 수 있도록 지원하는 환경이다. 전달 환경을 구성하는 요소로는, 채팅 룸, 화이트보드, 화면 공유, 음성 및 화상 채팅 등과 같은 동기적 협업 환경(Synchronous collaborative environments), 게시판이나 e-mail을 이용한 토론 포럼 등의 비동기적 협업 환경(Asynchronous collaborative environments), 텍스트, 그래픽, 사운드, 애니메이션, 비디오, 시뮬레이션 등과 같은 미디어 데이터가 포함된 개별 학습 컨텐츠 (Self-paced content), 사전 및 사후 진단 평가를 전달하고 추적 관리하는 추적(Tracking), 그리고 평가 결과에 따라 다른 환경을 적용하는 적응적 항해(Adaptive navigation) 등이 있다.</p> <h3>아. 협업 환경(Collaborative environment)</h3> <p>실제 교실의 물리적 환경과 상호작용을 온라인상에서 지원하는 것으로, 가상 교실(virtual classroom)이 한 예이다.</p> <h3>자. 평가 및 테스팅 엔진(Assessment and testing engine)</h3> <p>평가 항목들의 저장, 조합, 전달, 기록 등의 기능을 수행하는 e-Learning 시스템의 핵심 엔진 중 하나이다.</p> <h3>차. 학습자 프로파일 관리자 (Learner profile manager)</h3> <p>e-Learning 시스템을 사용하는 학습자에 대한 정보를 활용하기 위하여 개인 학습자의 정보를 관리한다. 이것이 관라하는 정보에는 개인 신상 정보, 학습 계획, 학습 이력 사항, 자격증과 학위, 성취도 평가, 학습 참가 상태 등이 포함된다.</p>
|
컨텐츠 저장소는 교수자, 학습자, 관리자, 컨텐츠 저작자가 학습 객체에 쉽게 접근할 수 있도록 학습 객체를 저장한 데이터베이스이고 강좌 목록은 강좌를 저장하는 특수한 용도의 저장소이다. 학습 계획도구는 e-Learning 시스템의 사용자가 학습 계획을 수립할 수 있도록 지원한다. 학습자가 학습 컨텐츠와 학습 요소에 접근할 수 있도록 지원하는 전달 환경은 동기적 협업 환경과 비동기적 협업 환경, 개별 학습 컨텐츠, 추적, 적응적 항해 등으로 구성된다.
|
<p>(2) Coarse Threshold \( \left(Th_{c}\right) \)</p> <p>그림 7은 변형에 따른 ThC Recall 비교 그래프이다. \(\mathrm {T h}_{c} \)값을 16, 24, 32로 두었으며, 변형에 따라 강인성에서 차이가 있었다. 차이가 두드러지는 변형은 FR과 PLB인데 먼저 FR을 살펴보면 ThC값이 클수록 좋은 성능을 보인다. \(\mathrm {T h}_{c} \)값이 크다는 것은 Fine 정합에 쓰일후보영역을 더 대략 뽑는다는 의미이다. FR변형의 경우에는 원본 동영상이랑 키 프레임을 뽑아 쓴다고 해도 프레임 수에 차이가 있기 때문에, Coarse 정합에서 대략 뽑아야 Smith-Waterman 알고리즘을 쓰는 정교 정합에서 좋은 성능을 얻을 수 있다. 반대로 다른 변형들은 \(\mathrm {T h}_{c} \)값일 작을수록 좋은 성능을 보이며, 특히 PLB변형의 경우 정도가 크다. 보다 세밀하게 정확한 후보영역을 선정해야 정교 정합 때 좋은 결과가 나오는 것은 당연하며, PLB나 C_LB, C_PB같은 영상 크기의 한쪽비율에 영향을 주는 변형의 경우에는 더욱 그렇다. 본논문에서 제안한 그룹선택에 따른 정합을 쓴다 하더라도 변형 서술자의 각 블록 크기는 원본과 조금 차이가나기 때문에 \(\mathrm {T h}_{c} \)값이 크다면 엉뚱한 영역이 후보영역으로 선정될 수 있기 때문이다. 이러한 상충관계를 고려하여, 모든 변형에서 \(90\%\)이상 좋은 성능을 보인 24가적당한 값이라고 판단된다.</p> <p>(3) Fine Threshold (\(\mathrm {Th}_{F} \))<p>그림 8은 변형에 따른 \(\mathrm {T h}_{F} \) \(\mathrm {Recall} \) 비교 그래프이며, \(\mathrm {T h}_{F} \)값을 2,6,10로 두었다. 변형에 따라 강인성 차이가 있었으며, \(\mathrm {T h}_{F} \)때와 마찬가지로 변형들에서 상충관계가 있다. 결과적으로, 너무 크지도 작지도 않은 6을 적당한 값이라고 판단된다. 값을 6으로 하면 10으로 했을 때 보다 우수한 성능을 보이며, 값을 2로 했을 때 몇몇 변형에서는 조금 낮았으나 C_LB, C_PB, PLB에서 훨씬 우수한 강인성을 보인다.</p> <h3>나. 기존 방법과 비교 결과</h3> <p>블록 수에 따른 제안한 방법과 기존의 방법과의 성능을 비교한 것이 그림 9와 표 3이다. 제안한 방법의 블록 수는 \( 7 \mathrm{V} 7 \mathrm{H}, 13 \mathrm{V} 13 \mathrm{H}, 19 \mathrm{V}, 19 \mathrm{H} \)이며 각각의 3개 임계치들은 최적으로 조절하였다.</p> <p>그림 9는 변형에 따른 Recall 그래프이다. 그림을 보면 블록 수에 따른 제안한 방법 모두 기존의 방법(Hua)보다 뛰어난 강인성을 보인 것을 알 수 있다. 특히, 제안한 방법은 그룹선택 정합 방법을 사용하였기 때문에 순차 정보 방법의 취약한 변형인 C_LB, C_PB, PLB,FP에 모두 뛰어난 강인성을 보인다. 또한 FR변형에서는 타임 세그먼트 방법을 사용하였으므로 기존 방법보다 뛰어난 강인성을 보인다.</p> <p>표 3에 평균 강인성, 평균 독립성, 정합 속도를 모두비교해 보았다. 먼저, 강인성을 살펴보면 제안한 방법 3가지 모두 기존 방법보다 뛰어난 성능을 보였다. 독립성은 제안한 방법이나 기존 방법 모두 두 단계의 정합(대략, 정교)으로 구분하여 일정 임계치를 넘어서야만다음 단계로 넘어가는 방법을 통해 \(100\%\)라는 좋은 결과가 나왔다. 정합 속도에서 제안한 방법은 블록 수가 많을수록 상대적으로 속도가 느렸다. 기존 방법과 비교 해보면, \( 7 \mathrm{~V} 7 \mathrm{H} \)는 정합 속도는 같으나 강인성에서 더 뛰어난 결과를 가져왔다.
|
Coarse Threshold(ThC)값을 16, 24, 32로 두었을 때 FR변형에서는 ThC값이 클수록, 나머지 변형들은 ThC값이 작을수록 좋은 성능을 보였으며, ThC값이 24일 때 모든 변형에서 90%이상의 좋은 성능을 보였다. Fine Threshold(ThF)값은 2, 6, 10으로 두었는데 변형들의 상충관계를 고려하여 6이 적당한 값으로 판단되었다. 본 논문에서 제안한 블록 수에 따른 방법은 FR변형에서는 타임 세그먼트 방법을, C_LB, C_PB, PLB,FP에서는 그룹선택 정합 방법을 사용하였기때문에 기존방법보다 뛰어난 강인성을 보인다.
|
<h2>2. 정합 방법</h2> <p>정합 단계는 원본 동영상과 질의 동영상을 서로 비교하여 동일한 동영상인지 판단하는 단계이다. 대용량 데이터베이스에서 다양한 변형과 편집이 가해진 질의 동영상을 가지고 원본 동영상을 정확하게 찾는 횟수가 많을수록 성능이 좋은 알고리즘이라고 한다.</p> <p>정합은 총 2 단계로 진행되는데, 첫 번째는 대략적인 후보영역을 선별하는 대략 정합 단계이고, 두 번째는 추출된 후보영역들을 가지고 정확한 시간상 위치 값을 찾는 과정인 정교 정합 단계이다. 여기서 \( \mathrm{SY}_{\mathrm{Y}}=\left\{\mathrm{Y}_{1}, \mathrm{Y}_{2}, \cdots\right. \),\( \left.\mathrm{Y}_{N}\right\} \)은 키 프레임을 이용해 추출한 원본 동영상의 서술자이며, \( \mathrm{SX}_{\mathrm{X}}=\left\{\mathrm{X}_{1}, \mathrm{X}_{2}, \cdots, \mathrm{X}_{\mathrm{M}}\right\} \)은 키 프레임을 이용해 추출한 질의 동영상의 서술자이다. \( \mathrm{N} \)은 원본 동영상 키 프레임의 총 개수이고, \( \mathrm{M} \)은 질의 동영상 키 프레임의 총개수이다. 질의 동영상은 원본 동영상의 일부구간을 변형한 것이므로 \( \mathrm{N}>\mathrm{M} \)가 된다.</p> <h3>가. 대략 정합 단계</h3> <p>(1) 타임 세그먼트 생성</p> <p>보다 효과적인 정합을 하기 위해, 질의 동영상에서 타임 세그먼트를 생성한다. 앞서 제안한 알고리즘으로키 프레임을 추출했을 때, 장면 전환이 잦은 프레임 시퀀스의 경우에는 추출된 키 프레임의 수가 많을 것이고 반대로 장면 전환이 드문 프레임 시퀀스의 경우에는 추출된 키 프레임이 적을 것이다. 또한 장면 전환의 정도에 따라 어떤 부분은 키 프레임이 많이 추출되고 어떤 부분은 상대적으로 적게 추출될 수 있다. 이런 차가 심한 질의 동영상의 경우에는 원본 동영상과의 정함 성능이 떨어진다. 특허 프레임 수(FR)가 원본과 다른 변형의 경우 더욱 그렇다. 이런 점을 보완하기 위해 모든 영상을 10초 단위로 잘라서 시간상 세그먼트로 만들어 각각 저장한다. 예를 들어, 30초 동영상의 경우에는 3 개의타임 세그먼트 \( \left(\mathrm{S}_{\mathrm{x}}=\left\{\mathrm{S}_{\mathrm{x}}^{1}, \mathrm{~S}_{\mathrm{x}}^{2}, \mathrm{~S}_{\mathrm{x}}^{3}\right\}\right) \)를 가지게 된다.</p> <p>10초 단위로 자른 이유는 인터넷에서 흔히 접할 수있는 동영상의 최소 길이는 10초 내외가 많으며, 동영상들의 총 길이를 보면 10초 단위로 끝나는 경우가 많기 때문이다. 그래서 10초를 의미 있는 단위로 보았다.</p> <p>그림 4를 보면 30초 동영상은 3구간으로 나눠지며,각 구간의 키 프레임의 수는 해당 구간의 장면 전환의정도에 따라 다르게 분포한다. 10~20초 구간이 움직임이 많은 부분이어서 다른 구간보다 키 프레임이 상대적으로 많다. 이렇게 구간별로 나눠 각각 정합을 하게 되면, 프레임 수가 다른 변형의 경우 보다 좋은 강인성을얻을 수 있다.</p>
|
정합 단계는 원본 동영상과 질의 동영상을 비교하여 동일한 동영상인지 판단 단계이며, 대용량 데이터베이스에서 다양한 변형과 편집된 동영상을 가지고 원본 동영상을 정확하게 찾는 횟수가 많을수록 성능이 좋은 알고리즘이라고 한며, 보다 효과적인 정합을 하기 위해, 질의 동영상에서 타임 세그먼트를 생성하는데, 프레임을 추출했을 때, 장면 전환이 잦은 프레임 시퀀스의 경우에는 추출된 키 프레임의 수가 많을 것이고 반대로 장면 전환이 드문 프레임 시퀀스의 경우에는 추출된 키 프레임이 적을 것이며, 프레임 수가 다른 변형의 경우 보다 좋은 강인성을 얻을 수 있다.
|
<h1>II. 시공간 순차 정보 알고리즘</h1> <p>동영상은 정지영상과 다르게 공간적 정보뿐만 아니라 시간적 정보도 가지고 있다. 본 논문에서는 이러한동영상의 시공간적인 정보(특징)을 사용하여 각 정지영상(프레임)마다 특징을 간단한 순차 정보 알고리즘으로추출함으로써 강인성, 독립성, 고속 정합에 적합한 내용기반 동영상 복사 검출을 구현하였다. 알고리즘의 순서도는 그림 1과 같다.</p> <h2>1. 서술자 추출 방법</h2> <p>서술자 추출 방법은 프레임에서의 순차 정보 추출과 추출한 순차 정보를 가진 모든 프레임에서 키 프레임을 추출하는 방법으로 나눠진다.</p> <h3>가. 순차 정보 추출 방법</h3> <p>순차 정보는 영상을 블록으로 나누고 각 블록의 화소값 평균을 계산한 후 랭킹 값을 매겨 특징으로 사용하는 것이 일반적이다. 본 논문에서도 이러한 방법을 사용하였다. 그러나 널리 알려진 Hua와 Kim같은 순차정보 방법의 경우 영상전체를 \(3\times3 \) 또는 \(2\times2\)의 블록으로 나누어 계산하기 때문에 몇몇 변형에 취약하다. 영상에 Overlay가 된 로고나 자막, 그리고 일부 잘린 영상인 Crop이나 4:3 또는 16:9 비율을 맞추기 위한 PillarBox와 Letter Box, 마지막으로 요즘 인터넷에서 쉽게찾아볼 수 있는 좌우가 반전된 Flip변형 등에 취약할수밖에 없다. 영상 전체를 블록으로 나누어 순차 정보를 추출하면 각 블록 당 화소값 평균은 바뀌므로 랭킹값이 달라지기 때문이다.</p> <p>본 논문에서는 이러한 단점을 해결하기 위해, 영상전체를 블록으로 나누지 않고, 일부만을 나누어 순차정보를 추출하는 방법을 사용하였다. 장면전환 검출의효과적인 방법인 연속된 영상에서 수평, 수직 중심 영역의 정보만을 취하는 방법이 있는데, 이 방법을 참고하여 영상의 영역을 그림 2와 같이 나누었다.</p> <p>블록을 나누기 전에 선행 작업으로 동영상에서 추출한 각 프레임들은 Gray Level에 해당하는 \(\mathrm {Y} \)성분만 사용하였다. 그 다음 블록을 나누는데, 그림 2와 같이 수직 방향으로 13개의 블록을 가지는 수직그룹(Verticalgroup)과 수평 방향으로 13개의 블록을 가지는 수평그룹(Horizontal group)으로 나누어진다. 각 블록의 크기는 영상의 크기에 비례하며 중앙 블록은 중복된다.</p> <p>\( R^{g}=\left\{r_{1}^{g}, r_{2}^{g}, \ldots, r_{n}^{g}\right\} \) \( (z=1,2) \)<caption>(1)</caption></p> <p>\( \mathrm{g} \)는 수직그룹(\(1\))과 수평그룹(2), \(\mathrm {n} \)은 그룹 당 블록의 수를 의미한다. 예를 들어 \( \mathrm{n}=7 \) 일 때, 수직그룹의 블록 당 평균값이 [225,202,193,115,136,80,98]라고 한다면 \( \mathrm{R}^{1}=[1,2,3,5,4,7,6] \)가 된다. 그룹 당 볼륵의 수는 성능에 영향을 미치게 된다. III장에서는 그림과 같은 13 Vertical \& 13 Horizontal group(13V13H) 뿐만 아니라 7V7H 과 19V19H로 했을 때의 성능도 알아보았다.</p> <h3>나. 순차 정보를 이용한 키 프레임 추출</h3> <p>동영상에서 키 프레임의 추출은 매우 필요하다. 예를들어, 30초짜리 \(30\mathrm {fps} \) 동영상의 경우만 해도 900프레임이므로 이 모든 프레임의 특징 정보를 사용하는 것은저장과 속도 면에서 큰 저하를 가져온다. 따라서 본 논문에서도 키 프레임을 추출하였고, 추출 과정은 그림 3과 같다.</p> <p>기존의 다양한 키 프레임 추출 알고리즘 중에서 본논문은 시간적으로 인접한 프레임끼리의 비교를 통해키 프레임을 선정하였다. 이전 프레임과 현재 프레임의특징 정보(랭킹 값)을 비교하여 정해진 임계치보다 값이 크면 현재 프레임을 키 프레임으로 선정하는 방법이다. 다음 나오는 식들을 통해 자세히 알 수 있다.</p> <p>\( S=\left\{R_{1}, R_{2}, R_{3}, \cdots, R_{B-1}, R_{B}\right\} \)<caption>(2)</caption></p> <p>\( d_{g}\left(R_{i-1}^{g}, R_{i}^{g}\right)=\sum_{j=1}^{n}\left|r_{i-1, j}^{g}-r_{i, j}^{g}\right| \)<caption>(3)</caption></p> <p>식 (2)의 \( \mathrm{S} \)는 동영상 시퀀스이고 \( \mathrm{R}_{\mathrm{i}} \)는 순차 정보인 랭킹 값으로 이루어진 프레임이며 \( \mathrm{B} \)는 선체 프레임의 개수이다. 인접한 프레임끼리의 차이 값을 구하는 식이 식 (3)이다. 이전 프레임에서 추출한 랭킹 값( \( \left.\mathrm{R}_{\mathrm{i}-1}\right) \)을 서로 비교한다. 여기서 \( \mathrm{i} \)의 범위는 \( 1<\mathrm{i} \leq \mathrm{B} \)이며, 렝킹 값을 비교할 때는 수직그룹은 수직그룸끼리 수평그룹은 수평그룹끼리 비교한다. 그룹별로 랭킹 값들의 차이에 대한 절대값의 함을 구하게 되면 최종적으로 \( \mathrm{d}_{\mathrm{g}} \)를 각각 구할 수 있다.</p> <p>if \( \left[d_{g}\left(R_{i-1}^{g}, R_{l}^{g}\right) \geq T h_{X}\right] \) is true,\( R_{i} \) is key-frame<caption>(4)</caption></p> <p>이 \( \mathrm{d}_{8} \)값과 징해진 임계치(Key-Frame Threshold =\( \left.\mathrm{Th}_{\mathrm{K}}\right) \)를 비교하여 식 (4)와 같이 \( \mathrm{d}_{g} \) 값이 임계치보다 크거나 같을 경우 현재 프레임은 키 프레임으로 간주된다. \( \mathrm{d}_{g} \) 값은 2개이므로(수직,수평) 하나의 \( \mathrm{d}_{g} \)값만이라도 식 (4)에 해당되면, 키 프레임이다.</p>
|
동영상의 시공간적 특징을 이용한 내용기반 동영상 복사 검출 알고리즘을 제안하였다. 특징 추출 방법은 프레임의 순차 정보 추출과 키 프레임 추출로 구성되며, 각 블록의 화소값 평균에 랭킹 값을 부여하는 방식을 채택하였다. 영상 전체를 블록으로 나누지 않고 일부만을 이용하여 순차 정보를 추출함으로써 이전 방법의 단점을 해결하였다. 또한, 이전 프레임과 현재 프레임의 특징 정보를 비교하여 임계치를 초과할 경우 현재 프레임을 키 프레임으로 선정하는 방법을 사용하였다.
|
<p>(2)윈도우 정합 단계</p> <p>질의 동영상은 앞에서 구한 타임 세그먼트 생성으로 10초 간격으로 나눠졌다. 이 10초 간격으로 나눠진 질의 동영상의 타임 세그먼트를 가지고 원본 동영상에 윈도우 정합을 한다. 그림 5의 경우, 질의 동영상의 길이가 30초이므로 3개의 타임 세그먼트로 나눠진다. 나눠진 타임 세그먼트들을 가지고 원본 동영상에 대해 윈도우 정합을 수행하는데, 여기서 중요한 것은 그룹별로(수직,수평) 윈도우 정합을 하는 것이다.</p> <p>\[ C M_{g}^{t}\left(S_{x}^{t}, S_{y}\right)= \]\[ \quad\left(\sum_{x=1}^{M_{t}} I\left(d_{z}\left(X_{i}^{t}, Y_{j}\right) \leq T h_{c}\right)\right) / M_{t} \]<caption>(5)</caption></p> <p>\( d_{g}\left(X_{i}, Y_{j}\right)=\sum_{z=1}^{n}\left|x_{i, z}^{g}-y_{j, z}^{g}\right| \)<caption>(6)</caption></p> <p>식 (5)에서 \( \mathrm{t} \)의 범위는 \( 1 \leq \mathrm{t} \leq \mathrm{T} \)이며, 그림 5의 경우는 \( \mathrm{T}=3 \)이 된다. \( \mathrm{d}_{g}(\cdot) \)은 식 (6)에 나와 있으며 식 (3)과 유사한 프레임간의 랭킹 값 차이 식이다. I(cond)는 조건 cond가 만족할 경우 1, 그렇지 않을 경우 0이 된다. 식 (5)에서의 cond는 \( \mathrm{d}_{g}(\cdot) \leq \mathrm{Th}_{c} \) (Coarse Threshold)이다. \( \mathrm{M}_{\mathrm{t}} \)는 각 타임 세그먼트의 프레임 수 이므로, 식(5)에 따라 \( \mathrm{CM}_{\mathrm{g}}^{\mathrm{t}} \) 는 최소 0에서 최대 1의 값을 갖는다.</p> <p>if \( \left(C M_{1}^{t}>C M_{2}^{t}\right) \rightarrow \) use Vertical Group else \( \rightarrow \) use Horizontal Group<caption>(7)</caption></p> <p>타임 세그먼트를 수직그룹과 수평그룹으로 각각 윈도우 정합을 하면, \( \mathrm{CM}_{1}^{\mathrm{t}} \)과 \( \mathrm{CM}_{2}^{\mathrm{t}} \)의 값을 구하게 된다.여기서 식 (7)에 의해 두 그릅 중, 값이 큰 그룹만 취한다. \( \mathrm{CM}_{\mathrm{g}}^{\mathrm{t}} \)값이 큰 그룹만 취한다는 것은 원본과 더 유사한 그룹만 취한다는 의미이다. 하나의 타임 세그먼트가 식 (7)에 의해 수직그릅을 취하게 되면 나머지 타임 세그먼트들도 수직그룹을 취할 경우가 많다. 그 이유는 영상의 변형에 따라 모든 프레임들이 하나의 수직그룹 또는 수평그룹을 취하게 되기 때문이다. 예를 들어, 좌우가 반전된 Flip 변형의 경우에 원본 동영상과 비교하면 수평그릅 서술자보다 수직그릅의 서술자가 유사하기 때문이다. 이런 그룹선택 방법은 순차 정보 방법의 취약한 변형들에게 강인한 특징을 갖는다.</p> <p>취한 \( \mathrm{CM}_{\mathrm{g}}^{\mathrm{t}} \) 값이 \( 0.5 \)를 넘으면 그 타임 세그먼트의 후보영역으로 선정되며 그 중에서 가장 큰 값을 가진 \( \mathrm{CM}_{\mathrm{g}}^{\mathrm{t}} \)가 최종 후보영역이 되어 다음 정합단계인 정교 정합으로 넘어간다. 최종 후보영역은 타임 세그먼트마다 최대 하나씩 갖게 된다.</p> <h2>나. 정교 정합 단계</h2> <p>대략 정합 단계에서 얻은 각 타임 세그먼트의 최종 후보영역을 가지고 정교 정합 단계를 통해 정확한 정합 구간을 얻는다. 이때 그림 6과 같이 각 최종 후보영역의 위치를 기준으로 \( 2 \mathrm{M} \) 길이를 갖는 서브 세그먼트 \( \left(\mathrm{S}_{\mathrm{t}}^{\mathrm{t}}\right) \)를 원본 동영상에서 구하여 Smith -Waterman 알고리즘을 이용한 정합을 각각 수행한다. 정교 정합은 다음 식 (8)과 같이 정의된다.</p> <p>\( F M^{t}\left(S_{X}, S_{Y}^{t}\right)= \) \( \quad\left(\alpha N_{\text {match }}+\beta N_{\text {miss }}+\gamma N_{g a \Phi}\right) / M \)<caption>(8)</caption></p> <p>여기서 \( \mathrm{N}_{\text {match }} \)와 \( \mathrm{N}_{\mathrm{miss}}, \mathrm{N}_{\mathrm{gap}} \)은 각각 일치된 수와 대치된 수 그리고 삽입된 수를 의미한다. \( a, \beta, r \)는 각 변수에 대한 가중치이며, \( a=1, \beta=-0.5, r=-1 \)로 두었다. 가중치의 각 값들은 \( a \)가 \( \beta, r \)보다 크고, \( \beta \)가 \( r \)보다 크다는 규칙을 적용한 일정한 값이다. 일치 되었나 판단하기 위해 차 이값 식인 식 (6)의 \( \mathrm{d}_{g}(\cdot) \)가 쓰이며, 대략 정합 때 취한 그룹만 가지고 계산한다. 이때 필요한 임계치가 \( \mathrm{Th}_{\mathrm{F}}\left(\right. \) Fine Threshold)이며, \( \mathrm{d}_{\mathrm{g}}(\cdot) \leq \mathrm{Th}_{\mathrm{F}} \) 일 경우 일치되었 다고 판단한다. 일치가 아닌 경우, 경우에 따라 대치이거나 삽입이 된다.</p> <p>마지막으로, 각 타임 세그먼트의 정교 정합 결과값 \( \left(\mathrm{FM}^{\mathrm{t}}\right) \)을 서로 비교하여 가장 큰 값을 갖는 구간을 찾는다. 이 구간이 원본 동영상과 질의 동영상의 최종 정합 구간이 된다.</p>
|
질의 동영상을 10초 간격으로 나눠 원본 동영상에 윈도우 정합을 하는데, 그룹별로(수직,수평) 윈도우 정합을 하고 CMg^t값이 0~1 사이를 갖는다. CMg^t가 높은 그룹을 사용하는 것이다. 정교 정합 단계에서는 각 최종 후보영역의 위치를 기준으로 \( 2 \mathrm{M} \) 길이를 갖는 서브 세그먼트 \( \left(\mathrm{S}_{\mathrm{t}}^{\mathrm{t}}\right) \)를 원본 동영상에서 취하고 일치 여부 판단을 위해 대략 정합 때 취한 그룹가지고 임계치 \( \mathrm{Th}_{\mathrm{F}}\left(\right. \) Fine Threshold)이며, \( \mathrm{d}_{\mathrm{g}}(\cdot) \leq \mathrm{Th}_{\mathrm{F}} \) 일 경우 일치되었 다고 판단하며 정교 정합 결과값 \( \left(\mathrm{FM}^{\mathrm{t}}\right) \)을 서로 비교하여 가장 큰 값을 갖는 구간을 찾는다.
|
<h1>III. 실험 및 결과</h1> <h2>1. 실험 조건</h2> <p>본 논문은 다양한 변형을 가한 질의 동영상으로 원본동영상의 정확한 위치를 찾는데 목적이 있다. 다양한동영상 데이터베이스를 구축하여 실험에 임하였다.</p> <p>먼저, 동영상의 장르는 흔희 접할 수 있는 TV 프로그램과 인터넷 동영상으로 구성되었다. 총 7종류로 애니메이션, 다큐멘터리, 드라마, 영화, 뉴스, 쇼 프로그램,스포츠이다. 원본 동영상의 포맷은 MPEG4이고, fps는 24~30, 장르마다 약 20개씩 총 153개로 구성하였다. 크기는 \(704\times396\), \(640\times352 \), \(704\times400 \), \(720 \times480 \)등으로 원래동영상의 크기를 그대로 사용하였고 재생시간은 10분이다. 질의 동영상에는 다양한 16종류의 변형을 주었으며,시간은 10~30초로 하였다. 변형의 종류와 정도는 표 1과 같이 구성하였다.</p> <p>변형의 정도는 너무 약하거나 심하게 주지 않고 현실성있게 하였다. 로고나 자막은 인터넷에서 흔히 볼 수있는 정도로 적용하였고, Pilar Box와 Letter Box의 경우는 이미지가 4:3 또는 16:9에 비례하도록 Pilar Box또는 Letter Box 중 하나만 적용하였다. 본 논문에서 실험 평가의 대한 기준은 식 (9)과 (10)에서 정의한 강인성을 측정하는 Recall과 독립성을 측정하는 Precision을 사용하였다.</p> <p>Recall \( =\frac{D}{D+D_{\text {miss }}} \)<caption>(9)</caption> <p>Precision \( =\frac{D}{D+D_{\text {false }}} \)<caption>(10)</caption> <p>\( \mathrm{D} \)는 원본을 검출한 횟수, \( \mathrm{D}_{\text {miss }} \)는 원본을 검출하지 못한 횟수, \( \mathrm{D}_{\mathrm{false}} \)는 잘못된 영상을 검출된 횟수를 나타 낸다. Recall은 \( 100 \% \)에 가까워질수록 정확한 원본을 검출한 결과를 나타내며, Precision은 \( 100 \% \)에 가까워질수록 잘못 검출한 횟수가 적다는 것을 의미한다. 그리고 정합 속도는 모든 원본 동영상과 질의 동영상을 정합한 후 나온 속도를 전체의 정합 횟수로 나누어 평균을 낸 속도이다.</p> <h2>2. 실험 결과</h2> <p>실험 결과는 본 논문에서 제시한 3개의 임계치에 따른 성능 결과와 제안한 방법과 기존 방법과의 비교 성능 결과로 나누었다.</p> <h3>가. 임계치에 따른 결과</h3> <p>본 논문에서 쓰이는 임계치는 키 프레임 추출 시 쓰이는 \( \mathrm{Th}_{\mathrm{K}} \), 대략 정합 시 쓰이는 \( \mathrm{Th}_{\mathrm{C}} \), 정교 정합 시 쓰이는 \( \mathrm{Th}_{F} \)이다. 모든 실험은 \( 13 \mathrm{~V} 13 \mathrm{H} \)에서 하였다.</p> <p>(1) Key-Frame Threshold \( \left(T_{K}\right) \)</p> <p>표 2는 \(\mathrm {T h}_{K} \)의 값에 따른 평균 Recall과 정합 속도를 비교한 표이다. 값은 2,4,6,8,10 으로 두었다.</p> <p>\( \mathrm{Th}_{\mathrm{K}} \)의 값이 작으면 강인성은 높아지나 정합 속도는 느려진고, 값이 크면 강인성은 낮아지나 정합 속도는 빨라진다. 그러나 이러한 상충(Trade-off)관계는 전형적이지 않으므로 표 2를 통해 적절하게 고려하여 4가 적당한 값이라고 판단된다.</p>
|
본 논문은 다양하게 변형한 질의 동영상을 통해 원본동영상의 명확한 위치를 찾는데 목적이 있다. 다양한 동영상 데이터베이스를 구축해 실험하였다. 동영상의 장르 선정에는 쉽게 접근 가능한TV 프로그램 및 인터넷 동영상을 화용하였다. 질의 동영상은 16종류로 다양하게 변형하였고, 시간은 10~30초로 하였다. 3개의 임계치에 따른 성능 결과와 기존과 제안한 방법의 비교 성능 결과로 실험 결과를 나타냈다.
|
<h1>I. 서 론</h1> <p>최근 컴퓨터와 통신 기술의 급속한 발달로 인해 온라인을 통한 멀티미디어 데이터 전송이 보편화 되었으며,사용자들은 시간과 장소에 상관없이 다양한 정보에 접근할 수 있게 되었다. 그로 인해 엄청난 양의 디지털 동영상 콘텐츠의 생산과 재생산이 폭발적으로 증가하고있으며, 이런 자료들을 효율적으로 관리할 수 있는 방법에 대한 필요성이 대두되고 있다. 효율적인 자료의관리 방법 중에서 가장 기본적인 방법이라고 할 수 있는 것이 바로 검색(retrieval)이다. 동영상 콘텐츠에서의검색은 원하는 자료를 정확하게 찾아내는 기술이다. 대용량 동영상 콘텐츠에서 원하는 정보를 빠른 시간 내에검색할 수 있어야 한다. 동영상 검색 기법은 크게 두 가지로 구분할 수가 있는데 첫째는 텍스트 기반 검색이고둘째는 내용 기반 검색이다. 텍스트 기반 검색 방법은구축자가 콘텐츠에 달아놓은 텍스트를 이용하여 검색을하는 주석 기반 검색이다. 이 방법은 제한된 범위 내에서는 효율적인 검색 결과를 제공하지만, 색인 구축자와검색자의 견해가 일치하지 않을 경우 잘못된 검색이 이루어지므로 검색의 효율이 저하된다. 즉, 영상이 갖는복잡한 속성을 텍스트만으로 표현하기 어렵다는 문제가있다. 반면에 내용 기반 검색 방법은 동영상에서 내용으로 기술되는 특징(feature)을 추출하여 이를 기반으로검색을 수행하는 것으로써, 텍스트가 아닌 동영상이나정지영상의 입력으로 검색을 할 수 있다. 이는 대용량동영상 콘텐츠로부터 기존의 텍스트 기반 검색보다 효율적으로 정확하게 검색할 수 있는 방법이라 할 수 있으며, 최근에는 이를 기반으로 하는 다양한 멀티미디어검색 방법이 제안되고 있다. 내용 기반 검색 방법에서는 특징으로 색상, 질감, 모양 등을 주로 사용한다. 이러한 검색에 대한 연구가 발전되어 멀티미디어 검색 국제표준인 MPEG-7에 제정되기에 이르렀다. MPEG-7에서는 동영상에 색상, 질감, 모양 외에 추가적으로 움직임을 서술자로 지정하여 영상을 서술하고 이를 기반으로 검색을 수행하는 것을 목적으로 한다.</p> <p>현실성 있고 효과적인 내용 기반 동영상 검출을 하기위해서는 크게 강인성(Robustness), 독립성(Independence), 고속 정합(High Speed Matching)의 특성이 필요하다. 강인성은 다양한 종류와 정도의 변형에서 원본 동영상 콘텐츠를 구분할 수 있는 성능을 말한다. 독립성은 서로 다른 콘텐츠를 구별할 수 있는 성능을 말한다. 마지막으로 고속 정합은 동영상 콘텐츠끼리서로 비교하였을 때 얼마나 빠른지를 나타낸다. 대부분의 제시된 기술은 이 3가지를 모두 만족하기 어렵다고할 수 있다.</p> <p>본 논문에서는 순차 정보를 이용한 새로운 내용 기반동영상 검출을 제시하여 원본 동영상과 다양하게 변형,편집된 질의 동영상의 비교를 통해 동일 콘텐츠임을 밝혀내는 것이 목적이다. 특히, 순차 정보 방법의 취약한변형이라 할 수 있는 Crop, Pillar and Letter box, Flip에 강인하게 구현하였다. 논문은 총 IV장으로 구성되며,II장 본론에서는 제안한 방법에 대한 설명, III장에서는 성능 평가를 수행하고 실험 결과를 도시한다. 마지막으로 IV장에서는 결론 및 향후 과제에 대해 기술한다.</p>
|
대용량 동영상 콘텐츠의 효율적인 자료 관리 방법 중 가장 기본적인 방법인 검색(retrieval)은 텍스트 기반 검색과 내용 기반 검색으로 구분되는데, 대용량 동영상 콘텐츠로부터의 검색에는 내용 기반 검색이 더 효율적이다. 내용기반 검색 방법 중 멀티미디어 검색 국제 표준인 MPEG-7에서는 검색 요소에 색상, 질감, 모양 외에 움직임을 추가하여 검색을 수행하고 있으나, 현재로서는 효과적인 동영상 검출을 위해 필요한 강인성, 독립성, 고속 정합의 3가지 특성을 모두 만족시키는 기술은 찾기 어렵다. 본 논문에서는 원본 동영상과 다양하게 변형, 편집된 질의 동영상을 비교하여 동일 콘텐츠임을 밝혀내는 과정을 통해, 순차 정보를 이용한 새로운 내용 기반 동영상 검출 방법의 유효성을 입증하고자 한다.
|
<h1>I. 서 론</h1> <p>현재 통용되고 있는 TV시스템은 인간 시각이 깜박임에 덜 민감하다는 사실에 기반해 비디오 신호를 제한된 대역폭에서 전송할 수 있는 격행 주사(interlaced)비디오 신호를 이용하고 있다. 하지만 최근 plasma display panel(PDP)이나 liquid crystal display(LCD), personal computer(PC), high definition television(HDTV)과 같은 순행 주사 (progressive) 비디오 신호만 다루는 대화면 평판 디스플레이 장치들이 널리 사용됨에 따라 격행 주사 신호를 순행 주사 신호로 변환하는 디인터레이싱 기술에 대한 연구는 날로 중요해지고 있다. 기존의 아날로그 TV에서는 수직 방향으로 샘플링 하는 주사 방식을 택하였던 반면에 디지털 TV에서는 수직뿐 아니라 수평 방향으로도 일정한 간격마다 샘플링을 취하고 이 표본 값을 양자화하여 만든 디지털 신호를 처리한다. 아날로그 TV 신호가 even 과 odd 필드가 1/60초의 시간 간격을 두고 교차되어 하나의 프레임을 구성하는 격행 주사 방식을 사용하고 있기 때문에 아날로그 TV의 영상을 PDP, LCD, PC, 그리고 HDTV 등에서 그대로 사용한다면 매우 심각한 화질 열화가 생기게 된다. 이러한 문제점들을 극복하기 위해 지금까지 다양한 디인터레이싱 방법들이 제시되었다.</p> <p>디인터레이싱 방식들을 크게 분류하면 이전에 제공되었거나 또는 이후에 제공되는 필드 정보를 이용하지 않고 현재 필드의 정보만으로 보간을 수행하는 공간적 디인터레이싱 방식과 이전에 나왔거나 이후에 나오게 될 필드들의 정보를 적절히 이용하는 시간적 디인터레이싱 방식으로 나뉜다. 시간적 디인터레이싱 방식은 다시 움직임 정보를 이용하는 움직임 보상 디인터레이싱 방식과 움직임 정보 없이 보간하고자 하는 픽셀에서 움직임 또는 에지의 유무를 판단하여 보간을 수행하는 움직임 적응 디인터레이싱 방식으로 나눤다. 일반적으로 공간적 디인터레이싱 방식은 다를 수 있는 정보가 제한되어 있기 때문에 이전과 이후 필드로부터 움직임 정보를 추출하여 이용하는 시간적 디인터레이싱 방식보다 성능이 떨어진다. 그러나, 프레임간에 움직임이 많을 경우에는 공간적 디인터레이싱 기법을 사용하는 편이 주관적 화질과 객관적 성능 측면에서 유리하다는 것도 잘 알려진 사실이다. 또한 빠른 처리 속도를 요구하는 시스템의 경우 역시 움직임 정보를 이용하지 않는 디인터레싱 기법이 더 효과적이라 할 수 있다.</p> <p>본 논문에서는 저해상도 유추 보간법(interpolation algorithm derived from low resolution: ILR)을 이용한 효율적인 디인터레이싱 방식을 제안한다. 먼저 보간하고자 하는 위치에서의 픽셀이 국부 정적 가우시안 프로세스(locally stationary Gaussian process)의 위치에 있는지를 조사한 후 픽셀 주위의 저해상도 블록의 특성을 먼저 탐구하고 이를 고해상도 블록에 적용함으로써 missing pixel 을 보간 하는 방법을 제안한다. 본 논문의 구성은 다음과 같다. 제 Ⅱ장에서는 ILR 알고리듬이 적용된 디인터레이싱 방식을 설명한다. 실험 및 결과는 제 Ⅲ장에 기술되고 제 Ⅳ장에서 결론을 맺는다.</p>
|
아날로그 TV의 영상을 PDP, LCD, PC, 그리고 HDTV 등에서 그대로 사용한다면 매우 심각한 화질 열화가 생기기 때문에 이러한 문제점들을 극복하기 위해 지금까지 다양한 디인터레이싱 방법들이 제시되었다. 디인터레이싱 방식들은 공간적 디인터레이싱 방식과 시간적 디인터레이싱 방식으로 나뉘는데, 공간적 디인터레이싱 방식은 시간적 디인터레이싱 방식보다 성능이 떨어지지만 프레임간 움직임이 많을 땐 주관적 화질과 객관적 성능 면에서 유리하다. 따라서 본 논문에서는 픽셀이 국부 정적 가우시안 프로세스에 있는지 조사한 후 저해상도 블록의 특성을 탐구해 고해상도 블록에 적용하여 missing pixel을 보간하는 저해상도 유추 보간법을 이용한 효율적인 디인터레이싱 방식을 제안한다.
|
<h1>Ⅱ. 저해상도 유추 보간법이 적용된 디인터레이싱 기법</h2> <p>서론에서 언급한 것과 같이 전통적인 에지 방향에 기반한 디인터레이싱 방식들은 구현의 복잡도 측면에서 볼 때 간단하고 계산량이 적다는 장점이 있지만 잡음에 영향을 잘 받고 잘못된 에지 정보가 입력될 경우 화질의 열화가 생긴다는 단점 역시 가지고 있다. 예를 들어 객체의 경계 부분에서 잘못 구해진 에지 방향으로 보간을 할 경우 객체의 경계 부분이 흐릿해지는 현상을 보게 되고 이는 그림이 전체적으로 뿌옇게 보이는 블루어 현상의 원인이 된다. 이를 개선하기 위해 본 논문에서는 저해상도 영상의 특성을 분석한 후 추출된 정보가 고해상도 영상에서도 훌륭히 적용된다는 것을 보인다.</p> <p>본 알고리듬이 적용되기 위한 전제조건으로 보간하고자 하는 픽셀이 국부 정적 가우시안 프로세스를 따르는 영역 내에 있다고 가정을 한다. 또한 특정 위치에 있는 픽셀은 주변 화소들의 가중치 평균의 조합으로 구해질 수 있다. Markovian property에 의하면 영상의 경우 현재 픽셀과 주변 픽셀과의 상관도는 0.95를 넘는다고 알려져 있다.</p> <p>본 논문에서 \( x(i, j) \)는 보간된 픽셀의 휘도값을 나타내고 변수 \( i \)와 \( j \)는 열과 행의 번호를 각각 나타낸다. 보간하고자 하는 픽셀 주변 위치에 존재하면서 우리 알고리듬에서 사용될 픽셀들은 그림 1처럼 표현되고 식 (1)과 같이 기술된다.</p> <p>for \( (k \in \{ 1,3 \} , l \in \{ 1,3 \} ) \) \( \left \{\begin {array} { l } x_ { n k w l } = x(i-k, j-l) \\ x_ { n k e l } =x(i-k, j + l) \\ x_ { s k w l } =x(i + k, j-l) \\ x_ {\text { skel } } =x(i + k, j + l) \end {array} \right . \)<caption>(1)</caption></p> <p>여기에서 \( n \), \( s \), \( c \), \( w \), 그리고 \( e \)는 각각 \( north \), \( south \), \( center \), \( west \), 그리고 \( east \)를 뜻한다. 이들 변수는 이동 파라미터의 역할을 하는데 \( n k \)는 수직 방향으로 \( -k \)만큼, \( s k \)는 수직방향으로 \( k \)만큼, \( w l \)는 수평 방향으로 \( -l \)만큼, 그리고 \( e l \)는 수평 방향으로 \( l \)만큼 이동하는 것을 표현한다. 보간을 수행하기 위해 그림 2에 그려진 것과 같은 2차원 윈도우가 사용된다.</p>
|
본문2에서는 디인터레이싱 방식에 대한 언급이 있다. 전통적인 에지 방향 기반의 방식은 구현 복잡도와 계산량 측면에서 장점을 가지지만, 잡음에 취약하며 잘못된 에지 정보 입력 시 화질 저하를 초래한다는 단점이 있다. 또한 이 알고리즘은 2차원 윈도우를 이용한 보간을 수행하며, 이를 위해 픽셀이 국부적으로 정적 가우시안 프로세스를 따르는 영역에 있음을 전제로 한다.
|
<p>그림 2(a), (b), (c), (d) 는 각각 \( x_ { n 1 w 1 } \), \( x_ { n 1 e 1 } \), \( x_ { s 1 w 1 } \), 그리고 \( x_ {\text { s 1 e 1 } } \) 위치에 있는 화소를 복원할 때 사용되는 기하학적 특성을 나타낸다. Markovian property에 따라 영상 신호의 패턴이 블록 내에서 급격히 변화하는 경우가 아니라고 할 때 식 (2)에서 사용된 p계수들은 식 (3)과 같이 사용될 수 있다. 이 수식의 배경이 되는 아이디어는 영상 신호 내 low resolution블록의 영상 특성은 high resolution블록의 영상 특성과 일치한다는 가정에 근거한다. 식 (3)은 식 (4)와 같이 행렬 형식으로 정리되고, 결국 식 (5)를 통해 행렬 \( P \)= \( \left [ \begin {array} { llll } \rho_ { n w } & \rho_ { n e } & \rho_ { s w } & \rho_ { s e } \end {array} \right ] \)를 구할 수 있다.</p> <p>\( \left [ \begin {array} { l } x_ { n \mid w 1 } \\ x_ { n 1 e 1 } \\ x_ { s 1 w 1 } \\ x_ { s 1 e 1 } \end {array} \right ]= \left [ \begin {array} { llll } x_ { n 3 w 3 } & x_ { n 3 e 1 } & x_ { s 1 w 3 } & x_ { s 1 e 1 } \\ x_ { n 3 w 1 } & x_ { n 3 e 3 } & x_ { s 1 w 1 } & x_ { s 1 e 3 } \\ x_ { n 1 w 3 } & x_ { n 1 e 1 } & x_ { s 3 w 3 } & x_ { s 3 e 1 } \\ x_ { n \mid w 1 } & x_ { n 1 e 3 } & x_ { s 3 w 1 } & x_ { s 3 e 3 } \end {array} \right ] \left [ \begin {array} { l } \rho_ { n w } \\ \rho_ { n e } \\ \rho_ { s w } \\ \rho_ { s e } \end {array} \right ] \) or \( \mathbf { X } = \Gamma \mathbf { P } \)<caption>(4)</caption></p>
|
영상 신호 내의 low resolution 블록과 high resolution 블록의 영상 특성 일치한다는 가정 하에 영상 신호의 패턴이 블록 내에서 급격한 변화를 보이지 않는 경우에 Markovian property에 따라 식(2)의 p계수들이 식(3)과 같이 사용될 수 있다.
|
<p>\( \left [ \begin {array} { c } \rho_ { n w } \\ \rho_ { n e } \\ \rho_ { s w } \\ \rho_ { s e } \end {array} \right ]= \left [ \begin {array} { llll } x_ { n 3 w 3 } & x_ { n 3 e 1 } & x_ { s 1 w 3 } & x_ { s 1 e 1 } \\ x_ { n 3 w 1 } & x_ { n 3 e 3 } & x_ { s 1 w 1 } & x_ { s 1 e 3 } \\ x_ { n 1 w 3 } & x_ { n 1 e 1 } & x_ { s 3 w 3 } & x_ { s 3 e 1 } \\ x_ { n 1 w 1 } & x_ { n 1 e 3 } & x_ { s 3 w 1 } & x_ { s 3 e 3 } \end {array} \right ] ^ { -1 } \left [ \begin {array} { l } x_ { n 1 w 1 } \\ x_ { n 1 e 1 } \\ x_ { s 1 w 1 } \\ x_ { s 1 e 1 } \end {array} \right ] \) or \( \mathbf { P } = \boldsymbol {\Gamma } ^ { -1 } \mathbf { X } = \mathbf {\Lambda } \mathbf { X } \)<caption>(5)</caption></p> <p>식 (5)를 식 (2)에 대입하면 식 (6)을 구할 수 있다.</p> <p>\( x(i, j)= \rho_ { n w } x_ { n 1 w 1 } + \rho_ { n e } x_ { n 1 e 1 } + \rho_ { s w } x_ { s 1 w 1 } + \rho_ { s e } x_ { s 1 e 1 } \) \( = \left [ \begin {array} { c } \rho_ { n w } \\ \rho_ { n e } \\ \rho_ { s w } \\ \rho_ { s e } \end {array} \right ] ^ { T } \left [ \begin {array} { c } x_ { n 1 w 1 } \\ x_ { n 1 e 1 } \\ x_ { s 1 w 1 } \\ x_ { s 1 e 1 } \end {array} \right ]= \mathbf { X } ^ {\mathrm { T } } \boldsymbol {\Lambda } ^ {\mathrm { T } } \mathbf { X } \)<caption>(6)</caption></p> <p>여기에서 \( X \)= \( \left [ \begin {array} { llll } x_ { n 1 w 1 } & x_ { n 1 e 1 } & x_ {\text { s 1 w 1 } } & x_ {\text { s 1 e 1 } } \end {array} \right ] ^ {\mathrm { T } } \), \( \Lambda= \Gamma ^ { -1 } \), \( P \)= \( \left [ \begin {array} { ll } \rho_ { n w } & \rho_ { n e } & \rho_ { s w } & \rho_ { s e } \end {array} \right ] ^ {\mathrm { T } } \)이다.</p> <p>식 (6)을 이용하여 임의의 위치에서의 보간 하고자 하는 픽셀 값을 구할 수 있다. 그러나 식 (6)은 적지 않은 계산량을 필요로 하므로 모든 픽셀에 이 식이 이용될 필요는 없다. 예를 들어 보간 대상이 되는 픽셀의 상하 위치에 있는 픽셀들간의 값 차이가 아주 작을 경우, 현재 보간 대상이 되는 픽셀의 값은 상하 위치에 있는 픽셀들 값의 평균값으로 보간하는 것이 이성적이다. 또한 식 (6)가 이용될 수 없는 경우도 있다. 식 (5)에서 보듯이 행렬 \( \Lambda \)를 구하는 과정에서 determinant가 0이 되는 경우를 고려해야 한다. 이 경우는 대부분 edge가 존재하지 않는 plain한 영역일 때 주로 발생하므로 본 논문에서는 고정된 \( \mathrm { P } _ {\text { const } } \)계수를 이용하는 것으로 대체한다. 본 논문에서 사용된 \( \mathrm { P } _ {\text { const } } \)계수 집합은 식 (7)과 같다.</p> <p>\( \mathbf { P } _ {\text { const } } = \left [ \begin {array} { llll } \frac { 1 } { 4 } & \frac { 1 } { 4 } & \frac { 1 } { 4 } & \frac { 1 } { 4 } \end {array} \right ] \)<caption>(7)</caption></p>
|
식(6)을 사용하여 임의의 위치에서 보간 하고자 하는 픽셀 값을 구할 수 있지만 많은 계산량이 필요하므로 모든 픽셀에 이 식이 적용 될 필요는 없다.또한 행렬 \( \Lambda \)를 구하는 과정에서 determinant가 0이 되는 경우는 고려해야한다.
|
<h1>II. Simplicial Canonical Piecewise-Linear 모델</h1> <h2>1. SCPWL 적응 필터</h2> <p>그림 1은 본 논문에서 고려하는 SCPWL 적응 필터의 구조를 나타낸 것으로 전단에 위치한 선형 부분은 식 (1)과 같이 \( N \)차 FIR (Finite Impulse Response) 필터로 구현할 수 있다.</p> <p>\( v(k)=\sum_{i=0}^{N} h_{i} x(k-i)=h^{T} x(k) \)<caption>(1)<caption></p> <p>여기서, \( h=\left[h_{0} h_{1} \cdots h_{N-1}\right]^{T} \)는 FIR 필터의 계수 벡터를 나타내고, \( x(k) \)는 입력 비트 패턴 벡터를 의미한다. 후단에 위치한 SCPWL 함수는 다음과 같이 표현될 수 있다.</p> <p>\( f(v(k))=c_{0}+\sum_{i=1}^{\sigma-1} c_{i} \Lambda(v(k)) \)<caption>(2)</caption></p> <p>식 (2)를 벡터형태로 나타내면 다음과 같다.</p> <p>\( f(v(k))=c^{T} \Lambda(v) \)<caption>(3)</caption></p> <p>여기서, \( \sigma \)는 입력 공간을 몇 개로 나눌 것인지를 사전에 정의한 분할 수이고, \( \boldsymbol{c}=\left[\begin{array}{lllll}c_{0} & c_{1} & c_{2} & \cdots & c_{\sigma}\end{array}\right]^{T} \)는 SCPWL 적응 필터의 계수 벡터를 나타낸다. 그리고 \( \Lambda(v)=\left[1 \Lambda_{1}(v(k)) \cdots \Lambda_{\sigma}(v(k))\right]^{T} \)는 기저함수 벡터를 나타내는 것으로 기저함수 \( \Lambda_{i}(v(k)) \)는 식 (4)와 같이 주어진다.</p> <p>\( \Lambda_{i}(v(k))=\left\{\begin{array}{ll}\frac{1}{2}\left(v(k)-\beta_{i}+\left|v(k)-\beta_{i}\right|\right), & v \leq \beta_{\sigma} \\ \frac{1}{2}\left(\beta_{\sigma}-\beta_{i}+\left|\beta_{\sigma}-\beta_{i}\right|\right), & v>\beta_{\sigma}\end{array}\right. \)<caption>(4)</caption></p> <p>여기서, \( \beta_{i},(1, \cdots, \sigma) \)는 미리 정의된 \( i \)번째 분할 지점을 나타내고, \( \beta_{1} \leq \beta_{2} \leq \cdots \leq \beta_{\sigma} \)와 같이 동일한 크기의 영역으로 분할되어야 한다.</p> <p>식 (1)을 식 (3)에 대입하면 SCPWL 적응 필터의 출력은 다음과 같다.</p> <p>\( y(k)=c^{T} \Lambda\left(h^{T} x(k)\right) \)<caption>(5)</caption></p> <h2>2. SCPWL 모델을 위한 LMS 기반의 알고리즘</h2> <p>SCPWL 모델의 계수들은 식 (6), (7)과 같은 LMS(Least Mean Square) 기반의 알고리즘을 통해 각각 업데이트된다.</p> <p>여기서, \( e(k) \)는 추정하고자 하는 RF 신호 \( d(k) \)와 모델의 출력 신호 \( y(k) \)의 오차를 나타낸다. 그리고 \( \mu_{h} \)와 \( \mu_{c} \)는 각각 SCPWL 모델의 계수 \( h, c \)와 관련된 스텝사이즈를 의미한다.</p> <p>식 (6)에서 정의된 [•] \( ]_{j} \)는 벡터의 \( j \)번째 성분으로 식 (8)과 같이 주어진다.</p> <p>\( \left[\frac{\partial \Lambda(v)}{\partial v}\right]_{1}=0 \\ \left[\frac{\partial \Lambda(v)}{\partial v}\right]_{j+1}=\left\{\begin{array}{ll}\frac{1}{2}\left(1+\operatorname{sign}\left(v-\beta_{j}\right)\right), & , v \leq \beta_{\sigma} \\ 0 & , v>\beta_{\sigma}\end{array}\right. \) for \( j=1, \ldots, \sigma \)<caption>(8)</caption></p> <p>스텝사이즈 \( \mu_{h} \)와 \( \mu_{c} \)의 범위는 각각 식 (9), (10)과 같으며, 앞서 설명한 SCPWL 적응 필터의 알고리즘을 표 2에 정리하였다.</p> <p>\( 0<\mu_{h}<\frac{1}{\left(\sum_{i=2}^{\sigma+1} c_{i}^{2}\right) \lambda_{\max }} \)<caption>(9)</caption></p> <p>\( 0<\mu_{c}<\frac{1}{\left(1+\sum_{i=1}^{\sigma-1}\left(\beta_{\sigma}-\beta_{i}\right)^{2}\right)} \)<caption>(10)</caption></p> <p>여기서, \( \lambda_{\max } \)는 \( R_{x}=E\left[x x^{T}\right] \)의 최대 고유값을 나타낸다.</p> <h2>3. SCPWL 모델의 성능평가</h2> <p>그림 2는 SCPWL 모델의 성능을 평가하기 위한 실험 구성도를 나타낸 것으로 선형 FIR(30 tap), 2차 볼테라(Volterra) 모델, CPWL 모델\( (\sigma=3) \)과의 비교 실험을 수행하였다. 본 실험에서 추정하고자 하는 신호 \( v(k) \)는 식 (11)과 같이 7차 FIR 필터를 통해 얻어지며 비선형 시스템의 출력신호 \( y(k) \)는 식 (12)와 같다.</p> <p>\( \begin{aligned} v(k)=& 0.06 \times x(k)+0.1 \times x(k-1) \\ &+0.22 \times x(k-2)+x(k-3) \\ &+0.27 \times x(k-4)+0.13 \times x(k-5) \\ &+0.08 \times x(k-6)+0.07 \times x(k-7) \end{aligned} \)<caption>(11)</caption></p> <p>\( y(k)=\frac{e^{v / 0.25}-1}{e^{v / 0.25}+1} \)<caption>(12)</caption></p> <p>그림 3은 본 실험에서 사용된 비선형 시스템의 입출력 특성을 나타넨다. 그림 4는 실험에 사용된 모델들의 MSE(Mean Square Error) 비교한 것으로 SCPWL 모델의 스텝사이즈 \( \mu_{h} \)와 \( \mu_{c} \)는 각각 0.005와 0.01이고, \( \sigma=2,8 \)로 설정하였다. 그림 4와 표 3에서 알 수 있듯이 SCPWL 모델이 비교적 적은 수의 파라미터를 가지고 가장 빠르게 수렴하는 것을 알 수 있다.</p>
|
SCPWL 적응 필터의 구조에서 전단에 위치한 선형 부분은 \( N \)차 FIR 필터로 구현할 수 있고, 후단에는 SCPWL 함수가 위치한다. 이때 SCPWL 모델의 계수들은 LMS 기반의 알고리즘을 통해 각각 업데이트된다. SCPWL 모델의 성능을 평가하기 위해 선형 FIR, 2차 볼테라 모델, CPWL 모델\( (\sigma=3) \)과의 비교 실험을 수행한 결과 SCPWL 모델은 비교적 적은 수의 파라미터를 가지고 가장 빠르게 수렴하였다.
|
<h1>I. 서 론</h1> <p>광 디스크는 소형, 높은 신뢰도, 고속의 접근성, 비트 당 저렴한 가격 등의 특성 때문에 음성, 데이터, 영상 등 대용량의 각종 정보를 기록한 멀티미디어 환경에 적합한 미디어로 크게 각광받고 있다. 광 디스크의 용량 증가는 표 1과 같이 주로 레이저 광원의 단파장화와 대물렌즈의 개구수(Numerical Aperture; NA) 증대를 통한 빔 사이즈의 감소에 의해 보다 작은 마크를 기록/재생할 수 있게 해서 밀도를 증가시키는 방법을 사용해왔다. 그러나 현재 가장 고밀도를 갖는 BD(Blu-ray Disc)의 경우에 파장이 \( 405 \mathrm{nm} \)이고 NA가 0.85로 BD에서 사용하는 가장 짧은 마크의 갈이가 \( 150 \mathrm{nm} \)로 이미 회절한계 근처이다. 따라서 BD 이후의 대용량 광 디스크를 위해서는 파장을 짧게 하고 NA를 키워야 하는데 현재의 레이저 다이오드와 렌즈의 개구수, 커버층의 광학적 특성 등의 기술 한계를 고려하면 차후 얼마 동안은 이의 기술발달이 이루어지기 어렵다고 보여진다.</p> <p>선진 연구 기관들은 BD 이후에 \( 100 \mathrm{GB} \) 이상의 대용량 저장이 가능한 차세대 광 저장장치 시스템으로 NFR(Near-Field Recording), 홀로그래픽 데이터 저장 시스템(Holographic Data Storage System; HDSS), super-RENS(Super-Resolution Near field Structure) 디스크 시스템 개발에 힘쓰고 있다. 이러한 차세대 광저장장치의 후보들 중 본 논문에서 다루고자 하는 super-RENS 디스크 시스템은 분해능보다 작은 마크를 기록/재생하는 기술인 초해상 기술과 동일한 파장의 광원을 사용하면서도 광초점의 크기를 줄여서 광 디스크의 기록 용량을 증가시키는 근접장 기술로 이루어져 있다.</p> <p>Super-RENS 기술은 광 디스크 내부에서의 초해상 현상을 이용하기 때문에 드라이브 구조를 변경하지 않으면서도 앞서 언급한 용량증가를 위한 한계를 극복할 수 있고, 또한 디스크의 출납이 가능하기 때문에 sub-tera byte급의 용량을 언을 수 있는 유망한 후보 기술로 인식되고 있다. 이러한 super-RENS 기술을 연구하는데 있어 가장 기초가 되는 것은 기록 채널 분석 및 시스뎀 모델링이다. 신뢰성 있는 채널 모델은 다양한 데이터 검출 알고리즘의 성능 확인에 중요한 척도가 되므로 정확한 모델링이 요구되며, 추정된 채널 모델을 기반으로 이에 적합한 변조 코딩 및 에러 정정 부호 기술이 사용되어야 한다.</p> <p>이에 본 논문에서는 참고문헌 [7]에서 실시한 super-RENS 디스크의 재생신호에 대한 bicoherence 테스트 결과를 기반으로 super-RENS 디스크 시스템의 비선형 모델링을 위해 SCPWL(Simplicial Canonical Piecewise-Linear) 모델을 적용하여 그 활용 여부를 실험하고자 한다. Super-RENS 시스템의 모델링을 위해 본 논문에서 고려하는 SCPWL 모델은 비선형 시스템을 분석하는데 있어 회로의 동작영역을 여러 개의 구간으로 나나고, 각 구간에서의 비선형 특성을 선형 함수로 표현하여 처리함으로써, 하드웨어 측면에서 구현이 용이하다. 또한 일반적인 비선형 방정식보다 계산적인 측면에서 뿐만 아니라 매모리 효율성에서도 매우 유용하다.</p> <p>본 논문은 다음과 같이 구성되었다. 서론에 이어 II장에서는 논 논문에서 고려하는 SCPWL 모델에 대하여 살펴본다. III장에서는 비선형 채널 모델링을 위해 SCPWL 모델을 적용하여 성능을 평가하고, 마지막으로 IV장에서 결론을 맺는다.</p>
|
현재 가장 고밀도로 알려진 광 디스크는 파장이 \( 405 \mathrm{nm} \)이고 NA가 0.85인 BD이며, BD의 가장 짧은 마크의 길이는 \( 150 \mathrm{nm} \)로 이미 회절한계 근처라고 한다. 이에 선진 연구 기관은 차세대 광 저장장치 시스템 개발에 힘쓰고 있으며, 그 중 하나인 super-RENS 디스크 시스템은 광 디스크의 기록 용량을 증가시키는 근접장 기술로 이루어져 있어 용량증가를 위한 한계를 극복할 수 있고 sub-tera byte급의 용량을 얻을 수 있는 유망한 후보 기술로 인식되고 있다.
|
<h1>3. 압축 데이터 관리 시스템(CDMS)의 필요성</h1> <p>위 플래시 메모리의 특성에서 살펴본 바와 같이 플래시 메모리는 많은 장점을 가지기 때문에 대부분의 휴대용 정보 기기에서는 보조기억장치로 기존의 하드디스크를 대신하여 플래시 메모리를 사용한다. 하지만 이 플래시 메모리는 자기저장장치인 하드디스크보다 비용이 많이 들고 데이터 I/O로 인해 수명이 제한된다.</p> <p>따라서 모바일 환경에서 DBMS는 기존의 DBMS와 달리 저장 공간과 데이터 I\O에 따른 제한을 받게 된다. 이에 반해 모바일 환경에서 처리해야 할 정보의 수와 크기는 점차적으로 증가되고 있다. 이러한 이유로 인해 모바일 환경에서는 저장 공간의 효율적인 사용이 무엇보다 우선되어야 한다.</p> <p>구체적으로 말해, 모바일 환경에서 DBMS는 두 가지의 환경적인 문제를 가지게 된다. 첫째는 제한된 메모리 사용에 따른 저장 공간 부족이다. 휴대용 정보기기에서 처리 요구되는 정보의 양이 크게 증가되고 있는 상황에서 DBMS에 의해 관리되는 정보량 또한 크게 증가하고 있다. 하지만 모바일 환경은 비용에 의한 저장 공간의 제한으로 많은 양의 데이터의 저장, 처리를 지원하는데 어려움이 따른다. 둘째는 플래시 메모리 사용에 있어 데이터 I\O비용을 감소시켜야 한다. 플래시 메모리는 휴대용 저장장치에 적합한 여러 가지 장점을 가지고 있지만 느린 쓰기(기록) 속도와 데이터 I/O 에 따른 수명을 가진다는 단점으로 인해 데이터 I/O에 대한 비용 절감을 요구한다. 느린 쓰기속도의 문제는 DBMS의 성능저하를 발생시키며 많은 데이터에 대한 I\O는 플래시 메모리의 수명과 직결되는 문제를 야기한다.</p> <p>이 두 가지 문제를 해결하기 위한 방법으로 본 논문에서는 데이터 압축을 제안한다. 압축을 사용함으로 저장매체에 쓰거나 읽어야 할 데이터가 줄어들게 되어, 제한된 자원사용에 따른 저장 공간 부족문제와 플래시 메모리에서 많은 데이터 I\O에 의한 성능저하 및 플래시 메모리 수명문제에 대한 효율적인 대처가 가능하다. 또한 추가적으로 압축을 통해 데이터에 대한 암호화로 보안효과를 취할 수 있다. 하 지만 압축을 사용함으로 추가적인 관리가 필요하게 된다. (그림 2)에서 보는 바와 같이 기존 경우(그림 2-가)는 정해진 규격(페이지)으로 관리되어지기 때문에 관리가 간편하고 저장 상태에 대한 많은 정보를 가지고 있을 필요가 없다. 하지만 압축을 사용하였을 경우(그림 2-나)는 압축한 원본 데이터의 크기가 각각 달라지어 관리가 복잡하고 저장 상태에 대한 추가적인 정보가 더 필요하게 된다. 따라서 본 논 문에서는 이러한 압축된 데이터를 효율적으로 관리하는 관리기법 또한 제안하고 있다.</p> <p>이러한 데이터 압축 관리 시스템은 일반적인 DBMS에서파일시스템으로의 저장단위인 페이지(페이지)를 관리하는 방식으로 제안되었다. 따라서 제안되는 관리 시스템은 DBMS와 플래시 메모리의 파일시스템 사이에 위치하게 된다. 그 결과 DBMS의 변경 없이 기존의 DBMS에 쉽게 이용될 수 있는 특성을 가진다. 이것은 다음 장의 CDMS의 구조에서 다시 설명한다.</p>
|
본 논문에서는 휴대용 정보기기의 비용, 저장 공간 부족 등의 문제를 해결하기 위해 데이터 압축을 제안하고 있다. 이를 통해 제한된 자원 사용에 따른 저장 공간 부족 문제와 플래시 메모리에서 많은 데이터 I/O에 의한 성능 저하 및 플래시 메모리 수명 문제를 해결할 수 있다. 또한 압축을 통해 데이터에 대한 암호화로 보안 효과를 취할 수 있으나, 압축을 사용함으로 추가적인 관리가 필요하게 된다.
|
<h2>2.2 플래시 메모리의 특성</h2> <p>플래시 메모리는 저 전력으로 장시간의 구동이 가능하며, 부피가 작고 가볍다. 또한 소음과 진동이 없으며, 물리적인 충격에 강해 휴대가 용이하다.</p> <p>이러한 플래시 메모리는 설계의 차이로 크게 NOR형 방식과 NAND형 방식으로 나눠진다.</p> <p>NOR형 플래시 메모리는 읽기 속도는 빠르지만 쓰기 속도가 느려 주로 프로그램 코드용 메모리로 사용된다. NAND형 플래시 메모리는 쓰기 속도가 빠르고 단위 공간당 단가가 낮아 주로 대용량 데이터 저장장치로 사용된다.<표 1>은 NOR형 플래시 메모리와 NAND형 플래시 메모리, 그리고 다른 저장 매체들의 특성을 수치적으로 비교한 것이다.</p> <p> <표 1>에서는 플래시 메모리가 RAM에 비해 가격이 저렴하고, HDD보다 성능이 뛰어나는 것을 보여준다. 이러한 수치적 특성은 플래시 메모리가 비싸면서 대용량 저장매체로 사용하기 힘든 휘발성인 RAM과 여러 가지 단점으로 모바일 기기에 사용하기 힘든 하드디스크의 단점을 보안한 저장매체인 것을 보여주고 있다. 따라서 이러한 특성으로 인해 현재 모바일 기기들에 가장 보편적으로 NAND형 플래시 메모리가 사용되고 있다.</p> <p>NAND형 플래시 메모리는 전력 소모가 작고 충격에 강하며 소형화가 가능하지만, 쓰기 위해서는 파일이 쓰일 위치에 내용이 모두 지워져야 된다. (erase-before-write) 또한 NAND형 플래시 메모리는 읽기/쓰기는 페이지 단위로 이루어지고, 삭제는 블록 단위로 이뤄진다. 다시 말해 쓰기/읽기 단위와 삭제 단위가 동일하지 않다. 이때 삭제는 디스크의 수명을 단축시켜 약 \( 10^{\sim} 100 \)만 번을 수행하면 그 블록을 사용할 수 없게 된다. 이러한 수명에 대한 제약을 해결하기 위해서 I/O를 줄이는 것이 필요하게 된다.</p> <p>또한 플래시 메모리는 위에 설명된 특성 때문에 기존의 파일시스템을 그대로 사용할 수 없다. 그래서 이런 문제를 해결하기 위해 FTL(Flash Translation Layer)을 중간에 위치시켜 플래시 메모리가 하드디스크처럼 여길 수 있도록 하는 역할을 한다. (그림 1)에 FTL의 동작을 보였다.</p> <p>(그림 1)에서 나타난 바와 같이 파일시스템은 요청받은 파일의 데이터 처리를 위해 FTL에 해당 데이터에 대한 읽기, 쓰기 요청을 하게 되며, 파일시스템과 FTL 사이의 데이터 교환 단위는 섹터단위가 된다. 이후 FTL에 의해 실제 데이터가 위치한 물리적 장치인 플래시 메모리에서는 페이지 단위의 읽기 쓰기가 일어난다. 이러한 처리에서 파일시스템은 해당 데이터가 저장된 논리적 섹터를 찾게 되고 해당 섹터에 대한 처리 요청을 FTL에 하게 된다. FTL은 파일시스템이 요청한 논리적 섹터의 데이터에 매칭 되는 물리적 페이지를 플래시 메모리에서 찾아 요청에 대한 처리를 하게 된다. 이때 FTL은 파일시스템으로부터 오는 읽기/쓰기 요청을 읽기/쓰기/삭제 작업을 통해 처리한다.</p> <p>기존 연구 중 FTL 단에서 압축을 시도한 연구가 있었다. 하지만 FTL에서 압축을 시도한다면, JPEG와 MP3같은 압축된 멀티미디어 파일이 들어오게 되면 압축효과는 없으면 서도 압축을 시도하게 되어 이중으로 압축하는 문제가 발생 한다. 요즘 휴대용 정보기기에서 멀티미디어 파일을 많이 처리/저장하고 있다는 사실에서 이러한 문제는 큰 영향을 준다.</p> <p>이러한 플래시 메모리의 특성과 연구로 인해 플래시 메모리를 위해서 압축을 사용하는 것이 필요하다는 것을 알게 되었다. 또한 FTL단에서 처리하기에는 많은 문제점이 따르는 것도 알 수 있었다. 따라서 본 논문은 일반적으로 압축되지 않은 텍스트 정보가 저장되는 데이터베이스 파일만을 압축하는 CDMS를 제안하게 된 것이다. CDMS의 필요성은 다시 3장에서 구체적으로 설명한다.</p>
|
플래시 메모리는 NOR형 방식과 NAND형 방식으로 나눌 수 있으며, NOR형 플래시 메모리의 경우 읽기 속도는 빠르지만 쓰기 속도가 느려 주로 프로그램 코드용 메모리로 사용된다. NAND형 플래시 메모리의 경우 전력 소모가 작고 충격에 강하며 소형화가 가능하지만, 사용하기 위해서는 파일을 사용할 위치에 내용이 모두 지워져야 한다. 때문에 이런 문제를 보완하기 위해 FTL을 중간에 위치시켜 플래시 메모리가 하드디스크처럼 여길 수 있도록 하는 것이 효과적이다.
|
<h1>4. CDMS</h1> <p>이 장에서는 본 논문이 제안하는 압축 데이터 관리 시스템(CDMS, Compressed Data Management System)에 대해 기술한다. 먼저 CDMS의 전체적인 구조에 대해 4.1절에서 기술한다. 그리고 본 논문에서는 CDMS의 세부적인 관리기법으로 압축된 데이터의 크기에 따라 처리하는 동적 기법과 가상의 슬롯을 이용하는 정적 기법을 제안하는데, 이것을 4.2절에서 기술한다. 또한 제안하는 각 관리기법의 장단점 등을 비교한 내용을 4.3절에서 기술한다.</p> <h2>4.1 CDMS 구조</h2> <p>휴대용 정보기기에서 발생하는 저장 공간 부족문제는 데이터를 압축함으로 해결할 수 있다. 하지만 압축된 데이터는 크기가 달라 추가적인 관리가 필요하다. 본 논문에서는 이러한 요구를 만족시키기 위한 압축 데이터 관리 시스템, CDMS(Compressed Data Management System)를 사용한 새로운 구조를 제안한다.</p> <p>다음은 본 연구에서 제안하는 CDMS의 설계 목표이다.</p> <p>① DBMS의 데이터 파일이 차지하는 저장 공간의 절약</p> <p>② 기존 DBMS의 변경 최소화</p> <p>③ 효율적인 압축된 데이터 관리</p> <p>먼저 본 논문이 제안하는 CDMS는 저장 공간의 절약을 위해 압축 기법을 사용한다. 또한 CDMS 는 기존 DBMS의 변경 최소화를 위해 DBMS의 스토리지 관리자와 파일 시스템 사이에 들어가게 된다. DBMS는 기존에 파일시스템으로 보내던 데이터를 CDMS에게 보내게 되고 이것을 CDMS가 압축하여 파일시스템에 보내게 된다. (그림 3)은 기존 시스템과 CDMS의 데이터 교환을 나타낸 것이다.</p> <p>(그림 3)의 (가)에서 보는 바와 같이 기존의 시스템은 모바일 DBMS에서 파일을 관리하기 위해 데이터를 읽고 쓰는 것에 대한 요청을 파일시스템에 하게 된다. 이때 모바일 DBMS와 파일시스템 두 계층 사이의 데이터 교환은 DBMS가 정의한 페이지 단위의 파일 I/ O를 사용한다. 하지만 이 논문에서 제안하는 CDMS를 이용한 새로운 구조는 (그림 3)의 (나)와 같이 DBMS의 데이터 파일에 대한 접근 및 처리를 CDMS에 의해 이루어지도록 한다. 모바일 DBMS는 기존의 파일시스템에 요청한 것과 동일하게 페이지 단위의 데이터 I/ O를 사용하여 CDMS에게 요청하면 CDMS는 추가적인 처리를 자체적으로 함으로 압축을 적용시켜 파일 시스템과 바이트 단위의 파일 I/ O를 통해 데이터 교환을 하여 DBMS의 요청을 처리한다. 따라서 모바일 DBMS의 데이터 파일은 압축된 블록들로 구성되지만 DBMS는 압축되지 않은 데이터파일에 접근하는 방식과 동일하게 데이터 파일에 대한 접근요청을 CDMS에 할 수 있다.</p> <p>(그림 4)는 위에서 설명한 CDMS의 자체적인 처리를 할 수 있는 CDMS의 전체적인 구조도이다.</p> <p>(그림 4)에 나타나 있는 바와 같이 CDMS는 DBMS가 요청한 데이터를 압축된 데이터 파일에서 찾기 위해 데이터파일 내부에 매핑정보를 포함시키고 있다. 이 매핑정보는 논리적 블록번호, 압축된 블록의 위치나 크기 정보를 가지게 되며, 이러한 매핑정보를 이용해 압축되지 않은 상태의 데이터파일과 압축된 데이터파일의 매핑이 가능해진다. 이때 매핑정보에 포함된 블록번호는 압축되지 않은 상태의 데이터파일을 논리적 블록의 크기(페이지)로 분할했을 때의 할당된 번호이다.</p> <p>또한 CDMS는 데이터파일 내부에 자유영역정보(Free Space Information)를 포함시키고 있다. 이 자유영역정보는 다음과 같은 이유로 생기게 된다. 압축된 데이터에 해당하는 페이지가 DBMS에 의해 갱신되어 다시 쓰기를 수행할 때 CDMS에 의해 해당 데이터가 포함된 블록은 다시 압축되어 데이터 파일 내에 저장하게 된다. 이때 다시 압축된 블록은 갱신되기 전 압축된 상태의 블록크기와 동일한 크기를 가진다는 것을 보장 할 수 없다. 이러한 이유로 압축된 블록이 갱신되어 다시기록 되어야 할 때는 기존 데이터가 새로운 데이터보다 작을 때는 기존위치가 아닌 파일 내 새로운 공간에 저장되어야 하고, 기존 데이터가 존재하던 공간은 다른 새로운 압축된 블록의 쓰기를 위해 저장 가능한 공간으로 표시되어야 한다. 또한 기존 데이터가 새로운 데이터보다 클 경우는 나머지 부분을 저장 가능한 공간으로 표시되어야 한다. 이렇게 발생된 재사용이 가능한 공간의 표시를 위해 자유영역정보에 빈 공간에 대한 정보를 저장하여 관리하게 된다.</p>
|
CDMS는저장 공간 부족 문제를 해결하기 위해 압축 기법을 사용하고 기존 DBMS의 변경 최소화를 위해 DBMS의 스토리지 관리자와 파일 시스템 사이에 들어가게 되며 CDMS는 모바일 DBMS가 정의한 페이지 단위의 데이터 I/O를 사용하여 파일 시스템과 바이트 단위의 파일 I/O를 통해 데이터 교환을 하여 DBMS의 요청을 처리하고 본 논문에서는 CDMS는 압축된 데이터를 관리하기 위해 동적 기법과 정적 기법을 사용한다.
|
<h1>2. 관련 연구</h1> <p>이 장에서는 데이터베이스에서 데이터의 압축과 기존 압축데이터 관리기법, 그리고 플래시 메모리에 대한 관련연구를 살펴본다. 이것은 이 논문에서 제안하는 압축 데이터 관리 시스템 CDMS에 대한 기본 지식 및 개발 동기가 된다. 먼저 2.1절에서는 데이터 압축 및 기존 압축데이터 관리기법에 관련해서 알아보고, 2.2절에서는 플래시 메모리의 특성에 대해서 알아본다.</p> <h2>2.1 데이터베이스에서 데이터 압축 및 관리</h2> <p>압축된 데이터를 사용하여 시스템의 효율을 높이고자 하는 연구는 현재까지 지속적으로 연구되어 왔다. 이와 관련된 연구는 크게 데이터 압축방식과 압축 데이터의 처리로 나눌 수 있다. 이 중 대부분의 연구는 데이터 압축방식에 대한 연구로써, 대표적으로 초기 Huffman coding을 이용한 방식과 Run-Length coding을 이용한 방식으로 나눌 수 있다. Huffman Coding과 Run-Length coding기법(Fixed-Length)은 엔트로피 기법으로서 압축시킬 대상의 특성을 고려하지 않고 데이터를 단순히 비트 집합 혹은 바이트 집합으로 보고 압축을 하게 된다. 이 기법들은 복원한 데이터가 압축전의 데이터와 완전히 일치하는 무손실(lossless) 기법이다. 이러한 데이터 압축기법이 데이터베이스 시스템의 성능에 미치는 효과에 대한 연구 또한 진행되었다. 이와 같은 연구에서 데이터압축 기법을 DBMS에서 사용함으로써 일반적으로 다음과 같은 이점을 얻을 수 있음을 공통적으로 제시하고 있다. 첫째, 물리적 디스크공간의 절약이다. 데이터베이스의 데이터를 압축 저장함으로써 데이터의 양을 줄일 수 있고 이로 인해 물리적인 저장소의 디스크 공간을 절약할 수 있게 되는 것이다. 둘째로 디스크 I/O 감소이다. 데이터를 압축하게 되면 기존의 데이터가 차지하는 공간보다 작은 물리적 공간을 차지하게 된다. 이것은 같은 데이터를 읽고자 할 때 스토리지에서 기존보다 적은 부분만 읽어 오면 된다. 또한 같은 크기의 블록을 읽었을 때 압축된 상태의 데이터는 보다 많은 정보가 기록되어 있으므로 일정량의 데이터에 대한 읽기, 쓰기명령에 의해 일어나는 디스크 I/O의 횟수가 감소하게 된다. 이러한 이유로 DBMS는 I/O 병목현상 경감과 대역폭 증가의 효과를 얻을 수 있다.</p> <p>이러한 이점에도 불구하고 실제로 데이터 압축방식은 대부분의 고성능의 DBMS에서 전형적으로 사용되고 있지 않다. 사용되더라도 특정 DBMS에 특화된 방식으로 적용되어 사용되고 있다. 한 예로 상용 DBMS인 DB2에서 이와 같은 압축데이터를 활용하여 시스템의 성능향상과 저장 공간 절약의 효과를 보인 연구가 있었다. 이 연구에서 Ziv-Lempel 압축 알고리즘을 사용해서 테이블의 열 단위로 압축한다. 이때 빈번한 접근이 일어나면서 적은 데이터를 담고 있는 테이블은 압축하지 않고, 많은 데이터를 담고 있지만 적은 접근이 일어나는 테이블들은 선택적으로 압축하는 기법을 제시하였다.</p> <p>또한 한 연구에서는 사전기법을 사용하여 압축하여 추후 질의 처리 시 압축을 풀지 않고 실행하는 방법과 압축된 데이터의 저장방식을 제시하였다.</p> <p>이러한 기존 연구들은 DBMS 내부에서 데이터 압축을 통해 시스템의 효율을 높이기 위한 연구로, 압축 알고리즘과 압축을 사용한 전체 DBMS를 개발 하는 것에 초점이 맞추어져 있었다. 또한 기본 연구들은 압축된 데이터의 저장방식에 대해 약간의 언급은 있었으나 그로인해 생겨나는 빈공간의 처리 등에 관한 최적의 관리방식을 보여주지 못했다.</p> <p>따라서 본 논문에서는 기존 DBMS의 수정을 최소화 할 수 있도록 DBMS의 입출력단위인 페이지단위를 이용한 데이터 압축 구조를 설계함으로써 특정 DBMS에 비종속적 데이터 압축 구조를 제안하고, 효율적인 압축된 데이터의 관리기법을 제안하여 압축 효과를 증대시키도록 하였다.</p>
|
데이터압축 기법을 DBMS에서 사용함으로써 데이터의 양을 줄일 수 있음으로 물리적인 저장소의 디스크 공간을 절약할 수 있고 I/O 병목현상 경감과 대역폭 증가의 효과를 얻을 수 있는 이점이 있다. 이점에도 불구하고 대부분의 고성능의 DBMS에서 실제로 데이터 압축방식은 전형적으로 사용되고 있지 않다. 본 논문에서는 기존 DBMS 수정 최소화를 위해 페이지단위의 데이터 압축 구조를 설계하여 특정 DBMS에 비종속적 데이터 압축 구조와 효율적인 압축된 데이터의 관리기법을 제안해서 압축 효과를 높이도록 하였다.
|
<h3>4.2 .2 정적 기법</h3> <p>본 논문에서 제시하는 또 하나의 관리기법은 정적 기법이다. 이 방식은 빈 공간의 증가를 막기 위한 방법으로 가상의 슬롯을 이용하고 있다. 이러한 가상의 슬롯을 이용함으로 데이터 파일을 논리적으로 고정된 슬롯 크기로 나누어 압축된 블록을 저장하게 된다. 즉, 파일의 내부를 같은 크기의 슬롯으로 논리적으로 분할하여 압축된 블록을 저장할 때 이 슬롯에 저장하는 방식을 사용한다. 이 방식을 사용함으로 슬롯 안에 내부적인 빈공간이 생기지만 데이터의 처리가 슬롯단위로 가능해져서 관리가 편리하면서 효율적이게 된다.</p> <p>정적 기법은 저장할 때 가상의 슬롯 크기로 저장하게 된다. 따라서 갱신할 때 발생하는 빈 공간도 슬롯 크기를 가지게 된다. 이로 인해 정적 기법은 데이터의 입출력 및 빈 공간 관리를 슬롯 형태로 할 수 있게 된다.</p> <p>다음은 정적 기법을 사용한 CDMS의 쓰기 절차이다.</p> <p>위에서 보는 바와 같이 단계 2에서 동적기법과 다르게 슬롯 형태로 압축된 블록을 저장한다. 따라서 자유영역정보 또한 슬롯형태로 관리가 가능해져서 단계 3 의 2)에서 자유영역정보에 추가되는 정보가 슬롯형태의 정보가 된다.</p> <p>하지만 이 정적기법도 동적 기법의 빈 공간이 많아지는 것을 보완하기 위해 나온 기법이지만 슬롯 안에 사용하지 못하는 빈 공간이 존재하는 등의 단점이 존재한다. 따라서 각각의 특성에 맞게 관리기법을 결정하는 것이 중요하다. 이것을 위해 다음 절에서는 동적기법과 정적기법의 비교를 통해 그 특성을 파악한다.</p> <h2>4.3 압축데이터 관리기법 비교</h2> <p>위에서 설명한 동적기법과 정적기법은 슬롯의 사용유무로 인해 차이가 생긴다. 다시 말해 동적기법은 슬롯을 사용하지 않음으로 인해 슬롯의 사용으로 발생할 수 있는 내부적인 빈 공간이 없다. 또한 슬롯의 크기를 설정해야 할 필요도 없다. 하지만 각각의 블록에 맞게 바이트 단위로 처리되기 때문에 1 바이트의 차이도 허용되지 않는다. 또한 가장 앞쪽의 빈 공간부터 채움으로 인해 빈 공간의 크기를 고려 하지 않게 된다. 따라서 들어오는 압축된 블록과 빈 공간의 크기 차이가 생기게 된다. 이 때 생기는 빈 공간은 다른 데이터를 넣기에는 너무 작아 계속적으로 사용되지 않게 된다. 이렇게 생기는 빈 공간으로 인해 효율적인 공간 사용에 큰 영향을 끼친다. 또한 이러한 빈 공간의 정보를 유지해야 되는 자유영역정보가 계속적으로 늘어나게 된다. 반면에 정적기법은 슬롯을 사용함으로 인해 이러한 동적기법의 단점을 해소한다. 슬롯이 이러한 문제를 발생하지 않도록 완충 작용을 하는 것이다. 그 결과 다른 데이터를 넣기에 너무 작은 빈 공간이 발생하지 않게 되고, 따라서 자유영역정보도 줄어들게 된다. 또한 발생되는 빈 공간도 슬롯단위이기 때문에 1 바이트라도 모자라면 못 들어가는 동적기법보다 압축된 블록이 어떤 빈 공간이든지 들어갈 수 있는 확률이 높아진다. 하지만 정적 기법은 적절한 슬롯 크기를 설정해야 되며, 그렇지 않았을 경우 잘못된 슬롯 크기를 선택으로 슬롯 내부에 빈 공간이 생길 수 있다. 이것은 자유영역정보에 기록되지 않는 CDMS가 처리하지 못하는 빈 공간이다.</p> <p> <표 3>은 위에 설명한 각 관리기법의 장단점을 표로 나타낸 것이다.</p> <p> <표 3>를 통해서 확실하게 확인할 수 있는 것은 동적 기법의 장점은 정직 기법의 단점이 되고, 정적 기법의 장점은 동적 기법의 단점이 되는 사실이다. 이것은 어떤 특정 관리기법이 다른 관리기법보다 항상 우수하지 않고 사용되는 환경에 따라 우수한 관리기법이 다를 수 있다는 것이다. 그 환경은 동적기법일 경우 빈 공간이 발생하지 않는 상황인 갱신이 잘 일어나지 않고, 한번 쓰기를 실행한 후 읽기만 계속직으로 이용하는 DBMS의 경우나 갱신이 일어나도 똑같은 크기의 압축된 블록이 발생 되는 경우가 될 것이다. 반면에 정적기법은 그 반대의 경우인 갱신이 빈번하게 일어나면서 압축된 블록의 크기가 차이가 있는 경우에 적합한 관리기법이 될 것이다. 다른 크기의 압축된 블록으로 갱신이 빈번하게 일어난다면 빈 공간이 계속적으로 발생하게 될 것이기 때문에 이 환경에서는 슬롯을 사용하여 빈 공간의 관리가 효율적인 정적기법이 권장될 것이다.</p>
|
빈 공간의 증가를 저하하기 위한 방법으로 가상의 슬롯을 이용하는 정적 기법은, 슬롯 안에 내부적인 빈공간이 생기지만 데이터의 처리가 슬롯단위로 가능하므로 관리가 편리하고 효율적이다. 사용되는 환경에따라 우수한 관리기법은 달라지며, 갱신이 빈번하지 않으며 지속적으로 읽기만 이용하는 DBMS 환경이나 동일한 크기의 압축된 블록이 발생하는 경우에는 동적기법이 적합하다. 그러나, 빈 공간이 계속해서 발생하는 환경에서는 슬롯을 사용하여 빈 공간의 효율적 관리가 가능한 정적기법이 권장된다.
|
<h1>5. 성능 평가</h1> <p>이 장에서는 본 논문이 제안하는 CDMS의 타당성을 검증한 실험결과 및 분석결과를 제시한다. 이 실험을 위하여 실제 상용화 되어 있는 모바일 DBMS의 LINUX 개발 환경을 사용하였다. 실험을 통해 기존 DBMS와 CDMS를 사용한 DBMS의 차이를 확인하고 나아가 모바일 환경인 플래시 메모리상에서의 결과를 예측 할 수 있도록 하였다. 이 실험은 DBMS에서 일어날 수 있는 모든 상황을 확인하기 위해 상용 모바일 DBMS의 개발당시 DBMS의 검증을 위해 사용된 품질 보증(Quality Assurance)을 위한 QA 프로그램을 사용하였다. 이 프로그램은 DBMS가 처리해야 되는 \( 64 \mathrm{M} \)바이트에 달하는 1,000여 개의 질의 파일을 포함하고 있으며, 발생되는 데이터베이스 파일은 (그림 5)에서 보이듯이 \( 6 \mathrm{M} \)바이트의 데이터를 포함한다. 또한 각 질의 파일들은 11,000여 개의 테이블을 생성하게 된다. 본 논문은 이러한 QA 프로그램을 실행시킴으로 본 논문이 제안하는 시스템을 검증하였고, QA 프로그램을 실행시키면서 여러가지 결과들을 도출하여 제안하는 시스템의 특성을 확인하였다.</p> <p>일반적으로 실험은 모바일 DBMS에 CDMS를 추가하여 QA 프로그램을 돌려본 결과와 모바일 DBMS 자체로만 QA 프로그램을 돌려본 결과를 비교하였다. 이때 CDMS는 2가지의 관리기법으로 나누어 실험하였고, 추가적으로 정적기법은 슬롯크기를 512 바이트, \( 1 \mathrm{~K} \) 바이트, \( 2 \mathrm{~K} \) 바이트, \( 3 \mathrm{~K} \) 바이트, 3280 바이트, \( 5 \mathrm{~K} \) 바이트, \( 6 \mathrm{~K} \) 바이트, \( 7 \mathrm{~K} \) 바이트, \( 8 \mathrm{~K} \) 바이트로 나누어 각각 실험 하였다. 이때 3280바이트의 슬롯은 적절한 슬롯 크기의 선택이 중요한 것을 확인하기 위해 저장되는 데이터가 대부분 3280바이트로 압축되는 것을 미리 확인하여 \( 4 \mathrm{~K} \)바이트가 아닌 3280바이트로 설정하였다.</p> <p>성능에서 CDMS의 목표는 우선적으로 DBMS의 데이터 파일의 크기를 줄이는 것이다. 이와 같은 성능을 확인하기 위해서 본 논문에서는 먼저 QA 프로그램이 완료된 시점에서의 데이터를 저장하고 있는 파일 크기를 측정하였다.</p> <p>(그림 5)는 계속적인 데이터의 추가가 많이 일어나는 QA 프로그램을 실행시킨 결과를 나타낸 것이다. 이 실험을 통해 CDMS의 사용이 기족방식보다 최대 \( 60 \% \), 평균 \( 40 \% \) 정도 파일 크기를 줄여 주는 것을 확인할 수 있었다. 그리고 슬롯 내부 빈 공간으로 인해 정적 기법이 동적 기법보다 크기 감소가 적은 것을 알 수 있었다. 또한 정적 기법은 슬롯 크기가 증가 할수록 내부 빈 공간 때문에 파일크기가 계속 증가하는 것을 볼 수 있다. 특히 \( 8 \mathrm{k} \)에서 정적 기법은 기존 시스템보다 나쁜 성능을 보이는데, 이것은 정적 기법에서 잘못된 가상 슬롯 크기 선택이 기존 시스템보다 나쁜 성능을 보일 수 있음을 보여준다. 반면에 슬롯 크기가 3280바이트일 때는 적당한 슬롯크기를 선택함으로 가장 크기가 작은 것을 확인할 수 있었다. 이것은 정적 기법에서 슬롯 크기 선택이 공간 절약측면에서 얼마나 중요한지를 나타내고 있다.</p> <p>(그림 6)은 자유영역정보에 저장되어 있는 빈 공간 정보의 개수를 보인 것이다. (그림 6)을 통하여 정적 기법의 경우 자유영역정보에서 빈 공간의 정보가 적은 것을 알 수 있었다. 즉 슬롯을 사용함으로 자유영역정보를 효율적으로 관리할 수 있다. 하지만 슬롯의 크기가 작아지면서 완충 작용을 할 수 있는 범위가 줄어들어 빈 공간의 정보가 늘어나는 것을 볼 수 있다.</p> <p>이상의 실험으로 CDMS를 사용함으로 인해 평균 \( 40 \% \) 의 공간 절약을 가져오는 것을 확인할 수 있었다. 그리고 슬롯을 사용함으로 인해 빈 공간의 관리가 효율적으로 이뤄지는 것과 잘못된 슬롯 크기의 선택으로 기존보다 더 나쁜 성능을 보일 수 있다는 것을 확인하였다.</p> <p>또 다른 성능에서 CDMS의 목표는 기존 시스템과의 소요시간 차이를 최소화 시키는 것이다. 이와 같은 성능을 평가하기 위하여 본 논문에서는 먼저 QA 프로그램이 완료된 시점까지 걸리는 시간을 측정하였다. (그림 7)은 QA 프로그램이 완료되는 시간을 측정한 결과이다.</p> <p>이 실험을 통해 속도 면에서 CDMS를 사용한 시스템이 압축 연산으로 인해 평균적으로 기존 시스템보다 \( 40 \% \)의 추 가 시간이 필요한 것을 확인하였다. 이것은 저장 공간의 절약이 최우선되는 목적인 CDMS가 앞서 확인한 바와 같이 최대 \( 60 \% \), 평균 \( 40 \% \)의 저장 공간을 줄이는 부담으로써, 압축 알고리즘이 압축률과 소요시간이 비례한다는 특성을 바탕으로 압축률을 줄임으로 시간성능을 향상 시킬 수 있다. 따라서 압축률과 압축시간의 적절한 조절로 사용 환경에 적합한 시스템이 될 수 있다.</p> <p>(그림 8)과 (그림 9)는 모바일 DBMS의 QA 프로그램 실행시 DBMS와 저장매체 사이의 전체 I/O량을 측정한 것이다. (그림 8)는 저장매체에서 데이터를 읽는 양이고, (그림 9)는 저장매체로 데이터를 쓰는 양이다. 이 실험 결과를 통해 데이터 I/O가 기존 시스템보다 제안하는 CDMS를 사용하였을 때 현저히 낮은 것을 알 수 있다. 따라서 쓰여 질 데이터의 크기를 줄임으로 플래시 메모리의 수명을 연장할 수 있게 된다.</p> <p>위의 일련의 실험을 통해 본 논문에서 제안하는 CDMS을 검증하였다. CDMS를 사용함으로 공간 절약이 가능하였고, 반면에 추가 소요시간이 필요한 것을 확인하였고, 기타 설계 목적들 또한 검증 하였다.</p>
|
이 장에서는 CDMS의 타당성을 검증하는 실험 결과와 분석 결과를 제시했다. CDMS를 사용하면 기존 방식보다 최대 \( 60 \% \), 평균 \( 40 \% \) 정도 파일 크기를 줄여줄 수 있었고, 슬롯을 사용함으로서 자유영역정보를 효율적으로 관리할 수 있었다. 그러나 속도 면에서 CDMS를 사용한 시스템이 압축 연산으로 인해 기존의 다른 시스템보다 40%의 추가시간이 필요했다. 또한 데이터 I/O가 기존 시스템보다 CDMS를 사용했을깨 훨씬 낮았다. 결론적으로 CDMS를 사용함으로 공간을 절약할 수 있고 기타 설계 목적들 또한 검증 하였지만 추가 소요시간이 필요하다는 것을 알아내었다.
|
<h1>1. 서 론</h1> <p>PDA(개인 휴대 정보 단말기), HPC(핸드헬드 PC), PPC(포켓 PC), 개인용 휴대전화, 스마트폰 등 현대의 휴대용 정보기기는 기본적인 정보의 처리, 저장 수단으로만 사용하던 것에서 높은 휴대성과 광범위한 정보를 저장, 처리할 수 있는 기기로 바뀌고 있다. 이러한 환경의 변화로 휴대용 정보기기에서는 보다 많은 정보의 생성, 처리, 저장이 가능한 다양한 응용프로그램의 사용을 요구 받고 있다. 이로 인해 많은 데이터의 효율적인 관리 시스템이 필요로 하게 되었다. 그래서 휴대용 정보기기에서 정보를 쉽게 접근하여 처리하고 갱신할 수 있도록 구성된 데이터의 집합체인 데이터베이스의 사용이 필요하게 되었다. 세계적인 분석기관인 IDC (International Data Corporation)社는 2004년도에 \(64\)%이상의 휴대용 정보기기의 어플리케이션이 모바일 데이터베이스 관리 시스템이 필요하다고 보고하였다.</p> <p>기존 컴퓨팅 환경에서는 가격이 저렴하고 확장성이 용이한 하드디스크를 데이터 저장장치로 사용함으로 저장 공간에 대한 비용이 많이 절감되었다. 하지만 높은 휴대성과 내구성, 저 전력소모를 요구하는 모바일 컴퓨팅 환경에서 전력을 많이 소모하며 크기, 소음, 진동 등의 단점을 가진 하드디스크의 사용이 어렵게 되었다. 따라서 휴대용 정보기기에서는 이러한 단점을 보완할 수 있는 저 전력으로 장시간의 구동이 가능하며, 부피가 작고 경량으로 소음과 진동이 없으며 물리적인 충격에 강해 휴대가 용이한 플래시 메모리를 보조기억장치로 사용한다. 이 플래시 메모리는 크게 바이트 단위로 I/O를 지원하는 NOR형 플래시 메모리와 페이지 단위의 I/O만을 지원하는 NAND형 플래시 메모리로 나뉜다. 휴대용 정보기기에서는 NOR형 플래시 메모리보다 비용이 저렴하여 대용량 데이터 저장장치로 사용되는 NAND형 플래시 메모리를 사용한다. 하지만 이 NAND형 플래시 메모리는 기존의 하드디스크에 비해 고비용과 데이터 I/O에 따른 수명을 가진다는 단점이 있다. 이로 인해 데이터의 효율적인 관리가 필요하다.</p> <p>본 논문에서는 현재 가장 보편적으로 휴대용 정보기기에서 저장장치로 사용되고 있는 NAND형 플래시 메모리에 데이터베이스의 데이터를 효율적으로 저장하는 방법으로 효율적인 데이터 압축 관리 시스템인 CDMS(Compressed Data Management System)를 제안한다.</p> <p>본 논문의 구성은 다음과 같다. 2장에서는 데이터의 압축과 기존 압축데이터 관리기법, 그리고 플래시 메모리에 대한 관련연구를 살펴본다. 3장에서는 효율적인 압축 데이터 관리 시스템인 CDMS의 필요성에 대해 설명하며 4장에서는 이 필요성을 충족시키는 압축 데이터 관리 시스템, CDMS의 구조와 두 가지의 압축 데이터 관리기법을 설명하고, 각 관리기법을 비교해 본다. 5장에서는 제안하는 CDMS의 관리기법의 성능을 실제 DBMS와 연동하여 평가한다. 마지막으로 6 장에서는 논문의 결론을 맺는다.</p>
|
현대의 휴대용 정보기기는 기존보다 더 높은 휴대성과 광범위한 정보를 저장, 처리할 수 있는 기기로 바뀌고 있어 데이터의 효율적인 관리 시스템이 필요하다. 그래서 최근 따라서 휴대용 정보기기에서는 저 전력으로 장시간의 구동이 가능하며, 부피가 작고 경량으로 소음과 진동이 없으며 물리적인 충격에 강한 플래시 메모리를 보조기억장치로 사용한다. 하지만 NAND형 플래시 메모리는 기존의 저장 장치에 비해 높은 비용과 데이터 I/O에 따른 수명을 가진다는 문제점이 있다. 그리하여 본 논문에서는 효율적인 데이터 압축 관리 시스템인 CDMS(Compressed Data Management System)라는 방식을 제안한다.
|
<p>이렇게 구성된 CDMS는 압축된 블록에 대한 쓰기를 진행할 때 자유영역정보를 이용해서 발견된 빈 공간에 압축된 블록을 저장하게 된다. 저장하는 블록은 매핑정보에 추가함으로 CDMS는 매핑정보와 자유영역정보를 활용해 DBMS가 요구하는 데이터에 대한 검색과 저장이 가능하다. 기본적인 DBMS의 데이터 읽기 쓰기 명령에 대한 CDMS의 처리절차는<표 2>에서 나타난 바와 같다.</p> <p> <표 2>에 나타나 있듯이 데이터읽기 요청 시에는 매핑정보를 이용해 위치를 찾아 읽어 와서 압축해제를 한 후 돌려 주게 된다. 또 데이터쓰기 요청 시에는 데이터를 압축하여 쓸 수 있는 빈 공간을 찾아 압축된 데이터를 저장하고 그 정보를 매핑정보에 입력하게 된다. 그리고 그 후 자유영역정보를 갱신하게 된다. 자유영역정보 갱신은 사용된 빈 공간을 삭제하고, 이전 데이터를 바꾸는 작업이면 이전 데이터가 차지하고 있던 자리를 빈 공간으로 자유영역정보에 추가함으로 이루어진다. 하지만 이렇게 저장되는 데이터는 압축률에 따라 크기가 각각 다르다. 크기가 다른 압축된 데이터로 인해 기존 시스템처럼 정해진 규격에 따른 관리가 어럽게 된다. 따라서 크기가 다른 압축된 데이터들의 효율적인 관리를 위해 본 논문에서는 2가지의 관리기법을 제안한다. 이 관리기법을 다음 장에서 설명한다.</p> <h2>4.2 압축데이터 관리기법</h2> <p>이 장에서는 압축된 데이터들의 효율적인 관리를 위해 2개의 관리기법, 동적기법과 정적기법을 제안한다. 먼저 압축된 데이터의 크기에 따라 처리하는 동적 기법을 4.2.1에서 기술하고 그 후 가상의 슬롯을 이용하는 정적 기법을 4.2.2에서 기술한다.</p> <h3>4.2.1 동적 기법</h3> <p>CDMS의 압축 데이터 관리기법 중 하나인 동적 기법은 압축된 데이터의 크기에 따라 동적으로 처리하는 방식이다. 이 방식은 CDMS가 데이터 쓰기의 요청을 받았을 때 그 데이터의 압축된 블록이 저장을 하고자 하는 공간은 무조건 블록 전체가 모두 들어갈 수 있는 크기의 공간이면서, 다른 공간보다 앞쪽의 공간이다. 이 조건에 맞는 빈 공간을 찾아 압축된 블록 전체를 쓰게 된다.</p> <p>이러한 동작 방식은 쓰기 작업의 절차를 보면 그 특징을 알 수 있다. 다음은 동적 기법을 사용한 CDMS의 쓰기 절차이다.</p> <p>동적기법은 위에서 보는 바와 같이 단계 2에서 빈 공간을 찾을 때 압축된 블록의 크기보다 크면서 가장 앞쪽의 빈 공간을 찾는다. 이 때 공간의 단위는 바이트 단위이고 자유영역정보에 빈 공간이 없다면 파일 마지막부분에 이어서 쓰게 된다.</p> <p>이러한 관리방식은 빈 공간 없이 데이터가 들어갈 수도 있지만 반대로 1 바이트라도 모자라면 사용하지 못하게 된다. 따라서 압축된 블록이 들어가지 못해 계속직으로 사용하지 못하는 빈 공간이 생기게 된다. 이로 인해 공간의 낭비와 자유영역정보의 증가를 초래할 수 있다. 따라서 본 논문에서는 압축된 블록의 관리가 편리하고 효율적일 수 있도록 가상의 슬롯을 사용하는 정적 기법을 제안한다.</p>
|
CDMS의 동적 기법은 압축된 데이터의 크기에 따라 유연하게 처리되는 방식으로, 데이터 쓰기 요청이 CDMS에 도착하면 해당 데이터의 압축된 블록이 저장하고자 하는 공간에 들어갈 수 있는 크기이면서 다른 공간보다 앞에 위치해야 합니다. 동적 기법은 빈 공간을 찾을 때, 압축된 블록의 크기보다 크면서 가장 앞에 있는 빈 공간을 찾는 방식을 채택하는데, 이 방식은 1바이트라도 부족하면 사용할 수 없게 됩니다. 그래서 이 논문에서는 압축된 블록의 관리를 효율적으로 처리하기 위해 편리한 가상 슬롯을 사용하는 정적 기법을 제안하고 있습니다.
|
<h1>II. 본론</h1> <h2>1. 고조파 주입 센서리스 모터 제어</h2> <p>그림 \(1 \)은 고조파 주입 센서리스 PMSM의 제어 시스템 구성도이다. 모터 제어 시스템은 속도 제어기, 전류 제어기, \( d q \) 변환, SVPWM 시스템으로 구성되어 있다. 센서부착형 제어 즉, 센서드(Sensored) 모터 제어에서는 속도 제어기에서 속도 지령치와 인코더에서 받은 실제 모터의 측정 속도 값과 지령 속도 값을 이용하여 PI제어기 통해 지령 전류를 출력되지만, 센서리스 모터제어에서는 옵저버(Observer)에서 모터의 전류의 정보들을 이용해 모터 속도 추정치 값으로 속도 제어기가 동작하여 전류가 출력이 되며, 전류 제어기는 속도 제어기의 출력과 전류센서(CT)를 통해 측정된 전류를 \( d q \) 좌표계로 변환한 전류 값을 이용하여 전압이 출력이 된다. 출력된 전압을 다시 \( a b c \) 좌표로 변환하여 SVPWM를 통해 인버터에 게이트 신호를 제어하게 되며, 전력 반도체 소자가 스위칭하여 PMSM에 \(3 \)상 교류 전원을 공급하여 동작하게 된다.</p> <p>그림 \(2 \)는 그림 \(1 \)에 표시된 블록의 상세 그림이며, 고조파 전압 주입 센서리스 제어 시스템도이다. \(3 \)상의 전류를 인버터에서 받아 정지좌표계로 변환하여 BSF(bandstop filter) 또는 BPF(bandpass filter)를 이용하여 고조파 성분을 제거한 뒤 고조파 전압을 인가하여 각도 및 속도를 추정하게 된다. 본 논문에서는 \( \mathrm { BSF } \) 를 사용하였다. \( s \)-domain에서 BSF는 식 \((1) \)과 같이 표현할 수 있다(여기서, \( \omega_ { 0 } = 2 \pi f_ { c } , Q=f c / f_ { b \omega } \). 단, \( f_ { c } \) 는 차단주파수, \( f_ { b \omega } \) 는 차단 주파수 폭을 의미한다).</p> <p>\( G(s)= \frac { s ^ { 2 } + w_ { 0 } ^ { 2 } } { s ^ { 2 } + \left ( \frac { w_ { 0 } } { Q } \right )_ { s } + w_ { 0 } ^ { 2 } } \)<caption>(1)</caption></p> <p>주입 센서리스 기법의 설명은 아래와 같다. PMSM에서 고정자 저항의 크기는 \( j \omega_ { h } L_ { d q } \) 의 크기에 비해 작아 무시할 수 있으므로 식 \((2) \)와 같이 전동기의 임피던스는 표현된다. 여기서, \( \omega_ { h } \) 고조파에 대한 각 주파수이다. 고조파 전압과 고조파 전류의 관계는 식 \((3) \)과 같다. 여기서, \( R \) 은 고정 좌표계 값을 동기좌표계 값으로 변환하는 행렬을 의미한다.</p>
|
\(3 \)상의 전류를 인버터에서 받아 정지좌표계로 변환하여 BSF 또는 BPF를 이용하여 고조파 성분을 제거한 뒤 고조파 전압을 인가하여 각도 및 속도를 추정하게 되는데 본 논문에서는 \( \mathrm { BSF } \) 를 사용했다.
|
<p>\( \left [z ^ { r } \right ]= \left [ \begin {array} { cc } j \omega_ { h } L_ { d } & 0 \\ 0 & j \omega_ { h } L_ { q } \end {array} \right ] \)<caption>(2)</caption></p> <p>\( \left [ \begin {array} { c } v_ { d s h } ^ { r } \\ v_ { q s h } ^ { r } \end {array} \right ]= \left [z ^ { r } \right ][R( \theta)] \left [ \begin {array} { l } i_ { d s h } ^ { s } \\ i_ { q s h } ^ { s } \end {array} \right ] \)<caption>(3)</caption></p> <p>식 ( \(3 \))을 전류에 대한 식으로 정리하면 식 ( \(4 \))와 같다. 한편, 회전자의 실제 위치인 \( \theta \) 와 고조파 전압 주입을 통해 구한 추정 위치인 \( \theta_ { c a l } \) 의 위상차는 \( O \) 도에 수렴하는 작은 값이므로 식 \((5) \)와 같이 변형 가능하다.</p> <p>\( \left [ \begin {array} { c } i_ { d s h } ^ { s } \\ i_ {\curlyvee s h } ^ { s } \end {array} \right ]=[R( \theta)] ^ { -1 } \left [z ^ { r } \right ] ^ { -1 } \left [ \begin {array} { l } v_ { d s h } ^ {\varepsilon } \\ v_ {\vartheta s h } ^ {\varepsilon } \end {array} \right ] \)<caption>(4)</caption></p> <p>\( \left [ \begin {array} { l } i_ { d s h } ^ { s } \\ i_ { q s h } ^ { s } \end {array} \right ]=[R( \theta)] ^ { -1 } \left [z ^ { r } \right ] ^ { -1 } [R( \hat {\theta } )] \left [ \begin {array} { c } v_ { d s h } ^ { r } \\ v_ { q s h } ^ { r } \end {array} \right ] \)<caption>(5)</caption></p> <p>\( \therefore \hat {\theta } = \theta- \theta_ { c a l } ( \hat {\theta } \approx 0) \)</p> <p>회전좌표계에서 정지좌표계로 변환하는 식은 식 ( \(6 \))과 같으며, 식 ( \(2 \))와 식 ( \(6 \))의 역행렬을 식 ( \(5 \))에 대입하면 식 ( \(7 \))과 같이 정리된다. 같다. 여기서, \( v_ { q s h } ^ { r } =0 \) 이다.</p> <p>\( [R( \theta)]= \left [ \begin {array} { cc } \cos ( \theta) & \sin ( \theta) \\ - \sin ( \theta) & \cos ( \theta) \end {array} \right ] \)<caption>(6)</caption></p> <p>\( \left [ \begin {array} { c } i_ { d s h } ^ { s } \\ i_ { q s h } ^ { s } \end {array} \right ]= \frac { v_ { d s h } \sin \left (w_ { h } t \right ) } { L_ { d h } \cdot w_ { h } } \left [ \begin {array} { l } \cos ( \theta) \\ \sin ( \theta) \end {array} \right ] \)<caption>(7)</caption></p> <p>식 ( \(7 \))에서 볼 수 있듯이 \( i_ {\text { dqsh } } ^ { s } \) 는 cosine, sine 함수 형태이다. 따라서, 고조파 \( d, q \) 축 전류에 대해 \( \arctan \) 함수를 취하게 되면 회전자 위치를 추정할 수 있다[ \(11 \)][ \(12 \)].</p>
|
회전자의 실제 위치에 해당하는 \( \theta \) 와 고조파 전압 주입을 통하여 구한 추정 위치인 \( \theta_ { c a l } \) 의 위상차는 \( O \) 도에 수렴하는 작은 값이다. 따라서 식 \((5) \)와 같은 형태로 변형이 가능하다. 한편 회전좌표계에서 정지좌표계로 변환하는 식은 식 (\(6 \))으로 표현 가능하며, 식 (\(2 \))와 식 (\(6 \))의 역행렬을 식 (\(5 \))에 대입하면 식 (\(7 \))과 같이 정리할 수 있다.
|
<p>Fig. 5는 RTT로 생성한 UML과 해당 UML을 소스코드로 변환시킨 결과이고 Fig. 6은 Fig. 5의 UML을 소스코드로 변환시킨 결과이다.</p> <h2>3.2 StarUML과 RTT에 대한 기능적 비교</h2> <h3>1) 단순성</h3> <p>RTT는 사용자 편의성을 위해 직관적인 사용자 인터페이스를 제공한다. 직관적인 인터페이스란 사용자가 암기, 실험, 훈련 없이 제품의 사용법을 이해할 수 있는 것을 의미한다. RTT를 이용하면 별도의 학습과정 없이 직관적인 인터페이스를 통해 객체지향 학습에 집중할 수 있고 UML과 소스코드를 한눈에 확인할 수 있다.</p> <h3>2) 편집 용이성</h3> <p>StarUML은 드래그 앤드 드롭을 통해 UML에서 다른 UML로 속성과 함수를 옮길 수 없다. 그러나 RTT는 서로 다른 UML 요소끼리 속성과 함수를 쉽게 이동할 수 있다.</p> <p>Fig. 7의 Account의 'validateUser'함수를 다른 UML로 드래그하여 이동하는 RTT의 드래그 앤드 드롭 프로세스를 보여준다.</p> <p>사용자는 UML을 클릭하여 이동하고 싶은 객체의 JSON 정보를 볼 수 있다. JSON에서 GOJS 라이브러리 포맷으로 수정한 후에 UML을 다시 그리면 선택한 속성이나 함수가 다른 UML으로 이동한 것을 볼 수 있다.</p> <p>Fig. 8은 기존의 Account에 속해 있는 'validateUser'함수의 모습과 드래그 앤드 드롭 기능을 사용하여 Account의 'validateUser'함수를 Bank로 이동한 결과를 보여준다.</p> <p>드래그 앤드 드롭 기능을 사용함으로써, 사용자는 속성과 함수를 더 직관적으로 수정할 수 있다.</p> <h2>3.3 StarUML과 RTT에 대한 정성적 비교</h2> <p>StarUML은 학습자가 UML 혹은 소스코드를 작성한 뒤 생성된 결과물을 확인하기 위해 미리 설정한 다운로드 경로로 이동해야 해당 소스코드를 볼 수 있다. 소스코드를 UML로 변환하는 경우엔 학습자는 복잡한 설정들을 선택하여 UML을 생성해야 한다. 반면, RTT는 에디터에서 소스코드를 확인 및 수정할 수 있다. 이를 비교하면 Table 1 과 같다.</p> <p>학습자가 객체지향 프로그래밍을 학습하는 데 있어 기존의 도구보다 RTT가 편리하다는 것을 알 수 있다. 직관적인 사용자 인터페이스를 사용함으로써 초기 사용자의 진입장벽을 낮추고 학습자가 객체지향 프로그래밍을 학습하는데 집중할 수 있는 환경을 제공한다.</p> <h1>4. 기존 RTE 도구와 RTT의 비교 분석</h1> <p>기존 RTE를 지원하는 도구들에는 Visual Paradigm, StarUML, Papyrus가 있다. 위 도구들은 UML 모델링을 지원하며 UML에서 자바 코드로 변환해 주는 RTE 기능을 제공한다.</p> <h2>1) Visual Paradigm(VP)</h2> <p>Visual Paradigm은 UML2, SysML 및 BPMN(Business Process Modeling Notation)을 지원하는 UML 도구다. 모델링 지원 외에도 코드 생성을 포함하여 보고서 생성 및 코드 엔지니어링 기능을 제공한다.</p>
|
RTT는 직관적인 포맷을 통해 객체지향 프로그래밍 학습에 집중할 수 있고 UML과 소스코드를 바로 한눈에 확인할 수 있다. StarUML은 UML 또는 소스코드로 작성한 후 미리 설정한 다운로드 경로를 통해 생성된 결과물을 확인할 수 있다.
|
<p>사용자는 자신이 작성한 소스코드가 어떻게 객체지향적인 개념을 반영하는지 UML을 통해 실시간으로 확인할 수 있으며 UML을 그린 뒤, 이를 변환함으로써 소스코드를 웹에서 바로 확인할 수 있다.</p> <h2>2.1 RTT 사용 프로세스</h2> <p>Fig. 1은 RTT의 프로세스를 보여준다. 소스코드를 UML로 바꾸는 방법은 사용자가 RTT 에디터에 자바 소스코드를 입력한 뒤 저장하고 변환 버튼을 누르면 브라우저 다운로드 경로에 자바 파일이 생성된다. 생성된 파일을 자바 코드 분석을 통해 생성된 JSON 텍스트를 GOJS 라이브러리 형태로 변환한다. 그리고 GOJS 라이브러리를 사용하여 UML을 그린다.</p> <p>UML을 소스코드로 변환하는 과정은 소스코드를 UML로 바꾸는 방법의 역순이다. 해당 UML의 정보가 GoJS에 의하여 JSON 형태로 바뀐 UML 정보를 토대로 소스코드를 생성하는데 필요한 정보들을 추출하여 자바 파일을 생성한다.</p> <h2>2.2 RTT 기술 아키텍처</h2> <p>RTT 아키텍처는 Fig. 2에서 볼 수 있듯이 크게 3가지 부분으로 나누어져 있다.</p> <h3>1) Front-End</h3> <p>Front-End에서는 UML을 그리거나 자바 소스코드를 작성한다. Javascript와 jQuery를 사용하여 서버와 통신한다.</p> <h3>2) Back-End</h3> <p>Back-End에서는 자바 분석 기법을 사용하여 소스코드를 분석한다. 분석한 내용을 GOJS 라이브러리 형태에 맞는 JSON 형식으로 변환하여 클라이언트에게 보낸다.</p> <h3>3) GoJs Library</h3> <p>GOJS는 UML을 생성하거나 자바 소스코드를 만드는데 사용된다. 서버로부터 응답받은 JSON을 토대로 UML을 그린다. UML 객체를 클릭했을 때는 JSON 정보를 읽어서 이를 분석한다. RTT는 분석한 내용을 자바 파일로 생성하고 이것을 에디터에 보여준다.</p> <h1>3. 기존 도구(StarUML)와 RTT 비교</h1> <h2>3.1 StarUML과 RTT에 대한 구조적 비교</h2> <p>Fig. 3과 Fig. 4는 StarUML에서의 UML과 자바 소스코드가 상호 변환된 결과를 보여준다.</p> <p>학습자가 UML을 그린 뒤 소스코드를 확인하려면 확장 프로그램을 설치해야 하며 'Generate Code' 버튼을 클릭하여 자바 파일을 생성한 뒤 해당 다운로드 경로를 찾아서 파일을 확인해야 한다. 반대로 소스코드로부터 UML을 생성할 때는 해당 소스코드의 폴더 경로를 확인한 다음 'Reverse Code' 버튼을 통해 UML을 생성한다.</p> <p>생성된 UML에 대한 속성과 함수를 보기 위해서는 해당 객체의 설정을 변경해야 상세한 내용을 볼 수 있다. Fig. 3은 StarUML 도구를 사용해서 그린 UML이고 Fig. 4는 Fig. 3의 UML을 소스코드로 변환시킨 결과이다.</p> <p>Fig. 5, Fig. 6과 동일한 클래스 기반으로 RTT에 의해 생성된 결과를 보여준다.</p> <p>학습자는 웹에서 에디터의 텍스트를 다운로드하기 때문에 브라우저의 다운로드 경로를 설정해야 한다. UML을 그린 뒤 해당 객체를 클릭하면 에디터에서 객체의 정보가 담긴 자바 소스코드를 확인할 수 있다. 소스코드를 UML로 변환하는 경우, 학습자는 코드를 작성한 뒤 에디터 하단의 'Replace Diagram' 버튼을 통해 소스코드가 반영된 UML을 그릴 수 있다.</p>
|
사용자는 소스코드를 다양한 프로그램들을 통해 UML로 변환할 수 있으며 상호변환적으로 UML을 소스코드로도 변환시킬 수 있다.
|
<h1>요 약</h1> <p>최근 프로그래밍 교육이 중요해짐에 따라, 객체지향 프로그래밍에 있어 작성한 소스코드가 어떻게 객체지향 개념을 반영하고 있는지를 분석하는 것은 중요하다. 본 논문에서는 UML과 소스코드의 실시간 동기화를 제공하는 웹 기반 환경에서 객체지향 개념을 분석 및 학습하기 위해 Unified Modeling Language(UML) 클래스 다이어그램과 자바 소스코드를 상호 변환하는 Round-Trip Translator(RTT)를 제안한다. RTT는 기존 Round-Trip Engineering(RTE)기반 도구를 개선시켜 구현 하였으며 작성된 UML 혹은 소스코드가 어떻게 객체지향 개념을 반영하는 지에 대한 이해도를 높이기 위한 도구이다. 본 논문은 기존 RTE 기반 도구와 RTT의 효율성과 사용자의 편의성을 비교한 결과 UML과 소스코드 상호 변환을 통해 객체지향에 대한 이해도가 향상되었음을 보여준다. 우리는 또한 학생들이 기존 도구보다 더 효율적이고 편리한 사용자 인터페이스를 제공하는 RTT 사용에 만족한다는 사실을 알아냈다.</p> <h1>1. 서 론</h1> <p>Round-Trip Engineering(RTE)은 소스코드, 모델, 구성파일 및 문서와 같은 두 가지 이상의 관련 소프트웨어 산출물을 동기화하는 소프트웨어 개발 도구의 기능이다. 또한 순공학, 역공학 등 전통적인 소프트웨어 엔지니어링 분야와 밀접한 관련이 있다. 이미 오랜 기간 통합 개발 환경에서 사용되어 왔으며 대표적인 예로는 Visual Paradigm, StarUML, Papyrus 등이 있다.</p> <p>자바 언어는 객체지향 개념과 원칙 때문에 학습하기에 복잡하고 어렵다. 객체지향 개념을 공부하거나 객체지향 언어를 사용하여 개발하는 경우에 소스코드가 어떤 객체지향적인 개념을 반영하는지 알 수 있어야 한다.</p> <p>객체지향에 대한 이해도를 향상시키기 위해 Visual Paradigm, StarUML, Papyrus 등의 제품들이 출시되어 있다. 그러나 이러한 제품들을 사용하려면 많은 설정들을 해야 하기 때문에 효율성이 떨어지고 사용자에게 편의성을 제공해주지 못한다. 예를 들어, StarUML 도구는 사용자 인터페이스에서 UML을 그리는 기능은 제공하지만 소스코드를 수정할 수 있는 에디터가 내장되어 있지 않아 학습자는 번거로운 과정을 거쳐 산출물을 확인해야 한다.</p> <p>본 논문에서는 사용자 인터페이스에서의 실시간 동기화가 결여된 기존의 RTE 기반 도구보다 효율적이고 편리한 도구를 제안한다. 기존 도구들은 에디터가 내장되어 있지 않아 소스코드를 사용자 인터페이스에서 바로 수정할 수 없다. 그러나 우리가 제안한 도구는 웹 기반의 환경을 제공함으로써 사용자가 실시간으로 UML과 소스코드가 동기화된 산출물을 바로 볼 수 있다. 따라서 사용자는 객체지향 개념을 쉽고 편하게 이해할 수 있다.</p> <h1>2. UML을 활용한 객체지향 학습 도구 RTT</h1> <p>기존 RTE 도구를 개선하여 만든 Unified Modeling Language(UML) 클래스 다이어그램과 자바 소스코드를 상호 변환하는 본 논문의 Round-Trip Translator(RTT)는 객체지향 프로그래밍을 학습하기 위한 웹 기반 교육 프로그래밍 도구로 별도로 설치하지 않고 URL로 접근하여 이용할 수 있다. 만일 학습자가 각기 다른 환경에서 기존 도구를 사용한다면 설치 과정이 필요하지만 RTT를 이용하면 웹을 통해 어느 환경에서나 동일한 학습 환경을 제공받을 수 있다.</p>
|
본 논문에서는 UML과 소스코드를 상호 변환하는 RTT를 제안하여 객체지향 개념을 분석 및 학습하기 위한 웹 기반 환경을 제안한다. 이는 사용자 인터페이스에서의 실시간 동기화가 결여된 기존의 RTE 기반 도구보다 편리하고 웹 기반의 환경을 제공해 사용자가 실시간으로 UML과 소스코드가 동기화된 산출물을 바로 볼 수 있다. UML 클래스 다이어그램과 자바 소스코드를 상호 변환하는 제안된 RTT는 객체지향 프로그래밍을 학습하기 위한 웹 기반 교육 프로그래밍 도구로, URL로 접근해 이용 가능하다.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.