Dataset Viewer
passage
stringlengths 5
922k
| summary
stringlengths 0
10.2k
|
---|---|
<h1>1. 서 론</h1> <p>현재 사이버 공격이 더욱 지능화됨에 따라 공격자들은 알려지지 않은 취약점을 악용하고 지능적으로 다양해지고 있다. 지능적으로 다양해지는 공격을 방어하는 것은 매우 중요한 문제이다. 문제를 해결하는 방법으로 가장 많이 사용하는</p> <p>솔루션 중 하나는 침입 탐지 시스템(Intrusion Detection System)이다. 침입 탐지 시스템은 네트워크 기반인 NIDS(Network-based Intrusion Detection System), 호스트 기반인 HIDS(Host-based Intrusion Detection System) 두 가지 방식으로 나눌 수 있다. 호스트 기반 침입 탐지 시스템은 네트워크 기반 침입 탐지 시스템과 달리 시스템 내부와 외부를 전체적으로 관찰해야 하는 단점이 있다. 하지만 네트워크 기반 침입 탐지 시스템에서 탐지할 수 없는 침입을 탐지 할 수 있는 장점이 있어서 많은 연구가 필요하다. 또한, 침입 탐지 시스템에는 두 가지 유형이 있다. 오용탐지와 이상 탐지로 나눌 수 있다. 오용탐지는 알려진 시그니처를 기반으로 사용자나 시스템 또는 프로그램의 행동이 공격 패턴과 일치하는지 검사하는 방법이다. 이상 탐지는 오용탐지 방법과 달리 정상적인 패턴을 기반으로 비정상 행위를 탐지하는 방법이다. 오용탐지는 알려지지 않은 새로운 공격을 탐지하기 어렵다는 단점이 있지만, 이상 탐지는 알려지지 않은 새로운 공격을 탐지 할 수 있다는 장점이 있다. 그러나 이상 탐지는 다양한 정상적인 사용 패턴을 정의하기가 어렵고 학습되지 않은 정상적인 패턴은 이상 행위로 간주하기 때문에 오경보율이 증가한다는 문제점이 있다. 최근 딥러닝 기술의 발전으로 인해 ICT(Information & Communication Technology) 분야 및 IoT(Internet of Things) 분야에 많은 연구가 이루어져 다양한 지능형 서비스들이 제공되고 있다. 이러한 기술발전에 따라 보안 분야에서는 침입 탐지 시스템에 딥러닝 기술이 적용되는 연구가 진행되는 사례가 있다. 딥러닝은 심층신경망을 통해 자체 기능을 학습하여 앞서 말한 약점을 보완할 수 있는 기술이다. 즉, 기계 학습(Machine Learning)과 딥러닝은 자체적으로 이상 행위를 학습하고 정상적인 패턴을 구분하여 오경보를 줄일 수 있다. 현재 다양한 연구들이 비정상 행위를 탐지하기 위해 딥러닝을 침입 탐지 시스템 연구에 사용한다.</p> <p>본 논문에서는 벡터 데이터를 이미지로 변환하여 비정상 행위에 대한 딥러닝 기반 탐지 모델을 생성하여 연구를 진행 한다. 딥러닝 모델은 새로운 공격이 발견될 때마다 학습해야하는 문제점 때문에 많은 데이터를 학습할 때 효율적이지 못하다. 따라서, 적은 양의 데이터를 학습하여 우수한 성능을 보이는 Few-Shot Learning 기법을 사용하기 위해 Siamese-CNN 을 제안한다. 정확성은 Few-Shot Learning 기법을 사용하여 정확성을 계산했으며, Siamese-CNN의 성능을 확인 하기 위해 Vanilla-CNN과 성능을 비교했다. 그 후, Vanilla-CNN 과 Siamese-CNN 중 어떠한 모델이 공격 유형을 가장 잘 찾아낼 수 있는지에 대한 최종 결과를 서술하였다.</p>
|
침입 탐지 시스템은 네트워크 기반의 NIDS와 호스트 기반의 HIDS로 나눌 수 있다. 호스트 기반 시스템은 시스템 내부와 외부를 모두 관찰해야 하는 단점이 있지만, 네트워크 기반 시스템에서 탐지하지 못하는 침입을 탐지하는 장점이 있다. 이 약점을 보완하기 위해 딥러닝은 심층신경망을 통해 이상 행위를 학습하고 정상 패턴을 구분하여 오경보를 줄이는 기술을 가지고 있다.
|
<p>M 과 N 은 각각의 열과 행의 수를 나타낸다. 변환한 샘플을 \( 64 \times 64 \) 픽셀의 이미지로 변환했다. Table 2는 LID-DS 데이터 세트를 변환한 이미지 개수이다.</p> <h2>3.4 Siamese Network</h2> <p>본 논문에서 사용한 Siamese Networks는 Fig. 3의 Siamese Network 파트와 같이 같은 형태를 가지는 두 개의Convolutional Neural Network로 구성되어 있다. 두 개의 입력 이미지는 Convolution Layer를 통해 각각의 특징 벡터를 생성한다. 생성된 두 개의 특징 벡터 간의 거리를 유클리드 거리 방법으로 계산하여 유사성 점수를 통해 두 이미지가 같은 클래스인지 아닌지 판단한다.</p> <p>Table 3을 통해 본 논문에서 제안된 Siamese Network 의 구조를 확인할 수 있다. 마지막 층을 제외한 Layer의 활성화 함수로 LeakyReLU를 사용하였다.</p> <h2>3.5 N-way K-Shot Learning</h2> <p>Siamese Network 모델의 학습이 제대로 이루어졌는지 확인하기 위해 Few-Shot Learning의 방법의 하나인 N-way K-shot Learning 방법을 사용했다. N-way K-shot Learning은 데이터 세트를 훈련에 사용하는 서포트 데이터(Support Data)와 테스트에 사용하는 쿼리 데이터(Query Data)로 구성한다. \( \mathrm { N } \) 은 범주의 수, \( \mathrm { K } \) 는 범주별 서포트 데이터의 수를 의미한다. N-way K-shot Learning은 \( \mathrm { N } \) 의 값이 작아질수록 더 정확한 예측이 가능하고 \( \mathrm { N } \) 의 값이 클수록 정확성이 낮아진다. 일반적으로 실험에서는 \( \mathrm { N } \) 은 \( 2 \sim 10 \) 개 이하, \( \mathrm { K } \) 를 1 개 또는 5개로 설정한다.</p> <h2>3.6 Siamese-CNN and Vanilla-CNN</h2> <p>본 논문에서는 침입 탐지 분류 모델로 합성곱 신경망을 사용한다. Table 4와 Fig. 3의 Siamese-CNN 파트와 같이 제안된 합성곱 신경망의 구조를 확인할 수 있으며, Siamese Network의 Weight를 사용하여 학습을 진행한다.</p> <p>마지막 층을 제외한 Layer의 활성화 함수로 relu를 사용하였다. input_shape는 \( 64 \times 64 \) 크기와 1개의 컬러 채널을 가지고 있으므로 (64,64,1) 의 튜플 값을 가진다. 그리고 사소한 변화를 무시하기 위해서 Maxpooling2D를 통해 주요 값만 추출하여 작은 출력값을 만들어 사용했다. 또한, Conv2D와 Maxpooling은 2차원을 주로 다루기 때문에 전 결합 층에 전달하기 위해서는 1 차원으로 전달해야 하므로 Flatten 함수를 사용하여 1 차원으로 변환하였다.</p>
|
본 논문에서는 Siamese Networks를 활용해 두 개의 입력 이미지로부터 특징 벡터를 합성곱 계층을 통해 추출한다. 본 연구의 핵심은 침입 탐지 분류 모델에 합성곱 신경망을 도입한 것이다. 이 구조는 Siamese Network의 가중치를 사용하여 학습되며, Table 4와 Fig. 3의 Siamese-CNN 파트에서 확인할 수 있다.
|
<h1>3. 데이터 세트 소개 및 모델 구현</h1> <p>본 논문에서 제안하는 구조는 Fig. 1과 같다. LID-DS Dataset, PreProcessing, 이미지 생성, Siamese Network, Siamese-CNN, N-way K-Shot Learning으로 구성되어 있으며, 본 절에서 각 파트에 대해서 나뉘어 설명한다. 3.1절은 LID-DS Dataset 에 대한 설명을 한다. 3.2절은 PreProcessing 파트이며, 데이터 형식에 따른 데이터 정규화 과정을 서술한다. 3.3 절은 1 차원 벡터 데이터를 3차원 이미지 데이터로 변환하는 과정을 서술한다. 3.4 절은 Siamese Network 파트로 같은 형태를 가지는 두 개의 Convolutional Neural Network에 대한 구조를 살펴본다. 3.5절은 N-way K-Shot Learning 파트로, N과 K 에 대한 설명 및 특징에 관해서 설명한 뒤 3.6 절을 통해 본 논문에서 제안하는 Siamese-CNN의 구조를 살펴본다. 3.7절은 Train Test Split 파트이며, 실험에 사용한 Train Test 데이터의 비율을 서술한다.</p> <h2>3.1 LID-DS Dataset</h2> <p>본 논문에서 사용한 LID-DS 데이터 세트는 2018년 Leipzig University에서 호스트 기반 침입 탐지 시스템의 이상 탐지연구를 위한 LID-DS 데이터 세트를 공개했다.</p> <p>LID-DS 데이터 세트는 기존에 공개되었던 데이터 세트보다 최신 컴퓨터 시스템의 특징들과 사이버 공격 방법 및 사이버 공격 시나리오로 구성되어 있다. Table 1은 기존에 공개되 었던 침입 탐지 데이터 세트와 LID-DS 데이터 세트를 비교한 표이다.</p> <p>Table 1과 같이 기존에 공개되었던 데이터 세트들은 너무 오래되어 현재 시스템 특징을 반영하고 있지 못하거나, 일련의 시스템 콜 형태로 구성되어 있어 침입 탐지 시스템 연구에 사용하기에 적합하지 않다. 따라서 본 논문에서는 현재 시스템 특징들과 다양한 사이버 공격 방법으로 구성된 LID-DS 데이터 세트를 사용하여 실험을 진행했다.</p> <h2>3.2 PreProcessina</h2> <p>LID-DS 데이터 세트는 Fig. 1의 PreProcessing 파트와 같이 모든 데이터에 대해 Argument Feature와 결측값은 삭제하였고event_time Feature는 콜론(:)을 제거했다. event_direction 과 event_type은 LabelEncoder를 사용하여 숫자로 변환했다.</p> <p>Process 카테고리는 총 16 개로 구성되어 있다. 또한,Process의 개수는 공격 방법마다 다르다. 그에 따라, 각 사이버 공격 방법에 사용된 Process들은 하나의 Process로 통합했다. 그 결과 총 10 개의 Process로 구성된 라벨들은 LabelEncoder를 사용하여 각 Process에 라벨을 붙여 사용했다. 그리고 MinMaxScaler는 0에서 255값을 사용하여 Normalization을 진행했다.</p> <h2>\( 3.3 \) 이미지 생성</h2> <p>각 샘플들은 0 에서 255 사이의 값을 가지고 있다. 본 논문에서는 Fig. 1의 Vector to Image 파트와 같이 샘플들을 8bit vector로 변환하고, grayscale 유형의 이미지 데이터를 생성했다. Fig. 2 는 데이터 전처리하는 과정과 이미지로 생성된 과정을 나타낸 그림이다. grayscale 이미지는 한 가지 유형의 컬러로 구성된 구조를 가지며 최종적으로, \( \mathrm { MxNx1 } \) 픽셀 배열로 변환한다.</p>
|
2018년 Leipzig University에서 공개한 호스트 기반 침입 탐지 시스템의 이상 탐지연구를 위한 LID-DS 데이터 세트는 기존 데이터 세트보다 최신 컴퓨터 시스템의 특징과 사이버 공격 방법 및 시나리오로 구성되어 있다. PreProcessing 파트에서는 Argument Feature와 결측값 및 event_time Feature의 콜론(:)을 제거하고, event_direction과 event_type은 LabelEncoder를 사용하여 숫자로 변환하고, Process를 통합해 LabelEncoder를 통해 라벨을 붙이고 MinMaxScaler를 사용하여 0과 1 사이의 값으로 정규화한 뒤 8bit vector를 이용해 grayscale의 그림으로 나타내었다.
|
<p>Vanilla-CNN의 제안된 합성곱 신경망의 구조는 Table 4 와 같다. 즉, Fig. 3의 Siamese-CNN 학습 과정 중 Siamese Net-work의 Weight를 사용하는 과정을 제외한 모든 구조는 같다.</p> <h2>3.7 Train Test Split</h2> <p>훈련 데이터와 테스트 데이터는 train_test_split 모듈을 사용하여 일반적으로 많이 사용하는 \( 8: 2 \) 비율로 나누어 실험을 진행했다. 훈련 데이터를 학습시킨 후 테스트 데이터를 사용하여 모델을 평가하는 과정에서 과적합(Overfitting) 현상을 발견했다. 과적합이란 모델이 너무 과적합 되도록 학습한 나머지, 올바른 예측을 하지 못하는 현상을 말한다. 과적합을 방지하기 위하여 다른 비율로 나누어진 데이터를 포함하여 Cross-validation 으로 모델평가를 진행한 결과 7:3 비율로 나누어진 데이터 세트의 모델 성능이 가장 높았다. 따라서 본 논문에서는 훈련 데이터와 테스트 데이터를 7:3 비율로 나누어 사용했다.</p> <h1>4. 평가 지표 및 실험 결과</h1> <h2>\( 4.1 \) 평가 지표</h2> <p>학습된 모델의 성능 평가는 Precision, Recall, F1 Score를 사용했으며 성능 평가 및 정확도의 Equation은 다음과 같다.</p> <p>Equation (1)은 Precision 공식의 한 예이다.</p> <p>\( \operatorname { Precision } ( \) 정밀도 \( ) = \frac { T P } { F P + T P } \),<caption>(1)</catipn></p> <p>Equation (2)은 Recall 공식의 한 예이다.</p> <p>\( \operatorname { Recall } ( \) 재현율 \( )= \frac { T P } { F N + T P } \),<caption>(2)</catipn></p> <p>Equation (3)은 F1 Score 공식의 한 예이다.</p> <p>\( F 1= \frac { 2 } {\frac { 1 } {\text { recall } } + \frac { 1 } {\text { precision } } } =2 * \frac {\text { precision } * \text { recall } } {\text { precision } + \text { recall } } \),<caption>(3)</catipn></p> <p>Equation (4)은 Accuracy 공식의 한 예이다.</p> <p>\( \operatorname { Accuracy } ( \) 정 확도 \( )= \frac { T N + T P } { T N + F P + F N + T P } \),<caption>(4)</catipn></p> <p>Equation (1), (2), (3), (4) 수식에 대한 속성은 Fig. 4, Table 5와 같다.</p>
|
훈련과 테스트의 데이터를 8:2 비율로 실험을 진행하는 과정에서 과적합 현상을 발견했다. 과적합 방지를 위해 다른 비율로 나눈 데이터를 포함해 모델평가를 실시한 결과 7:3 비율이 모델 성능이 가장 높았기 때문에 본 논문에선 훈련 데이터와 테스트 데이터를 7:3 비율로 사용했다. 학습된 모델의 성능 평가는 Precision, Recall, F1 Score를 사용했으며 성능 평가와 정확도의 Equation (1), (2), (3), (4) 수식에 대한 속성은 Fig. 4, Table 5에서 볼 수 있다.
|
<p>사이버 공격 방법은 서로 같은 유형의 사이버 공격 방법이기 때문에 각각 하나의 공격 방법으로 볼 수 있다.</p> <p>따라서, 10 개의 사이버 공격 방법을 8 개의 사이버 공격 방법으로 변환했다. Table 9는 10 개의 사이버 공격 방법에서 8개의 사이버 공격 방법으로 변환한 표이다.</p> <p>변환한 8 개의 사이버 공격을 사용하여 Siamese-CNN의 성능을 다시 확인했다.</p> <p>Fig. 7은 8개의 사이버 공격을 사용한 Siamese-CNN의 학습 과정을 시각화한 그림이다. 학습한 Siamese-CNN의 성능을 확인한 결과는 Table 10 과 같으며, 성능에 대한 Confusion Matrix는 Fig. 8과 같다.</p> <p>위의 결과와 같이 8 개의 사이버 공격 방법으로 변환한 뒤 실험을 진행한 결과 10 개의 사이버 공격 방법으로 분류한 Siamese-CNN보다 정확성이 약 \( 2 \% \), Recall이 약 \( 2 \% \) 향상 된 것을 확인했다.</p> <h1>5. 결론 및 추후 연구</h1> <p>본 논문에서 소개하는 LID-DS 데이터 세트는 시스템의 보안 취약점을 최신 상태로 구성되어 있다. 기본 스레드 정보가 사라지지 않고 다양한 유형의 HIDS 를 평가하는 데 사용 할 수 있다. 각 데이터에 대한 유사성을 확인하기 위해 1 차원 벡터 데이터를 3차원 이미지 데이터로 변환하여 재구성했다.</p> <p>딥러닝 기반의 침입 탐지 시스템은 새로운 공격이 발견될 때 마다 다시 학습을 진행해야 한다는 단점이 있다. 이를 해결하기 위해, 적은 양의 데이터를 학습하여 우수한 성능을 보이는 Few-Shot Learning 기법을 사용하기 위해 Siamese Network를</p> <p>생성하여 모델의 성능을 확인했다. 그 후, 각 사이버 공격 방법을 분류하기 위해 본 논문에서 제안하는 Siamese Network의 Weight를 사용하는 Siamese-CNN과 Vanilla-CNN의 성능 평가를 진행했다. 그 결과 일반적인 Vanilla-CNN보다 Siamese-CNN 의 정확성이 약 \( 3 \% \), Recall이 약 \( 4 \% \) 높은 것을 확인했다.</p> <p>각 사이버 공격 방법이 제대로 분류되었는지 확인하기 위해서 Confusion Matrix를 확인해본 결과 4 가지의 사이버 공격 방법을 2가지의 사이버 공격 방법으로 변환할 수 있는</p> <p>것을 확인했다. 따라서, 10 개의 사이버 공격 방법을 8 개의 사이버 공격 방법으로 줄여서 성능을 다시 평가한 결과 10 개의 사이버 공격 방법을 분류한 Siamese-CNN보다 정확성은 약 \( 2 \% \) 증가하였고 Precision \( 4 \% \), Recall \( 2 \% \), F1-Score \( 1 \% \) 증가한 것을 확인했다.</p> <p>향후 연구로 이미지로 변환한 LID-DS 데이터 세트를 활용하여 다양한 사이버 공격에 대한 침입 탐지하는 연구를 진행할 것이다. 제안한 모델의 Hyper Parameter 값을 최적화하여 새로운 사이버 공격과 내부 사이버 공격에 대한 침입 탐지 정확성을 더욱 높이는 연구를 진행할 것이다. 또한, 최근 생성되고 있는 침입 탐지 데이터 세트에 대해서 실험을 확장 시킬 수 있다.</p>
|
적은 양의 데이터 학습으로도 우수한 성능을 보이는 Few-Shot Learning 기법을 사용하기 위해 Siamese Network를 생성하여 모델의 성능을 확인했으며 Siamese Network의 Weight를 사용하는 Siamese-CNN과 Vanilla-CNN의 성능 평가를 진행하여 일반적인 Vanilla-CNN보다 Siamese-CNN의 정확성이 약 \( 3 \% \), Recall이 약 \( 4 \% \) 높은 것을 확인하였다.
|
<p>Precision(정밀도)은 True라고 분류한 것 중에서 실제 True인 것의 비율이며, Recall(재현율)은 실제 True라고 분류한 것 중에서 실제 True인 것의 비율이다. F1-Score(조화평균)는 Precision과 Recall의 조화평균이다. 즉, 모델의 성능을 측정하는 데 있어서 Precision과 Recall은 유용하게 사용되지만 실제로 모델이 얼마나 효과적인지 설명할 방법이 없으므로 F1-Score라는 방법을 사용하여 실제로 모델이 효과적인지 아닌지 판단하는 데 사용한다. Accuracy(정확성)는 Precision, Recall과 달리 False를 False라고 예측한 예도 옳은 경우로 계산하기 때문에 Equation (4)와 같이 계산한다.</p> <h2>\( 4.2 \) 실험 결과</h2> <p>\( 64 \times 64 \) 의 크기로 이미지를 변환한 LID-DS 데이터 세트를 사용하여 \( 3.5 \) 파트에서 생성한 Siamese Network를 사용하 여 실험을 진행하였다. Fig. 5는 생성한 Siamese Network의 학습 과정을 시각화한 그림이다.</p> <p>학습된 Siamese Network의 모델의 성능을 확인하기 위해서 \( 3.6 \) 파트에서 제안한 \( \mathrm { N } \)-way One-shot Learning을 사용하였다. \( \mathrm { N } \) 은 \( 1,2,3,4 \) 에 대해 \( \mathrm { N } \)-way 테스트를 진행했다. 성능 평가를 하기 위해 사용한 데이터는 \( 3.7 \) 파트의 테스트 데이터를 사용했다.</p> <p>테스트는 N값의 테스트에 대해 step_epoch를 2000번 수행하였고 2000 번을 수행한 평균 정확성을 계산했다. 그 결과 Table 6과 같다.</p> <p>LID-DS 데이터 세트의 각 사이버 공격 방법을 분류하기 위해 Fig. 3과 같이 저장한 Siamese Network의 Weight를 Siamese-CNN에 불러와 실험을 진행했다.</p> <p>Table 7은 Siamese Network의 Weight를 사용하여 생성된 Siamese-CNN과 Weight를 사용하지 않은 Vanilla- \( \mathrm { CNN } \) 에 대한 성능 비교 결과이다.</p> <p>Table 7의 결과를 보면 Siamese-CNN이 Vanilla-CNN보다 정확성이 약 \( 3 \% \), Recall이 약 \( 4 \% \) 높은 결과를 보여주었다. 각 사이버 공격 방법이 제대로 분류가 되었는지 확인하기 위해 Siamese-CNN의 Confusion Matrix를 확인했으며 그 결과 Fig. 6과 같다. 또한, Fig. 6에 분류된 사이버 공격 방법과 이름은 Table 8과 같다.</p> <p>Fig. 6을 보면 \( (0,2) \) 와 \( (4,5),(7,8) \) 사이버 공격 방법이 제대로 분류되지 얂고 있는 점을 확인했다. Bruteforce와 CVE-2014 사이버 공격 방법을 제외한 (CVE-2018, CVE-2019)는 정보 유출에 대한 사이버 공격 방법으로 CVE-2019 는 CVE-2018 의 취약점을 보완한 사이버 공격 방법이다. (PHP, SQL ) 사이버 공격 방법은 OWASP(Open Web Application Security Project)에서 식별한 취약점으로 PHP 와 SQL은 공격자가 인터프리터에 적대적인 데이터를 보낼 수 있는 공격으로 분류했다. 따라서 (CVE-2018, CVE-2019), (PHP, SQL)</p>
|
Precision과 Recall을 사용하여 모델의 성능을 평가하기 위해 F1-Score라는 방법을 사용한다. LID-DS 데이터 세트로 Siamese Network를 학습하고 N-way One-shot Learning을 사용하여 step_epoch를 수행하여 테스트한 결과, 정확성을 알 수 있었고 Weight를 사용한 Siamese-CNN과 Vanilla- CNN의 비교 결과, Siamese-CNN이 정확성이 약 \( 3 \% \), Recall이 약 \( 4 \% \) 높은 결과를 보여주었다. Confusion Matrix를 통해 각 사이버 공격 방법이 제대로 분류되었는지 확인하였다.
|
<p>하는 방법을 제안했다. 또한, KDD 데이터 세트를 사용하여 제안된 모델을 평가하고 실험 결과는 모델이 SVM 및 DBN(Deep Belief Network) 알고리즘보다 침입 탐지에 더 효율적임을 보여주었다.</p> <p>Upadhyay 등은 41개의 KDD 데이터 세트의 컬럼 중에서 무작위로 선택된 36개의 컬럼을 사용했다. 그 후 데이터 세트를 \( 6 \times 6 \) 크기의 이미지로 변환한 다음 나머지 기능을 다른 변수에 저장하여 \( \mathrm { CNN } \) 모델을 학습했다. 실험 결과 제안된 모델 의 침입 탐지 오류가 \( 2 \% \) 미만인 것으로 나타났으며, 데이터를 이미지로 변환하여 분석하는 것이 더 효율적임을 보여주었다.</p> <h2>2.3 Siamese Networks</h2> <p>Siamese Network는 같은 형태의 네트워크를 사용하여 서로 다른 2개의 입력 데이터를 처리하는 네트워크이다. 네트워크들은 가중치를 공유하며 입력 이미지에 대한 특징 벡터를 생성한다. 같은 클래스의 이미지들은 벡터 공간에서 가깝게, 서로 다른 클래스의 이미지들은 멀게 표현되도록 학습한다. 즉, 거리 함수를 사용하여 생성된 특징 벡터 간의 거리를 계산하여 두 이미지가 같은 클래스인지의 아닌지 판단한다. 거리 함수는 일반적으로 유클리드 거리(Euclidean distance)나 코사인 거리(cosine distance)와 같은 일반적인 유사도 함수를 사용한다. Hsiao 등은 Siamese Network를 사용하여 샘플 간의 유사성 순위를 매기도록 훈련했다. 또한, N-way one-shot 작업을 통해 정확성을 계산했다. 그 결과 일반적인 딥러닝 모델보다 더 효율적임을 보여주었다.</p> <p>Hsiao 등은 Siamese Network를 사용하여 샘플 간의 유사성 순위를 매기도록 훈련했다. 또한, N-way one-shot 작업을 통해 정확성을 계산했다. 그 결과 일반적인 딥러닝 모델보다 더 효율적임을 보여주었다.</p> <p>Moustakidis 등[은 특징 벡터를 이미지로 변환하는 Vec2im 방법과 새로운 특징을 추출하는 파이프라인을 제안했다. 또한, 입력 데이터 차원을 1 차원으로 줄이기 위해 Siamese convolutional neural network를 사용하여 NSL-KDD 침입 탐지 데이터 세트에 적용했다.</p> <p>Taigman 등은 표준 교차 엔트로피 손실과 오류 역전파를 사용하여 Siamese Network를 훈련했다. 각 샘플 간의 L1 거리에 유사성을 예측하고 각 샘플의 얼굴이 같은 얼굴인지 예측한다.</p> <h2>2.4 Few-Shot Learning</h2> <p>Few-Shot Learning은 데이터가 충분한 데이터 세트를 사용하여 Meta Learning을 진행하고, 각 클래스에 포함된 데이터가 적은 데이터 세트를 분류하기 위한 학습 방법이다.</p> <p>본 논문에서는 Siamese Network에서 두 이미지에 대한 특징 벡터 학습과 벡터 사이의 거리를 비교한다. 또한, 각 사이버 공격 방법에 대한 유사성 점수를 비교하여 같은 공격인지 아닌지 탐지하는 모델을 제안한다.</p>
|
Upadhyay 등은 KDD 데이터 세트를 사용하여 CNN 모델을 학습하고, 침입 탐지 오류가 2% 미만인 것으로 나타났으며, 데이터를 이미지로 변환하여 분석하는 것이 더 효율적임을 보여주었다. Hsiao 등은 Siamese Network를 사용하여 N-way one-shot 작업을 통해 정확성을 계산하고, Taigman 등은 표준 교차 엔트로피 손실과 오류 역전파를 사용하여 Siamese Network를 훈련했다.
|
<h1>2. 관련 연구</h1> <h2>\( 2.1 \) 침입 탐지 데이터 세트</h2> <p>KDD99 데이터 세트는 침입 탐지 시스템을 평가하기 위해 DARPA(Defense Advanced Research Projects Agency) 및 AFRL(Air Force Research Laboratory)의 후원으로 MIT에서 최초로 침입 탐지 시스템에 대한 표준 데이터 공개했다. 데이터 종류는 서비스 거부 DoS, 사용자 대 루트 (U2R), 원격 대 로컬 공격 (R2L) 및 Probe 공격의 네 가지 공격 범주로 구성되어 있다. KDD99 데이터 세트는 침입 탐지 시스템 평가를 위해 많은 연구가 진행되고 있다.</p> <p>UNM 데이터 세트는 KDD99 데이터 세트보다 최신에 공개된 데이터 세트이지만 데이터들이 일련의 시스템 콜 형태로 구성되어 있다.</p> <p>침입 탐지 시스템 분야에서 KDD99 및 UNM과 같은 데이터 세트는 오래된 데이터 세트로 현재 사용 중인 컴퓨터 시스템의 특징을 포함하지 않는다. 이를 해결하기 위해 2013년 Australian Defense Force Academy(ADFA)에서 호스트 기반 침입 탐지 시스템을 평가하기 위해 ADFA 데이터 세트를 공개했다. ADFA 데이터 세트에는 정상 및 공격 데이터를 일련의 시스템 콜로 구성되어 있다.</p> <h2>\( 2.2 \) 침입 탐지 관련 연구</h2> <p>침입 탐지 시스템은 사이버 공격 패턴에 대한 정상 패턴과 비정상 패턴을 비교하여 비정상 행위를 탐지하고 차단하는 시스템이다.</p> <p>Laskov 등9]은 Decision Tree, K-NN(K-Nearest Neighbor), MLP(Multi-Layer Perceptron), K-means, SVM(Support Vector Machine) 등 다양한 기계학습 알고리즘을 침입 탐지에 적용했고, 각 알고리즘을 ROC(Receiver Operator Characteristic) 곡선을 사용해 비교했다.</p> <p>Kim 등은 침입 탐지 시스템에서 SVM과 K-NN 같은 기계학습 알고리즘을 사용하여 높은 오경보율을 보이는 문제점을 해결하기 위한 연구를 진행했다.</p> <p>Kim 등은 비정상 행위 기반의 호스트 침입 탐지 시스템을 설계하는 데 있어, LSTM-Based System-Call Language Modeling 방법을 제안하였다. 기존 방법들에서 자주 발생하는 높은 오탐율(False-Alarm Rate) 문제를 해결하기 위해서, 저자는 새로운 앙상블(Ensemble) 방법을 사용하여 문제점을 해결했다.</p> <p>Ravipati 등은 LID-DS 데이터 세트의 특징과 가장 비슷한 KDD99 데이터 세트를 이용하여 8가지의 기계학습 알고리즘을 실험한 결과로 성능 평가 및 오탐율 수치를 보여주었다. 최근 딥러닝 기술의 발전으로 인해 CNN 을 기반으로 바이너리 및 다양한 범주의 공격을 탐지하는 수많은 연구도 진행 되고 있다.</p> <p>Khan 등은 새로운 침입 탐지 모델을 제안하기 위해 기계학습 알고리즘을 사용할 때의 단점을 지적했다. CNN 기반 네트워크 침입 탐지 모델과 소프트 맥스 알고리즘을 결합</p>
|
KDD99 데이터 세트는 DARPA와 AFRL의 후원으로 MIT에서 침입 탐지 시스템을 평가하기 위해 공개한 데이터 세트로이다. 2013년 호스트 기반 침입 탐지 시스템의 평가를 위하여 ADFA 데이터 세트를 공개했다. 침입 탐지 시스템은 사이버 공격 패턴에 대한 정상 패턴과 비정상 패턴을 비교하여 비정상 행위를 탐지하고 차단하는 시스템이며, Decision Tree, K-NN, MLP, K-means, SVM 등 다양한 기계학습 알고리즘을 이용하여 ROC 곡선을 사용해 비교하였다.
|
<h1>IV. 실험 결과</h1> <p>표 1은 Y 비트맵 모드의 화질을 알아보기 위해서, 일반적인 AMBTC의 PSNR 결과와 1-단계 CMBQ-BTC의 PSNR 결과를 비교한 자료이다. 사용된 BTC의 블록 크기는 \(2 \times4 \)이고, 평가 영상은 \(540 \times540 \) 크기의 영상을 사용하였다. 1-단계 CMBQ-BTC의 복호화 과정은Y 비트맵 모드의 두 가지 출력을 모두 복호하여, 손실이 적은 모드를 선택하는 방법을 사용하였다. 일반적인AMBTC 결과와 1-단계 CMBQ-BTC 결과를 PSNR 으로 비교한 결과, 1-단계 CMBQ-BTC의 PSNR이 일반적인 AMBTC 결과보다 평균 \(0.84 \mathrm { dB } \) 낮은 PSNR 결과를 얻어 RGB 비트맵으로 Y 비트맵 적용기법의 유효성을 확인하였다.</p> <p>표 2는 CMBQ-BTC의 성능을 분석하기 위해서 \(540 \times540 \) 크기의 영상에 대해서, CMBQ-BTC 결과를일반적인 AMBTC와 Y 비트맵을 RGB 각각의 비트맵에 활용하여 BTC를 수행한 결과와 비교한 자료이다.CMBQ-BTC의 블록크기는 \(6 \times4 \) 로서, \(6:1 \)의 압축 비율을 갖는다. 동일한 블록 크기인 \(6x4 \)의 2-level AMBTC와 비교해서, CMBQ-BTC가 평균 \(1.21 \mathrm { dB } \) 높은 PSNR결과를 확인 할 수 있었다. 그리고 \(4 \times4 \) 블록의AMBTC 결과와 비교해서 CMBQ-BTC의 결과가 평균 \(0.42 \mathrm { dB } \) 낮은 PSNR 결과를 확인 할 수 있었다. 그리고 CMBQ-BTC와 동일한 압축 비율을 갖으면서, \(4 \times4 \)의 블록크기에서 Y 비트맵으로 RGB 각각의 비트맵에 활용하여 BTC를 수행한 결과와 비교해서, CMBQ-BTC결과가 평균 \(0.32 \mathrm { dB } \) 높은 PSNR 결과를 확인할 수 있었다.</p> <p>그림 6은 lena 영상의 edge 부분에서 AMBTC( \(4 \times4 \))와 CMBQ-BTC를 수행한 결과이다. 그림 6(a)과 6(b)로부터 원본 영상과 AMBTC 복원 결과를 비교해 보면, 화질 면에서 차이가 발생한다. 하지만 그림 6(b)과 6(c)로부터 AMBTC 복원 결과와 CMBQ-BTC 복원 결과를 비교해 보면 유사한 edge가 형성되어 있음을 확인할 수 있다.</p> <h1>V. 결 론</h1> <p>본 논문에서는 \(6:1 \)의 높은 압축비로 낮은 압축손실을 얻기 위해서, 비트맵 데이터와 양자화 데이터 모두를 압축하는 CMBQ-BTC를 제안하였다. CMBQ-BTC는 원본 블록을 3개로 분리하여, RGB 각각에 Y 비트맵을 활용하여, 비트맵 데이터를 압축하였고, 분리된 서브블록의 상위 평균과 하위 평균의 정보를 압축시키기 위해서, 상위 평균과 하위 평균들을 원본 블록의 4-levelBTC의 양자화 데이터로 부호화하여 복호기로 전송하는 방법으로 상위 평균과 하위 평균들을 압축하였다.알고리즘의 성능 분석을 위해서, 다양한 영상에 대해서,일반적인 AMBTC의 PSNR 결과와 비교 분석하였다.CMBQ-BTC 압축 기법은 \(6:1 \)의 높은 압축비를 갖으면서, \(6 \times4 \) 블록 크기의 2-level AMBTC 결과보다 \(1.21 \mathrm { dB } \) 높은 PSNR 결과를 얻을 수 있었으며, \(4:1 \)의 압축비를 갖는 \(4 \times4 \) 블록 크기의 2-level AMBTC 결과와 비교해 보면 \(0.42 \mathrm { dB } \) 정도 낮은 PSNR 결과가 확인되어, 본논문에서 제안하는 CMBQ-BTC 알고리즘의 효율성을 확인하였다.</p>
|
Y 비트맵 모드의 화질을 알아보기 위해, \(2\times4\)블록 크기의 일반적인 AMBTC과 1-단계 CMBQ-BTC의 PSNR결과를 비교한 결과, 1-단계 CMBQ-BTC의 PSNR이 일반적인 AMBTC 결과보다 0.84 dB 낮은 결과를 얻었다. lena영상의 edge부분에서 AMBTC(\(4\times4\))와 CMBQ-BTC를 수행한 결과를 비교해 보니, CMBQ-BTC복원 결과가 유사한 edge가 형성되어 있음을 확인할 수 있었다. CMBQ-BTC 압축 기법은 \(6\times4\)블록 크기의 2-level AMBTC결과와 \(4\times4\)블록 크기의 2-level AMBTC결과를 비교 해보니 본논문에서 제안하는 CMBQ-BTC알고리즘의 효율성을 확인할 수 있었다.
|
<h2>3.2. 2-단계 CMBQ-BTC 압축</h2> <p>1-단계에서 세분화 한 서브블록들에서 Y 비트맵 모드의 출력 신호인, Y 비트맵과 Y 비트맵의 반전 중 하나를 선택하였고, 서브블록들에서 상위 평균과 하위 평균들을 얻을 수 있었다. 2-단계 과정은 분리된 서브블록에서의 상위 평균과 하위 평균들을 압축하여 압축률을 높이는 과정이다. 그림 4는 2-단계 CMBQ-BTC의 도식도이다. 2-단계 적용방법은 \(6 \times4 \) 원본 블록에서 입력 데이터를 4-level BTC 과정을 수행한 후, 복원하여,4개의 양자화된 데이터를 얻는다. 그리고 1-단계에서 구한 세분화한 3개의 블록에서 상위 평균과 하위 평균들을 4-level 양자화로 복원된 4개의 복원 데이터와 비교하여, 가장 근접한 양자화 값을 선택한다. 즉, 2-단계 과정에서는 \(2 \times4 \) 서브블록 3개의 상위 평균과 하위 평균값, 총 6개는, 원본 블록 \(6 \times4 \)의 4-level BTC 로 복원된4개의 값과, 근접한 값이라고 가정하고, 6개의 양자화데이터를 원본 블록의 4-level BTC의 복호된 값으로 대체하는 방법을 사용하였다. 1-단계 Y 비트맵 모드의 출력이 “1” 에서는 각각의 서브블록에서 상위 평균이하위 평균 보다 크거나 같으므로, (상위 평균, 하위 평균) 으로 표현하면, 4-level 비트맵은 (3,2), (3,1), (3,0),(2,1), (2,0), (1,0) 총 6개로 분류된다. 그리고 Y 비트맵모드의 출력이 “0” 에서는 상위 평균이 하위평균보다 작으므로, (상위 평균, 하위 평균) 으로 표현하면,4-level 비트맵은 (2,3), (1,3), (0,3), (1,2), (0,2), (0,1) 총 6개로 분류된다. 즉, Y 비트맵 모드를 복호기로 송부하면, 6개의 부호화로 표현이 가능하다. 이러한 부호화 데이터가 블록마다 개별적으로 존재하므로, RGB 각각216( \(6 \times6 \times6 \))개의 부호화 데이터로 표현이 가능하게 되어, 총 \(24 \mathrm { bit } \) 으로 처리가 가능하다.</p> <p>그림 5는 본 논문에서 제안하는 CMBQ-BTC의 비트할당을 나타낸다. \(2 \times4 \times3 \)의 비트맵은 2-level 비트맵으로 총 \(24 \mathrm { bit } \)이며, 평균은 하위 \(1 \mathrm { bit } \)를 줄여, \(7 \mathrm { bit } \)로 적용하였고, 동작범위는 \(6 \mathrm { bit } \) 데이터를 적용하였다. 서브블록이 총 9개이므로, 1-단계 CMBQ-BTC의 Y 비트맵 모드는 총 \(9 \mathrm { bit } \)이다. 상위 평균과 하위 평균의 부호화는 총 \(24 \mathrm { bit } \)로 처리 할 수 있어, 조합하면, \(96 \mathrm { bit } \)를복호기로 전달하여, 복원이 가능하다. \(6 \times4 \) 블록의 총 \( \mathrm { bit } \)는 \(576 \mathrm { bit } \)이므로, CMBQ-BTC는 압축비가 \(6:1 \)임을 확인 할 수 있다.</p>
|
Y 비트맵 모드의 출력 신호중, Y 비트맵과 Y 비트맵의 반전 중 하나를 서브블록들에서 선택함으로 인해 1-단계에서 상위 평균과 하위 평균들을 얻을 수 있었고, 2-단계에선 분리된 서브블록에서 상위 평균과 하위 평균들을 압축하여 압축률을 높이는 과정을 했으며, 본 논문에서 제안하는 CMBQ-BTC의 Y 비트맵 모드는 총 \(9 \mathrm { bit } \)이다.
|
<h1>II. 이론적 배경</h1> <h2>2.1.2-level AMBTC</h2> <p>AMBTC는 1984년 Lema와 Mitchell에 의해서 발표된 방법으로 표준 BTC에 비해서 연산이 적어 실시간 연산에 유리한 기법이다. AMBTC의 비트맵 양자화level은 2-level 또는 4-level 이상으로, 구분이 가능하다. 2-level 양자화 방법을 설명하면, 그림 2와 같이, 전체 영상을 일정한 크기로 분할하여, 분할된 블록 마다 평균값을 계산하여 각 픽셀 값과 비교하여 평균이상이면 1, 미만이면 0을 할당한다. 2-level AMBTC는 입력영상을 단순히 평균을 기준으로 크거나 같은 값과 작은값으로만 복원 하게 되며, \(6\times4\)의 블록 크기 기준으로 \(4.8:1\)의 압축률을 가지게 된다.</p> <h2>2.2. 4-level AMBTC</h2> <p>일반적인 4-level AMBTC 압축은, 3개의 임계값을 기준으로 4개의 영역으로 분리한 다음, 블록내의 데이터를 11, 10, 01, 00의 비트맵으로 표현하여, 수신측에 전달하고, 비트맵 정보로 각각의 레벨에 맞는 데이터값으로 복원 할 수 있도록 하는 방법이다. 3개의 임계값을 활용한 4-level AMBTC 결과는 압축손실이 적어화질은 우수하지만, 3개의 임계값을 모두 복호기로 전달해야 하므로 압축률이 저하된다. 그래서 본 논문에서는 Wang의 논문에서 소개된 1개의 절대 중심 모멘트를 활용한 방법으로 진행하였다. 1개의 절대 중심 모멘트를 사용한 4-level BTC 압축 방법은 다음과 같다. 우선, 2-level AMBTC 방법을 사용하여, 블록 내의 상위평균(Bmax)과 하위평균(Bmin)을 구하고, 계산된 Bmax와 Bmin을 활용하여, 2개의 임계값 ( T\(_H\), T\(_L\)) 아래 식에 의해서, 얻을 수 있다.</p> <p>\( T_{H}=\left(3^{*} B \max +B \min \right) / 4 \\ T_{L}=\left(B \max +3^{*} B \min \right) / 4 \)<caption>(1)</caption></p> <p>그리고 T\(_H\)와 T\(_L\)값으로, 블록내의 평균 (\( \bar{B} \) )과 동작범위 (dynamic range, \( \bar{D} \) )를 아래 식에 의해서 구할 수있다.</p> <p>\( \bar{B}=\left[\frac{1}{e} \sum_{B(i) \geq T_{Z}}^{e} B(i)+\frac{1}{f} \sum_{B(i)<T_{Z}}^{f} B(i)\right] / 2 \)<caption>(2)</caption></p> <p>\( \bar{D}=\left[\frac{1}{e} \sum_{B(i) \geq T_{B}}^{e} B(i)-\frac{1}{f} \sum_{B(i)<T_{z}}^{f} B(i)\right] \)<caption>(3)</caption></p> <p>식(2) 와 식(3)에서, B(i)는 블록내의 영상 데이터이다. 그리고 \(e\)는 블록 내에서 T\(_H\) 보다 크거나 같은 데이터의 수이고, \(f\)는 블록 내에서 T\(_L\) 보다 작은 데이터의 수이다. 식(2) 와 식(3)에 의해서 구해진 평균과 동작범위를 활용하여, 3개의 임계값을 아래와 같이 구할 수있다.</p> <p>\( T H_{N}=\bar{B}+\frac{N-2}{3} \bar{D} \quad(N=1,2,3) \)<caption>(4)</caption></p> <p>구해진 TH\(_N\)은 기준 임계값이 3개이므로, 4개의 영역으로 표현가능하게 된다. 수신측에는 평균과 동작범위그리고, 4-level 비트맵으로 복원 시, 아래 수식에 따라서 복원하게 된다.</p> <p>\( \operatorname{Brec}(i)=\bar{B}+\frac{2^{*} Q(i)-3}{6} \bar{D} \)<caption>(5)</caption></p> <p>식(5)에서, Q(i)는 4-level 비트맵을 나타낸다.</p> <p>4-level AMBTC 압축 방법은 2-level 압축방법과 비교해서 압축손실은 개선되나, 4-level AMBTC는 \(6\times4\)의 블록에서 \(3:1\)의 압축률을 가지게 됨으로, 2-level 압축방법과 비교해서, 압축비는 현저히 감소하게 된다.</p>
|
AMBTC는 실시간 연산에 유리한 기법이며 비트화 양자 두 가지 level 이상으로 구분이 가능하다. 그중 4-level 압축은 압축 손실이 적어 화질은 우수하나, 압축률이 저하되는 단점이 있다.
|
<h1>I. 서 론</h1> <p>Liquid Crystal Display (LCD)는 넓은 해상도, 얇은두께, 낮은 전력 소비, 낮은 전자기파 방출 등의 장점으로 인하여, 디스플레이 시장에 폭 넓게 사용되어 지고있다. 하지만 LCD 는 동영상에서 액정의 늦은 반응 속도로 인한 motion-blur 현상이 발생하는 단점이 있다. LCD 에서 움직임 잔상이 보이는 이유는 CRT의 구동방식은 impulse-type 구조로서, 픽셀 데이터를 표현하는 형광체의 응답속도는 수 \(\mathrm{msec}\)인데 비하여, LCD의 구동 방식은 hold-type 구조로서, 액정의 응답속도가 수십 \(\mathrm{msec}\) 로 CRT에 비해서 현저히 늦기 때문이다. 이러한 LCD의 motion-blur 현상을 감소시키는 기술로널리 사용되는 방법이 액정에 주어진 화소보다 강하가나 약한 전압을 인가하여, 액정의 반응속도 향상시키는 오버드라이브(overdrive) 방법이다.</p> <p>오버드라이브 기술을 적용하기 위해서는 이전 프레임의 영상 데이터와 비교하여 현재 프레임의 영상 데이터의 변화 범위가 필요하기 때문에 그림 1에서와 같이 이전 프레임의 영상에 대한 정보를 저장하기 위해 외부의 프레임 메모리가 사용된다. 하지만, 오버드라이브 기술을 적용하기 위해서는 이전 프레임 데이터가 모두 필요하기 때문에, 압축을 적용하지 않으면, 메모리 크기가 커지게 되고, 메모리 대역폭이 증가되게 된다. 이러한 단점을 보완하고자, 오버드라이브를 적용하는T-Con(Timing Controller)에, 압축 알고리즘을 반영하여, 메모리 크기를 줄이는 연구가 진행되고 있다. 프레임 메모리를 줄이는 압축 방법으로는 이전 영상을 실시간으로 압축해서 저장하는 연산이 적은 압축 기술이필요함으로써, 구현이 간단한 Block Truncation Coding(BTC)이 널리 사용되고 있다. BTC는 1979년 Delp,Mitchell 그리고 Calton 등이 발표한 공간 코딩 방법으로 비교적 부호화를 위한 연산이 적어 하드웨어로 구현하기 간단한 압축 알고리즘으로 알려져 있다. 표준BTC 알고리즘은 입력 영상을 서브 블록으로 분리하고,평균, 표준편차 그리고 비트맵 데이터를 전송하여, 영상을 재구성하는 원리이다. 일반적으로 BTC 압축에서 낮은 압축 손실을 위해서는 블록 크기를 줄이거나, 양자화 레벨을 올려야 되나, 블록 크기를 줄이거나, 양자화 레벨을 올리는 방법은 압축률의 현저한 저하를 가져온다. BTC 압축에서 화질을 유지하면서, 압축 비율을 높이는 방법으로는 서브블록의 그레이 레벨을 나타내는 정보를 압축하는 방법과 서브블록의 비트맵을 압축하는 방법이 있다. 그레이 레벨을 나타내는 정보는 각 서브블록에서 원본 데이터를 양자화 한 데이터를 의미한다.즉, 표준 BTC 에서는 평균과 표준 편차, 2-levelAMBTC 에서는 상위평균과 하위평균을 의미한다. 본논문에서 제안한 CMBQ-BTC 압축 방법은 비트맵 데이터와 양자화 데이터 모두를 압축하는 방법을 사용하였다. 다양한 영상으로 시뮬레이션 결과 \(6:1\)의 높은 압축률을 가지면서, \(6\times4\) 블록 크기의 2-level AMBTC 결과보다 \(1.21\mathrm{dB}\) 높은 PSNR 결과를 얻을 수 있었으며, \(4:1\)의 압축비를 갖는 \(4\times4\) 블록 크기의 2-level AMBTC결과와 비교해 보면 \(0.42\mathrm{dB}\) 낮은 PSNR 결과를 확인하여, 본 알고리즘의 효율성을 확인하였다.</p>
|
Liquid Crystal Display (LCD)는 넓은 해상도, 얇은 폼 팩터, 낮은 전력 소비, 전자파 방출 최소화 등 다양한 장점으로 인해 디스플레이 시장에서 광범위하게 활용되고 있습니다. 그러나 LCD는 동영상을 표시할 때 액정의 느린 응답 속도로 인해 모션 블러가 발생하는 단점이 있습니다. LCD에서 모션 블러 현상을 줄이기 위해 광범위하게 사용되는 기술은 오버드라이브 방법입니다. 이 방법은 지정된 픽셀 값보다 낮거나 약한 전압을 액정에 적용하여 액정의 반응 속도를 높이고 모션 블러를 완화합니다.
|
<h1>III. CMBQ-BTC 압축 알고리즘</h1> <p>본 논문에서 제안하는 CMBQ-BTC 압축은 비트맵과 양자화 데이터 모두를 압축하는 방법으로 \(6\times4\)의 블록을 사용하며, 2단계로 나누어 비트맵 데이터와 양자화 데이터를 압축한다. 1-단계에서는 각각의 \(6\times4\) 블록을 \(2\times4\)블록으로 세분화 시킨 후, 서브블록의 비트맵을 luminance (Y)의 비트맵을 적용함으로서 비트맵 데이터를 압축시키는 효과를 얻을 수 있었다. 2-단계에서는 AMBTC의 양자화 데이터인 상위 평균과 하위 평균을 압축시키는 기법을 적용하였다. 일반적으로 블록을 세분화하여, BTC를 수행할 경우, 압축 손실은 감소하지만, 세분화된 블록마다 상위 평균과 하위 평균들은 세분화된 블록들만큼 증가하게 된다. 증가된 상위 평균과하위 평균들을 압축시키는 방법으로는 입력 데이터를 세분화 이전의 블록에서 4-level BTC를 수행한 후, 복원하여, 4개의 양자화 된 데이터를 얻고 1-단계에서 세분화된 서브블록에서 구한 상위 평균과 하위 평균들을, 4-level BTC 과정에서 복원된 4개의 양자화 데이터와 비교하여, 가장 근접한 양자화 데이터를 구하는 방법으로 서브블록의 상위 평균과 하위 평균 데이터들을 감소시켰다.</p> <h2>3.1. 1-단계 CMBQ-BTC 압축</h2> <p>비트맵을 압축하는 방법은 벡터 양자화 방법과 look-up 테이블을 이용하여 비트맵을 압축하는 방법이 있으나, 이와 같은 방법은 연산이 많고, 높은 품질의 복원 영상을 얻기 위해서는 많은 양의 look-up 테이블이 필요하다는 단점이 있다. Y의 비트맵을 RGB의 비트맵에 적용하는 방법은 연산이 적어 하드웨어 구성이 용이하고, Wang의 논문에서 발표된 내용처럼, 압축손실이 낮고, 높은 화질 특성을 얻을 수 있다.</p> <p>\( Y=0.299 R+0.587 G+0.114 B \\ C b=0.564(B-Y) \\ C r=0.713(R-Y) \)<caption>(6)</caption></p> <p>하지만, Y의 구성은 식 (6)에서와 같이, red, green,blue 데이터에 다른 비중을 두고 있어, Y의 비트맵으로RGB 각각의 비트맵으로 그대로 적용할 경우, 높은PSNR을 얻기 어렵다. 특히 blue 데이터의 경우에는 상대적으로 낮은 PSNR을 갖게 된다. 그래서 Wang의 논문에서는 Y의 비트맵으로 RGB의 비트맵으로 적용하는 방법으로 red 와 blue 데이터의 비티맵과 Y의 비트맵의 일치성을 판단하여, Y의 비트맵과 Y의 비트맵의 반전 중 하나를 선택하는 방법을 사용하였다. 본 논문에서 제안하는 CMBQ-BTC 1-단계 압축에서도 RGB 비트맵으로 Y의 비트맵을 활용하였고, 낮은 압축 손실을 얻게 하기 위해서, \(2\times4\) 블록을 사용하였다.</p> <p>그림 3은 1-단계 CMBQ-BTC의 도식도이다. 1-단계CMBQ-BTC 과정을 살펴보면, \(6\times4\) 블록을 \(2\times4\) 블록으로 세분화 하고, 분리된 \(2\times4\) 블록마다 Y 로 변환하여,Y의 비트맵을 구한다. 그리고 RGB 각각의 비트맵으로 Y의 비트맵과 Y의 비트맵 반전을 적용할 경우, 압축손실이 적은 모드를 선택하는 방법(이하 Y 비트맵 모드)을 사용하였다. Y 비트맵 모드의 선택 방법은 서브블록마다 Y의 비트맵을 사용하여 RGB의 상위 평균들과 하위 평균들을 구한다. 구해진 상위 평균이 하위 평균보다 크거나 같으면, Y 비트맵을 그대로 적용하는 모드로 선택하고, 반대로 하위 평균이 상위 평균보다 크면 Y의 비트맵과 입력 데이터의 비트맵과는 반전 관계이므로,Y 비트맵의 반전 모드를 선택하게 된다. 그러므로 서브블록마다 Y 비트맵 모드의 선택 신호가 필요하게 된다.</p>
|
논문에서는 \(6\times4\)의 블록을 이용해 2단계로 비트맵 데이터와 양자화 데이터를 압축하는 CMBQ-BTC 압축을 제안한다. 1단계에서는 각각의 \(6\times4\) 블록을 \(2\times4\)블록으로 세분화시키고 서브블록의 비트맵을 luminance의 비트맵에 적용해 비트맵 데이터를 압축시키고 2단계에서는 AMBTC의 양자화 데이터인 상위 평균과 하위 평균을 압축시켰다.
|
<h1>II. 홀로그래픽 비디오 서비스</h1><h2>1. 서비스 시스템의 제안</h2><p>컴퓨터 생성 홀로그램 기반의 디지털 홀로그래픽 기술을 이용한 비디오 서비스는 다양한 분야에서 제공될수 있다. 이러한 서비스를 위한 시스템의 형태는 그림 1과 같은 것으로 가정하였다. 그림 1은 depth 카메라와 RGB 카메라를 혼용한 홀로그램 획득 시스템을 이용한다. 최근 depth camera의 발달로 예전보다 쉽게 3차원 객체와 공간에 대한 깊이 정보를 획득할 수 있게 되었다. 이러한 depth camera를 이용하여 깊이 정보(광원의 위치 정보)를 획득하고 RGB 카메라를 이용하여 광원의 색차 및 밝기 정보를 획득한다. 광원 정보들은 전처리 과정을 거치면서 개선되고, 이렇게 획득된 3차원 공간상의 광원정보들에 컴퓨터 생성 홀로그램 기술을 적용하여 디지털 방식으로 홀로그램을 생성한다. 그림 1은 컴퓨터 생성 홀로그램 과정을 송신부(인코더)과 수신부(디코더) 중에서 어디에서 하느냐에 따라서 시스템 구성을 달리 할 수 있다. 수신부의 연산 능력이 부족할 경우에는 CGH를 송신부에서 수행해야 한다. 일반적인 수신부는 연산능력이 송신부에 비해서 현저히 떨어진다. CGH를 송신부에서 수행하는 경우에는 홀로그램 자체를 압축하고, 수신부에서 수행하는 경우에는 광원정보(혹은 깊이정보)를 압축한다. 홀로그램 자체를 압축하는 것은 깊이정보를 압축하는 것보다 훨씬 복잡하다.</p><p>그림 1의 시스템은 제약된 촬영 환경 하에서는 우수한 홀로그램을 얻을 수 있으나 아직도 깊이 카메라의 촬영 거리 및 적외선의 간섭/산란 등의 문제는 존재한다. 최근에 다양한 깊이 카메라가 개발되고 있는 추세를 고려한다면 이러한 문제들은 앞으로 많은 부분 해결이 가능할 것으로 전망한다.</p><h2>2. 스케일러블 비디오 코딩</h2><p>다양한 전송환경에 적응적인 비디오 부호화 기술인 스케일러블 비디오 코딩(scalable video coding, SVC)은 부호화 효율 저하를 최소로 하면서 공간과 시간 그리고 화질의 측면에서 적응적인 부호화 기능을 지원한다. 다양한 화질을 제공하는 기본적인 SVC의 구조는 그림 2와 같다. SVC 복호화기는 네트워크와 단말기의 연산능력에 따라 부호화된 비트스트림의 일부분만을 선택적으로 복호화함으로써 하나의 비트스트림에서 다양한 공간적, 시간적, 화절적 해상도를 가지는 비디오로 복호화할 수 있는 방법이다. MPEG-4 SVC에서 제공하는스케일러빌러티(scalability)의 종류로는 공간, 시간, SNR, 복합(hybrid) 스케일러빌러티 및 FGS(fine granularity scalability) 등이 있다. 이러한 스케일러빌러티를 제공하는 MPEG-4 SVC의 구조를 그림 3에 나타냈다.</p><h2>3. Holographic Characteristics</h2><p>부호화 대상인 디지털 홀로그램은 일반적인 2차원 영상과 비교할 때 시각적으로 다른 형태를 갖고 있다. 따라서 디지털 홀로그램을 신호처리적인 관점에서 다루기 위해서는 그 특성을 이해해야 한다. 본 논문에서 다루고자 하는 스케일러블 코딩 기법은 홀로그램의 화소 단위의 특성, 국부 영역의 특성, 그리고 주파수 특성을 활용한다. 이러한 특성들에 대해서는 이전 연구에서 이미 잘 분석되어 있다.</p><p>2차원 자연 영상은 sample 혹은 pixel 단위로 subsampling 과정을 거치고 다시 원래의 영상과 동일한 공간적인 해상도를 취할 경우에 원영상에서 고주파가 제거된 형태의 blurring 영상이 생성된다. 디지털 홀로그램에 대해 subsampling 과정을 수행하게 되면 원영상 혹은 원객체의 정보를 거의 소실하는 결과를 얻는다. 즉, 디지털 홀로그램을 구성하는 인접성분들은 홀로그램을 재생할 때 밀접한 관계를 갖는다는 것을 확인할 수 있다. 이러한 결과로부터 스케일링 방식의 스케일러블 코딩은 적합하지 않다는 정보를 얻을 수 있다.</p><p>디지털 홀로그램의 중심을 기준으로 분할한 후 역 Fresnel 변환 과정을 거치면 분할한 크기에 비례하여 스캐일링된 결과를 얻는다. 디지털 홀로그램의 국부영역에서는 그 영역에서 바라본 전체 객체의 정보가 모두 포함되고, 국부영역이 전체 홀로그램에 대해 위치하는 지점에 따른 복원 결과를 보인다. 국부적 영역의 특성은 홀로그램만의 독특한 특성으로 다른 시점에서 공간적 스케일러블 코딩의 가능성을 보여준다. 즉, 일반적인 2D 영상은 해상도를 조절하기 위해서 다운샘플링 혹은 스케일링 다운과 같은 과정을 수행하지만 홀로그램은 영역을 나눔으로써 공간적 스케일러블 코딩이 가능해지는 것이다.</p><p>홀로그램은 잡음과 같은 형태이고, 홀로그램의 주파수 특성도 2D 영상에서 나타나는 것과 다른 경향을 보인다. DCT(Discerete Cosine Transform) 혹은 DWT(Discrete Wavelet Transform)를 이용하여 주파수 영역으로 변환한 후에 저주파에서 고주파 계수들의 평균 에너지를 살펴보면 최저주파수 계수 및 영역에서 가장 큰 에너지를 보이는 것은 동일하지만 그 이후에 고주파 성분의 에너지가 증가하는 경향성은 2D 영상과 전혀 다르다는 것을 확인할 수 있다. 즉, 2D 영상과 같이 주파수 변환도구를 이용하여 데이터의 상관도를 추출한 후 계수들을 직접적으로 처리하는 것은 올바른 접근이라 할 수 없고, 부가적인 처리과정이 필요하다는 것을 알 수 있다.</p>
|
홀로그램은 광원 정보들은 전처리 과정을 거치면서 개선되고, 3차원 공간상의 광원정보들에 컴퓨터 생성 홀로그램 기술을 적용하여 생성한다. CGH를 송신부에서 수행하는 경우에는 홀로그램 자체를 압축하고, 수신부에서 수행하는 경우에는 광원정보(혹은 깊이정보)를 압축한다. 스케일러블 비디오 코딩은 부호화 효율 저하를 최소로 하면서 공간과 시간 그리고 화질의 측면에서 적응적인 부호화 기능을 지원한다. SVC 복호화기는 네트워크와 단말기의 연산능력에 따라 부호화된 비트스트림의 일부분만 복호화함으로써 하나의 비트스트림에서 다양한 공간적, 시간적, 화절적 해상도를 가지는 비디오로 복호화할 수 있는 방법이다. DCT 또는 DWT를 이용하여 주파수 영역으로 변환한 후에 저주파에서 고주파 계수들의 평균 에너지를 살펴보면 최저주파수 계수 및 영역에서 가장 큰 에너지을 보이지만 이후에 고주파 성분의 에너지가 증가는 것은 2D 영상과 다르다.
|
<h1>I. 서 론</h1><p>원래의 3차원 입체상을 공간상에 정확히 재현할 수 있는 가장 이상적인 입체 시각 시스템이 홀로그램이다. 최근 많은 사람들은 3차원 입체 비디오처리 기술의 최종목표를 홀로그램 서비스로 생각하고 있다. 홀로그래피 방식은 정해진 범위내의 어떤 시점에서도 관찰이 가능하도록 깊이감을 표현함으로써 관찰위치의 제약이 없고 자연스런 화상표현이 가능하다. 특히 안경을 착용할 필요 없이 자연영상을 보듯이 시청할 수 있어 3D 영상에서 발생되는 여러 문제들이 완전히 제거될 수 있다. 3D가 보편화되어감에 따라서 우리는 더욱 실감있는 입체를 요구하게 될 것이고 이것의 답은 분명히 홀로그램에 있음은 부인할 수 없다.</p><p>홀로그래픽 비디오 서비스의 구조가 어떠한 형태가 될지는 아직 모호한 상황이지만 홀로그래픽 기술은 다양한 응용분야에서 활용이 가능할 것으로 기대하고 있다. 그 응용 분야에는 3DTV와 같은 방송 기술을 비롯하여 광고, 스포츠, 화상통신, 화상회의, 모의실험, 그리고 군사용 훈련 등이 포함될 것으로 예측된다. 또한 쇼핑 등에서는 실물을 눈앞에 동일한 크기로 보여줌으로써 쇼핑을 도울 수 있을 것으로 사료된다. 이와 같이 홀로그램의 응용 분야는 다양할 것이고, 이러한 분야들은 각기 다른 네트워크 환경, 디스플레이 해상도 및 수신기의 연산 능력을 가지고 있을 것이다. 즉, 홀로그래픽 비디오 서비스도 현재의 전파를 이용한 디지털 방송 및 유선을 이용한 VoD 비디오 서비스와 같이 네트워크의 상태 및 수신 단말기의 성능에 따라서 다른 해상도 혹은 품질의 서비스를 제공해야 할 것이다. 이를 위해서 서비스 환경에 적응적인 홀로그래피 비디오 코딩 기술이 필요하다</p><p>일반적인 2D 비디오의 SVC 기술은 MPEG-4의 형태로 표준안이 마련되어 왔다. ISO/IEC 산하 MPEG(Moving Picture Experts Group) 및 ITU-T 산하 VCEG(Video Coding Experts Group)에서는 MPEG-4 SVC (Scalable Video Coding) 또는 H.264 Scalable Extension이라는 표준화를 함께 진행하였다. 새로운 스케일러블 비디오 기술인 MPEG-4 SVC는 표준화 초기 MPEG-21 part 13으로 시작하였고, 2003년도 이후부터는 MPEG-4 AVC(Advanced Video Coding) 또는 H.264 표준의 확장된 형태로 진행됨에 따라서 MPEG-4 part 10 Amd. 1이라는 명칭으로 바뀌게 되었다. 2D 영상과 홀로그램은 전혀 다른 특성을 가지고 있기 때문에 홀로그램의 스케일러블 코딩에 2D의 기술을 그대로 이용할 수는 없고, 홀로그램의 특성을 활용한 스케일러블 코딩 기법을 적용해야 한다. 스케일러블 비디오 신호처리 기법과 함께 비디오 코딩을 위한 압축 기법이 필요하다.</p><p>1990년대 초반부터 현재까지 디지털 홀로그램의 부호화에 대한 다양한 연구가 진행되었다. Yoshikawa는 홀로그램의 복원 해상도가 HVS에 비해 너무 크다는 것으로부터 해상도를 제한하는 방법과, 보간법을 이용하여 정보량을 줄이는 방법을 제안하였다. 또한 디지털 홀로그램을 1차원적으로 몇 개의 segment로 나누어 DCT를 수행하고, 동영상 압축 표준인 MPEG-1과 MPEG-2로 압축한 방법들이 제안되었다. Javidi는 [11]과 [12]에서 디지털 홀로그램을 무손실 부호화 방식의 압축하는 방법을 제안하였고, 무손실 부호화 방식을 손실 부호화 기술에 결합한 형태의 기술도 제안하였다. Liebling은 홀로그램의 분해를 위해 Fresnelet 기반의 변환기법을 만들고, 이를 이용하여 압축을 시도하였다. [14]에서는 실시간 네트워킹을 위해서 비트 패킹 동작에 의한 복소 스트림을 양자화하는 압축 방식도 제안되었다. 최근 홀로그램을 압축하기 위해 다양한 디지털신호처리 기법들을 적극적으로 활용한 방식들도 제안되었다. 디지털 홀로그램을 분할하여 상관성이 높은 정보로 변환한 후에 H.264 등의 도구로 압축을 시도한 방식과 홀로그램으로부터 집적영상을 만든 후에 집적영상과 분할된 디지털 홀로그램과의 차이 정보를 압축하는 방식이 있다. [18]에서는 Motion- CompensatedTemporal Filtering (MCTF)를 이용하여 압축률을 더욱 향상시켰다. 또한 홀로그램을 Mallat tree 기반의 웨이블릿 변환을 수행한 이후에 부대역별로 압축을 시도한 연구도 있었다.</p><p>본 논문에서는 취득된 홀로그램을 다양한 수신 환경에서 재생하기 위한 스케일러블 홀로그래픽 비디오 코딩 기법(scalable holographic video coding, SHVC)을 제안한다. 이를 위해서 본 논문에서는 먼저 디지털 홀로그래픽 비디오 서비스 시스템의 구조를 제안한다. SHVC 기법의 기본적인 개념은 [3]에서 제안되었고, 본논문을 통해서 보완 및 구체화하고자 한다. 또한 디지털 홀로그램의 스케일러블 코딩에 대한 개념은 [18]에서 처음 도입되었다. 제안하고자 하는 코딩 기법은 크게 두 가지로 구성된다. 첫 번째 방법은 이미 홀로그램이 촬영되었거나 컴퓨터 생성 홀로그램 기법(computer generated hologram, CGH)을 통해서 생성된 경우에 적용되는 것이다. 홀로그램 평면 내의 각 화소들은 객체의 전체 광원에 대한 정보를 모두 포함하고 있다는 특성을 이용하여 홀로그램 기반의 해상도 스케일러블 코딩(hologram-based resolutional scalable coding, HRS)을 적용할 수 있다. 두 번째 방법은 홀로그램을 수신단에서 생성하는 경우에 적용되는 것이다. 이 경우에는 수신단에서 홀로그램을 생성하기 위해 광원 정보를 적응적으로 전송한다. 일부의 광원으로도 홀로그램을 생성할 수 있고, 재생할 수 있다는 특성을 이용하여 광원 기반의 SNR 스케일러블 코딩(light source-based SNR scalable coding, LSS) 기법을 제안한다. 광원 정보에 대한 손실은 CGH를 통해 생성된 디지털 홀로그램과 홀로그램을 복원한 재생상에 매우 큰 열화를 가져오기때문에 무손실 압축 기법을 사용한다.</p><p>본 논문은 다음과 같이 구성된다. II장에서는 홀로그램의 비디오 서비스를 위한 시스템의 구조에 대해서 논의한다. III장에서는 스케일러블 홀로그래픽 비디오 코딩 알고리즘을 제안한다. IV장에서는 제안한 기법을 이용한 스케일러블 코딩을 수행한 결과를 나타낸다. 마지막으로 V장에서 결론을 맺는다.</p>
|
3D의 보편화로 더욱 실감있는 입체를 요구하게 되고 이것의 해결책은 홀로그램에 있음은 부인할 수 없으며 홀로그램의 응용 분야는 다양하고 각기 다른 디스플레이 해상도, 네트워크 환경, 수신기의 연산 능력을 가지고 있을 것이다. 홀로그래픽 비디오 서비스 역시 현재의 전파를 이용한 디지털 방송 및 유선을 이용한 VoD 비디오 서비스와 같은 네트워크의 상태 및 수신 단말기의 성능에 의해 다른 해상도 혹은 품질의 서비스를 제공해야 하며 2D 영상과 홀로그램은 전혀 다른 특성을 가지고 있어 홀로그램의 특성을 활용한 스케일러블 코딩 기법을 적용해야 한다. 그러므로 본 논문에서는 다양한 수신 환경에서 재생하기 위한 스케일러블 홀로그래픽 비디오 코딩 기법을 제안한다.
|
<h1>III. 스케일러블 코딩</h1><h2>1. 홀로그램 기반의 공간 적응적 코딩</h2><p>홀로그램의 국부적인 영역의 특성을 이용하여 홀로그램 기반의 해상도 적응적 코딩기법을 제안한다. HRS 코딩은 디지털 홀로그램이 광학적 시스템과 CCD를 통해서 취득된 경우에 주로 사용하는 적응적 코딩 기법이다. 획득된 홀로그램은 분할과정을 거치면서 다양한 해상도의 정보로 분리(Cropping)가 되고, 분할/변환(Segmentation/Transform)을 거친 후에 압축 과정(Compression)을 거쳐서 비트스트림이 된다. 이 과정의 역과정을 통해서 다양한 해상도의 디지털 홀로그램이 복호화된다. 복호화된 디지털 홀로그램은 SLM(spacial light modulator)와 같은 홀로그래픽 디스플레이 장치를 통해서 서비스된다. 코딩의 적응성은 홀로그래픽 디스플레이 장치에 좌우될 수 있을 것이다. 이러한 HRS의 부호화 및 복호화 과정을 그림 4에 나타냈다.</p><p>HRS는 그림 5와 같은 홀로그램의 독특한 특성을 이용한 것이다. 작은 홀로그램의 테두리에 여분의 홀로그램 정보를 결합한 후에 그 홀로그램을 재생하면 고해상도의 객체를 공간상에 재생할 수 있다.</p><p>그림 5에서 홀로그램의 내부를 분할하고, 분할된 중심영역을 제외한 테두리 영역은 중심영역과 합해져서 고해상도를 제공하게 되는 상위계층(Enhanced layer)의 역할을 한다. 분할된 중심영역은 다시 중심영역과 테두리 영역으로 나누어진다. 나누어진 영역은 다시 기본계층과 상위계층에 해당하게 된다. 이렇게 중심을 기준으로 홀로그램을 다수 분할했을 때 최종적인 중심영역이 기본계층(Base layer)이 된다. 분할하는 단위는 홀로그램을 압축하는 과정과 밀접한 관계를 갖는다. 홀로그램의 압축과정 자체에 대해서는 본 논문에서 자세히 다루지 않고, 참고문헌으로 대신하고자 한다</p><p>HRS 코딩 방법에서 적응적 코딩 특성은 홀로그램을 분할하는 단위와 방식에 크게 좌우된다. 홀로그램을 분할하는 단위는 앞서 설명한 것과 같이 홀로그램의 압축기법과 밀접한 관계를 갖는다. 홀로그램을 압축하기 위해 비디오 스트림을 만들게 되는데 이 비디오 스트림의 해상도가 홀로그램을 분할하기 위한 기본 단위가 된다.</p><p>HRS를 위해 홀로그램을 분할하는 방법을 그림 6에 나타냈다. 그림 6에서 작은 격자가 홀로그램을 분할하기 위한 단위이고 본 논문에서는 \( 64 \times 64\)의 크기를 사용한다. 실험에 \( 1,024 \times 1,024 \) 크기의 홀로그램을 사용하기 때문에 총 256개의 홀로그램 격자로 나누어지고 짝수 크기로 격자 집합에 대해서 HRS를 수행한다면 총 8단계의 코딩이 가능하다. 각 단계를 그림 6에 Level0에서 Level7까지 나타냈다.</p><h2>2. 광원기반의 SNR 적응적 코딩</h2><p>다음으로 홀로그램을 생성하는 광원의 조절을 통해 적응적 서비스를 제공할 수 있는 광원기반의 SNR 적응적 코딩기법을 제안한다. 그림 7에 LSS 코딩의 개요를 나타냈다. LSS 코딩은 광학 시스템의 CCD 카메라를 통해서 디지털 홀로그램이 직접적으로 취득된 경우가 아니라 카메라 시스템으로부터 깊이 정보와 밝기 정보를 획득한 후에 CGH를 이용하여 홀로그램을 생성하는 경우에 이용할 수 있다. 스테레오 혹은 다시점 카메라 시스템을 통해서 다수의 영상을 획득한 후에 스테레오 정합 등의 기법을 통해서 깊이 영상을 취득할 수도 있지만 이렇게 추출된 깊이 영상을 통해 얻어진 CGH는 열화가 매우 심하여 사용할 수 없다. LSS 방식의 경우에 CGH를 부호화와 복호화 중에서 어느 단계에서 하느냐에 따라서 시스템의 구조가 많이 달라질 수 있는데 본 논문에서는 CGH를 복호화 과정에서 수행하는 것으로 국한하여 알고리즘을 제안한다. CGH를 복호화 과정에서 수행할 경우에는 HRS에 비해서 높은 압축 효율을 보장할 수 있지만 CGH의 연산량을 고려한다면 단말기의 성능이 좋아야만 한다.</p><p>획득된 광원(depth map+RGB)의 개수를 조절하고 분리한 후에 이 정보를 압축한다. 이 정보는 일반적인 2D 정보와 유사하기 때문에 HRS와 같은 특별한 압축 알고리즘을 사용하지 않아도 되고, 압축 효율이 우수하다.</p><p>그러나 [3]의 논문에서도 볼 수 있듯이 이 과정에서 광원에 대한 정보가 일부라도 손상되면 CGH를 통해 생성되는 홀로그램의 품질은 대폭 감소한다. 따라서 광원 정보는 무손실 압축을 하는 것이 적합하다. 복호화 과정에서는 압축된 광원 정보를 복원한 후에 결정된 서비스의 품질에 따라서 광원의 개수를 선택하여 화질을 선택한다. 이 과정에서 보간 등을 통해 광원의 개수를 증가시킨 후에 CGH를 수행하면 높은 화질의 디지털 홀로그램을 얻을 수 없다. 이에 대한 실험 결과도 [3]을 통해서 확인이 가능하다. CGH를 통해서 최종적으로 얻어진 디지털 홀로그램은 레이저 및 SLM을 이용하여 공간상에 재생된다.</p><p>그림 7(a)에는 앞에서 설명한 LSS 부호화 과정을 나타냈다. 입력된 광원에 대한 정보들은 분리되고 네트워크 대역폭 및 수신 단말기의 성능에 따라서 전송되는 광원의 양이 결정된다. LSS의 복호화 과정은 그림 7(b)에 나타냈는데 전송된 광원 정보를 복원한 후에 분리된 광원을 이용하여 CGH를 수행하여 홀로그램을 생성한다. 수신 환경이 좋을수록 더 많은 광원을 수신하고, 이들을 결합하여 더욱 좋은 품질의 홀로그램을 생성할 수 있다.</p>
|
디지털 홀로그램이 광학적 시스템과 CCD를 통해서 얻어질 때 사용되는 HRS코딩은 홀로그램의 테두리에 여분의 홀로그램 정보를 결합하여 고해상도의 객체를 재생하는 적응적 코딩기법이다. LSS 코딩은 광원의 조절을 통해 적응적 서비스를 제공하는 SNR 적응적 코딩기법인데, 카메라 시스템에서 깊이 및 밝기 정보를 얻고 CGH를 이용하여 홀로그램을 생성하는 경우에 이용 가능한 기법을 제안하였다.
|
<h1>요 약</h1> <p>최근 들어, 스마트 기기의 수요가 급증하면서 기존의 3G 표준에 비해 향상된 품질을 제공하는 long-term evolution (LTE)서비스가 전 세계적으로 활발히 보급되고 있다. 2010년에 발표된 릴리즈 10은 흔히 LTE-Advanced (LTE-A)로 불리는데, LTE-A의 여러 특징 중 다중사용자 MIMO (MU-MIMO) 기술은 정보 처리량을 향상시키기 위한 LTE-A의 핵심기술로 근래 많은 주목을 받고 있다. 본 논문에서는 LTE 및 LTE-A 시스템에서 도입된 MU-MIMO 기술의 이론적 배경 및 표준의 주요특징을 소개한다.</p> <h1>Ⅰ. 서 론</h1> <p>최근 들어 스마트폰 사용자의 폭발적 증가에 따른 멀티미디어 및 인터넷 서비스의 급격한 수요증가로 인해 기존 3G 망이 포화 상태에 이르게 되자, 미국 버라이존을 비롯하여 우리나라의 SKT, LGU + 등 이동통신사들은 앞 다투어 차세대 이동통신 시스템인 LTE 서비스를 시작하고 있다. LTE는 long-term evolution의 약어로, 3G 이동통신 기술인 CDMA (코드분할 다중접속)과 WCDMA (광대역 부호분할다중접속)로부터 완전한 4세대로 진화해 가는 중간단계 기술로서 주목을받고 있다. 2004년에 시작된 LTE 표준화 작업은 범지상파 접속 (Universal Terrestrial Radio Access:UTRA)을 공고하게 하며 3세대 이동통신 무선 표준화단체인 3GPP (3rd Generation Partnership Project)가 제시한 라디오파 접속 구조를 최적화하는데 초점을 맞추고 있다. 초기단계 LTE의 설계목표는 3.5세대 이동통신망인 HSDPA (High Speed Downlink PackerAcess) 릴리즈 6의 하향링크 (downlink) 용량인 100Mbps와 HSUPA (High Speed Uplink PacketAccess)의 상향링크 (uplink) 용량인 50Mbps를 3배 가량 증진시키는 것이었다.</p> <p>LTE 표준의 기본이 되는 최초의 표준인 릴리즈 8(Rel. 8)은 2008년 12월에 발표되었고, 후속 표준인 릴리즈 9는 2009년 12월에 발표되었다. LTE-Advanced(LTE-A)로 불리는 LTE의 최신 표준인 릴리즈 10(Rel. 10)은 2009년 말에 국제통신 연합 (InternationalTelecommunication Union)의 승인을 받아 개발되기 시작하였다. LTE-A는 하향링크에서 LTE의 두 배인600Mbps의 전송률을 목표로 하고 있다. 이 목표가 현실화 될 때 데이터 전송 속도는 3세대의 HSPA보다 10배 이상 증진되어, 고화질 영상이나 네트워크 게임 등 온라인 상 서비스를 이동 중에도 편리하게 이용할 수있다.</p> <p>LTE-A에서 제안된 여러 특징 중 가장 주목할 만한특징으로, 높은 스펙트럼 효율성을 달성하기 위한 다중사용자 MIMO (MU-MIMO) 시스템을 들 수 있다. 본 논문에서는 LTE 와 LTE-A 표준에서 적용된 MU-MIMO 시스템의 이론적 배경 및 주요 특징을 소개하고자 한다. 먼저 Ⅱ장에서 LTE-A의 이론적 배경을 살펴본 후, Ⅲ장에서는 MU-MIMO 시스템이 실제 LTE 릴리즈 8 및 9에 적용되는 기술적 특징들을 설명한다. 그리고 Ⅳ장에서는 LTE-Advanced에 적용된MU-MIMO 기술을 정리하고, Ⅴ장에서는 결론을 제시한다.</p>
|
기존의 3G 표준에 비해 향상된 품질을 제공하는 LTE는 CDMA 및 WCDMA로부터 완전한 4세대로 진화해 가는 중간단계의 기술로서의 의의가 있다. 이러한 LTE의 표준화는 범지상파 접속을 공고하게 하고 라디오파 접속 구조를 최적화하는데 초점을 맞추고 있다. 특히 LTE의 최신 표준인 LTE-A는 데이터 전송 속도 증진을 통해 온라인 상 서비스를 이동 중에도 편리하게 이용할 수 있게 하고자 한다. 또한, LTE-A는 높은 스펙트럼 효율성을 달성하기 위한 다중사용자 MIMO 시스템을 특징으로 한다.
|
<h2>4.3. MU-MIMO의 투명성(transparency)</h2> <p>Transparent MU-MIMO 방식에서는 UE는 단지 제어 신호정보 (랭크나 DM-RS 포트 등)만 가지고도 디코딩을 수행할 수 있는데 반해, Non-transparentMU-MIMO 방식에서는 동시 사용되는 사용자에 대한정보가 제공되어야 한다. 동시 사용자 (co-scheduling)정보는 같이 사용되는 사용자의 총 랭크나 DM-RS 포트를 포함한다. 두 방식의 주요 차이점과 시스템 설계에 미치는 영향은 다음과 같다.</p> <ul> <li>스케쥴링 유연성: Transparent MU-MIMO 방식에서는 좀 더 유연한 스케쥴링을 허용한다. 예를 들면, Transparent MU-MIMO 하에서 MU-MIMO에 다중화된 사용자장치에 할당된 자원 (RBs)을 반드시 정렬할 필요가 없다. 기지국은 UE에 부분적으로 중첩된 자원을 할당할 수 있고, 서로 다른 RB에 다른수의 UE를 다중화 할 수도 있다. 또한 동시 사용되는 UE의 DM-RS 포트는 각 RB에 대해 동적으로 지정할 수 있다. 반면에, Non-transparent MU-MIMO하에서 기지국은 총 랭크 및 동시 사용되는 UE의 DM-RS 포트의 단일 신호화가 가능하도록 동시 사용되는 UE의 자원할당 정렬이 필요하다. 그러나 이는 기지국의 스케쥴러 유연성에 제한을 주어 MU-MIMO 시스템의 성능을 최대화시키기 어려울 수 있다.</li> <li>제어 신호화 부하: Transparent MU-MIMO는 동시 사용되는 UE에 대해 부가적 제어 신호화가 필요 없지만, Non-transparent MU-MIMO는 사용자 다중화를 지원하기 위해 더 많은 PDCCH (PhysicalDownlink Control Channel: 물리적 하향링크 제어채널) 자원 (신호 대 총 랭크와 같이 사용되는 UE의 DM-RS 포트)이 필요하다. PDCCH의 한정된 자원을 고려할 때, 제어정보 부하의 증가는 바람직하지 않으며 서브프레임 당 동시 사용되는 UE의 개수에 대해 좀 더 엄격한 제한이 필요하다.</li> <li>향상된 수신 기법의 지원: Non-transparentMU-MIMO에서는 제어 채널을 통해서 제공되는 여러 가지 정보를 활용하여 향상된 수신 알고리듬을 사용할 수 있다. 예컨대 UE에서 사용자간 간섭을완화 또는 억제하기 위해 간섭 제거 기법(interference rejection combining: IRC)과 같은 알고리듬이 사용될 수 있다. 이에 반해서 TransparentMU-MIMO에서는 동시 사용되는 UE에 대한 정보가 없으므로 블라인드 알고리듬 (예컨대non-parametric MMSE 알고리듬)을 사용할 수 밖에 없다. 더 우수한 수신 알고리즘을 사용하기 위한 부가적 신호화 이슈는 릴리즈 10 이후에 계속 논의되고 있다.</li></ul> <h2>4.4. SU/MU-MIMO의 동적 스위칭</h2> <p>SU-MIMO 시스템은 같은 시간/주파수 대에 다중 스트림을 전송함으로써 사용자 정보 처리량의 피크치 및 평균치를 향상시키는데 반해, MU-MIMO 시스템은 다중사용자 다이버시티를 도입함으로써 피크치와 평균치, 그리고 시스템의 전송률을 증진시킨다. 상보적인 두 시스템의 장점을 극대화하기 위해, 릴리즈 10은SU-MIMO와 MU-MIMO 모드 사이에 동적 스위칭을 도입하였다 그림 3에 동적 스위칭의 구조를 나타내었다. 동적 스위칭을 사용할 때 서브프레임 당 채널 상황과 트래픽량에 따라 한 모드에서 다른 모드로 쉽게 전환이 가능하다.</p> <p>SU/MU-MIMO 동적 스위칭 뿐 아니라 SU-MIMO 모드에서 랭크 변경 (rank adaptation)을 지원하기 위해 DM-RS 안테나 포트와 계층의 수에 대한 정보가 UE에 제공되어야 한다. 이를 위하여, 새로운 하향링크 제어정보 (downlink control information; DCI) 포맷인 DCI포맷 2C를 도입되었다.</p> <h2>4.5. 이중 코드북 구조</h2> <p>릴리즈 10은 이중 단계 피드백 기법을 채택한다. 이 중 단계 피드백에서 프리코더는 두 개의 행렬 ( \( W_{1} \) 과 \( \left.W_{2}\right) \)로 구성되는데 각각은 별도의 코드북에 속한다. 복합 프리코더는 두 행렬의 곱으로 다음과 같이 주어진다.</p> <p>\( W=W_{1} W_{2} \)<caption>(1)</caption></p> <p>위에서 \( W_{1} \)은 광대역 및 long term 채널 특성을 반영 하며 \( W_{2} \)는 주파수 선택성 (frequency selectivity) 채널과 short term 채널 감쇄를 반영한다. 본 기법은 CSI 피드백 성분을 두 종류로 분리함으로써 단일 코드북을 사용할 때 보다 더 나은 성능을 달성하면서도 낮은 피 드백 부하를 갖게 되는 장점이 있다. 릴리즈 10 코드 북을 설계하는데 필요한 고려사항 및 제약조건은 다음과 같다.</p> <ul> <li>코드북 설계에서는 프리코딩 이득을 크게 얻을 수있는 랭크 1/2에 주안점을 둔다.</li> <li>프리코딩 행렬에서 모든 요소는 전력 증폭 설계의 부하를 줄이기 위해 같은 크기 (일정한 modulus)를가져야 한다.</li> <li>일정한 평균 전송 전력을 유지하기 위해 유니터리 프리코딩을 채택한다.</li> <li>\( W_{1}\left(=\left[\begin{array}{lll}X & 0 ; 0 & X\end{array}\right]\right) \)는 어떠한 간격 (예를 들면 \( \lambda / 2 \)나 \( \lambda / 4) \)을 가진 dual-polarized 안테나 배열의 공간 불변성을 충족시키도록 블록 대각화 시켜야 한다.</li> <li>\( X \) 는 \( 4 \times N_{b} \)행렬이며 여기서 \( N_{b} \)는 빔의 개수(1~4)이다. 각 \( W_{1} \)에 대해, 주파수 선택 프리코딩의 가장자리 효과를 줄이기 위해 이웃한 중첩 빔을 사용한다.</li> <li>\( W_{1} \)으로부터 최소한 16개의 8-Tx DFT가 생성되며, 분극 사이의 위상이동을 대처하고 ULA안테나 배열의 공간불변성을 유지하기 위해 \( W_{2} \)를 통한 co-phasing을 수행하여야 한다.</li></ul> <p>이중 코드북 구조는 8-Tx 모드에만 적용된다. 4-Tx나 2-Tx 모드에서는 이중 코드북 설계에 의해 얻어지는 이득에 한계가 있기 때문에, 이들 모드는 여전히 잔여 코드북(릴리즈 8 기반의 코드북)을 채용한다.</p> <h2>4.6. CSI 피드백 방식</h2> <p>피드백 방식을 설계할 때 고려되는 사항은 다음과 같다.</p> <ul> <li>역방향 호환성이 보장되어야 한다. 릴리즈 8/9 네트워크에 진입하는 릴리즈 10 UE는 중단 없는 서비스(seamless service)를 위해 릴리즈 8/9 시스템에 부합하는 피드백 정보(PMI, RI, CQI)를 제공할 수 있어야 한다. 이와 비슷하게 PMI, RI, 그리고 CQI 피드백 방식은 릴리즈 10 네트워크에서 릴리즈 8/9 사용자 장치를 지원하여야 한다.</li> <li>피드백 부하를 고려하여 설계하여야 한다. 피드백 방식에는 직접 피드백과 간접 피드백의 두 가지 형태가 있다. 직접 피드백은 UE에서 기지국으로 채널 행렬 H또는 공분산 (covariance) 행렬 \( H H^{H} \)를 전송하는 방식이며, 간접 피드백은 릴리즈 8 방식의 PMI, RI 및 CQI를 사용하는 방식을 의미한다. 피드백 부하가 낮은 장점으로 인하여 릴리즈 8, 9, 10에서 간접 피드백 방식이 지속적으로 채택되었다. 하지만, 높은 이득을 요구로 하는 이후의 릴리즈에서 직접 피드백 방식이 계속 논의될 것으로 보인다.</li> <li>UE 피드백 설계에서 실제적 배열 시나리오를 고려하여야 한다. 안테나를 실장하는 공간의 제한으로 인해 사용자 장치에서 뿐 아니라 기지국에서도 넓은 공간이 허용되지 않는다. 물리적 공간을 줄이기 위해 흔히 사용하는 기술은 dual-polarized 안테나를 채용하는 것으로, 이는 안테나를 짝지어 분극 평행 안테나를 형성하는 것이다. 2-Tx 모드에서는 ULA가 적합하며, 4-Tx나 8-Tx 모드에서는 직교하는 분극 배열이 좀 더 적합할 수 있다.</li> <li>피드백 메커니즘은 위의 고려사항들을 반영하고 또한 하향채널의 성능과 상향채널간의 tradeoff를 고려하여 설계하여야 하며 차후의 릴리즈에서 계속 논의 발전될 것이다.</li></ul>
|
Transparent MU-MIMO 방식은 UE는 단지 제어 신호정보으로 디코딩을 수행할 수 있지만, Non-transparent MU-MIMO 방식은 동시 사용되는 사용자에 대한 정보가 제공되어야 한다. SU-MIMO 시스템은 다중 스트림을 전송해서 사용자 정보 처리량의 피크치 및 평균치를 향상시키는 반면, MU-MIMO 시스템은 다중사용자 다이버시티를 도입하여 피크치,평균치, 시스템의 전송률을 증진시킨다. 릴리즈 10은 SU-MIMO와 MU-MIMO 모드 사이에 동적 스위칭을 도입하여 상보적인 두 시스템의 장점을 극대화하였고 이중단계 CSI 피드백 기법을 채택하였다.
|
<h1>Ⅳ. LTE Release 10에서 MU-MIMO</h1> <p>LTE-A 시스템의 상용화를 위해서는 정보 처리량(throughput)의 최고치와 평균치, 그리고 셀 경계 스펙트럼 효율성 등 ITU-R (ITU Radio CommunicationSector)에서 설정한 여러 요구조건을 만족시켜야 한다. 이를 만족시키기 위하여 릴리즈 10에서 새로 도입된기술적 특징들은 다음과 같이 요약된다.</p> <ul> <li>높은 차원 (8×8 MIMO 까지)의 SU-MIMO 모드를 지원하며 또한 MU-MIMO의 성능을 향상시키기 위해, 하향링크에 CRS와 DM-RS 그리고 CSI-RS 등 새로운 파일럿 RS를 도입하였다. CRS는 CSI측정과 잔여 (릴리즈 8/9) 전송의 복조 뿐 아니라 제어 채널의 디코딩 등 UE의 여러 과정에 이용된다. 릴리즈 9에 도입한 DM-RS는 릴리즈 10에서는 새로운 전송 모드에서 랭크-8까지의 전송을 지원하도록 확대되었다.</li> <li>SU-MIMO와 MU-MIMO 간에 동적 스위칭을 도입하였다. 이로서 DM-RS를 사용하여 UE에 프리코딩 정보를 제공할 필요 없이, 기지국은 UE의 MIMO작동 모드를 원활하게 변경할 수 있다. 이는 통신형태나 UE의 개수 등 시스템의 조건이나 채널에서의 변화에 기지국이 신속히 대응할 수 있도록 돕는다.</li> <li>피드백 부하를 줄이기 위해 8-Tx 배열에 이중 코드북 (dual codebook) 구조를 채용하였는데, 첫 번째 코드북은 광역밴드와 long term 채널에 관여하고 다른 코드북은 주파수 선택성 채널이나 short term채널을 담당하도록 설계되었다.</li></ul> <h2>4.1. 파일럿 신호 (reference signal)의 설계</h2> <p>근래 들어 비교적 낮은 복잡도를 가지면서도, 높은채널 용량을 얻을 수 있는 다양한 프리코딩 기법들이 제안되었다. 앞에서 언급한 바와 같이, 이러한 방식들은 CSI 피드백의 정확도가 충분히 큰 경우에만 이득을 얻을 수 있다. 파일럿이 차지하는 오버헤드를 피하면서 CSI의 품질을 유지하기 위해, CRS를 단순히 확장하는 대신 릴리즈 10은 별도의 DM-RS/CSI-RS 접근방식을 채용하였다. 릴리즈 10에서 도입된 파일럿 신호의 주요 특징은 다음과 같다.</p> <ul> <li>파일럿의 부하를 제한하기 위해 CRS는 4개의 송신 안테나까지만 정의되었다.</li> <li>새로 도입된 송신모드(송신모드 9: TM 9)에서는, CSI-RS를 이용하여 CSI측정을 수행한다. CSI-RS는 8개의 송신 안테나까지 적용되지만 CRS에 비해 상당히 낮은 부하를 가진다.</li> <li>rank-4까지 지원할 수 있는 잔여 송신 모드(transmission mode)에서는 CRS를 이용하여 CSI측정을 수행한다.</li></ul> <p>DM-RS는 CSI측정에 사용하기에는 적절하지 않다. 왜냐하면 DM-RS는 각각의 UE가 사용되는 시간/주파수 자원에서만 간헐적으로 존재하기 때문이다. 반면에 CSI-RS는 프리코딩 되지 않으며 또한 모든 대역에 대해 사용되기 때문에 CSI측정에 적합하다. 이 때 부하를 최소화하기 위해 CSI-RS는 서브프레임 (subframe) (그림 2)의 한 부분으로 전송된다. 이는 복조와 CSI 측정을 위해 사용되는 CRS와 구분되며, 따라서 매 서브프레임마다 전송할 필요가 있다.</p> <p>CRS와 달리, DM-RS는 데이터가 존재하는 시간/주파수에서만 전송하면 된다. 따라서, DM-RS는 데이터전송 랭크 (rank)가 전송 안테나 수보다 작은 경우 (8개의 송신 안테나 배열의 경우) 파일럿 부하가 줄어드는 이점이 있다. 실제로 릴리즈 10에서 DM-RS 패턴은 파일럿 부하를 최소화하기 위해 각 랭크에 대해 최적화되었다. 릴리즈 10에서 랭크가 3-8의 경우에 DM-RS 패턴은 릴리즈 9에서 랭크 2에 대한 경우의 확장으로, 하이브리드 (hybrid) 코드/주파수 분할 다중화에 기반을 두고 있다. 랭크 1과 2의 경우 제 1 및 2계층에 대한 DM-RS 패턴은 코드 분할 다중화에 의해 다중화되는 반면, 랭크가 3과 4인 경우에는 제 1 계층 및 2 계층 그리고 제 3 계층 및 4 계층에 대한 DM-RS 패턴은 주파수 분할 다중화 (FDM)에 의해 다중화된다.</p> <h2>4.2. MU-MIMO의 차원화</h2> <p>릴리즈 10에서는 성능 및 신호의 부하를 종합적으로 고려하여, MU-MIMO 시스템의 차원 (dimension)에 대해 다음과 같은 제한을 두었다.</p> <ul> <li>최대 4개까지의 UE를 동시에 스케쥴링 할 수 있다.</li> <li>각 UE마다 최대 두 개까지만 계층을 할당한다.</li> <li>계층의 총합이 4개를 초과하지 않는다.</li></ul> <p>4개의 UE를 할당하는 경우 각 UE는 평균적으로 총전송 전력의 1/4만 할당 받게 되어 각각의 UE의 SINR이 상당히 낮아지게 된다. 따라서, 셀 내에 다수의 UE를 포함하는 경우 (즉, SINR이 높은 UE를 높은 확률로 찾아낼 수 있는 경우)를 제외하고는 대부분의 경우 그다지 효과적이지 못하다. 예를 들면, UE 사이에 공간분리가 쉬운 단일 폴 (single-pole) ULA 시스템에서는 4개의 계층에 대한 지원이 가능하지만, 이중 편광(dual-polarized) 배열을 가진 경우에는 MU-MIMO 간섭을 제어하기 매우 어렵기 때문에 동시 사용되는 UE의 개수는 대부분의 경우 2가 된다.</p> <p>높은 상관관계를 가진 ULA의 경우 기지국 노드는 두 개의 스트림 (stream)을 분리하여 두 개의 UE로 보낼 수 있기 때문에 공간다중화 이득을 얻을 수 있다. 이는 셀 내에 UE의 개수가 많아 다중사용자 스케쥴링에 의해 공간 자유도를 증가시킬 수 있는 경우에 적합하다. 실제로도 이러한 경우에는 UE당 랭크-1 전송이 가장 효율적이다. 랭크-1 보다 큰 경우에 ULA에서의 이득은 그다지 크지 않으나, 이중편광 시스템에서는 증가하게 된다. 예를 들면, 이중 편광 8개의 송신 안테나 배열에서는 각 분극 배열이 빔을 형성하여 UE쪽으로 스트림을 보낼 수 있기 때문에 UE당 랭크-2로 전송할 경우 성능의 향상을 얻을 수 있다.</p>
|
LTE-A 시스템의 상용화를 위해서는 정보 처리량의 최고치와 평균치,셀 경계 스펙트럼 효율성 등 여러 요구조건을 만족시켜야 하므로 릴리즈10에 도입된 새로운 기술 특징은 다음과 같다. 고차원의 SU-MIMO 모드를 지원하며 또한 MU-MIMO의 성능을 향상시키기 위해, 하향링크에 CRS와 DM-RS 그리고 CSI-RS 등 새로운 파일럿 RS를 도입하였고, SU-MIMO와 MU-MIMO 간에 동적 스위칭을 도입하여 기지국은 UE의 MIMO작동 모드를 원활하게 변경할 수 있다. 이중 코드북 구조를 적용하여 코드북에 따라 광역밴드와 long term 채널에 관여하거나 주파수 선택성 채널이나 short term채널을 담당하도록 하여 피드백 부하를 줄였다.
|
<h1>5. 공통평가기준을 통한 디지털 프린터 보안기능별 기반기술 시험 방법 개발</h1><p>본 장에서는 4장에서 도출한 시험항목을 바탕으로 공통평가기준에 따라 시험항목에 따른 시험목적을 도출한 후, 세부 시험방법에 대해 개발한다. 개발자가 제공하지 않는 기능에 대해서는 시험/평가 하지 않으며 제공하는 기능에 한해서 다음과 같은 시험이 이루어져야 한다.</p><h2>5.1 잔여정보 보호 기술</h2><p>완전삭제와 관련된 시험항목으로는 완전삭제를 수행하는 기능 리스트 생성, 저장매체 식별, 완전삭제 알고리즘 식별, 완전삭제 알고리즘 소스코드 확인, 포렌식 툴을 이용한 데이터 복구 여부 확인이 있다. 잔여정보 보호 기능시험의 전체 흐름도는 (그림 7)과 같다.</p><h3>5.1.1 완전삭제를 수행하는 기능 리스트 생성</h3><p>개발자가 제공하는 완전삭제 기능에 대해서 시험하기 위해서는 존재하는 기능 리스트를 생성해야 한다. 완전삭제 기능 리스트 생성을 시험하기 위한 시험목적과 시험절차는<표 11>과 같다.</p><h3>5.1.2 저장매체 식별</h3><p>디지털 프린터의 저장매체 식별 시험항목은<표 12>와 같다. 디지털 프린터의 저장매체로는 일반적으로 하드디스크와 플래시 메모리가 이용되고 있다.</p><h3>5.1.3 완전삭제 알고리즘 식별</h3><p>디지털 프린터 내에서 이루어지는 완전삭제가 어떠한 알고리즘을 이용하고 있는지 식별해야 한다. 완전삭제 알고리즘 식별 시험항목은<표 13>과 같다.</p><h3>5.1.4 완전삭제 알고리즘의 소스코드 확인</h3><p><표 14>에서 시험하는 소스코드 확인은 WhiteBox시험의 일종으로 정보보호제품 평가등급 중 EAL3까지는 수행하지 않아도 된다. EAL4를 요구하는 보안기능을 수행하는 디지털 프린터에서는 보안기능을 확인하는데 소스코드 확인이 필수적이다. 따라서 디지털 프린터의 소스코드 중에서 보안 기능에 해당하는 소스코드가 무엇이며 소스코드가 알고리즘에 맞게 설계되어 구현되었는지 명확히 확인해야 한다.</p><h3>5.1.5 포렌식 툴을 이용한 데이터 복구 여부 확인</h3><p>실제 완전삭제가 이루어지는지 포렌식 툴을 이용하여 시험하는 절차는<표 15>와 같다. 대표적인 포렌식 툴로는 Logicube, FinalData, WinHex, EnCase 등이 있다.</p><h2>5.2 보안인쇄 기술</h2><p>보안인쇄 기능 시험에 대한 전체 흐름도는 (그림 8)과 같다. 보안 인쇄 기술에 대한 시험항목은 보안인쇄를 수행하는 기능 리스트 생성, PIN에 대한 시험, 보안적용 대상에 대한 기밀성 확인, PIN의 길이나 입력횟수의 초과 시 차단여부 확인이 있다.</p><h3>5.2.1 보안인쇄를 수행하는 기능 리스트 생성</h3><p>개발자가 제공하는 보안인쇄 기능에 대해서 시험하기 위해서는 존재하는 기능 리스트를 생성해야 한다. 보안인쇄 기능 리스트 생성을 시험하기 위한 시험목적과 시험절차는<표 16>과 같다.</p><h3>5.2.2 PIN에 대한 시험</h3><p>PIN에 대한 시험목적과 시험절차로는<표 17>과 같다. 본 시험 시 명세서 및 설명서에서 서술하고 있는 지원 포맷을 확인해야 하며 지원 포맷 내에서 PIN을 입력하여 제대로 출력되는지 확인해야 한다. 또한 명세서 및 설명서에서 서술하고 있는 미지원 포맷으로 PIN을 입력하였을 경우 에러메시지 출력 여부를 확인해야 한다.</p><h3>5.2.3 보안 적용 대상에 대한 기밀성 시험</h3><p>보안 적용 대상에 대한 기밀성 시험과 관련된 시험목적과 시험절차는<표 18>,<표 19>,<표 20>에서 서술하고 있다.</p><p><표 18>과 관련된 시험 시 PIN이 암호화 되어 전송되는지 확인하여야 하며 암호화되어 있다면 암호화에 사용된 알고리즘의 적절성을 확인해야 한다. 또한 전송 과정 중 특정부분에서 암호화 시 사용된 키에 대한 정보가 노출되는지 확인해야 한다.</p><p><표 19>와 관련된 시험 시 PIN이 디지털 프린터 내에 저장되어 있는지 확인해야 하며 이 때, 암호화 되어 저장되는지 확인해야 한다. 또한 암호화에 사용된 알고리즘의 적절성을 확인해야 하며 특정 부분에서 암호화에 사용된 키가 노출되는지 확인해야 한다.</p><p><표 20>과 관련된 시험 시 보안문서가 디지털 프린터 내에 암호화되어 저장되는지 확인해야 하며 암호화에 사용된 알고리즘의 적절성을 확인해야 한다. 또한 특정 부분에서 보안문서를 암호화 하는데 사용된 키에 대한 정보가 노출되는지 확인해야 한다.</p><h3>5.2.4 PIN의 길이나 입력횟수의 초과 시 차단 여부 확인</h3><p><표 21>과 관련된 시험 시 명세서 및 설명서에서 서술하고 있는 PIN의 입력 범위를 확인해야 하며 입력 범위 내에서 PIN을 입력하여 제대로 출력되는지 확인해야 한다. 또한 명세서 및 설명서에서 서술하고 있는 입력범위를 벗어나는 PIN을 입력하였을 경우의 에러메시지 출력 여부를 확인해야 한다.</p><p><표 22>와 관련된 시험 시 명세서 및 설명서에서 서술하고 있는 PIN 입력 허용 횟수를 확인해야 하며 입력 허용 횟수 내에서 PIN을 입력하여 제대로 출력되는지 확인해야한다. 또한 PIN 입력 횟수가 명세서 및 설명서에서 서술하고 있는 허용 횟수를 넘어서는 경우의 에러메시지 출력 여부를 확인해야 한다.</p>
|
해당 논문에서는 공통평가기준에 따라 시험항목에 따른 시험목적을 도출한 후 세부 시험방법에 대해 개발하며 보안 인쇄 기술에 대한 시험항목을 면밀히 살펴본다. 또한 보안 적용 대상에 대한 기밀성 시험과 관련된 시험목적과 시험절차를 표를 활용하여 서술한다.
|
<h1>1. 서 론</h1><p>최근 컴퓨터 기술의 급속한 발전으로 인해 기존의 텍스트위주의 사용자 환경에서 벗어나 이미지, 그래픽, 오디오 및 비디오 데이터 등을 제공하는 멀티미디어 사용자 환경으로 변화하고 있다. 현재 대다수의 기업 및 공공기관에서는 업무의 효율성 증대와 경비 절감을 위해 프린터에 복사기, 스캐너, 팩시밀리 등의 기능을 통합하여, 인쇄/복사/스캔/팩스 외에도 대용량 문서 데이터 저장, 네트워크 통신 등의 기능을 갖춘 기기를 사용하고 있다. 이러한 기기는 디지털 프린터, 디지털 복합기, HCD(Hard-Copy Device), MFD(Multi-Function Device), MFP(Multi-Function Peripheral) 등으로 불린다. 본 논문에서는 이하 디지털 프린터로 통칭한다.</p><p>최근에는 산업기술 유출 방지를 위해서 디지털 프린터에 중요 데이터 유출 방지를 위한 보안기능을 구현하고 있다. 이러한 디지털 프린터는 하드디스크나 플래시 메모리 등의 저장장치와 인터넷 또는 전화 회선에 연결되는 통신장치가 내장되어 있는데, 이로 인하여 데이터에 대한 접근 권한이 없는 자가 특정 문서 파일 등을 출력하거나 팩스, 스캔할 때 저장되는 데이터가 유출되는 등의 보안 문제가 야기될 수 있다. 특히 보안에 민감한 파일이나 문서가 노출될 경우, 기업이나 국가에 큰 손실을 유발할 수 있기 때문에 저장되는 데이터를 암호화하거나 삭제하는 보안 기능 및 사용자에 대한 식별 및 인증, 접근제어 기능 등은 디지털 프린터 시장의 새로운 경쟁요소로 부각되고 있다.</p><p>이에 일본에서는 업체들을 중심으로 공통평가기준(CC, Common Criteria) 평가 인증이 활발히 진행되고 있으며, 미국에서는 정부에서 조달기준으로 디지털 프린터에 대한 CC 인증을 요구하고 있다. 또한 초기에 CC 인증을 경험한 주요 디지털 프린터 관련 업체들은 자체적으로 디지털 프린터에 대한 보호프로파일(PP, Protection Profile)을 개발하고 있다. 국내에서는 디지털 프린터 내의 하드디스크 데이터의 완전 삭제 기능에 대한 보안적합성 검증을 의무화하고 있다. 하지만 국가적으로 디지털 프린터에 대한 보안 인식은 아직도 미비한 상태이며, CC 인증 사례도 한 건이다. 국내에서 생산되는 디지털 프린터가 해외 수출 및 관련 업체들과의 경쟁에서 뒤처지지 않기 위해서는 CC 인증이 절실한 시점이지만, 디지털 프린터에 대한 인식과 평가 방법에 대한 지식이 부족하여 CC 평가를 준비하는 개발자 및 평가자가 어려움을 겪고 있다.</p><p>이에 추후 평가 수요가 급격하게 증가할 것으로 보이는 디지털 프린터의 보안기능 기반기술 시험방법 및 평가요소기술 확보를 위하여 본 논문에서는 2장에서 국내·외의 주요 디지털 프린터 업체 제품에 포함되어 있는 보안 기능 및 주요 업체들의 디지털 프린터 보안기능 개발 동향을 분석하고, 3장에서는 분석된 각 보안기능별 특성을 파악한다. 4장에서는 디지털 프린터 보안기능 평가 및 시험을 위한 시험항목을 도출하고 5장에서는 도출된 시험항목에 따른 시험/평가 가이드라인을 제시한다. 끝으로 6장에서는 결론을 맺는다.</p>
|
최근 디지털 프린터의 사용이 늘어나며 산업기술 유출 방지를 위해 디지털 프린터에 중요 데이터 유출 방지를 위한 보안기능을 구현하고 있다. 그러나 국내에서 생산되는 디지털 프린터는 보안 인식이 미비한 상태이며, CC 평가를 준비하는 개발자 및 평가자가 어려움을 겪고 있다. 본 논문에서는 디지털 프린터의 보안기능 기반기술 시험방법 및 평가요소 확보를 위한 내용을 담고 있다.
|
<h2>5.3 위조/복제 방지 기술</h2><p>디지털 워터마크를 활용한 위조 및 복제 방지 기술에 대한 시험항목은 위조/복제 방지를 수행하는 기능 리스트 생성, 워터마크의 실제 반응 확인, 워터마크를 통해 실제 주요 기능 차단확인, 그리고 워터마크 훼손 변조 시 동작여부 확인으로 구성될 수 있다. 위조/복제 방지 기술 시험을 위한 전체 흐름도는 (그림 9)와 같다.</p><h3>5.3.1 위조/복제 방지를 수행하는 기능 리스트 생성</h3><p>개발자가 제공하는 위조/복제 방지 기능에 대해서 시험하기 위해서는 존재하는 기능 리스트를 생성해야 한다. 위조/복제 방지 기능 리스트 생성을 시험하기 위한 시험목적과 시험절차는<표 23>과 같다.</p><h3>5.3.2 디지털 워터마크에 대한 디지털 프린터의 실제 반응 시험</h3><p><표 24>는 디지털 프린터에서 실제 워터마크가 출력되는지 확인하는 시험절차이다.</p><p>출력된 디지털 워터마크가 입력된 스트링 또는 이미지 파일과 일치하는지 확인하기 위하여 스트링의 경우 특수문자 및 기호에 대한 정상 출력여부를 시험해야 하며 제한된 스트링의 크기를 초과하여 입력 한 후, 에러 메시지 또는 정상출력 여부를 확인한다. 또한 다양한 폰트의 스트링에 대한 워터마크 출력 여부를 확인해야 하며 이미지 파일의 경우, 지원하는 이미지 포맷 및 미지원 이미지 포맷에 대해서도 정상출력 여부를 확인해야 한다. 제한된 이미지의 크기를 초과하여 입력한 후, 에러 메시지 또는 정상 출력 여부를 확인해야 한다.</p><h3>5.3.3 디지털 워터마크를 통해 실제 주요기능 차단 여부 확인</h3><p>디지털 워터마크가 인쇄된 문서에 대해 복사, 스캔, 출력, 팩스 전송 등의 기능이 차단되는지 여부를 확인하기 위한 시험방법은<표 25>와 같다.</p><h3>5.3.4 디지털 워터마크 훼손/변조 시 동작여부 확인</h3><p><표 26>과<표 27>은 디지털 워터마크 기술의 훼손/변조 시 동작여부를 시험하기 위한 시험목적과 시험절차이다.</p><p><표 26>과 관련된 시험 시 짧은 길이의 스트링 또는 특수문자 및 기호를 워터마크로 사용할 경우와 작은 크기의 이미지 파일을 워터마크로 사용해 본 경우에 대해서도 확인해야 한다.</p><p><표 27>과 관련된 시험 시 디지털 워터마크에 적용된 스트링 및 이미지 일부를 가리거나 싸인펜 등을 이용하여 인위적으로 변조한 경우에 대해서도 확인해야 한다. 또한 디지털 워터마크가 적용된 문서에 대해 위치를 변경하거나 비스듬하게 놓은 경우에 대해서도 확인해야 한다.</p><h2>5.4 출력 접근제어 기술</h2><p>사용자 인증을 사용한 출력 접근제어 기술에 대한 시험항목은 출력 접근제어를 수행하는 기능 리스트 생성, 사용자 별 접근제어 정책 확인, 인증 메커니즘, 인증서버 동작 시험과 인증. 메커니즘의 적합성 확인, 인증 서버의 간전성 확인으로 구성된다. 출력 접근제어 기술 시험을 위한 전체 흐름도는 (그림 10)과 같다.</p><h3>5.4.1 출력 접근제어를 수행하는 기능 리스트 생성</h3><p>개발자가 제공하는 출력 접근제어 기능에 대해서 시험하기 위해서는 존재하는 기능 리스트를 생성해야 한다. 출력 접근제어 기능 리스트 생성을 시험하기 위한 시험목적과 시험절차는<표 28>과 같다.</p><h3>5.4.2 사용자별 접근제어 정책 확인</h3><p><표 29>,<표 30>,<표 31>까지는 사용자별 접근제어 정책 확인을 위한 시험목적과 시험절차를 나타낸 것이다.</p><p><표 29>와 관련된 시험 시 관리자 및 사용자 계정 생성시 입력되는 정보를 확인해야 하며 관리자 모드에서 수행 가능한 작업과 사용자 모드에서 수행 가능한 작업을 확인해야 한다.</p><p><표 30>과 관련된 시험 시 평가자는 명세서와 설명서에 관리자 모드와 사용자 모드 인증 절차가 서술되어 있는지 확인해야 하며 각각 관리자 모드와 사용자 모드로 인증 시 입력되는 정보와 인증 절차가 서로 상이한지 확인해야 한다.</p><p><표 31>과 관련된 시험 시 사용자가 접근 가능한 기능과 관리자가 접근 가능한 기능을 구별하여 확인해야 한다.</p><h3>5.4.3 인증 메커니즘, 인증 서버 동작 시험</h3><p><표 32>부터<표 35>는 인증 메커니즘과 인증 서버가 올바르게 동작하는지 확인하기 위한 시험항목에 대한 시험 방법이다.</p><p><표 32>와 관련된 시험 시 연속 인증 실패 후 일정 기간 계정 잠금이 수행되는지 확인해야 하며 계정 잠금을 어느 기간까지 설정 가능한지 확인해야 한다. 또한 감사 기록을 바탕으로 연속 인증을 시도한 사용자에 대해 추적성을 제공하는지 확인해야 하며 관리자는 일정한 주기로 감사기록을 검토할 수 있는 기능이 있는지 확인해야 한다.</p><p><표 33>의 경우 사용자가 관리자에 의해 설정된 권한 이외의 모든 기능을 수행하여 작업이 이루어지는지 확인해야 하고 인증을 거친 사용자가 다른 사용자로 위장 가능한 지 확인해야 한다. 또한 인증 과정을 여러 번 수행할 경우 위와 같은 결과가 발생하는지 확인해야 한다.</p><p><표 34>의 경우 비정상적인 행동이 탐지된 후 이를 관리자에게 알리는지 확인해야 하며 해당 작업이 보류되고 관리자의 확인을 거쳐 수행되거나 해당 작업이 삭제되고 이를 통보하는지 확인해야 한다.</p><p><표 35>와 관련된 시험 시 인증 과정에서 이용하는 함수를 신뢰할 수 있는지 확인해야 하며 인증 정보가 함수를 몇 번 통과한 뒤 저장되는지 확인해야 한다.</p><h3>5.4.4 인증 메커니즘의 적합성 확인</h3><p><표 36>~<표 38>은 인증 메커니즘의 적합성 확인을 위한 시험목적과 시험절차를 나타낸 것이다.</p><p><표 36>과 관련된 시험 시 평가자는 인증 메커니즘에 사용되는 알고리즘을 확인해야 하며 취약성 조사 사이트에서 해당 알고리즘에 대한 취약점을 확인해야 한다. 또한 인증 실패 시, 인증서버 내에서 인증 시도 횟수를 감산하는지 확인해야 한다.</p><p><표 37>과 관련된 시험 시 인증에 사용되는 정보를 확인 해야 하며 인증 실패 메시지가 인증 실페에 대한 정보 외의 다른 추가 정보를 제공하는지 확인해야 한다. 또한 인증서버 내 인증 시도 횟수에 대한 설정 기능 존재 유무를 확인해야 한다.</p><p><표 38>과 관련된 시험 시 명세서 및 설명서에서 서술하고 있는 지원 가능한 인증정보 포맷을 확인해야 하며 사용자 인증 정책이 존재하는지 확인해야 한다. 또한 인증 시 사용되는 인증정보가 사용자의 정보를 바탕으로 생성하는지 확인해야 하며 시스템을 사용하는 모든 사용자가 서로 다른 인증정보를 사용하는지 확인해야 한다.</p><h3>5.4.5 인증서버의 안전성 확인</h3><p><표 39>~<표 41>은 인증서버의 안전성을 확인하기 위한 시험목적과 시험절차이다.</p><p><표 39>와 관련된 시험 시 평가자는 명세서 및 설명서에서 서술하는 인증 절차 외에 다른 방법의 인증이 가능한지 확인해야 하며 인증 시도 시 입력하는 사용자 정보와 인증 서버 내 저장되어 있는 사용자 정보를 확인해야 한다. 또한 인증 시도 전 암호 모듈 작동 여부를 확인해야 하며 재생 공격(Replay Attack)에 대한 방지 기능이 있는지 확인해야 한다.</p><p><표 40>과 관련된 시험 시 감사 기록 저장 공간이 부족할 때, 새로운 감사 기록을 기존의 가장 오래된 기록 위에 덮어쓰거나 이를 예방하기 위해 정기적인 백업 기능을 수행 하는지 확인해야 한다. 또한 저장 공간 부족을 예방하기 위해 설정된 용량 초과 시 이를 관리자에게 미리 알려주는 기능이 있는지 확인해야 한다.</p><p><표 41>과 관련된 시험 시 방화벽 또는 침입 탐지 시스템 메커니즘 방식을 확인해야 하며 부정상적 패킷을 탐지할 경우 대응 방안의 여부 및 로그 기록 생성 여부를 확인해야 한다.</p>
|
위조/복제 방지를 수행하는 기능 리스트 생성, 워터마크의 실제 반응 확인, 워터마크를 통해 실제 주요 기능 차단확인, 그리고 워터마크 훼손 변조 시 동작여부 확인으로 디지털 워터마크를 활용한 위조 및 복제 방지 기술에 대한 시험항목이 구성될 수 있다. 출력 접근제어를 수행하는 기능 리스트 생성, 사용자 별 접근제어에 대한 정책 확인, 인증 메커니즘, 인증서버 동작 시험과 인증, 메커니즘의 적합성 확인, 인증 서버의 간전성을 확인하는 것은 출력 접근제어 기술에 대한 시험항목으로 이루어진다.
|
<p>사용자의 현재 Top Sites 페이지의 구성 정보는 ‘TopSites. plist' 파일에서 확인할 수 있다. 각 'TopSiteTitle'/'TopSiteURLString' 태그에서 Top Sites에 등록되어 있는 웹 페이지의 타이틀과 전체 주소를 얻을 수 있다. Top Sites의 구성 정보는 즐겨찾기에 등록되어 있는 웹 페이지 중에서도 사용자가 빈번히 방문하는 웹 사이트는 무엇인지 알 수 있게 한다.</p> <p>평소 자주 즐겨 방문하는 웹 페이지에 대해서 사파리를 이용하는 사용자는 웹 브라우저에서 제공하는 북마크 기능을 활용하여 사이트를 등록할 수 있다. 사파리에 등록되어 있는 즐겨찻기 목록은 'Bookmarks.plist' 파일에 기록되어 있다. 'Bookmarks.plist'에 저장되어 있는 즐겨 찾기 목록에 기반하여, 평소 사용자가 자주 방문하는 사이트와 관심 사항이 무엇인지 알아 낼 수 있다. 'Bookmarks.plist'의 'title' 태그에는 사용자가 즐겨 찾는 사이트의 타이틀이 저장되어 있고, 'URLString' 태그에는 사이트의 전체 URL 주소를 가리키고 있다.</p> <p>'Downloads.plist' 파일에는 사용자가 웹 서핑을 하면서 인터넷 사이트에서 다운 받은 파일 목록이 기록되어 있다. 'Downloads.plist' 파일의 각 'DownloadEntryURL' 태그에서 사용자가 다운로드 받은 파일의 전체 URL 경로이며, 'DownloadEntryPath' 태는 저장되어 있는 정보는 다운받은 파일이 최종적으로 저장된 폴더가 어느 곳인지 가리키고 있다.</p> <p>'History.plist' 파일은 사용자가 방문한 웹 사이트 목록을 저장하고 있다. 'History.plist' 파일의 'display Title'/'LastVisitedDate' 태그는 사용자가 방문한 웹 사이트의 타이틀과 마지막으로 방문한 시간에 관한 정보, 웹 페이지의 전체 URL가 기록되어 있다.</p> <p>웹 페이지에 사용자가 마지막으로 방문한 시간 정보를 담고 있는 'LastVisitedDate' 태그에 저장되어 데이터는 Apple에서 정의한 double 형태의 'NSTimeInterval' 변수를 사용하고 있다. 'NSTimeInterval' 변수는 10,000년의 시간차 범위를 포함하는 sub-millisecond를 사용한다. 즉, 'LastVisitedDate' 태그에 저장되어 있는 값은 sub-millisecond 표현된 0년도부터 현재 연도까지의 시간차를 뜻한다. 마지막으로 방문한 시간 정보, Apple에서 제공하는 시간 관련 클래스 'NSCalendarDate'를 통해서 '연/월/일/시/분/초' 시간 표현 형태로 변환할 수 있다.</p> <h2>4.9 최근 원격 접속 서버와 사용 항목 및 폴더</h2> <p>사용자가 접속했던 외부 원격서버와 공유 디렉터리, 최근에 열람해 보았던 문서, 실행했던 프로그램에 정보는 최근 사용 항목/폴더 행태로 기록한다. 또한 Mac 운영체제의 기본 미디어 플레이어 프로그램인 퀵 타임 플레이어에서 재생된 파일, 문서 작성 도구인 Text Edit가 작성하던 파일 목록을 저장하고 있다. 최근 사용 항목/폴더 목록을 점검하여, 사용자가 가장 최근에 열람한 파일, 실행시켰던 항목, 외부 원격 서버에 대한 정보와 더불어 사용자가 재생시킨 파일, 작성하고 있었던 파일이 무엇이었는지를 확인할 수 있다.</p>
|
사파리의 'TopSites.plist', 'Bookmarks.plist', 'Downloads.plist' 및 'History.plist' 파일을 이용하면, 사용자가 자주 방문하는 웹 사이트, 다운로드한 파일 목록, 마지막으로 방문한 시간 정보 등을 확인할 수 있다. Apple에서 제공하는 'NSTimeInterval' 변수를 사용하여 sub-millisecond로 0년부터 현재까지의 시간차를 표현하고, 'NSCalendarDate' 클래스를 이용하여 연/월/일/시/분/초로 변환할 수 있다.
|
<p>기존의 연구를 바탕으로 좀 더 효율적인 Mac OS X 디지털 포렌식 분석을 위한 MacMarshal과 같은 Mac 운영체제 디지털 포렌식 분석 도구가 개발, 판매되고 있다. 그러나 앞서 제시된 Mac OS X 디지털 포렌식 분석 방법과 도구에서는 Mac OS X 시스템 상에서 분석해야 할 대상 선정에 있어 운영체제의 기초적인 사항만을 논하고 있어, 포렌식 분석 과정에서 필요한 사용자 행동을 파악하기 위해 필요한 중요 정보를 획득하는데 어려움이 있다. 또한 언급한 운영체제상의 중요 항목을 분석하기 위한 좀 더 구체적이고 자세한 기법연구가 부족하기 때문에 사용자 흔적 정보수집에 대한 효과적인 방안을 세울 수가 없다. 이에 본 논문에서는 Mac OS X 시스템 상의 사용자 행위를 유추 또는 역추적 할 수 있는 중요 사용자 행위 및 흔적 정보를 효과적으로 수집할 수 있는 방안을 제시하고자 한다.</p> <h1>3. Mac OS X 포렌식 분석을 위한 준비 단계</h1> <p>기존의 Windows/Linux 계열 디지덜 포렌식 조사시 활성 데이터 수집 및 여러 다양한 디지털 포렌식 분석에 앞서 지켜야할 사항과 준비과정에 관한 작업을 Mac 환경에서 수행할 경우 신속한 라이브 데이터 수집 및 기타 여러 분석에 방해를 줄 수 있으며, 중요한 디지털 증거의 무결성을 손상시킬 수 있다. Mac OS X 시스템의 원활한 데이터 수집과 디지털 증거의 무결성을 지키기 위해서는 Mac 운영체제의 포렌식 작업을 수행하는 분석가는 Windows/Linux 계열과는 다른 Mac 운영체제만의 특성을 파악하고 이해하고 있어야 한다.</p> <h2>3.1 장치 중재 데몬 시스템 (Disk Arbitration)</h2> <p>Mac OS X에서는 사용자 컴퓨터상에 새롭게 마운트, 언마운트가 이루어지는 저장장치나 미디어 관련 또는 파일시스템 상에서 변화되는 상황에 대해서 실시간으로 감시/제어하고 이에 대한 사항을 운영체제에 통보하기 위한 장치 중재 데몬이 있다. Mac OS X에서는 사용자가 일일이 직접 새로운 하드웨어나 저장장치를 추가하기 위해 마운트, 언 마운트를 실행해야 할 필요가 없이, 장치 중재 데몬에 의한 장치 관리가 자동으로 이루어진다. 포렌식 분석을 수행하기 위해 USB, CD와 같은 매체를 대상 컴퓨터에 장착시켰을 경우 장치 중재 데몬 시스템에 의해 지정된 파티션 지점에 장치가 마운트 된다. 이러한 장치의 변경 사항은 현재 운영체제에서 동작중인 모든 프로세스에 통보가 되고, 최종적으로 조사가 진행 중인 도중에 대상 하드 디스크 드라이브에 변화를 일으켜 버린다. 이러한 사항은 디지털 포렌식 분석에 있어서 최고 우선시 되고 있으며, 가장 중요한 사항인 증거의 무결성을 헤칠 수 있는 요소가 된다. Mac OS X에 대한 활성시스템 조사 및 하드 디스크 드라이브 이미지 복사를 수행하기 위해서는 조사대상 컴퓨터의 '/usr/ sbin/diskarbitrationd' 서비스를 중지시켜야 한다.</p>
|
Mac OS X 디지털 포렌식 분석을 위해 MacMarshal과 같은 도구가 개발, 판매되고 있으나, 사용자 행동을 파악하기 위한 중요 정보를 획득하기 어렵다. 본 논문에서는 Mac OS X 시스템 상의 사용자 행위를 파악하기 위한 정보를 효과적으로 수집하는 방법을 제시하고자 한다. 이를 위해서는 Mac 운영체제가 가지는 고유한 특성을 파악하고 있어야 하는데, 활성시스템을 조사하고 하드 디스크 드라이브 이미지 복사를 위해서는 컴퓨터의 '/usr/sbin/diskarbitrationd' 서비스를 중지시켜야 한다.
|
<h3>4.10.2 Yahoo Messenger</h3> <p>야후 메신저는 인터넷 포털 사이트 Yahoo에서 개발하여 사용자에게 제공하고 있는 인터넷 메신저 프로그램이다. 야후 메신저는 MS Windows, Mac OS X 환경에서 구동될 수 있도록 제작되었으며, 사용자는 야후 메신저를 통해 다른사람과 인터넷 메시지를 주고받을 수 있다.</p> <p>야후 메신저를 활용해 다른 사람과 대화를 나눈 사용자는 자신의 대화 내역을 저장할 수 있다. 'User/[User ID]/Library/Application Support/Yahoo! Messenger/Logs/[User ID]' 디렉터리의 .ychat 파일에서 메신저 사용자가 저장시킨 상대방과의 대화내역을 얻을 수 있다. .ychat 파일의 'NS.string' 태그에 상대방과 주고받은 대화기록이 저장되어 있으며, 대화상대와 메시지를 주고받은 시간에 관한 정보는 'NSTimeInterval'값으로 'NS.time' 태그에 저장되어 있다.</p> <h2>4.11 캐시 데이터</h2> <p>Mac OS X에서 구동되는 데몬과 프로그램은 'System/Library/Caches' 디렉터리의 하위 폴더에 자신만의 캐시 데이터 공간을 할당 받는다. 캐시 디렉터리에는 다양한 프로그램이 남긴 캐시 데이터들이 저장되어 있으며, 이러한 정보들은 중요한 디지털 증거로서 활용될 수 있다. 기본적으로 Mac OS X에서 지정한 SQLite 포맷으로 프로그램 자신의 다양한 캐시 정보를 기록하고 있으며, 각 프로그램마다 추가적으로 사용하는 특정 데이터 포맷으로 캐시 정보가 저장되어 있다.</p> <p>기본 SQLite 데이터베이스 포맷으로 저장되어 있는 캐시 데이터 가운데에서 위젯 캐시 파일은 현재 위젯에 등록되어 있는 프로그램이 접속했던 아이피 주소, 위젯 프로그램이 그동안 받아보고 있던 정보가 저장되어 있다. 사파리 웹 브라우저 캐시 파일에는 그동안 사용자가 방문했던 사이트에 대한 기록이 있다.</p> <h2>4.12 Virtual Memory (가상 메모리)</h2> <p>보다 효율적인 운영체제의 메모리 관리를 위해 Mac OS X는 가상 메모리 기법과 캐시 메모리 방식을 사용하고 있다. 가상 메모리 방식은 컴퓨터의 물리적인 RAM 영역의 공간이 부족한 상황이 발생할 경우, 운영체제 상에서 하드 디스크의 일부분을 실제 메모리 영역과 같이 Page In/Page Out 하여 활용하는 기법을 말한다. 운영체제에서 할당한 가상 메모리 영역은 '/var/vm/' 폴더의 'swapfile0' 이름을 가진 파일 형태로, 하드 디스크 상의 일부분에 할당되어 있다.</p> <p>가상 메모리 영역으로 사용되고 있는 '\var/vm/swapfile0' 파일에 보내진 RAM 메모리 데이터는 운영체제가 재부팅이 수행되는 과정에서도 사라지지 않고 남아있게 된다. 'swapfile0' 파일에서 운영체제를 사용했던 사용자가 본 문서의 문자열과 키보드를 타이핑 했던 정보, 이미지 파일과 사용자 ID/Password 정보와 같은 포렌식 분석에 있어 중요한 데이터를 추출할 수 있다.</p>
|
야후 메신저는 MS Windows, Mac OS X 환경에서 구동하며, 사용자는 이를 이용해 사람들과 인터넷 메시지를 주고받을 수 있다. 다양한 프로그램이 남긴 캐시 데이터들은 캐시 디렉터리에 저장되며, 중요한 디지털 증거로서 이 정보들을 활용할 수 있다. 가상 메모리 기법은 컴퓨터의 물리적인 RAM 영역 공간이 부족해지면 운영체제에서 하드 디스크 일부분을 실제 메모리 영역처럼 Page In/Page Out 하여 활용하는 방법이다.
|
<h1>1. 서 론</h1> <p>Mac OS X는 10.0 버전의 Cheetah를 시작으로 하여, 최근에는 Snow Leopard(1.6)가 개발되어 사용자에게 배포되고 있다. Mac OS 시스템은 Darwin 커닐 위에 OpenGL 기반의 그래픽 계층이 존재하머 상위에 Cocoa, Carbon과 같은 기술을 활용한 애플리케이션 계층과 Aqua GUI 환경을 제공한다.</p> <p>전통적으로 Mac 운영체제는 전자출판, 디자인, 멀티미디어 부문 등에서 높은 시장 점유율을 차지하고 있었다. 현재의 Mac 운영체제는 랩톱 컴퓨터 Mac Book, 데스크톱 컴퓨터 iMac을 비롯한 iPod, iPhone, iPad와 같은 휴대용 모바일 기기에 이르기까지 광범위하게 탑재되어 전 세계적으로 많은 사람들에 의해서 이용되고 있다. 기존의 전자출판, 디자인과 같은 미디어를 포함한 Mac OS에 대한 활용성이 일반 개인 사용자에게도 사용률이 점차 증가하고 있다.</p> <p>Mac OS X를 사용하는 일반 컴퓨터 사용자가 증가함에 따라 Mac OS X를 조사할 가능성이 높아지고 있다. 실제로, "The New York State Computer Crime Unit"의 자료에 의하면 전체 컴퓨터 범죄 수사 중에 만나게 되는 대상 시스템 중에 약 \(5\sim 10{\%} \)가 Mac OS X임을 확인할 수 있다. 그러나 최근까지 운영체제에 대한 포렌식 분석기법연구 등은 MS Windows 또는 Linux 계열의 OS 위주로 이루어져 왔다.</p> <p>기존의 MS 계열 운영체제 위주로 연구가 진행되어 오던 디지털 포렌식 분석 기법으로는 MS의 운영체제와는 전혀 다른 원리와 구조를 가진 Mac OS X를 조사하는 것은 어렵다. 본 논문에서는 Apple Mac OS X Leopard(10,5)와 최근에 출시된 Snow Leopard(10.6) 운영체제에서 중요 증거가 될 수 있는 사용자 흔적 정보 수집에 관한 방안을 제시한다.</p> <h1>2. 관련 연구</h1> <p>Mac 운영체제에 대한 디지털 포렌식 분석 기법 분석의 필요성이 요구되면서 기초적으로 Mac OS X를 분석하는데 있어서 사전에 준비해야 할 항목과 시스템에 대한 포렌식 절차와 기법에 관한 기초적인 사항에 대해서 Phlip Craiger가 서술했다. Phlip Craiger가 제시한 기본적인 Mac OS X 분석을 위해 필요한 준비사항과 절차를 바탕으로 Mac OS X 시스템에 대한 디지털 포렌식 분석에 있어 필요한 점검 사항과 분석대상으로 삼아야 할 시스템상의 중요 항목에 대해서 Robert A. Joyce, Nick Peelman이 언급했다. 이와 같은 Mac OS X포렌식 연구에서 Mac 운영 체제의 디지털 포렌식 분석을 위해서 필요한 검사항목과 조사해야 할 사항에 대해서 제시가 되었다.</p>
|
Mac OS X의 활용성이 개인 사용자에게 점차 인기를 얻고 있음에 따라, 디지털 포렌식 분석 기법에 대한 필요성이 증가하였다. 본문은 이에 따라 Mac OS X에 대한 디지털 포렌식 절차 및 기법을 탐색하는데 필요한 사전 준비 사항을 Phlip Craiger가 설명한 것에 대해 다룬다.
|
<p>'/User/[User ID]/Library/Preferences/loginwindow.plist' 파일은 Mac OS X에 등록된 사용자가 운영체제의 데스크톱 환경에 로그인 한 후 실행되는 프로그램 목록과 각 항목의 전체경로를 저장하고 있다. 프로그램 목록의 'AliasData' 태그에는 Base64로 인코딩 되어 있다.</p> <p>'/System/Library/LaunchAgents/', '/System/Library/LaunchDemons/' 디렉터리에는 Mac OS X가 부팅되면서 실행되는 각종 시스템 운영을 위해 필요한 서비스가 포함되어 있다. 운영체제에서 제공하는 기본 서비스 이외의 서비스를 'User/[User ID]/Library/LaunchAgents/ 디렉터리에 추가적으로 등록할 수 있다.</p> <p>각 'LaunchAgents', 'LaunchDemons' 디렉터리는 시작 프로그램과 관련된 정보를 담고 있는 .plist 파일을 저장하고 있다. 각 .plist 파일의 'Label' 태그는 현재 시스템에 등록되어 있는 시작 서비스 프로그램의 파일명이며, 'ProgramArguments' 태그는 실행파일이 가진 전체 디렉터리 경로를 가리키고 있다.</p> <h2>4.4 프로그램 사용 기록</h2> <p>Mac에서 구동되는 프로그램은 자신이 동작하는 동안에 발생한 여러 상황과 오류에 대해서 기록을 남긴다. 운영체제에서 실행되었던 프로그램의 구동 기록은 '/private/var/log 폴더의 system.log에 각 상황이 발생한 시간 정보와 프로그램 동작 중 발생한 사항이 저장된다.</p> <p>system.log 파일에서 특정 프로그램의 실행 여부와 동작한 시간, 동작 과정에 발생한 여러 다양한 상황에 관한 정보를 획득할 수 있다.</p> <h2>4.5 프린터 출력 정보</h2> <p>Mac 운영체제에서 제공하는 프린터 인쇄 기능(Common Unix Printing System)을 활용하여 자신이 원하고자 하는 문서 또는 이미지와 같은 파일을 출력할 수 있다. 기록되어 있는 프린터 인쇄 기록에서 사용자가 특정 문서를 언제 어떤 프린터 장치를 이용해서 무슨 파일명의 문서를 출력했는지를 알아낼 수 있다.</p> <p>파일 출력에 관한 기록은 '/private/var/spool/cups' 디렉터리에 출럭했던 문서별로 저장 되어있다. '/private/var/ spool/cups' 폴더에 저장되어 있는 프린터 출력 기록을 토대로 프린터 장치를 사용해 문서를 출력한 사용자의 ID, 출력한 파일의 이름, 인쇄 시각을 알아낼 수 있다.</p> <h2>4.6 외부 저장매체 사용내역</h2> <p>Mac 운영체제의 사용자는 자신의 iMac 데스크톱에 기본으로 장착되어 있는 하드 디스크 드라이브와는 별도로 외부 저장매체를 활용할 수 있다. Mac OS X는 사용자가 추가한 외부 저장매체에 대한 포맷, 마운트, 언 마운트, CD/DVD 데이터 복사 등의 여러 기능을 제공하고 있다.</p> <p>현재 iMac 데스크톱에 어떠한 형태의 저장매체가 부착되었는가와 해당 매체에 대해서 마운트/언 마운트 행위부터 포맷, 파티션 생성에 관한 작업 기록을 파악해야 한다. 이러한 정보를 바탕으로 사용자의 iMac 데스크톱에 부착되어 있는 하드 디스크 드라이브 이외에 사건과 관련된 중요한 디지털 증거가 저장되어 있을 수 있는 외부 저장매체가 무엇인지 알아낼 수 있다.</p>
|
'Mac OS X'의 사용자 로그인 이후 실행되는 프로그램 목록과 그 경로는 '/User/[User ID]/Library/Preferences/loginwindow. plist'에 저장됨. 프로그램의 작동 기록은 '/private/var/log 폴더의 system. log'에, 파일 출력 기록은 '/private/var/spool/cups' 디렉터리에 저장됨. 이 정보를 활용하여 iMac 데스크톱의 외부 저장매체에서 중요한 디지털 증거를 찾아낼 수 있음.
|
<h2>3.2 Property List</h2> <p>Apple 계열의 운영체제는 시스템 운영에 필요한 설정, 관련 옵션, 프로그램/서비스 로그, 파일 속성 정보와 같은 다양한 데이터를 Property List 파일에 저장한다. Property List 파일은 다양한 형태의 정보를 객체화 시켜 저장하고 있는 직렬화 파일로서 확장자명을 .plist를 사용한다. .plist파일은 Apple에서 자체적으로 정의한 DTD(Document Type Declaration)를 사용하는 XML (Extensible Markup Language) 포맷을 기반으로 하고 있다. Mac OS X에서 동작하는 어플리케이션은 .plist 파일에 XML형태의 Foundation class/Core Foundation Type을 활용하여, 새롭게 데이터를 추가하거나 수정/삭제한다. 각 class, type에서 지정한 XML 태그와 저장되어 있는 데이터의 형태는<표 1>과 같다.</p> <h2>3.3 기본 디렉터리 구조</h2> <p>초기 Mac 운영체제는 Unix 기반으로 하였기 때문에, 동일한 디렉터리 구조와 파일명을 그대로 사용하는 경우도 있으나, 최근 배포되고 있는 Mac OS X의 경우에는 Unix 운영체제와 다른 디렉터리 구조를 가지고 있다. 시스템을 운영하기 위해 필요한 설정파일과 시스템이 기본적으로 기록하는 로그파일은/Library 폴더에 기록이 된다. 각 어플리케이션이 사용하는 각종 설정과 옵션이 기록된 파일과 로그는 /Users/[User ID]/Library 폴더에 저장되어 있다.</p> <p>시스템은 별다른 옵션을 주지 않는 이상 새롭게 추가되는 각 사용자가 이용하게 될 디렉터리를/Users의 하위 폴더에 생성한다. 운영체제에 등록된 사용자와 그룹에게 할당되어 있는 디렉터리와 쉘, 유저 아이콘에 대한 정보는/private/var/db/dslocal/nodes/Default 폴더(<표 2>)에 기록된다.</p> <h2>3.4 운영 체제 버전</h2> <p>Mac OS X 시리즈의 운영체제는 각 버전마다 가지고 있는 OS의 특성에 따라 파일과 위치가 서로 제각각 이다. 이러한 운영체제 버전 상의 차이점에도 독립적인 포렌식 작업을 수행하기 위해서는 현재 iMac 데스크 탑 컴퓨터에 설치되어 있는 Mac 운영체제의 버전을 알아낸 후, 그에 해당하는 Mac OS X의 버전에 알맞은 적합한 포렌식 분석 기법을 선정해야 한다.</p> <p>'/System/Library/CoreServices' 폴더에 속해 있는 'System-Version.plist' 파일(그림 2)은 현재 사용자 컴퓨터에 인스톨되어 있는 Mac OS X의 메이저 버전과 좀 더 자세한 운영체제의 빌드 버전에 관한 정보를 담고 있다.</p> <h1>4. Mac OS X 운영체제의 사용자 흔적 정보 수집 방안</h1> <h2>4.1 컴퓨터 부팅/종료 및 사용자 로그인 시각</h2> <p>컴퓨터의 부팅/종료 시각은 실질적으로 사용자가 보유한 iMac 데스크톱이 사용되었던 시간대를 알려주는 중요 데이터다. iMac 데스크톱이 시작해서 종료된 시간정보를 바탕으로 특정 시각에 컴퓨터의 구동 여부에 대해서 판단할 수 있다. Mac 운영체제가 설치되어 있는 컴퓨터의 부팅/종료/사용자 로그인 시각은 '/private/var/log/ 폴더의 secure.log에 기록되어 있다.</p>
|
Apple 계열의 운영체제는 다양한 데이터를 Property List 파일에 XML 포맷의 Foundation class/Core Foundation Type으로 저장하고, Mac OS X에서 동작하는 어플리케이션은 .plist 파일에 새롭게 데이터를 추가하거나 수정/삭제한다. /Library 폴더에는 시스템을 운영에 필요한 설정파일과 로그파일이 저장되고, /Users/[User ID]/Library 폴더에는 각 어플리케이션이 사용하는 각종 설정과 로그가 저장된다. 현재 사용자 컴퓨터에 설치된 Mac OS X의 버전 정보는 System-Version.plist파일에 저장한다.
|
<p>최근 사용 항목은 크게 2가지 카테고리로 분류된다. 하나는 각종 실행 파일을 포함하는 응용프로그램 카테고리이며, 또 하나는 일반 문서에서부터 이미지 동영상 등 다양한 포맷 형태의 파일을 포함하는 도큐먼트 카테고리이다. 사용자가 최근에 실행시키거나 열람해본 응용프로그램/도큐먼트 카테고리의 다양한 파일 항목에 관한 정보는 'com.apple.recentitems.plist' 파일에서 얻을 수 있다.</p> <p>'com.apple.recentitems.plist'의 'Name' 태그에는 최근 열어본 각 퐈일 항목의 파일명이 저장되어 있으며, 'Alias' 태그는 파일 항목의 전체 경로를 가리키고 있는 문자열 값을 Base64로 인코딩 하여 저장하고 있다.</p> <p>최근 사용 폴더는 기본적으로 사용자가 최근에 열람해 본 폴더를 기록하고 있으며, 추가적으로 컴퓨터에 연결한 외부 저장장치의 폴더 정보와 사용자가 등록한 NetBIOS/FTP와 같은 원격 공유 폴더의 경로를 포함하고 있다. 이런 식으로, 사용자가 최근에 열어본 폴더 또는 컴퓨터에 연결한 CD 드라이브/USB를 장치를 비롯한 외부 원격 공유 폴더에 관한 정보는 'com.apple.finder.plist' 파일에서 얻을 수 있다.</p> <p>'com.apple.finder.plist'의 'Name' 태그에는 최근 사용자가 열람한 운영체제의 폴더를 비롯한 원격공유폴더/외부저장장치 디렉터리 폴더명이 기록되어 있으며, '_CFURLAliasData' 태그는 사용자가 열어본 디렉터리의 전체 경로를 가리키고 있는 문자열 값을 Base64로 인코딩 하여 저장하고 있다.</p> <p>'com.apple.quicktimeplayer.plist'에서 퀵타임 플레이어를 통해 재생시킨 각종 미디어 파일의 목록을 얻을 수 있다. 'dataRef' 태그는 최근 사용자가 시청한 음악파일과 동영상 파일의 전체 경로가 Base64 형태로 기록되어 있으며, 'name' 태그는 직접적으로 사용자가 재생시킨 파일명이 저장되어 있다.</p> <p>'com.apple.TextEdit.LSSharedFileList.plist'에는 사용자가 Text Edit 프로그램을 사용하여 문석 작업을 했던 문서 파일 목록을 기록되어 있다. 'Bookmark' 태그에는 최근 사용자가 새로 작성했거나 기존에 존재하던 문서 파일에 대한 전체 경로를 Base64 형태로 저장하고 있으며, 'Name' 태그에는 문서 파일의 실질적인 파일명이 적혀 있다.</p> <h2>4.10 인터넷 메신저 정보</h2> <h3>4.10.1 iChat Messenger</h3> <p>다른 사람과 인터넷 메시지를 주고받을 수 있는 클라이언트 프로그램으로서 Mac OS는 기본적으로 사용자에게 iChat 메신저 프로그램을 제공하고 있다. User는 iChat 프로그램을 활용하여 AIM, Jabber의 메신저 클라이언트로서 사용할 수 있다.</p> <p>iChat을 통해 다른 사람과 대화를 나눈 사용자가 자신이 상대방과 주고받은 메시지를 저장 했을 경우, 대화내역은 '/User/[User ID]/Documents/' 폴더의 '.ichat' 파일에 저장된다. .ichat 파일의 'NS.string' 태그에 저장되어 있는 값으로 부터 상대방과 주고받은 메시지를 확인할 수 있다. 상대방과 메시지를 주고받은 시간에 관한 정보는 NSTimeInterval 값으로 'NS.time' 태그에 저장되어 있다.</p>
|
Mac OS는 기본적으로 사용자에게 iChat 메신저 프로그램을 제공하고, AIM, Jabber 등의 메신저 클라이언트로 사용할 수 있다. 사용자가 최근 사용한 응용프로그램 도큐먼트, 폴더, 미디어 파일 등의 정보는 com apple recentitems plist 이 있고, iChat을 통해 저정하면 /User/[User ID]/Documents/ 폴더 내 ichat 파일에 저장이 된다.
|
<p>사용자에 의해 외부 저장 드라이브, USB 그 밖의 미디어 매체에 수행한 마운트, 언 마운트, 포맷 그리고 CD/DVD 데이터 복사 등과 관련된 작업을 '/Users/reaper91/Library/Logs/' 폴더의 'DiskUtility.log', 'DiscRecording.log' 파일에 기록한다.</p> <p>'DiskUtility.log', 'DiscRecording.log' 기록되어 있는 로그 목록에서 운영체제에 등록된 사용자가 최근에 저장매체에 수행한 다양한 작업에 관한 것을 알아 낼 수 있다. 로그 파일에 저장되어 있는 데이터를 바탕으로 외부 저장장치의 장착 여부를 알 수 있다. 또한 CD 생성 작업 역시 알 수 있다.</p> <h2>4.7 E-Mail</h2> <p>E-Mail 메시지는 사용자가 용의자로 의심할 수 있는 다른 사람과 교환한 범죄 관련 중요 데이터를 포함 함고 있을 수 있다. Mac OS X에서 사용자에게 기본으로 제공하는 E-Mail 클라이언트 프로그램에서 사용자가 그동안 다른 사용자와 주고받은 메일을 획득할 수 있다.</p> <p>Mac 운영체제의 E-Mail 클라이언트 프로그램에서 수신한 메일은 각 계정 별로 '/Users/[User ID]/Library/Mail/[계정명]/INBOX.mbox/Messages/' 폴더에 수신된 메일별로 저장되며, 메일 데이터는 emlx 포맷 구조로 이루어져 있다. emlx 포맷 구조의 이메일은 보낸 시간에 관한 정보가 저장되어 있으며, From 항목에서 이메일을 보낸 대상서버와 사용자 계정에 관한 정보를 알아낼 수 있다. To 항목에서 메일을 받아본 사람이 누구인지 확인할 수 있으며, 실제 메일 내용은 Base64로 인코딩 되어 있다.</p> <h2>4.8 웹 브라우저 사용 내역</h2> <p>Safari는 처음 Mac 운영체제를 설치하면 기본으로 제공되는 웹 브라우저 프로그램이다. 사용자는 웹 브라우저를 활용하여 다양한 웹 사이트에서 정보를 알아낼 수 있으며, 임의의 데이터를 받아볼 수 있다. Mac 운영체제 상에서 Safari를 활용하여 임의의 여러 웹 사이트를 방문한 사용자의 최근 웹 사이트 방문내역, 다운로드 받은 파일과, 즐겨찾기 목록을 확인해야 한다. 접속한 웹 페이지에서 볼 수 있는 정보와 평소 자주 방문하는 사이트에 대한 즐겨찾기 목록에서 사용자가 사이트에 자주 접속하여 알아보고자 했던 중요 데이터를 획득할 수 있다.</p> <p>운영체제에 등록된 각 사용자의 사파리 웹 브라우저 사용내역은 '/Users/[User ID]/Library/Safari/' 디렉터리에 저장되어 있는 .plist 파일(<표 4>)에서 확인할 수 있다. 각 .plist 파일에서 최근에 방문한 사이트 목록, 사용자의 즐겨찾기 목록과 최근 다운로드 받은 파일목록에 관한 정보를 얻을 수 있다.</p> <p>사파리 웹 브라우저는 사용자가 자주 방문하는 웹 페이지를 즐겨찾기 이외에 별도로 Top Sites에 등록할 수 있다. Top Sites는 웹 브라우저의 새 윈도우 생성/새 탭을 생성 하게될 경우 나타나게 되는 기본 페이지로서, 사용자는 Top Sites에 등록되어 있는 사이트를 접속할 수 있다.</p>
|
'DiskUtility. log', 'DiscRecording. log'의 로그 목록을 통해 Mac 운영체제에서 사용자가 최근에 저장 매체에서 수행한 작업에 대한 정보를 파악할 수 있다. 이러한 사용자의 E-Mail 클라이언트 프로그램은 수신 메일을 '/Users/[User ID]/Library/Mail/[계정명]/INBOX. mbox/Messages/' 경로에 메일 당 한 개씩 emlx 형식으로 저장한다. 또한, 사용자의 사파리 웹 브라우저 사용 기록은 '/Users/[User ID]/Library/Safari/' 디렉터리에 있는 .plist 파일에서 확인할 수 있다.
|
<p>secure.log 파일에 운영체제가 부팅되면서 제일 먼저 시작하는 com.apple.SecurityServer 서비스가 구동된 시간정보로부터 컴퓨터의 전원이 켜진 시각(그림 3)을 확인할 수 있으며, 특정 사용자에 의해 컴퓨터가 종료된 시간정보(그림 4)는 secure.log에 기록되어 있는 shutdown 작업이 시작된 시각으로 부터 얻을 수 있다.</p> <p>사용자가 컴퓨터에 접근한 로그인 시각은 2가지 형태로 나뉘어 기록된다. 로컬에서 로그인하여 거치는 인증방식은 SecurityAgent에 의해 이루어지며, 원격 사용자에 의한 접근은 telnet, ssh 등의 프로토콜에 의해 처리된다. 해당 서비스의 사용자 인증 기록을 secure.log에서 확인함으로써 로그인 시각을 알 수 있다.</p> <h2>4.2 하드 디스크 드라이브/네트워크 상태 정보</h2> <p>iMac 데스크톱은 기본적으로 하나의 단일 하드 디스크 드라이브와 유무선 네트워크 장비 그리고 블루투스와 FireWire와 같은 통신 장비를 탑재하고 있다. 사용자는 데스크톱에 새롭게 하드 디스크 드라이브를 추가/ 교체하고 자신만의 파티션으로 나누어 사용할 수 있으며, iMac의 네트워크 장비에 의해 인터넷 사용을 비롯한 각종 네트워크 통신 작업을 수행할 수 있다.</p> <p>컴퓨터에 부착되어 있는 하드 디스크 드라이브와 네트워크 장비에 대한 사용기록은 '/private/var/log/' 폴더의 daily.out/weekly.out 각 파일에 하루/일주일 단위로 나뉘어 저장된다. 'daily.out/weekly.out' 파일에서 사용자가 지정한 파티션으로 마운트 했던 하드 디스크 드라이브와 네트워크 장비의 활성화 상태, 할당한 MAC/IP 주소에 대한 변경 내역을 확인할 수 있다.</p> <p>이러한 정보를 기반으로 하드 디스크 드라이브의 파티션을 변경하거나 새롭게 추가했었던 사항과 전체크기, 사용량 변화, 네트워크 장비를 교체한 행위, 할당된 MAC/IP 주소의 변화를 추적할 수 있다.</p> <h2>4.3 자동 실행 프로그램</h2> <p>운영체제가 사용하는 프로세스를 제외하고 Mac OS 시스템의 사용자는 자신만의 프로세스 또는 어플리케이션을 별도로 시작 프로세스와 데몬으로 추가할 수 있다. 시스템에 등록된 사용자가 추가시킨 프로세스에는 특정 시스템으로의 자동 연결 기능 또는 악의적인 의도로 제작된 어플리케이션이나 스크립트 등이 있는데, Mac OS X 운영체제가 부팅해서 가동되기 시작하면서 부터 실행되는 프로세스와 데몬에 관한 정보는<표 3>과 같이 총 6곳의 파일과 디렉터리에 포함되어 있다. 시스템의 시작 프로그램에 관한 정보를 얻을 수 있다.</p> <p>'/System/Library/StartupItems/', '/Library/StartupItems/' 디렉터리에는 Mac OS X의 부팅이 이루어지고 사용자 로그인이 완료된 후에 실행이 되는 파일이 포함되어 있다.</p> <p>각 폴더는 실행되어야 할 프로그램의 실제 실행 파일과 'StartupPrameters.plist'라는 이름을 가진 파일을 포함하고 있다. 각 실행 프로그램명의 폴더에 속한 'StartupPrameters.plist' 파일에는 시작 프로그램의 초기 설정 또는 옵션을 지정하는 여러 가지 인자 값이 담겨있다.</p>
|
사용자가 컴퓨터에 접근한 로그인 시각은 2가지 형태로 나뉘어 기록되는데, 로컬에서 로그인하여 거치는 인증방식은 SecurityAgent로, 원격 사용자에 의한 접근은 프로토콜에 의해 처리된다. HDD와 네트워크 장비에 대한 사용기록은 특정 파일에 일정 단위로 저장된다. 사용자로 인해 추가된 프로세스에는 특정 시스템에 자동으로 연결해주는 기능이나 나쁜 의도로 제작된 어플리케이션, 스크립트 등이 있는데, Mac OS X 운영체제가 부팅해서 가동되기 시작하면서 부터 실행되는 프로세스와 데몬에 관한 정보는<표 3>과 같이 총 6곳의 파일과 디렉터리에 포함되어 있다.
|
<h1>패치 기반 대기강도 추정 알고리즘의 하드웨어 설계</h1> <h2>요약</h2> <h3>Ⅰ. 서론</h3> <p>영상처리 기술은 우리가 사용하는 기기 및 실생활에 널리 이용되며, 그 중에서 안개 제거 분야는 4차 산업의 핵심 기술인 자율주행 및 지능형 \( \mathrm { CCTV } \) 등 컴표터 비전에 기반한 기술에 중요한 역할을 담당한다. 안개 제거 기술은 10 년 동안 영상신호처리 분야에서 활발허 연구되어 왔으며, 최근에는 머신러닝 및 덥러넝 기술을 통한 안개 제거 기술도 활발히 연구되고 있다. 이러한 안개 제거 기술에서 특히 대기강도 추정 방법이 중요하다. 대표적인 대기강도 추정 방법으로는 \( \mathrm { He } \) 의 \( \mathrm { DCP } ( \mathrm { DarkChannel Prior } \)) 방법을 예로 들 수 있다. DCP방법은 안개가 없는 부분의 픽셀값들은 RGB 3 채널 중에서 적어도 한 채널의 명도 값이 매우 낮은 경향을 보이는데 입각한 기술로써, 대기강도 추정 시 입력 영상의 밝기 값 중 상위 \( 0.1 \% \) 안의 픽셀을 추정한다. 이러한 DCP 방법은 실내 영상에서의 안개 제거는 효과적이지만, 하늘 지역을 포함한 실외영상에서는 안개 제거 시 어두워지는 단점이 있다. 실내 영상의 경우 안개특성이 일관적이지만, 실외 영상의 경우 자연적인 영향 때문에 여러 가지 안개특성을 지닌다. DCP 방 법에서 \( 0.1 \% \) 의 상수 값은 실외의 여러 가지 안개 조건을 적응적으로 감지할 수 없기 때문에 안개 제거에 한계가 있다. 다음으로 널리 사용되는 방법으로는 Kim이 제안한 쿼드트리(Quad Tree)에 기반한 대기 강도 추정 방식이다. 쿼드트리 방법은 입력 영상을 네 개의 블록으로 분할하고, 각 블록의 푁셀의 밝기 평균값을 계산하여 대소비교 후 가장 큰 밝기 평균값의 블록을 선택한다. 선택된 블록을 다시 네 개로 분할하여 미리 실정한 임계값까지 연산을 반복한다. 쿼드트리 방식은 여러 가지 입력 영상에 따라 적응적으로 안개 탐지를 할 수 있다는 장점이 있다. 하지만 네 개의 분할된 평균값을 저장하기 위해 프레임 메 모리를 사용해야하는 점에서 하드웨어 설계로는 적합하지 않고, 카메라로 촬영되는 안개 영상들은 대부분 영상 상단에 안개가 포착된다는 점에서 불필요하게 영상의 하단까지 연산할 경우 연산량이 많아지는 단점이 발생한다.</p> <p>본 논문에서는 단일 영상 안개 제거를 위한 패치기반 대기강도 추정 하드웨어용 알고리즘 개발과 국제 표준 \( 4 \mathrm { ~K } (4096 \times 2160) \) 영상에 실시간 대응할 수 있는 하드웨어 실계를 구현하며, 카메라 특성에 따라 안개가 포착되는 영상 상단만 연산하여 대기 강도를 추정함으로써 하드웨어 크기를 줄인 구조를 제안한다</p>
|
본 논문에서는 안개 제거 기술의 핵심 기술인 대기강도 추정 방법인 DCP 방법과 Kim이 제안한 쿼드트리 방법의 한계를 극복하기 위해, 패치 기반 대기강도 추정 알고리즘의 하드웨어 설계를 구현하여 국제 표준 4K 영상에 실시간 대응할 수 있는 하드웨어 실계를 제안하고 있다. 또한 카메라 특성에 따라 안개가 포착되는 영상 상단만 연산하여 대기 강도를 추정함으로써 하드웨어 크기를 줄인 구조를 제안하고 있다.
|
<p>본 논문의 구성은 다음과 같다. 팡에서는 패치기반의 대기 강포 추성 알고리즘에 대해 설명하고, 국제 표준 \( 4 \mathrm { ~K } \) 영상에 대응할 수 있는 하드웨어 구조와 \( \mathrm { FPGA } \) 구현을 위한 XILINX 합성 결과를 제시한다. 마지막으로 Ⅲ장에서는 제안하는 방법의 결론에 대해 서술하여 본 논문을 마무리한다.</p> <h2>Ⅱ. 본론</h2> <p>대부분의 안개 제거 방법들은 대부분의 안개 제거 방법들은 수식 1 과 같이 안개 제거 모델링에 기반한다.</p> <p>\( I(x, y) = J(x, y) t(x, y) + A(1-t(x, y)) \)<caption>(1)</caption></p> <p>\( \mathrm { I } \) 는 입력영상, \( \mathrm { t } \) 는 전달량, \( \mathrm { x } \) 와 \( \mathrm { y } \) 는 영상 내의 \( \mathrm { x } \)축, \( \mathrm { y } \) 축을 나타내고, \( \mathrm { A } \) 는 대기강포, \( \mathrm { J } \) 는 안개가 제거된 결과 영상이다. 본 논문에서는 안개 제거를 위해 \( \mathrm { A } \) (대기강도)를 추정하는 방법을 제시한다.</p> <h3>1. 패치 기반 대기강도 추정 알고리즘</h3> <p>그림 1은 제안하는 방법의 블록도이다. 먼저 입력영상에 패치를 적용하기 전에 패치에 관련된 파라미터들을 설정한다. 패치의 파라미터로는 패치의 가로(p_width), 세로(p_height) 길이와 \( \mathrm { x } \) 축, \( \mathrm { y } \) 축의 패치간 거리(x_jump, \( \mathrm { y } _ {\text { jump } } \) ), 패치의 시작점(x,y) 등이 있다. 패치의 가로는 \( 32,64,128,256 \) 세로는 \( 16,32,64,128 \) 로 2 의 승수로 구성되며, 입력 영상에 크기에 따라 사용자가 직접 설정할 수 있다. 파라미터가 설정되면 수식2, 3에 따라 패치의 개수가 정해진다. \( \mathrm { n } \) 은 패치의 개수, \( \mathrm { k } \) 는 행의 개수이다.</p> <p>\( x + p_ { - } \)width * \( n + x_ { - } j u m p ^ { * } (n-1) \leq \) width</p>
|
다수의 안개 제거 방법은 안개 제거 모델링에 수식 1을 바탕으로 한다. 이때 패치의 파라미터는 가로와 세로의 길이, \( \mathrm { x } \) 축과 \( \mathrm { y } \) 축의 패치간 거리, 그리고 패치의 시작점 등이 포함된다. 그리고 이러한 값들은 주어진 수식을 만족해야 한다.
|
<p>따라서 향후에는 IT비용의 투자 대비 효과 극대화를 위해 준비기간을 단축시키는 방안을 모색하는 것도 매우 중요한 신차세대시스템 구축의 기본 목표가 될 것으로 유추해 볼 수 잇다.</p> <p>둘째, 우리나라 코어벵킹 모델(솔루션)의 라이프사이클은 약 \(11 \) 년의 주기를 갖고 있다.</p> <p>코어뱅킹 모델의 라이프사이클은 현재까지의 수명기간 \(9.4 \)년과 향후 지속예상 기간 \(5.4 \)년을 합한 \(14.8 \)년으로 추정되었다. 또한 이미 소멸된 모델들의 라이프사이클과도 일치함을 알 수가 있다.</p> <p>그러나 현재 적용중인 모델 \(10 \)개중 장기간 적왕중인 \( \mathrm { A } \), \( \mathrm { B } \) 군의 모델 \(3 \)개를 제외한 \(7 \)개 모델의 라이프사이클은 현재까지 적용기간 \(5.6 \) 년과 향후 지속예상 기간 \(6 \) 년을 합한 \(11.6 \) 년으로 추정되었다. 이러한 결과는 우리나라 금융 IT 시스템의 라이프사이클 \(10 \) 년과 거의 일치한다고 볼 수가 있다.</p> <p>금용IT 시스템과 코어뱅킹 모델의 라이프사이클은 반드시 일치해야 할 필요는 없다. 왜냐하면 금용 IT 시스템의 라이프사이클 추정치는 개별 금융회사들이 운영하는 IT 시스템의 라이프사이클 자료로 분석한 것이 아니기 때문이다. 그럼에도 불구하고 라이프사이클 기간이 개략적으로 일치하는 것은 우리나라 금융회사들은 IT시스템 게편작업시 코어뱅킹 모델까지도 전면 개편하는 빅뱅방식을 주로 채텐하고 있음을 반증한다.</p> <p>셋째, 코어벵킹 모델 제조회사의 지속적인 성능향상과 신기능 확대 노력이 라이프사이클을 연장시키고 금융기관의 신뢰를 확보하였다.</p> <p>아시아, 유럽 은행에서 다수 적용되고 있던 BANCS 모델은 다양한 은행들로부터 얻어진 공통적인 표준 기능을 파라미터 드리븐 방식의 테이블로 함축시킨 패키지를 확보하였으며, 이후에도 더욱 강력한 우월성을 확보하기 위한 노력을 지속적으로 수행하였다. 특히 우리나라의 경우 BANCS 모델 적용 은행들이 모두 피합병되어 적용 사례가 없는 상황에서도 약 \(5년 동안 끈질긴 노력을 통해 재기할 수 있었다는 사실 등은 우리나라 개발업체와 관계자들이 타산지석으로 삼아야 한다.</p>\)<p>넷째, 코어벵킹 모델의 선정은 객관적인 벤치마킹 과정을 통해 진행되어야 한다.</p> <p>향후 진행둴 차기 IT시스템의 코어뱅킹 모델의 발전 기저를 제시하기 위한 수단으로 BANCS 모델의 장기간 라이프사이클 지속 요인을 추적하였다.</p> <p>과거 대부분 은행들이 사용하던 IBM Mainframe에서 적용되었던 모델은 일본 BM이 일본의 득정은행과 함께 공동 개발했던 CAP이라는 모델이다. 이후 \(1993 \)년 IBM 아시아 태평양지역 본부에서 당시에 여러 나라에서 사용하던 \(7 \)개의 주요 모델들을 대상으로 벤치마킹을 실시하고, \(18 \) 개 항목에 대한 평가결과 BANCS가 가장 우수한 모델로 선정되었고 이의 결과를 재검증하기 위해 당시 Ernst & Young 컨설팅 회사에 구체직인 분석작업 컨설팅을 의뢰하는 평가과정이 진행되었다.</p>
|
둘째, 한국의 코어뱅킹 모델의 라이프사이클은 약 11년 주기를 갖고 있음에도 불구하고 라이프사이클 기간이 일치하는 것은 금융회사들의 IT시스템 개편작업시 빅뱅방식을 채택하기 때문이다. 셋째, 코어뱅킹 모델 제조회사의 성능향상과 신기능 확대 노력이 라이프사이클을 연장시키고 금융기관의 신뢰를 확보하였다. 넷째, 코어뱅킹 모델 선정은 객관적인 벤치마킹 과정을 통해 진행되어야 하는데, 차기 IT시스템의 코어뱅킹 모델의 발전 기저를 제시하기 위해 BANCS 모델의 장기간 라이프사이클 지속 요인을 추적하였다.
|
<p>지금까지 우리나라에 적용된 코어뱅킹 모델 10 개의 라이프사이클을 \( \mathrm { A } , \mathrm { B } , \mathrm { C } \) 간 군별 가중치를 감안하여 분석해 본 결과 \(14.8 \)년으로 추정되었다. 이는 도입기부터 성장기 까지 우리나라 은행 대부분이 사용헸던 모델, 즉 TCS, CAP, Coreframe 등 \(3 \)개 모두 약 \(15 \) 년의 라이프사이클을 가졌었다는 사실과 비교해볼 때도 검증결과가 일치함을 알 수가 있 는데, Coreframe은 관점에 따라 코어뱅킹 모델보다는 프레 임워크로 분류하여 제외시킬 수도 있다.</p> <p>여기에서 가장 주목할 사실은 BANCS 모델은 라이프사이클이 현재까지 \(25 \) 년을 포함하여 향후 예상 \(8 \)년을 합쳐 무려 \(33 \) 년에 이르고 있다는 것이다.</p> <p>IT 기술의 발전이 급속히 진행되는 최신 IT기술을 선재 적용하는 금용IT 분야에서 업무처리 지원용 소프트웨어의 라이프사이클이 \(30 \) 년 이상 지속되고 있는 사실은 획기적인 사실이다.</p> <h1>6. 결 론</h1> <h2>6.1 연구 결과</h2> <p>금융산업과 IT는 매우 민감한 관계이며 금용IT 분야는 IT산업 전체 규모의 약 \( 25 \% \) 를 차지하고 있음에도 불구하고 아직까지 관련 분야의 연구가 부족하였고 체계적으로 정리된 사실이 없던 중, 본 연구를 통해 몇 가지 중요한 결론과 함께 향후 금융기관에게 주는 시사점들을 발견하였다.</p> <p>이에 저자는 지금까지 입증된 사실들과 역추적 과정을 통해 습득한 교훈을 통해 조만간 가시화될 차기 IT시스템 구축 및 코어뱅킹 모델의 중장기적 발전전락 수립을 위해 몇 가지 결론과 함께 방향을 제시한다.</p> <p>첫째, 우리나라 금융IT 시스템의 라이프사이클은 약 \(10 \) 년 주기를 갖고 있다.</p> <p>\(1970 \) 년대 초부터 \(2011 \) 년 현재까지 금융 IT 관점에서 주요 팩트와 정책적인 지표, 은행권 전략과 실적 등을 정리한 내용을 보면 우리나라 은행권의 IT시스템 라이프사이클은 \(10 \) 년을 주기로 큰 변화를 보이고 있다. 이러한 주기는 은행권이 금융산업 분야에서 선도적 입지를 갖고 있어 증권, 보험, 카드 등 타 금융권에도 영향을 미치므로 적어도 우리나라에서는 전반전인 금용IT 시스템의 라이프사이클로 판단하더라도 문제가 없다.</p> <p>\(10 \) 년의 기간은 금융권의 일반적인 행태로 볼 때, 계획수립전 조율기간 \(1 \)년, 기본계힉 수립 기간 \(1 \) 년, 계획확정 및 본격 추진을 위한 준비기간 \(1 \) 년, 개발기간 \(2 \) 년, 시스템 운영 기간 \(10 \) 년으로 구분해 볼 수 있는뎨, 조율, 수립, 준비, 개발 기간 5 년은 운영기간 10 년 중에 진행되는 작업으로써 중첩되는 기간이다. 즉 새로운 시스템 구축을 위해 무려 5년의 준비기간이 항상 소요된다는 뜻이다.</p>
|
본 논문에서 \(10 \) 년의 기간은 금융권의 일반적인 행태로 볼 때, 계획수립전 조율기간 \(1 \)년, 기본계힉 수립 기간 \(1 \) 년, 계획확정 및 본격 추진을 위한 준비기간 \(1 \) 년, 개발기간 \(2 \) 년, 시스템 운영 기간 \(10 \) 년으로 구분해 볼 수 있는뎨, 조율, 수립, 준비, 개발 기간 5 년은 운영기간 10 년 중에 진행되는 작업으로써 중첩되는 기간이으로, 결국 새로운 시스템 구축을 위해 무려 5년의 준비기간이 항상 필요하다고 사료된다.
|
<p>아울러 금융산업은 타 분야보다도 IT 의존도가 높은 이유로 인해 IT비용 투자에 대한 개넘이 비교적 관대한 측면이 있어 하드웨어, 각종 소프트웨어, 통신망, 다양한 채널 확대에 경쟁적인 투자가 진행되어 왔으나, \(2010 \)년대 부터는 내부 역량강화를 위한 프로세스 개선 등 조직 전반의 효율화, 그린IT, 스마트, 컨버젼스, 클라우드 등 지능사회 진입에 대비한 다양한 전략을 검토하면서 일부 금융기관들은 본격적인 컨설팅 작업에 착수하고 있다.</p> <h1>4. 코어뱅킹 모델의 사례별 비교분석</h1> <h2>4.1 코어뱅킹 모델 현황</h2> <p>지금까지 국내 은햄에서 사용 내지는 검토되었던 코어뱅킹 모델의 종류는<표 \(7 \)>과 같으며, 이외에도 구체적인 자료가 미비하고 추진실적이 확인되지 않은 모델 그리고 제 \(2 \)금융귄(보험, 증귄, 카드 등)에서 사용되는 모델들은 분석 대상에서 제외하였다.</p> <h2>4.2 코어뱅킹 모델 분석</h2> <p>금용IT 발전단계별 코어뱅킹 모델수, 제조국가, 과거 적용 은행수, 현재 적용 은행수를 분석해보면 다음<표 \(8 \)>과 같다. 확장기인 \(2000 \)년대에 \(8 \)개 국가로 부터 \(13 \)개의 모델이 국내에 소개 또는 제안되어 코어뱅킹 모델 전성시대를 이루었으며 우리나라 금융IT 발전이 역동적으로 진행되었음을 의미하며, 이 시기에 우리나라 최초로 베트남에 금용IT를 수출하는 등 본격적인 금융IT의 글로벌화가 시작되었다.</p> <p>현재 우리나라 은행권에 적용되고 있는 코어뱅킹 모델중 \(1990 \)년대 모델이 \(7 \)개 은행, \(2000 \)년대 모델이 \(13 \)개 은행, \(2010 \)년대 모델이 \(1 \)개 은행에서 사용되어지고 있다.</p> <p>이와 같이 우리나라에는 지금까지 \(30 \) 개의 코어뱅킹 모델이 알려져 있으며 이를 제조국별로 분석하면<표 \(9 \)>에서 보듯이 한국 모델이 총 \(12 \) 개로 \( 40 \% \) 를 차지하였다. 북미 \(7 \) 개 모델중 소개만 되었던 캐나다 \(1 \)개 모델을 제외하면 \(6 \)개 모델이 모두 미국 모델로서 우리나라 전산화의 도입기부터 성장기 중반까지만 적용되었으며, 현재 이를 적용하고 있는 은행들이 새로운 모델을 검토중이므로 몇 년 이후에는 모두 소멸될 곳으로 예측된다. 아울러 유럽 \(5 \)개 모델중 실제 적용되고 있는 모델은 \(1 \) 개이며, 일본과 아시아 모델도 현제 적용사례가 없다.</p> <p>결과적으로 현재 우리나라에 적용되고 있는 대부분의 모델들은 호주의 BANCS 모델과 한국에서 개발된 모델이며, 우리나라 금용IT 기술력이 \(2000 \)년대 확장기를 통해 급속히 발전하고 있음을 반증한다.</p> <caption> <표 \(7 \)>은행 코어뱅킹 모델 현황</caption> <tbody><tr><td>저품명</td><td>공급회사 *</td><td>제조국*</td><td>적용년도*</td><td>기종*</td></tr><tr><td>SYSTEMATICS</td><td>ALTEL</td><td>미국</td><td>\(1975 \)</td><td>IBM</td></tr><tr><td>SYNERGY</td><td>CDSL</td><td>캐나다</td><td>\(1975 \)</td><td>NCR</td></tr><tr><td>TCS</td><td>한국IBM</td><td>미국</td><td>\(1977 \)</td><td>IBM</td></tr><tr><td>Coreframe</td><td>UNISYS</td><td>미국</td><td>\(1979 \)</td><td>UNISYS</td></tr><tr><td>HOGAN</td><td>CSC</td><td>미국</td><td>\(1980 \)</td><td>IBM</td></tr><tr><td>Reiance \(2000 \)</td><td>M&1</td><td>미국</td><td>\(1980 \)</td><td>NCR</td></tr><tr><td>RFS</td><td>PAXUS</td><td>호주</td><td>\(1982 \)</td><td>NCR,IBM</td></tr><tr><td>CAP</td><td>한국IBM</td><td>일본</td><td>\(1985 \)</td><td>IBM</td></tr><tr><td>BANCS</td><td>호주FNS</td><td>호주</td><td>\(1986 \)</td><td>NCR,IBM</td></tr><tr><td>BANCS-K</td><td>큐로컴</td><td>한국</td><td>\(1993 \)</td><td>UNIX,IBM</td></tr><tr><td>NEWTON</td><td>IMS시스템</td><td>한국</td><td>\(1995 \)</td><td>NCR,UNIX</td></tr><tr><td>기타(분산)</td><td>자체</td><td>한국</td><td>\(1995 \)</td><td>UNIX</td></tr><tr><td>RB \(2020 \)</td><td>한국IBM</td><td>동남아</td><td>\(1995 \)</td><td>IBM</td></tr><tr><td>Carebank</td><td>한국IBM</td><td>덴마크</td><td>\(1997 \)</td><td>IBM</td></tr><tr><td>e-BANK</td><td>한국IBM</td><td>한국</td><td>\(2000 \)</td><td>IBM</td></tr><tr><td>COINS</td><td>현대경보기술</td><td>한국</td><td>\(2000 \)</td><td>UNIX</td></tr><tr><td>BankingWeb21</td><td>NJFS</td><td>일본</td><td>\(2000 \)</td><td>IBM</td></tr><tr><td>Corebanking</td><td>SAP</td><td>독일</td><td>\(2000 \)</td><td>IBM</td></tr><tr><td>Sanchez</td><td>FIDELITY</td><td>영국</td><td>\(2000 \)</td><td>IBM</td></tr><tr><td>알타미라</td><td>엑센츄어</td><td>스페인</td><td>\(2002 \)</td><td>IBM</td></tr><tr><td>Flexcube</td><td>오라클</td><td>인도</td><td>\(2002 \)</td><td>UNIX,IBM</td></tr><tr><td>기타(CBD)</td><td>SKC&C</td><td>한국</td><td>\(2003 \)</td><td>UNIX</td></tr><tr><td>GLOBUS</td><td>티메노스</td><td>그리스</td><td>\(2004 \)</td><td>IBM</td></tr><tr><td>기타</td><td>자체</td><td>미국</td><td>\(2005 \)</td><td>IBM</td></tr><tr><td>ProBark</td><td>티맥스소프트</td><td>한국</td><td>\(2006 \)</td><td>UNIX</td></tr><tr><td>KoreBank</td><td>현대정보기술</td><td>한국</td><td>\(2009 \)</td><td>UNIX</td></tr><tr><td>ProFrame</td><td>티맥스소프트</td><td>한국</td><td>\(2006 \)</td><td>UNIX</td></tr><tr><td>넥스코어</td><td>SKC&C</td><td>한국</td><td>\(2010 \)</td><td>UNIX</td></tr><tr><td>시스테미어</td><td>삼청SDS</td><td>한국</td><td>\(2011 \)</td><td>IBM</td></tr><tr><td>데본-C</td><td>LGCNS</td><td>한국</td><td>\(2011 \)</td><td>UNIX</td></tr></tbody></table>
|
금융산업은 IT 의존도가 높아 통신망, 하드웨어, 소프트웨어, 다양한 채널 확대에 많은 투자가 진행되고 있다. 2010년대부터는 내부 역량강화를 위한 프로세스 개선 등 조직 전반의 효율화, 그린IT, 스마트, 컨버젼스, 클라우드 등 지능사회 진입에 대비한 다양한 전략을 검토하고 있으며, 금융 IT 발전단계별 코어뱅킹 모델수, 제조국가, 과거 적용 은행수, 현재 적용 은행수를 분석해 보면 다음과 같다. 우리나라에는 지금까지 30개의 코어뱅킹 모델이 알려져 있으며 이를 제조국별로 분석하면 한국 모델이 총 12개로 \( 40 \% \)를 차지하였으며, 결과적으로 현재 우리나라에 적용되고 있는 대부분의 모델들은 호주의 BANCS 모델과 한국에서 개발된 모델이며, 우리나라 금용IT 기술력이 \(2000 \)년대 확장기를 통해 급속히 발전하고 있음을 알 수 있다.
|
<h2>3.2 금융IT 모델의 발전과정 분석</h2> <p>우리나라 금융IT 발전 과정에서 추진되었던 중요 정책과 주요 펙트들을 조사 분석한 후 이를 본 연구 관점에 따라<표 \(6 \)>으로 정리하고 평가하였다.</p> <p>세계적으로 금융산업의 기조는 영국을 중심으로 한 유럽식 모델과 이를 변형시켜 발전시킨 미국식 모델로 구분된다. 따라서 금융IT 분야도 이러한 흐름과 발전과정의 맥을 같이 하고 있으며, 우리나라는 유럽식 모델을 받아들여 변형시킨 일본의 금융산업 모델을 근간으로 \(1990 \)년대까지 발전시켜 나갔다.</p> <p>그러나 이후에 최신 IT기술을 적극적으로 수용하고 주서버를 IBM Mainframe을 주로 사용함에 따라 자연스럽게 일본의 금융IT 기술을 따라잡았고 미국, 유럽 등 선진국의 금융산업 모델을 벤치마킹하면서 금융IT 기술은 어느 정도 대등한 위치에 있다고 평가할 수가 있다.</p> <p>\(1980 \)년대 중반 종합온라인 시대를 거치면서 \(10 \)년 정도로 예측하던 금융IT 시스템의 라이프사이클이 도래하면서 새로운 모델의 코어뱅킹 모델을 찾게 되었는데, 전 세계적으로 당시에 개방형 시스템의 보급이 활발히 이루어짐에 따라, 그동안 주서버 공급업체가 제안하는 모델이외의 선택의 폭이 극히 제한적이었던 은행들은 본격적으로 다양한 모델을 검토하게 되었다.</p> <p>이러한 움직임은 우리나라 금융IT 기술 발전에 획기적인 계기가 되었으며 비로소 본격적인 차세대 시스템 시대로 진입하였다. 그러나 시스템의 안정성을 가장 중요시하는 은행권은 계속 관망적인 자세를 가져오던 중, 국산 컴퓨터 및 소프트웨어 개발을 추구하던 정보통신부(현 지식경제부)가 우체국금융시스템을 대상으로 국산 컴퓨터 및 국산 소프트웨어 사용을 전제로 한 우체국금융지역분산시스템 구축 사업을 진행하면서 본격화 되었다.</p> <p>우체국금융시스템은 당시에 예금, 보험업무를 전국 약 \(2,800 \)개 우체국에서 일일 약 \(2 \)백만건의 거래를 처리하는 큰 규모로 IBM Mainframe을 사용하고 있었는데, 새로운 시스템은 주서버를 UNIX 서버로 교체하고 지역별로 서버를 분산 배치시키는 계획으로서 세계적으로도 유래가 없는 고난도의 사업이었다. 따라서 사업자가 중간에 바뀌는 우여곡절 끝에 국내 최초로 IBM Mainframe을 UNIX 서버로 교체시킨 첫 사례로 회의적인 시각을 갖고 있던 금융권에 새로운 가능성을 보여주면서 다른 은행들이 IBM Mainframe을 UNLX 서버로 교체하는 기폭제가 되었다.</p> <p>이후 차세대 시스템 구축을 통해 여러 은행들이 IBM Mainframe을 UNIX 서버로 교체하였으며, 아울러 코어뱅킹 모델도 다양한 제품들이 검토 내지는 채택되기 시작하였다. 또한 \(2000 \)년대 부터는 IT업무의 기술적, 인력적 한계로 인해 외부 전문업체의 도움을 받게 되었고 이로 인해 우리나라 금융 IT 산업은 질적 양적인 측면에서 급속히 발전하게 되어 금융IT 기술을 한 차원 업그레이드 시키는 계기가 되었고, \(1990 \)년대에 완성되어 사용중인 IT시스템의 라이프싸이클 도래에 따른 차세대 시스템 개발과 금융보안 기술의 중요성이 부각되기 시작하였다.</p>
|
우리나라의 금융IT 분야는 1990년대까지 일본의 금융산업 모델을 기반으로 발전하였으며, 이후 IBM Mainframe 주서버의 도입과 함께 선진국의 금융IT 기술을 적극 수용하였다. 은행권의 안정성 중심적 관망 태도는 정보통신부(지식경제부)가 우체국금융시스템 구축을 추진하면서 국산 컴퓨터와 소프트웨어 사용이 확산되는 계기를 만들었다. 이에 따라 다수의 은행들은 IBM Mainframe을 UNIX 서버로 교체하고, 코어뱅킹 모델도 다양한 제품들이 검토 및 채택되기 시작하였다.
|
<p>소멸된 모델들은 \(1 \) 개 모델당 평균 \(4.7 \)개 은행에서 적용되었던 반면에 현재 적용중인 모델들은 \(1 \)개 모델당 평균 \(2 \)개 은행에만 적용되어지고 있다. 이러한 현상은 \(1990 \) 년대 까지는 금융IT 환경이 열악하고 기술력이나 금융산업이 본격적인 괘도에 진입하기 이전이므로 외국계 공급회사(제조회사)의 제시 모델을 그대로 적용할 수 밖에 없었던 상황과 일치한다. 이후 본격적인 성장기에 접어들면서 \(2000 \) 년대에 다양한 모델이 국산화되기 시작했고 은행의 글로벌 경쟁력 확보 등을 위한 다변화 차원에서 외국계 모델들도 경쟁적으로 도입되었다는 것을 보여준다.</p> <p>또한 소멸, 적용, 접목중인 \(18 \) 개 모델과 \(52 \) 개 적용 은행을 구체적인 모델별로 분석해보면<표 \(11 \)>과 같다.</p> <h1>5. 코어뱅킹 모델의 방향설정을 위한 분석결과</h1> <h2>5.1 코어뱅킹 모델별 라이프사이클</h2> <p> <표 \(12 \)>는 우리나라 은행에 이미 적용된(소멸 포함) 코어빙킹 모델의 라이프사이클을 정리한 것이다.</p> <p>Coreframe 모델은 도표상에 라이프사이클이 \(30 \)년으로 표시되어 있는데 이는 특정 서버(UNISYS)에서만 적용된 모델로써 고유한 코어뱅킹 모델이라기 보다는 일반적인 Middleware 성격의 Platform에 가까우므로 본 연구대상으로써의 특별한 의미를 갖지 않는다. TCS 모델은 오래전부터 북미에서 광범위하게 적용되던 모델로써 우리나라 최초 적용시점은 \(1977 \) 년 이지만 본 연구의 취지에 따라 라이프사이클 적용 시점을 \(1970 \) 년으로 가정한다.</p> <p>CAP 모델은 일본IBM과 일본의 한 은행이 공동으로 개발한 모델로 일본내 모든 IBM Mainframe 사용 은행은 물론 \(1980 \)년대 부터 \(2000 \)년대 초까지 우리나라에서 IBM Mainframe을 사용하던 모든 은행들이 적용하던 모델로서, 우리나라 금용IT 기술발전에 많은 역할을 담당하였으며, \(1990 \)년대에 CAP-I, CAP-A 버전까지 발전되었다가 소멸되었고 이후에는 IBM이 자체 코어벵킹 모델을 제시하지 못하면서 은행들은 다양한 코어뱅킹 모델의 시연장이 되었으며 사례를 보면<표 \(13 \)>과 같다.</p> <caption> <표 \(13 \)>IBM 사용은행의 코어뱅킹 모델 다변화</caption> <tbody><tr><td rowspan=2>구 분</td><td colspan=2>\(1970 \)년대~ \(1990 \)년대</td><td colspan=2>\(2000 \)년대</td></tr><tr><td>최초 서버</td><td>교체 서버</td><td>최초 모델</td><td>교체 모델</td></tr><tr><td>국민</td><td>IBM M/F</td><td>IBM M/F</td><td>CAP</td><td>e-Bank</td></tr><tr><td>우리</td><td>IBM M/F</td><td>IBM M/F</td><td>CAP</td><td>알타미라</td></tr><tr><td>기업</td><td>IBM M/F</td><td>IBM M/F</td><td>CAP</td><td>GLOBUS</td></tr><tr><td>외환</td><td>IBM M/F</td><td>IBM Unix</td><td>CAP</td><td>BANCS</td></tr><tr><td>우체국</td><td>IBM M/F</td><td>HP Unix</td><td>-</td><td>CONS</td></tr></tbody></table>
|
Coreframe 모델은 특정 서버에만 적용되는 모델이며, Middleware 성격의 Platform에 가까워 특별한 의미를 가지지 않는다. TCS 모델은 북미에서 널리 적용되었으며, 우리나라에서는 1977년에 최초로 적용되었다. CAP 모델은 일본IBM과 일본의 한 은행이 공동 개발한 모델로, 일본 및 우리나라의 모든 IBM Mainframe 사용 은행에서 적용되었다. 이 모델은 우리나라 금융 IT 기술 발전에 큰 역할을 하였다. 이후, 2000년대에 들어서는 다양한 모델이 국산화되고, 은행의 글로벌 경쟁력 확보를 위해 다양한 외국 모델들이 도입되었다.
|
<p>IBM은 1997년에 최대 25개 은행에 Mainframe형 주서버를 공급하였으나 이후 점차 축소되어 2011년에는 13개 은행에 주서버를 공급함으로써 대략 1년에 1개 은행씩 기종을 철수하는 상황이 발생하였고, 13개 은행 중에서도 5~6개 기종은 유닉스형 오픈 서버로 교체됨으로써, 대용량 안정성을 최우선으로 하는 Mainframe형 서버가 적어도 우리나라 금융시장에서는 상당히 위축되어 있음을 알 수가 있다. 이의 주된 원인은 IBM의 대고객 서비스 정책이 오랜기간 동안 사용 은행들의 불만을 증대시켰고, 가장 핵심적인 문제는 바로 2000년대 은행들의 대고객 서비스 향상 전략을 이끌어줄 수 있는 차세대 코어뱅킹 모델을 명확하게 제시하지 못했다는 점이다. 이후로 국내외의 많은 코어뱅킹 솔루션 전문기업들이 다양한 모델들을 제시하는 출발점이 되었다.</p> <p>UNISYS는 처음부터 별도의 코어뱅킹 모델을 활용하지 않았으며 1990년대 이후에도 코어뱅킹 모델을 제시하지 못하였고, 결국 2011년에 우리나라 시장에서 완전히 철수하였다.</p> <p>반면에 1990년 후반부터 개방형 시스템이 시장에서 본격적으로 도입되고 UNIX 기종의 대표주자인 HP 서버가 대용량처리 가능성을 보여주면서 부터 본격적으로 운용되기 시작하여 평균 2년에 1개 은행씩 신규 은행을 확보하여 2011년에 7개 은행의 주서버로 운용되고 있다.</p> <h1>3. 금융IT 발전과 코어뱅킹 모델의 분류</h1> <h2>3.1 현행 코어뱅킹 모델의 분류</h2> <p>코어뱅킹 모델은 금융기관 중에서 주로 은행의 IT시스템에 적용되는 업무처리용 공통프로그램의 집합체를 의미한다. 그러나 모델 중에는 은행뿐만 아니라 다른 업종의 금융기관도 사용할 수 있는 모델도 많이 개발되고 있다. 반면에 코어뱅킹 모델로 개발되어 있지 않고 다양한 응용시스템을 체계적으로 개발할 수 있도록 아키텍쳐를 제공해주는 개념 구조를 프레임워크라고 한다.</p> <p>따라서 코어뱅킹 모델은 다수의 은행들에 의해 재사용이 될 가능성이 어느 정도 인지를 놓고 평가하게 되는 반면, 프레임워크는 비슷한 업무형태를 갖는 다른 금융기관이 없을 경우 주로 사용하게 되며, 코어뱅킹 모델은 통상 은행, 증권, 보험 회사 그룹으로 특화된 모델로 활용하게 된다.</p> <p>이러한 기준에 따라 코어뱅킹 모델 또는 프레임워크의 적용여부와 적용가능성 차원에서<ol type=1 start=1><li>은행 코어뱅킹 모델</li> <li>증권/보험 코어 모델</li> <li>금융 프레임워크</li> <li>기타 모델</li></ol>등으로 적용대상을 구분하면<표 5>와 같다.</p> <p>이를 분석해보면 코어뱅킹 모델 적용대상 19개, 증권/보험 코어 모델 대상 117개, 금융 프레임워크 대상 24개, 기타 모델 대상 112개 기관으로 나타났다. 대상 기관수만 보면 은행 코어뱅킹 모델 적용대상은 가장 적지만 조직의 방대함, 업무처리 규모, 국가산업 분야에서의 중요도, IT시스템의 용량, 적용기술 수준 등에서 가장 비중있게 다룰 가치가 있다고 하겠다. 따라서 본 연구의 범위는 은행 그룹에서 활용하는 코어뱅킹 모델을 대상으로 한다.</p> <caption> <표 5>코어뱅킹 모델 분류</caption> <table border><tbody><tr><td>분류 기준</td><td>기관 종류</td><td>기관수</td><td>코어모델/프레임워크 적용대상</td></tr><tr><td rowspan=5>은행</td><td>한국은행</td><td>1 </td><td>□</td></tr><tr><td>시중은행</td><td>7</td><td>O</td></tr><tr><td>지방은행</td><td>6 </td><td>O</td></tr><tr><td>특수은행</td><td>5</td><td>O</td></tr><tr><td>저축은행</td><td>105 </td><td>△</td></tr><tr><td rowspan=2>금융투자업자</td><td>증권회사</td><td>39 </td><td>◇</td></tr><tr><td>운용사</td><td>38</td><td>◇</td></tr><tr><td rowspan=2>보험회사</td><td>생명보험회사</td><td>22</td><td>◇</td></tr><tr><td>손해보험회사</td><td>18 </td><td>◇</td></tr><tr><td rowspan=6>기타관련기관</td><td>카드사</td><td>6 </td><td>□</td></tr><tr><td>우체국금융</td><td>1 </td><td>O</td></tr><tr><td>기금</td><td>2</td><td>□</td></tr><tr><td>은행관련기관</td><td>2</td><td>□</td></tr><tr><td>증권관련기관</td><td>5 </td><td>□</td></tr><tr><td>보험관련기관</td><td>4</td><td>□</td></tr><tr><td>저축기관중앙회</td><td></td><td>4</td><td>□</td></tr><tr><td>외국은행국내지점</td><td></td><td>7</td><td>△</td></tr><tr><td>합계</td><td></td><td>272</td><td></td></tr></tbody></table>
|
Mainframe형 주서버는 대고객 서비스 향상 전략을 이끌어줄 수 있는 차세대 코어뱅킹 모델을 명확하게 제시하지 못하고 있어 사용 은행들의 불만이 커지고 있다. 따라서 본 논문에서는 은행 그룹에서 활용하는 코어뱅킹 모델을 대상으로 연구한다. 코어뱅킹 모델은 은행의 IT시스템에 적용되는 업무처리용 공통프로그램의 집합체를 의미하며, 프레임워크는 다양한 응용시스템을 체계적으로 개발할 수 있도록 아키텍쳐를 제공해주는 개념 구조를 의미한다. 코어뱅킹 모델 또는 프레임워크의 적용여부와 적용가능성 차원에서 적용대상은 은행 코어뱅킹 모델, 증권/보험 코어 모델, 금융 프레임워크, 기타모델로 구분할 수 있다.
|
<p>시스템의 성능을 평가하기 위해 RDB to RDF 변환 시간을 비교한다. 변환 시간은 매핑 파일을 작성하는 단계는 고려하지 않는다. Fig. 7는 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하는 시간에 대한 비교결과를 나타낸다. D2RQ, RDBToOnto, Morph, 제안 시스템을 이용하여 관계형 데이터베이스에 저장된 데이터를 RDF형태의 온톨로지로 변환하는 데 걸리는 시간을 튜플의 개수에 따라 측정하였다. Fig. 7은 제안 시스템이 다른 연구에 비해 가장 빠른 처리 시간을 갖는 것을 보인다. 따라서 제안 시스템은 데이터 변환시간에서 다른 연구에 비해 우수한 성능을 갖는 것을 보인다.</p> <h2>5.2 정성적 평가</h2> <p>5.1절에서는 제안 시스템과 기존의 연구들의 RDB to RDF 변환 시간과 데이터 변환 결과를 비교하였다. 이 절에서는 기존 연구와 제안 시스템의 정성적 평가를 통해 성능비교 평가를 수행한다. RDB to RDF 변환에 대한 기존 연구들과 제안 시스템의 비교 분석 결과는 Table 6에 나타낸다.</p> <p>매핑 생성 속도는 매핑 정보 생성시 소요되는 시간을 구분하기 위한 평가 요소이다. 매핑 정보생성 방식은 자동, 반자동, 수동방식으로 구분되며 자동 생성 방식이 가장 우수하다. 하지만 관계형 데이터베이스 스키마 정보만을 변환하는 단점을 가진다. D2RQ와 RDBToOnto는 매핑 정보를 자동으로 생성하는 반면 제안 시스템과 Morph는 매핑 정보를 수동으로 생성한다. 따라서 D2RQ와 RDBToOnto가 매핑 정보 생성에서는 우수한 성능을 보인다. 매핑 언어의 재사용성은 시스템 독립적인 매핑 언어 사용 여부를 보여주는 평가 요소이다. 시스템 종속적인 매핑 언어를 사용하면 매핑언어에 대한 이해가 필요하다. 따라서 시스템마다 다른 매핑 언어의 사용은 매핑 언어 사용의 재사용성을 떨어트린다. D2RQ와 RDBToOnto는 각각의 매핑 언어를 사용하며 Morph와 제안 시스템은 R2RML을 사용한다. 이와 같은 이유로 Morph와 제안 시스템은 매핑 언어의 재사용성이 높다. 매핑 언어의 접근성은 표준화된 매핑 언어 사용 여부를 보여주는 평가 요소이다. Morph와 제안 시스템은 표준화된 매핑 언어를 사용하여 매핑 언어의 접근성이 높다. 또한 표준화된 매핑 언어의 사용으로 매핑 언어에 학습에 들어가는 비용이 적다. 마지막으로 온톨로지 확장성은 변환 된 온톨로지에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 28 정보처리학회논문지/소프트웨어 및 데이터 공학 제3권 제1호(2014. 1)ModelSpeed ofMappingGenerationReusabilityof MappingInfoAccessibilityof MappingInfoExtensionofontologyD2RQ high middle middle highRDBToOnto high low low middleMorph middle high high lowProposedSystem middle high high highTable 6. A comparative view of RDB to RDF mapping model매핑 생성 속도는 매핑 정보 생성시 소요되는 시간을 구분하기 위한 평가 요소이다. 매핑 정보생성 방식은 자동, 반자동, 수동방식으로 구분되며 자동 생성 방식이 가장 우수하다. 하지만 관계형 데이터베이스 스키마 정보만을 변환하는 단점을 가진다. D2RQ와 RDBToOnto는 매핑 정보를 자동으로 생성하는 반면 제안 시스템과 Morph는 매핑 정보를수동으로 생성한다. 따라서 D2RQ와 RDBToOnto가 매핑 정보 생성에서는 우수한 성능을 보인다. 매핑 언어의 재사용성은 시스템 독립적인 매핑 언어 사용 여부를 보여주는 평가 요소이다. 시스템 종속적인 매핑 언어를 사용하면 매핑언어에 대한 이해가 필요하다. 따라서 시스템마다 다른 매핑 언어의 사용은 매핑 언어 사용의 재사용성을 떨어트린다. D2RQ와 RDBToOnto는 각각의 매핑 언어를 사용하며 Morph와 제안 시스템은 R2RML을 사용한다. 이와 같은 이유로 Morph와 제안 시스템은 매핑 언어의 재사용성이 높다. 매핑 언어의 접근성은 표준화된 매핑 언어 사용 여부를 보여주는 평가 요소이다. Morph와 제안 시스템은 표준화된 매핑 언어를 사용하여 매핑 언어의 접근성이 높다. 또한 표준화된 매핑 언어의 사용으로 매핑 언어에 학습에 들어가는 비용이 적다. 마지막으로 온톨로지 확장성은 변환 된 온톨로지에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 추가할 수 있는지 여부를 확인할 수 있는 평가요소이다. 제안 시스템은 매핑 정보를 수정하여 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계정보에 대한 온톨로지를 추가하는 장점을 가진다. 이는 D2RQ와 동일한 기능이며 Morph에서는 지원하지 않는 기능이다. 따라서 제안 시스템은 D2RQ와 같은 우수한 성능을 보이며 표준화된 매핑 언어 사용을 통해 높은 매핑 정보의 접근성과 재사용성을 가진다.</p>
|
제안 시스템은 빠른 처리 시간을 가진 것으로 나타나며, 매핑 정보 생성 방식은 자동 방식이 가장 우수하다. D2RQ와 RDBToOnto는 매핑 정보를 자동으로 생성하지만, 제안 시스템과 Morph는 수동으로 생성한다. 또한 제안 시스템은 D2RQ와 비슷한 성능을 보이면서 표준화된 매핑 언어를 사용함으로써 매핑 정보의 접근성과 재사용성을 향상시킨다.
|
<h2>2.2 D2RQ</h2> <p>D2RQ는 매핑을 이용하여 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하는 대표적인 연구이다. D2RQ는 자체적으로 개발한 매핑 언어를 사용한다. D2RQ의 매핑 언어는 D2R에서 얻은 경험을 토대로 생성되었다. 매핑 언어에 따라 관계형 데이터베이스에 접근하여 스키마 정보에 대한 매핑 정보를 자동으로 생성한다. 자동으로 생성된 매핑 정보는 관계형 데이터베이스의 기본적인 정보만 가지고 있다. 따라서 사용자는 기본 키(Primary Key)와 외래 키(Foreign Key) 및 조인 관계에 대한 정보를 추가로 입력한다. 입력된 정보를 사용하여 풍부한 의미를 표현하여 자동 생성의 한계를 극복한다. D2RQ 서버는 생성된 매핑 정보를 참고하여 관계형 데이터베이스의 데이터를 RDF 형태의 온톨로지로 변환한다. 변환된 데이터는 시스템의 메모리에 RDF 형태의 온톨로지로 생성된다. 이렇게 생성된 데이터는 SPARQL을 통해 검색할 수 있다. 또한 D2RQ는 매핑 정보를 참고하여 SPARQL을 SQL로 변환한다. 질의문의 변환에 의한 매핑 모델은 데이터의 최신성을 보장하며 추가적인 트리플 저장소가 필요하지 않은 장점이 있다. 하지만 D2RQ의 질의문 변환은 조인 관계를 매핑정보에 정의하지 않았을 때는 변환을 지원하지 않는다. D2RQ는 동일한 컬럼 명에 대한 URI를 테이블 별로 다르게 지정해야 한다. 따라서 두 개 이상 존재하는 동일한 컬럼명을 검색하는 SPARQL 질의문의 결과값이 하나의 컬럼 명에 대한 결과값을 갖는 문제점이 있다. 마지막으로 D2RQ는 표준화된 매핑 언어를 사용하지 않아 매핑 언어에 대한 재사용성과 접근성이 낮다. 이는 매핑 언어의 학습에 들어가는 비용을 높인다.</p> <h2>2.3 RDBToOnto</h2> <p>RDBToOnto는 관계형 데이터베이스에 저장된 데이터를 온톨로지로 변환하는 연구로서 TAO 프로젝트에서 진행 하였다. 데이터 변환 방식은 관계형 데이터베이스의 테이블 및 컬럼에 대한 스키마 정보만을 온톨로지로 변환한다. RDBToOnto는 관계형 데이터베이스에 저장된 데이터의 의미를 표현하기 위해 RTAXON 학습 방법을 이용하여 자동분류를 지원한다. RTAXON에 정의된 규칙에 따라 카테고리에 관련된 어휘를 가지고 있는 단어에 대해 subClassOf관계를 자동으로 지원한다. 추가적으로, RDBToOnto는 사용자 정의에 의한 제약 조건을 추가, 데이터 중복을 방지를 위한 정규화 기능, 편리한 UI를 제공한다. RDBToOnto는 정적 구현 방식으로 데이터의 최신성을 보장하지 않는다. 그리고 데이터 변환을 위해 추가적인 변환 시간이 필요하므로 대용량의 데이터 처리에는 적합하지 않다. RDBToOnto는 표준화된 매핑 언어를 사용하지 않는다. 또한 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 표현하기 위한 온톨로지로 추가하는 데는 제약을 가진다.</p>
|
본 논문에서는 D2RQ는 매핑 언어를 통해 관계형 데이터베이스에 접근하여 RDF 형태의 온톨로지로 변환하는 대표적인 연구라 설명한다. RDBToOnto는 TAO 프로젝트에서 진행한 관계형 데이터베이스를 온톨로지로 변환하는 연구로, RTAXON 학습 방법을 사용하여 자동분류를 지원하고 UI를 제공한다. 그러나 RDBToOnto는 정적 구현 방법이기에 데이터의 최신성을 보장하지 않는 단점이 있다.
|
<p>위와 같은 문제를 해결하기 위해 W3C에서는 표준화된 매핑 언어인 R2RML을 제안 하였다. Morph와 DB2Triple는 R2RML에서 정의한 매핑 규칙을 사용하여 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환한다. 하지만 R2RML은 관계형 데이터베이스의 스키마 정보만을 RDF 형태의 온톨로지로 변환한다. 따라서 외부에 존재하는 테이블 및 컬럼과 내부의 테이블 및 컬럼 사이의 관계 정보를 표현하지 않는다. 또한 외래 키(Foreign Key)로 정의되지 않은 테이블 사이의 관계 정보에 대해서도 정의하지 못하여 온톨로지를 확장하는데 제약이 따른다. 이러한 문제점은 테이블 명과 컬럼 명 사이의 관계 정보를 온토롤지로 표현하여 해결한다. 따라서 R2RML에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 표현하기 위한 매핑 규칙 정의와 확장이 필요하다.</p> <p>이러한 문제점을 개선하기 위해 이 논문은 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑시스템을 제안한다. 제안 시스템은 표준화된 매핑 언어인 R2RML을 사용하며 RDFS 속성 정보를 매핑 모델에 추가한다. 추가된 RDFS 속성 정보는 관계형 데이터베이스에 정의된 관계 정보를 표현한다. 제안 시스템은 최종적으로 RDF의 클래스 및 속성으로 변환된 온톨로지를 표현한다. 또한 변환된 온톨로지는 온톨로지 저장소에 저장되며 SPARQL 질의문을 통하여 온톨로지를 검색할 수 있다.</p> <p>이 논문의 구성은 다음과 같다. 제2장에서는 관계형 데이터베이스를 RDF 형태의 온톨로지로 변환하기 위한 RDB to RDF 변환에 관련된 연구 내용을 기술하며, 제3장에서는 제안 시스템의 구조를 설명한다. 제4장에서는 제안 시스템의 구현 환경 및 방법에 관하여 기술하며, 제5장에서는 제안 시스템 검증을 위한 실험 결과 및 기존 연구와의 비교평가를 보인다. 마지막으로 제6장에서는 결론에 관해 기술한다.</p> <h1>2. 관련 연구</h1> <p>이 장에서는 관계형 데이터베이스를 RDF 형태의 온톨로지로 변환하는 연구의 필요성과 방법에 대해서 기술한다. 또한 기존 연구에서 제안된 매핑 모델에 대해서 논하며R2RML을 매핑 언어로 사용하는 연구에 관해서 기술한다. 또한 기존 연구에서 제안된 매핑 모델에 대해서 논하며R2RML을 매핑 언어로 사용하는 연구에 관해서 기술한다.</p> <h2>2.1 RDB2RDF</h2> <p>기존의 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하기 위한 방식으로 관계형 데이터베이스의 구성요소와 RDF의 구성요소를 매핑 하는 연구가 이루어졌다. RDB2RDF는 관계형 데이터베이스의 테이블을 RDF의 클래스로 매핑 하며 컬럼 및 속성은 RDF의 속성으로 매핑 한다. 이러한 매핑 규칙에 따라 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환한다. RDB2RDF에서 매핑은 구현 방식에 따라 정적, 동적 구현으로 구분된다. 정적 구현 방식은 매핑 규칙을 사용하여 관계형 데이터베이스에 저장된 데이터를 RDF로 변환한다. 정적 구현 방식의 변환은 구현이 쉽지만, 변화가 많은 데이터에는 적합하지 않다는 문제를 가진다. 동적 구현 방식은 SPARQL 질의문을 SQL로 변환하는 방식을 통해 관계형 데이터베이스에 저장된 데이터를 검색한다. 이는 관계형 데이터베이스에 저장된 데이터를 실시간으로 얻어올 수 있으므로 데이터의 최신성을 보장한다. 하지만 동적 방식은 질의문의 완전한 변환이 어려우므로 질의 처리 성능이 떨어지는 문제를 가진다.</p>
|
R2RML에 관계형 데이터베이스의 테이블 명, 컬럼 명 사이에 관계 정보를 표현하기 위한 매핑 규칙 정의와 확장이 필요한데, 이를 위해 이 논문은 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑시스템을 제안한다. 여기서 RDB2RDF는 관계형 데이터베이스의 테이블을 RDF의 클래스로 매핑 하며 컬럼 및 속성은 RDF의 속성으로 매핑하는데, 구현 방식에 다라 정적, 동적 구현으로 구분된다.
|
<h1>요 약</h1> <p>시맨틱 웹의 확산을 위해 관계형 데이터베이스에 저장된 데이터를 온톨로지로 변환하는 연구가 활발히 진행 중이다. 관계형 데이터베이스에 저장된 데이터를 온톨로지로 변환하기 위한 연구들은 관계형 데이터베이스의 구성 요소와 RDF 구성 요소를 매핑하는 방식인 RDB to RDF 매핑 모델을 주로 사용한다. 하지만 지금까지 제안된 매핑 모델들은 그 표현방식이 서로 다르며, 이는 사용자의 접근성과 재사용성을 떨어트린다. 이로 인해 표준화된 매핑 언어의 필요성이 대두되었으며, W3C에서는 RDB to RDF 모델의 표준 매핑 언어로서 R2RML을 제안하였다. R2RML은 관계형 데이터베이스 스키마 정보만을 RDF로 변환하는 특징을 가진다. 이와 같은 이유로 관계형 데이터베이스의 테이블 명, 컬럼 명 사이의 관계정보에 대한 온톨로지를 추가할 수 없다. 이 논문에서는 이러한 문제를 해결하기 위해 관계형 데이터베이스 구성 요소의 의미 관계를 고려한 RDB to RDF 매핑 시스템을 제안한다. 제안 시스템은 R2RML에서 정의한 관계형 데이터베이스의 스키마 정보에 RDFS 속성 정보를 확장하여 매핑 정보를 생성한다. 이러한 매핑 정보는 관계형 데이터베이스에 저장된 데이터를 RDFS 속성 정보가 포함된 RDF로 변환시킨다. 이 논문에서는 제안 시스템을 자바 기반의 프로토타입으로 구현하며, 비교 평가를 위해 관계형 데이터베이스에 저장된 데이터를 RDF로 변환하는 실험을 수행하고 결과를 D2RQ, RDBToOnto, Morph와 비교한다. 제안 시스템은 다른 연구들에 비해 변환한 온톨로지가 풍부한 의미관계를 표현하며, 데이터 변환 시간에서 가장 우수한 성능을 보인다.</p> <h1>1. 서 론</h1> <p>웹 온톨로지 언어를 사용하는 시맨틱 웹의 영향으로 온톨로지의 사용이 증가하고 있다. 또한 이를 저장하고 관리하기 위한 온톨로지 저장소에 대한 연구가 진행되고 있다. 온톨로지 저장소는 RDF 형태의 그래프 모델을 표현하기 위한 데이터 구조를 가진다. 이러한 데이터 구조는 대부분 관계형 데이터베이스에 저장된 데이터 구조와 다르다. 이로 인해 시맨틱 웹에서는 관계형 데이터베이스 기반의 웹 페이지에 저장된 데이터를 검색할 수 없는 문제를 가진다. 하지만 위와 같은 문제로 인해 시맨틱 웹에서 기존 웹 페이지에 저장된 데이터를 사용하지 않는 것은 시맨틱 웹의 확산을 막는 다른 문제를 발생시킨다. 따라서 시맨틱 웹에서도 기존 웹 페이지에 저장된 데이터를 사용하는 방법에 대한 연구의 필요성이 증가하였다.</p> <p>이러한 연구들은 관계형 데이터베이스에 저장된 데이터를 온톨로지로 변환하는 방법에 대한 것이 대부분이다. 관계형 데이터베이스에 저장된 데이터를 RDF 형태의 온톨로지로 변환하기 위해서는 주로 매핑 방식을 이용한다. 또한 매핑 규칙을 표현하기 위해 다양한 매핑 언어들도 제안되고있다. DB2OWL은 매핑을 구현하기 위하여 R2O 언어를 개발하였으며, D2RQ의 경우에는 자체적으로 정의한 언어를 사용한다. 하지만 다양한 매핑 언어의 사용은 매핑 언어에 대한 접근성과 재사용성을 떨어뜨린다.</p>
|
본 연구는 관계형 데이터베이스 요소의 의미 관계를 고려한 RDB to RDF 매핑 시스템을 제안하며, 이를 자바로 구현한 프로토타입을 통해 실험한다. 결과적으로, 제안 시스템은 RDF로의 변환 과정에서 의미관계를 잘 표현하고 데이터 변환 시간 역시 뛰어난 성능을 보인다. 또한, D2RQ, RDBToOnto, Morph와 같은 기존의 연구와 비교평가하였다.
|
End of preview. Expand
in Data Studio
README.md exists but content is empty.
- Downloads last month
- 12