PDF  PubReader

Cheon and Lim: Automatic Channel Coding Recognition Based on DeepVGG

Yurim Cheon♦ and Wansu Limº

Automatic Channel Coding Recognition Based on DeepVGG

Abstract: This paper proposes a deep learning-based automatic channel coding recognition method. Channel coding is a crucial technology in wireless communication systems that enhances communication quality through error correction, ensuring reliable data transmission. To overcome the limitations of traditional one-dimensional data processing methods, this study utilizes a DeepVGG model to convert one-dimensional channel coding data into a two-dimensional format, thereby improving recognition performance. The proposed method maintains high recognition accuracy even in low SNR environments and shows an average performance improvement of over 10% compared to TextCNN and BiLSTM-CNN models. Notably, it demonstrates superior classification performance for seven types of channel coding and has the potential to contribute to real-time channel coding recognition in communication systems.

Keywords: Deep Learning , Channel Coding , 2D-CNN , DeepVGG , Wireless Communication Systems , Blind Recognition

천유림♦, 임완수°

DeepVGG기반 채널코딩 자동인식 연구

요 약: 본 논문은 딥러닝 기반의 채널코딩 자동 인식 기법을 제안한다. 채널코딩은 무선 통신 시스템에서 데이터 전송의 신뢰성을 보장하는 중요한 기술로, 오류 정정을 통해 통신 품질을 향상하는데 기여한다. 기존의 1차원 데이터처리 방식의 한계를 극복하기 위해 본 연구는 DeepVGG 모델을 활용해 1차원 채널코딩 데이터를 2차원 형태로변환하여 채널코딩 인식 성능을 개선하였다. 모델 검증에 사용한 Convolutional, BCH, Polar, Hamming, RM, Golay, Product 등 7가지이고, 제안한 기법은 낮은 SNR 환경에서도 높은 채널코딩 인식 정확도를 유지하며, TextCNN 및 BiLSTM-CNN과 비교해 평균 10% 이상 성능 향상을 보였다.

키워드: 딥러닝, 채널코딩, 2D-CNN, DeepVGG, 무선통신시스템, 블라인드인식

Ⅰ. 서 론

채널코딩은 다양한 환경에서 신뢰성 있는 통신을 가능하게 하고, 신호 전송 과정에서 발생할 수 있는 오류를 최소화하는 중요한 기술이다[1]. 송신부는 채널 상태에 따라 코딩 파라미터를 조정하여 전송 신호의 안정성을 유지하며, 이를 위해 채널코딩 파라미터를 지속해서 수신부에 전송한다. 그러나 채널 상태가 변동될 때, 대역폭 사용과 전력 소비가 증가하는 문제가 발생할 수 있다. 따라서 송신부의 파라미터 정보 없이도 실시간으로 채널코딩 유형을 정확히 인식하는 블라인드 채널코딩 인식 기술이 필요하다[2].

블라인드 채널코딩 인식 기술은 송신된 신호에서 코딩 방식을 인식하여 데이터를 복원함으로써 대역폭을 효율적으로 사용할 수 있다. 이 기술은 환경에 따라 자동으로 적절한 코딩 방식을 선택할 수 있어 통신 품질을 유지하고 오류를 최소화하는 데 도움이 된다. 또한, 코딩 방식이 사전에 공유되지 않으므로 통신 보안이 강화되어 민감한 정보를 전송할 때 중요한 역할을 한다. 수신부에서는 송신부의 코딩 방식에 대한 사전 정보 없이도 여러 코딩 방식을 지원할 수 있어 시스템의 유연성이 높아진다[3].

기존 연구들은 다양한 방법으로 블라인드 채널코딩 인식을 시도했다. [4]는 채널 코드의 스펙트럼 차이를 조사하여 분류하는 TS-WHT(Two-step Walsh Hadamard Transform) 기법을 사용한다. 작은 피크로 인한 오검출 문제를 고려하여 최적화된 임곗값도 새롭게 제안한다. 그러나 코드길이가 길어질수록 시간복잡도가 빠르게 증가하고, 높은 정확도를 달성하려면 많은 양의 코드 워드가 필요하다. [5]는 평균 로그-우도 비율(LLR, Log-Likelihood Ratio) 분류기를 채택하여 블라인드 채널코딩 인식을 수행한다. 반복 알고리즘을 사용하여 코드 파라미터를 추정하고 정보 비트를 검출한다. 이 방법은 실시간 처리가 요구되는 응용 분야에서는 비효율적일 수 있다.

이러한 문제들로 인해 채널코딩 인식 분야에 딥러닝을 도입하고 있다. 딥러닝은 자동으로 특징을 추출하고 최적화할 수 있는 능력이 뛰어나며, 한 번의 학습 과정으로 많은 양의 데이터를 처리할 수 있다. 딥러닝 기반 채널코딩 인식 연구는 주로 1차원 시계열 데이터 분석을 중심으로 발전하고 있다. [6]은 1D-CNN(1-Dimensional Convolutional Neural Network) 모델로 컨볼루션 레이어를 활용해 지역적인 특징을 추출하고 풀링 레이어로 잡음의 영향을 줄여 분류 성능을 높이는 방식을 제안한다. 특히 낮은 SNR 환경에서 1차원 소프트 결정 시퀀스의 입력 특성을 효과적으로 처리할 수 있다. 그러나 최신 딥러닝 모델과의 비교가 부족해 정확한 성능평가는 어렵다. [7]은 1D-CNN 구조에 Multi-scale feature extractor를 결합하여 다양한 스케일의 데이터 특성을 효과적으로 포착한다. 또한, Residual Block을 통해 네트워크의 깊이를 늘려 더 복잡한 패턴과 관계를 학습했고, MoE(Mixture of Experts) 기법을 사용하여 여러 모델의 예측을 결합할 수 있다. 그러나 Punctured Convolutional Code 식별에 한정되어 있어 다른 코드에서는 활용이 어렵다. [8]은 BiLSTM(Bidirectional Long Short-Term Memory)과 CNN을 결합하여 1차원 시퀀스를 인코딩하고 심층 특징을 추출하는 방식을 사용한다. BiLSTM 계층은 시계열 데이터의 시간적 특징을 양방향으로 학습하여 모든 시간 단계의 특징을 포함하는 출력 벡터를 생성한다. CNN 계층은 입력 데이터의 패턴을 추출하여 학습한다. 제안된 기법은 모델 복잡도가 높으며 특정 데이터 세트에서 모델의 과적합 가능성이 크다.

기존 연구들은 다양한 시계열 데이터의 특성을 학습하는 데 중점을 두고 있다. 그러나 1차원 데이터 처리는 공간적 관계를 효과적으로 학습하는 데 한계가 있어 복잡한 신호 패턴이나 다양한 채널 코드의 구조적 정보를 포착하기 어렵다. 또한, 잡음에 민감하여 모델의 성능 저하로 이어질 수 있다.

본 논문은 1차원 형태의 채널코딩 데이터를 2차원 형태로 변환하여 2D-CNN 모델을 기반으로 하는 DeepVGG(Deep Visual Geometry Group) 모델을 제안한다. 병렬 처리에 유리한 2D-CNN 구조는 학습 속도를 빠르게 하고 대량의 데이터를 효율적으로 처리할 수 있다. 적은 수의 파라미터로도 풍부한 특징을 추출하여 모델의 효율성을 높이고 과적합을 방지하는 데 도움이 된다. 공간적 관계를 효과적으로 학습할 수 있다는 장점은 복잡한 패턴을 더 잘 포착하여 다양한 종류의 채널코딩 인식을 가능하게 한다. 입력 데이터가 2차원 형태이므로 이미지 처리 분야에서 뛰어난 성능을 보인 VGG 모델을 활용한다. VGG 모델은 상대적으로 단순한 구조로 되어 있어 구현하기 쉬우면서도 매우 강력한 성능을 제공한다. 또한, 일반 CNN보다 구조가 깊어 계층적인 학습이 가능하여 이미지의 세밀한 디테일과 패턴을 효과적으로 캡처한다[9,10]. 본 연구에서는 VGG 모델을 단순히 사용하는 것이 아니라 채널코딩 인식을 위해 모델 구조를 최적화했다. 기존 VGG 모델보다 더 많은 21개의 학습 레이어를 사용하여 채널코딩 방식 간의 미세한 차이를 정밀하게 학습할 수 있도록 구조를 강화했다. 또한, VGG를 이미지 분류에서 사용할 때는 1차원 픽셀을 이용했지만, 채널코딩 인식에서는 채널코딩 간 세밀한 차이를 구분하고 채널코딩의 고유 패턴을 인식하기 위하여 데이터를 2차원으로 변환했다. 따라서 DeepVGG 모델은 각 채널코딩의 구조적 특징을 효과적으로 추출하여 이미지 분류와 차별화된 성능을 제공한다. 특히 기존 논문들은 2~5가지 채널 코드를 분류하는 데 그쳤던 반면, 본 논문에서 제안한 기법은 7가지 채널코딩 유형을 분류한다. 검증 결과 DeepVGG 모델을 활용한 블라인드 채널코딩 인식 기술이 인식 정확도와 효율성 측면에서 타 기술 대비 탁월한 성능을 나타낸다.

Ⅱ. DeepVGG 기반 채널코딩 유형 인식

그림 1은 제안한 시스템의 전체 구조를 시각적으로 나타낸 알고리즘 흐름도이며, ‘Data Generation’, ‘Data Preprocessing’, ‘DeepVGG Algorithm’ 등 세 가지 주요 단계로 구성한다. ‘Data Generation’에서는 채널코딩 자동 인식을 위해 7가지 채널 코드 시퀀스를 다양한 SNR (signal-to-noise ratio)에서 생성한다. ‘Data Preprocessing’에서는 생성된 1차원 데이터를 2차원 구조로 변환하는 작업을 수행한다. 2차원 형태의 데이터는 공간적 관계를 보존하고, 채널코딩 데이터의 고유한 특징을 더 잘 파악할 수 있도록 한다. ‘DeepVGG Algorithm’에서는 전처리 된 2차원 데이터를 입력으로 받아 깊은 구조를 활용하여 특징 추출, 활성화 및 정규화, 분류 과정을 수행한다. 그 후 혼동행렬 및 벤치마크 모델과의 비교를 통해 성능을 평가한다.

그림(Fig.) 1.

제안한 시스템 구조 (Proposed system structure)
1.png
2.1 Data Generation

본 논문은 DeepVGG 모델의 학습과 테스트를 위해 데이터를 직접 생성하여 연구를 진행하였다. 채널코딩의 기본 특성과 모델의 성능을 더욱 직관적으로 평가하기 위해 이론적 분석이 용이한 AWGN(Additive White Gaussian Noise) 채널 모델을 사용하였다[11]. 사용한 데이터는 채널코딩 유형별로 생성했으며 표 1에 나열한 7가지 유형으로 나뉜다. 7가지 유형은 3개의 블록 코드와 4개의 비블록 코드를 포함한다. 또한, 본 연구에서 사용한 데이터는 TCP/IP 패킷의 전체 구조가 아닌 메시지 자체만을 나타내도록 구성하여 헤더 정보는 포함하지 않았다. SNR은 -5dB에서 20dB까지 1dB 간격으로 설정하였고, 각 채널코딩 유형별로 2000개의 훈련 데이터를 생성한다. 생성된 데이터는 128bit 길이로 구성하며, 훈련 데이터와 테스트 데이터의 비율은 2:1로 설정하여 모델의 학습과 평가에 적합한 데이터를 확보한다.

표(Table) 1.

채널코딩 유형 및 파라미터 (Channel coding types and parameters.)
Coding types Parameters
Convolutional (2, 1, 5)
BCH (15, 7)
Polar (8, 4)
Hamming (7, 4)
R-M (11, 16)
Golay (23, 12)
Product (8, 4)
2.2 Data Preprocessing

DeepVGG 모델은 2차원(2D) 데이터를 처리하는 데 최적화되어 있다. 본 연구는 다양한 채널코딩 방식으로 생성된 1D 이진 시퀀스 데이터를 128 × 128 크기의 2D 배열로 변환하여 사용한다. 먼저 각 채널코딩 방식에 따라 생성된 1D 이진 시퀀스 데이터에 고유한 라벨이 할당한다. 예를 들어, Convolutional 코딩 방식의 데이터에는 라벨 ‘0’이, BCH 코딩 방식의 데이터에는 라벨 ‘1'이 부여된다. 이렇게 라벨이 부여된 데이터는 이후 모델 학습에 사용되며 다양한 채널코딩 방식을 DeepVGG 모델이 정확히 인식할 수 있도록 돕는다.

그림 2는 데이터 변환 과정을 시각적으로 보여준다. 라벨이 할당된 1D 이진 시퀀스 데이터는 128 × 128 크기의 2D 배열로 reshape 한다. 여기서 128 × 128 배열의 가로는 1D 이진 시퀀스 데이터에서 연속된 128개의 비트로 구성하며 세로는 이러한 128개의 비트 행이 128개 나열된 형태를 의미한다. 이 과정에서 1D 데이터는 시각적이고 공간적인 패턴으로 변환되어 DeepVGG 모델이 이러한 패턴을 효과적으로 학습한다. 채널코딩 데이터는 인코딩 공식에 따라 생성되므로 특정한 주기성과 반복 패턴이 있다. 따라서, 1차원 데이터로는 이러한 특성을 충분히 추출하기 어렵지만 2차원으로 변환하면 각 채널코딩 방식별 고유한 패턴이 공간적으로 드러나 DeepVGG 모델이 이를 효과적으로 학습할 수 있다.

그림(Fig.) 2.

데이터 전처리 (Data Preprocessing)
2.png

변환된 2D 배열은 정규화 없이 이진 형태 그대로 DeepVGG 모델에 입력된다. 이진 데이터는 0과 1로 구성되어 있어 모델이 복잡한 실수형 데이터 대신 명확한 이진 신호를 학습할 수 있게 한다. 또한, 실수형 데이터는 작은 잡음에도 민감하게 반응하여 데이터 왜곡이 발생할 수 있지만 이진 데이터는 이러한 잡음 영향을 덜 받는다. 본 연구는 단순히 VGG 모델을 사용하는 것에 그치지 않고 채널코딩 인식을 위해 데이터 전처리와 구조적 최적화를 통해 독창성을 제공하고 있다.

2.3 DeepVGG Algorithm

그림 3은 제안한 DeepVGG 기반 채널코딩 인식 알고리즘의 구조를 나타내며 특징 추출, 활성화 및 정규화, 그리고 분류의 세 단계로 구성한다. DeepVGG 모델의 학습 레이어는 총 21개로 기존의 VGG 모델들보다 더 많은 학습 레이어를 가지도록 설계했으며 더욱 깊이있는 학습을 가능하게 한다..

그림(Fig.) 3.

DeepVGG 구조 (DeepVGG architecture)
3.png

2.3.1 특징 추출 (Feature Extraction)

첫 번째 단계는 입력 데이터에서 유의미한 특징을 추출한다. 이 과정은 모델이 학습해야 할 중요한 정보를 식별하고 학습과 분류를 위한 기초를 마련한다. 특징 추출은 모델의 성능을 좌우하는 핵심 요소로 여러 개의 컨볼루션 레이어와 풀링 레이어를 통해 수행한다.

컨볼루션 레이어 (Convolutional Layer ):

DeepVGG 모델은 총 13개 컨볼루션 레이어로 구성되어 있다. 초기 레이어에서는 엣지, 코너와 같은 저수준의 특징을 감지하고, 깊은 레이어로 갈수록 더 복잡한 패턴을 학습한다. 각 컨볼루션 레이어는 3 × 3 크기의 필터를 사용하여 데이터의 공간적 정보를 탐색하며 필터의 수와 스트라이드 설정에 따라 추출되는 특징의 범위와 해상도를 결정한다. 이러한 과정을 통해 모델은 점진적으로더 복잡하고 유의미한 특징을 추출할 수 있다.

풀링 레이어 (Pooling Layer ):

풀링 레이어는 컨볼루션 레이어에서 추출된 특징을 압축하여 데이터의 차원을 축소하는 역할을 한다. DeepVGG 모델는 총 5개 풀링 레이어를 포함하며 주로 Max Pooling을 사용한다. 풀링 레이어는 각 특징 맵에서 가장 중요한 정보를 유지하면서도 불필요한 데이터는 제거하여 연산 효율성을 높인다.

2.3.2 활성화 및 정규화 (Activation and Normalization)

특징 추출이 완료된 후 활성화 함수와 정규화 과정을 통해 모델의 성능을 최적화한다. 추출된 특징들은 ReLU(Rectified Linear Unit) 활성화 함수를 통해 비선형성을 부여받는다. ReLU는 입력값이 양수일 때는 그대로 통과시키고 음수일 때는 0으로 변환하여 모델이 복잡한 패턴을 학습할 수 있게 한다. 이 과정은 모델의 표현력을 강화하여 다양한 채널코딩 방식의 미세한 차이까지도 학습할 수 있도록 돕는다.

활성화 이후에는 Batch Normalization을 적용한다. Batch Normalization은 각 층에서의 출력을 정규화하여 학습을 안정화하고 학습 속도를 향상하는 데 중요한 역할을 한다. 또한, 과적합을 방지하고 모델이 새로운 데이터에 대해 더 나은 일반화 성능을 발휘할 수 있도록 한다. 이 과정에서 네트워크는 입력 데이터의 다양한 채널코딩 방식에 대해 더욱 견고한 모델을 구축할 수 있다.

2.3.3 분류 (Classification)

마지막 단계는 추출한 특징을 바탕으로 채널코딩 방식을 인식하여 분류한다. 이를 위해 Fully Connected Layer를 사용하며 앞서 추출한 모든 특징이 하나로 통합한다. 따라서, 데이터의 고차원 특징을 학습하고 특징 간 관계를 모델링하여 최종적인 분류를 수행할 수 있다.

분류 과정의 마지막 부분에서 Softmax 활성화 함수를 사용한다. Softmax 함수는 각 클래스에 대한 확률 분포를 계산하며 모델의 예측 결과를 확률값으로 표현한다. 모델은 입력된 데이터의 패턴을 분석하여 다양한 채널코딩 방식을 정확하게 인식하고 분류할 수 있다.

이와 같은 구조를 통해 DeepVGG 모델은 채널코딩 방식 인식 문제를 효과적으로 해결할 수 있으며 높은 정확도의 분류 성능을 발휘할 수 있다. 제안된 모델의 구조는 입력 데이터의 복잡성을 효과적으로 처리하고, 다양한 코딩 방식 간의 차이를 명확하게 구분할 수 있는 강력한 특징 학습 능력을 제공한다.

Ⅲ. 시뮬레이션 및 성능평가

3.1 실험 환경

DeepVGG 모델의 시뮬레이션을 진행하기 위해 다양한 훈련 파라미터를 지정해야 한다. 표 2는 본 논문에서 사용한 DeepVGG 모델의 상세한 파라미터 설정을 요약한 표이다. 옵티마이저는 Adam을 사용하였고 초기 학습률은 0.001로 설정하여 모델의 성능을 최적화한다. 배치 크기는 100으로 설정하여 데이터를 효율적으로 처리한다. 출력층은 softmax 활성화 함수를 적용하여 다중 클래스 분류를 수행하며 과적합을 방지하기 위해 드롭아웃 비율을 0.5로 설정하였다. 모델 학습은 총 100번의 에포크 동안 진행되었다. 제안한 모델에 적합한 데이터 크기를 찾기 위해 다양한 크기의 데이터를 비교하였으며 결과는 그림 4에 정리하였다. 32 × 32, 64 × 64, 128 × 128 세 가지 크기의 데이터를 사용해 실험한 결과, 128 × 128 형태의 데이터가 가장 높은 정확도를 보였다. 모든 SNR에서 평균적으로 약 10~15%의 정확도 향상이 나타났으며 128 × 128 크기의 데이터가 제안된 모델에적합한 크기임을 확인할수 있다. 데이터 크기가 더 커지면 과적합과 훈련 시간 증가 등의 문제가 발생할 수 있어 최종적으로 128 × 128 크기로 실험을 진행한다.

표(Table) 2.

제안한 DeepVGG 파라미터 (Proposed DeepVGG parameters.)
Optimizer Adam
Batch Size 100
Activation Function Softmax
Dropout 0.5
Epoch 100
Learning Rate 0.001

그림(Fig.) 4.

데이터 크기 별 정확도 비교 (Accuracy comparison depending on Data size)
4.png
3.2 실험 결과

그림 5는 SNR에 따른 채널코딩 방식별 정확도를 혼동행렬(confusion matrix)로 표현했다. 그림 5 (a)와 (b)를 보면 R-M, Golay 코드로의 혼동이 많이 일어난다는 것을 알 수 있는데, 두 코드 모두 복잡한 구조의 채널코딩 방식이다. 다중 비트 오류 정정 기능을 갖추고 있어 낮은 SNR에서 패턴이 왜곡되기 쉽고 코드 형태가 서로 유사하게 나타날 가능성이 크다. 복잡한 코딩 방식들은 신호가 약해질수록 그 특성이 뚜렷하게 구별되지 않아 모델이 정확히 분류하기 어렵게 된다. 낮은 SNR은 잡음 세기가 신호보다 크므로 채널코딩 방식 간 특징 추출이 어려우며 이에 따라 채널코딩 인식률이 낮았다. 이를 극복하기 위해 SNR이 낮은 상황에서도 안정적인 인식 성능을 확보하기 위한 추가 연구가 필요하다.

그림(Fig.) 5.

SNR에 따른 혼동행렬 : (a) -10dB, (b) -5dB, (c) 5dB, (d) 10dB (Confusion matrix as a function of SNR : (a) -10dB, (b) -5dB, (c) 5dB, (d) 10dB)
5.png

그림 6은 DeepVGG 모델의 채널코딩 분류 성능을 평가하기 위해 TextCNN과 BiLSTM-CNN 모델과 비교한 결과를 보여준다. 그래프를 보면 0dB에0서 TextCNN, BiLSTM-CNN, 그리고 DeepVGG 모델은 각각 45.3%, 49.8%, 73.9%의 분류 정확도를 기록한다. 4dB에서는 TextCNN이 86%, BiLSTM-CNN이 77.2%, DeepVGG가 90.2%의 성능을 나타낸다. 이때 DeepVGG 모델의 성능은 TextCNN과 BiLSTM-CNN에 비해 0dB에서 각각 28.6%와 24.1% 더 높았으며 4dB에서도 TextCNN과 BiLSTM-CNN보다 각각 4.8%와 13% 더 높은 성능을 보였다.

그림(Fig.) 6.

DeepVGG, TextCNN, BiLSTM-CNN의 정확도 비교 (Accuracy comparison of DeepVGG, TextCNN and BiLSTM-CNN)
6.png

특히 DeepVGG 모델은 낮은 SNR 환경에서 더욱 두드러진 성능을 발휘하였다. -4dB에서는 TextCNN과 BiLSTM-CNN에 비해 각각 34.3%, 33.5% 더 높은 정확도를 보였고 -2dB에서 DeepVGG는 TextCNN과 BiLSTM-CNN보다 각각 44%, 42.3% 더 뛰어난 성능을 기록하였다. 이러한 결과는 DeepVGG 모델이 낮은 SNR 환경에서 우수한 성능을 발휘함을 보여준다. 해당 모델은 깊은 네트워크 구조로 구성되어 있어 잡음에 대한 내성이 높다. 학습의 안정성을 높여 잡음에 강한 특성을 가지므로 낮은 SNR에서도 중요한 정보를 효과적으로 추출할 수 있다. 10dB에서는 DeepVGG 모델이 100%의 분류 정확도를 기록하며 모든 모델 중 최고 성능을 달성하였다. 결론적으로 DeepVGG는 전체 SNR 범위에서 TextCNN과 BiLSTM-CNN 모델에 비해 전반적으로 우수한 성능을 보였으며, 특히 낮은 SNR 환경에서 더욱 두각을 나타냈다. DeepVGG의 구조적 특징 덕분에 잡음이 많은 환경에서도 안정적이고 강력한 성능을 유지할 수 있다.

Ⅳ. 결 론

본 논문은 DeepVGG 기반 채널코딩 자동인식 기법을 제안한다. 채널코딩 방식은 Convolutional, BCH, Polar, Hamming 등 7가지를 사용했고, 1차원 형태의 채널코드를 2차원 형태로 reshape하여 공간적인 특징도 학습할 수 있도록 했다. 시뮬레이션 결과 모든 SNR에서 벤치마크 모델보다 좋은 성능을 보였으며, 특히 낮은 SNR에서 제안한 채널코딩 인식 기법이 TextCNN과 BiLSTM-CNN을 사용한 기법보다 분류 정확도가 각각 44%와 42.3% 향상되었다, 이를 통해 본 연구에서 제안한 DeepVGG 모델이 다양한 채널코딩 유형을 효과적으로 분류 할 수 있음을 시사한다.

본 연구는 최신 딥러닝 기법을 적용하여 채널코딩 인식 성능을 높이는 데 중점을 둔다. 향후 연구에서 실시간 통신 환경 구현에서도 최신 딥러닝 모델을 적용할 수 있도록 모델 구조와 알고리즘을 최적화하는 방안을 연구할 예정이다.

Biography

천 유 림 (Yurim Cheon)

2025년 3월~현재: 성균관대학교 전자전기컴퓨터공학부 석사

<관심분야> 딥러닝, 채널코딩, 최적화

Biography

임 완 수 (Wansu Lim)

2024년 3월~현재: 성균관대학교 전자전기공학부 s교수

<관심분야> 통신 프로토콜, 기계학습, 자동변조인식

[ORCID:0000-0003-2533-3496]

References

  • 1 H. Y. Lee, M. H. Lee, and S. Y. Shin, "Performance evaluation for UAV-based UL-NOMA with channel coding," J. KICS, vol. 48, no. 5, pp. 531-538, May 2023.custom:[[[-]]]
  • 2 Y. Jeong, J. Park, H. Cho, M. Chae, and W. Lim, "Research on simultaneous recognition of modulation and channel coding using CNN," in Proc. Symp. KICS, pp. 769-797, Nov. 2023.custom:[[[-]]]
  • 3 S. Dehdashtian, M. Hashemi, and S. Salehkaleybar, "Deep-learning-based blind recognition of channel code parameters over candidate sets under AWGN and multi-path fading conditions," IEEE Wirel. Commun. Lett., vol. 10, no. 5, pp. 1041-1045, May 2021.custom:[[[-]]]
  • 4 S. Li, J. Zhou, and Z. Huang, "TS-WHT: A two-step Walsh-Hadamard transform approach for blind error correcting code classification," IEEE Commun. Lett., vol. 27, no. 7, pp. 16891693, Jul. 2023.custom:[[[-]]]
  • 5 S. Kwon and D.-J. Shin, "Blind classification of error-correcting codes for enhancing spectral efficiency of wireless networks," IEEE Trans. Broadcast., vol. 67, no. 3, pp. 651-662, Sep. 2021.custom:[[[-]]]
  • 6 P. Deng, T. Zhang, B. Ma, and Z. An, "Research on blind recognition algorithm of channel coding based on one-dimensional convolutional neural network under the low SNR regime," Neural Process. Lett., Sep. 2023.custom:[[[-]]]
  • 7 X. Huang, S. Sun, X. Yang, and S. Peng, "Recognition of channel codes based on BiLSTM-CNN," in Proc. 2022 WOCC 2022, pp. 151-154, Xiamen, China, May 2022.custom:[[[-]]]
  • 8 J. Yang, C. Yan, Y. Ma, and Y. He, "Recognition of punctured convolutional codes based on multi-scale CNN," in Proc. 2023 IEEE VTC 2023-Fall, Beijing, China, Sep. 2023.custom:[[[-]]]
  • 9 A. Kaur, V. Kukreja, P. Tiwari, M. Manwal, and R. Sharma, "Fruitful Fusion: An accuracyboosting ensemble of VGG19 and convolutional neural networks for dragon fruit classification," in Proc. 2024 IEEE Int. Conf. Interdisciplinary Approaches Technol. Manage. Social Innovation (IATMSI), pp. 1-5, Gwalior, India, 2024.custom:[[[-]]]
  • 10 R. Arun Kumar and S. Sibi Chakkaravarthy, "YogiCombineDeep: Enhanced yogic posture classification using combined deep fusion of VGG16 and VGG19 features," IEEE Access, 2024.custom:[[[-]]]
  • 11 F. Tian, J. Wang, and J. Li, "A deep convolutional learning method for blind recognition of channel codes," J. Physics: 그림 6. DeepVGG, TextCNN, BiLSTM-CNN의정확도비교 Fig.6. Accuracy comparison of DeepVGG, TextCNN and BiLSTM-CNN 427 Conf. Series, vol. 1621, no. 1, p. 012088, 2020. (https://doi.org/10.1088/1742-6596/1621/1/0120 88)doi:[[[10.1088/1742-6596/1621/1/012088]]]
  • 12 X. Qin, S. Peng, X. Yang, and Y.-D. Yao, "Deep learning based channel code recognition using TextCNN," 2019 IEEE Int. Symp. DySPAN, pp. 1-5, Newark, NJ, USA, 2019.custom:[[[-]]]
  • 13 S. Zhang, L. Zhou, Y. Tang, L. Wang, and Q. Chen, "Blind recognition of channel coding based on CNN-BLSTM," 2021 IEEE ICNSC, pp. 1-5, Xiamen, China, 2021.custom:[[[-]]]