Performance Evaluation of Multipath TCP with Multiple Cellular Networkson High-Speed Trains

Eung-Hyup Kim♦ , Min-Ki Kim* , You-Ze Cho° and Soon Ju Kang*

Abstract

Abstract: In environments with high mobility, such as high-speed trains, the status of wireless signals changes rapidly, leading to network instability and decreased throughput due to frequent handoffs between base stations. Even when applying high-capacity wireless technologies like 5G and 6G to high-speed trains, the existing TCP, which uses a single path, cannot resolve handoff issues occurring in high-speed train environments. To provide faster internet services on KTX trains, KORAIL has introduced a load balancing system with multiple cellular networks. However, since it's not possible to simultaneously utilize the bandwidth of multiple cellular networks, research on applying MPTCP is necessary to address these issues. This paper investigates the characteristics of both the load balancing system with multiple cellular networks and MPTCP to compare their performance in the high-speed train environment. Additionally, a test bed was constructed based on data measured in an actual high-speed train environment to analyze and compare the performance of the load balancing system and MPTCP. In comparison to the existing load balancing system, it has been confirmed that the throughput increases in the MPTCP, and stable data transmission occurs even during handoff events.

Keywords: high-speed trains , multiple cellular networks , MPTCP proxy , handoff , load balancing system

Ⅰ. 서 론

TCP(Transmission Control Protocol)는 인터넷에서 가장 널리 사용되는 데이터 전송 프로토콜로, 네트워크의 안정적인 데이터 전송을 지원한다[1]. 하지만 고속도로 및 고속철도와 같은 고속이동 환경에서 단일 사업자 망을 사용하는 TCP의 성능은 무선 신호세기의 급격한 변화와 간헐적으로 발생하는 핸드오프로 인해 크게 변동될 수 있다[2-4]. TCP 성능 개선을 위해 무선 채널의 aggregation 및 5G, 6G와 같은 고용량 무선기술을 고속열차에 적용하더라도 하나의 경로를 통해서만 통신이 가능하다.

MPTCP (Multipath TCP)는 <그림 1>과 같이 하나의 MPTCP 연결을 통해 다수의 서브플로우를 생성하고 여러 인터페이스를 동시에 사용할 수 있다[5]. MPTCP는 다중 경로를 이용하여 데이터를 분할하여 전송하기 때문에 하나의 경로를 사용하는 TCP보다 안정적이고 높은 대역폭을 제공한다. 또한, 각 경로의 대역폭과 지연 시간을 측정하고 측정된 정보를 기반으로 최적의 경로를 선택하여 데이터를 전송하며 스케줄링 정책에 따라 각 경로를 통해 전송되는 데이터 량이 조절된다[6-10].

고속열차 환경에서는 여러 무선통신 사업자 망 사이의 핸드오프 발생 시차가 존재하며, 열차 내부로 제공되는 서비스 품질(대역폭, RTT 등)에 차이가 발생한다. 다중 셀룰러 사업자 망이 적용된 MPTCP 기술을 고속열차 내부로 제공할 경우 인터넷 서비스 품질이 향상될 것으로 예상되며, 다중 셀룰러 네트워크를 이용한 고속이동 환경에서의 다양한 연구가 진행 중이다[11][12].

그림(Fig.) 1.
MPTCP 프로토콜 스택 (MPTCP protocol stack.)

본 논문에서는 한국철도공사에서 KTX 열차에 도입한 로드 밸런싱 시스템과 다중 셀룰러 사업자 망을 적용한 MPTCP의 특징에 대해 조사하였다. 또한, 실제 고속열차 주변에 배치된 기지국 정보를 수집하고 고속 이동환경에서 발생하는 핸드오프의 특성을 분석하였다. 측정된 데이터를 기반으로 테스트베드 환경을 구축하고, 다양한 실험을 통해 KTX 열차에 적용된 로드 밸런싱 시스템과 MPTCP의 성능을 비교하였다.

Ⅱ. 관련 연구

고속철도 환경에서 MPTCP 적용을 위한 많은 연구가 진행되고 있으며 고속열차에 제공되는 인터넷 서비스 품질을 개선시키기 위해 다중 셀룰러 사업자 망이 적용된 다양한 시나리오에서 성능 평가가 이루어지고 있다.

T. Li 등은 최고 310km/h 속도에서 여러 사업자 망을 적용한 MPTCP 시나리오 및 단일 경로 TCP를 적용하여 최적의 사업자 망을 선택하는 시나리오에서 실험을 진행하였다[13]. 실험 결과는 두 시나리오에서 유사한 성능이 측정되었으며, 여러 사업자 망이 적용된 MPTCP환경에서 잦은 핸드오프로 인한 서브플로우의 성능저하 문제와 해결방안에 대한 방안을 제시하였다.

L. Li 등은 고속철도 환경에서 여러 셀룰러 통신사를 이용하여 오랜 기간에 걸쳐 많은 데이터를 수집하고 성능을 분석하였다[14]. 기존의 단일 경로 TCP를 통한 데이터 전송 시, 잦은 핸드오프로 인해 심각한 성능저하 현상이 발생하였으며, 다중 셀룰러 사업자 망의 MPTCP 적용을 통한 연결의 안정성 및 지속적인 데이터 전송을 확인하였다. 하지만 데이터 전송 속도 및 효율성 측면에서 단일 경로 TCP와 비교하여 유사한 성능이 측정되었으며, 이를 해결하기 위한 MPTCP의 서브플로우 설정, 혼잡제어 알고리즘 및 스케줄링에 대해 논의하였다.

G. H. Kim 등은 MPTCP 스케줄러의 연구 동향과 MPTCP에서 성능저하 현상이 발생하는 원인에 대해 분석하였다[15]. Out-of-order 도착 문제 및 Head-of-Line 블로킹 문제 등은 다중 셀룰러 사업자 망을 사용하는 고속철도 환경에서 핸드오프 발생 시 성능저하가 발생하는 원인으로 작용할 수 있다. 그 밖에, LTE 망이 적용된 MPTCP 네트워크 환경에서 다양한 혼잡제어 알고리즘 및 스케줄러에 따른 성능분석도 이루어졌다[16].

본 연구에서는 고속열차 환경에서 다중 셀룰러 사업자 망을 활용한 MPTCP 프록시 적용 구조의 성능 분석을 위해 실제 고속열차 환경에서 데이터를 수집하고 테스트 베드 구축을 통해 기존의 로드밸런싱 시스템과 성능을 비교하였다.

Ⅲ. 고속열차 환경에서 다중 셀룰러 망을 활용한 MPTCP 적용 방안

일반적으로 고속 열차에서 외부 네트워크와의 통신은 열차 내의 백홀 장비인 LTE(Long Term Evolution) 라우터와 각 통신사의 기지국을 통해 이루어진다. 고속열차의 빠른 이동속도로 인해 기지국과 열차 사이의 무선통신 성능 저하를 유발하는 여러 요인들이 존재한다. 특히, 고속열차와 기지국 거리에 따른 무선 신호 강도의 급격한 변화와 간헐적으로 발생하는 핸드오프가 성능저하를 유발하는 주요 원인이다. 본 절에서는 고속열차의 인터넷 서비스 품질을 개선하기 위해 KTX에 도입된 로드 밸런싱 시스템과 다중 셀룰러 사업자 망을 활용한 MPTCP 적용 방안의 특징에 대해 살펴본다.

3.1 고속열차 환경에서 로드 밸런싱 시스템과 MPTCP 비교

한국철도공사는 열차 객실 내 안정적인 인터넷 서비스 제공을 위해 로드 밸런싱 시스템을 도입하였다. <그림 2>는 국내 KTX 열차에 적용된 로드 밸런싱 시스템의 구성도이다. 로드 밸런싱 시스템은 서비스 중인 여러 이동통신사 중 보다 더 빠른 회선을 열차 객실에 배치된 AP(Access Point)를 통해 승객들에게 제공된다. 로드 밸런서를 통해 각각의 호차에 서로 다른 ISP(Internet Service Provider)가 제공될 수 있도록 제어가 가능하며 하나의 사업자 망에 트래픽이 집중될 경우, 다른 사업자 망으로 트래픽을 분산시킬 수 있다. 로드 밸런서는 트래픽 분산 기능 외에도 장애 극복 기능(failover)을 제공한다. 하나의 사업자 망에서 링크 단절이 발생할 경우 정상적으로 동작하고 있는 다른 사업자 망을 통해 인터넷 서비스가 가능하다. 특히, 기지국 사이의 음영지역이나 핸드오프가 자주 발생하는 구간에서 로드 밸런싱 장비를 통해 승객에게 보다 안정적인 서비스를 제공할 수 있다.

그림(Fig.) 2.
KTX 로드 밸런싱 시스템 (Load balancing system in the KTX train.)

로드 밸런싱 시스템 도입을 통한 통신회선 이중화에도 불구하고 인터넷 서비스를 이용하는 승객은 열차에 제공되는 여러 사업자 망의 인터페이스를 동시에 사용할 수 없다. 로드 밸런싱 시스템은 대역폭 aggregation을 활용할 수 없는 단점 외에도 failover 기능을 수행하는 과정에서 지연이 발생한다. 이러한 문제점을 해결하기 위해 <그림 3>과 같이 고속열차 환경에서 다중 사업자 망이 적용된 MPTCP 구조를 제안한다.

제안방안은 열차의 백홀 역할을 담당하는 LTE 라우터 장비에 MPTCP 프록시 기능을 추가하여 다중 셀룰러 사업자 망을 MPTCP 서브플로우로 활용한다. 고속열차의 차상 단말기와 LTE 기지국 사이의 통신은 MPTCP로 동작하며 각각의 인터페이스에서 제공되는 대역폭을 동시에 활용할 수 있다. 반면, MAR(MobileAccess Router)에서 고속열차 내부의 각 호차에 배치된 AP(Access Point)s 및 UE(User Equipment)s 경로는 단일 경로 TCP로 동작한다. 따라서 객실의 WiFi를 이용하는 승객의 디바이스에서 별도의 설정없이 보다 빠른 인터넷 서비스를 제공받을 수 있으며 하나의 사업자 망에서 장애 발생 시, MPTCP 서브플로우로 연결된 다른 하나의 사업자 망을 통해 지속적인 데이터 전송이 가능하다. <표 1>은 로드 밸런싱 시스템과 MPTCP의 특징을 나타낸다.

그림(Fig.) 3.
고속열차에서 다중 셀룰러 사업자 망을 활용한 MPTCP (Network architecture for MPTCP on high-speedtrains.)
표(Table) 1.
로드 밸런싱 시스템 vs 다중 경로 TCP (Load balancing system vs Multipath TCP.)
3.2 MPTCP 프록시 시그널링 절차

MPTCP 프록시는 기본적인 프록시 기능과 regular TCP 장비 및 MPTCP 장비간의 통신을 위해 TCP 세그먼트 변환을 수행한다. MPTCP 프록시는 연결 설정, 서브플로우 및 스케줄링 관리, 데이터 맵핑, 버퍼 관리 등 의 다양한 기능을 포함한다. <그림 4>는 고속열차 내부의 TCP 장비와 외부에 배치된 MPTCP 서버와의 통신을 위한 시그널링 절차를 나타낸다. MPTCP 프록시는 Primary 플로우를 통해 SYN과 MP_CAPABLE을 전송하고 수신 측에서 MP_CAPABLE에 대한 응답이 있는지 확인한다. 프록시가 Primary 플로우에서 SYN, ACK, MP_CAPABLE 형태의 패킷을 수신하지 못하면 수신 측이 MPTCP를 지원하지 않는 장비로 판단하여 기존의 regular TCP로 동작한다. 반면, MP_CAPABLE 패킷을 수신하게 되면 초기 연결 설정을 완료하고 데이터 송수신이 가능해지며, MPTCP의 MP_JOIN 필드를 이용하여 추가적인 서브플로우 연결 절차를 수행한다. 기본적으로 MPTCP 프록시에서 동작하는 모든 MPTCP 절차는 TCP 헤더의 옵션 필드를 사용하며, 하위 필드의 확인을 통해 source와 destination은 MPTCP 패킷임을 알 수 있다. MPTCP에서 사용하는 옵션은 <표2>와 같다. MPTCP 프록시 장비에 존재하는 다양한 WAN 인터페이스를 활용하여 여러 셀룰러 사업자 망을 MPTCP 서브플로우로 연결 가능하며 각 사업자 망의 대역폭을 aggregation 할 수 있다. 따라서 고속열차 내부의 WiFi를 이용하는 유저 장비는 추가적인 장비의 설정이 없더라도 중간 경로 상에서 MPTCP 통신이 가능하며 여러 사업자 망을 이용한 빠르고 안정적인 서비스 이용이 가능하다.

그림(Fig.) 4.
TCP 클라이언트, MPTCP 프록시, MPTCP 서버 간의 시그널링 절차 (Signaling procedures between the TCP client, MPTCP proxy, and MPTCP server.)
표(Table) 2.
MPTCP 옵션 유형 (MPTCP option subtypes.)

Ⅳ. 실험 및 평가

고속열차의 실제 환경과 유사한 테스트베드 구축을 위해 KTX 일부 구간에서 기지국 정보 및 신호세기(RSRP) 등의 정보를 수집하였다. <그림5>는 KTX 경부선의 신경주역과 동대구역 구간에서 핸드오프 발생 시점 및 열차 속도에 따른 신호세기 변화를 측정한 그래프이다. 총 16분의 운행시간 동안 핸드오프가 29회 발생하였으며, 개활지로 이루어진 신경주역과 비교하여 선로 주변의 많은 건물과 구조물로 이루어진 동대구역 주변에서 상대적으로 더 많은 핸드오프가 발생하였다. 일부 터널구간을 제외하면 일반적으로 열차의 속도가 증가할수록 핸드오프가 더 자주 발생하였으며, 핸드오프가 발생하는 시점을 기준으로 신호세기가 감소하는 것을 확인하였다. 특히, 신호세기가 –110 dBm 보다 낮은 구간에서는 높은 지연과 간헐적인 링크 단절이 발생하였다.

그림(Fig.) 5.
열차 이동속도에 따른 무선신호 세기 변화 (RSRP Variation According to Train Movement Speed.)

<그림 6>은 로드 밸런싱 시스템과 MPTCP 적용방안을 비교하기 위해 가상화 솔루션인 VirtualBox 및 oVirt를 이용하여 구축한 테스트 베드 구성도이다[17]. 고속열차 각 호차의 AP역할을 수행하는 클라이언트는 vlan을 통해 네트워크를 구분하였다. 열차의 백홀 장비를 담당하는 LTE 라우터는 실험 시나리오에 따라 MPTCP 라우터 및 로드 밸런싱 장비를 배치하였으며, 각각의 장비는 오픈소스 기반의 openMPTCProuter 및 openWRT를 이용하였다[18,19]. 각각의 셀룰러 사업자망에서 제공되는 무선통신 환경을 적용하기 위해 shaper 서버를 배치하였고, <그림 5>의 무선신호 세기 측정 시 수집하였던 데이터를 기반으로 하여 bit rate, delay, packet loss rate등을 shaper 서버에 적용하였다. 또한, 각 셀룰러 사업자 망을 담당하는 shaper 서버 외에 다른 구간에서 병목현상이 발생하지 않도록 클라이언트와 동일한 수의 서버를 생성 하였고 각 인터페이스에 충분한 대역폭을 할당하였다.

그림(Fig.) 6.
테스트 베드 구성도 (Test bed configuration.)

구축된 테스트베드의 신뢰성을 확보하기 위해 Iperf3 툴을 이용하여 실제 장비를 이용한 고속열차 환경과 테스트베드에서 측정한 처리량을 비교하였다. MPTCP 스케줄러는 기본 스케줄러인 minRTT를 사용하였고, 혼잡 제어 알고리즘을 변경하며 성능을 비교하였다. 실험은 각 혼잡제어 알고리즘 마다 30초씩 총 5회의 테스트를 수행하여 평균값을 산출하였다.

,<그림 7> 상단의 그래프는 KTX 열차에서 측정한 Balia, BBR, CUBIC 혼잡제어 알고리즘의 처리량을 나타내며, 하단의 그래프는 구축한 테스트베드에서 성능을 측정한 결과이다. 각 실험 환경에서 측정한 처리량은 유사한 패턴을 보였으며, 총 처리량에서도 큰 차이가 발생하지 않았다. CUBIC과 BBR 알고리즘의 경우 uncoupled로 동작하여 각 subflow는 독립적인 혼잡 제어를 수행한다. 따라서, Balia와 비교하여 보다 더 공격적인 혼잡 윈도우 증가로 인한 처리량이 증가할 수 있지만 병목구간에서 낮은 fairness 문제가 발생할 수 있다.

그림(Fig.) 7.
각 실험환경의 MPTCP 처리량 비교 (상단: 고속열차, 하단: 테스트 베드) (Comparison of MPTCP throughput in each experimental environment (top: high-speed trains, bottom: test bed).)

,<그림 7> 상단의 KTX 열차에서 측정한 실험 환경은,<그림 8>과 같고, 실험에 사용된 장비의 정보는,<표 3>에 명시하였다. 성능 측정은 신경주역과 동대구역 구간에서 반복 수행하였으며, 기지국 위치 및 핸드오프 발생 시점을 고려하여 동일한 실험환경에서의 성능측정을 위해 상행선(신경주역 → 동대구역) 구간만을 이용하였다. 또한, 열차의 이동속도가 280km/h 이상으로 측정되는 고속 이동구간에서 Balia, BBR, CUBIC의 혼잡제어 알고리즘 순서로 성능 측정을 수행하여 동일 구간에서 동일한 혼잡제어 알고리즘이 측정될 수 있도록 반복하여 실험을 진행하였다.

로드 밸런싱 시스템과 MPTCP의 성능비교를 위한 테스트베드의 실험 환경은 앞서 실험을 수행하였던 신경주역과 동대구역 사이의 구간과 유사하게 설정하였으며, 각각의 사업자 망에서 주기적으로 발생하는 핸드오프는 발생 시점을 다르게 설정하였다. 로드 밸런싱 시스템에서 기본적으로 적용되는 각 호차의 사업자 망은 호차별로 다르게 적용하였으며(ex. 1호차ISP_A, 2호차ISP_B) 각 사업자 망의 링크에서 disconnection이 발생하였을 때 이용 가능한 다른 사업자 망으로 변경하도록 로드 밸런서를 설정하였다. 로드 밸런싱 시스템과 MPTCP 적용 방안 모두 Iperf3 툴을 이용하여 데이터 전송 속도를 측정하였으며, --reverse 명령어를 사용하여 클라이언트가 서버로부터 데이터를 다운로드 하도록 설정하였다. 각 시스템에서 MAR 역할을 수행하는 로드 밸런서와 MPTCP router는 하나로 고정하여 실험을 진행하였다. 또한 고속열차의 각 호차에 해당하는 클라이언트 수를 증가시키며 트래픽을 생성하였고 목적 노드인 Iperf 서버는 클라이언트와 1:1 매칭이 되도록 설정하였다. 각 실험마다 5 반복하여 성능을 측정하였으며, 자세한 실험환경은 <표 4>와 같다.

그림(Fig.) 8.
고속열차 환경에서 테스트 베드 구성도 (Test bed configuration on high speed trains.)
표(Table) 3.
실험 장비 사양. (Equipment specification.)

<그림 9>은 열차의 호차(client) 수 증가에 따른 로드 밸런싱 시스템과 MPTCP의 처리량 변화를 나타낸다. MPTCP와 로드 밸런싱 시스템 모두 호차 수가 증가함에 따라 각 호차에서 다운로드 하는 데이터의 전송속도는 감소하였으나, 각각의 셀룰러 사업자 망 역할을 담당하는 shaper 서버에서 처리하는 총 처리량은 증가하였다. MPTCP 통신의 경우 각 사업자 망을 동시에 이용하여 데이터를 전송하기 때문에 로드 밸런싱 시스템과 비교하여 상대적으로 높은 처리량을 보였다. 반면, 로드 밸런싱 시스템의 경우 각 호차에 하나의 셀룰러 사업자 망이 regular TCP로 연결되기 때문에 MPTCP와 비교하여 상대적으로 낮은 전송속도를 보였으며, 각 셀룰러 사업자 망의 성능차이로 인해 호차 간의 성능차이도 크게 나타났다.

표(Table) 4.
실험 환경 (Experimental environment.)
그림(Fig.) 9.
MPTCP와 로드 밸런싱 시스템의 성능 비교 (Comparison of MPTCP and load balancing system performance.)

실험 결과는 로드 밸런싱 시스템과 비교하여 MPTCP 적용 환경에서 UE의 최대 전송 속도가 증가하였고, 각 통신 사업자의 LTE 라우터 역할을 수행하는 shaper server에서 총 처리량이 증가한 것을 확인할 수 있다. 하지만 열차 내의 인터넷을 이용하는 사용자가 증가함에 따라 MPTCP 프록시에서 처리하는 연결 설정, 서브플로우 관리, 스케줄링, 데이터 맵핑 등의 기능을 수행하는 과정에서 CPU의 부하 및 시그널링 트래픽의 부하가 증가할 수 있다.

고속열차에 적용된 로드 밸런싱 시스템과 MPTCP에서 성능 차이가 발생하는 원인은 다음과 같다. 로드밸런싱 시스템과 비교하여 MPTCP가 적용된 열차에서는 각 호차의 AP에 연결된 유저 장비가 여러 셀룰러 사업자 망의 대역폭을 동시에 사용할 수 있다. 각 시스템의 UE에서 이용 가능한 대역폭의 차이는 LTE 라우터에서 발생하는 트래픽의 부하가 작을수록 크게 나타난다. 성능 차이가 발생하는 또 다른 원인으로, 다중경로를 이용하는 MPTCP는 하나의 셀룰러 망으로 구성된 단일경로 TCP 보다 안정적인 세션의 유지 및 관리가 가능하다. MPTCP는 하나의 사업자 망에서 장애가 발생하더라도 다른 하나의 사업자 망을 통해 지속적인 데이터 전송이 가능하다. 반면, 로드 밸런싱 시스템의 경우, 장애 발생시 failover 기능을 통해 사업자 망을 변경하는 과정에서 지연 및 링크 단절이 발생하며 처리량 감소로 이어진다.

<그림 10>은 5개의 호차에서 각각의 목적 서버로부터 데이터를 다운로드하는 실험 중 첫 번째 호차와 두 번째 호차에서 처리량 변화를 측정한 결과이다. MPTCP가 적용된 열차환경에서는 모든 호차에 다중 셀룰러 사업자 망이 연결되어 있다. MPTCP는 다중경로를 통해 데이터를 전송하기 때문에 각각의 셀룰러 사업자 망에서 핸드오버가 발생하여도 지속적인 데이터 전송이 가능하다.

그림(Fig.) 10.
핸드오버에 따른 로드 밸런싱 시스템과 MPTCP의 처리량 변화 (Throughput variation of MPTCP and load balancing system according to handover.)

반면, 로드 밸런싱 시스템이 적용된 실험에서는 로드 밸런서의 정책에 따라 각 호차에 다른 사업자 망이 연결되어 있다. 각 사업자 망의 핸드오프 발생 주기에 따라 로드 밸런싱 시스템의 처리량 감소 현상을 확인할 수 있다. 1호차는 ISP_A의 핸드오버가 발생하는 시점(24초, 48초...)을 기준으로 처리량이 급격히 감소하였고, 2호차는 ISP_B의 핸드오버에 시점(12초, 36초...)에서 처리량이 감소한 결과를 통해 각 사업자 망에 단일 경로 TCP로 연결된 것을 확인할 수 있다. 실험결과를 통해 핸드오버 발생 횟수가 증가할수록 각 시스템의 성능차가 크게 발생할 것을 예측할 수 있다.

<그림 11>은 열차의 호차 수에 따른 MPTCP 스케줄러의 평균 처리량과 로드 밸런싱 시스템의 평균 처리량을 측정한 결과이다. MPTCP의 모든 서브플로우로 중복 데이터를 전송하는 redundant 스케줄러를 제외하면 스케줄러의 종류에 관계없이 MPTCP의 평균 처리량이 로드 밸런싱 시스템 보다 높게 측정되는 것을 확인할 수 있다. 반면, 실험에 사용되는 호차 수가 증가하여 열차에서 발생하는 트래픽이 증가할수록 두 시스템의 평균 처리량은 다중 사업자 망에서 제공되는 대역폭에 수렴한다.

minRTT는 가장 낮은 RTT를 갖는 경로로 cwnd가 가득 찰 때까지 패킷을 스케줄링하고, cwnd가 가득차면 그 다음으로 높은 RTT 갖는 서브플로우로 패킷을 스케줄링한다. BLEST와 ECF의 경우 빠른 서브플로우의 cwnd를 증가시키는 과정은 minRTT와 동일하지만, 느린 서브플로우의 사용여부는 패킷의 재전송 횟수나 패킷의 도착예정 시간을 계산하여 결정한다. 따라서, 각 서브플로우의 RTT 측정값이 실시간으로 변화하는 LTE망에서는 기존에 제안된 스케줄러 간에 성능측정 결과가 다르게 나타날 수 있다.

그림(Fig.) 11.
MPTCP와 로드 밸런싱 시스템의 평균 처리량 비교 (Comparison of MPTCP and load balancing system performance.)

테스트 베드 구축을 통한 여러 실험들을 통해 기존의 로드 밸런싱 시스템과 비교하여 MPTCP 적용 구조에서 향상된 성능을 확인할 수 있었다. 하지만 실제 고속열차 환경에서 발생하는 핸드오프는 기지국 사이의 간격 및 설정에 따라 MPTCP의 성능 저하를 유발하는 다양한 요인이 발생할 수 있다. 특히, MPTCP를 구성하는 각 서브플로우 성능 차이가 크게 발생하고 이러한 현상이 지속되는 상황에서는 최적의 단일경로 TCP 보다 더 낮은 성능이 측정될 수 있다. 우리는 MPTCP 성능저하가 발생하는 실제 사례에 대해 조사하고 고속철도 환경에 적합한 스케줄러를 개발할 예정이다.

Ⅴ. 결 론

본 논문에서는 고속열차 환경에서 다중 셀룰러 네트워크를 사용하여 향상된 인터넷 서비스를 제공하기 위해 기존의 로드 밸런싱 시스템과 MPTCP 적용 방안을 비교하였다. MPTCP 기능을 지원하지 않는 고속열차 승객의 디바이스에서도 보다 빠른 인터넷 서비스를 제공받기 위해 MPTCP 프록시 적용구조를 제안하고 테스트 베드 구축을 통해 성능을 평가하였다. MPTCP 기술 적용을 통해 여러 사업자 망의 대역폭을 동시에 사용하여 데이터 전송속도가 증가하였으며 다중 경로를 활용하여 안정적으로 데이터가 전송되는 것을 확인하였다.

본 연구의 결과는 다중 셀룰러 망으로 구성된 고속열차 환경에서 향상된 서비스를 제공하기 위한 기술 개발 및 기반 조성에 기여할 것으로 기대된다. 우리는 다양한 고속열차 시나리오에서 추가 실험을 수행중이며, 향후 연구에서는 본 연구를 확장하여 고속열차 환경에 적합한 MPTCP 스케줄러를 제안할 예정이다.

Biography

김 응 협 (Eung-Hyup Kim)

2024년: 경북대학교 전자공학부 박사

2017년~2018년: 한국정보통신기술협회 선임연구원

2019년~2022년: 경북IT융합산업기술원 연구원

2024년3월~현재: 경북대학교 자율 군집 소프트웨어 연구센터 연구원

<관심분야> MPTCP 혼잡제어, SDN/NFV, 무선 애드훅 네트워크, 클라우드 컴퓨팅

[ORCID:0000-0003-0448-1094]

Biography

김 민 기 (Min-Ki Kim)

2022년: 금오공과대학교 전자공학부 학사

2024년: 경북대학교 전자전기공학부 석사

<관심분야> MPTCP, QUIC, 무선통신공학

[ORCID:0009-0002-5048-7614]

Biography

조 유 제 (You-Ze Cho)

1982년: 서울대학교전자공학과 학사

1983년: KAIST 전기전자공학 석사

1988년: KAIST 전기전자공학 박사

1989년~2023년: 경북대학교 전자공학부 교수

1992년~1994년: Univ. of Toronto in Canada, 객원교수

2002년~2003년: NIST(미국국립표준연구소) 객원연구원

2017년: 한국통신학회회장

<관심분야> 차세대 이동 네트워크, 무선 애드혹 네트워크, 이동성 관리 기술, 차세대 전송 계층 프로토콜

[ORCID:0000-0001-9427-4229]

Biography

강 순 주 (SoonJu Kang)

1996년~현재: 경북대학교 IT대학 전자공학부 교수

2011년~2027년: 자율군집소프트웨어 연구센터장

1983년~1996년: 한국원자력연구원(KAERI) 선임연구원 및 전산정보실장

2000년, 2007년: University of Pennsylvania, 방문 연구교수 정보과학회, 통신학회, 전자공학회 종신회원

<관심분야> 엣지컴퓨팅, 엣지 AI, 실시간 임베디드시스템

[ORCID:000-0002-8171-195X]

References

  • 1 J. Postel, "Transmission control protocol specification," RFC 793, IETF, 1981. (https://doi.org/10.17487/RFC0793)doi:[[[10.17487/RFC0793]]]
  • 2 F. Luan et al., "Fading Characteristics of Wireless Channel on High-Speed Railway in Hilly Terrain Scenario," Int. J. Antennas and Propagation, pp. 1-9, 2013. (https://doi.org/10.1155/2013/378407)doi:[[[10.1155/2013/378407]]]
  • 3 L. Li et al., "A measurement study on TCP behaviors in HSPA+ networks on high-speed rails," in Proc. IEEE INFOCOM, pp. 27312739, 2015. (https://doi.org/10.1109/INFOCOM.2015.72186 65)doi:[[[10.1109/INFOCOM.2015.7218665]]]
  • 4 J. Wang et al., "An active-passive measurement study of TCP performance over LTE on high-speed rails," in The 25th Annual Int. Conf. Mobile Comput. and Netw. (MobiCom '19), Association for Computing Machinery, New York, NY, USA, Article 18, pp. 1-16, 2019. (https://doi.org/10.1145/3300061.3300123)doi:[[[10.1145/3300061.3300123]]]
  • 5 A. Ford, C. Raiciu, M. Handley, O. Bonaventure, and S. Barre, "TCP extensions for multipath operation with multiple addresses," RFC 6824, IETF, version 18, 2019. (https://doi.org/10.17487/rfc6824)doi:[[[10.17487/rfc6824]]]
  • 6 C. Paasch, S. Ferlin, O. Alay, and O. Bonaventure, "Experimental evaluation of multipath TCP schedulers," in Proc. ACM CSWS, pp. 27-32, 2014. (https://doi.org/10.1145/2630088.2631977)doi:[[[10.1145/2630088.2631977]]]
  • 7 A. Frömmgen, A. Rizk, T. Erbshäußer, M. Weller, B. Koldehofe, A. Buchmann, and R. Steinmetz, "A programming model for application-defined multipath TCP scheduling," in Middleware ’17, pp. 134-146, 2017. (https://doi.org/10.1145/3135974.3135979)doi:[[[10.1145/3135974.3135979]]]
  • 8 B. Walker, V. A. Vu, and M. Fidler, "Multi-headed MPTCP schedulers to control latency in long-fat/short-skinny heterogeneous networks," in Proc. CHANTS ’18, ACM, pp. 47-54, 2018. (https://doi.org/10.1145/3264844.3264847)doi:[[[10.1145/3264844.3264847]]]
  • 9 S. Ferlin, O. Alay, O. Mehani, and R. Boreli, "BLEST: Blocking estimation-based MPTCP scheduler for heterogeneous networks," IFIP Netw. and Wkshps., pp. 431-439, 2016. (https://doi.org/10.1109/ifipnetworking.2016.74 97206)doi:[[[10.1109/ifipnetworking.2016.7497206]]]
  • 10 Y. Lim, E. M. Nahum, D. Towsley, and R. J. Gibbens, "ECF: An MPTCP path scheduler to manage heterogeneous paths," in Proc. CoNEXT ACM, pp. 147-159, 2017. (https://doi.org/10.1145/3078505.3078552)doi:[[[10.1145/3078505.3078552]]]
  • 11 S. Dhawaskar et al., "Exploiting client inference in multiple TCP over multiple cellular networks," IEEE Commun. Mag., Apr. 2021. (https://doi.org/10.1109/MCOM.001.2000911)doi:[[[10.1109/MCOM.001.2000911]]]
  • 12 I. Khan et al., "EBA: Efficient bandwidth aggregation for connected vehicles with MPTCP," IEEE Internet of Things J., Apr. 2022. (https://doi.org/10.1109/JIOT.2021.3065911)doi:[[[10.1109/JIOT.2021.3065911]]]
  • 13 T. Li, et al. "An in-depth analysis of subflow degradation for multi-path TCP on high speed rails," 2022 IEEE 23rd Int. Symp. a World of Wireless, Mobile and Multimedia Net. (WoWMoM), IEEE, 2022. (https://10.1109/WoWMoM54355.2022.00042)custom:[[[https://10.1109/WoWMoM54355.2022.00042)]]]
  • 14 L. Li et al., "A measurement study on multi-path TCP with multiple cellular carriers on high speed rails," in Proc. ACM SIGCOMM, 2018. (https://doi.org/10.1145/3230543.3230556)doi:[[[10.1145/3230543.3230556]]]
  • 15 G. H. Kim et al., "MPTCP scheduler research trends and problem analysis," J. KICS, vol. 45, no. 9, pp. 1570-1586, 2020. (https://doi.org/10.7840/kics.2020.45.9.1570)doi:[[[10.7840/kics.2020.45.9.1570]]]
  • 16] E. H. Kim et al., "Performance evaluation of multipath TCP using multiple LTE internet service provider networks," J. KICS, vol. 48, no. 5, pp. 612-622, 5. 2023. (https://doi.org/10.7840/kics.2023.48.5.612) [17] oVirt, [online] Available: https://www.ovirt.org/ [18] OpenWrt project, [online] Available: https://op enwrt.org/ [19] OpenMPTCProuter, [online Performance evaluation of multipath TCP using multiple LTE internet service provider networks," J. KICS, vol. 48, no. 5, pp. 612-622, 5. 2023. (https://doi.org/10.7840/kics.2023.48.5.612) [17] oVirt, [online] Available: https://www.ovirt.org/ [18] OpenWrt project, [online] Available: https://op enwrt.org/ [19] OpenMPTCProuter, [online-sciedit-2-03"> E. H. Kim et al., "Performance evaluation of multipath TCP using multiple LTE internet service provider networks," J. KICS, vol. 48, no. 5, pp. 612-622, 5. 2023. (https://doi.org/10.7840/kics.2023.48.5.612) [17 Kim, et al. , E. H. ( 2023 ). Performance evaluation of multipath TCP using multiple LTE internet service provider networks . J. KICS5. . [17 , 48 ( 5 ), 612 - 622 , doi:[[[ https://doi.org/10.7840/kics.2023.48.5.612 ]]].

표(Table) 1.

로드 밸런싱 시스템 vs 다중 경로 TCP (Load balancing system vs Multipath TCP.)
Load balancing system Multipath TCP
목적 트래픽 부하 분산 및 고가용성 확보 다중 경로를 활용한 데이터 전송 속도 향상
성능 단일 경로 데이터 전송 및 추가적인 대역폭 활용 불가 다중 경로 대역폭을 동시 활용
장애 복구 failover 동작 과정에서 링크 단절 및 패킷 손실 발생 활성화 된 다른 서브플로우를 통한 지속적인 데이터 전송
동작 알고리즘 Round robin, Bandwidth, IP hash, Least connection, Least response time MPTCP 스케줄러 및 혼잡제어 알고리즘

표(Table) 2.

MPTCP 옵션 유형 (MPTCP option subtypes.)
Symbo Name Value
MP_CAPABLE Multipath capabl 0x0
MP_JOIN Join connection 0x1
DSS Data sequence signal 0x2
ADD_ADDR Add addres 0x3
REMOVE_ADDR Remove address 0x4
MP_PRIO Change sub-flow priority 0x5
MP_FAIL Fallback 0x6

표(Table) 3.

실험 장비 사양. (Equipment specification.)
Equipment specification
Iperf3 client · Laptop,centerdot; CPU : Intel i7-3517U @ 1.90GHz,centerdot; NIC : 1 Gbps,centerdot; OS : Windows 10
MPTCP rout · Raspberry Pi 4 Model B,centerdot; Ethernet: 1Gbps NIC,centerdot; Mobile A (WAN1) : IPhone 14, SKT_LTE,centerdot; Mobile B (WAN2) : Galaxy S21, KT_LTE
Iperf3 server · oVirt Virtual Machine,centerdot; CPU: 2 Cores / 2 thread,centerdot; OS: Ubuntu20.04

표(Table) 4.

실험 환경 (Experimental environment.)
Experimental duration 960 seconds
Handover interval 24 seconds (ISP_A, ISP_B)
The number of train compartments 1 - 5
Shaper server ISP_A Bandwidth: 40 mbit/s Delay: 45 ms ~ 75 ms Packet loss rate: 0.01%
ISP_B Bandwidth: 30 mbit/s Delay: 45 ms ~ 85 ms Packet loss rate: 0.05%
MPTCP scheduler minRTT
Congestion control CUBIC
MPTCP 프로토콜 스택 (MPTCP protocol stack.)
KTX 로드 밸런싱 시스템 (Load balancing system in the KTX train.)
고속열차에서 다중 셀룰러 사업자 망을 활용한 MPTCP (Network architecture for MPTCP on high-speedtrains.)
TCP 클라이언트, MPTCP 프록시, MPTCP 서버 간의 시그널링 절차 (Signaling procedures between the TCP client, MPTCP proxy, and MPTCP server.)
열차 이동속도에 따른 무선신호 세기 변화 (RSRP Variation According to Train Movement Speed.)
테스트 베드 구성도 (Test bed configuration.)
각 실험환경의 MPTCP 처리량 비교 (상단: 고속열차, 하단: 테스트 베드) (Comparison of MPTCP throughput in each experimental environment (top: high-speed trains, bottom: test bed).)
고속열차 환경에서 테스트 베드 구성도 (Test bed configuration on high speed trains.)
MPTCP와 로드 밸런싱 시스템의 성능 비교 (Comparison of MPTCP and load balancing system performance.)
핸드오버에 따른 로드 밸런싱 시스템과 MPTCP의 처리량 변화 (Throughput variation of MPTCP and load balancing system according to handover.)
MPTCP와 로드 밸런싱 시스템의 평균 처리량 비교 (Comparison of MPTCP and load balancing system performance.)