Index


Figures


Tables

Lee , Eom , Kim , Kang , and Kwon: Deep Reinforcement Learning Based Weapon-Target Assignment to Support Military Decision-Making

Jaehwi Lee♦ , Chanin Eom* , Kyeongsoo Kim** , Hyunsu Kang** and Minhae Kwon°

Deep Reinforcement Learning Based Weapon-Target Assignment to Support Military Decision-Making

Abstract: Recently, there has been significant research into technologies to assist commanders in military decision-making through the weapon-target assignment (WTA) problem. As the modern battlefield has evolved, WTA problems consider realistic and complex environments, where deep reinforcement learning methods can be utilized for dynamic decision-making. This paper proposes a Markov decision process (MDP) model for efficient decision-making in WTA problems, leveraging deep reinforcement learning to optimize the actions of friendly units. As a result, we confirmed that the reinforcement learning model based on the proposed MDP improved the commander's objective achievement by 27.17% and ammo efficiency by 38.61%, while reducing ammo usage cost by 11.98% compared to the heuristic approaches.

Keywords: Weapon-target assignment , Deep reinforcement learning , Markov decision process (MDP) , Deep deterministic policy gradient (DDPG) , Twin delayed DDPG (TD3) , GAN

이재휘♦, 엄찬인*, 김경수**, 강현수**, 권민혜°

군사적 지휘결심 지원을 위한 심층 강화학습 기반 무기-표적 할당 시스템 연구

요 약: 최근 무기-표적 할당 (weapon-target assignment; WTA) 문제를 통해 지휘관의 지휘결심을 돕는 기술에 대한연구가 활발히 진행되고 있다. 현대의 전장이 발전됨에 따라 WTA 문제 또한 현실적이고 복잡한 전장 환경을 고려한다. 이에 동적으로 최적의 결정을 내려야 하는 상황에서 심층 강화학습 방법이 활용될 수 있다. 따라서 본 논문은 심층 강화학습 기반의 WTA 문제에서 아군의 효율적인 의사결정을 위한 마르코프 의사결정 과정 (Markov decision process; MDP) 모델을 제안한다. 결과적으로 모의 실험을 통해 제안하는 MDP로 정의된 강화학습 모델이 heuristic 방법에 비해 요망 효과 달성률을 27.17%, 탄약 효율성을 38.61% 향상시켰으며, 무기 탄약 소모 비용은 11.98% 감소시킬 수 있음을 확인하였다.

키워드: 무기-표적 할당, 심층 강화학습, 마르코프 의사결정 과정

Ⅰ. 서 론

최근 군사 작전의 복잡성이 증가함에 따라 인공지능 기반의 지휘관 의사결정 지원 기술은 디지털 국방 체제 구축에 있어서 더욱 중요해지고 있다[1,2]. 이러한 상황 에서 WTA는 지휘결심 AI 시스템, 지능형 전장 인식 및 판단, 자율적 전술 의사결정 등 다양한 최신 국방 기술들과 밀접하게 연관되어 있어 디지털 국방 체제 구 축에 핵심적인 역할을 한다[3,4].

WTA는 군사적 의사결정의 핵심 요소로, 적군에 효 과적인 피해를 입히는 동시에 아군의 무기 자원을 효율 적으로 배분하는 것을 목표로 한다[5,6]. WTA는 전투 성과와 아군의 생존에 직접적인 영향을 미치며, 그 중요 성은 현대 군사 작전에서 더욱 강조되고 있다. 특히, 지휘관의 전략적 목표를 달성하기 위해서는 단순한 피 해 극대화가 아닌, 지휘관이 요망하는 목표 수준에 맞춘 자원 최적화와 함께 복잡하고 동적인 전장 환경에 대응 하는 정교한 의사결정이 필수적이다.

기존 WTA 문제를 해결하기 위해 모든 가능한 해를 탐색하여 정확한 결과를 도출하는 exact 알고리즘이 사 용되었지만, 계산 복잡도로 인한 한계가 존재하였다. 이 에 빠른 계산 속도의 근사적인 방법인 heuristic 알고리 즘 방법이 도입되었지만, 여전히 이러한 최적화 방법들 은 현실적으로 복잡하고 전장 환경을 고려하는 의사결 정 문제에서는 한계가 있었다.

심층 강화학습은 심층 신경망을 활용하여 동적인 환 경에서도 유연한 의사결정이 가능한 특성으로 인해 기 존의 WTA 해결방안의 한계를 완화할 수 있다[7]. 심층 강화학습 기반 의사결정 정책의 특성은 MDP 모델의 설계에 따라 달라질 수 있다. MDP는 강화학습 개체 (agent)가 학습할 환경을 정의하며, 상태(state), 행동 (action), 보상 함수(reward function) 등을 포함한다. 의 사결정 개체는 MDP에서 정의된 상태에 따라 행동을 수행하고 설계된 보상 함수를 기반으로 보상을 받고 정 책을 개선하기 때문에 해결하고자 하는 문제의 목표에 맞는 MDP의 설계가 매우 중요하다.

본 논문에서는 전장 환경이 동적으로 변화하는 상황 에서 아군 부대의 적군 부대에 대한 효율적인 부대 및 무기 선택 의사결정 정책 구축을 목표로 한다. 기존 WTA 접근 방식의 한계를 보완하기 위해 심층 강화학 습을 위한 MDP 모델을 제안하며, 정책 학습에는 심층 강화학습 알고리즘인 DDPG(Deep Deterministic Policy Gradient)[8]와 TD3(Twin Delayed DDPG)[9]를 사용한다.

본 논문의 주요 기여는 다음과 같다.

· 본 연구는 연속적이고 복잡한 상태-행동 공간을 갖는 군사적 의사결정 문제에 강화학습을 도입하여 기존 heuristic 방법에 비해 효과적으로 의사결정을 수행할 수 있음을 보였다.

· 강화학습을 적용하기 위한 MDP로 군사적 문제의 동 적인 전장 환경 및 상호작용을 모델링하고, 군사적 특성을 고려한 상태, 행동, 보상체계를 설계하였다.

· 제안한 MDP 기반의 강화학습 방법이 기존 heuristic 방법에 비해 다양한 군사적 성능 측면에서 우수함을 실험적으로 검증하였다.

본 논문의 구성은 다음과 같다. II장에서 본 연구의 선행연구에 대해 살펴보고, III장에서는 본 연구에서 해 결하고자 하는 WTA의 시스템과 MDP 모델을 소개한 다. IV장에서는 실험 설정과 제안한 모델을 기반으로 학습한 의사결정 정책을 분석하고 평가한 후 V장에서 결론을 맺는다. 본 논문에서 사용된 모든 기호와 표기법 은 Appendix A1에서 확인할 수 있다.

Ⅱ. 선행연구

2.1 Weapon-target Assignment

WTA는 군사 작전 및 방어 시스템에서 무기와 표적 간의 최적 할당을 다루는 문제로, 주어진 무기를 표적에 할당하여 손실을 최소화하거나 이익을 극대화하는 것 을 목표로 한다. WTA는 조합-최적화 문제로 다뤄졌으 며 이를 해결하기 위한 방법으로 exact 방법과 heuristic 방법이 고려되었다.

Exact 방법은 전통적인 최적화 문제를 다루는 방법 중 하나로, WTA에도 적용이 가능하다[10,11]. 비교적 단 순한 WTA에서 모든 가능한 해를 고려하여 최적의 해 결책을 보장할 수 있다는 장점이 있지만, 무기나 표적의 수가 증가하여 복잡해짐에 따라 계산 비용이 급격하게 증가한다는 한계가 존재한다.

WTA의 복잡도가 증가함에 따라 계산 효율성을 높 이기 위해 빠르고 유용한 해를 제공할 수 있는 근사적인 방법인 heuristic 기반의 방법이 활용되었다. 또한 기존 WTA 문제는 아군의 이익 최대화 뿐만 아니라 효율적 인 자원 활용 등과 같은 추가적인 목표도 함께 달성하기 위한 multi-objective WTA 문제로 확장되었다[12,13]. [14]에서는 다중 목표 달성을 위한 genetic 알고리즘을 통해 제약 조건이나 목표가 다양한 WTA에서 최적에 근사한 해를 찾는데 유용함을 보였고, [15]에서는 기존 의 인공 벌집 알고리즘(Artificial Bee Colony; ABC) 방법을 변형하여 다중 목표를 위한 방공 WTA 문제에 서 의사결정의 적시성과 정확성을 크게 향상시킬 수 있 음을 보였다. 하지만 이러한 heuristic 방법에도 불구하 고 복잡하고 동적인 환경에서 의사결정에는 여전히 어 려움이 존재하였고, 이에 심층 강화학습 기반의 방법이 고려되었다.

2.2 Deep Reinforcement Learning

심층 강화학습은 심층 학습(deep learning)과 강화학 습을 결합한 방법으로 모델 기반의 방식 (model-based)[16,17]과 모델이 없는 방식(model-free)으 로 분류할 수 있다. 대부분의 공학 문제를 고려할 때, 환경 모델을 정확히 아는 것은 불가능하기 때문에 모델 이 없는 방식이 적용될 수 있다. 이 방식에서 개체는 환경과의 직접적인 상호작용으로 정책을 학습한다. 모 델이 없는 강화학습에는 Q 함수를 근사하는 가치 기반 의 방식(value-based)과 개체의 정책을 근사하는 정책 기반의 방식(policy-based), 그리고 두 방법을 결합한 액터-크리틱 방식(actor-critic)이 존재한다.

대표적인 가치 기반의 방식에는 Q-learning이 존재 한다. 이는 상태-행동 쌍에 대한 가치를 평가하는 Q 함 수를 통해 정책을 학습하는 방식으로 각 상태에서 가장 높은 Q 값을 출력하는 행동을 채택한다. 최근에는 이러 한 방식에 인공 신경망을 결합하여 DQN(Deep Q-Network)[18]과 DDQN(Double DQN)[19] 알고리즘 으로 발전하였다.

정책 기반의 방식은 직접적으로 개체의 정책을 근사하 는 방식으로 상태에 대한 행동을 출력하는 정책 네트워크 를 학습한다. 구체적으로, 정책의 성능을 평가할 수 있는 목적 함수를 설정하고 신경망 가중치에 대해 최적화한다. 대표적인 정책 기반의 방식의 알고리즘에는 DPG (Deterministic Policy Gradient)[20]와 REINFORCE[21] 가 존재한다.

액터-크리틱 방식은 가치 기반의 방식과 정책 기반 의 방식을 결합한 방식으로 정책을 결정하여 개체의 행 동을 선택하는 액터 네트워크와 액터가 선택한 행동을 평가하는 크리틱 네트워크를 통해 정책을 학습한다. 이 방식은 정책 업데이트와 정책에 대한 평가가 서로 다른 네트워크에서 이뤄지기 때문에 안정적이라는 장점이 존재한다. 대표적인 액터-크리틱 방식의 알고리즘에는 DDPG[8]와 TD3[9] 등이 있다.

2.3 강화학습 기반 Weapon-target Assignment

WTA 문제가 현실적인 군사 작전 환경을 반영하기 위한 방향으로 발전됨에 따라 복잡하게 변화하는 전장 상황에서 신속하고 정확한 의사결정이 요구되어왔다. 하지만 기존의 방법들은 고려하는 환경이 복잡해지거 나, 환경이 동적으로 변화하는 등의 불확실성이 존재하 는 경우 최적화하기 어렵다는 한계가 존재하였다[22,23]. 이러한 상황에서 강화학습 기반의 방법이 WTA에 도입 되기 시작하였다. 강화학습은 환경과의 상호작용을 통 해 정책을 학습하는 방법으로, 주어진 상태에서 최적의 행동을 선택하여 장기적인 보상을 최대화하는 방법이 다. 이러한 강화학습 방법은 근사된 정책을 학습한 후, 동적인 전장 환경에서 학습된 정책을 활용하여 개체가 최적의 의사결정을 내릴 수 있다는 장점이 있다. [7]에 서는 강화학습 기반의 방법이 기존의 heuristic 및 최적 화 기반의 방법에 비해 의사결정에 걸리는 계산 시간을 대폭 감소시킬 수 있음을 확인하였고, [24]에서는 목표 에 적합한 보상 함수의 설계를 통해 적군 피해 최대화, 아군 무기 사용 비용 최소화 등의 의사결정이 가능한 최적의 정책을 학습할 수 있음을 보였다.

이에 본 연구에서는 동적인 환경의 WTA 문제를 설 정하고, MDP 설계를 통해 최적의 의사결정 정책 학습 이 가능한 심층 강화학습을 기반으로 문제를 해결하고 자 한다.

Ⅲ. 심층 강화학습 기반 Weapon-target Assignment 시스템

3.1 전장 환경

본 연구에서는 아군 부대의 적군 부대에 대한 효율적 인 무기 선택 의사결정 정책 학습을 위해 동적으로 변화 하는 전장 상황을 고려한다. 구체적으로, 적군 부대는 에피소드 내 매 시점마다 일정 범위 µ 내에서 무작위로 위치를 이동할 수 있다. 한 에피소드 내 위치가 고정되 어 있는 의사결정 개체는 적군 부대의 위치나 종류, 상 태에 따른 방어도 수준을 파악한 후 그림 1과 같이 U개 의 아군 부대 [TeX:] $$\begin{equation} \boldsymbol{u}=\{1,2, \cdots, U\} \end{equation}$$에서 W개의 무기 종류 [TeX:] $$\begin{equation} \boldsymbol{\mathcal { W }}=\{1,2, \cdots, W\} \end{equation}$$에 대해 적절한 탄약 발수를 선택하 여 주어진 지휘관의 요망 효과를 달성하는 것을 목표로 한다.

그림 1.

강화학습 기반 지휘결심 지원 시스템
1.png
3.2 Weapon-target Assignment 해결을위한 Markov Decision Process 정의

대부분의 강화학습 문제는 MDP를 통해 모델링할 수 있다. MDP는 튜플 <S,A,T,R,γ>로 정의되며, sn,t∈S는 전장 환경의 상태 정보, an,t∈A는 개체의 의사결정 행동, [TeX:] $$\begin{equation} T\left(s_{n, t+1} \mid s_{n, t}, a_{n, t}\right) \end{equation}$$는 상태 전이 확률 (state transition probability), R(sn,t,an,t,sn,t+1)는 보 상 함수, [TeX:] $$\begin{equation} \gamma \in(0,1] \end{equation}$$는 시간에 따른 감가율(discount fac- tor)을 의미한다. 구체적으로, 학습 주체인 아군 부대는 개체로서 정의되며, 특정 전장 상태 sn,t에서 무기 선택 행동 an,t를 수행하고 다음 상태 sn,t+1에 도달하여 보 상 rn,t=R(sn,t,an,t,sn,t+1)을 획득하게 된다. 이때, 개체는 누적되는 보상을 최대화하는 방식으로 의사결 정 정책을 학습하게 된다.

3.2.1 상태 정보 (state)

전장 환경의 상태 정보 sn,t∈S는 n번째 에피소드 내 t시점에서의 모든 정보를 의미하며, 다음과 같이 정 의된다.

(1)
[TeX:] $$\begin{equation} s_{n, t}=\left[m, k_n, b_n, c^{\top}, e_n, t, d_{n, t}, h_{n, t}, l_{n, t}^{\top}\right]^{\top} \end{equation}$$

수식 (1)에서 m은 전장 환경의 크기를 나타내며, [TeX:] $$\begin{equation} k_n=\left\{k_{n, 1}, \cdots, k_{n, K}\right\} \end{equation}$$는 n번째 에피소드에 대한 K개의 적군 부대 종류, [TeX:] $$\begin{equation} b_n=\left\{b_{n, 1}, \cdots, b_{n, B}\right\} \end{equation}$$는 B개의 적군 상 태에 따른 방어도 상수, [TeX:] $$\begin{equation} \boldsymbol{c}=\left[c_{1,1}, \cdots, c_{1, w} \cdots, c_{U, 1}, \cdots, c_{U, W}\right]^{\top} \end{equation}$$는 아군 부대의 종류와 무기 종류에 따 라 일정 기간 가용 보급을 고려해 할당될 수 있는 탄약 보급률 벡터를 의미하며 [TeX:] $$\begin{equation} \mathbb{R}^{U \times W} \end{equation}$$의 차원을 갖는다. en 은 n번째 에피소드에 대한 지휘관의 요망 효과, t는 한 에피소드 내 현재의 시점을 의미하며, dn,t는 n번째 에피소드의 t시점에서 아군 부대와 적군 부대와의 거 리, hn,t는 n번째 에피소드의 t시점 적군 부대의 체력, [TeX:] $$\begin{equation} l_{n, t}=\left[l_{n, t, 1,1}, \cdots, l_{n, t, 1, W} \cdots, l_{n, t, U, 1}, \cdots, l_{n, t, U, W}\right]^{\top} \end{equation}$$는 n 번째 에피소드의 t시점 아군 부대 종류와 무기 종류에 따른 잔여 탄수 벡터를 의미하고 [TeX:] $$\begin{equation} \mathbb{R}^{U \times W} \end{equation}$$의 차원을 갖 는다.

3.2.2 개체의 의사결정 행동 (action)

아군 부대의 n번째 에피소드 내 t시점 행동 an,t∈A 는 다음과 같이 정의된다.

(2)
[TeX:] $$\begin{equation} a_{n, t}=\left\{a_{n, t}^{\text {unit }}, a_{n, t}^{\text {ammo }}, a_{n, t}^{\text {usage }}\right\} \end{equation}$$

수식 (2)의 [TeX:] $$\begin{equation} a_{n, t}^{u n i t}=\left\{a_{n, t, 1}^{u n i t}, \cdots, a_{n, t, u}^{u n i t}, \cdots, a_{n, t, U}^{u n i t}\right\} \end{equation}$$은 부대 선택 행동으로 각각의 요소는 0 또는 1의 값을 갖는다. 구체적으로, [TeX:] $$\begin{equation} a_{n, t, u}^{u n i t}=0 \end{equation}$$인 경우 아군 u번째 부대를 선택 하지 않았음을 의미하고, [TeX:] $$\begin{equation} a_{n, t, u}^{u n i t}=1 \end{equation}$$인 경우에는 선택했 음을 의미한다. [TeX:] $$\begin{equation} a_{n, t}^{\text {ammo }}=\left\{a_{n, t, 1}^{\text {ammo }}, \cdots, a_{n, t, u}^{\text {ammo }}, \cdots, a_{n, t, U}^{\text {ammo }}\right\} \end{equation}$$ 은 무기 선택 행동으로 아군 u번째 부대에서 선택 가능 한 W개의 무기 종류 중 하나를 선택하는 행동을 한다. 구체적으로, [TeX:] $$\begin{equation} a_{n, t, u}^{a m m o} \in\{1,2, \cdots, W\} \end{equation}$$의 값을 가지고 무기 종류는 모든 부대에서 동일하다고 가정한다. [TeX:] $$\begin{equation} a_{n, t}^{\text {usage }}=\left\{a_{n, t, 1}^{\text {usage }}, \cdots, a_{n, t, u}^{\text {usage }}, \cdots, a_{n, t, U}^{\text {usage }}\right\} \end{equation}$$는 선택한 부대와 무기에 대한 탄약 사용 비율을 결정하는 행동으로 [TeX:] $$\begin{equation} a_{n, t, u}^{\text {usage }} \in[1,100] \end{equation}$$의 범위로 고려된다. 이때, 에피소드 n 의 t시점 아군 u번째 부대의 w무기에 대한 실제 사용 한 탄약 수는 탄약 보급률인 cu,w를 고려하여 다음과 같이 정의된다.

(3)
[TeX:] $$\begin{equation} a_{n, t, u}^{\text {unit }}\left(\alpha \times c_{u, w} \times a_{n, t, u}^{\text {usage }}\right) \end{equation}$$

수식 (3)에서 [TeX:] $$\begin{equation} \alpha \in(0,1] \end{equation}$$는 에피소드 내 단위 시점당 사 용 가능한 최대 탄약수를 조절하는 파라미터이다. 구체 적으로, 개체는 t시점에서 최대 [TeX:] $$\begin{equation} \alpha \times c_{u, w} \end{equation}$$만큼의 탄약을 사용할 수 있다. 또한 실제 사용한 탄약 수식을 기반으 로 n번째 에피소드에서 t+1시점의 u부대, w무기에 대해 남은 탄약 수 ln,t+1,u,w는 t시점 남은 탄약 수 ln,t,u,w에서 사용한 탄약 수의 차이로 다음과 같이 정의 된다.

(4)
[TeX:] $$\begin{equation} l_{n, t+1, u, w}=l_{n, t, u, w}-a_{n, t, u}^{u n i t}\left(\alpha \times c_{u, w} \times a_{n, t, u}^{u s a g e}\right) \end{equation}$$

수식 (4)에서 에피소드 종료시점 Tn까지 사용한 무기 의 탄약 수의 총합이 해당 무기의 초기 잔존량인 ln,0,u,w 을 초과할 수 없으며, 특정 시점 실제 사용하고자 결정 한 탄약 수가 해당 시점 잔존량보다 큰 경우 잔존량까지 만 선택이 가능하도록 제약한다. 따라서 최종 [TeX:] $$\begin{equation} a_{n, t, u}^{\text {usage }} \end{equation}$$은 다음과 같이 정의된다.

[TeX:] $$\begin{equation} \begin{gathered} a_{n, t, u}^{u s a g e}=\min \left(\alpha \times c_{u, w} \times a_{n, t, u}^{u s a g e}, l_{n, t, u, w}\right) \\ \alpha \times c_{u, w} \times \sum_{t=0}^{T_n} a_{n, t, u}^{u s a g e} \leq l_{n, 0, u, w} \end{gathered} \end{equation}$$

3.2.3 보상 함수 (reward)

아군 부대의 n번째 에피소드에서 t시점 보상 rn,t는 현재 상태 sn,t, 현재 행동 an,t, 다음 상태 sn,t+1에 대한 함수 형태 rn,t=R(sn,t,an,t,sn,t+1)로 정의되며 보상 항과 처벌항의 선형 결합으로 이뤄진다.

(5)
[TeX:] $$\begin{equation} R\left(s_{n, t}, a_{n, t}, s_{n, t+1}\right)=\sum_{i=1}^4 \eta_i R_{n, t, i} \end{equation}$$

수식 (5)에서 ηi∈{1,2,3,4}는 각 항에 대한 계수를 나타내 고, Rn,t,i∈{1,2,3,4}는 보상항 또는 처벌항을 의미한다.

적군 부대 피해에 대한 보상항인 Rn,t,1은 현재 시점 의 아군 부대의 적군 부대 공격에 대한 피해도가 클 수록 높은 보상을 부여한다.

(6)
[TeX:] $$\begin{equation} R_{n, t, 1}=h_{n, t}-h_{n, t+1} \end{equation}$$

수식 (6)를 통해, 개체는 n번째 에피소드 t시점의 적군 부대의 체력 hn,t과 아군 부대의 공격으로 인한 t+1 시 점 적군 부대의 체력 hn,t+1의 차이가 클 수록 높은 보 상을 획득한다. 이때, 아군 부대 공격에 의한 적군 부대 의 체력은 다음과 같은 수식으로 정의된다.

(7)
[TeX:] $$\begin{equation} h_{n, t+1}=h_{n, t} \prod_{u=1}^U\left(1-p_{n, t, u}\right)^{a_{n, t, u}^{u n i t}\left(\alpha \times c_{u, u} \times a_{n, t, u}^{u s a g e}\right)} \end{equation}$$

수식 (7)에서 [TeX:] $$\begin{equation} \prod_{u=1}^U\left(1-p_{n, t, u}\right) \end{equation}$$는 적군 체력의 감소 비율 로, 아군 각 부대 공격에 의한 적군 체력 잔존 비율의 누적 곱으로 고려된다. 이때, 피해량 pn,t,u는 다음과 같 다.

(8)
[TeX:] $$\begin{equation} p_{n, t, u}=\boldsymbol{\mathcal { N }}\left(\bar{p} \times b_n \times \delta\left(k_n, a_{n, t, u}^{a m m o}\right) \times f\left(d_{n, t}\right), \sigma\right) \end{equation}$$

수식 (8)에서 [TeX:] $$\begin{equation} \bar{p} \end{equation}$$는 피해도 가중치를 의미하고, [TeX:] $$\begin{equation} \delta\left(k_n, a_{n, t, u}^{\text {ammo }}\right) \end{equation}$$는 적군 부대 종류와 아군 부대가 선택한 탄 종류에 따른 피해도 상수, σ는 피해량 정규분포에 대한 분산을 의미한다. 아군 부대는적군 부대와의 거리 에 대해 피해를 입힐 수 있는 사정거리가 존재하는데, 이에 f(dn,t)를 n번째 에피소드 내 t시점에서 아군 부 대와 적군 부대와의거리 dn,t에 따른 피해도 감소 함수 로 정의한다. 각각의 아군 부대는부대별 최대 사정거리 τu,max를 가지고 있으며, 이 범위를 초과하는 거리에 존재하는 적군에 대해서는 피해를 입힐 수 없다.

두 번째 항인 Rn,t,2는 무기의 탄약 사용 비용에 대한 항으로 무기의 사용한 탄약에 대해 페널티를 부여한다.

(9)
[TeX:] $$\begin{equation} R_{n, t, 2}=\sum_{u=1}^U a_{n, t, u}^{u n i t}\left(\alpha \times a_{n, t, u}^{u \text { sage }}\right) \end{equation}$$

아군 부대는 수식 (9)을 통해 공격에 참여한 부대가 사 용한 탄약에 대한 비용의 총 합을 페널티로 받게 된다.

군사 작전의 성공적인 완수를 위해서는 지휘관의 요 망 효과에 맞춘 적절한 피해량을 달성하는 것이 필수적 이다. 이에 본 연구에서는 Rn,t,3를 통해 적군 부대의 초기체력수준 hn,0에서 요망 효과 en에 의한 요망하는 적군 체력 수준 [TeX:] $$\begin{equation} h_{e_n}=h_{n, 0}-e_n \end{equation}$$을 초과하는 경우 초과 한 만큼 페널티를 부여하도록 설계하였다.

(10)
[TeX:] $$\begin{equation} R_{n, t, 3}= \begin{cases}0, & h_{n, t+1} \geq h_{e_n}-\varepsilon \\ h_{n, t+1}-h_{e_n}+\varepsilon, & h_{n, t+1}<h_{e_n}-\varepsilon\end{cases} \end{equation}$$

수식 (10)에서 ε는 요망 체력 수준에 대해 허용되는 체 력 마진으로써 적군의 체력이 요망 체력과의 차이가 ε 이내 인 경우 개체는 페널티를 받지 않는다. 아군 부대 는 t시점 공격을 한 이후 t+1시점의 적군 부대의 체력 hn,t+1이 요망 체력 hen으로부터 ε이상을 초과하게 되 면 그 차이만큼 페널티를 받게 된다.

지휘관의 요망 효과를 달성하지 못하는 경우는 작전 실패를 의미한다. 따라서 본 연구에서는 에피소드 보상 인 Rn,t,4를 통해 에피소드 내 아군 부대가 적군 부대에 게 가하는 총 피해량이 지휘관이 요망하는 체력 수준에 미치지 못하는 경우 페널티를 부여한다. 즉, 해당 항을 통해 요망 효과를 달성하지 못하고 에피소드의 최대 시 점에 도달하여 종료되는 경우에 대해 페널티를 부여하 게 되고, 수식은 다음과 같이 정의한다.

(11)
[TeX:] $$\begin{equation} R_{n, t, 4}= \begin{cases}-1, & h_{T_n}>h_{e_n} \\ 0, & \text { otherwise }\end{cases} \end{equation}$$

수식 (11)에서 hen는 요망 체력을 의미하고, Tn은 에피 소드의 총 길이로 정의되어 hTn은 에피소드 종료 시 적군 부대의 최종 체력을 의미한다.

Ⅳ. 실험 설정 및 분석

본 절에서는 심층 강화학습 기반으로 학습한 아군 부대 개체의 의사결정 정책을 분석하고 평가한다. 먼저 학습을 진행한 시뮬레이션 환경과 학습 알고리즘 설정 에 대해 살펴본다. 이후 실험 결과에 대한 평가를 진행 하고, exact 알고리즘과 heuristic 의사결정 방법과의 성 능을 비교하고 분석한다.

아군 부대 개체의 의사결정 정책 학습은 군사 작전 환경을 구현한 시뮬레이터 상에서 환경과의 상호작용 을 통해 획득하는 상태 정보, 의사결정 행동, 보상으로 이뤄진 데이터를 통해 이뤄진다. 시뮬레이션 상에서 개 체는 매 에피소드마다 갱신되는 다양한 전장 상황을 경 험하고 매 시점 환경과 상호작용하면서, 주어진 상태에 서 최대의 보상을 받을 수 있는 행동을 선택하도록 정책 을 점차적으로 개선한다. 학습은 총 3000번의 에피소드 동안 진행하며, 에피소드의 길이는 Tn=100ts로 설정 된다. 이때, 1ts=1second이다.

4.1 의사결정 정책 비교 알고리즘 및 평가 지표

본 연구에서는 제안한 MDP로 학습한 강화학습 기 반의 의사결정 정책(RL-based)과 성능 비교를 위해 기 존의 WTA 문제에서 다중 목표 최적화를 위한 heuristic 방법들과의 비교를 수행한다.

4.1.1 비교 알고리즘

1) RL-based: 본 연구에서는 심층 강화학습 기반의 의사결정 정책 학습에 다음과 같은 액터-크리틱 알고리즘을 고려한다.

- DDPG[7]: 결정론적인 정책(deterministic poli- cy)을 고려하는 알고리즘으로, 기존의 정책 기 반 알고리즘인 DPG에 DQN 기반의 크리틱 네 트워크를 적용함으로써, 연속적인 행동 공간 (continuous action space)에서의 의사결정 정 책을 학습한다.

- TD3[8]: 두 개의 크리틱 네트워크 중 작은 Q값으 로 액터 네트워크를 업데이트하는 double Q 기 법을 활용함으로써 DDPG에서 발생하던 과대 추정(overestimation) 문제를 완화한다. 또한 액 터 네트워크의 업데이트를 크리틱 네트워크보 다 지연시켜서 진행함 으로써 높은 학습 안정성 을 제공할 수 있다

2) Heuristic: 본 논문에서는 지휘관의 요망 효과 달 성뿐만 아니라 자원의 효율적인 사용을 동시에 고 려하는 것이 중요하기 때문에, 이러한 Multi- obective WTA를 해결할 수 있는 heuristic 알고 리즘을 사용한다.

- 다중 목표 유전 알고리즘(Multi-Objective Genetic Algorithm; MOGA)[14]: MOGA는 최 적화 문제에서 다양한 해를 동시에 탐색할 수 있는 유전 알고리즘으로, 특히 복잡한 다중 목표 최적화 문제에서 유용하다. 이 알고리즘은 개체 군 기반 탐색을 통해 전역 최적해를 찾을 수 있 는 잠재력을 가지며, 다양한 해를 병렬로 평가하 여 빠르게 수렴할 수 있다는 특징이 있다.

- 다중 목표 인공 벌집 알고리즘(Multi-Objective Artificial Bee Colony; MOABC)[15]: MOABC 는 기존 ABC 알고리즘의 확장으로, 다중 목표 최적화 문제를 처리하기 위해 변형된 최적화 알 고리즘이다. 이 알고리즘은 탐색과 탐색 강화를 균형 있게 유지하며, 초기 해 공간을 광범위하게 탐색할 수 있다는 특징이 있다. 특히, 탐색 단계 에서 다양한 초기 해를 고려하여 전역 최적해에 도달할 가능성을 높이고, 후속 탐색에서 탐색 강 화 단계를 통해 해의 품질을 향상시킨다.

4.1.2 평가 지표

성능 비교를 위한 실험은 각 알고리즘별 5개의 랜덤 시드에 대해 각 시드별로 가능한 모든 적군 조합과 요망 효과 조합에 대해 10번씩 총 N=600번의 에피소드를 진행하였다. 이때, 에피소드마다 환경과 상호작용하여 수집된 상태 정보, 의사결정 행동 정보, 보상 값을 포함 하는 데이터를 통해 알고리즘별 성능 비교를 진행하였 다. 다음과 같은 평가 지표들을 통해 성능을 측정하고 비교하였고, 각 평가 지표에서 ↑는 값이 클수록, ↓는 값이 작을수록 성능이 우수함을 의미한다.

· 달성률(↑):적군의 최종 체력이 요망 체력의 허용 마진 범위 내에 있을 때 해당 에피소드를 달성된 것으 로 정의하며, 요망 체력에 미치지 못하거나 초과 피해 를 입힌 경우 달성되지 않은 에피소드로 간주한다.

[TeX:] $$\begin{equation} f(n)=\left\{\begin{array}{l} 1,0 \leq h_{e_n}-h_{T_n} \leq \varepsilon \\ 0, \text { otherwise } \end{array}\right. \end{equation}$$

여기서, f(n)는 n번째 에피소드에 대한 달성 함수이 며, 1은 요망 체력 달성 에피소드, 0은 미달성 에피소 드를 의미한다. 이때 달성률은 전체 N개의 에피소드 중 달성된 에피소드의 비율로 다음과 같이 계산한다.

[TeX:] $$\begin{equation} \text { 달성률 }=\frac{1}{N} \sum_{n=1}^N f(n) \times 100 \end{equation}$$

· 요망 체력 오차율(↓): 요망 효과에 의한 요망 체력과 적군의 최종 체력과의 오차율로 다음과 같이 정의된 다.

[TeX:] $$\begin{equation} \text { 요망체력오차율 }=\frac{1}{N} \sum_{n=1}^N \frac{\left|h_{T_n}-h_{e_n}\right|}{h_{e_n}} \times 100 \end{equation}$$

· 무기 탄약 사용 비용(↓): 무기 탄약 사용 비용은 보 상 함수의 Rn,t,2로 정의되며, 이는 아군 부대가 선택 한 무기에서 사용한 탄약의 양에 따른 비용을 나타낸 다.

[TeX:] $$\begin{equation} \text { 무기 탄약 사용 비용 }=\frac{1}{N} \sum_{n=1}^N \sum_{t=1}^{T_n} R_{n, t, 2} \end{equation}$$

· 탄약 효율성(↑): 에피소드 달성시 무기의 탄약을 얼 마나 효율적으로 소모했는지를 나타내는 지표이다. 에피소드 달성률과 달성시의 평균 무기 탄약 소모 비 용을 통해 다음과 같이 정의된다.

[TeX:] $$\begin{equation} \text { 탄약 효율성 }=\frac{\sum_{n=1}^N f(n)}{\sum_{n=1}^N \sum_{t=1}^{T_n} f(n) R_{n, t, 2}} \end{equation}$$

4.2 성능 분석 및 평가

본 절에서는 RL-based로 학습된 의사결정 정책과 heuristic 기반의 방법들과 비교하고 성능을 분석한다.

4.2.1 비교 알고리즘과의 성능 비교

표 1.

알고리즘별 성능 비교
비교 알고리즘 달성률(%) 요망 체력 오차율(%) 무기 탄약 소모 비용 탄약 효율성
RL-based (Proposed) DDPG [7] 91.27±6.71 3.72±0.86 0.93±0.07 0.69±0.03
TD3 [8] 91.77±3.82 3.67±0.73 0.98±0.22 0.71±0.21
Heuristic MOGA [14] 61.83±1.48 6.65±0.05 1.10±0.01 0.44±0.02
MOABC [15] 66.97±0.46 5.74±0.02 1.07±0.03 0.57±0.01

표 1은 알고리즘별 요망 체력 오차율, 탄약 사용 비 용, 달성률에 대해 에피소드 평균과 1차 표준편차를 나 타낸 그래프이다. 해당 표를 통해 달성률 측면에서 RL-based 정책이 heuristic 의사결정 정책에 비해 27.12% 향상된 것을 확인할 수 있다. 또한 요망 체력 오차율을 2.5%, 무기 탄약 소모 비용은 11.98% 감소시 킨 것을 확인할 수 있다. 특히, heuristic 방법은 낮은 요망 체력과의 오차율에 비해 달성률 또한 낮게 측정되 었는데, 이는적군의 최종 체력이요망 체력에 근사하지 만 지휘관이 요망하는 체력 마진 수준을 초과하거나 미 치지 못하는 것을 의미한다. 반면 RL-based의 경우 낮 은 오차율과 동시에 높은 달성률을 보였다. 또한 탄약 효율성1) 측면에서도 RL-based 정책은 heuristic 정책에 비해 38.61% 높은 탄약 효율성을 가지는 것을 확인할 수 있다. 이를 통해 RL-based 정책이 heuristic 정책보 다 탄약을 효율적으로 사용하여 요망 체력에 근사하게 피해를 입힘과 동시에 요구되는 체력 마진 정도에 맞춰 피해량을 조절할 수 있음을 보였다.

그림 2.

알고리즘별 요망 체력 오차율 및 탄약 사용 비용 평균
2.png

알고리즘별 요망 체력 오차율과 탄약 사용 비용에 대한 평균을 나타낸 그림 2을 통해 RL-based와 heu- ristic의 차이를 한눈에 확인할 수 있다. 푸른색과 붉은 색 박스는 모든 에피소드에 대한 평균 요망 체력 오차율 과 평균 탄약 사용 비용을 나타내고, 박스 상단 수직선 의 길이는 표준 편차를 의미한다. 해당 그림을 통해 RL-based 기반의 정책은 heuristic 기반의 정책에 비해 요망 체력과의 오차율과 무기 탄약 사용 비용 모두 더 낮게 측정된 것을 확인할 수 있다. 이러한 결과는 실험 환경이 다양한 전장 상황에서 연속적으로 변화하는 상 태와 행동 공간의 높은 복잡도를 가지기 때문에 heu- ristic 방법이 최적화 과정에서 국소 최적해(localopti- mization)에 머물러 전역 최적화를 달성하기 어렵다는 한계를 보였기 때문이다[22,23].반면, RL-based 방법은 근사화된 정책을 통해 이러한 환경에서도 효과적으로 의사결정을 수행할 수 있음을 보인다.

4.2.2 강화학습 기반 의사결정 경향석 분석

본 절에서는 RL-based 의사결정 방법에 따른 무기선 택 경향성을 비교한다. 그림 3는 DDPG, TD3 알고리즘 별로 학습된 정책에 대해 실험을 진행하였을 때 적군 부대와의 거리에 따른 아군 부대 선택 히트맵이다. 그림 에서 푸른색 세로줄은 각 부대별 최대 사정거리 τu,max 를 의미한다. 그림 3 (a)에서 DDPG로 학습된 정책은 아군 부대에 대해 적군 부대의 위치가 최대 사거리를 초과하는 경우 거의 선택하지 않도록 학습된 것을 확인 할 수 있는 반면, 그림 3(b)에서 TD3로 학습된 정책은 적군 부대의 위치가 최대 사거리를 초과하는 경우에도 종종 선택을 하는 경향을 보이는 것을 확인할 수 있다. 이는 RL-based 방법 중 DDPG 알고리즘이 TD3 알고 리즘에 비해 심층 신경망이 아군 부대의 최대 사거리에 따른 차이를 더 잘 학습할 수 있음을 의미한다. 추가적 으로 TD3의 최대 사거리 외 비효율적인 부대 선택 행동 으로 인해 표 1의 무기 탄약 소모 비용도 DDPG에 비해 TD3가 소폭 높게 측정된 것을 확인할 수 있다. 이러한 행동 경향성 학습 결과는 TD3 알고리즘의 double Q 기법에 있다. 구체적으로, 2개의 critic 네트워크 중 작 은 Q값을 target 값으로 설정하는 double Q 기법은 tar- get 값이 불안정해지는 문제를 유발할 수 있다. 본 연구 에서 고려하는 시나리오 환경에서 TD3는 이러한 문제 로 인해 불안정한 critic 학습을 보이며, 결과적으로 crit- ic 네트워크의 평가 결과를 통해 학습된 actor는 거리별 부대 선택 경향성을 성공적으로 학습하지 못하는 결과 로 이어졌다. 반면, DDPG의 경우 단일 critic 네트워크 를 사용함으로써, 비교적 안정된 critic 학습을 보였으며 거리에 따른 적절한 부대 선택 경향성을 학습하였다. DDPG와 TD3 알고리즘의 critic 학습 그래프는 Appendix A2에서 확인할 수 있다.

그림 3.

심층 강화학습 알고리즘별 적군 부대와의 거리에 따른 아군 부대 선택 행동 경향성
3.png

Ⅴ. 결 론

본 연구에서는 심층 강화학습을 통해 동적으로 변화 하는 전장 환경에서 효율적으로 아군 부대 및 무기 선택 을 할 수 있는 의사결정 정책 학습을 위한 MDP를 제안 하였다. DDPG, TD3 알고리즘으로 개체를 학습시켜 분석하고, 기존 WTA 문제 접근 방식인 heuristic 알고 리즘과의 성능도 비교하고 분석하였다. 제안하는 MDP 를 통해 학습된 RL-based 정책은 적군 위치에 대해 최 대 사거리가 각각 다른 아군 부대를 선택하는 행동을 성공적으로 학습할 수 있음을 확인하였다. 또한 heu- ristic 알고리즘 기반 정책에 비해 요망 효과 달성률을 27.12%, 탄약 효율성을 38.61% 향상시키고, 요망 체력 오차율을 2.5%, 무기 사용 비용을 11.98% 절감할 수 있음을 확인하였다.

Biography

이 재 휘 (Jaehwi Lee)

2024년 2월: 숭실대학교 전자 정보공학부 IT융합전공 학사

2024년 3월~현재: 숭실대학교 지능형반도체학과 석사과정

<관심분야> 인공지능, 강화학 습, 지능형지휘결심, 자율주행

[ORCID:0009-0001-8014-6493]

Biography

엄 찬 인 (Chanin Eom)

2022년 8월 : 숭실대학교 전자 정보공학부 IT융합전공 학사

2022년 9월~현재 : 숭실대학교 지능형반도체학과 석사과정

<관심분야> 강화학습, 인공지능, 게임이론, 자율주행

[ORCID:0009-0005-6340-6635]

Biography

김 경 수 (Kyeongsoo Kim)

2022년 2월: 한남대학교 정보 통신공학과 학사

2023년 8월: 한남대학교 정보 통신공학과 석사

2023년 8월~현재: 코난테크놀 로지 비전AI연구소 연구원

<관심분야> 강화학습, 인공지능, 지능형지휘결심, 비전인식

[ORCID:0009-0005-6453-0240]

Biography

강 현 수 (Hyunsu Kang)

1996년 8월: 전북대학교 전자 계산학과학사

1999년 2월: 전북대학교 전산 통계학과석사

2000년 1월~2000년 12월: 창 신소프트 개발팀장

2001년 1월~2013년 9월: 코난 테크놀로지 책임연구원

2013년 10월~2016년 8월: 시스트란 수석연구원

2016년 9월~현재: 코난테크놀로지비전 AI연구소 이사

<관심분야> 강화학습, 지능형지휘결심, 인공지능, 객체인식

[ORCID:0009-0001-5184-0259]

Biography

권 민 혜 (Minhae Kwon)

2011년 8월: 이화여자대학교 전자정보통신공학과 학사

2013년 8월: 이화여자대학교 전자공학과 석사

2017년 8월: 이화여자대학교 전자전기공학과박사

2017년 9월~2018년 8월: 이화여자대학교 전자전기공학과 박사후연구원

2018년 9월~2020년 2월: 미국 Rice University, Electrical and Computer Engineering, Postdoctoral Researcher

2020년 3월~2025년 2월: 숭실대학교 전자정보공학부 IT융합전공 조교수

2025년 3월~현재: 숭실대학교 전자정보공학부 IT융합전공 부교수

<관심분야> 강화학습, 자율주행, 모바일 네트워크, 연합학습, 계산신경과학

[ORCID:0000-0002-8807-3719]

References

  • 1 J. Han, et al., "Conceptual design of infrastructure and framework for a futuristic 그림 3. 심층 강화학습 알고리즘별 적군 부대와의 거리에 따른아군부대선택행동경향성 Fig.3. Tendency of unit select actions according to distance from enemy units by deep reinforcement learning algorithm 892 surveillance imagery fusion system," J. KICS, vol. 46, no. 9, pp. 1426-1439, 2021. (https://doi.org/10.7840/kics.2021.46.9.1426)doi:[[[10.7840/kics.2021.46.9.1426]]]
  • 2 S. Jin, et al., "A study on multiple reasoning technology for intelligent battlefield situational awareness," J. KICS, vol. 45, no. 6, pp. 10461055, 2020. (https://doi.org/10.7840/kics.2020.45.6.1046)doi:[[[10.7840/kics.2020.45.6.1046]]]
  • 3 IITP, ICT R&D Technology Roadmap 2025, 2020, Retrieved Oct. 8, 2024, from https://ww w.iitp.kr/kr/1/knowledge/openReference/view.i t?ArticleIdx=5239&count=true.custom:[[[https://www.iitp.kr/kr/1/knowledge/openReference/view.it?ArticleIdx=5239&count=true]]]
  • 4 O. Altinoz, "Evolving model for synchronous weapon target assignment problem," Int. Conf. INISTA, 2021. (https://doi.org/10.1109/INISTA52262.2021.95 48606)doi:[[[10.1109/INISTA52262.2021.9548606]]]
  • 5 J. Kim, et al., "A study on the weapon-target assignment problem considering heading error," Int J. Aeronautical and Space Sci., vol. 25, pp. 1105-1120, 2024. (https://doi.org/10.1007/s42405-024-00717-5)doi:[[[10.1007/s42405-024-00717-5]]]
  • 6 R. Gao, et al., "The weapon target assignment in adversarial environments," Commun. in Comput. and Inf. Sci., vol. 2029, pp. 247-257, 2024. (https://doi.org/10.1007/978-981-97-0885-7_21)doi:[[[10.1007/978-981-97-0885-7_21]]]
  • 7 H. Na, et al., "Weapon-target assignment by reinforcement learning with pointer network," J. Aerospace Inf. Syst., vol. 20, no. 1, pp. 53-59, 2023. (https://doi.org/10.2514/1.I011150)doi:[[[10.2514/1.I011150]]]
  • 8 T. Lillicrap, et al., "Continuous control with deep reinforcement learning," ICLR, 2016.custom:[[[-]]]
  • 9 S. Fujimoto, et al., "Addressing function approximation error in actor-critic methods," ICML, 2018.custom:[[[-]]]
  • 10 D. Ahner and C. Parson, "Optimal multi-stage allocation of weapons to targets using adaptive dynamic programming," Optimization Lett., vol. 9, pp. 1689-1701, 2015. (https://doi.org/10.1007/s11590-014-0823-x)doi:[[[10.1007/s11590-014-0823-x]]]
  • 11 Y. Lu and D. Chen, "A new exact algorithm for the weapon-target assignment problem," Omega, vol. 98, no. 102138, 2021. (https://doi.org/10.1016/j.omega.2019.102138)doi:[[[10.1016/j.omega.2019.102138]]]
  • 12 W. Li, et al., "Knowledge-guided evolutionary optimization for large-scale air defense resource allocation," IEEE TAI, 2024. (https://doi.org/10.1109/TAI.2024.3375263)doi:[[[10.1109/TAI.2024.3375263]]]
  • 13 X. Chang, et al., "Bi-objective multi-stage weapon target assignment problem with limited ammunition," IEEE BigDIA, 2023. (https://doi.org/10.1109/BigDIA60676.2023.10 429060)doi:[[[10.1109/BigDIA60676.2023.10429060]]]
  • 14 C. Wang, et al., "Multi-objective optimization of weapon target assignment based on genetic algorithm," Int. Conf. Computer, CITCE, 2021. (https://doi.org/10.1109/CITCE54390.2021.000 13)doi:[[[10.1109/CITCE54390.2021.00013]]]
  • 15 H. Xing and Q. Xing, "An air defense weapon target assignment method based on multiobjective artificial bee colony algorithm," Computers, Materials & Continua, vol. 76, no. 3, pp. 2685-2705, 2023. (https://doi.org/10.32604/cmc.2023.036223)doi:[[[10.32604/cmc.2023.036223]]]
  • 16 C. Atkeson, et al., "A comparison of direct and model-based reinforcement learning," IEEE ICRA, 1997. (https://doi.org/10.1109/ROBOT.1997.606886)doi:[[[10.1109/ROBOT.1997.606886]]]
  • 17 A. Nagabandi, et al., "Neural network dynamics for model-based deep reinforcement learning with model-free fine-tuning," IEEE ICRA, 2018. (https://doi.org/10.1109/ICRA.2018.8463189)doi:[[[10.1109/ICRA.2018.8463189]]]
  • 18 V. Mnih, et al., "Human-level control through deep reinforcement learning," Nature, vol. 518, pp. 529-533, 2015. (https://doi.org/10.1038/nature14236)doi:[[[10.1038/nature14236]]]
  • 19 H. Hasselt, et al., "Deep reinforcement learning with double Q-learning," AAAI, 2016. (https://doi.org/10.1609/aaai.v30i1.10295)doi:[[[10.1609/aaai.v30i1.10295]]]
  • 20 D. Silver, et al., "Deterministic policy gradient algorithms," ICML, 2014.custom:[[[-]]]
  • 21 R. Sutton, et al., "Reinforcement learning: An introduction," MIT Press, pp. 1-22, 2018.custom:[[[-]]]
  • 22 Y. Zhao, et al., "Multi-weapon multi-target assignment based on hybrid genetic algorithm in uncertain environment," Int. J. Advanced Robotic Syst., vol. 17, no. 2, 2020. 893 (https://doi.org/10.1177/1729881420905922)doi:[[[10.1177/1729881420905922]]]
  • 23 X. Change, et al., "Adaptive large neighborhood search algorithm for multi-stage weapon target assignment problem," Computers & Industrial Eng., vol. 181, no. 109303, 2023. (https://doi.org/10.1016/j.cie.2023.109303)doi:[[[10.1016/j.cie.2023.109303]]]
  • 24 T. Li, et al., "An intelligent algorithm for solving weapon-target assignment problem: DDPG-DNPE algorithm," Computers, Materials & Continua, vol. 76, no. 3, 2023. (https://doi.org/10.32604/cmc.2023.041253)doi:[[[10.32604/cmc.2023.041253]]]

Statistics


Related Articles

다중 빔 저궤도 위성에서 다중 에이전트 심층 강화 학습을 활용한 핸드오버 최소화 기법
C. Lee, T. Kim, I. Bang, S. H. Chae
Optimal Power Allocation and Sub-Optimal Channel Assignment for Downlink NOMA Systems Using Deep Reinforcement Learning
W. Kim, J. Lee, S. Kim, T. An, W. Lee, D. Kim, K. Shin
어뢰위협 회피를 위한 강화학습 기반 기만 전술
J. Chung, G. S. Kim, S. Park, J. Kim, W. Yun
현실적 전장 환경 반영을 위한 무기-표적 할당 기술 동향 연구: 최적 해법부터 심층 강화학습까지
C. Eom, J. Lee, M. Kwon
저궤도 위성통신망에서 에너지 효율 향상을 위한 데이터 공유 기반 협력 강화학습 기법
H. Cho and H. Lee
심층 강화학습 기반 하이브리드 액션을 이용한 자율주행 차량의 고속도로 주행 판단 연구
S. Kim, K. Shin, J. Jeon, J. Bang, J. Kim, S. Jung
심층강화학습기반 자율주행차량을 이용한 원형도로의 Stop-and-Go Wave 현상 해결 전략 연구
D. Lee and M. Kwon
엣지 클러스터 구조의 차량 오프로딩 시스템에서 강화학습을 활용한 부하 분산 알고리즘
S. Bang and M. Lee
장애물과 신호등을 고려한 디지털 가상환경 모델 구현 및 심층강화학습기반 다차선 자율주행 연구
J. Lee and S. Yoo
단말 이동성 예측 기술 기반 심층 강화학습 비지상 네트워크 핸드오버 최적화 연구
J. Kim, H. Jang, I. Cho, M. Shin, S. Jung

Cite this article

IEEE Style
J. Lee, C. Eom, K. Kim, H. Kang, M. Kwon, "Deep Reinforcement Learning Based Weapon-Target Assignment to Support Military Decision-Making," The Journal of Korean Institute of Communications and Information Sciences, vol. 50, no. 6, pp. 884-895, 2025. DOI: 10.7840/kics.2025.50.6.884.


ACM Style
Jaehwi Lee, Chanin Eom, Kyeongsoo Kim, Hyunsu Kang, and Minhae Kwon. 2025. Deep Reinforcement Learning Based Weapon-Target Assignment to Support Military Decision-Making. The Journal of Korean Institute of Communications and Information Sciences, 50, 6, (2025), 884-895. DOI: 10.7840/kics.2025.50.6.884.


KICS Style
Jaehwi Lee, Chanin Eom, Kyeongsoo Kim, Hyunsu Kang, Minhae Kwon, "Deep Reinforcement Learning Based Weapon-Target Assignment to Support Military Decision-Making," The Journal of Korean Institute of Communications and Information Sciences, vol. 50, no. 6, pp. 884-895, 6. 2025. (https://doi.org/10.7840/kics.2025.50.6.884)