Index


Figures


Tables

Bae , Choi , and Han: Farmland Segmentation for Autonomous Agricultural Machinery

Na Yeon Bae♦ , Sung Kyun Choi* and Dong Seog Han°

Farmland Segmentation for Autonomous Agricultural Machinery

Abstract: Smart agriculture leverages information and communication technology in farming to enable automation, providing a sustainable solution to challenges such as climate change and an aging population. Recently, there has been active research on agricultural automation by integrating autonomous driving technology into key agricultural equipment, such as tractors and rice planters. This paper proposes a deep learning architecture to distinguish cultivable land. Using images of farmland captured by drones, we construct a dataset and aim to classify areas such as fields, edges, and roads with a lightweight deep learning model. This paper proposes a deep learning model that refines image regions using a DG-block (Dilated Group Convolution-block) and pixel shuffle. The proposed system demonstrates performance with an mIOU of 78.4%, an accuracy of 77.7%, and an inference time of 50ms.

Keywords: Segmentation , D-block , DG-block , pixel shuffle , semantic segmentation

배나연♦, 최성균*, 한동석°

자율주행 농기계를 위한 경작지 세그멘테이션

요 약: 스마트 농업은 정보통신기술을 농업에 접목하여 자동화하는 기술로 들어선 만큼, 기후변화와 고령화 등의 문제를 해결하는 지속 가능한 방법이다. 최근 농업의 주요 장비인 트랙터와 이앙기에 자율 주행 기술을 접목한 농업의자동화에 관한 연구가 활발하다. 본 논문에서는 경작할 수 있는 농지를 구분하기 위한 딥러닝 구조를 제안한다. 드론으로 촬영한 경작지의 이미지를 사용하여 데이터셋을 구축하고 밭과 모서리, 도로를 경량 딥러닝 모델을 이용하여 영역 구분하고자 한다. 본 논문에서는 DG-블록(DG-block, Dilated group Convolution-block)과 픽셀 셔플(pixel shuffle)을 이용하여 이미지 영역을 세분화하는 딥러닝 모델을 제안한다. 제안 시스템은 mIOU 78.4%와 정확도 77.7%의 성능과 추론시간 50ms를 보여주었다.

키워드: 세그멘테이션, D-블록, DG-블록, 픽셀 셔플, 시맨틱 세그멘테이션

Ⅰ. 서 론

스마트 농업이란 농업 분야에 정보통신기술을 접목 하여 농축산물과 식품 생산뿐만 아니라 유통, 판매, 소 비에 이르는 농업 전 과정에 대한 생태계를 구축하기 위한 기술이다[1]. 스마트 농업은 지속할 수 있는 농업을 성취하게 해주는 방법의 하나다. 현재 농업이 기후변화, 고령화, 농촌 소멸 등으로 어려움을 겪고 있고 이것을 로봇, 드론, 자율주행 등 자동화 기술을 도입함으로 편 리하게 농작업을 할 수 있게 하고 작물에 생산성 높일 수 있다[2,3].

스마트 농업에서 적용할 수 있는 다양한 기술 중에서 자율 주행 기술은 트랙터와 이앙기에서 모내기 또는 수 확과 같은 노동 집약적인 작업을 처리하기 위해 광범위 하게 연구되고 있다. 농업기계의 자율주행은 정부기준 에 따라 네 가지 수준으로 분류를 할 수 있다. 단계 0 원격 제어, 단계 1 자동 조향, 단계 2 자율 주행, 단계 3 자율작업, 단계 4 무인 자율 작업으로 나누어져 있다.

단계 1, 자동 조향은 농업 기계가 직선 주행을 자율 적으로 수행할 수 있게 한다. 단계 2, 자율주행은 기계 가 작업 경로에 따라 직진, 회전 및 속도를 제어할 수 있게 하여 수동 조작 없이 작업을 수행할 수 있게 한다. 단계 3, 자율 작업은기계가 작업 경로를따라 자율적으 로 작업을 수행하며, 운전자나 작업 제어 없이 수행할 수 있게 한다. 단계 4, 무인 자율 작업은 기계가 환경 인식과 인공지능을 사용하여 무인으로 작업을 수행할 수 있게 한다[3]. 현재 자율 농업 기계 기술 개발은 단계 3 자율 작업 단계까지 기술 개발되었다.

자율주행을 위한 필드 세분화 목적을 위해 이미지 분할 네트워크를사용할 수 있다. 의료 분야에서사용되 는 U-Net[4], 자동차 자율주행을 위해 설계된 PSPNet[5], 이미지 분할에 널리 사용되는 DeepLabV3[6]와 같은 다 양한 세그멘테이션 모델이 있다.

본 논문에서는 드론으로 촬영한 항공 이미지를 사용 하여 경작지, 경작지의 모서리및 도로를 인식하고분류 하여 자율 주행 트랙터를 위한 필드 인식 및 주행 맵 생성을 목적으로 한다. 이미지 분할을 DG-블록 (DG-block)과 픽셀 셔플(pixel shuffle)을 이용하여서 모델을 만들고 사용하여 필드의 영역을 나누고 식별하 는 의미론적 분할을 수행한다.

서론에 이어 본 논문의 구성은 다음과 같다. 2장에서 는 세그멘테이션에 대한 설명과 실시간과 임베디드에 서의 세그멘테이션에 대해 알아본다. 3장에서는 커스텀 모델의 구조와 사용한 블록, 손실함수에 관해서 설명한 다. 4장 실험 결과에서는 훈련을 위한 데이터셋과 세부 적인 훈련 설정 방법과 결과를 설명한다. 마지막 5장에 서 논문을 요약하며 결론을 맺는다.

Ⅱ. 관련 연구

농기계 자율주행을 위한 농경작지 환경 인식 시스템 에서 인식 기술은 CNN 모델인 YOLO[7], Faster R-CNN[8], PSPNet[5], PIDNet[9]과 같은 딥러닝 네트워 크가 사용되고 있다.

2.1 시멘틱 세그멘테이션

시멘틱 세그멘테이션은 이미지의 각 픽셀이 속하는 객체의 범주를 분류하여 복잡한 배경 속에서도 특정 대 상을 정확하게식별하는 데 매우유용한 기법이다. 이러 한 접근 방식은 특히 농경작지 내 다양한 특징을 가진 영역을 세밀하게 인식하고 구분하는 데 적합하다.

실제 농경작지 환경인식에서 딥러닝 세그멘테이션 모델을 적용하기 위해서는 실시간성과 모델의 경량화 가 필요하다. 실시간 시맨틱 세그멘테이션은 고속으로 이미지를 처리하며 높은 정확도를 유지해야 한다. 실시 간 시맨틱 세그멘테이션을 위한 방법론들로는 입력 이 미지의 사이즈를 줄이거나 가벼운 인코더 구조 사용, 저수준의 특징과 고수준의 문맥 정보를 사용을 위한 이 중 분기 아키텍쳐 등을 사용한다.

농기계 자율주행 기계에서 사용하기 위해서는 모바 일이나 임베디드 보드의 제한된 성능 환경 안에서 모델 의 구동을 해야 한다[10]. 이러한 환경에서는 딥러닝 객 체 검출과 장면 분할을 위해서 낮은 응답 지연 시간과 연산량의 최적화 등의 모델 경량화를 할 필요가 있다. 이러한 요구사항을 맞추기 위해서 가지치기(pruning), 양자화(quantization), 깊이별 분리 합성곱(depthwise separable convolution)과같은최적화방식을사용한다[10].

2.2 U-Net

대표적인 세그멘테이션 모델 중 하나인 U-Net은 의 료 영상 분석을 위해 처음 개발된 인코더-디코더 기반 의 모델이다[참고]. U-Net의 인코더는 입력 이미지에서 중요한 특징을 추출하고, 디코더는 이를 바탕으로 픽셀 단위의 분류를 수행하여 더욱 정교한 세그멘테이션을 가능하게 한다. 특히, U-Net의 주요 특징 중 하나인 스 킵 연결(skip connection 영어)은 인코더에서 추출된 정 보가 디코더로 전달될 때 위치 정보가 손실되지 않도록 돕는다. 이를 통해 네트워크가더욱 정확한 위치정보를 유지하여 픽셀 단위의 세밀한 경계 인식이 가능해진다. 이러한 구조는 조직과 조직 사이의 경계가 모호한 경우 에도 높은정확도를 보이며, 의료 영상에서 조직의세부 구조를 파악하는 데 뛰어난 성능을 발휘한다. 이처럼 U-Net은 그 효율성과 간단한 구조로 인해 의료 영상 분야 외에도 다양한 분야에서 널리 채택되고 있으며, 특히 농경작지 영역을 구분하는 데 효과적으로 활용될 수 있다.

농경작지 데이터셋 또한 특정 대상의 경계를 정확히 식별해야 하는 과제가 있다는 점에서 U-Net이 처음 제 안된 의료 영상 데이터셋과 유사하다. 특히, 농경작지 데이터셋에서는 고해상도 이미지 내에서 다양한 형태 와 크기의 구조적 경계 특징을 정확히 파악해야 하는데, 이러한 점에서도 U-Net의 구조는 농경작지 데이터를 세밀하게 분류하는 데 매우 적합하다.

Ⅲ. 제안 시스템

3.1 농경작지 영상의 특징

농경작지 영상은 일반적으로 그림 1과 같이 농경작 지, 농경작지 모서리, 도로, 배경의 4가지 영역으로 크 게 구분된다. 경작지를 구분하는 것은 흙으로 쌓은 경작 지 모서리나 흙과 잡초로 이루어진 경계 모서리로 이루 어진다. 경작지와 경작지 모서리의 패턴 및 색상 등의 차이로 발생하는 경계가 경운작업을 하기 위한 주행의 기준이 된다. 본 논문에서는 이러한 토양 패턴 및 색상 등의 차이로 발생하는 경작지 모서리를 파악하는 이미 지 분할 모델을 만들고자 한다.

그림 1.

농경작지 주변 환경의 풍경 및 특징
1.png
3.2 제 안모델

본 논문에서는 트랙터 주변 환경을 인식하기 위해 단안 카메라로 수집한 데이터셋을 바탕으로 딥러닝 세 그멘테이션 알고리즘을 설계하였다. 제안하는 농경작 지 딥러닝 세그멘테이션 모델은 농경작지 영상 이미지를 픽셀 단위로 세분화하며, 농기계 및 다양한 임베디드 환경에서의 활용을 위해 경량화된 모델 설계 에 중점을 두었다.

제안하는 모델은 모델의 전체적인 그림 2와 같다. 첫 번째와 두 번째 계층은 이미지의 크기를 줄이면서 특징을 추출할 수 있게 3×3 합성곱, 배치 정규화(batch normalization), ReLU를 사용한 3×3 CBR-블록 (convolution batch normalization ReLU-blcok)을 사 용하였다. 세 번째 계층에서 다섯 번째 계층까지는 적은 연산량으로 특징을 추출할 수 있는 DG-블록을 사용하 여 다중 스케일의 특징을 추출한다. 인코더의 각 계층에 는 맥스풀링을 사용하여 사이즈를 줄였다.

그림 2.

제안하는 세그멘테이션 모델 DG-Net와 DG-블록, 업샘플링 모듈 구조
1.png

디코더는 U-Net의 스킵 연결 사용하여 인코더의 또 한 경량화를 시키기 위해 업샘플링 모듈[11]을 사용하였 다. 픽셀 셔플링을 사용하여서 차원의 커짐에 반비례하 여 채널의 수를 줄여나가며 매개변수의 개수 또한 줄여 나간다. 업샘플링 모듈을 통과한후에 픽셀 단위의 분류 를 수행한다. DG-Net에서는 256×256 입력 크기를 학 습 후에 1920×1080 풀HD 해상도 출력 크기로 출력되 도록 하였다.

3.3 DG-블록

본 논문에서는 Sun 등이 제안한 SE-ResNeXt[12] 모 델의 Y-블록과 Gao 등이 제안한 Regseg[13]의 D-블록 에서 장점을 반영하여 DG-블록을 제안한다. DG-블록 의 정의를 다음과 같이 정의된다.

(1)
[TeX:] $$\begin{equation} F_{D G}=X \oplus \operatorname{Conv}_{1 \times 1}\left(\operatorname { C o n v } _ { 1 \times 1 } \left(S E\left(\sum_k^n \operatorname{\overset{k}{\underset{3 \times 3} {ConvX }}}\right)\right.\right. \end{equation}$$

여기서 FDG는 DG-블록을 거친 특징맵, X는 CBR블록 을 입력 특징맵 X, Conv1×1는 1D 합성곱 연산, Conv3×3는 3D 합성곱 연산, SE는 SE-레이어 연산,⊕ 요소별 곱연산을 의미한다.

FDG는 1×1 합성곱을 통해 입력 채널 수를 2m 개수 로 만든다. 입력채널은 확장 비율이 다른 N개에 그룹으 로 나누어 그룹 합성곱(grouped convolution)을 실행한 다. 그룹 합성곱을 사용하면 일반 합성곱에 N배 만큼의 매개변수의 수와 연산량을 줄 일 수 있다. 또한 서로 다른 확장 비율을 사용하여서 수용영역이 다른 다중 스 케일의 특징 맵을 얻을 수 있다. 추출한 다중 스케일의 특징은 연결(concatenate) 연산을 사용하여 합하며 SE- 레이어를 사용하여 각 채널의 특징의 중요도를 주어 정 보손실을 보완한다.

Ⅳ. 실험 및 결과

4.1 데이터셋

농경작지의 환경 분할을 위한 딥러닝 모델 개발을 위해 다음과 같이 데이터를 수집하고 데이터셋 그림 3 을 구축하였다. 데이터 수집을 위한 장비로 4K 영상을 단안카메라로촬영할수있는DJI mini 4 Pro라는드론 모델을 사용하였다. 드론이 농경작지의 모서리 부븐을 돌면서 다양한 각도에서 농경작지를 촬영한 영상으로 구성되어 있으며, 다양한 시점에서의 농경작지의 특징 을 반영하고자 하였다. 영상 데이터는 10fps의 속도로 3840×2160의 해상도로 수집이 되었다.

그림 3.

농경작지 이미지와 마스크 이미지 데이터셋
1.png

시맨틱 세그멘테이션 모델을 학습시키기 위해서는 세그멘테이션 맵 필요하며, 시맨틱 세그멘테이션 맵을 만들기 위해 라벨링 툴을 사용하여 마스크 이미지를 생 성할 필요가있다. 마스크이미지는 농경작지 환경분할 이라는 목적에 따라 농경작지와 농경작지 모서리, 도로, 배경 총 4개의 클래스로 구성하여 마스크 이미지를 생 성하였다. 데이터셋는 966개로 학습 이미지 772장, 검 증 97장, 테스트 97장으로 구성하였다. 훈련 중에는 256×256로 이미지의 크기를 줄여서 학습을 진행하였다.

4.2 손실 함수

농경작지 데이터셋의 이미지는 경작지에 많은 픽셀 의 클래스가 몰려있어 경작지 픽셀에 비해 적은 픽셀을 가진 경작지 모서리의 경우 편향된 학습이 진행되는 문 제가 발생한다. 이러한 편향된 학습을 예방하기 위해서 학습에서는 초점 손실(focal loss)[14]사용하였다.

(2)
[TeX:] $$\begin{equation} F L\left(p_t\right)=-\left(1-p_t\right)^\gamma \log \left(p_t\right) \end{equation}$$

초점 손실은 객체 분류 확률 pt의 로그값에 가중치 [TeX:] $$\begin{equation} \left(1-p_t\right)^r \end{equation}$$을 곱하여 얻을 수 있다. (1)에서 pt 객체의 확률을 가리키며 [TeX:] $$\begin{equation} \left(1-p_t\right)^r \end{equation}$$ 가중치이다. 가중치는 [TeX:] $$\begin{equation} \left(1-p_t\right) \end{equation}$$의 반대의 확률을 가지고 있어 pt가 높은 확률 을 가질 경우 손실 함수의 값을 줄여 매개변수의 가중치 를 더 적게 변화시킨다. 반대로 pt 값이 작다면 가중치를 키워 손실 함수의 값을 크게 만들어 매개변수의 가중치 를 변화 폭을 크게 만들 수 있다. 매개변수 [TeX:] $$\begin{equation} \gamma \end{equation}$$는 집중 매개변수라 하며, 가중치를 영향을 증가시키거나 줄이 는 역할을 한다.

4.3 환경 설정

성능 비교를 위해서 성능 비교 지표인 정확도와 mIOU 지표를 사용한다. 모델에서 사용한 초매개변수는 40 에포크(epoch), 학습률(learning rate) 0.01, 배치 크 기(batch size) 4이다. 손실함수는 초점 손실(focal loss) 에 감마 값 2, 옵티마이저로 아담(Adam)을 사용하였다.

모델은 파이토치(pytorch) 프레임워크를 사용하여 구현하고, NVIDIA GeForce RTX 4080 GPU(메모리 16GB)에서 훈련 및 테스트를 수행하였다.

4.4 결과

DG-Net이 농경작지 세그멘테이션 모델로 적절하다 는 것을 알아보기 위해서 다른 모델들과 추론 속도 및 정확도를 비교하였다. 픽셀을 분류하고 결과 이미지를 생성까지의 시간을 측정하여 추론 속도를 측정하였다. 추론 속도의 목표는 50ms 기준은 초당 20프레임을 처 리할 수 있도록 기준을 잡았다. 추론 속도의 목표의 경우 또한 추론 속도가 목표 이하라도 정확도가 만족 하지 못하는 수준이라면 농경지 세그테이션 모델로는 사용하지 못하기에 mIOU와 정확도를 이용하여 측정 하였다.

DG-Net과 다른 모델들의 농경지 세그멘테이션 추론 속도를 측정하였다. 실험한 모델들의 성능은 30fps에는 못 미치는 결과이지만 실제 과제에서 목표로 하던 20fps 가까운 성능을 모델을 확인하였다.

DG-Net의 경우 20프레임을 달성함으로 농경작지 세그멘테이션에 적절한 모델임을 확인하였다. 표 1은 모델별 추론 시간과 fps를 나타낸 표이다.

모델별 농경작지 이미지 세그멘테이션 정확도 및 IOU 비교는 표 2와 같다. 정확도와 mIOU 성능지표에 서 DG-Net이 가장 높게 나오는 것을 확인하였다. 표 3은 클래스별 정확도 및 IOU 나타내는 표이다. 여기서 성능이 높은 PSPNet과 DG-Net을 살펴보면 PSPNet 경 우 배경 클래스의 IOU가 높아서 표 2의 mIOU의 성능 이 높아진 것을 볼 수 있다. DG-Net의 경우 의미 있는 클래스인 농경작지와 도로에서 다른 모델들과 비교하 며 좋은 성능을 가지고 있다고 보여진다.

표 1.

세그멘테이션 모델 추론시간과 fps
Model Time(ms) FPS
U-Net 82 13
PSPNet 101 10
PSP-mobileNet 62 16
PIDNet 42 24
DG-Net (Ours) 50 20

표 2.

세그멘테이션 모델 성능 비교표
Model Accuracy (%) mIOU (%)
U-Net 75.3 74.8
PSPNet 76.5 78.2
PSP-mobileNet 75.1 77.8
PIDNet_s 59 51.5
DG-Net(Ours) 77.7 78.4

모델 별 이미지 세그멘테이션 결과를 사진으로 표현한 결과는 그림 4와 같다. DG-Net의 결과는 GT 비교하면 다른 모델들과 비교하여 잘 구분하는 것을 보여주었다. 그림 4의 첫 번째 이미지의 경우 원본이지미와 비교하 여 GT에 경작지 모서리가 빠진 부분이 있는데 DG-Net 의 경우 그 부분을 포함하여 이미지 세그멘테이션하는 모습을 보여주었다.

모델별 메모리량과 매개변수 수의 비교는 표 4과 같 다. 메모리량과 파라미터 수는 PIDNet_s가 좋지만 PIDNet_s의 경우 다른 모델들과 비교하여 성능이 많이 떨어지는 모습을 보여주어 적합한 모델이라고 보이지 않는다. 비슷한 성능을 보여준 PSPNet 모델은 다른 모 델과 비교하여 매개변수의 수가 많고 추론 시간이 좋지 않은 모습을 보인다. 반면 DG-Net은 메모리양에서는 많은 차이를 보이지 않지만 매개변수 수를 비교하였을 때 다른 모델들보다 매개변수 수가 월등히 적은 것을 보여주었다.

DG-블록의 그룹 합성곱의 개수를 변화시켜 메모리 사용량 및 파라미터의 변화를 관찰하였다. DG-블록의 그룹 합성곱 개수에 따른 메모리량 및 매개변수 비교는 표 5와 같다. 그룹 합성곱의 개수가 늘수록 파라미터가 수가 줄어들며 경량화 가능하였다.

표 3.

클래스 별 농경작지 세그멘테이션 모델 성능 비교표
Model Paddy Accuracy (%) Paddy IOU (%) Paddy edge Accuracy(%) Paddy edge IOU(%) Road Accuracy(%) Road IOU (%) Background Accuracy (%) Background IOU (%)
U-Net 89.5 85.4 79 62 44 72 89 80
PSPNet 90.3 86.6 80 66.8 47.5 76.1 88.3 83.4
PSP-mobile Net 90 88.1 77 64.1 45.5 77 88 82
PIDNET_s 63 61 47 40 36 57 90 48
DG-Net (Ours) 93.8 88.6 80.1 65.7 48.2 79.6 91.7 77.1

표 4.

모델별 메모리 사용량과
Model Cache (MB) #Params size (MB)
U-Net 242 3.2M 38
PSPNet 416 4.9M 101
PSP-mobileNet 230 2.6M 54
PIDNET_s 110 0.7M 110
DG-Net(Ours) 160 1.17M 36

표 5.

DG-블록의 그룹 합성곱 개수에 따른 메모리량 및 매 개변수 비교
Group number Cache (MB) #Params size (MB)
1 232 2.08M 61
2 208 1.37M 53
4 196 1.26M 47
8 178 1.20M 42
16 160 1.17M 36
32 160 1.16M 33

또한 파라미터 수가 줄어 메모리량도 줄어드는 걸 보여주었다. 채널의 수에 한계가 있어서 일정 수준 이후 로는 파라미터의 감소가 크게 눈에 띄지 않고 메모리양 또한 고정되는 것을 확인하였다.

Ⅴ. 결 론

본 논문에서는 드론으로 촬영한 영상을 데이터셋으 로 사용하여 경작지와 경작지 모서리 및 도로를 픽셀 단위로 분류하는 딥러닝 세그멘테이션 시스템 모델을 제안하였다. 농기계에서 사용을 하기 위해 서 처리 속도와 경량화된 모델을 최우선적으로 고려하 였다. 팽창 그룹 합성곱을 이용한 DG-블록을 제안하 여 경량화된 모델로 속도를 높여 목적을 달성하고자 하였다.

DG-블록을 이용한 DG-Net은 경량화와 목표한 추론 속도로 이미지를 처리하는데 성공하였다. DG-Net의 정 확도는 농기계에서 사용하기 무리가 없고 작은 컴퓨팅 자원을 사용하여 다른 시스템과 같이 사용해도 지장이 주지않는 이미지 세그멘테이션 모델을 제안하였다고 보여진다.

추후 연구 주제에서는 좀 더 세밀한 부분을 세그멘테 이션 할 수 있도록 모듈을 추가하는 방면으로 연구를 진행하고자 한다.

Biography

배 나 연 (Na Yeon Bae)

2023년 8월: 영남대학교 정보 통신공학과 공학사

2023년 9월~현재: 경북대학교 전자 전기공학부 석사과정

<관심분야> 인공지능

Biography

최 성 균 (Sung Kyun Choi)

2002년: 비앤디 책임연구원

2005년: 경북대학교 전자전기공학부 공학사

2016년: 이모션 연구소장

2023년: 모비루스 인공지능 연구소장

<관심분야> 모빌리티, 자율주행, 임베디드, 인공지능

Biography

한 동 석 (Dong Seog Han)

1987년: 경북대학교 전자공학 과 공학사

1989년: 한국과학기술원 전기 및 전자공학과 공학석사

1993년: 한국과학기술원 전기 및 전자공학과 공학박사

1996년~현재: 경북대학교 전학 공학부 교수

<관심분야> 통신 신호처리, 자율주행자동차, 인공지능

References

  • 1 H. Patel and B. Shrimali, "AgriOnBlock: Secured data harvesting for agriculture sector using blockchain technology," ICT Express, vol. 9, no. 2, pp. 150-159, Apr. 2023. (https://doi.org/10.1016/j.icte.2021.07.003)doi:[[[10.1016/j.icte.2021.07.003]]]
  • 2 A. E. Mane, K. Tatane, and Y. Chihab, "Transforming agricultural supply chains: Leveraging blockchain-enabled java smart contracts and IoT integration," ICT Express, vol. 10, no. 3, pp. 650-672, Jun. 2024. (https://doi.org/10.1016/j.icte.2024.03.007)doi:[[[10.1016/j.icte.2024.03.007]]]
  • 3 S. Lim, M. Kim, D. Lee, and M. Won, "Vision-based farmland boundary detection algorithm for automation of an agricultural tractor," J. Inst. Control, Robotics and Syst., vol. 29, no. 3, pp. 208-216, Mar. 2023. (https://doi.org/10.5302/J.ICROS.2023.22.022 6)doi:[[[10.5302/J.ICROS.2023.22.0226]]]
  • 4 O. Ronneberger, P. Fischer, and T. Brox, "U-net: Convolutional networks for biomedical image segmentation," Medical Image Comput. and Computer-Assisted Intervention-MICCAI 2015: 18th Int. Conf., pp. 5-9, Munich, Germany, Oct. 2015. (https://doi.org/10.1007/978-3-319-24574-4_28)doi:[[[10.1007/978-3-319-24574-4_28]]]
  • 5 H. Zhao, J. Shi, X. Qi, X. Wang, and J. Jia, "Pyramid scene parsing network," in Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), pp. 2881-2890, Honolulu, HI, USA, Jul. 2017. (https://doi.org/10.1109/CVPR.2017.660)doi:[[[10.1109/CVPR.2017.660]]]
  • 6 L.-C. Chen, Y. Zhu, G. Papandreou, F. Schroff, and H. Adam, "Encoder-decoder with atrous separable convolution for semantic image segmentation," in Proc. Eur. Conf. Comput. Vis. (ECCV), pp. 801-818, Munich, Germany, Sep. 2018. (https://doi.org/10.1007/978-3-030-01234-2_49)doi:[[[10.1007/978-3-030-01234-2_49]]]
  • 7 J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, "You only look once: Unified, real-time object detection," in Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), pp. 779-788, Las Vegas, NV, USA, Jun. 2016. (https://doi.org/10.1109/CVPR.2016.91)doi:[[[10.1109/CVPR.2016.91]]]
  • 8 S. Ren, K. He, R. Girshick, and J. Sun, "Faster R-CNN: Towards real-time object detection with region proposal networks," IEEE Trans. Pattern Anal. Mach. Intell., vol. 39, no. 6, pp. 1137-1149, Jun. 2017. (https://doi.org/10.1109/TPAMI.2016.2577031)doi:[[[10.1109/TPAMI.2016.2577031]]]
  • 9 J. Xu, Z. Xiong, and S. P. Bhattacharyya, "PIDNet: A real-time semantic segmentation network inspired by PID controllers," in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit. (CV PR), pp. 19529-19539, Vancouver, BC, Canada, Jun. 2023. (https://doi.org/10.1109/CVPR52729.2023.0187 1)doi:[[[10.1109/CVPR52729.2023.01871]]]
  • 10 S. W. Lee, G. D. Lee, J. G. Ko, S. J. Lee, and W. Y. Yoo, "Recent trends of object and scene recognition technologies for mobile/embedded devices," Electr. Telecommun. Trends, vol. 34, no. 6, pp. 133-144, Dec. 2019. (https://doi.org/10.22648/ETRI.2019.J.340612)doi:[[[10.22648/ETRI.2019.J.340612]]]
  • 11 H. Son and J. Weiland, "Semantic segmentation optimized for low compute embedded devices," IEEE Access, vol. 10, pp. 9651496525, Aug. 2022. (https://doi.org/10.1109/ACCESS.2022.319941 8)doi:[[[10.1109/ACCESS.2022.3199418]]]
  • 12 K. Sun, B. Xiao, D. Liu, and J. Wang, "Deep high-resolution representation learning for human pose estimation," in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit. (CVPR), 594 pp. 5693-5703, Long Beach, CA, USA, Jun. 2019. (https://doi.org/10.1109/CVPR.2019.00584)doi:[[[10.1109/CVPR.2019.00584]]]
  • 13 R. Gao, "Rethinking dilated convolution for real-time semantic segmentation," in Proc. IEEE/CVF Conf. Comput. Vis. Pattern Recognit. Workshops (CVPRW), p. E675, Vancouver, BC, Canada, June 2023. (https://doi.org/10.1109/CVPRW53098.2023.00 349)doi:[[[10.1109/CVPRW53098.2023.00349]]]
  • 14 T.-Y. Lin, P. Goyal, R. Girshick, K. He, and P. Dollár, "Focal loss for dense object detection," in Proc. IEEE Int. Conf. Comput. Vis. (ICCV), pp. 2980-2988, Venice, Italy, Oct. 2017. (https://doi.org/10.1109/ICCV.2017.324)doi:[[[10.1109/ICCV.2017.324]]]

Statistics


Related Articles

스마트 헬스 시티 구현을 위한 얼굴 영상기반 심박수 추출 딥러닝 모델 최적화
G. Kim, Y. S. Hariyani, S. Han, H. Lee, R. Sohn, C. Park
Real Time 3D Segmentation System Based on YOLOv8 and SAM for Sorting Recyclable Plastic Bottle Waste
H. Cho
구강 스캐너 영상 세그멘테이션을 위한 실시간 딥 모델 개발
H. Yoo, H. Cho, J. Kim, K. Jun
자율주행을 위한 BEV Segmentation에 관한 연구
W. Jun and S. Lee
Deep Learning-Based Approaches for Nucleus Segmentation
D. C. Bui and M. Yoo
위성 영상의 의미론적 분할을 위한 확장된 심층 신경망 연결 모델
J. Jung and Y. Shin
YOLO V5의 생성 데이터를 이용한 병렬 U-Net 기반 의미론적 분할 방법
Guk-HanJo, Kwang-MinHyun, Young-JoonSong
Improving Accuracy in Detecting Unknown Objects and Enhancing Low Visibility Conditions Caused by Sea Fog in Coastal Areas
M. u. Jung and S. Y. Yoon
DTV 기반 수동형 레이더에서 U-Net을 이용한 드론 표적 탐지 기법
J. Park, D. Park, J. Bang, H. Kim
웹 검색엔진 및 딥러닝 기반 한글 단어 인식 OCR 시스템
H. Jang, S. Goh, J. Lee, S. Park

Cite this article

IEEE Style
N. Y. Bae, S. K. Choi, D. S. Han, "Farmland Segmentation for Autonomous Agricultural Machinery," The Journal of Korean Institute of Communications and Information Sciences, vol. 50, no. 4, pp. 587-594, 2025. DOI: 10.7840/kics.2025.50.4.587.


ACM Style
Na Yeon Bae, Sung Kyun Choi, and Dong Seog Han. 2025. Farmland Segmentation for Autonomous Agricultural Machinery. The Journal of Korean Institute of Communications and Information Sciences, 50, 4, (2025), 587-594. DOI: 10.7840/kics.2025.50.4.587.


KICS Style
Na Yeon Bae, Sung Kyun Choi, Dong Seog Han, "Farmland Segmentation for Autonomous Agricultural Machinery," The Journal of Korean Institute of Communications and Information Sciences, vol. 50, no. 4, pp. 587-594, 4. 2025. (https://doi.org/10.7840/kics.2025.50.4.587)