1p 안녕하십니까. 저는 인하대학교 더 기가차 팀 박미령입니다. 2p 발표는 다음과 같이 진행하겠습니다. 먼저 왜 도심지에서의 자율주행 기술이 필요한지, 또 개발한 기술이 사회적으로 어떠한 기여가 가능할지에 대해 말씀드리면서 시작하겠습니다. 후에 저희 팀의 기술을 소개하고 그에 대한 고찰에 대해 말씀드리겠습니다.

3p

4p 현재 양산되고 있는 차량의 자율주행 단계는 SAE기준 레벨 3입니다. 이는 조건부 자동화 단계로 아직까지 모든 판단과 제어를 차량에게 맡길 수 없는 상황입니다. 실제로 고속도로에서도 자율주행으로 인한 피해가 있었으며, 이를 교통상황이 조금 더 복잡한 도심지에서 활용하기엔 신뢰할 수 없는 단계라고 할 수 있습니다.

5p 따라서! 앞으로의 자율주행에서는 더욱 신뢰할 수 있고, 신뢰를 바탕으로 사용자의 편의를 보장할 수 있는 시스템이 필요합니다.

6p 신뢰성과 편의성이라는 키워드를 중심으로 기술 개발하여 교통사고의 예방 뿐 만 아니라, 주변 교통상황에 따라 최적의 엔진 및 모터를 제어하여 연비를 향상시킬 수 있습니다. 또, 이러한 자율주행 기술을 통해 교통약자의 이동성도 보장할 수 있을 것이라고 생각합니다.

7p 다음은 도심지에서의 신뢰성 높은 자율주행을 위해서 팀에서 연구했던 기술에 대해 말씀드리겠습니다.

8p 먼저 카메라 센서를 통한 인지입니다. 저희 팀은 카메라 3대를 사용해 러버 콘, 표지판, 신호등을 인식합니다. 각각의 객체를 인지하기 위해서 카메라마다 개별적인 도커 환경을 구축해 사용했고 후에 ROS를 통해서 판단부로 정보를 전달합니다.

9p 카메라로 로지텍 사의 브리오 4K를 사용했고, 역광 문제를 물리적으로 해결하기 위해 ND필터를 카메라 앞에 부착했습니다.

10p 카메라 3대에 각각의 딥러닝 모델을 구동하기 위해서 도커를 사용했습니다. 저희가 주로 사용했던 ubuntu와 엔비디아의 쿠다, 파이썬, ROS가 각자 맞물리게 작동하는 버전이 있었기 때문에 이를 로컬에서 버전을 변경해가며 맞추기에는 위험했습니다. 따라서, 도커로, 쉽게말해 가상환경을 만들었습니다. 도커의 가장 큰 이점은 한 번 환경을 이미지로 구축하면, 컨테이너를 쉽게 생성했다 지웠다 를 할 수 있었기 때문에 편리하게 이용했습니다.

11p 이런 도커환경에서 각각 YOLOv4 딥러닝 모델을 사용해 객체를 인지하게 했습니다. 추가로 TensorRT까지 적용해 처리속도를 향상시켰습니다. 이러한 방식으로 얻어낸 객체의 바운딩박스, confidence, 객체정보를 ROS상의 하나의 메시지에 담아 판단부에 넘겨줍니다.

12p 다음은 저희가 딥러닝을 위해 각 객체마다 데이터를 구성한 것을 나타낸 표입니다.

13p Yellow 87.06 -> 99.98 (+12.92 %p, x14.84%) Red+Left 89.46 -> 99.81 (+10.35 %p, x11.57%)

14p 다음은 완벽한 자율주행을 위해서는 빼놓을 수 없다고 생각하는 라이다 센서입니다. 라이다는 벨로다인사의 16채널 고해상도 라이다를 사용했습니다. 라이다센서로부터 얻어오는 데이터를 전처리하기 위해 PCL 라이브러리를 사용했습니다. 그다음, segmentation을 위해 RANSAC알고리즘을 사용했으며, 점들을 군집화 하기 위해 DBSCAN을 사용했고 이를 통해 객체의 3D 바운딩 박스를 얻어 냈습니다.

15p 다음은 라이다를 통한 객체 탐지 결과 입니다

16p 다음의 플로우 차트와 같이 카메라 -라이다 센서퓨전을 진행하였습니다.

17p 카메라와 라이다 좌표계의 변환을 위해 카메라와 라이다 사이의  회전, 이동 행렬을 구하는 캘리브레이션 과정을 거쳤습니다.

18p 기가차에서 센서퓨전을 통해 카메라 센서로는 객체 바운딩박스 및 클래스 정보, 라이다의 포인트 클라우드 정보를 융합하여 더욱 신뢰도 있는 객체의 정보와 거리를 얻을 수 있었습니다.

19p 라이다 포인트 클러스터링 시 바운딩 박스 크기별로 디비스캔 파라미터를 조절하여 유동적으로 클러스터링을 진행하였습니다. 표를 보시게 되면 먼저 거리별 바운딩 박스 크기를 측정하고 그에 맞게 파라 설정하였습니다.

20p 위의 방식을 적용한 결과 기가차팀은 더 먼 객체에 대한 탐지가 가능 해졌습니다.

21p 도로 주행 시 욜로 탐지 과정에서 바운딩 박스가 겹쳐 저희가 사용한 바운딩 박스 내의 포인트 클라우드를 클러스터링을 진행한다면 앞차량의 데이타가 겹쳐 클러스터링 되는 문제가 발생하였습니다. 이를 해결하기 위해 욜로 탐지를 통해 얻은 객체 정보를 바운딩 박스 크기 기준 내림차순으로 정렬하였습니다. 그 다음 정렬 순서대로 박스에 해당 하는 포인트 클라우드를 클러스터링 하고 데이타를 제거하여 문제를 해결하였습니다.