Tải bản đầy đủ (.pdf) (6 trang)

Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS

Bạn đang xem bản rút gọn của tài liệu. Xem và tải ngay bản đầy đủ của tài liệu tại đây (1.1 MB, 6 trang )

Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)

Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng
bốn bánh dựa trên hệ điều hành ROS
Hà Thị Kim Duyên1, Trần Bá Hiến1, Lê Mạnh Long1, Ngô Mạnh Tiến2
1
Trường Đại học Công nghiệp Hà Nội
Email: , ,
2
Viện Vật lý, Viện Hàn lâm KH&CN Việt Nam
Email:

giả xây dựng và thực thi trên nền ROS. Để tăng độ
chính xác, SLAM thường kết hợp các dữ liệu từ nhiều
cảm biến qua các phương pháp xác suất như Markov,
Kalman, … [6], [7], [8]. Tuy nhiên việc sử dụng nhiều
cảm biến sẽ làm tăng độ phức tạp, chi phí và thời gian
xử lý của hệ thống. Đặc biệt là robot tự hành hiện nay
không chỉ giới hạn trong việc di chuyển, mà nó cịn
được tích hợp các cơ cấu chấp hành, cánh tay máy
robot…để thực hiện các nhiệm vụ cụ thể nào đó trong
mơi trường khơng gian hoạt động, do đó SLAM khơng
chỉ ý nghĩa trong việc xây dựng bản đồ 2D môi trường
hoạt động phục vụ điều hướng cho robot, mà còn cần
thiết có các bản đồ 3D (SLAM3D) nhằm phục vụ các
bài tốn tương tác khác của robot trong mơi trường
hoạt động đó.
Hiện nay với sự phát triển của lĩnh vực thị giác
máy tính nên các hệ thống SLAM thường sử dụng
camera để thu thập dữ liệu từ mơi trường bên ngồi
của những tác nhân gần xung quanh và kết hợp với


Lidar để xác định vị trí của các tác nhân xa. Cùng với
xu hướng sử dụng hệ điều hành robot – ROS (Robot
Operating System) thì phương pháp SLAM cũng được
phát triển hiệu quả. Các phương pháp SLAM sử dụng
cảm biến trên nền tảng ROS phổ biến hiện nay như
Visual SLAM. Một số phương pháp của Visual SLAM
như maplab, ORB-SLAM2, DVO-SLAM, MCPTAM,
RTAB-Map, RGBDSLAMv2… [9], [10], [11]. Trong
các phương pháp của Visual SLAM thì RTAB-Map
tương đối tồn diện khi có thể cung cấp bản đồ dạng
lưới 2D (Occupancy Grid) như cách sử dụng cảm biến
thông thường hay bản đồ 3D (Octomap). RTAB-Map
được phân phối dưới dạng một ROS package có khả
năng xử lý thời gian thực, tối ưu hóa việc định vị và
tạo bản đồ thực tế [12].
Bài báo nghiên cứu, xây dựng một robot có khả
năng xây dựng bản đồ và định vị đồng thời SLAM 3D
sử dụng phương pháp RTAB-Map trên nền tảng ROS.
Kích thước robot nhỏ phù hợp với việc hoạt động
trong mơi trường trong nhà. Robot có khả năng di
chuyển, thu thập dữ liệu, xây dựng bản đồ 3D và định
vị vị trí trên bản đồ. Kết quả SLAM ngoài việc sử
dụng để lập kế hoạch đường đi cho robot trong hệ
thống dẫn đường tự động của robot tự hành, mà cịn
cần thiết có các bản đồ 3D (SLAM3D) nhằm phục vụ
các bài toán tương tác khác của robot trong mơi trường
hoạt động đó.

Abstract: Bài báo này trình bày về quá trình xây
dựng bản đồ địa hình 3D cho robot tự hành hoạt động

trong môi trường trong nhà dựa trên hệ điều hành lập
trình cho robot (Robot Operating System - ROS). Phần
cứng là một robot Omni 4 bánh với nền tảng máy tính
nhúng hiệu suất cao Jetson-Tx2, camera 3D và một cảm
biến Lidar để thu thập dữ liệu từ mơi trường bên ngồi.
Kết hợp với việc chạy mơ phỏng robot trong môi trường
trong nhà sử dụng Gazebo và thử nghiệm trên Rviz cho
thấy sự tiềm năng, hiệu quả của hướng nghiên cứu sử
dụng hệ điều hành robot ROS trong việc lập bản đồ môi
trường cho robot tự hành.
Keywords: Simultaneous Localization and Mapping,
SLAM2D, SLAM3D, RTAP_Map, Robot Operating System
(ROS).

I. GIỚI THIỆU
Ngày nay, robot di động được sử dụng rộng rãi
trong các hoạt động liên quan đến hoạt động tự trị, tự
động di chuyển trong các môi trường không cố định và
không cần sự giám sát của con người. Hoạt động tự trị
của robot trong mơi trường chưa được biết đến địi hỏi
robot phải tự nhận biết được môi trường xung quanh,
xây dựng bản đồ, định vị và lập kế hoạch đường đi và
tránh các vật cản tĩnh và động trong quá trình di
chuyển [1] [2].
Xây dựng bản đồ và định vị đồng thời hay còn gọi
là SLAM (Simultaneous Localization and Mapping) là
q trình tính tốn, xây dựng hoặc cập nhật bản đồ của
một môi trường không xác định đồng thời theo dõi vị
trí của các tác nhân bên trong bản đồ đó. Với những
cải tiến lớn về tốc độ xử lý của máy tính và sự sẵn có

của các cảm biến như máy ảnh và laser, SLAM hiện
được sử dụng cho các ứng dụng thực tế trong một số
lĩnh vực ngày càng tăng. Phương pháp này thu thập dữ
liệu từ các cảm biến để tái tạo môi trường hoạt động
thông qua việc đưa thông tin môi trường vào trong một
bản đồ 2D hoặc 3D. Cảm biến được sử dụng trong
SLAM được chia thành hai loại: cảm biến ngoại vi
(thu nhận dữ liệu từ mơi trường bên ngồi) và cảm
biến nội vi (xác định sự thay đổi vị trí, hướng, gia
tốc,…). Đã có nhiều cơng trình thực hiện SLAM 2D là
phương pháp tạo ra bản đồ 2D và phát hiện các
chướng ngại vật xung quanh trong môi trường không
xác định trong [3],[4] và [5] và cũng đã được các tác

ISBN 978-604-80-5958-3

386


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thơng và Cơng nghệ Thơng tin (REV-ECIT2021)

II. MƠ HÌNH ROBOT TỰ HÀNH OMNI BỐN
BÁNH VÀ HỆ ĐIỀU HÀNH ROS

Trong đó vx , v y và w là vận tốc của robot và vận
tốc tín hiệu điều khiển được tạo ra từ tính tốn điều
khiển. Sau khi tín hiệu được chuyển đổi, vị trí của
robot được điều khiển trực tiếp bởi các tín hiệu này
thơng qua bốn bánh của robot.
B. Cấu trúc phần cứng thực tế của omni robot bốn

bánh
Mô hình robot được xây dựng với 3 thành phần
chính: Phần xử lý trung tâm, phần cảm biến, và phần
điều khiển cơ cấu chấp hành. Về cấu trúc bộ phận di
chuyển là Omni 4 bánh đa hướng giúp việc di chuyển
linh hoạt và dễ dàng hơn. Máy tính nhúng đóng Jetson
TX2 có vai trị là bộ xử lý trung tâm được cài đặt hệ
điều hành ROS cùng với các node tính tốn thuật tốn
SLAM. Sau khi tính tốn xong, Jetson TX2 gửi lệnh
điều khiển cho bộ phận điều khiển cơ cấu chấp hành là
mạch STM32. RPLidar quét laser 360o giúp Robot
xây dựng bản đồ và nhận diện vật cản tầm cao với
khoảng cách xa. Camera 3D sử dụng Deep Camera
giúp nhận diện vật cản tầm trung và tầm thấp ở phía
trước Robot.

A. Mơ hình robot tự hành omni bốn bánh
Mơ hình động học cho robot Omni bốn bánh được
xây dựng dựa trên mơ hình với bánh xe Omni được bố
trí đặt cách nhau một góc 900 như trên hình 2.

q = x

T

y   là véc tơ tọa độ của robot trong hệ tọa

độ tồn cục Oxy , trong đó x và y lần lượt là toạ độ
của robot theo phương Ox và Oy ,  là góc quay của
robot so với chiều dương của trục Ox .


v  vx

vy

T

  là véc tơ vận tốc của robot trong hệ

trục tọa độ động gắn vào tâm robot bao gồm vận tốc
tịnh tiến và vận tốc góc của robot.

Hình 1. Robot Omni đa hướng 4 bánh

Hình 3. Mơ hình thực tế và cấu trúc phần cứng của Omni
robot

III. BẢN ĐỒ HĨA MƠI TRƯỜNG VÀ ĐỊNH VỊ
ĐỒNG THỜI SLAM CHO ROBOT

Hình 2. Hệ trục tọa độ của robot tự hành bốn bánh đa hướng.

Trong lĩnh vực robotic, vấn đề định vị đồng thời
xây dựng bản đồ SLAM là một trong những vấn đề
quan trọng nhất và đóng vai trị then chốt trong điều
hướng robot, vì vậy đã thu hút được sự quan tâm lớn
của đông đảo các nhà khoa học. Vấn đề SLAM được
mơ tả tổng qt trong q trình khi robot di chuyển để
lập bản đồ những nơi con người không thể hoặc không
muốn tiếp cận, đồng thời robot tự xác định được vị trí

của nó so với những đối tượng xung quanh. Kỹ thuật
xử lý SLAM sẽ cung cấp thông tin bản đồ về mơi
trường cũng như đồng thời ước tính tư thế riêng (vị trí
và hướng) của robot dựa vào các tín hiệu thu được từ
các cảm biến tầm nhìn bao gồm Rplidar và 3D camera.

Để đơn giản trong việc thiết kế bộ điều khiển cho
robot, mối quan hệ giữa vận tốc trong trục của robot
và vận tốc trong trục của mơi trường được mơ tả bằng
mơ hình động học của robot:
 cos   sin  0 


(1)
q   sin  cos  0  v.
 0

0
1

Từ (1) chúng ta sẽ có được phương trình để lập
trình cho Robot trong ROS:
 x  vx cos   v y sin 

(2)
 y  vx sin   v y cos 

  w

ISBN 978-604-80-5958-3


387


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)

A. Định nghĩa SLAM

trạng thái của robot tại thời điểm k khi biết giá trị
quan sát được và tín hiệu đầu vào điều khiển cùng với
trạng thái ban đầu của robot. Việc tính tốn giá trị
phân phối xác xuất này u cầu mơ hình chuyển trạng
thái và mơ hình quan sát để mơ tả việc tác động của tín
hiệu điều khiển và các giá trị quan sát được. Mơ hình
quan sát mơ tả xác suất thực hiện được giá trị quan sát
zk khi vị trí robot và vị trí điểm mốc trên bản đồ đã
được xác định, và nó có dạng
(4)
P( zk | xk , m)
Và giải thiết rằng khi vị trí của robot và bản đồ
được xác định thì các giá trị quan sát được là độc lập
có điều kiện. Mơ hình chuyển động của robot được mô
tả bởi phân bố xác suất chuyển trạng thái sau:
(5)
P( xk | xk 1 , uk )
Phân bố này được giả sử là thoả mãn tiêu chuẩn
Markov, ở đó trạng thái xk chỉ phụ thuộc vào trạng

Hình 4. Mơ tả q trình SLAM


Xét hệ robot tự hành di chuyển vào một môi
trường không xác định và các giá trị khoảng cách từ
robot đến các vật cản tĩnh trong môi trường được đo
bằng cảm biến Lidar như hình 4. Tại thời điểm k các
giá trị sau đây được định nghĩa:
xk : vector trạng thái miêu tả hướng và vị trí của
robot.
uk : vector điều khiển lái robot từ thời điểm k  1
đến trạng thái xk tại thời điểm k

thái ngay trước nó xk 1 và tín hiệu điều khiển uk , và
xk độc lập với các giá trị quan sát được và bản đồ m .
Thuật toán SLAM được thực thi với hai bước tuần
tự lặp lại là bước dự đốn (prediction) cịn được gọi là
cập nhật thseo thời gian và bước chỉnh sửa (correction)
còn được gọi là cập nhật theo đo lường.
Bước dự đoán được mô tả bởi phân phối:
(6)
P( xk , m | Z 0:k 1 , U 0:k )
Do trạng thái của robot xk và bản đồ m là độc
lập, ta có:
P ( xk , m | Z 0:k 1 , U 0:k , x0 )  P ( xk | Z 0:k 1 ,U 0:k ) P( m | Z 0:k 1 , U 0:k )
(7)

mi : vector miêu tả vị trí của điểm mốc thứ i được
giả định là khơng thay đổi.
zi , k : phép quan sát được lấy từ robot từ vị trí thứ i
tại thời điểm thứ k . Khi có nhiều quan sát mốc tại một
thời điểm hoặc khi mốc cụ thể không liên quan đến
khoảng đang xét, phép quan sát sẽ được viết đơn giản

là zk .
Thêm vào đó, ta sẽ định nghĩa thêm:
X 0:k   x0 , x1 ,..., xk    X 0:k 1 , xk  : Tập chứa các

  P( xk | Z 0:k 1 , U 0:k , xk 1 ) P( xk 1 | Z 0:k 1 , U 0:k ) P (m | Z 0:k 1 , U 0:k )dxk 1

xk 1 và m độc lập nên (7) trở thành

 P( x

k

xk có tính chất Markov nên (8) được thu gọn thành

vị trí của robot từ thời điểm ban đầu đến thời điểm k .
U 0:k  u0 , u1 ,..., uk   U 0:k 1 , uk  : Tập chứa các

 P( x

k

| xk 1 , uk ) P( xk 1 , m | Z 0:k 1 , U 0:k 1 ) dxk 1

(9)

Sau khi tính tốn bước dự đốn, bước chỉnh sửa
được thực hiện theo phân phối sau
P( xk , m | Z 0:k , U 0:k )
(10)
P ( zk | xk , m) P( xk , m | Z 0:k 1 , U 0:k )


P( zk | Z 0:k 1 , U 0:k )
Biểu thức (8) và (9) mô tả q trình tính tốn đệ
quy cho việc tính tốn xác suất hậu nghiệm (10) cho
trạng thái robot xk và bản đồ m tại thời điểm k dựa

giá trị đầu vào điều khiển từ thời điểm ban đầu đến
thời điểm k .
m  m1 , m2 ,..., mn  : Tập các điểm mốc thể hiện vị
trí vật cản quét được
Z 0:k   z0 , z1 ,..., zk   Z 0:k 1 , zk  : Tập các điểm
mốc quan sát được từ thời điểm ban đầu đến thời điểm
k.
Vấn đề SLAM từ đó được định nghĩa là việc xác
định được vị trí của các vật cản tĩnh trong mơi trường
m để bản đồ hố mơi trường và đồng thời ước tính vị
trí của robot trong bản đồ đó xk .
B. Kỹ thuật SLAM trong xác suất robotic
Ở dạng xác suất, vấn đề SLAM được biểu diễn
dưới dạng phân phối xác suất sau
(3)
P( xk , m | Z 0:k , U 0:k )
Phân phối xác suất này mô tả phân phối hậu
nghiệm liên kết giữa vị trí điểm mốc trong bản đồ với

ISBN 978-604-80-5958-3

| Z 0:k 1 , U 0:k , xk 1 ) P ( xk 1 , m | Z 0:k 1 , U 0:k ) dxk 1 (8)

vào tập quan sát Z 0:k và tập tín hiệu điều khiển đầu

vào U 0:k .
IV. ỨNG DỤNG RTAB-MAP XÂY DỰNG BẢN
ĐỒ 3D
RTAB-Map là một phương pháp SLAM dựa trên đồ
thị RGB-D sử dụng bộ đóng vịng lặp. Bộ đóng vịng
lặp sử dụng phương pháp tiếp cận từ nhiều điểm để xác
định khả năng một hình ảnh mới đến từ một vị trí trước

388


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)

chia thành bộ nhớ làm việc (WM) và bộ nhớ dài hạn
(LTM), khi một nút chuyển sang LTM, nó khơng cịn
khả dụng cho các modul bên trong WM. Khi thời gian
cập nhật RtabMap vượt quá ngưỡng thời gian cho phép,
một số nút trong WM sẽ chuyển sang LTM để giới hạn
kích thước của WM và giảm thời gian cập nhật. STM
dùng để xác định xem nút nào cần chuyển sang LTM
[11], [13], [14].

đó hay vị trí mới. RTAB-Map phát hiện lỗi sai bằng
cách sử dụng phương pháp GoodFeaturesToTrack
(GFTT) theo mặc định, giúp giảm bớt việc điều chỉnh
tham số, cho phép các tính năng được phát hiện đồng
nhất trên các kích thước hình ảnh và cường độ ánh sáng
khác nhau. Ngoài ra, RTAB-Map hỗ trợ tất cả các loại
tính năng có sẵn trong OpenCV, chẳng hạn như SIFT,
SURF, ORB, FAST hoặc BRIEF. Một trình tối ưu hóa

đồ thị giảm thiểu các lỗi trong bản đồ khi các ràng buộc
mới được thêm vào và một phương pháp quản lý bộ nhớ
hiệu quả được sử dụng để thực hiện các ràng buộc thời
gian thực trong các môi trường lớn.
Để thực hiện SLAM 3D, chúng tôi sử dụng gói
Rtab-Map cho omni robot. Bằng việc thu thập dữ liệu từ
RPLidar, Astra camera và chuyển đổi với cấu trúc như
hình 5.

Hình 6. Sơ đồ tín hiệu xây dựng và định vị đồng thời

Gói RTAB-Map ước tính vị trí của Robot và xây
dựng bản đồ dựa trên dữ liệu thu được và các phép đo
hình học của nó.
- Lidar: node này thực hiện chạy cảm biến
RPLidar và gửi thông tin “scan” cần thiết đến node
rtabmap.
- Camera 3D: node này thực hiện chạy camera 3D
và gửi thông tin “image(rgb)”, “image(depth)”,
“CameraInfo” đến node rgbd_sync.
- rgbd_sync: node này đảm bảo rằng các chủ đề
hình ảnh được đồng bộ hóa chính xác với nhau trước
khi đi vào node rtabmap.
- rtabmap: node này sẽ đồng bộ hóa các chủ đề đến
từ tín hiệu LaserScan và thông tin từ Camera 3D.
- nav_msgs/Odometry: xuất bản thông tin về vị trí,
vận tốc của robot trong khơng gian tự do đến node
rtabmap.
- rviz, rtabmaprviz: thực hiệm giám sát quá trình
hoạt động của robot và theo dõi quá trình tạo map.

Robot sử dụng thông tin “image(rgb)”,
“image(depth)”, “CameraInfo” từ camera 3D qua q
trình đồng bộ hóa bởi node rgdb_image để thực hiện
q trình tạo map 3D. Camera cịn được sử dụng để
phát hiện đóng vịng lặp dựa trên hình ảnh RGBD,
nhưng nó khơng cải thiện hệ thống q nhiều. Thơng
tin “scan” từ cảm biến RPLidar được sử dụng để cải
thiện kết quả của quá trình SLAM, giúp tinh chỉnh quá
trình đo mùi (Odometry) làm cho kết quả được tốt hơn
trên bản đồ.

Hình 5. Sơ đồ khối rtabmap-ros

Cấu trúc của rtabmap_ros là một biểu đồ với các nút
liên kết với nhau. Sau khi đồng bộ hóa các dữ liệu đầu
vào, modul bộ nhớ ngắn hạn (STM) tạo một nút để ghi
nhớ tư thế Odometry, dữ liệu cảm biến và các thông tin
bổ xung cho các modul tiếp theo.
Các đầu vào yêu cầu là: TF để xác định vị trí của
các cảm biến liên quan đến chân đế robot, Odometry,
hình ảnh từ camera và đầu quét laser từ Lidar. Tất cả
các thông báo từ đầu vào này sau đó được đồng bộ hóa
và chuyển đến thuật toán đồ thị (SLAM). Kết quả đầu
ra là dữ liệu bản đồ chứa trong Map Data được bổ xung
mới nhất với các dữ liệu cảm biến nén và biểu đồ, Map
Graph khơng có bất kỳ dữ liệu nào, hiệu chỉnh
Odometry được xuất bản trên TF, một tùy chọn lưới
chiếm dụng 3D (OctoMap), Point Cloud và một lưới
chiếm dụng 2D (2D Occupancy Grid).
Phương pháp RtabMap chạy trên module quản lý đồ

thị. Nó sử dụng để giới hạn kích thước của biểu đồ để
có thể đạt được SLAM trực tuyến lâu dài trong mơi
trường lớn. Nếu khơng có bộ quản lý bộ nhớ, khi bản đồ
phát triển, thời gian xử lý của các module như đóng
vịng lặp, phát hiện vùng lân cận, tối ưu hóa đồ thị và
lắp ráp bản đồ tồn cầu cuối cùng có thể vượt qua thời
gian ràng buộc với thời gian thực, tức là thời gian xử lý
trở nên quá lớn. Về cơ bản, bộ nhớ của RtabMap được

ISBN 978-604-80-5958-3

V. KẾT QUẢ MÔ PHỎNG
Phần mềm mơ phỏng Gazebo được tích hợp để có
thể sử dụng trong ROS. Môi trường trong Gazebo
được tối ưu sao cho các điều kiện vật lý giống với môi
trường thực tế nhất, nhóm tác giả đã xây dựng mơi

389


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)

trường trong nhà tại hai môi trường trong nhà khác
nhau nhằm đa dạng các môi trường hoạt động trong
nhà với những vật cản khác nhau. Mơ hình robot tự
hành Omni như hình 7, với các tham số mô phỏng và
thực nghiệm giống nhau:
 Tốc độ lớn nhất theo phương x và y: 1.5 m/s
 Tốc độ góc lớn nhất: 0.5 rad/s
 Bán kính robot: 0.25 m

 Bán kính bánh xe: 0.07 m

Hình 9. Q trình SLAM 3D của mơi trường 2

Hình 7. Mơ hình 3D robot Omni và mơi trường thực
nghiệm tại hai môi trường trong nhà

Tham số cho cảm biến lidar: Phạm vi quét lớn
nhất: 0.2 ÷10 m, độ phân giải: 1o , góc qt: 360o
 Camera astra có thơng số như sau:
 Độ phân giải hình ảnh RGB: 640x480 @30fps
 Độ phân giải hình ảnh chiều sâu: 640x480
@30fps
 Kích thước: 165mm x 30mm x 40mm
 Phạm vi: 0.6m - 8m
Việc chạy mô phỏng thử nghiệm SLAM được thực
hiện trên Rviz, là cơng cụ trực quan của ROS. Mục
đích chính là hiển thị các thông báo thu được ở chế độ
3D, cho phép người dùng xác minh trực quan dữ liệu.
Thông qua phần mềm Rviz, người dùng có thể giám
sát được mơi trường xung quanh của Robot theo thời
gian. Hình 8 là là kết quả thu được khi bắt khởi chạy
kỹ thuật SLAM trong hệ thống nhận biết robot. Các
đám mây điểm ảnh được quét từ camera được dựng
lên với độ cao và màu sắc tương đồng với các vật thể
được tạo ra trong mơi trường trong nhà.

Hình 10. Kết quả SLAM 3D của mơi trường 1

Hình 11. Kết quả SLAM 3D của môi trường 2


Môi trường thực nghiệm gồm các vách tường ngăn
và các vật cản được sắp xếp ở các vị trí ngẫu nhiêu
trên bản đồ. Robot di chuyển xung quanh phịng, sử
dụng camera để thu lại hình ảnh trong q trình di
chuyển, từ đó tái tạo lại bản đồ của mơi trường xung
quanh. Bản đồ 3D ở hình 8, 9 là các pointcloud hay
còn gọi là đám mây điểm được thu thập trong quá

Hình 8. Quá trình SLAM 3D với môi trường 1

ISBN 978-604-80-5958-3

390


Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021)

"Mapping and Navigation for Indoor Robots under ROS:
An Experimental Analysis," Creative Commons CC BY
license, 2019.
[5] Q. Lin et al., "Indoor mapping using gmapping on
embedded system," in 2017 IEEE International
Conference on Robotics and Biomimetics (ROBIO),
2017, pp. 2444-2449: IEEE.
[6] D.Schleicher, L.Bergasa, M.Ocan, R.Barea and E.Lopez,
“Real-time hierarchical stereo Visual SLAM in largescale environment”, 2010.
[7] S. Das, “Simultaneous Localization and Mapping
(SLAM) using RTAB-Map”, 2018.
[8] Dieter Fox, Wolfram Burgard, and Sebastian Thrun,

“Markov Localization for Mobile Robots in Dynamic
Environments”, 1999.
[9] E.A.Wan and R.v.d Merwe, “The Unscented Kalman
Filter for Nonlinear Approaches”, 2006.
Giorgio Grisetti, Rainer Kummerle, Cyrill
[10]
Stachniss, Wolfram Burgard, "A Tutorial on Graph-Base
SLAM," IEEE Intelligent Transportation Systems
Magazine, 2010.
Nicolas Ragot, Redouane Khemmar, Adithya
[11]
Pokala, Romain Rossi, Benchmark of Visual SLAM
Algorithm: ORB-SLAM2 vs RTAB-Map, 2019.
Mathieu Labbé, Francois Michaud, RTAB-Map as
[12]
an Open-Source Lidar and Visual SLAM Library for
Large-Scale and Long-Term Online Operation, Canada.
Thrilochan Sharma Pendyala, Prithvi Sekhar
[13]
Pagala, Hamsa Datta Perur, "Comparative analysis of
ROS based 2D and 3D SLAM algorithms for
Autonomous Ground Vehicles," June 2020.
Mathieu Labb´e, Fran¸cois Michaud, "Long-Term
[14]
Online Multi-Session Graph-Based SPLAM with

trình robot chuyển động. Dữ liệu đám mây này biểu
thị hình ảnh của một vật dưới dạng nhiều điểm trong
không gian tọa độ 3 chiều. Hình 10, 11 biểu diễn chi
tiết kết quả xây dựng tồn bộ bản đồ. Do kích thước

của robot nhỏ, nên thị trường hoạt động của camera
còn thấp nhưng vẫn thu được ảnh ở khoảng cách xa.
Kết quả cho thấy robot có khả năng tái tạo lại bản đồ
một cách hiệu quả.
Dựa vào kết quả mơ phỏng ta thấy có thể sử dụng
camera 3D cho quá trình SLAM và điều hướng. Trong
khi Lidar có thể phát hiện các vật cản ở xa, gần với
cùng độ cao đặt Lidar trên robot thì camera 3D có thể
phát hiện các vật ở khoảng cách gần mà tia Lidar
khơng thể phát hiện được. Ngồi ra việc sử dụng
camera 3D còn giúp giải quyết những hạn chế khi điều
hướng tự động trong mơi trường có các kết cấu khó
khăn như hành lang, bậc thang…
VI. KẾT LUẬN
Bài báo này trình bày về lập bản đồ hóa (SLAM
3D) cho robot tự hành hoạt động trong các môi trường
trong nhà dựa trên hệ điều hành lập trình cho robot
ROS. Các kết quả cho thấy robot có khả năng thu thập
dữ liệu từ môi trường xung quanh, xây dựng bản đồ
3D và định vị vị trí của robot trên bản đồ của môi
trường trong nhà. Các kết quả này là nền tảng cho các
bước điều hướng, lập quỹ đạo chuyển động cho robot
phục vụ các bài toán cụ thể như robot tự hành hoạt
động trong các nhà máy, ứng dụng trong cơng việc
vận chuyển hàng hóa trong nhà, Logictis.. . Đặc biệt
bên cạnh đó, bản đồ 3D có ý nghĩa với các robot tự
hành có tích hợp các cơ cấu chấp hành, cánh tay máy
robot…vv ngoài việc di chuyển tự trị cịn có thể thực
hiện các nhiệm vụ tương tác cụ thể trong môi trường
không gian hoạt động.


Memory Management".

LỜI CẢM ƠN
Bài báo này được hoàn thành với sự tài trợ của Đề
tài cấp Quốc gia thuộc chương trình phát triển Vật lý
2021-2025: "Nghiên cứu phát triển robot tự hành
thông minh sử dụng các công nghệ sensor khác nhau
và nền tảng IoT, AI, định hướng ứng dụng trong quan
trắc môi trường phóng xạ", 2022-2024.
TÀI LIỆU THAM KHẢO
[1] P. RcKerrow, “Introduction to Robotics”, AddisonWesley, 1991.

[2] R. Siegwart, I. R. Nourbakhsh, and D. Scaramuzza,
“Introduction to Autonomous Mobile Robots”, The MIT
Press, February 2011.
[3] S. Park and G. Lee, "Mapping and localization of
cooperative robots by ROS and SLAM in unknown
working area," in 2017 56th Annual Conference of the
Society of Instrument and Control Engineers of Japan
(SICE), 2017.
[4] B. M. da Silva, R. S. Xavier, and L. M. Gonỗalves,

ISBN 978-604-80-5958-3

391




×