Nghiên cứu này trình bày một giải pháp xác định vị trí của robot di động trong môi trường trong nhà bằng một máy ảnh trần sử dụng mạng học sâu YOLOv9. Những giải pháp cổ điển, robot di động được gắn một thẻ qr-code, tuy nhiên thẻ thường có kích thước nhỏ, dễ bị nhiễu và bị ảnh hưởng bởi độ sáng. Vì vậy, nhóm nghiên cứu để xuất giải pháp sử dụng một mạng học sâu YOLOv9 để theo dõi quá trình di chuyển ngẫu nhiên của robot. Thêm vào đó, trạng thái của robot khi di chuyển trong mê cung được biểu diễn bằng phương pháp dòng quang học. Nhóm cũng đề xuất một giải pháp biến đổi hệ tọa độ từ hệ tọa độ máy ảnh sang hệ tọa độ Descartes để có thể xác định được vị trí hiện tại của robot di động. Kết quả cho thấy giải pháp đề xuất có thể ghi lại toàn bộ quỹ đạo di chuyển của robot trong mê cung. Trong thời điểm tức thời, phương pháp dòng quang học cũng cho thấy được trạng thái của robot khi chuyển động thẳng, xoay và gần chướng ngại vật. Kết quả này là tiền đề để giải quyết các toán nâng cao trong robot di động như lập và theo dõi quỹ đạo trong môi trường trong nhà.This study presents a method for determining the position of a mobile robot within an indoor environment using a ceiling-mounted camera and the YOLOv9 deep learning network. Conventional solutions often involve attaching a QR code tag to the robot
however, such tags are usually small, prone to noise, and affected by lighting conditions. Therefore, we propose the YOLOv9 deep learning network to track the random movement of the robot. Additionally, the robot's state while navigating through a maze is represented using optical flow methods. We also conduct transforming coordinates from the camera coordinate system to the Cartesian coordinate system to detect the current position of the mobile robot. The results indicate that the proposed solution can effectively record the entire trajectory of the robot within the maze. At a instantenous point, the optical flow method also demonstrates the robot's state during straight movement, rotation, and proximity to obstacles. These results provide a foundation for addressing advanced problems in mobile robotics, such as trajectory planning and tracking in indoor environments.