Đo hình ảnh trực quan (Visual Odometry) bao gồm hai giai đoạn quan trọng: 1) trích xuất đặc điểm và 2) ước tính tư thế. Hiệu suất của Visual Odometry phụ thuộc vào chất lượng của các đối tượng bao gồm số lượng đối tượng, tỷ lệ phần trăm khớp chính xác và vị trí của các đối tượng được phát hiện. Thông thường, phương pháp RANSAC đã được sử dụng trong ước tính tư thế để loại bỏ các ngoại lệ và chọn một tập hợp các tính năng tốt mang lại độ chính xác cao hơn. Tuy nhiên, trong trường hợp số kết quả sai cao hơn, RANSAC dườngnhư đang thất bại. Bài báo đề xuất phương pháp loại bỏ đặc trưng không ổn định bằng phát hiện đối tượng dựa trên học sâu. Phương pháp đề xuất đánh giá trên bộ dữ liệu KITTI cho độ chính xác cao hơn 6 - 8% so với phương pháp thông thường.Visual odometry includes two important stages: 1) feature extraction and 2) pose estimation. The performance of visual odometry is dependent on the quality of features including the number of features, the percentage of the correct matching, and the location of detected features. Usually, RANSAC method has been used in pose estimation to remove outlier and select a good set of features that provide higher accuracy. However, in the case the higher wrong matches, the RANSAC seems to be failing. This article proposes the removing unstable feature method by deep learning-based object detection. The proposed method evaluated on the KITTI dataset shows a higher accuracy 6 - 8% compared to the conventional method.