Deep learning is currently developing and being studied by many groups of authors, but deep learning models have potential security risks that can become serious vulnerabilities for applications. At present, the designed antagonist pattern to deceive the neural network in the deep neural network is misbehaving compared to the original design, and the success probability of the antagonist pattern is very worrying, which raises security concerns for machine learning models. Studying and understanding adversarial attacks enhances the security of machine learning models. Most research on antagonistic attacks can fool black box models. The article uses pixel transformation to perform a counterattack, from which it is possible to attack and fool the deep learning system. By the way, the pixel transform method using the Cats and Dogs dataset was tested on the InceptionV3 model. The results demonstrate that the proposed method has a high success rate that causes the deep learning model to misrecognize in the specified target direction.Học sâu hiện nay đang phát triển và được nhiều nhóm tác giả quan tâm nghiên cứu, tuy nhiên các mô hình học sâu có những rủi ro tiềm tàng về an toàn có thể trở thành những lỗ hổng nghiêm trọng cho các ứng dụng. Hiện nay mẫu đối kháng được thiết kế đánh lừa mạng nơ ron trong mạng thần kinh sâu hoạt động sai so với thiết kế ban đầu, và xác suất thành công của các mẫu đối kháng là rất đáng lo ngại, điều này đặt ra những lo ngại về bảo mật cho các mô hình học máy. Việc nghiên cứu và hiểu rõ các tấn công đối kháng giúp tăng cường độ an toàn cho các mô hình học máy. Thực tế, hầu hết các nghiên cứu về các cuộc tấn công đối kháng có thể đánh lừa các mô hình hộp đen. Bài báo sử dụng phương pháp thay đổi điểm ảnh để thực hiện một cuộc tấn công đối kháng, từ đó có thể tấn công và đánh lừa hệ thống học sâu. Bằng cách này, phương pháp biến đổi điểm ảnh sử dụng tập dữ liệu Mèo và Chó thử nghiệm trên mô hình InceptionV3. Kết quả chứng minh phương pháp đề xuất có tỉ lệ thành công cao khiến mô hình học sâu nhận dạng sai theo hướng mục tiêu đã được chỉ định.