The determination of the nuchal translucency (NT) thickness on first-trimester ultrasound images is an important step that should be performed in all pregnant women to detect early signs of Down syndrome, Turner syndrome, fetal anomalies, and other genetic disorders. Currently, NT measurement is manually performed by experienced and certified ultrasound physicians, so the results heavily depend on the physician's expertise. Therefore, there is a need for a method to automatically identify the NT region to assist physicians in quickly and accurately measuring NT thickness. This paper focuses on using deep learning models to segment nuchal translucency regions in ultrasound images. Several popular deep learning segmentation models such as FPN, UNet, UNet++, DeepLabV3, and DeepLabV3+ were selected for implementation and testing. The experiments show that the UNet model with EfficientNetB6 encoder achieved the best results with an accuracy of 99.51%, IoU score of 60.95%, and Dice score of 77.14%. The paper also discusses the challenges and future directions of this field.Việc xác định vùng khoảng sáng sau gáy (độ mờ da gáy) trên ảnh siêu âm thai trong quý I của thai kỳ là một bước quan trọng và cần thực hiện với tất cả các thai phụ nhằm phát hiện sớm hội chứng Down, hội chứng Turner, dị dạng thai và một số hội chứng di truyền khác. Hiện tại việc siêu âm đo độ mờ da gáy được thực hiện thủ công bởi các bác sĩ siêu âm có trình độ cao và được cấp chứng chỉ, nên kết quả phụ thuộc rất nhiều vào kinh nghiệm của bác sĩ. Do đó, cần có phương pháp để tự động xác định vùng khoảng sáng sau gáy, nhằm hỗ trợ các bác sĩ đo độ mờ da gáy một cách nhanh chóng và chính xác. Bài báo này tập trung vào việc sử dụng mô hình mạng học sâu phân vùng ảnh siêu âm thai để phát hiện vùng khoảng sáng sau gáy. Một số mô hình học sâu phân vùng ảnh phổ biến như FPN, UNet, UNet++, DeepLabV3 và DeepLabV3+ được lựa chọn để cài đặt, thử nghiệm. Thực nghiệm cho thấy mô hình UNet với bộ mã hóa EfficientNetB6 đạt kết quả tốt nhất với độ chính xác là 99,51%, điểm số IoU là 60,95%, điểm số Dice là 77,14%. Bài báo cũng đề cập đến những thách thức và hướng phát triển tiếp theo của lĩnh vực này.