TOWARDS CROSS-ATTENTION PRE-TRAINING IN NEURAL MACHINE TRANSLATION

 0 Người đánh giá. Xếp hạng trung bình 0

Tác giả: Hong Buu Long Nguyen, Vinh Khang Pham

Ngôn ngữ: eng

Ký hiệu phân loại:

Thông tin xuất bản: Tạp chí Khoa học - Trường Đại học Sư phạm TP Hồ Chí Minh, 2022

Mô tả vật lý: tr.1749

Bộ sưu tập: Metadata

ID: 336500

The advent of pre-train techniques and large language models has significantly leveraged the performance of many natural language processing (NLP) tasks. However, pre-trained language models for neural machine translation remain a challenge as little information about the interaction of the language pair is learned. In this paper, we explore several studies trying to define a training scheme to pre-train the cross-attention module between the encoder and the decoder by using the large-scale monolingual corpora independently. The experiments show promising results, proving the effectiveness of using pre-trained language models in neural machine translation.
Tạo bộ sưu tập với mã QR

THƯ VIỆN - TRƯỜNG ĐẠI HỌC CÔNG NGHỆ TP.HCM

ĐT: (028) 36225755 | Email: tt.thuvien@hutech.edu.vn

Copyright @2024 THƯ VIỆN HUTECH