Transformer - Attention Is All You Need 논문 한글 번역
Attention Is All You Need논문을 직역 및 의역으로 작성한 내용입니다. Abstract Dominant sequence transduction mode은 encoder와 decoder를 가지고 있는 complex recurrent or convolutional neural network 구조로 되었습니다. 최고의 성능 모델 역시 attention mechanism을 이용한 encoder and decoder로 연결되어 있습니다. 오직 attention mechanism으로 구성된 간단한 구조 Transformer를 제안합니다(recurrence and convolution은 제외함). 두 기계번역의 실험은 병렬처리와 훈련 시간 감소되면서 더 좋은 품질을 냈습니다. 1. Introduct..
논문분석
2020. 1. 5. 15:13