우니Blog

고정 헤더 영역

글 제목

메뉴 레이어

우니Blog

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (35)
    • Artificial Intelligence (25)
    • Bigdata (0)
    • IT Article (2)
    • Error (2)
    • 논문분석 (3)
    • NLP (0)

검색 레이어

우니Blog

검색 영역

컨텐츠 검색

TRANSFORMER

  • Transformer - Attention Is All You Need 논문 한글 번역

    2020.01.05 by [성운]

Transformer - Attention Is All You Need 논문 한글 번역

Attention Is All You Need논문을 직역 및 의역으로 작성한 내용입니다. Abstract Dominant sequence transduction mode은 encoder와 decoder를 가지고 있는 complex recurrent or convolutional neural network 구조로 되었습니다. 최고의 성능 모델 역시 attention mechanism을 이용한 encoder and decoder로 연결되어 있습니다. 오직 attention mechanism으로 구성된 간단한 구조 Transformer를 제안합니다(recurrence and convolution은 제외함). 두 기계번역의 실험은 병렬처리와 훈련 시간 감소되면서 더 좋은 품질을 냈습니다. 1. Introduct..

논문분석 2020. 1. 5. 15:13

추가 정보

인기글

최신글

페이징

이전
1
다음
TISTORY
우니Blog Designed by Tistory.
트위터 인스타그램 유투브 메일

티스토리툴바