Sin prisa, pero sin pausa.

  • 홈
  • 태그
  • 방명록

Deep Learning/Natural Language Processing 1

[ Machine Translation ] Attention Is All You Need

※ 해당 글을 작성하게 된 이유, Transformer 는 NLP 에서 시작되어 CV 등 여러 분야의 task 에 널리 쓰이는 모델입니다. (논문 그대로 해석한 것이 아닌 제 나름의 방식대로 해석해서 작성했음을 알리며 참고 바랍니다.) Ashish Vaswani et al. Attention Is All You Need, NIPS(2017) Summary - 처음으로 attention mechanism 만을 사용함을 제시한 네트워크로, 기존 CNN 이나 RNN 구조에서 벗어나 multi-head attention 을 포함한 encoder-decoder 구조 이용 - 네트워크 학습에 있어, 우수한 parallelization 을 통해 소요 시간 감축 - Machine translation task 에서 좋..

Deep Learning/Natural Language Processing 2023.12.22
이전
1
다음
더보기
프로필사진

Sin prisa, pero sin pausa.

저를 2가지 형태의 "뚜벅이"로 소개합니다. 하나, 느려도 착실하게 저만의 스토리를 꾸려가는 것을 즐깁니다. 둘, 제 커리어에 하나의 스토리를 추가한 후 홀로 걷기 여행 가는 것을 좋아합니다.

  • 분류 전체보기 (16)
    • Python (2)
      • Effective Python (1)
      • Python Programming (1)
    • Deep Learning (0)
      • Basic AI (1)
      • Computer Vision (6)
      • Natural Language Processing (1)
    • Useful Information (4)
      • Colab (1)
      • VSCode (2)
      • Git (1)
    • A brief knowledge (2)
      • AI(Light version) (2)

Tag

CE2P, One-shot learning, zero-shot learning, machine translation, Semantic Segmentation, U-Net, Computer Vision, vlmaps, A-CE2P, debugging, VLN, Human Parsing, visual language navigation, SCHP, FCN, nlp, natural language processing, git, few-shot learning, ResNet, LSEG, vscode, Transformer,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/11   »
일 월 화 수 목 금 토
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바