Growth Diary

  • 홈
  • 태그
  • 방명록

2025/04/15 1

[Transformer] 인코더와 디코더

1. 인코더인코더는 입력 텍스트를 이해하고 의미를 추출하는 역할을 합니다. 기본적으로 여러 개의 동일한 층이 반복되는 구조로 되어 있습니다. 1) 인코더의 주요 구성 요소층 정규화(Layer Normalization): 데이터의 분포를 조정하여 학습을 안정화멀티 헤드 어텐션(Multi-Head Attention): 입력 시퀀스의 다양한 관계를 파악피드 포워드 층(Feed Forward Layer): 비선형 변환을 통해 표현력 강화 2) 잔차 연결잔차 연결은 이미지에 보이는 것처럼 원래 입력값을 각 하위 층의 출력에 더해주는 방식을 말합니다. 그래디언트 소실 문제 해결: 깊은 네트워크에서 학습 신호가 손실되는 문제 방지학습 안정화: 층이 많아져도 안정적인 학습 가능정보 보존: 원본 정보가 네트워크를 통과..

DeepLearning 2025.04.15
이전
1
다음
더보기
프로필사진

Growth Diary

개발에 관련된 다양한 IT 지식을 공유하고 최신 트렌드 기술을 배워나갑니다.

  • 분류 전체보기 (88)
    • Spring (4)
    • Git&GitHub (7)
    • Flutter (11)
    • Docker (2)
    • Algorithm (3)
    • 자료구조 (2)
    • Langchain (0)
    • CS (5)
    • Streamlit (1)
    • Backend (2)
    • CampusMeet (12)
    • AWS (1)
    • FastAPI (2)
    • RAG (2)
    • DeepLearning (11)
    • Fine-Tuning (4)
    • LLMops (10)
    • FinAgent Lab (5)
    • LangGraph (0)

Tag

mcp server, Rag, git, AWS, 양자화, 어텐션, mcp client, Get, model context protocol, github, transformer, spring, MCP, llm 평가, Flutter, GPU, 트랜스포머, NKS, LLM, unsloth,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/04   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바