self-attention1 self-attention이란? Transformer self-attention 매우 쉬운 설명 1. Self-attention이란? Self-attention은 자연어 처리 분야에서 사용되는 딥러닝 모델인 Transformer에서 사용되는 중요 개념 중 하나입니다. Self-attention은 입력된 문장의 각 단어들이 다른 단어들과 얼마나 유사한지를 측정하여, 문장 내 단어들 간의 관계를 파악하는 기술입니다. 이를 통해 입력된 문장 내에서 단어들의 위치나 순서에 상관 없이 문맥적인 정보를 파악할 수 있습니다. 트랜스포머(Transformer)란? 트랜스포머 쉬운 설명 1. 트랜스포머 (Transformer) 란? Transformer는 단어나 문장과 같은 입력 데이터에서 중요한 정보를 추출하고 출력 데이터를 생성하는 딥러닝 모델입니다. 이를 위해 입력 데이터의 단어들 간의 상호작 ai-infor.. 2023. 5. 11. 이전 1 다음 반응형