일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- nlp
- Tokenization
- GPT
- ChatGPT
- 케라스
- AI Fairness
- DevOps
- fairness
- gpt2
- 트랜스포머
- Transformer
- ML
- 지피티
- cnn
- 자연어
- MLOps
- Bert
- 인공지능 신뢰성
- 인공지능
- 챗GPT
- trustworthiness
- word2vec
- Ai
- XAI
- 신뢰성
- 챗지피티
- GPT-3
- 설명가능성
- 딥러닝
- 머신러닝
Archives
- Today
- Total
목록Skip-gram (1)
research notes
워드임베딩(Word embedding)과 워드투벡터(Word2Vec)
텍스트를 컴퓨터가 이해하고, 효율적으로 처리하게 하기 위해서는 컴퓨터가 이해할 수 있도록 텍스트를 적절히 숫자로 변환해야 한다. 단어를 표현하는 방법에 따라서 자연어 처리의 성능이 크게 달라지기 때문에 단어를 수치화 하기 위한 많은 연구가 있었고, 현재에 이르러서는 각 단어를 인공 신경망 학습을 통해 벡터화하는 워드 임베딩이라는 방법이 가장 많이 사용되고 있다. 워드 임베딩(Word Embedding)은 단어를 벡터로 표현하는 방법으로 단어를 밀집(Dense) 표현으로 변환한다. 1. 희소 표현(Sparse Representation) 표현하고자 하는 단어의 인덱스의 값만 1이고, 나머지 인덱스에는 전부 0으로 표현되는 벡터 표현 방법. 이렇게 벡터 또는 행렬(matrix)의 값이 대부분이 0으로 표현되..
GPT/개념정의
2022. 4. 11. 21:26