일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 머신러닝
- Transformer
- trustworthiness
- nlp
- 케라스
- AI Fairness
- gpt2
- 딥러닝
- Tokenization
- ML
- 챗지피티
- Bert
- 자연어
- 인공지능 신뢰성
- 챗GPT
- cnn
- MLOps
- fairness
- XAI
- DevOps
- word2vec
- 지피티
- 설명가능성
- GPT-3
- 인공지능
- ChatGPT
- 신뢰성
- Ai
- GPT
- 트랜스포머
Archives
- Today
- Total
목록워드투벡터 (1)
research notes
워드임베딩(Word embedding)과 워드투벡터(Word2Vec)
텍스트를 컴퓨터가 이해하고, 효율적으로 처리하게 하기 위해서는 컴퓨터가 이해할 수 있도록 텍스트를 적절히 숫자로 변환해야 한다. 단어를 표현하는 방법에 따라서 자연어 처리의 성능이 크게 달라지기 때문에 단어를 수치화 하기 위한 많은 연구가 있었고, 현재에 이르러서는 각 단어를 인공 신경망 학습을 통해 벡터화하는 워드 임베딩이라는 방법이 가장 많이 사용되고 있다. 워드 임베딩(Word Embedding)은 단어를 벡터로 표현하는 방법으로 단어를 밀집(Dense) 표현으로 변환한다. 1. 희소 표현(Sparse Representation) 표현하고자 하는 단어의 인덱스의 값만 1이고, 나머지 인덱스에는 전부 0으로 표현되는 벡터 표현 방법. 이렇게 벡터 또는 행렬(matrix)의 값이 대부분이 0으로 표현되..
GPT/개념정의
2022. 4. 11. 21:26