일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Ai
- 챗GPT
- 설명가능성
- fairness
- MLOps
- 챗지피티
- 지피티
- cnn
- 자연어
- 딥러닝
- Tokenization
- Bert
- 신뢰성
- word2vec
- gpt2
- ChatGPT
- DevOps
- Transformer
- XAI
- GPT-3
- 케라스
- 트랜스포머
- nlp
- trustworthiness
- AI Fairness
- 인공지능 신뢰성
- GPT
- 인공지능
- 머신러닝
- ML
Archives
- Today
- Total
목록LLaMa (1)
research notes
LLaMA: Open and Efficient Foundation Language Models
Touvron, Hugo, et al. "Llama: Open and efficient foundation language models." arXiv preprint arXiv:2302.13971 (2023). 1. Introduction - 기존 Large Languages Models(LLM)은 매개변수가 많으면 많을 수록 성능이 더 좋아질 것이라는 가정하에 학습이 수행되었다. 그러나 최근 연구는 동일한 컴퓨팅 성능 하에서 많은 매개변수를 가진 규모가 큰 모델보다 모델 크기가 작더라도 더 많은 데이터에 대해 훈련된 모델이 더 좋은 성능 목표치를 달성한다는 결과를 제시하였다. 예를 들어, LLaMA-13B는 GPT-3 보다 모델의 크기가 10배 작음에도 불구하고 대부분의 벤치마크에서 GPT-3대비 성능..
GPT/문헌분석
2023. 3. 14. 22:19