일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- ChatGPT
- MLOps
- AI Fairness
- 챗지피티
- 인공지능 신뢰성
- 케라스
- gpt2
- 설명가능성
- cnn
- GPT
- 신뢰성
- trustworthiness
- DevOps
- 머신러닝
- 자연어
- Transformer
- XAI
- 트랜스포머
- fairness
- word2vec
- Ai
- Bert
- 챗GPT
- 딥러닝
- 지피티
- nlp
- GPT-3
- ML
- Tokenization
- 인공지능
Archives
- Today
- Total
목록Chain of Thought (1)
research notes
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
1. Chain-of-Thought(CoT) 개요 - 최신 연구 결과 모델 크기를 확장하는(Scaling up)하는 것만으로는 산술(Arithmetic), 상식(Commonsense), 기호 추론(Symbolic reasoning)과 같은 까다로운 작업에서 LLM이 높은 성능을 달성하는 것이 쉽지 않음이 입증 - 이를 위한 해결방안으로 최종 출력(final output) 도출 과정에 'Chain-of-thought (CoT) '라는 일련의 중간 자연어 추론 단계(intermediate natural language reasoning steps)를 포함한 프롬프트 구성 방법을 제시하고 LLM의 성능 평가 수행(사람도 특정 태스크를 해결할 때 단계별로 해결해 나가면서 최종 답변에 도달하게 되는데 이와 유사한..
GPT/문헌분석
2023. 11. 19. 10:36