일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- 인공지능
- 자연어
- 설명가능성
- XAI
- AI Fairness
- fairness
- 챗지피티
- 챗GPT
- 트랜스포머
- 지피티
- word2vec
- trustworthiness
- cnn
- 케라스
- ML
- GPT
- MLOps
- Transformer
- GPT-3
- Tokenization
- Ai
- 머신러닝
- Bert
- ChatGPT
- 인공지능 신뢰성
- gpt2
- 신뢰성
- 딥러닝
- nlp
- DevOps
- Today
- Total
목록케라스 (3)
research notes

★★ 의 주피터 노트북 내용 발췌 : 작은 이미지 데이터셋에 딥러닝을 적용하는 일반적이고 매우 효과적인 방법은 사전 훈련된 네트워크를 사용하는 것입니다. 사전 훈련된 네트워크는 일반적으로 대규모 이미지 분류 문제를 위해 대량의 데이터셋에서 미리 훈련되어 저장된 네트워크입니다. 원본 데이터셋이 충분히 크고 일반적이라면 사전 훈련된 네트워크에 의해 학습된 특성의 계층 구조는 실제 세상에 대한 일반적인 모델로 효율적인 역할을 할 수 있습니다. 새로운 문제가 원래 작업과 완전히 다른 클래스에 대한 것이더라도 이런 특성은 많은 컴퓨터 비전 문제에 유용합니다. 예를 들어 (대부분 동물이나 생활 용품으로 이루어진) ImageNet 데이터셋에 네트워크를 훈련합니다. 그다음 이 네트워크를 이미지에서 가구 아이템을 식별하..

*** 딥 러닝을 이용한 자연어 처리 입문 (위키북스) 내용 요약 *** 케라스는 임베딩 층의 입력이 원-핫 벡터가 아니어도 동작을 하는데 그 이유는 케라스는 단어를 정수 인덱스로 바꾸고 원-핫 벡터로 변환 후 임베딩 층의 입력으로 사용하는 것이 아니라, 단어를 정수 인코딩까지만 진행 후 임베딩 층의 입력으로 사용하기 때문이다. 임베딩 층은 입력 정수에 대해 밀집벡터(dense vector)로 맵핑하고 이 밀집 벡터는 인공 신경망의 학습 과정에서 가중치가 학습되는 것과 같은 방식으로 훈련되며, 이 밀집 벡터를 임베딩 벡터라고 부른다. 정수를 밀집벡터 또는 임베딩 벡터로 맵핑한다는 것은 특정 단어와 맵핑되는 정수를 인덱스로 가지는 테이블로부터 임베딩 벡터 값을 가져오는 룩업 테이블이라고 볼 수 있다. 그리..

1. 인터넷에 돌아다니는 문제 거의 그대로 나오기 때문에 난이도 걱정은 크게 할 필요가 없음 2. 시험 준비를 위해서 여러 모델을 미리 준비하고 결과 확인 후 4/5가 나온다고 하면 다른 모델로 교체하여 5/5로 맞춰주는 것이 안전 3. 시험 시작 할 때 venv 새로 설치하고 시작을 하는데 굳이 TDC에서 설정하는 환경이 아니라 내가 미리 구성한 아나콘 다 환경을 사용해도 문제없음. 일단 파이참 들어가서 아나콘다 환경으로 바꾸고 시험을 봐도 된다. 4. 금액이 비싸긴한데 배운 것 정리하는 차원에서 한 번 쯤은 해볼 만한 시험인 듯 하다.