Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
Tags
- 모델 동결
- mPLUG-2
- 강화학습
- 특정 layer 추출
- 파라미터 수
- 주식 용어정리
- 주식
- 논문 작성 요령
- Video Understanding
- 가상환경
- layer 추출
- 파라미터 수 확인
- Instruction dataset
- DeepNet
- 모델 구조 변경
- pretrained model layer
- 논문 작성
- def train
- KOSMOS-2
- 3C4P
- MLLM
- cnn
- def validation
- 논문리뷰
- 모델 freeze
- mqtt
- 특정 layer 동결
- Multimodal Large Language Model
- 가중치 없이 모델 로드
- Foundation Transformers
Archives
- Today
- Total
목록2024/04/23 (1)
시작은 미약하였으나 , 그 끝은 창대하리라
[Huggingface] 가중치 없이 모델 로드 및 모델 구조 변경
1. 가중치 없이 모델 로드 ► 우리는 허깅페이스에서 weight, bias가 최적화 되어있는 pretrained된 모델을 사용한다. 하지만 모델의 weight, bias를 제외하고 아키텍쳐만 필요할 때가 있다. Hugging Face에서는 친절하게도 이러한 기능을 제공을 해준다. - Huggingface에 원하는 모델을 검색후 config를 사용하면 된다. (아래예시는 DETR예시) (상단 코드 weight load 안함, 하단 코드 weight load 함) # load without weight and bias # Initializing a DETR facebook/detr-resnet-50 style configuration from transformers import DetrForObjectDe..
인공지능/딥러닝 및 파이토치 기타 정리
2024. 4. 23. 23:00