Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- def train
- Foundation Transformers
- 모델 freeze
- 가중치 없이 모델 로드
- 논문리뷰
- 특정 layer 동결
- 특정 layer 추출
- Multimodal Large Language Model
- cnn
- pretrained model layer
- 파라미터 수
- 강화학습
- Instruction dataset
- 주식 용어정리
- 논문 작성
- Video Understanding
- DeepNet
- def validation
- MLLM
- vsocde 익스텐션
- mqtt
- 모델 동결
- 모델 구조 변경
- KOSMOS-2
- mPLUG-2
- 파라미터 수 확인
- layer 추출
- 가상환경
- 주식
- 논문 작성 요령
Archives
- Today
- Total
목록Llava (1)
시작은 미약하였으나 , 그 끝은 창대하리라
[논문리뷰 : 개념] LLaVA: Large Language and Vision Assistant (Visual Instruction Tuning)
논문링크 : https://proceedings.neurips.cc/paper_files/paper/2023/hash/6dcf277ea32ce3288914faf369fe6de0-Abstract-Conference.html Visual Instruction Tuning Requests for name changes in the electronic proceedings will be accepted with no questions asked. However name changes may cause bibliographic tracking issues. Authors are asked to consider this carefully and discuss it with their co-authors prior ..
논문 리뷰
2024. 2. 23. 15:49