Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- pretrained model layer
- def validation
- 특정 layer 동결
- KOSMOS-2
- MLLM
- mqtt
- 주식 용어정리
- Video Understanding
- 파라미터 수
- layer 추출
- mPLUG-2
- 주식
- cnn
- 가상환경
- def train
- 모델 구조 변경
- 강화학습
- 모델 freeze
- 특정 layer 추출
- Foundation Transformers
- 논문 작성
- DeepNet
- 논문리뷰
- Multimodal Large Language Model
- Instruction dataset
- 가중치 없이 모델 로드
- 파라미터 수 확인
- 논문 작성 요령
- 3C4P
- 모델 동결
Archives
- Today
- Total
목록KOSMOS-2 (1)
시작은 미약하였으나 , 그 끝은 창대하리라
[논문리뷰 : 개념] KOSMOS-2: Grounding Multimodal Large Language Models to the World
논문링크 : https://arxiv.org/abs/2306.14824 Kosmos-2: Grounding Multimodal Large Language Models to the World We introduce Kosmos-2, a Multimodal Large Language Model (MLLM), enabling new capabilities of perceiving object descriptions (e.g., bounding boxes) and grounding text to the visual world. Specifically, we represent refer expressions as links in Markdown, i arxiv.org Published : 2023.07 (arXi..
논문 리뷰
2024. 2. 19. 21:39