일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 특정 layer 추출
- def validation
- layer 추출
- 특정 layer 동결
- mqtt
- def train
- MLLM
- 모델 freeze
- vsocde 익스텐션
- mPLUG-2
- Instruction dataset
- 가중치 없이 모델 로드
- 모델 구조 변경
- 가상환경
- 논문 작성 요령
- 파라미터 수
- 논문리뷰
- cnn
- 모델 동결
- Video Understanding
- Foundation Transformers
- 주식 용어정리
- 강화학습
- KOSMOS-2
- 파라미터 수 확인
- 논문 작성
- DeepNet
- 주식
- pretrained model layer
- Multimodal Large Language Model
- Today
- Total
목록인공지능 (35)
시작은 미약하였으나 , 그 끝은 창대하리라
➢ Pytorch 에서 dataset을 쉽게 다룰 수 있도록 모듈을 제공하고 있다. 아래와 같이 두가지 Step으로 구성 된다. ❏ (Step1) CustomDataset 뼈대 - 데이터셋 상속 from torch.utils.data import Dataset # 데이터셋 상속 class CustomDataset_name(Dataset): #데이터 전처리 과정 작성. def __init__(self): pass # 데이터의 길이 (총 샘플수) 작성. def __len__(self): pass # 전처리 된 데이터셋을 인덱스(idx)에 맞게, Pytorch Tensor 형태로 반환 함. def __getitem__(self,idx): pass ❏ (Step2) DataLoader 뼈대 중요 파라미터 설명:..
❏ 목적: 제스쳐를 통한 제어 (맨 아래 github 들어가면 모든 코드 확인가능함) ❏ Mediapipe Gesture Recognition 간단설명 이미지로 손을 학습하나 생각할 수 있으나 그게아니였다.. 손에 대한 관절 포인트(= landmark) 21개를 이미 다 학습을 시켜놓아서 손을 보면 실시간으로 손의 좌표(x,y,z) 따주는것임. where, x는 가로, y 세로, z 는 카메라로 부터의 거리. 학습에 사용되는 feature = landmark data[21 *3] + landmark visibility[21]+ 손가락 각도 데이터[15개] =총 99개 ❏ 모델 : CNN- LSTM 데이터를 수집을 많이 한것도 아니고 모델이 깊은것도 아닌데. 생각보다 잘되더라..( 카메라 각도와 손의 각도..
파이토치를 활용해서 모델을 만들면 항상 Super(class명, self).__init__() = Super().__init__() 를 해주었는데 어떤 기능을 하는건지 확인을 해보았다. (뒤의 두개는 같은 기능임) import torch.nn as nn # Neural Network, activation function 모듈의 기본 클래스 import torch class model_name(nn.Moudle): def__init__(self): super(model_name,self).__init__() self.layer_1=nn.Linear( in_features=32, out_features=16 ) def forward(self,x): x=self.layer_1(x) return x ➢ 부모 클..
논문: https://arxiv.org/abs/2010.11929 참고 깃허브: https://github.com/FrancescoSaverioZuppichini/ViT/tree/main 필자 깃허브( 코드 다운) : https://github.com/YongTaeIn/ViT ❏ 아래의 ppt와 같은 구조로 모델이 수행된다. ➢사실상 Transformer모델을 간파하고 있다면 초기의 input에서 patch로 변환하는것 이외에는 색다른 부분이 없다. ➢ Patching +CLS Token+ embedding # patch embedding # Add CLS Token # position embedding import torch import torch.nn.functional as F import matp..
참고글: https://huggingface.co/blog/autoformer Autoformer 공식 github: https://github.com/thuml/Autoformer 논문: https://arxiv.org/pdf/2106.13008.pdf 필자의 Autoformer_encdoer를 이용한 시계열 예측 github: https://github.com/YongTaeIn/Autoformer_encoder_time_series/tree/master ✓ Auto Former 는 크게 두가지 기술이 들어간다. -> 그리고 아래 두가지 기술에 대해 적용하는 방법을 설명할 것이다. 1. Series Decomposition (시계열 분해) 2 Attention layer - > Auto Correlat..
목표: 시계열 데이터를 트랜스포머 인코더를 이용하여 예측해보자. 전체코드: https://github.com/YongTaeIn/Transformer-Encoder-model-for-time-series.git 0. Input shape 의 변환 순서 1 번과정, embedding = [batch size, time_seq, feature_dim] 2번 과정, positional Encoding =[batch size, time_seq, d_model] 3번과정~4번과정Encoder blcok= [batch size, time_seq, d_model] 5번과정, FFW =[batch size, time_seq, 본인설정] 6번과정 ,차원축소=[batch size, time_seq] 7번과정, Dense =..
1. 오차함수(error function) =손실함수(loss function)=비용함수(cost function) ➢ 학습을 통해 나온 예측값과, 실제값(ground truth)값의 차. ➢예시) MAE,MSE, Cross Entropy 등등.. 참고할 만한 블로그(오차 함수 정리 해둠.):https://heekangpark.github.io/SKKU_swe3050/04-error-functions 2.최적화 함수 ➢ loss(오차) 값을 줄여나가는 방법으로 가중치(weight)를 업데이트 해가며 학습함. ➢예시) Adam, RMSProp 등등.. (=오차 역전파, 역전파) 참고할 만한 블로그(최적화 함수 정리 해둠.): https://east-rain.github.io/docs/Deep%20Lear..