일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 모델 freeze
- 특정 layer 추출
- 모델 구조 변경
- MLLM
- pretrained model layer
- vsocde 익스텐션
- DeepNet
- 파라미터 수 확인
- Video Understanding
- 가중치 없이 모델 로드
- mPLUG-2
- 강화학습
- 논문 작성
- def train
- 모델 동결
- layer 추출
- Instruction dataset
- 파라미터 수
- 주식 용어정리
- KOSMOS-2
- cnn
- 특정 layer 동결
- mqtt
- 가상환경
- Foundation Transformers
- 논문리뷰
- 주식
- Multimodal Large Language Model
- 논문 작성 요령
- def validation
- Today
- Total
목록전체 글 (116)
시작은 미약하였으나 , 그 끝은 창대하리라
1. 오차함수(error function) =손실함수(loss function)=비용함수(cost function) ➢ 학습을 통해 나온 예측값과, 실제값(ground truth)값의 차. ➢예시) MAE,MSE, Cross Entropy 등등.. 참고할 만한 블로그(오차 함수 정리 해둠.):https://heekangpark.github.io/SKKU_swe3050/04-error-functions 2.최적화 함수 ➢ loss(오차) 값을 줄여나가는 방법으로 가중치(weight)를 업데이트 해가며 학습함. ➢예시) Adam, RMSProp 등등.. (=오차 역전파, 역전파) 참고할 만한 블로그(최적화 함수 정리 해둠.): https://east-rain.github.io/docs/Deep%20Lear..
출처:https://joytk.tistory.com/51
출처: http://esignal.co.kr/ai-ml-dl/?board_name=ai_ml_dl&search_field=fn_title&order_by=fn_pid&order_type=desc&board_page=1&list_type=list&vid=15 예시설명이 너무 좋아서 보고 반해버렸다.. ➢ Batch size 크기 선택 : 결론: 일반적으로는 작은것 사용 클수록: 학습속도 빠름, 비교적 안정적인 학습이 가능. (local optimal 에 빠질 위험 존재.) 작을수록: local optimal 에서 빠져나올수 수있다. (출처:https://ladun.tistory.com/85)
이미지 데이터 출처: https://www.kaggle.com/datasets/pranavraikokte/covid19-image-dataset Covid-19 Image Dataset 3 Way Classification - COVID-19, Viral Pneumonia, Normal www.kaggle.com 1.모듈 불러옴 # impot module import tensorflow as tf import matplotlib.pyplot as plt #이미지 확인용 모듈 import matplotlib.image as mpimg #이미지 확인용 모듈 import os import numpy as np from tensorflow import keras from tensorflow.keras.model..
명령어 수정 : git push origin HEAD:main 안될시 git push origin HEAD:master 하면 해결됨. 아이디와 토큰비밀번호를 입력하면 올라간다.
출처(기반으로 작성되었습니다): https://www.youtube.com/watch?v=w9GwqPx7LW8 1. 앞에서 배운 Q-Table 복습 2. Q-tabel 의 문제점 및 해결법 3. Q-Network = Q table을 Neural network 로 구현한것 network(Neural network) 는 입,출력이 조절가능한 네트워크임으로, 입력을 state만, 출력을 action으로 하여 설계할 것이다. 4. Q-Network 결론 5. Q-Network Training 과정 6. Q-Network 수학적 표기법 7. Q-Network Algorithm 8. Stochastic 수식을 사용하지 않는 이유. 잘 생각을 해보면 앞장에서 Q 업데이트시 Stochastic 수식에 대해서 배웠는데,..
출처 및 참고: https://www.youtube.com/watch?v=6KSf-j4LL-c&ab_channel=SungKim 1. Nondeterminisitc (Stochastic) 의미: 일정하지않다, 랜덤으로 실행되는.. 그림1 설명: 방향 설정을 하더래도 어느 방향으로 가는지가 일정하지 않은것이다. 그림2 설명: Deterministic 의 경우 알맞은 명령어에 따라 알맞게 agent 가 이동한다. 반면 Stochastic의 경우 명령어에 따라 알맞게 agent가 이동하지 않는다. 2. 앞장의 수식에서 문제점 3.해결법 4. Q-learning algorithm 5.실습 (slippery=True) 이번 장에서 수정된 식으로 하여 코드를 수정하였다.(그림3 참고) 6. 실습 코드 import ..
출처 및 참고: https://www.youtube.com/watch?v=MQ-3QScrFSI&ab_channel=SungKim (기반으로 작성된 글입니다) 2장에서의 배운내용. 의미 : '현재의 Q값은 실행해서 얻어지는 reward+그다음 단계에서 얻어지는 가장큰 reward' 이다. 1. 기존의 문제점: [2장]에서 Dummy Q learning 에 대해 배웠었는데 문제점이 존재한다. 정책(파이 옵티멀)에 의해 Q 값이 최대 가 되는 a(action)를 수행하며 나가는데 이것이 진짜 최적의 경로가 맞냐는 문제가 발생한다. (계속 동일한 경로로만 가게됨) 2. 해결법: 이러한 비효율적인 동일한 경로로 가는것을 방지하기 위해 익숙한곳(Exploit) 과 새로운곳(Exploration) 을 가본다. 3. ..