Raniche's Note

  • 홈
  • 태그
  • 방명록
  • Github

Learning Rate 1

[딥러닝] 딥러닝에서 weight initialization 의 영향력

현업에서 딥러닝 모델을 돌리다 보면 initialization 값(여기서 initialization 값이란 모델에 처음으로 배정되는 weight 값들을 말한다) 때문에 스트레스를 받는다. 왜그런가하면 일반적인 딥러닝의 하이퍼파라미터인 learning rate와 batch size, epoch 등을 결정했다고 하더라도 처음에 배정된 initialization 값에 따라 모델 결과가 돌릴때 마다 다르게 나오기 때문이다. (이는 XGBoost나 SVM과 같은 하이퍼파라미터에 deterministic한 모델들과는 다른 특징이다.) 그리고 그 영향력은 생각보다 쎄다. 어쩌면 모델의 성능에서 가장 영향력이 크다고 알려진 learning rate보다 영향력이 클지도 모른다.. 그렇기 때문에 optuna 등으로 하이퍼..

데이터 사이언스/머신러닝 & AI 2023.11.13
이전
1
다음
더보기
프로필사진

Theory with Codes。 #########공부와 일상 기록 ########About me :: https://github.com/Minsoo1036/CV

  • 분류 전체보기 (141)
    • 데이터 사이언스 (40)
      • Statistics (15)
      • Mathematics (2)
      • Economics (3)
      • 머신러닝 & AI (9)
      • 데이터사이언스(실무) (11)
    • 프로그래밍 & 알고리즘 & IT (18)
      • R (2)
      • Python (3)
      • SQL (1)
      • 알고리즘(python) (9)
      • 컴퓨터일반 (3)
    • Review (31)
      • 도서 (7)
      • 애니&만화 (15)
      • 영화&드라마 (7)
      • 논문 (2)
    • 일상다반사 (49)
    • 영어 표현 (3)
    • etc (0)
    • 일기장 (0)

Tag

백준, 애니리뷰, 일상, 머신러닝, 하이큐, 후기, 취미, 이사야마하지메, 회귀분석, 시계열모형, 애니, 시뮬레이션문제, 4기3쿨후편, 다짐, 파이썬, 진격의거인, 엘리자베스길버트, 데이터사이언스, 구현문제, 코테연습,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp All rights reserved.

  • Github
  • Linkedin

티스토리툴바