AI/ML
보통
코딩
경사 하강법 구현
다양한 경사 하강법 변형 구현
40분
85점
#3727
문제 설명
경사 하강법의 여러 변형을 구현하세요.
구현할 최적화 알고리즘
- Batch Gradient Descent
- Stochastic Gradient Descent (SGD)
- Mini-batch Gradient Descent
- Momentum
- Adam
테스트 함수
# Rosenbrock 함수 (비볼록)
f(x, y) = (1 - x)² + 100(y - x²)²
# 최솟값: (1, 1)에서 0
요구사항
- 각 알고리즘 구현
- 학습률 스케줄링 옵션
- 수렴 조건 (gradient norm < epsilon)
- 반복 횟수 기록
평가 기준
- 알고리즘 정확성
- 수렴 속도 비교
- 하이퍼파라미터 처리
실행 버튼을 눌러 코드를 실행하세요.