그라디언트 디센트까지 드디어 정리했습니다. 이번 강은 ITPE에서 제공해주신 서브노트를 정리하는 시간입니다.
초반에도 언급했지만 저는 기술사를 공부할때 AI관련 서브노트 보기가 참 힘들었습니다. 읽어도 이해가 안가서...
지금은 그때보다는 괜찮은 것 같습니다. 앞의 내용을 읽고 강의를 들으신 모든 분들이 서브노트 보시는게 편해졌기를 바랍니다.
강의보기: https://www.youtube.com/watch?v=w8q1LnX3yRQ
강의수정내용:
강의 내용 6분 48초에 목적함수가 Convex해야 Gradient Descent가 의미있다고 했는데 틀린 설명입니다. Non Convex해도 우리는 GD를 사용합니다. 우선 GD를 사용하고 Local Minimum을 벗어나거나 Global Minimum을 찾는 알고리즘을 사용합니다.
그래서,
"Convex 해야 GD를 수행했을떄 Global Minumum이 보장된다. Deep Learning에서 처럼 Convex하지 않다면, 우리는 Global Minimum을 구하기 위해 1. 초기화와 관련된 방법과 2. GD 알고리즘(수학식)에 변형을 주는 기법을 사용한다."
6분 48초 내용을 위와 같이 바꿔야 합니다.
감사합니다.
'Machine Learning' 카테고리의 다른 글
16강 [최대우도추정법, MLE 2부] Bayes 정리에 있는 우도와 MLE 소개 (0) | 2024.08.24 |
---|---|
15강 [최대우도추정법 MLE 1부] 확률에 대한 철학적 접근(MSE는 합리적인가?) (0) | 2024.08.21 |
13강 그라디언트 디센트 알고리즘 및 종류(추가 오버피팅) (0) | 2024.08.12 |
12강 최적화와 그라디언트 디센트 (0) | 2024.07.30 |
11강 그래디언트(그라디언트의 뜻, 방향, 크기) (0) | 2024.07.25 |