그라디언트 디센트까지 드디어 정리했습니다. 이번 강은 ITPE에서 제공해주신 서브노트를 정리하는 시간입니다.

초반에도 언급했지만 저는 기술사를 공부할때 AI관련 서브노트 보기가 참 힘들었습니다. 읽어도 이해가 안가서...

지금은 그때보다는 괜찮은 것 같습니다. 앞의 내용을 읽고 강의를 들으신 모든 분들이 서브노트 보시는게 편해졌기를 바랍니다.

 

강의보기: https://www.youtube.com/watch?v=w8q1LnX3yRQ

 

강의수정내용:

강의 내용 6분 48초에 목적함수가 Convex해야 Gradient Descent가 의미있다고 했는데 틀린 설명입니다. Non Convex해도 우리는 GD를 사용합니다. 우선 GD를 사용하고 Local Minimum을 벗어나거나 Global Minimum을 찾는 알고리즘을 사용합니다. 

 

그래서,

 

"Convex 해야 GD를 수행했을떄 Global Minumum이 보장된다. Deep Learning에서 처럼 Convex하지 않다면, 우리는 Global Minimum을 구하기 위해 1. 초기화와 관련된 방법과 2. GD 알고리즘(수학식)에 변형을 주는 기법을 사용한다."

 

6분 48초 내용을 위와 같이 바꿔야 합니다.

 

감사합니다. 

강의보고오기:  https://youtu.be/e4ScjpAjkBU?si=AdBXxmFe_5uC_lDx

 

ITPE에서 제공해 주신 서브노트를 바탕으로 머신러닝의 개요를 설명드렸습니다. 4강에서 처럼 기존 서브노트 내용 중에서 제 생각과 다른 부분을 설명드렸습니다. 제가 틀릴 수도 있으니 보시는 분들 모두 비판적으로 봐주시고 틀린 내용 피드백해 주시면 고치도록 하겠습니다. 

 

머신러닝이 분류와 예측을 하게 만들어진 것도 우리 인간이 하는 일이 분류와 예측이기 때문인거 같습니다. 머신러닝이 이런 일을 하게 만든것도 우리 인간이 하는일을 대신하게 만들려고 한거니까 당연한 결과인거 같습니다. 

 

자세한 내용은 강의를 참고하세요~

 

감사합니다.

'Machine Learning' 카테고리의 다른 글

7강 벡터  (0) 2024.07.20
6강 선형회귀  (0) 2024.07.18
4강 머신러닝 뜻 / 머신러닝 개요  (0) 2024.07.17
3강 인공신경망의 역사  (1) 2024.07.16
2강 인공지능 뜻(AI 뜻) - Russell & Norvig 표준정의  (1) 2024.07.16

+ Recent posts