Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- p태그
- 머신러닝
- 엘리스코딩
- 딥러닝
- 선택자
- 엘리스
- ML
- 엘카데미
- 엘카데미이벤트
- 혼공학습단
- 혼자_공부하는_머신러닝+딥러닝
- javascript
- Block
- 엘리스출석챌린지
- 엘카데미후기
- 혼공머신
- CSS
- A태그
- 인공지능
- html
- 자바스크립트
- 무료코딩
- 코딩이벤트
- 엘리스아카데미
- 혼공
- js
- 태그
- 속성
- border
- Margin
Archives
- Today
- Total
jinseon's log
02 LinearRegression 본문
👩🏻🏭 선형 회귀 (Linear Regression)
- input과 output 간의 관계가 선형적
✔ 기본 식
- x : 입력 변수
- y^ : 추정하는 함수로터 출력된 값
- β : 회귀계수
📍 y와 y^의 차이 : 실제 y / 함수가 추정한 y^
1️⃣ basis function
- 모형의 대략적인 구조를 세움
- 함수가 가정하고 있는 바에 따라서 대략적인 함수의 형태를 컴퓨터에게 알려주는 과정
2️⃣ 손실함수 (loss function)
✔ MSE (Mean Squared Error)
- yi : 실제값
- yi^ : 모형 출력 값
- Training error : 실제 값과 예측 값의 차이 == 오차
- 오차의 제곱의 평균
- Loss ≠ 0
📍 제곱을 하는 이유
- 제곱을 하지 않고 모든 오차를 더할 경우 플러스, 마이너스 관계들이 다 상쇄 되어 의미 없는 오차가 됨
3️⃣ 최적화 (Optimization)
- 오차(loss function)를 가장 최소화로 해주는 베타를 찾는 과정
'ML & DL > K-MOOK' 카테고리의 다른 글
04 Machine Learning Pipeline (0) | 2022.11.22 |
---|---|
03 지도학습 (Supervised Learning) (1) | 2022.11.22 |
01 인공지능과 머신러닝 개요 (2) | 2022.11.21 |
Comments