인공지능 강의 11화를 보며 배운내용
KEYWORDS
- 회귀분석: 독립변수와 종속변수 사이 상관관계 추정
- 선형회귀: 독립변수와 종속변수 사이의 상관관계를 선형함수로 모델링
- 평균제곱오차(mean squared error): 실제값과 예측값 사이 오차를 제곱한 값의 평균
- 로지스틱 회귀: 회귀 분석 기법 중 종속변수가 0 or 1, 참 or 거짓 등 구분하기 위한 방법
- 다향 로지스틱 회귀: 3개 이상 클래스를 식별하기 위한 로지스틱 회귀
- 군집화: 패턴 집합을 같은 종류라고 할 수 있는 몇 개의 서브클래스로 분할
- k-평균 군집화: k개 평균벡터를 임의 위치로 시작, 학습표본 집합으로 반복적 업데이트,
학습표본 집합을 대표하는 평균벡터를 만드는 군집화
회귀분석(regression anlysis)
독립변수와 종속변수 사이 상관관계 추정
- 독립변수: 입력
- 종속변수: 독립변수에 의한 출력
=> 즉, 입력과 출력 관계를 예상해보는 거다.
단어에 쫄지말자
선형회귀(linear regression)
독립변수(입력), 종속변수(출력) 사이 상관관계를 선형함수로 모델링하는 것
선형회귀 예시
선형회귀 목표
d개의 독립변수와 종속변수 y에 대한
학습 표본 집합으로부터 선형가설을 구하는 것
가설과 실제와 오차가 존재할텐데
이 오차를 최소로 만드는게 목표이다.
선형가설의 학습
비용함수 = 평균제곱오차
기계학습을 할 때
경사하강법(gradient descent method) 많이 사용한다
비용함수 기울기의 음의 방향으로
경사면을 따라내려가도록 w0, w1을 조금씩 변화시킨다
로지스틱 회귀(logistic regression)
독립변수(입력)에 대해 종속변수(출력)이
0 또는 1이라는 값을 내는 가설을 구하는 것
가설의 학습
비용함수 = 교차 엔트로피(cross entropy)
그 다음 경사하강법에 대한 학습 => 비용함수가 최소가 되도록
다항 로지스틱 회귀(multinomial logistic regression)
식별하려는 클래스가 3개 이상인 경우
Softmax라는 함수를 이용해서 확률을 구한다
Softmax: 0~1 사이 값으로 압축한다
비용함수: 이것도 교차 엔트로피
그 다음 => 경사하강법으로 학습 => 비용함수가 최소가 되도록
군집화(clustering)
패턴 집합에서 같은 종류라고 생각되는
몇 개의 서브클래스로 분할
자율학습을 시킨다
k-평균 군집화(k-means clustering)
- k개의 평균벡터를 찾고
- k개의 평균벡터의 임의의 값을 초기값(추정)으로 주고
- 학습표본을 평균벡터 중 가장 가까운 것으로 분류
- 분류된 합습표본의 평균을 구하고
- 그 값으로 평균벡터를 업데이트
- 위 과정을 적절한 위치에 올 때까지 반복한다
'Computer Science > AI :: 인공지능' 카테고리의 다른 글
인공지능 강의 12화 :: 신경회로망, 학습방법, 퍼셉트론 (0) | 2021.11.26 |
---|---|
인공지능 강의 10화 :: 기계학습, 지도학습, 자율학습, 귀납적 학습, 결정트리 (0) | 2021.10.24 |
인공지능 강의 9화 :: 특징, 주성분 분석, 베이즈 분류기, 매개변수, 비 매개변수 (0) | 2021.10.17 |
인공지능 강의 8화 :: 컴퓨터 시각, 전처리, 합성곱, 가우시안, 중간값 필터, 영상분할 (0) | 2021.10.14 |
인공지능 강의 7화 :: 퍼지집합, 아~ Fuzzy (0) | 2021.10.09 |