320x100
320x100

 

특징공간

- 특징을 분류한 공간

- 1차원 특징공간

: 특징이 1개인 공간

: 특징값 x와 목표값 y로 구성

- 2차원 특징공간

: 특징이 2개인 공간

: 특징값 x(특징1, 특징2)와 목표값 y로 구성

ㆍex) x(몸무게, 키) y=비만지수

ㆍ특징의 갯수 n에 따라 n차원 특징공간을 가짐

 

 

다차원 특징공간

- 특징벡터 표현 (d차원)

: x = (x1, x2, ..... , xd)

- 선형학습 모델 (퍼셉트론 참조)

: 1차원 (y = ax + b)

: 다차원 (y = (w1*x1) + (w2*x2) + ... + (wd*xd) + 편향값)

: 매개변수의 개수 = d+1

- 다차원 데이터의 2차 곡선형 학습모델

: 1차원 (y = (w1*x1^2) + (w2*x1) + 편향)

: 매개변수의 개수 = d^2 + d + 1

ㆍex) Iris Dataset의 특징갯수 (d = 4)

매개변수의 개수 : 16 + 4 + 1 = 21

 

 

표현학습

- 좋은 특징공간을 자동으로 찾아내는 학습

 

 

차원의 저주

- 차원이 높아짐에 따라 발생하는 문제

- 거대한 공간에 데이터가 흩뿌려지면서 분류와 학습이 어려워짐

 

 

머신러닝과 데이터

- 데이터의 생성과정을 알 수 없기 때문에 주어진 학습 데이터를 통해 예측모델(생성모델)을 역을 추정해야함.

때문에 데이터의 품질이 매우 중요함

- 데이터의 품질을 높이는 법

: 충분한 양의 데이터와 데이터베이스를 확보해야함

: manifold를 활용하면 적은 데이터베이스로도 높은 성능을 가질 수 있음

 

 

300x250
728x90