ComputerScience/Pattern Recognition (12) 썸네일형 리스트형 패턴인식 - 4. Non-Parameteric Estimation - 패턴인식은 p(x|c)에서 P(c|x)를 구하는 문제라고 했다. - 그런데 이전까지는 알고 있는 지식을 특징의 확률분포 함수로 표현이 가능했다. 특히 feature들이 정규분포를 따르는 경우를 살펴보았다. - 이번에는 오직 데이터만 가지고 있을때, 그 데이터의 확률 분포를 알 수 없을 때 패턴인식의 문제를 해결해보자. - 문제 접근 아이디어는 다음과 같다. 굳이 pdf를 만들지말고 필요한 확률값을 데이터로부터 구해서 그때그때 사용하자는 것이다. - 즉 입력값으로 xt가 들어오면 데이터를 가지고 P(xt|c1), P(xt|c2)를 구하고 P(c1|xt), P(c2|xt)를 구해서 판단에 사용하자는 것이다. - 예를들어 남자 머리길이 데이터 200개 여자 머리길이 데이터 120개를 가지고 있다고 하자. .. 패턴인식 - 3. 단서와 판단(2) 1. P(x|c)가 정규분포라면? - 클래스 i에서 xi 특징이 나타나는 확률이 정규분포를 따른다면 - 베이어 판단 문제는 이렇게 바뀐다. 2. Discriminant Functions - 결국 부등식을 푸는 문제다. 항을 한 쪽으로 몰아서 분별함수를 만들 것이다. - 클래스 i에서 xi 특징이 정규분포를 이루기 때문에 위처럼 표현 가능하다. - g1(x) >< g2(x)를 서로 비교하면 된다. - 두 정규분포의 평균이 다를 때, 총 네가지 케이스를 살펴보자. - case0 : 1차원에서 평균은 다른데 분산이 같은 경우 - case1 : (다차원) 클래스에 대한 특징들의 정규분포에서 서로 평균은 다른데 분산이 같은 경우 (P(x|c)의 분산들은 서로 같다) - case2 : (다차원) P(x|c)의 분산.. 패턴인식 - 2. 단서와 판단(1) 1. 단서와 판단 - 남자인지 여자인지(class)를 판단할때 feature로 머리카락 길이를 선정했다고 하자. - 우리가 통계적으로 P(긴머리 | 여자) > P(긴머리 | 남자)임을 알고 있다고 하자. (학습을 통해 알아낸 사전확률, 사전지식) - 사전에 알고있는 지식으로부터 P(여자 | 긴머리) > P(남자 | 긴머리) 라는 새로운 지식으로 변환할 수 있다. (판단의 근거가 되는 사후확률, posterior) - 즉 패턴인식의 본질은 조건부 확률의 계산이다. - 피처와 클래스가 많아진 경우를 살펴보자. - P(피처벡터 | 클래스벡터)는 데이터로부터 얻을 수 있는 사전 정보들이다. 여기서 판단의 근거가 되는 확률인 P(클래스벡터 | 피처벡터)를 계산을 통해 구해야 한다. - 그러나 feature가 많아.. 패턴인식 - 1. Introduction 1. 패턴인식? - 사람의 학습, 추리/추론 능력을 컴퓨터로 구현해 내는 것이 인공지능 분야이다. - 패턴인식은 그중 특히 어떤 대상을 인식하는 문제를 주로 다루는 분야이다. - 즉 학습을 통해 패턴(형태, 양식 또는 유형)을 인식하고 그 내용을 가지고 추리/추론하는 것이다. - 패턴인식에서 요즘 가장 인기있는 갈래가 ML, DeepLearning이다. - 머신러닝은 데이터를 학습하여 모델을 만들어낸다. (데이터 중심, bottom-up) - 예를들면 2차원 좌표계에 점이 찍혀 있을때 이 점들의 경향을 잘 나타내는, 구분할 수 있는 커브(모델)를 피팅하는 것. - 우리가 이 강좌에서 배울 패턴인식의 갈래는 모델을 정하고 데이터로부터 튜닝하는 방법을 배울 것이다. (top-down) - 예를들면 2차원 좌.. 이전 1 2 다음