Loading [MathJax]/jax/output/CommonHTML/jax.js
프로그래밍 공부

대학교 코딩공부/최적화론 8

  • 로지스틱 회귀 데이터 처리, 특징추출 분류학습 = 두개를 포함하는 것 1. 가설함수 y = 0~1 사이에 들어간다 . 확률 2. J(0) 정의 분류기 학습 = 가설학습 가설함수 정의 J(세타) 정의 3, 내리막 경사법 분류 방향도함수 : 그레디언트 벡터에 방향 을 내적한다. u의 방향이 그레디언트 f와 같을 때 최대가 된다.

  • 파라미터 갱신 규칙 θj=θjαθjJ(θ) for every j - 알파 : 학습률, 작은값으로 할당한다. 경사 하강법 알고리즘이다. 알고리즘을 계산하기 위해서는 우변에 있는 J(θ)계산이 필요하다. 손실함수 J에서 합을 무시하고 하나의 훈련샘플에 대한 경우: 샘플 하나에 대한학습 일 경우 확률적 경사 하강 법 이 있다. 배치 경사 하강법 이 있다. 훈련 데이터의 일부분, 훈련 집합 전체를 사용 등을 사용한다.

  • 손실함수 J(0) [ Ross fungtion ] J(θ)=12Σi(hθ(x(i))y(i))2=12Σi(θx(i)y(i))2 추정치와 측정치의 오차를 표현한 식이다. 추정치와 측정치를 뺸 값을 데이터에 대한 값을 전부 더하고 2로 나눈다. 결국 손실함수 = 오차 의 합 이다. 이 손실함수 출력이 가장 작아야 한다. J세타의 값이 가장 작아지도록 하는 세타 값을 찾아야 한다. 손실함수는 작을수록 좋다. 파라미터 계산법 Full Serching Strategy ( 풀 서치 방법 ) 코드 그대로 모든 값을 다 넣어서 비교해보는것. 그러나, 계산양이 너무 많기 떄문에,..

  • 거실 면적과 집 가격 사이의 선형회귀 가격정보의 관계를 측정하자. Living area(feet2) Price(1000s)20144001600330240036914162323000540......2.==..22,2TrainingSet:M,y=h_0 (x) $ : 피라미터 로 모델링 된 가설 함수 ..

  • 분류기 구현 ( Classifier ) 구현 특징 추출을 분류하기 위해 선, 평면, 또는 초평면 방정식의 피라미터를 추정하는 과정 대표적인 방법 : Logistic Regression, Neural Networks, SVM 피쳐백터 간의 구분지을 수 있는 라인을 찾는 것. 2차원 공간 상 에서는 하나의 선 을 찾는것. 3차원 공간상 , N차원 공간 상에서는 원하는 하나의 공간 또는 면을 찾게된다. 분류기 구현 단계 구현 과정 데이터를 훈련집합, 테스트 집합으로 분류한다. 일반적으로 5:5 또는 7:3 정도의 비율로 나눈다. 훈련집합 : 분류기를 만들때에 사용, 테스트 집합 : 분류기를 만들고 난 후 성능 평가에 사용. 분류기의 종류 모델 선택 : 어떤 수학적 모델을 사용할 것 인지 결정. ( 선형, 비선..

  • 특징 추출 ( Feature Extraction ) 서로 다른 부류에 속한 데이터를 구별짓기 위해 필요한 특징을 설계하고 추출하는 과정. 사람의 얼굴에서 안경을 썼냐, 머리 스타일이 어떠냐, 코의 모양은 어떠냐 등의 데이터를 뽑아내서 분류를 가장 잘 할 수 있는지를 결정 하는 특징을 추출하는것. ex) 특징 = 피부색, 눈 크기, 입술 크기 특징 벡터 X = {x1,x2,x3} 특징 벡터의 차원 = 3차원 일정 눈, 피부색, 입술크기가 각각 0에 가까울수록 작음 0에 가까울수록 검정색임 0에 가까울수록 작음 으로 한다고 하면, 데이터 값의 학습을 축적 할 수 있다. A라는 사람이 있다고 하면, X1=(x1,x2,x3)=(0.854,0.221,0.134) 이런식 으로 추출 할 수 ..