본문 바로가기
Python/PyTorch Study

[03] 파이토치 기초 (가설, 최적화)

by 잉나영 2024. 9. 20.
728x90

1. 가설

: 어떤 사실을 설명하거나 증명하기 위한 가정으로 두 개 이상의 변수의 관계를 검증 가능한 형태로 기술하여 변수 간의 관계를 예측하는 것

어떠한 현상에 대해 이론적인 근거를 토대로 통계적 모형을 구축하고 데이터를 수집해 해당 현상에 대한 데이터의 정확한 특성을 식별해 검증

(1) 연구 가설

: 연구자가 검증하려는 가설. 귀무가설을 부정하는 것으로 설정한 가설을 증명한느 가설

(2) 귀무가설

: 처음부터 버릴 것을 예상하는 가설. 변수 간 차이나 관계가 없음을 통계학적으로 증거를 통해 증명

(3) 대립가설

: 귀무가설과 반대되는 것으로, 참이 되는 가설. 대립가설은 연구가설과 동일하다고 볼 수 있으며, 통계적 가설 검정을 진행할 수 있음

[머신러닝에서의 가설]

: 독립변수(X)와 종속 변수(Y)를 가장 잘 매핑시킬 수 있는 기능을 학습하기 위해 사용

독립변수와 종속 변수 간의 관계를 가장 잘 근사시키기 위해 사용함

2. 통계적 가설 검정

: t-검정(t-test)가 있음

(1) 쌍체 t-검정

: 동일한 항목 또는 그룹을 두 번 테스트할 때 사용

ex) 약물 치료 전후 효과 검정

(2) 비쌍체 t-검정

: 등분산성을 만족하는 두 개의 독립적인 그룹 간의 평균을 비교하는데 사용

ex) 제약 연구에서 서로 다른 두 개의 독립적 집단(실험군, 대조군) 간에 차이 조사

- 귀무가설 (H0) : 두 모집단의 평균 사이에 유의한 차이가 없다.

- 대립가설 (H1) : 두 모집단의 평균 사이에 유의한 차이가 있다.

머신러닝의 통계적 가설을 적용한다면 비쌍체 t-검정을 사용해야함!

3. 손실함수

: 단일 샘플의 실젯값과 예측값의 차이가 발생했을 때 오차가 얼마인지 계산하는 함수

인공 신경망은 실젯값과 예측값을 통해 계산된 오찻값을 최소화해 정확도를 높이는 방법으로 학습이 진행됨.

(1) 목적함수

: 함숫값의 결과를 최댓값 또는 최솟값으로 최적화하는 함수

(2) 비용함수

: 전체 데이터에 대한 오차를 계산하는 함수

손실함수 ⊂ 비용함수 ⊂ 목적함수

 

4. 최적화

: 목적 함수의 결괏값을 최적화하는 변수를 찾는 알고리즘

머신러닝은 손실 함수를 활용해 최적의 해법이나 변수를 찾는 것이 목표

최적의 가중치와 편향을 갖는 가설은 오찻값이 0에 가까운 함수가 된다.

728x90