1. 가설
: 어떤 사실을 설명하거나 증명하기 위한 가정으로 두 개 이상의 변수의 관계를 검증 가능한 형태로 기술하여 변수 간의 관계를 예측하는 것
어떠한 현상에 대해 이론적인 근거를 토대로 통계적 모형을 구축하고 데이터를 수집해 해당 현상에 대한 데이터의 정확한 특성을 식별해 검증
(1) 연구 가설
: 연구자가 검증하려는 가설. 귀무가설을 부정하는 것으로 설정한 가설을 증명한느 가설
(2) 귀무가설
: 처음부터 버릴 것을 예상하는 가설. 변수 간 차이나 관계가 없음을 통계학적으로 증거를 통해 증명
(3) 대립가설
: 귀무가설과 반대되는 것으로, 참이 되는 가설. 대립가설은 연구가설과 동일하다고 볼 수 있으며, 통계적 가설 검정을 진행할 수 있음
[머신러닝에서의 가설]
: 독립변수(X)와 종속 변수(Y)를 가장 잘 매핑시킬 수 있는 기능을 학습하기 위해 사용
독립변수와 종속 변수 간의 관계를 가장 잘 근사시키기 위해 사용함
2. 통계적 가설 검정
: t-검정(t-test)가 있음
(1) 쌍체 t-검정
: 동일한 항목 또는 그룹을 두 번 테스트할 때 사용
ex) 약물 치료 전후 효과 검정
(2) 비쌍체 t-검정
: 등분산성을 만족하는 두 개의 독립적인 그룹 간의 평균을 비교하는데 사용
ex) 제약 연구에서 서로 다른 두 개의 독립적 집단(실험군, 대조군) 간에 차이 조사
- 귀무가설 (H0) : 두 모집단의 평균 사이에 유의한 차이가 없다.
- 대립가설 (H1) : 두 모집단의 평균 사이에 유의한 차이가 있다.
머신러닝의 통계적 가설을 적용한다면 비쌍체 t-검정을 사용해야함!
3. 손실함수
: 단일 샘플의 실젯값과 예측값의 차이가 발생했을 때 오차가 얼마인지 계산하는 함수
인공 신경망은 실젯값과 예측값을 통해 계산된 오찻값을 최소화해 정확도를 높이는 방법으로 학습이 진행됨.
(1) 목적함수
: 함숫값의 결과를 최댓값 또는 최솟값으로 최적화하는 함수
(2) 비용함수
: 전체 데이터에 대한 오차를 계산하는 함수
손실함수 ⊂ 비용함수 ⊂ 목적함수
4. 최적화
: 목적 함수의 결괏값을 최적화하는 변수를 찾는 알고리즘
머신러닝은 손실 함수를 활용해 최적의 해법이나 변수를 찾는 것이 목표
최적의 가중치와 편향을 갖는 가설은 오찻값이 0에 가까운 함수가 된다.
'Python > PyTorch Study' 카테고리의 다른 글
[04] 파이토치 기초( 데이터세트) (0) | 2024.09.20 |
---|---|
[02] 파이토치 기초 (텐서) (0) | 2024.08.16 |
[01] 인공지능과 방법론 (인공지능, 머신러닝) (0) | 2024.08.16 |