본문 바로가기

Statistics and Math

(27)
통계(강의) 통계 통계학 데이터 속의 차이와 패턴을 설명하여 이를 바탕으로 미래를 예측하는 학문 차이를 확인하는 데이터요약 데이터 요약 데이터를 요약하면 그속에서 차이를 확인할 수 있다. 예) 평균을 확인하면 데이터는 평균보다 큰 쪽과 평균보다 작은 쪽으로 나뉜다. 모델링 전에 먼저 데이터 요약을 통해 데이터의 특징을 살피고 어떤 차이가 있는지 살펴보면, 분석의 방향을 설정하는데 도움이 된다. 변수와 관측치 데이터는 수많은 변수와 관측치로 이루어져 있다. - 변수(variable) : 열 - 관측치(observation) : 행 데이터는 공간으로 표현할 수 있다. 데이터 분석 : 변수들이 만들어내는 공간의 특징을 설명하고 그 속에 점처럼 흩어져 있는 관측치의 패턴을 찾는 과정. 기호의 약속 변수의 개수 p, 관측치의..
미분학(강의) 미분 우선 함수와 그래프에 대하여 보자 함수 ● 입력값과 출력값 간의 관계를 식으로 표현한 것 ● y = f(x) 일차 함수 그래프는 점 두개로 그릴수 있다. 기울기 = x가 1만큼 커질때 y값이 얼마나 커지는 지 머신러닝 사용시 함수 사용 ( 집값 - 평수, 몸무게 - 키) 머신러닝 -> 예측 모델을 짜서 예측을 한다 모델은 데이터를 가지고 한다 1차 함수 차수가 1인 함수. 고차 함수 2차 함수, 3차함수 다변수 함수 ● 인풋 변수가 여러개인 함수 ex) 집값에 영향을 미치는 변수 => 평수, 역에서 근접하는 정도 등 여러 변수가 존재할 수 있다. 많은 변수를 계산하기 쉽게 하는것이 선형대수학(행렬, 벡터) 이다. 현실 세계에서의 함수 그래프 그래프 ● 수학식을 시각적으로 표현하는 방법 1차함수 2차..
CH04_08 시그모이드와 소프트맥스 4-6 Sigmoid and Softmax Logits Logit은 확률을 다르게 표현 한 것. odds를 아래와 같이 부른다. 만약 P(A) = 1/2 일 경우 Odds는 1값이 나온다. 이때 P(A) = 1 - P(A) 가 성립한다. 양쪽이 비대칭이므로 로그를 취한다. 로그를 취해서 그래프를 그리면 대칭적인 그래프를 보여준다. Sigmoid and Logits logits의 역함수를 구해보자. 그러면 Sigmoid 함수가 나온다. 따라서 logits의 역함수가 sigmoid임을 알 수 있다. 확률에 log를 씌운것이 logits 그것의 역함수가 sigmoid이다. 이때 sigmoid는 그것을 다시 확률로 표현된다. 이때 sigmoid의 확률이 0과 1로 표시된다. 반면에 logit의 범위는 무한대이다..
CH04_07 이산, 연속 확률분포 4-5 Random Distributions Probability Mass / Density Functions 주사위를 돌렸을 떄 확률변수와 확률을 표현한 표를 보자 확률과 확률변수와의 관계를 그래프로 나타내면 아래와 같다. 이러한 양상은 이산 분포를 보인다. 이산 확률 분포의 경우 이와 같은 그래프를 보인다. 반연 연속 확률 분포에 대해서 보자 만약 키가 170이 될 확률은 얼마일까 키가 170일 확률은 0에 가깝다 왜냐하면 키가 완전히 정확하게 170일 경우는 거의 없을거기 때문이다. 반면 범위를 설정해서 확률을 구할 수 도 있다 키가 170~170.1 일일 확률을 표시하면 아래와 같다. 따라서 이러한 확률을 구하기 위해서는 적분을 통하여 구해야 한다. 이처럼 연속적인 확률분포를 표현한 것을 연속 밀..
CH04_06 확률변수의 기댓값과 산포도 4-4 Expectations and Variances Expected Values 주사위를 던지는 경우의 예시를 생각해보자. 이에 대한 기대값을 구해보자. 로또의 경우를 생각해보자. 꽝, 2등, 1등을 상금이라는 확률변수로 표현해보자. 이러한 확률변수와 확률의 표를 가정하면 아래와 같다. 이러한 기대값이 나온다. 물론 기대값이 2천만원이라는 비정상(?)적인 값이 나왔다 매우 좋은 로또인 것을 볼 수 있다. 따라서 좀더 확률을 낮춰보자. 이때의 기댓값을 구해보자. 따라서 기댓값이 약 만원임을 알 수 있다. 만약 로또의 가격이 12000원 이였으면 사면 안되는 복권으로 볼 수 있다. Expectations of a Function 아래와 같이 기댓값 있는 확률변수 x가 있을때, 그러한 확률변수를 넣을 수 ..
CH04_05 확률변수 4-3 Random Variables Random Variables 확률변수는 Function의 개념이다. Outcome인 s를 실수인 x에 대응하는 개념 주사위를 굴릴 때, 이미 Outcome들은 실수로 나타나져 있다. 그러나 동전 던지기 경우 Outcome은 앞면, 뒷면 처럼 실수로 나타내지지 않는다. 아래와 같이 앞면과 뒷면을 0 ,1로 정의하고 이를 S1, S2로 부르자. 또한 X라는 함수에 S1를 넣으면 이를 X1이라고 하고 값을 0으로 하자. 또한 X라는 함수에 S2를 넣으면 이를 X2이라고 하고 값을 1으로 하자. 이처럼 Sample Space를 실수에 대응시키는게 Ramdom variable 이다. 만약 카드 뽑기의 상황을 보자. 이떄 이 Sample space에 Outcome이 실수가 아..
선형대수학(강의) 머신러닝에서 쓰이는 수학 1. 선형대수 - 행렬 2. 미적분학 (미분 위주) - 최적화 (오차를 최소화) 3. 통계 - 데이터 이해 - 패턴 4. 확률 - 예측 / 가능성 선형 대수학을 배우는 이유 파이썬 numpy array 같은 경우라던지, 행렬 등의 개념이 사용되는 것이 많다. 선형대수학 : 일차식이나 일차 함수를 공부하는 학문 복잡한 선형 시스템을 행렬과 벡터로 쉽게 표현 가능 일차식과 일차함수 (n차) 다항식 ● 일차식 : 가장 높은 차수가 1인 다항식 ● n차식 : 가장 높은 차수가 n인 다항식 e.g. 3차 다항식 (n차)함수 ● 일차 함수 y는 x에 대한 함수 함수 f는 x에 대한 함수 ● 3차 함수 일차식 표기법 변수 개수에 따른 함수 표현 ● 변수 x, y에 대한 함수(예시) ● 변수 ..
Ch04_04 베이즈 정리 4-2 Bayes’ Theorem Bayes’ Theorem 베이즈 정리는 구하기 어려운 확률을 쉽게 구할 수 있게 해준다. MLE, MAP가 베이즈 정리를 활용하여 머신러닝에 사용하는 것이다. 위의 식을 활용하여 아래 식에 대입하면 다음과 같은 수식이 나온다. 다음엔 U 안에 C라는 클래스가 있다고 생각해보자. D가 데이터 일때, 데이터가 강아지 클래스일 확률, 고양이 클래스, 토끼 클래스일 확률이 아래와 같다. 이럴때 베이즈의 정리를 활용하여, 강아지 클래스가 데이터일 확률도 구할 수 있다. 분자에 관심이 있는 확률이고, 분모는 전체 확률을 말한다.