분류 전체보기
-
백색잡음과정(white noise process)은 일정한 평균과 분산을 갖는 독립적인 무작위 변수의 시퀀스(sequence)다. 이러한 변수들은 상호 독립이며, 각각이 평균이 0이고 분산이 $σ^2$인 정규분포(normal distribution)를 따른다. 이러한 백색잡음과정은 다음과 같은 수식으로 나타낼 수 있다. $Y(t) = \epsilon(t)$ 여기서 $Y(t)$는 $t$ 시점에서의 백색잡음과정을 나타내며, $ε(t)$는 $t$ 시점에서의 독립적인 무작위 변수다. 이러한 변수들은 평균이 0이고 분산이 $σ^2$인 정규분포를 따르며, 서로 독립적이다. 백색잡음과정은 주로 시간에 따른 무작위한 변동성을 모델링하는 데 사용된다. 예를 들어, 백색잡음과정은 주식 가격의 일시적인 변동성을 모델링하는 ..
백색 잡음 과정(White Noise Process)백색잡음과정(white noise process)은 일정한 평균과 분산을 갖는 독립적인 무작위 변수의 시퀀스(sequence)다. 이러한 변수들은 상호 독립이며, 각각이 평균이 0이고 분산이 $σ^2$인 정규분포(normal distribution)를 따른다. 이러한 백색잡음과정은 다음과 같은 수식으로 나타낼 수 있다. $Y(t) = \epsilon(t)$ 여기서 $Y(t)$는 $t$ 시점에서의 백색잡음과정을 나타내며, $ε(t)$는 $t$ 시점에서의 독립적인 무작위 변수다. 이러한 변수들은 평균이 0이고 분산이 $σ^2$인 정규분포를 따르며, 서로 독립적이다. 백색잡음과정은 주로 시간에 따른 무작위한 변동성을 모델링하는 데 사용된다. 예를 들어, 백색잡음과정은 주식 가격의 일시적인 변동성을 모델링하는 ..
2023.04.07 -
확률보행과정(random walk)은 일련의 확률적인 움직임을 나타내는 수학적 모델이다. 이는 시간에 따라 변하는 확률변수를 모델링하는 데 사용된다. 확률보행과정은 다음과 같은 수식으로 나타낼 수 있다. $X(t) = X(0) + \sum_{i=1}^{t} Z(i)$ 여기서 $X(t)$는 시간 $t$에서의 위치를 나타내는 확률변수이며, $X(0)$는 초기 위치를 나타낸다. $Z(i)$는 $i$번째 단계에서의 변위(displacement)를 나타내는 확률변수다. 이러한 변위는 보통 독립적으로 분포되며, 평균 $\mu$와 표준편차 $\sigma$를 가지는 정규분포(normal distribution)를 따른다. 즉, 확률보행과정은 초기 위치에서 시작하여 각 단계에서의 변위가 정규분포를 따르는 일련의 움직임으..
확률 보행 과정(Random Walk Process)확률보행과정(random walk)은 일련의 확률적인 움직임을 나타내는 수학적 모델이다. 이는 시간에 따라 변하는 확률변수를 모델링하는 데 사용된다. 확률보행과정은 다음과 같은 수식으로 나타낼 수 있다. $X(t) = X(0) + \sum_{i=1}^{t} Z(i)$ 여기서 $X(t)$는 시간 $t$에서의 위치를 나타내는 확률변수이며, $X(0)$는 초기 위치를 나타낸다. $Z(i)$는 $i$번째 단계에서의 변위(displacement)를 나타내는 확률변수다. 이러한 변위는 보통 독립적으로 분포되며, 평균 $\mu$와 표준편차 $\sigma$를 가지는 정규분포(normal distribution)를 따른다. 즉, 확률보행과정은 초기 위치에서 시작하여 각 단계에서의 변위가 정규분포를 따르는 일련의 움직임으..
2023.04.07 -
딥러닝은 머신러닝의 한 분야로, 인공신경망(Artificial Neural Network)을 이용하여 다층으로 구성된 신경망을 학습시켜 패턴을 인식하고 의사결정을 내리는 기술이다. 딥러닝의 핵심은 인공신경망이다. 인공신경망은 뇌의 신경망을 모방하여 만들어진 기술로, 입력층(Input Layer), 은닉층(Hidden Layer), 출력층(Output Layer) 등으로 구성되어 있다. 딥러닝의 학습은 대량의 데이터를 이용한다. 입력 데이터는 인공신경망의 입력층으로 들어가게 되며, 은닉층을 거쳐 출력층으로 나오게 된다. 이때, 출력층의 결과와 실제 정답을 비교하여 오차를 계산하고, 이를 다시 입력층까지 거슬러 올라가면서 오차를 최소화하는 방향으로 가중치(Weight)와 편향(Bias) 값을 조정한다. 이러..
딥러닝(Deep Learning)딥러닝은 머신러닝의 한 분야로, 인공신경망(Artificial Neural Network)을 이용하여 다층으로 구성된 신경망을 학습시켜 패턴을 인식하고 의사결정을 내리는 기술이다. 딥러닝의 핵심은 인공신경망이다. 인공신경망은 뇌의 신경망을 모방하여 만들어진 기술로, 입력층(Input Layer), 은닉층(Hidden Layer), 출력층(Output Layer) 등으로 구성되어 있다. 딥러닝의 학습은 대량의 데이터를 이용한다. 입력 데이터는 인공신경망의 입력층으로 들어가게 되며, 은닉층을 거쳐 출력층으로 나오게 된다. 이때, 출력층의 결과와 실제 정답을 비교하여 오차를 계산하고, 이를 다시 입력층까지 거슬러 올라가면서 오차를 최소화하는 방향으로 가중치(Weight)와 편향(Bias) 값을 조정한다. 이러..
2023.04.06 -
머신러닝(Machine Learning)은 인공지능의 한 분야로, 알고리즘을 통해 데이터로부터 학습하고, 패턴을 인식하며, 결정을 내리는 모델을 만드는 과정이다. 머신러닝의 주요 목표는 새로운 데이터에 대한 예측이나 분류를 자동으로 수행하는 일반화된 모델을 생성하는 것이다. 머신러닝 워크플로우는 다음과 같은 일반적인 단계로 구성된다. 문제 정의 - 머신러닝 프로젝트의 첫 번째 단계는 문제를 정의하는 것이다. 이 단계에서는 어떤 데이터를 수집할 것인지, 어떤 문제를 해결하고자 하는지 등을 명확하게 해야 한다. 데이터 수집 - 머신러닝 모델을 학습시키기 위해서는 데이터가 필요하다. 이 단계에서는 필요한 데이터를 수집하고 준비한다. 데이터가 준비되면, 데이터를 분석하고, 불필요한 데이터를 제거하고, 결측치나 ..
머신러닝(Machine Learning)머신러닝(Machine Learning)은 인공지능의 한 분야로, 알고리즘을 통해 데이터로부터 학습하고, 패턴을 인식하며, 결정을 내리는 모델을 만드는 과정이다. 머신러닝의 주요 목표는 새로운 데이터에 대한 예측이나 분류를 자동으로 수행하는 일반화된 모델을 생성하는 것이다. 머신러닝 워크플로우는 다음과 같은 일반적인 단계로 구성된다. 문제 정의 - 머신러닝 프로젝트의 첫 번째 단계는 문제를 정의하는 것이다. 이 단계에서는 어떤 데이터를 수집할 것인지, 어떤 문제를 해결하고자 하는지 등을 명확하게 해야 한다. 데이터 수집 - 머신러닝 모델을 학습시키기 위해서는 데이터가 필요하다. 이 단계에서는 필요한 데이터를 수집하고 준비한다. 데이터가 준비되면, 데이터를 분석하고, 불필요한 데이터를 제거하고, 결측치나 ..
2023.04.06 -
정상성(Stationarity)은 시계열 데이터의 통계적 특성이 시간에 따라 일정한 상태를 유지하는 것을 의미한다. 정상성을 가진 시계열 데이터는 더욱 간편하게 분석할 수 있으며, 예측 성능이 향상된다. 시계열 데이터가 정상성을 가지려면 모든 시간 $t$에 대해서 평균(average), 분산(variance), 자기공분산(autocovariance)이 일정해야 한다. 시계열 데이터의 정상성을 확인하는 방법은 다음과 같다. 시각적 점검: 시계열 데이터를 그래프로 그려서 시간에 따른 평균과 분산의 변화를 확인한다. 요약 통계량 검증: 주어진 시계열 데이터를 일정한 구간으로 나누어 각 구간의 평균과 분산을 비교한다. 통계적 검정: 다음과 같은 통계적 검정 방법을 사용하여 시계열 데이터의 정상성을 검증한다. A..
정상성(Stationarity)정상성(Stationarity)은 시계열 데이터의 통계적 특성이 시간에 따라 일정한 상태를 유지하는 것을 의미한다. 정상성을 가진 시계열 데이터는 더욱 간편하게 분석할 수 있으며, 예측 성능이 향상된다. 시계열 데이터가 정상성을 가지려면 모든 시간 $t$에 대해서 평균(average), 분산(variance), 자기공분산(autocovariance)이 일정해야 한다. 시계열 데이터의 정상성을 확인하는 방법은 다음과 같다. 시각적 점검: 시계열 데이터를 그래프로 그려서 시간에 따른 평균과 분산의 변화를 확인한다. 요약 통계량 검증: 주어진 시계열 데이터를 일정한 구간으로 나누어 각 구간의 평균과 분산을 비교한다. 통계적 검정: 다음과 같은 통계적 검정 방법을 사용하여 시계열 데이터의 정상성을 검증한다. A..
2023.04.06 -
시계열 데이터(Time series data)는 일정한 시간 간격으로 관측된 데이터다. 이러한 데이터는 시간의 순서에 따라 구성되며, 시간에 따른 패턴, 추세 및 계절성과 같은 특성을 가진다. 시계열 데이터의 주요 특성 및 구성 요소는 다음과 같다. 추세(Trend) 시계열 데이터에서 장기적으로 나타나는 상승 또는 하락 경향을 추세라고 한다. 추세는 경제 성장, 인구 증가 등과 같은 일반적인 변화를 반영한다. 계절성(Seasonality) 시계열 데이터에서 일정한 기간마다 반복되는 변동 패턴을 계절성이라고 한다. 계절성은 주로 연간, 분기, 월간 또는 주간 단위로 나타난다. 예를 들어, 여름철의 전력 소비 증가, 겨울철의 온도 하락 등이 계절성의 예시다. 주기(Cyclical) 주기는 시계열 데이터에서 ..
시계열 데이터(Time series data)의 구성 요소시계열 데이터(Time series data)는 일정한 시간 간격으로 관측된 데이터다. 이러한 데이터는 시간의 순서에 따라 구성되며, 시간에 따른 패턴, 추세 및 계절성과 같은 특성을 가진다. 시계열 데이터의 주요 특성 및 구성 요소는 다음과 같다. 추세(Trend) 시계열 데이터에서 장기적으로 나타나는 상승 또는 하락 경향을 추세라고 한다. 추세는 경제 성장, 인구 증가 등과 같은 일반적인 변화를 반영한다. 계절성(Seasonality) 시계열 데이터에서 일정한 기간마다 반복되는 변동 패턴을 계절성이라고 한다. 계절성은 주로 연간, 분기, 월간 또는 주간 단위로 나타난다. 예를 들어, 여름철의 전력 소비 증가, 겨울철의 온도 하락 등이 계절성의 예시다. 주기(Cyclical) 주기는 시계열 데이터에서 ..
2023.04.06 -
Adam(Adaptive Moment Estimation)은 RMSprop와 Momentum 기법을 결합한 최적화 알고리즘이다. 이 알고리즘은 기울기의 지수 가중 이동 평균(1st moment)과 기울기 제곱의 지수 가중 이동 평균(2nd moment)을 동시에 추정하여, 적응적으로 학습률을 조절한다. Adam의 업데이트 규칙은 다음과 같다. $m_t = \beta_1 m_{t-1} + (1-\beta_1) \nabla_{\theta_t} L(\theta_t)$ $v_t = \beta_2 v_{t-1} + (1-\beta_2) \nabla_{\theta_t} L(\theta_t) \odot \nabla_{\theta_t} L(\theta_t)$ $\hat{m}_t = \frac{m_t}{1-\beta_1..
[최적화] Adam(Adaptive Moment Estimation)Adam(Adaptive Moment Estimation)은 RMSprop와 Momentum 기법을 결합한 최적화 알고리즘이다. 이 알고리즘은 기울기의 지수 가중 이동 평균(1st moment)과 기울기 제곱의 지수 가중 이동 평균(2nd moment)을 동시에 추정하여, 적응적으로 학습률을 조절한다. Adam의 업데이트 규칙은 다음과 같다. $m_t = \beta_1 m_{t-1} + (1-\beta_1) \nabla_{\theta_t} L(\theta_t)$ $v_t = \beta_2 v_{t-1} + (1-\beta_2) \nabla_{\theta_t} L(\theta_t) \odot \nabla_{\theta_t} L(\theta_t)$ $\hat{m}_t = \frac{m_t}{1-\beta_1..
2023.04.06 -
RMSprop(Root Mean Square Propagation)은 AdaGrad의 학습률 감소 문제를 해결하기 위한 최적화 알고리즘이다. RMSprop은 가장 최근의 기울기 정보만 사용하여 기울기의 제곱의 지수 가중 이동 평균을 계산한다. 이를 통해 학습률이 너무 빠르게 감소하는 문제를 완화한다. RMSprop의 업데이트 규칙은 다음과 같다. $E[g^2]_t = \beta E[g^2]_{t-1} + (1-\beta) \nabla_{\theta_t} L(\theta_t) \odot \nabla_{\theta_t} L(\theta_t)$ $\theta_{t+1} = \theta_t - \frac{\eta_t}{\sqrt{E[g^2]_t+\epsilon}} \odot \nabla_{\theta_t} L(..
[최적화] RMSprop(Root Mean Square Propagation)RMSprop(Root Mean Square Propagation)은 AdaGrad의 학습률 감소 문제를 해결하기 위한 최적화 알고리즘이다. RMSprop은 가장 최근의 기울기 정보만 사용하여 기울기의 제곱의 지수 가중 이동 평균을 계산한다. 이를 통해 학습률이 너무 빠르게 감소하는 문제를 완화한다. RMSprop의 업데이트 규칙은 다음과 같다. $E[g^2]_t = \beta E[g^2]_{t-1} + (1-\beta) \nabla_{\theta_t} L(\theta_t) \odot \nabla_{\theta_t} L(\theta_t)$ $\theta_{t+1} = \theta_t - \frac{\eta_t}{\sqrt{E[g^2]_t+\epsilon}} \odot \nabla_{\theta_t} L(..
2023.04.06