수학/선형대수학
-
생성(span)은 벡터 집합에서 가능한 모든 선형 조합으로 생성되는 벡터 공간의 부분 공간(Subspace)을 의미한다. 다시 말해, 주어진 벡터 집합의 모든 선형 조합으로 만들 수 있는 벡터의 집합이 그 벡터 집합의 스팬이다. 이를 통해 벡터 집합이 어떤 벡터 공간의 어떤 부분을 형성하는지 파악할 수 있다. 스팬을 이해하려면 먼저 선형 조합의 개념을 알아야 한다. 벡터 집합의 선형 조합은 각 벡터에 스칼라 계수를 곱한 후 그 결과들을 더한 것이다. 수학적으로 다음과 같이 표현할 수 있다. $c_1 \mathbf{v}_1 + c_2 \mathbf{v}_2 + \cdots + c_n \mathbf{v}_n$ 여기서 $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_n$은 ..
생성(Span)생성(span)은 벡터 집합에서 가능한 모든 선형 조합으로 생성되는 벡터 공간의 부분 공간(Subspace)을 의미한다. 다시 말해, 주어진 벡터 집합의 모든 선형 조합으로 만들 수 있는 벡터의 집합이 그 벡터 집합의 스팬이다. 이를 통해 벡터 집합이 어떤 벡터 공간의 어떤 부분을 형성하는지 파악할 수 있다. 스팬을 이해하려면 먼저 선형 조합의 개념을 알아야 한다. 벡터 집합의 선형 조합은 각 벡터에 스칼라 계수를 곱한 후 그 결과들을 더한 것이다. 수학적으로 다음과 같이 표현할 수 있다. $c_1 \mathbf{v}_1 + c_2 \mathbf{v}_2 + \cdots + c_n \mathbf{v}_n$ 여기서 $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_n$은 ..
2023.03.30 -
기저(Basis)는 벡터 공간의 구조를 설명하는 데 사용되는 중요한 개념이다. 기저는 선형 독립인 벡터들의 집합으로 구성되며, 이 기저를 통해 벡터 공간의 모든 벡터를 생성할 수 있다. 기저의 개수가 벡터 공간의 차원을 결정한다. 기저를 이해하려면 다음과 같은 성질을 충족하는 벡터들의 집합을 찾아야 한다. 선형 독립성(Linearly independent) 기저 벡터들은 서로 선형 독립이어야 한다. 이는 어떤 기저 벡터도 다른 기저 벡터들의 선형 조합으로 표현될 수 없다는 것을 의미한다. $\text{If } c_1v_1 + c_2v_2 + ... + c_nv_n = 0 \text{, then } c_1 = c_2 = ... = c_n = 0$ 생성(Span) 기저 벡터들은 벡터 공간의 모든 벡터를 생성..
기저(Basis)기저(Basis)는 벡터 공간의 구조를 설명하는 데 사용되는 중요한 개념이다. 기저는 선형 독립인 벡터들의 집합으로 구성되며, 이 기저를 통해 벡터 공간의 모든 벡터를 생성할 수 있다. 기저의 개수가 벡터 공간의 차원을 결정한다. 기저를 이해하려면 다음과 같은 성질을 충족하는 벡터들의 집합을 찾아야 한다. 선형 독립성(Linearly independent) 기저 벡터들은 서로 선형 독립이어야 한다. 이는 어떤 기저 벡터도 다른 기저 벡터들의 선형 조합으로 표현될 수 없다는 것을 의미한다. $\text{If } c_1v_1 + c_2v_2 + ... + c_nv_n = 0 \text{, then } c_1 = c_2 = ... = c_n = 0$ 생성(Span) 기저 벡터들은 벡터 공간의 모든 벡터를 생성..
2023.03.30 -
선형 독립(Linear Independence)과 선형 종속(Linear Dependence)은 벡터들이 서로 어떤 관계에 있는지를 나타내는 개념이다. 이 개념들은 기저, 차원, 벡터 공간 등과 같은 선형 대수학의 중요한 주제들과 관련이 있다. 먼저, 선형 조합(Linear Combination)의 개념을 이해해야 한다. 벡터들의 선형 조합은 각 벡터에 스칼라를 곱한 후 더하는 것을 의미한다. 예를 들어, 벡터들 $v_1, v_2, ..., v_n$에 대해 스칼라 값들 $c_1, c_2, ..., c_n$을 곱하고 더한 것은 다음과 같다. $c_1v_1 + c_2v_2 + ... + c_nv_n$ 선형 독립(Linear Independence) 벡터들이 선형 독립이라는 것은 이 벡터들이 서로 선형 관계에..
선형 독립(Linearly Independence)과 선형 종속(Linearly Dependence)선형 독립(Linear Independence)과 선형 종속(Linear Dependence)은 벡터들이 서로 어떤 관계에 있는지를 나타내는 개념이다. 이 개념들은 기저, 차원, 벡터 공간 등과 같은 선형 대수학의 중요한 주제들과 관련이 있다. 먼저, 선형 조합(Linear Combination)의 개념을 이해해야 한다. 벡터들의 선형 조합은 각 벡터에 스칼라를 곱한 후 더하는 것을 의미한다. 예를 들어, 벡터들 $v_1, v_2, ..., v_n$에 대해 스칼라 값들 $c_1, c_2, ..., c_n$을 곱하고 더한 것은 다음과 같다. $c_1v_1 + c_2v_2 + ... + c_nv_n$ 선형 독립(Linear Independence) 벡터들이 선형 독립이라는 것은 이 벡터들이 서로 선형 관계에..
2023.03.30 -
스칼라(Scalar): 스칼라는 크기만을 가지고 방향이 없는 값을 말한다. 일반적인 숫자를 예로 들 수 있으며, 실수, 정수, 복소수 등이 스칼라에 해당한다. 스칼라는 기호로 표기할 수 있으며, 예를 들어, $a$와 같이 표기할 수 있다. 벡터(Vector): 벡터는 크기와 방향을 모두 가지고 있는 값이다. 벡터는 n차원 공간의 점으로 표현되며, 각 차원에 해당하는 스칼라 값을 요소로 가진다. 벡터는 열(column) 또는 행(row)으로 표현될 수 있으며, 일반적으로 열 벡터를 사용한다. 벡터는 굵은 소문자 기호로 표기할 수 있으며, 예를 들어, $\textbf{v}$와 같이 표기할 수 있다. n차원 벡터의 표기는 다음과 같다. \(\textbf{v} = \begin{bmatrix} v_1 \\ v_2..
스칼라(Scalar), 벡터(Vector), 행렬(Matrix), 텐서(Tensor)스칼라(Scalar): 스칼라는 크기만을 가지고 방향이 없는 값을 말한다. 일반적인 숫자를 예로 들 수 있으며, 실수, 정수, 복소수 등이 스칼라에 해당한다. 스칼라는 기호로 표기할 수 있으며, 예를 들어, $a$와 같이 표기할 수 있다. 벡터(Vector): 벡터는 크기와 방향을 모두 가지고 있는 값이다. 벡터는 n차원 공간의 점으로 표현되며, 각 차원에 해당하는 스칼라 값을 요소로 가진다. 벡터는 열(column) 또는 행(row)으로 표현될 수 있으며, 일반적으로 열 벡터를 사용한다. 벡터는 굵은 소문자 기호로 표기할 수 있으며, 예를 들어, $\textbf{v}$와 같이 표기할 수 있다. n차원 벡터의 표기는 다음과 같다. \(\textbf{v} = \begin{bmatrix} v_1 \\ v_2..
2023.03.30 -
코사인 유사도(Cosine Similarity)란 내적공간의 두 벡터간 각도의 코사인 값을 이용하여 측정된 벡터간의 유사한 정도를 의미한다. 코사인 유사도는 -1부터 1까지의 값을 가진다. 두 벡터의 방향이 같은 경우: 1 두 벡터의 방향이 직각인 경우(독립): 0 두 벡터의 방향이 반대인 경우: -1 코사인 유사도는 유클리디안 스칼라곱에서 유도된다. $\mathbf{a} \cdot \mathbf{b} = ||\mathbf{a}|| \ ||\mathbf{b}|| \cos{\theta}$ 이에 따라, 코사인 유사도 cos(θ)는 아래와 같이 표현된다. $\text{cosine similarity}(\mathbf{a}, \mathbf{b}) = \frac{\mathbf{a} \cdot \mathbf{b}}{..
코사인 유사도(Cosine Similarity)코사인 유사도(Cosine Similarity)란 내적공간의 두 벡터간 각도의 코사인 값을 이용하여 측정된 벡터간의 유사한 정도를 의미한다. 코사인 유사도는 -1부터 1까지의 값을 가진다. 두 벡터의 방향이 같은 경우: 1 두 벡터의 방향이 직각인 경우(독립): 0 두 벡터의 방향이 반대인 경우: -1 코사인 유사도는 유클리디안 스칼라곱에서 유도된다. $\mathbf{a} \cdot \mathbf{b} = ||\mathbf{a}|| \ ||\mathbf{b}|| \cos{\theta}$ 이에 따라, 코사인 유사도 cos(θ)는 아래와 같이 표현된다. $\text{cosine similarity}(\mathbf{a}, \mathbf{b}) = \frac{\mathbf{a} \cdot \mathbf{b}}{..
2023.03.15