본문 바로가기
AI · 인공지능/딥러닝 Tutorial

[딥러닝 입문 - 4] 선형 대수의 기초(2/9)

by 두우우부 2020. 7. 16.
반응형

5.1.1 변수의 형태와 서체의 관계

많은 교과서(특히 선형 대수학 교과서)에서는, 변수를 한번 보고 그 형태가 무엇인지 알 수 있도록 특정 모양(벡터, 행렬 등)의 변수는 특정 글꼴을 사용하도록 되어 있습니다. 본 자료에 한정하지 않고, 수식을 볼 때는 변수의 글씨체를 보고, 그 변수의 형태를 의식하는 것을 추천합니다. 변수의 형태와 서체의 대응 관계는 교과서에 따라 유파가 있지만, 그 일례를 소개합니다(이 문서도 이 규약에 따릅니다).

 

구분

소문자

대문자

일반체

스칼라 변수 (a,b 등)

스칼라 상수 (A,B 등)

Bold체

벡터 (x,y 등)

행렬, 텐서 (A,B 등)

 

5.1.2. 가산 감산 스칼라 곱

다음으로, 벡터, 행렬, 텐서의 연산에 대해 설명합니다. 가산(덧셈)감산(뺄셈)은 같은 크기의 벡터간, 행렬간, 텐서들 사이에서만 성립합니다. 다음은 행렬과 벡터간의 가산을 구체적인 예로 설명합니다.

 

벡터간의 가산

 

행렬간의 가산

 

이와 같이, 덧셈, 뺄셈은 벡터(행렬 / 텐서)의 같은 위치에 있는 요소끼리 연산을 수행합니다. 이러한 계산은 요소별(element-wise) 계산이라고도 합니다. 벡터(행렬 / 텐서)의 크기가 다른 경우, 계산이 정의될 수 없다는 점에 유의하십시오.

 

스칼라 곱은 벡터, 행렬, 텐서에 스칼라를 곱하는 연산입니다. 예를 들어, 스칼라 k에 대하여, 벡터 x의 k배는 벡터의 각 요소에 k를 곱하는 작업입니다. 행렬과 텐서의 경우도 마찬가지로 요소마다 같은 스칼라 k를 곱합니다. 말로 설명하는 것보다 다음의 예를 보시는 것이 알기 쉽습니다.

 

벡터의 스칼라 곱

 

행렬의 스칼라 곱

스칼라 곱을 하기 전후로 벡터(행렬 / 텐서)의 크기는 변화하지 않는다는 점에 유의하십시오.

 

5.1.3. 내적( 内積 ) 

같은 크기의 두 벡터는 내적(inner product)이라는 연산으로 정의할 수 있습니다. 이것은 각 벡터의 같은 위치에 대응하는 요소간에 곱하고 그들을 더한 계산입니다. x와 y의 내적은 x⋅y로 표시됩니다. 예를 들어, 다음 예제에서는 3차원 벡터의 내적을 계산합니다.

 

두 벡터의 내적은 스칼라가 되는 것에 주의하십시오. 위의 예제에서 볼 수 있듯이, 내적을 생각할 때 1번째 벡터를 행 벡터(즉, 스칼라를 횡으로 나열한 벡터)라고 생각하면 좋습니다. 이는 다음에 설명하는 행렬 곱에 관련됩니다. 이와 같이 쓸 경우에는 내적을 나타내는 ⋅ 은 생략할 수 있습니다.

 

 

[딥러닝 입문 - 4] 선형 대수의 기초(3/9)

4.1.4 행렬 곱 행렬의 곱셈은 행렬 곱, 외적 ,요소적(아다마르 곱)등 여러 가지가 있습니다. 여기서는 그중에서 선형 대수와 기계 학습에 자주 등장하는 행렬 곱에 대해 설명합니다. 행렬 A와

doooob.tistory.com

 

반응형