본문 바로가기
반응형

AI · 인공지능/딥러닝 Tutorial24

[딥러닝 입문 - 4] 선형 대수의 기초(9/9) 4.5.1 계산 예 1 합성 함수의 미분을 사용하여 다변수 함수의 미분을 구체적으로 계산해 봅시다. 로 합니다. 즉, g는 2 입력 4 출력, f는 4 입력 3 출력입니다. 이들에 대하여 를 계산합니다. 편미분을 정의대로 계산하면 가 됩니다(행렬 중, 등은 본래는 로 작성해야 하지만, 수식이 복잡해지기 때문에 생략했습니다). 따라서, 합성 함수의 미분 공식으로부터 가 됩니다. 공식을 적용할 때 u = g(x) 즉 를 사용했습니다. 4.5.2 계산 예 2 또 다른 예로, 합성 함수의 입출력이 1 변수가 될 때, 즉 M=1, L=1의 경우를 생각해 봅시다. 식을 단순화하기 위해, N=2로 합니다. 1 변수 임을 강조하고, u=g(x), y=f(u)와 스칼라 변수는 소문자를 사용합니다. f와 g를 합성한 함수.. 2020. 7. 28.
[딥러닝 입문 - 4] 선형 대수의 기초(8/9) 4.4 벡터 값 함수의 미분 벡터 값 함수의 미분을 하려면 각 성분마다 스칼라 값 함수와 같은 방법으로 미분합니다. 예를 들어 앞 절의 f의 미분은 입니다. 출력이 벡터인 것에 대응하여 미분도 벡터라는 것에 주의하십시오. 적은 양을 나타내는 d를 이용하여 라고 써도 상관없습니다. 입출력이 모두 다변수인 함수를 미분하는 경우에도, 출력의 성분마다 미분합니다. 다만, 이번엔 입력도 다변수이기 때문에 입력의 성분에 대해 편미분을 해야 합니다. 예를 들어, 앞절의 g를 미분하면, ​​전에 설명한 성분 표시를 사용하여 가 됩니다. M개의 입력 변수와 N개의 출력 변수의 조합을 고려할 필요가 있기 때문에, 미분은 사이즈 (N, M)의 매트릭스가 된다는 것에 주의하십시오. 이 모든 편미분 조합을 정리해 만든 행렬을 .. 2020. 7. 26.
[딥러닝 입문 - 4] 선형 대수의 기초(7/9) 4.2 벡터를 입력하는 함수 앞 절에서 보았던 나 는 벡터 x를 받아, 스칼라 를 출력하는 함수로 간주될 수 있습니다. x를 성분 표시하여 라고 쓰면, 이 함수는 2개의 스칼라 변수 x1, x2를 입력하는 다변수 함수입니다. 마찬가지로 입력 M개의 스칼라 변수의 함수는 M차원 벡터 1개를 입력하는 기능도 해석할 수 있습니다. 다변수 함수 f(x1,…,xM)는 입력을 정리해 로 쓰고, f(x)로 표기해도 상관없습니다. f(x)의 미분은 앞장에서 설명한 편미분을 각 변수 x1,…,xM 대해서 실시하여 로 계산합니다. 4.3 벡터 값 함수 다음으로 입력 말고 출력이 다변량인 함수를 보겠습니다. 첫째, 하나의 스칼라 변수 x를 입력하고, N개의 스칼라(즉, N차원 벡터를 1개)를 출력하는 함수 f(x)를 봅시다.. 2020. 7. 24.
[딥러닝 입문 - 4] 선형 대수의 기초(6/9) 4.1.10. 벡터에 의한 미분과 기울기 미분은 입력값이 변화할 경우의 함숫값의 변화량에서 구했습니다. 이것은 함수의 입력 벡터인 경우에도 마찬가지입니다. 벡터를 입력받는 함수의 미분을 생각해 봅시다. 입력 벡터의 요소마다 출력에 대한 편미분을 계산하고, 이를 늘어놓은 벡터가 구배(gradient)입니다. 우선 구배에 대한 계산의 예를 살펴 봅시다. 를 벡터 x로 미분한 것을, 로 나타냅니다. "벡터로 미분"은 벡터의 각 요소로 대상을 미분하고 그 결과를, 요소에 대응하는 위치에 나란히 벡터를 만드는 것입니다. 위의 예는 다음과 같이 계산합니다. 각 요소의 계산을 진행하면 다음과 같이 됩니다. 이 튜토리얼에서 벡터는 원칙적으로 열 벡터를 사용한다는 규칙을 채용하고 있습니다만, 여기서는 미분한 결과를 행 .. 2020. 7. 22.
[딥러닝 입문 - 4] 선형 대수의 기초(5/9) 4.1.8. 역행렬 0이 아닌 스칼라 x의 역수로 x의 -1승을 생각할 수 있습니다. 행렬 역수에 대응하는 것이 역행렬(inverse matrix)입니다. 정확한 정의는 다음과 같습니다. 행렬 A에 대하여, AB=I, BA=I 를 충족시키는 행렬 B를 A의 역행렬이라고 합니다. 이러한 조건을 만족하는 행렬 B는 행렬 A에 의해 존재하거나 존재하지 않을 수 있습니다. 그러나 만약 A에 대하여 이 조건을 만족하는 행렬이 존재한다면, 그러한 행렬은 단지 하나뿐으로 알려져 있습니다. 그래서 행렬 A의 역행렬은 A의 -1승으로 표기합니다. 역행렬의 정의에서 가 성립한다는 점에 유의하십시오. 여기에서 I 는 단위행렬입니다. 역행렬이 존재하는 행렬을 가역 행렬이라고 합니다. 가역 행렬이 되려면 적어도 행렬 곱 와 가.. 2020. 7. 19.
[딥러닝 입문 - 4] 선형 대수의 기초(4/9) 4.1.5. 행렬 곱에 의한 벡터 행렬의 크기 변화 행렬의 전후에서는 행렬의 형태가 변화합니다. 구체적으로는 크기가 (L, M)과 (M, N)인 행렬의 행렬 곱 결과는 크기가 (L, N)인 행렬이 됩니다. 앞의 3개의 연습 문제에서는 행렬과 벡터의 모양과 크기가 어떻게 변화했는지 확인해 봅시다. 특히 (3)에서, 맨 왼쪽의 벡터와 중간 행렬의 곱셈 결과가 행 벡터이기 때문에 크기의 변화가 (1)과 같은 케이스로 귀착된다는 점에 유의하십시오. 또한, 예를 들면 (3,1)의 행렬처럼 차원크기가 1이 된 경우, 그 차원을 삭제할 수 있습니다. 예를 들어 (2)의 계산 결과는 크기가 (2,1) 행렬이지만, 이것은 2차원 벡터로 처리합니다. 마찬가지로, (1), (3)의 결과는 사이즈가 (1,1) 행렬이지만, 스.. 2020. 7. 18.
[딥러닝 입문 - 4] 선형 대수의 기초(3/9) 4.1.4 행렬 곱 행렬의 곱셈은 행렬 곱, 외적 ,요소적(아다마르 곱)등 여러 가지가 있습니다. 여기서는 그중에서 선형 대수와 기계 학습에 자주 등장하는 행렬 곱에 대해 설명합니다. 행렬 A와 행렬 B의 행렬 곱은 AB로 쓰고, A의 각 행과 B의 각 열의 내적을 나열한 것으로 정의됩니다. 예를 들어, 행렬 A의 1행의 행 벡터와, 행렬 B의 1열의 벡터의 내적 결과는 A와 B 행렬 곱의 결과를 나타내는 행렬 C의 1행 1열에 대응합니다. 내적이 정의되는 조건으로 벡터의 크기가 같지 않으면 안 됩니다. 이 조건은 성립되어야만 합니다. 구체적으로는, 일 때, AB = C 행렬 곱을 정의하기 위해서는, A의 열수 M과 B의 행수 O가 일치해야 합니다(※주석 1). 즉, M = O가 아니면 안 됩니다. 그리.. 2020. 7. 17.
[딥러닝 입문 - 4] 선형 대수의 기초(2/9) 5.1.1 변수의 형태와 서체의 관계 많은 교과서(특히 선형 대수학 교과서)에서는, 변수를 한번 보고 그 형태가 무엇인지 알 수 있도록 특정 모양(벡터, 행렬 등)의 변수는 특정 글꼴을 사용하도록 되어 있습니다. 본 자료에 한정하지 않고, 수식을 볼 때는 변수의 글씨체를 보고, 그 변수의 형태를 의식하는 것을 추천합니다. 변수의 형태와 서체의 대응 관계는 교과서에 따라 유파가 있지만, 그 일례를 소개합니다(이 문서도 이 규약에 따릅니다). 구분 소문자 대문자 일반체 스칼라 변수 (a,b 등) 스칼라 상수 (A,B 등) Bold체 벡터 (x,y 등) 행렬, 텐서 (A,B 등) 5.1.2. 가산 ⋅ 감산 ⋅ 스칼라 곱 다음으로, 벡터, 행렬, 텐서의 연산에 대해 설명합니다. 가산(덧셈) 및 감산(뺄셈)은 같.. 2020. 7. 16.
[딥러닝 입문 - 4] 선형 대수의 기초(1/9) 4. 선형 대수의 기초 기계 학습의 이론에는 선형 대수학에서 사용되는 개념이 많이 등장합니다. 이러한 개념을 이용함으로써 복수의 값이나 변수를 한꺼번에 처리할 수 ​​있도록 수식을 간결하게 표현할 수 있습니다. 이 장에서는 특히, 다음의 개념을 차례로 소개하겠습니다. 스칼라, 벡터, 행렬, 텐서 벡터, 행렬의 연산(덧셈과 뺄셈, 스칼라 곱 · 내적 · 행렬곱) 특별한 행렬(단위행렬, 역 행렬) 다변수 함수(선형 결합, 이차 형식)와 그 미분 4.1 스칼라, 벡터, 행렬, 텐서 먼저 스칼라, 벡터, 행렬, 텐서라는 4개의 단어를 설명합니다. 스칼라(scalar)는 2.5, -1, π같은 하나의 값 또는 변수를 말합니다. 스칼라는 온도, 체중, 신장 같은 단일 수량을 의미합니다. 스칼라 변수를 나타내려면 처.. 2020. 7. 15.
[딥러닝 입문 - 3] 미분의 기초 (3/3) 3.5 선형성 미분은 선형성이라는 성질을 가지고 있습니다. 구체적인 예를 들어 살펴봅시다. 처럼 상수를 미분 연산의 외측으로 꺼낼 수 있습니다. 또한, 처럼, 덧셈과 뺄셈은 각 항목마다 독립적으로 미분 연산을 할 수 있습니다. 이 두 가지 특성을 합쳐 '선형성'이라고 합니다. 좀 더 미분 계산을 해봅시다. 이 선형성에 관해서는 아래와 같은 공식으로 요약할 수 있습니다. 두 함수의 곱의 형태로 작성된 함수에 관해서는 다음의 공식이 성립됩니다. 함수 f의 도함수와 함수 g의 도함수를 알면, 함수 fg를 계산할 수 있다는 것을 알 수 있습니다. 3.6. 합성 함수의 미분 함수 y=f(x) 와 z=g(y)의 합성과 f를 적용한 후에 g을 적용하는 함수, 즉 z=g(f(x))의 수를 말합니다. 딥러닝에 이용되는 .. 2020. 7. 12.
반응형