4.2 벡터를 입력하는 함수
앞 절에서 보았던
나
는 벡터 x를 받아, 스칼라
를 출력하는 함수로 간주될 수 있습니다. x를 성분 표시하여
라고 쓰면, 이 함수는 2개의 스칼라 변수 x1, x2를 입력하는 다변수 함수입니다. 마찬가지로 입력 M개의 스칼라 변수의 함수는 M차원 벡터 1개를 입력하는 기능도 해석할 수 있습니다. 다변수 함수 f(x1,…,xM)는 입력을 정리해
로 쓰고, f(x)로 표기해도 상관없습니다. f(x)의 미분은 앞장에서 설명한 편미분을 각 변수 x1,…,xM 대해서 실시하여
로 계산합니다.
4.3 벡터 값 함수
다음으로 입력 말고 출력이 다변량인 함수를 보겠습니다. 첫째, 하나의 스칼라 변수 x를 입력하고, N개의 스칼라(즉, N차원 벡터를 1개)를 출력하는 함수 f(x)를 봅시다. 벡터 변수는 y로 굵게 썼었죠, 이와 마찬가지로 이 함수도 출력이 벡터임을 강조하여, f로 굵게 표시합니다. f같이 출력이 벡터인 함수를 벡터 값 함수(vector-valued function)라고 합니다. 반면 출력이 스칼라인 함수를(그것을 강조하고 싶은 경우) 스칼라 값 함수(scalar-valued function)라고 합니다.
f의 출력의 각 성분에 주목하면, f는 N개의 스칼라 값 함수의 집합체라고 생각할 수 있습니다. 즉, x를 받고 f의 n성분을 출력하는 함수를 fn이라고 쓰면,
입니다.
입력이 다변수라도 마찬가지로 성분 표시가 가능합니다. 즉, 입력 변수가 M차원 벡터이고, 출력 변수가 N차원 벡터인 함수 g는
로 성분 표시할 수 있습니다. 오해가 생기지 않는다면, 가장 오른쪽 표식처럼 입력 변수 x를 성분 표시해도 됩니다.
'AI · 인공지능 > 딥러닝 Tutorial' 카테고리의 다른 글
[딥러닝 입문 5] 확률·통계의 기초(2/5) (0) | 2021.02.12 |
---|---|
[딥러닝 입문 5] 확률·통계의 기초(1/5) (0) | 2021.01.18 |
[딥러닝 입문 - 4] 선형 대수의 기초(9/9) (0) | 2020.07.28 |
[딥러닝 입문 - 4] 선형 대수의 기초(8/9) (0) | 2020.07.26 |
[딥러닝 입문 - 4] 선형 대수의 기초(6/9) (0) | 2020.07.22 |
[딥러닝 입문 - 4] 선형 대수의 기초(5/9) (0) | 2020.07.19 |
[딥러닝 입문 - 4] 선형 대수의 기초(4/9) (0) | 2020.07.18 |
[딥러닝 입문 - 4] 선형 대수의 기초(3/9) (0) | 2020.07.17 |