본문 바로가기
반응형

AI · 인공지능/알기쉬운 AI39

[알기쉬운 AI - 29] RNN(Recurrent Neural Network) 지난번에 콘볼루션 신경망(Convolutional neural network)에 대해 설명했지만, 이번에는 순환 신경망(Recurrent Neural Network)에 대해 설명합니다. CNN과의 차이, 어떤 용도에 적합한가, RNN의 구조 등을 이해해 봅시다. 콘볼루션 신경망 CNN(Convolutional neural network)과 비교하기 위해 복습해 봅시다. 그림 1은 Semantic Scholar에서 공개하고 있는 숫자를 이미지로 인식하는 CNN의 블록 다이어그램입니다. Input(입력 층)의 28 × 28 픽셀의 이미지 (숫자 5)가 Feature Extraction(특징 추출) 과정에서 Convolution 및 Sub-Sampling(풀링)을 반복하면서 Feature maps(특징 맵)이.. 2020. 5. 23.
[알기쉬운 AI - 28] CNN(Convolutional neural network) 지금까지 기계 학습 알고리즘을 공부해 왔습니다만, 이번에는 드디어 딥러닝 알고리즘에 들어갑니다. 처음에는 가장 대표적인 모델인 CNN(Convolutional neural network)에 대해 알아봅시다. 콘볼루션 신경망 CNN은 이미지 인식 등에 자주 사용되는 신경망의 구조이지만, 자연 언어 처리(NLP) 등 다른 용도로도 사용되고 있습니다. 이것은 한마디로 살인 현장에서 범인의 흔적과 특징을 찾아내어 추궁을 계속하여 마침내 범인을 찾아내는, 솜씨 좋고 민첩한 형사와 같습니다. 수학에 망원 급수(telescoping series)라는 것이 있습니다. 망원경이 겉의 통을 원하는 대로 죽 늘였다가 접을 수도 있듯이, 어떤 수열을 죽 늘였다가 중간의 항들을 다 삭제하여 끝의 항들, 또는 특정한 항들만 구하.. 2020. 5. 17.
[알기쉬운 AI - 27] 클러스터링 (Clustering) 2회에 걸쳐 지도 학습에 대해 설명했지만, 이번에는 드디어 비(非)지도 학습입니다. 클러스터링 알고리즘으로 k평균법과 혼합 가우스 분포를 알아둡시다. 그리고 차원의 저주와 차원 감소의 한 방법인 주성분 분석(PCA : principal component analysis)에 대해서도 설명합니다. 클러스터링(Clustering) 분류(Classification)도 클러스터링(Clustering)도 둘 다 마찬가지로 "분류"를 하는 머신러닝 처리입니다. 클러스터링의 클러스터는 방을 의미하며 그룹핑과 동의어입니다. 분류가 지도 학습인데 반해 클러스터링은 비지도 학습이라는 차이는 이미 앞에서도 언급했지요(표 1). 도대체 비지도 학습으로 분류한다는 것은 무슨 뜻일까요? 몇 가지 알고리즘을 알아보겠습니다. 구분 학.. 2020. 5. 7.
[알기쉬운 AI - 26] 분류 (Classification) 이번에는 감독 학습의 '분류' 중에서 '로지스틱 회귀'와 'K근접법'에 대해서 설명합니다. 딥러닝을 빨리 배우고 싶은데, 기계 학습 알고리즘에 계속 발이 묶여있는 것 같네요... 그러나 딥러닝을 배워 나가는 데 있어서 기본적인 알고리즘을 알고 있는 것이 좋기 때문에 인내심을 가지고 따라와 주십시오. 분류(Classification) 분류에는 2항 분류(Two-class Classification)와 다항 분류(Multi -class Classification)가 있습니다. 2항의 분류는 그 이름같이 2가지로 분류하는 것입니다. 예를 들어 제품 검사 시 정상/비정상으로 나누는 것이 대표적인 2항 분류입니다. 한편, 다항 분류는 3개 이상으로 분류하는 것으로, 예를 들면 꽃의 이름을 가르쳐주는 AI를 들 수.. 2020. 4. 26.
[알기쉬운 AI - 25] 회귀 (Regression) 이전에 [학습 방법, 통계, 알고리즘]의 삼각관계 중 '학습 방법과 통계학'의 관계를 알아본 적이 있습니다. 이번에는 '통계와 알고리즘'의 관계에 대해 설명합니다. 딥러닝(신경망)이 아닌, 기존의 기계 학습에 대해서도 여기서 이해해 둡시다. 통계와 알고리즘 앞에서 '감독 학습과 비감독 학습, 강화 학습'이라는 3가지 학습 방법과 회귀, 분류, 클러스터링의 통계학 관계를 알아보았습니다. 이번에는 '회귀'에 사용하는 대표적인 알고리즘을 설명합니다. 회귀(Regression) 회귀는 앞에서도 몇 번 등장하고 있습니다. 거기서는 회귀 분석에 대하여 "많은 데이터를 플롯 할 때 그 관계를 나타내는 선(함수)을 찾는 것"이라고 설명했습니다. 예를 들어, 그림 2A와 같은 데이터 분포가 있는 경우, X축과 Y축의 관.. 2020. 4. 25.
[알기쉬운 AI - 24] Q 학습 (Q-Learning) 지난번에는 "Q-Learning의 Q는 무엇의 약자인가요?"라는 질문에 대하여, "검정 결과가 유의하다고 판단되는 최소의 FDR(false discovery rate)의 수"임을 알 수 있었습니다. 이번에는 드디어 Q-Learning의 학습 방법에 대해 알아봅시다. 해전 게임 Q-Learning의 구조는 "해전 게임"과 비슷합니다. 이것은 2명이 하는 대전형 게임입니다. 종이에 그림 1(R)과 같이 그리고 상대방이 모르게 자신의 함대를 배치합니다(전함과 순양함과 잠수함 3척의 함대입니다). 상대가 선공이라고 합시다. 상대방이 "3의 C"라고 어뢰를 맞출 위치를 지정해서 공격해 왔을 경우, 거기에 내 함이 있었다면 "명중"이라고 밝히고 내 전함은 침몰합니다. 이번에는 명중이 아니라 S(잠수함)의 주변이므로.. 2020. 4. 4.
[알기쉬운 AI - 23] P 값과 Q 값 Q-Learning의 Q는 무슨 의미? 이 질문에 답하려면 먼저 통계의 P 값 (P -Value)에 대해 알아야 합니다. 우선 P 값의 설명부터 시작합니다. P 값 (P -Value )는 P 값 (P -Value) 이란? 세상에는 "증명하고 싶은 가설"이 많이 있습니다. '세차를 하면 비가 온다'는 등의 가설은 아마 기분 탓일 겁니다. 하지만 "IT 업계에는 B형이 많다"라는 가설은 내심 그런 것 같기도 하고 알아보고 싶은 생각이 듭니다(사실 저도 B형). 통계를 통해서 이러한 가설들을 입증하는 방법이 가설 검정입니다. 한국인의 B형의 비율은 21.9%입니다. 만약 IT기업의 건강 조합에서 B형인 사람들의 통계를 살펴본다면, "IT업계에 B형이 많다"라는 가설이 맞는지 알 수 있을 것 같네요. 이와 같이.. 2020. 3. 25.
[알기쉬운 AI - 22] 강화학습과 도적 알고리즘 강화 학습과 밴디트(도적) 알고리즘 강화 학습은 감독 학습처럼 '해답'이 주어지는 것이 아니고, 보수를 얻기 위해 스스로 배우고 영리해지는 학습법입니다. 바둑이나장기와 같은 게임에서 압도적인 힘을 보여 주므로, "빙상의 체스"라 부르는 컬링을 예로 들어 설명해 봅시다. 컬링은 4명이 한 팀으로 10 엔드 싸움으로 합계 점수가 많은 쪽이 승리하는 스포츠입니다. 엔드마다 선공과 후공이 있어 후공이 유리한 게임입니다. 엔드에서 이기면 다음 엔드는 선공이 되기 때문에 일부러 무승부로 끝내서 후공을 계속한다거나 선공 때는 1점 차이로 일부러 져서 후공을 얻기도 합니다. 이 스포츠는 어떻게 싸워나갈 것인지 전술적인 면이 큰 경기입니다. 일반적으로 컬링은 코치가 있습니다. 8 엔드에서 선공으로 2점 리드시 취해야 할.. 2020. 3. 18.
[알기쉬운 AI - 21] 과학습을 ​​막는 방법 시작하기 인간에게는 ego와 업보가 있듯이, 기계 학습에게는 과학습 이라는 것이 붙어 다닙니다. 숙명이라고 할 수 있지요. 따라서 최근의 신경망 라이브러리는 과학습을 방지하기 위한 몇 가지 기능이 포함되어 있습니다. 이번에는 그중에서 대표적인 것을 3가지 소개합니다. 1. 정규화 (Regularization) 과학습의 원인은 특정 학습 데이터로만 학습을 지나치게 해서 미지의 데이터에 대한 오차(일반화 오차)가 역으로 증가해 버리는 것입니다. 이를 방지하기 위한 정규화는 한마디로, "극단적이라 생각되는 의견은 듣지 않는다"는 것입니다. 즉, 모델을 복잡하게 하는 가중치는 그 양에 따른 페널티를 부여하여 모델이 복잡해지지 않도록 하는 것입니다. 정규화는 일반적으로 다음의 두 가지가 이용되고 있으며, 이 두 .. 2020. 3. 14.
[알기쉬운 AI - 20] 비정상적인 과학습 딥러닝은 많은 양의 학습 데이터가 필요하다고 알려져 있지만, 현실에서는 그렇게 데이터를 모을 수 없다는 현실이 있습니다. 그래서 확산된 것이 적은 데이터로 학습하는 기술입니다. 이번에는 그 대표적인 방법을 설명하고자 합니다. 적은 데이터로 학습하는 방법 소량의 데이터로 학습하는 기술이 빠르게 진화하고 있습니다. 데이터의 양이 적으면 데이터를 모으는 노력과 클렌징의 수고, 학습에 걸리는 시간과 부하도 크게 절약할 수 있으며, 무엇보다 데이터의 양은 적어도 인공 지능을 사용하고 싶다는 요구에 부응할 수 있습니다. 적은 데이터로 학습하는 방법에는 아래의 세 가지가 있습니다. 품질 좋은 데이터를 사용하는 것은 이전에 이미 설명했으니 이번에는 데이터 어그먼테이션과 전이 학습을 설명하겠습니다. 1. 품질좋은 데이터.. 2020. 2. 10.
반응형