본문 바로가기
반응형

AI · 인공지능/알기쉬운 AI39

[알기쉬운 AI - 39] AI 보안 2 - AI에 대한 공격 매커니즘 이전 글에서는 왜 AI에 보안이 필요한지 몇 가지 사례를 들어 알아봤습니다. 이번에는, 구체적으로 AI 공격에는 어떠한 기법이 있는지 알아보겠습니다. 보안 분야에서는, 공격 기법과 방어 기법 양쪽 다 알아두는 것이 중요하므로, 이 다음 글에서는 방어 기법에 대해 소개하겠습니다. AI 모델에 대한 공격 설정최근 여러 곳에서 AI가 활용되고 있습니다. 상황에 따라 실행 가능한 공격은 달라지므로, 먼저 그 점을 명확히 해야 합니다. 크게 나누어 AI에 대한 공격은 다음 두 가지로 나눌 수 있습니다.・White Box 공격 ・Black Box 공격 화이트 박스 공격은 공격자가 공격 대상 AI 모델에 관련된 모든 정보를 알 수 있는 상황에서의 공격입니다. 예를 들어, 모델의 파라미터, 입력에 대한 모델의 예측 확.. 2023. 6. 13.
[알기쉬운 AI - 38] AI 보안 1 - AI에 보안이 필요한가? 이번에는 3 회에 걸쳐 AI 보안에 대해 소개하겠습니다. AI 보안은 매우 연구가 활발하게 이루어지고 있는 분야이며, 앞으로 AI 도입을 고려하는 기업에서는 특히 더 알고 싶은 분야입니다. 이번에는 AI 보안의 중요성과 공격 사례를 몇 가지 소개하려 합니다. AI 보안의 중요성최근 우리 주변에는 AI를 활용한 제품과 서비스가 늘고 있습니다. 스마트 스피커나 자율주행차 등이 대표적인 예라고 생각합니다. 스마트 스피커는, 인간의 말을 해석하여 인간의 지시에 맞추어 여러 가지 조작을 실시하고 있습니다. 자율주행차는 차량용 카메라에서 얻은 영상을 분석하여 자동으로 브레이크를 밟거나 차선을 따라 운전하는 등의 기능을 실현하고 있습니다. 앞으로 점점 더 우리의 주변은 AI를 활용한 제품과 서비스가 넘쳐날 것입니다... 2023. 3. 17.
[알기쉬운 AI - 37] 설명 가능한 AI(XAI : Explainable AI) 4 - 블랙 박스인가 투명성인가 지금까지의 내용에서는「출력에 대한 설명의 생성」기법으로서, SHAP라고 불리는 기법을,「해석 가능한 모델의 추출」기법으로서 심층 학습 모델을 의사결정 트리로 옮겨놓거나, 모델의 예측 구조를 추출하는 GoldenEye라는 기술을 소개했습니다. 이어서 XAI 의 마지막 글인 이번 편에서는,「블랙박스 내용의 검사」에 관한 기법과「투명성 있는 학습기의 설계」에 관한 XAI 기법에 대해서 소개합니다. XAI 기법의 분류를 다시 적어보면 다음과 같이 됩니다. ・출력에 대한 설명의 생성 ・해석 가능한 모델의 추출 ・블랙박스 내용의 검사(이번에 소개하는 부분) ・투명성 있는 학습기의 설계(이번에 소개하는 부분) 블랙박스 내용의 검사 블랙박스 내용을 검사하는 기법에서는 모델이 어떻게 작동하는지, 그리고 왜 그 예측을 수.. 2023. 3. 7.
[알기쉬운 AI - 36] 설명 가능한 AI(XAI : Explainable AI) 3 - 해석 가능한 모델의 추출 이전 글에서는「출력에 대한 설명의 생성」기법으로서, SHAP라고 불리는 기법을 소개했습니다. 이것은 경제학에서 사용되는 Shapley value 를 이용하여 각 특징량의 공헌도를 계산하고, 그것을 바탕으로 특징량의 중요도로부터 각 특징량이 얼마나 예측에 기여하는지 등 매크로로부터 마이크로 시점으로 모델을 해석 가능한 기법이었습니다. 이번 글에서는「해석 가능한 모델의 추출」에 대한 XAI 기법에 대해서 소개합니다. XAI 기법의 분류를 다시 적어보면 다음과 같습니다. ・출력에 대한 설명의 생성 ・해석 가능한 모델의 추출(이번에 설명하는 파트) ・블랙 박스의 내용 검사 · 투명한 학습기 설계 "해석 가능한 모델 추출" 기법의 예로 신경망을 해석하기 쉬운 모델로 변환하는 기법과 GoldenEye를 소개합니다... 2023. 2. 2.
[알기쉬운 AI - 35] 설명 가능한 AI(XAI : Explainable AI) 2 - XAI의 적용 방법 이전 글에서는 설명 가능한 AI( XAI )란 무엇인가를 예를 들어서 설명하였습니다. XAI 에는 다음과 같은 네 가지 프레임워크가 있습니다. ・출력에 대한 설명의 생성 ・해석 가능 모델의 추출 ・블랙박스 내용의 검사 ・투명성이 있는 학습기의 설계 이번에는 표 데이터를 예로 들어,「출력에 대한 설명의 생성」의 틀로 분류되는 XAI에 대하여 알아보겠습니다. 나머지 3 개에 대해서는 다음번에 소개하겠습니다. 테이블 데이터란, 이전 글에서도 소개한 여신 심사와 같이, 어느 샘플(여신 심사의 경우는, 심사되는 측의 채무자)의「연령」,「연수」등이 표 형식으로 정리되어 있는 데이터입니다. 이번에는,「출력에 대한 설명의 생성」을 실시하는 대표적인 수법인 SHAP를 소개합니다. SHAP는 특징량과 예측값의 관계를 아는.. 2023. 1. 20.
[알기쉬운 AI - 34] 설명 가능한 AI(XAI : Explainable AI) 1 - AI의 예측에 근거는 필요한가? 설명 가능한 AI( Explainable AI, 이후 XAI )라는 단어를 들어 보신 적 있습니까? XAI는 AI 예측의 근거를 예측과 함께 출력하는 AI입니다. 특히 최근 주목을 받고 있는 심층 학습이 대두된 후 XAI의 중요성이 주목받고 있습니다. 이는 심층 학습 알고리즘의 예측 근거가 인간에게는 이해하기 어렵기 때문입니다. 심층 학습 알고리즘은 그 정확도가 기존보다 압도적으로 좋으며, 동시에 예측의 근거가 손실되는 문제가 있습니다. 즉, 예측 정밀도와 그 예측 근거는 트레이드오프 관계에 있다는 것입니다. 여기서는 XAI의 기본 사고방식과 왜 XAI가 필요한지 사례를 들어보겠습니다. ◎ LIME을 사용한 판정 근거의 제시 예 LIME에 대해서는 아래를 참고하세요 [1주차] 대리분석(LIME) LIME.. 2022. 11. 6.
[알기쉬운 AI - 33] CNN이란 어떤 것인가? 생물의 눈은 어떻게 눈앞의 경치를 인식하고 있을까요? 눈에 닿는 빛을 처리하는 시신경의 구조에 주목하여 만들어진 뉴럴 네트워크 모델 중 CNN( Convolutional Neural Network )이라는 것이 있습니다. 눈에 비치는 경치를 생물은 어떻게 인식하고 있는가. 이를 알기 위해서는 고양이처럼 2색형 색각 동물(적록 색과 파란색만 인지)의 시신경을 연구하는 것이 정석으로, 1900 년대 중반까지 연구가 활발히 진행되었습니다. 생물의 시신경을 모방하여 만들어진 네오 코그니트론 모델이 CNN의 뿌리입니다. 그 이후로 발전이 계속되어 CNN은 2010년대에 ImageNet이라는 교사가 있는 이미지 데이터 세트가 공개된 것을 계기로 주목을 받았습니다. 1. 화상 처리 CNN은 이미지를 처리하는 기술로 .. 2022. 10. 10.
[알기쉬운 AI - 32] 신경망은 만능인가...? 신경망은 만능인가...? AI의 계산방법 중에서도 가장 주목받고 있는 것이 신경망입니다. 그 이유 중 하나로 신경만의 만능성에 있습니다. 이 특성은, 보다 전문적으로는 보편 근사 정리(Universal Approximation Theorem)에 기반에 두는 중요한 특성입니다. 그 보편 근사 정리에 따르면, 유한 개의 유닛을 가지고 1개의 은닉층으로 구성되는 신경망은 특정 조건 하에서 임의의 연속함수를 근사할 수 있다. 여기에서는 그 신경망의 만능성(보편성)을 정성적으로 이해하는 것을 목표로 합니다. 1. 함수로 현상을 나타낸다 함수라는 것은 이를테면 숫자가 들어가고 나가는 상자입니다. 신경망에서는 이 상자의 모양이 자주 보시는 바와 같이 이런 형태를 하고 있습니다. 이 인풋과 아웃풋의 숫자로, 이미지의 .. 2021. 10. 24.
[알기쉬운 AI - 31] GAN (Generative Adversarial Networks) 시작하기 CNN, RNN, LSTM 등 3회에 걸쳐 딥러닝을 지원하는 대표적인 알고리즘을 알아봤습니다. 이번에는 적대적 생성 네트워크 GAN과 DCGAN을 소개합니다. 지금까지 봤던 식별과 회귀 등의 인공지능과는 달리, GAN은 생성하는 모델입니다. 딥 페이크 등으로 인해 약간 불명예스러운 낙인이 찍혀있지만, 사람도 아티스트가 좋은 것과 기술을 배워가며 자신의 작품을 만들어 가듯이 GAN도 이미 훌륭한 크리에이터로서의 품격을 내비치고 있습니다. GAN이란? GAN(Generative Adversarial Networks)은 2개의 네트워크가 절차탁마하면서 서로 성장해가는 비지도 학습 모델입니다. 부모가 가르치지도 않았는데, 두 형제가 끊임없이 장기와 바둑을 두는 사이에 부모보다 훨씬 강해지는 것. 이것이.. 2020. 6. 7.
[알기쉬운 AI - 30] LSTM (Long Short-Term Memory) 시작하기 이전에는 시계열로 가변 데이터를 처리할 수 있는 리커런트 뉴럴 네트워크(Recurrent Neural Network)에 대해 알아봤습니다. RNN이 긴 데이터를 처리할 때, 계산량이 폭발하기 때문에 기억 중단형 통시적 역전파(Truncated Back propagation Through time)는 단기기억 정보만을 처리합니다. 그러나 역시, 이 경우에는 AI의 정확도에 한계가 있습니다. 그래서 이 단순 RNN(Simple Recurrent NN)의 장기 의존성 문제를 해결하는 구조를 가진 장 · 단기 기억 장치(Long Short-Term Memory)라는 모델이 나타났고, 이것이 현재 RNN의 주류를 이루고 있습니다. 단순 RNN의 장기 의존성 문제 LSTM의 설명에 들어가기 전에 간단한 리.. 2020. 5. 29.
반응형