본문 바로가기
반응형

설명가능한 AI3

OpenAI가 "언어 모델에게 언어 모델을 설명"시키는 데모 툴을 공개 ChatGPT와 같은 대규모 언어 모델(LLM)은 동작 구조를 알기 어려우므로 '블랙박스'라고 하는 경우가 많으며, AI의 위험성과 예측의 어려움을 주장하는 논의에 박차를 가하고 있습니다. LLM(Large Language Model)의 이해를 돕기 위해 OpenAI는 LLM을 사용하여 LLM의 기능을 설명하는 도구를 공개했습니다. OpenAI’s new tool attempts to explain language models' behaviors | TechCrunch OpenAI's new tool attempts to explain language models' behaviorsOpenAI has developed a tool that attempts to automate the analysis of.. 2023. 5. 10.
[알기쉬운 AI - 36] 설명 가능한 AI(XAI : Explainable AI) 3 - 해석 가능한 모델의 추출 이전 글에서는「출력에 대한 설명의 생성」기법으로서, SHAP라고 불리는 기법을 소개했습니다. 이것은 경제학에서 사용되는 Shapley value 를 이용하여 각 특징량의 공헌도를 계산하고, 그것을 바탕으로 특징량의 중요도로부터 각 특징량이 얼마나 예측에 기여하는지 등 매크로로부터 마이크로 시점으로 모델을 해석 가능한 기법이었습니다. 이번 글에서는「해석 가능한 모델의 추출」에 대한 XAI 기법에 대해서 소개합니다. XAI 기법의 분류를 다시 적어보면 다음과 같습니다. ・출력에 대한 설명의 생성 ・해석 가능한 모델의 추출(이번에 설명하는 파트) ・블랙 박스의 내용 검사 · 투명한 학습기 설계 "해석 가능한 모델 추출" 기법의 예로 신경망을 해석하기 쉬운 모델로 변환하는 기법과 GoldenEye를 소개합니다... 2023. 2. 2.
[알기쉬운 AI - 35] 설명 가능한 AI(XAI : Explainable AI) 2 - XAI의 적용 방법 이전 글에서는 설명 가능한 AI( XAI )란 무엇인가를 예를 들어서 설명하였습니다. XAI 에는 다음과 같은 네 가지 프레임워크가 있습니다. ・출력에 대한 설명의 생성 ・해석 가능 모델의 추출 ・블랙박스 내용의 검사 ・투명성이 있는 학습기의 설계 이번에는 표 데이터를 예로 들어,「출력에 대한 설명의 생성」의 틀로 분류되는 XAI에 대하여 알아보겠습니다. 나머지 3 개에 대해서는 다음번에 소개하겠습니다. 테이블 데이터란, 이전 글에서도 소개한 여신 심사와 같이, 어느 샘플(여신 심사의 경우는, 심사되는 측의 채무자)의「연령」,「연수」등이 표 형식으로 정리되어 있는 데이터입니다. 이번에는,「출력에 대한 설명의 생성」을 실시하는 대표적인 수법인 SHAP를 소개합니다. SHAP는 특징량과 예측값의 관계를 아는.. 2023. 1. 20.
반응형