분류 전체보기 35

[XAI] LRP(Layer-wise Relevance Propagation)

이미지 시각화 기법 Feature Map 시각화 LIME, Filter Visualization과 같이 모델이 입력 이미지에 어떻게 반응하는지 '은닉층'을 조사하는 방법이다. 하지만 은닉층이 깊어질 수록 해석력이 떨어진다는 단점을 가진다. Heatmap 시각화 LRP는 딥러닝 모델의 결과를 역추적해서 입력 이미지에 히트맵을 출력. 블랙박스가 데이터의 어느 곳을 주목하는지 표시할 수 있기 때문에 오인의 가능성이 적음. 참고 문헌 : https://velog.io/@sjinu/%EA%B0%9C%EB%85%90%EC%A0%95%EB%A6%AC-LRPLayer-wise-Relevance-Propagationhttps://angeloyeo.github.io/2019/08/17/Layerwise_Relevance_..

인공지능/XAI 2023.08.28

[XAI] Visualization

CS231n 12강. Visualizing and Understanding 듣기!!! Input Image를 모델이 어떻게 분류했는지 visualization하는 방법 Occlusion Experiment[Zeiler & Fergus 2013] Input Image의 어느 부분이 이미지 분류에 큰 영향을 미치는지 알아봄. 회색상자를 씌웠을 때 코끼리로 분류할 확률이 낮아지면 그 부분이 중요하다는 뜻임. 회색상자는 계속 이동함. 사람이 잘 이해하게 하는 방법

인공지능/XAI 2023.08.28

[XAI] Filter Visualization

딥러닝 모델을 이해하기 위해 CNN의 필터들이 어떻게 생겼는지, Input Image에서 모델의 성능에 미치는 부분이 어디인지, 특정 클래스의 activation을 최대화 하는 이미지 생성이란 무엇인가에 대해 알아보고자 한다. 0. Vision CNN에 공부하다보면 한 번씩은 들어봤을 법한 고양이 실험. - 각기 다른 부분의 뉴런이 각기 다른 특징을 인식한다. - 대뇌피질에서 가까운 세포들은 가까운 물체를 처리한다. 1. Filter Edge Detection - Edge pixels : 영상 내 특정한 픽셀 주변의 밝기 값이 급격하게 변하는 픽셀 - Edges : 엣지 픽셀들의 연속된 집합 edge 감지법 : 미분을 통해 변화량을 구하면 유난히 변화량이 큰 부분이 있다 => edge검출 - 왜 역 ta..

인공지능/XAI 2023.08.28

[XAI] Decision Tree

불순도(Impurity) 와 엔트로피(Entropy) 설명이 아주 잘 나온 블로그가 있다. https://computer-science-student.tistory.com/60 불순도(Impurity)와 엔트로피(Entropy) 불순도(Impurity) 불순도란 다양한 범주(Factor)들의 개체들이 얼마나 포함되어 있는가를 의미한다. 쉽게 말하면 여러 가지의 클래스가 섞여 있는 정도를 말한다. 반대로 순수도(purity)는 같은 클래스 computer-science-student.tistory.com Decision Tree 분할의 적합성 Decision Tree(이하 DT)에서는 주어진 데이터 집합을 가장 적합한 기준으로 분할해야 하는데, 어떻게 적합하게 분할할 것인가에 대한 기준이 필요하다. 분할의..

인공지능/XAI 2023.08.21

[깜신의 통계 왕초보 탈출] 6탄. 두 그룹간 평균 비교

두 그룹간 평균 비교 1. t-test (students, independent) 2. Mann-Whitney u test (wil coxon rank-sum test, Mann Whitney-Wilcoxon, MWW) 3. Welch's t-test 고려 요인 1) 결과 값이 연속 변수가 아니라면? 2. MWW 시행 고려 요인 2) 결과 값이 연속 변수 이지만 정규분포가 아니라면? 2. MWW 시행 고려 요인 3) 결과 값이 연속 변수 이면서 정규분포 이면서 두개의 분산이 같다면? 1. t-test 시행 고려 요인 4) 결과 값이 연속 변수 이면서 정규분포 이면서 두개의 분산이 다르다면? 3. Welch's t-test 시행

[깜신의 통계 왕초보 탈출] 5탄. Power Analysis

Power Analysis 어떤 통계 분포가 잘 안나오는게 n수가 부족해서 인지 아니면 정말 비교군/대조군의 차이점이 없어서 인지 확인하는 방법. 즉 정정한 n수를 측정하는 방법 Effective size (d) : cohen's d라는 공식을 사용함. 실험군과 대조군의 n수가 동일한 경우에 해당하는 공식. 두 그룹의 n수가 서로 같다면 분모값인 pooled SD(standard deviation) 를 계산하면 되고, n수가 서로 다른 경우라면 poolded SD에 가중치를 더해서 구해줌 mean.1 : 첫 번째 그룹의 평규느 S.1 : 첫 번째 그룹의 표준편차

[논문리뷰] Counterfactual Visual Explanations, ICML, 2019

이전 연구 이전의 딥러닝 연구는 대안적인 결정을 고려하지 않고, input이 어떻게 하면 다른 output이 될지에 대해 가설상의 조정을 하지 않음 Contribution 1. input이 어떻게 바뀌면 다른 output이 나올지에 대해 어떤 영역을 정의해야하는지 computer vision system의 결정을 설명하려고 함 2. counterfactual explanation이 인간을 가르치는 것을 도와줄 수 있다는 것을 유저스터디를 통해 보여줌 저자들은 Counterfactual Visual Explanations를 위한 방법으로 다음과 같은 접근을 제안한다. 2.1. Minimum-Edit Counterfactual Problem Decomposition input Image : I, output..

Sensitivity (민감도) & Specificity (특이도)

일단 잘 정리된 글은 https://adnoctum.tistory.com/981 에 있다. 민감도(Sensitivity) 질병이 있는 사람을 얼마나 잘 찾아 내는가 양성인 개체를 양성이라고 판단하는 비율 (True Positive) TP /전체환자(TP + FN) 특이도(Specificity) 정상을 얼마나 잘 찾아 내는가 음성인 개체에 대해 음성이라고 판단하는 비율(True Negative) TN / 전체 정상인 (TN + FP) 민감도와 특이도가 둘 다 높은 진단 방법을 찾아야 한다. 일단 진단에서는 Negative면 음성(질병이 없는 정상), Positive면 양성(질병이 있는 환자)이다. Negative Positive Negative TN. True Negative (특이도. Specificit..

카테고리 없음 2023.07.10