일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- Gradient Boosting Machine
- Back-propagation
- lime
- Machine Learning
- deep learning
- Explainable AI
- Gradient Tree Boosting
- XGBoost
- data science
- Today
- Total
목록Explainable AI (5)
Kicarussays

안녕하세요! 이번에 살펴볼 논문은 카이스트 최윤재 교수님께서 쓰신 RETAIN입니다. RETAIN은 환자의 병원 방문과 관련된 데이터(진단, 처방, 검사, 수술 등)가 모두 있는 EHR 데이터를 활용하여, 가장 질환에 영향을 많이 미친 방문 시기가 언제인지, 어떤 진단, 처방 등이 질환에 영향을 많이 미쳤는지 설명하는 Interpretable AI 알고리즘입니다. 논문링크: https://proceedings.neurips.cc/paper/2016/hash/231141b34c82aa95e48810a9d1b33a79-Abstract.html RETAIN: An Interpretable Predictive Model for Healthcare using Reverse Time Attention Mechani..

SHAP 설명 포스팅: https://kicarussays.tistory.com/32 [논문리뷰/설명] SHAP: A Unified Approach to Interpreting Model Predictions 이전 포스팅에서 LIME에 대한 리뷰를 했었는데, 이번에 소개할 논문은 LIME에 뒤이어 "A unified approach to interpreting model predictions"라는 이름으로 "SHAP"이라는 획기적인 방법을 제시한 논문입니다. LI.. kicarussays.tistory.com DeepLIFT 설명 포스팅: https://kicarussays.tistory.com/33 [논문리뷰/설명] DeepLIFT: Learning Important Features Through Pr..

이번 논문은 딥러닝 인공신경망 모델로부터 Feature Importance를 뽑아내는 합리적인 기법을 연구하여 DeepLIFT 라는 방법을 제시한 논문입니다. 이전 포스팅에서 SHAP을 다뤄봤는데요, SHAP을 DeepLIFT에 적용하여 Feature Importance를 추출할 수도 있습니다. 이 방법은 많은 설명가능 인공지능 연구들에 사용되고 있고, 현장에서도 이미 배포된 패키지들을 활용하여 업무/연구에 활용되고 있습니다. 이 논문은 포스팅을 하고 있는 2021년 9월 30일 기준으로 1482회 인용되었습니다. 이제 시작해보겠습니다! 논문 링크: http://proceedings.mlr.press/v70/shrikumar17a Abstract Summary of DeepLIFT Backpropagat..
이전 포스팅에서 LIME에 대한 리뷰를 했었는데, 이번에 소개할 논문은 LIME에 뒤이어 "A unified approach to interpreting model predictions"라는 이름으로 "SHAP"이라는 획기적인 방법을 제시한 논문입니다. 포스팅하고 있는 현재 2021년 8월 기준 3994회(,,,)의 인용 수를 가지고 있는 엄청난 논문입니다. 논문을 쓰신 Scott M. Lundberg 선생님은 현재 마이크로소프트 리서치에서 근무 중이시고, Su-In Lee 선생님은 워싱턴대에서 교수로 재직 중이십니다. 이제 시작해보겠습니다! 논문 링크: https://arxiv.org/abs/1705.07874 A Unified Approach to Interpreting Model Prediction..

딥러닝을 비롯한 여러 방법론들은 우수한 성능을 보이며 각광받고 있지만, 그런 방법론들에는 늘 "Blackbox"라는 꼬리표가 달려 있습니다. 아무래도 모델의 복잡성이 증가할수록 성능은 향상되지만 설명력이 낮아진다는 점에서 그렇겠죠. 이번에 소개할 논문은 이런 블랙박스 모델들을 인간의 언어로 설명하는 방법론에 대한 논문입니다. 제가 포스팅을 하고 있는 2021년 8월 기준으로 6105회(;;;) 인용되었네요. 2016년에 발표된 논문임을 감안하면 정말 엄청난 인용수입니다. 이 논문을 쓰신 Marco Tulio Ribeiro 교수님은 마이크로소프트 리서치에서 근무 중이고, 박사 학위를 받았던 워싱턴 대학에서 겸임교수를 하고 있다고 하네요. 대단한 이력을 가지고 있으신 만큼 이 논문도 정말 신선하고 놀라운 방..