일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 텍스트분석
- DATA
- R
- 불확실성
- 우분투
- Graph
- Crawling
- 리눅스
- 코딩테스트
- 크롤링
- dropout
- PYTHON
- VAE
- 논문리뷰
- GNN
- YarinGal
- 빅데이터
- pytorch
- bayesian
- 알고리즘
- pandas
- 파이썬
- 텍스트마이닝
- 데이터분석
- 강화학습
- 백준
- 베이지안
- selenium
- uncertainty
- AI
- Today
- Total
끄적거림
[Adversarial] uncertainty based adversarial sample 본문
Adversarial Distillation of Bayesian Neural Network Posteriors
link: https://proceedings.mlr.press/v80/wang18i/wang18i.pdf
참고자료
- 논문의 ppt 자료: http://www.paulvicol.com/pdfs/AdversarialPosteriorDistillation_Slides.pdf
- 논문 설명(한글): https://pod3275.github.io/paper/2019/08/02/KDwithADVsamples.html
abstract
Bayesian neural networks (BNNs) allow us to reason about uncertainty in a principled way.
BNN은 uncertainty를 사용해야함을 밝히는데 사용되었다.
Stochastic Gradient Langevin Dynamics (SGLD) enables efficient BNN learning by drawing samples from the BNN posterior using mini-batches.
SGLD 방법론으로 우리는 미니 배치를 사용한 BNN posterior로부터 샘플링을 함으로써 효율적은 posterior를 학습할 수 있었다.
However, SGLD and its extensions require storage of many copies of the model parameters, a potentially prohibitive cost, especially for large neural networks.
그러나 SGLD와 이 것을 확장한 방법론은 모델의 parameter의 많은 복사본을 담을 memory가 필요했고, 잠재적으로 cost 측면에서 그리 좋지 않았다. 특히 큰 모델일수록..
We propose a framework, Adversarial Posterior Distillation, to distill the SGLD samples using a Generative Adversarial Network (GAN).
본 논문에서는 GAN을 이용하여 SGLD 샘플을 distill할 수 있는 방법론인 Adversarial Posterior Distillation framework를 제안한다.
At test-time, samples are generated by the GAN.
test를 할 때, 샘플은 GAN으로 생성된다.
We show that this distillation framework incurs no loss in performance on recent BNN applications including anomaly detection, active learning, and defense against adversarial attacks.
본 논문에서는 이 distillation framework가 anomaly detection, active learning와 adversarial attack defence를 포함한 최근 BNN 응용 프로그램의 성능 손실을 초래하지 않는다는 것을 보여준다.
By construction, our framework distills not only the Bayesian predictive distribution, but the posterior itself.
그렇기 때문에, 이 framework는 베이지안 예측 분포 뿐 아니라 posterior 자체도 distill 한다.
This allows one to compute quantities such as the approximate model variance, which is useful in downstream tasks.
이것은 downstream task에서 유용한 approximate model variance처럼 quantity를 계산할 수 있다.
To our knowledge, these are the first results applying MCMC-based BNNs to the aforementioned applications.
앞서 언급한 application에 대해서는 MCMC-based BNN을 적용시킨 첫번째 결과일 것이다.
Adverserial Atteck 참고: (국내 논문) 딥러닝 모델에 대한 적대적 사례 기술 동향
link: JAKO202115463009722.pdf (koreascience.or.kr)
'개인 공부 정리 > Bayesian' 카테고리의 다른 글
[논문 리뷰] Disentangling the Roles of Curation, Data-Augmentation and the Prior in the Cold Posterior Effect (0) | 2021.10.24 |
---|---|
[논문 소개] Don’t Blame the ELBO!A Linear VAE Perspective on Posterior Collapse (0) | 2021.10.22 |
[zero-shot] uncertainty 관련 zero-shot 글들 (0) | 2021.10.17 |
[Calibration] Temperated Scaling에 관하여 (0) | 2021.10.17 |
[논문 소개] Stochastic gradient Markov chain Monte Carlo (0) | 2021.10.09 |