일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 데이터분석
- pytorch
- VAE
- GNN
- 파이썬
- R
- selenium
- pandas
- Graph
- 리눅스
- 알고리즘
- 백준
- bayesian
- YarinGal
- 강화학습
- 빅데이터
- dropout
- AI
- DATA
- 우분투
- 베이지안
- 논문리뷰
- 텍스트마이닝
- PYTHON
- uncertainty
- 코딩테스트
- Crawling
- 크롤링
- 불확실성
- 텍스트분석
- Today
- Total
목록개인 공부 정리/ML&Statistic (4)
끄적거림
https://arxiv.org/pdf/2203.07034.pdf https://www.youtube.com/watch?v=T9VKaTlKlMw cvpr 2022에 나온 논문으로 유튜브 설명을 정리한 내용이다. Introduction - Active Learning - 초기 학습된 모델을 통해 labeling을 했을 때, 가장 성능을 빠르게 높일 수 있는 unlabeled data를 sampling하는 것이 중요. Introduction - uncertainty Random: unceratinty에 대한 측정 없이 random하게 sampling 하여 라벨링을 진행 -> 베이스라인으로 쓰임 Least Confidence: confidence값을 기준으로 낮은 값을 보인다면 uncertainty가 높다고 ..
https://velog.io/@euisuk-chung/Inductive-Bias%EB%9E%80 [머신러닝/딥러닝] Inductive Bias란? Inductive Bias란 무엇일까요? 최근 논문들을 보면 그냥 Bias도 아니고 inductive Bias라는 말이 자주 나오는 것을 확인할 수 있는데요! 오늘은 해당 개념에 대해 정리해보는 시간을 가지려고 합니다. velog.io Inductibe Bias 참고 글
kucg.korea.ac.kr/research/MeshandTextureProcessing/PointBased/Parameterization/index.shtml Computer Graphics Homepage kucg.korea.ac.kr Parameterization을 우리나라 말로 굳이 표현하자면 "매개변수화"로, 하나의 표현식에 대해 다른 parameter를 사용하여 다시 표현하는 과정을 뜻한다. 이 과정에서 보통 parameter의 개수를 표현 식의 차수보다 적은 수로 선택(ex. 3차 표현식 --> 2개 parameter 사용)하므로, 낮은 차수로의 apping 함수(ex. 3D --> 2D)가 생성 된다. Parameterization은 많은 수학적 배경 지식과 높은 이해력이 요구되는 분야 ..
위의 표는 혼동행렬(Confusion Matrix)이라 불리는 도수 분포표라고 보면 된다.(분류된 빈도를 가지고 나타낸 도표) 위의 상황은 Binary Classification의 경우이며, 클래스가 더 많아진다면 그 이상도 가능하다. 흔히 Binary Classification을 진행하면 softmax나 logistic function을 사용해서 0~1 사이의 값(확률값이라 부르고 싶진 않다.)으로 결과가 떨어지는데, threshold(default = 0.5)를 기준으로 분류를 하여 얻을 수 있는 대표적인 지표는 아래와 같다. Accuracy(정확도) : ( TP + TN ) / ( P + N ) Precision(정밀도) : TP / ( TP + FP ) Recall(재현도, Sensitive) :..