| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
- R
- pytorch
- 파이썬
- 리눅스
- 베이지안
- pandas
- 논문리뷰
- selenium
- 빅데이터
- 크롤링
- DATA
- 코딩테스트
- Crawling
- 텍스트분석
- YarinGal
- VAE
- 텍스트마이닝
- dropout
- 강화학습
- 알고리즘
- bayesian
- 우분투
- 백준
- Graph
- PYTHON
- 데이터분석
- uncertainty
- 불확실성
- GNN
- AI
- Today
- Total
목록Python (49)
끄적거림
1. 활용신청 아래의 URL로 접속하여 활용신청을 한다. https://www.data.go.kr/dataset/15000099/openapi.do 공공데이터포털 국가에서 보유하고 있는 다양한 데이터를『공공데이터의 제공 및 이용 활성화에 관한 법률(제11956호)』에 따라 개방하여 국민들이 보다 쉽고 용이하게 공유•활용할 수 있도록 공공데이터(Dataset)와 Open API로 제공하는 사이트입니다. www.data.go.kr 원하는 서비스에 해당하는 "활용신청" 버튼을 클릭한다. ※ 이때, 참고문서의 "기상청18_동네예보+조회서비스_오픈API활용가이드.zip"을 다운 받는다. request할 때의 parameter값과 결과값에 대한 코드 정보가 들어있다. 2. 지역 좌표 추출 1번에서 가이드를 다운로드..
1. 계정 생성 http://www.kobis.or.kr/kobisopenapi/homepg/apiservice/searchServiceInfo.do?serviceId=searchDailyBoxOffice 영화진흥위원회 오픈API www.kobis.or.kr 위의 주소에 들어가서 영화진흥위원회 페이지에서 회원가입을 먼저 진행해야한다. 2. 이후 상단의 "키 발급/관리" 탭을 클릭하여 키를 발급받는다. 3. Coding from urllib.request import urlopen from urllib.parse import urlencode, unquote, quote_plus import urllib import requests from pandas.io.json import json_normalize..
R을 많이 사용하던 사람으로써 python의 컴프리헨션(Comprehension), 이터레이터(Iterator), 제너레이터(Generator)와 같은 개념들이 다소 생소했다. 먼저 각 개념부터 알아보자. 컴프리헨션(Comprehension) : 주로 리스트 타입에서 많이 사용하기 때문에 리스트 컴프리헨션이라고도 한다. 반복되는 작업을 간결한 표시로 동작하는 것을 List Comprehension이라고 한다. 예를 보며 확인해보자. # 1. Comprehension a = [x**2 for x in range(5)] print(a) # 2. Normal for loop a = [] for i in range(5): a.append(i**2) print(a) 1번 코드는 컴프리헨션을 이용한 반복 작업이고,..
일반적으로 python3의 내장함수인 open( ) 함수를 사용할 때 주의할 점이 있다. open( )함수는 기본적으로 UTF-8인코딩 방법을 사용한다. 예를 들어 다음의 코드를 실행시키려 한다. with open('C:/Users/DAL/Desktop/test.txt', 'w') as f: f.write(os.urandom(10)) (※ os.urandom( ) 함수는 원하는 길이(byte단위)의 unsigned 수치값을 만들어 준다.) 그럼 다음과 같은 에러코드가 발생한다. 왜 이런 에러가 발생할까? python3에는 크게 2가지 문자 sequence 타입이 있다. bytes : raw 8-bit(=binary) str : Unicode 좀 더 원시적인(?) 타입이 bytes가 되겠고 이를 보기 쉽게..
지난 게시물(2020/02/18 - [Python] - [API]기상청 api로 데이터 가져오기 in Python)에서 API의 대략적인 개념과 Python에서 기상공공데이터 API를 활용하여 내가 원하는 데이터를 가져와보았다. 이번에는 네이버데이터랩에서 제공하는 데이터인 통합검색어트랜드 데이터를 수집해보려한다. 다행히(?) 네이버데이터랩에서는 각 언어별로 친절한 가이드를 제공한다. https://developers.naver.com/docs/datalab/search/ 통합 검색어 트렌드 API 적용 가이드 통합 검색어 트렌드 API는 '네이버 데이터랩'의 '검색어 트렌드'를 API로 실행할 수 있게하는 RESTful API입니다. developers.naver.com 본 가이드를 따라가며 데이터 수집..
공공 데이터 중에서 가장 활용도가 높은 기상청 데이터를 사용해볼까한다. 기본적으로 기상청에서는 file(CSV), API(Json, XML) 두 형태로서 데이터를 제공한다. file형태는 원할 때마다 내려 받아서 분석에 활용하면 되지만, 분석에서 만든 모델링을 계속해서 사용하기에는 번거로움이 있다. 따라서 어떤 모델을 구축했다면, API로 데이터를 실시간으로 돌려가며 실시간 모델링을 진행할 수 있다. 그러면, 데이터를 실시간으로 가져올 수 있는 방법인 API에 대해서 알아보자. API란, Application Programming Interface의 약어로, 기기 간 통신을 통하여 데이터나 정보를 주고 받을 수 있는 것이라고 간단히 생각하면 되겠다. 데이터 전송 시, 흔히 많이 쓰이는 자료구조로는 XML..