일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- Limit
- hackerrank
- matplotlib
- 그로스해킹
- join
- SQLite
- 데이터분석
- PostgreSQL
- MySQL
- 다중 JOIN
- 머신러닝
- airflow 설치
- solvesql
- 데이터리안 웨비나
- pandas
- Round
- SQL
- 프로그래머스
- SUM
- GROUPBY
- 전처리
- seaborn
- 데이터시각화
- 파이썬
- mysql :=
- not in
- TRUNCATE
- having
- Oracle
- 결측값
- Today
- Total
목록DevOps (10)
Milky's note
전 글에서 잠깐 설명한 Airflow default DB를 sqlite에서 MySQL로 바꾸는 작업과GCP 인스턴스에 설치한 Airflow를 서비스(데몬)으로 띄우는 작업에 대해서 글을 쓰려고 한다. 만약 아직 Airflow를 설치하지 않았다면 이전 글을 참고해서 Airflow부터 설치해야 한다. https://milkyspace.tistory.com/127 [Airflow] 설치 (by.GCP 환경)GCP에 Airflow를 설치하려면 당연히 인스턴스가 있어야 한다.혹시나 인스턴스 생성이 안되어 있다면 이전 게시글을 참조하면 된다. https://milkyspace.tistory.com/125 [GCP] VM Instance 생성 및 고정 IP 할당GCPmilkyspace.tistory.com 3. My..
GCP에 Airflow를 설치하려면 당연히 인스턴스가 있어야 한다.혹시나 인스턴스 생성이 안되어 있다면 이전 게시글을 참조하면 된다. https://milkyspace.tistory.com/125 [GCP] VM Instance 생성 및 고정 IP 할당GCP에 VM Instance를 생성하는 법은 간단한 클릭 몇 번만으로 할 수 있다. 먼저 GCP에 로그인 한 후,[Compute Engine] → [VM 인스턴스] → [인스턴스 만들기] 를 클릭한다. 1. 머신 구성그리고 서버 용도에milkyspace.tistory.com 1. 사전 작업GCP에 Airflow를 설치하기 전에 먼저 해주어야 할 작업이 있다.계정 생성과 Python을 설치해 주어야 한다.Service를 사용하지 않으면 계정은 굳이 만들지 ..
GCP에 VM Instance를 생성하는 법은 간단한 클릭 몇 번만으로 할 수 있다. 먼저 GCP에 로그인 한 후,[Compute Engine] → [VM 인스턴스] → [인스턴스 만들기] 를 클릭한다. 1. 머신 구성그리고 서버 용도에 맞는 머신의 스펙을 설정한다.나는 데이터를 daily로 ETL하기 위한 Airflow가 운영될 환경이라서 다음과 같은 스펙을 선택했다.리전 별, 머신 시리즈별로 CPU의 최대 코어수가 정해져있다.([IAM 및 관리자]→ [할당량 및 시스템 한도]로 가면 확인이 가능하다.)증액 요청을 하면 되긴 하는데 시간이 오래 걸릴 것 같아서 우선 해보고 나중에 부족하면 늘리기로 하였다. 그리고 부팅 디스크는 100GB로 늘려주었다.default가 10G였던 것 같은데 이게 나중에 ..
GCP에서 스케줄 작업을 할 때 가장 많이 사용하는 방법이VM Instance에 Airflow를 설치해서 사용하는 방법이다. 소스의 편한 형상관리와 Airflow DAG 코드를 쉽게 반영하기 위해서 GCP의 Repositories를 사용한다. 그래서 이번에는 GCP의 Repositories를 사용해서 DAG 코드를 Airflow 서버에 반영하는 방법에 대해서 간단하게 설명하려고 한다. 여기서 구성할 DAG는 Open API인 환율 구하는 API를 사용해서 전처리하여 daily로 해당일의 환율을 빅쿼리에 적재하려고 한다.더보기[DAG 코드는 다음과 같이 작성한 상태]환율 API 호출(extract) → 판다스를 통한 전처리(transform) → 빅쿼리 적재(load) 환율 APIAPI 호출을 위한 인증..