일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- GROUPBY
- hackerrank
- MySQL
- TRUNCATE
- pandas
- Limit
- seaborn
- 데이터리안 웨비나
- 데이터시각화
- PostgreSQL
- Round
- having
- 머신러닝
- solvesql
- airflow 설치
- 다중 JOIN
- SQLite
- 그로스해킹
- join
- 결측값
- 데이터분석
- 프로그래머스
- SUM
- Oracle
- 전처리
- SQL
- matplotlib
- airflow.cfg
- 파이썬
- not in
- Today
- Total
목록전처리 (4)
Milky's note
가상 쇼핑몰 고객 주문 데이터 전처리 데이터 셋 온라인 리테일 사이트의 2010/12 - 2011/12간의 주문 기록 데이터 약 500,000건의 데이터 데이터 출처: UCI ML Repository UCI Machine Learning Repository: Online Retail Data Set Online Retail Data Set Download: Data Folder, Data Set Description Abstract: This is a transnational data set which contains all the transactions occurring between 01/12/2010 and 09/12/2011 for a UK-based and registered non-store ..
전처리 : 데이터 분석에 적합하게 데이터를 가공/변형/처리/정리 해주는 과정 1. 결측치 - 데이터 중에 빠져있는 값들을 어떻게 처리할 것인지? - pandas의 fillna()를 사용해도 되지만, 2개 이상의 컬럼에 대해서는 SimpleImputer 를 사용한다. from sklearn.impute import SimpleImputer #median 값을 이용해서 결측값 처리 impute = SimpleImputer(strategy='median') result = impute.fit_transform(train[['Age']]) fit_transform는 결측치에 학습한 내용을 적용하는 함수이다. train[['Age']] = result 2. 이상치 - 데이터의 이상치가 있을 때 어떻게 처리할 것인..
쉬운 데이터 분석 문제이다. 아직 시각화는 나오지 않고 단순히 데이터만 전처리하는 과정이지만, 하나씩 해보면서 끈기랑 통찰력을 길러야겠다. 코랩에서 풀었고, 깃에 소스도 올려놓았는데 블로그에도 정리할 겸 올리게 되었다. 추후에 시각화도 추가할 예정이다. 1. 라이브러리 로드 import pandas as pd 2. 데이터 프레임 로드 (https://bit.ly/ds-house-price) df = pd.read_csv('https://bit.ly/ds-house-price') df 지역명규모구분연도월분양가격(㎡)01234...45004501450245034504 서울 전체 2015 10 5841 서울 전용면적 60㎡이하 2015 10 5652 서울 전용면적 60㎡초과 85㎡이하 2015 10 5882 ..
1. 결측값 처리 #결측값 채우기(fillna) df['키'].fillna(-1) df2['키'].fillna(-1, inplace=True) #값을 바로 대입 #결측값 삭제(dropna) df.dropna() df.dropna(axis=0) #axis를 사용하여 행 또는 열을 제거 df.dropna(axis=0, how='any') #한개라도 있는 경우 df.dropna(axis=0, how='all') #모두 NaN인 경우 #중복된 값 제거 (drop_duplicates) df['키'].drop_duplicates() df['키'].drop_duplicates(keep='last') #맨마지막 항목 유지 df['키'].drop_duplicates(keep='first') #맨처음 항목 유지 #행 전체..