TIL
-
import yfinance as yf import numpy as np import pandas as pd import seaborn as sns import matplotlib.pyplot as plt naver = yf.download('035420.KS', start='2016-01-01') samsung = yf.download('005930.KS', start='2016-01-01') hynix = yf.download('000660.KS', start='2016-01-01') hyundai = yf.download('005380.KS', start='2016-01-01') kia = yf.download('000270.KS', start='2016-01-01') kakao = yf.downl..
한국 주요 기업 주가 간의 상관관계 분석import yfinance as yf import numpy as np import pandas as pd import seaborn as sns import matplotlib.pyplot as plt naver = yf.download('035420.KS', start='2016-01-01') samsung = yf.download('005930.KS', start='2016-01-01') hynix = yf.download('000660.KS', start='2016-01-01') hyundai = yf.download('005380.KS', start='2016-01-01') kia = yf.download('000270.KS', start='2016-01-01') kakao = yf.downl..
2023.04.22 -
한국 실업률 데이터는 2013년 1월 ~ 2023년 4월 데이터. 실업률에 대한 데이터는 월단위로 얻을 수 있어, 이 데이터를 증폭시킨다면 시계열 예측에 있어서 도움될 것. 원래 데이터 크기: 124 원하는 목표의 데이터 크기: 2500 import numpy as np import pandas as pd from scipy.interpolate import interp1d import matplotlib.pyplot as plt # umemployed이라는 DataFrame이 이미 존재하며, index는 0부터 시작한다고 가정합니다. original_length = len(umemployed) new_length = 2500 # 보간에 사용할 원래의 x, y 좌표를 생성합니다. x_original = ..
한국 실업률 데이터를 활용한 스플라인 보간(Spline Interpolation)한국 실업률 데이터는 2013년 1월 ~ 2023년 4월 데이터. 실업률에 대한 데이터는 월단위로 얻을 수 있어, 이 데이터를 증폭시킨다면 시계열 예측에 있어서 도움될 것. 원래 데이터 크기: 124 원하는 목표의 데이터 크기: 2500 import numpy as np import pandas as pd from scipy.interpolate import interp1d import matplotlib.pyplot as plt # umemployed이라는 DataFrame이 이미 존재하며, index는 0부터 시작한다고 가정합니다. original_length = len(umemployed) new_length = 2500 # 보간에 사용할 원래의 x, y 좌표를 생성합니다. x_original = ..
2023.04.21 -
아파치 파켓(Apache Parquet)은 열 기반의 고성능 파일 포맷으로, 빅데이터 처리를 위한 오픈소스 프로젝트 Apache Arrow에서 개발되었다. 하둡(Hadoop) 파일 시스템에서 사용하기 위해 최적화되어 있으며, Apache Spark, Apache Hive, Apache Impala 등의 데이터 처리 프레임워크와 호환된다. Parquet은 효율적인 데이터 압축 및 인코딩 방식을 사용해 데이터를 저장하며, 고속 쿼리 처리를 가능하게 한다. Parquet의 주요 특징 및 장점은 다음과 같다. 열(column) 기반 저장 Parquet은 열 기반의 파일 포맷으로, 데이터를 열 단위로 저장한다. 이러한 방식은 대규모 데이터셋에서 작은 부분만 읽어야 하는 경우 유용하다. 예를 들어, 특정 열에 대한..
아파치 파켓(Apache Parquet)아파치 파켓(Apache Parquet)은 열 기반의 고성능 파일 포맷으로, 빅데이터 처리를 위한 오픈소스 프로젝트 Apache Arrow에서 개발되었다. 하둡(Hadoop) 파일 시스템에서 사용하기 위해 최적화되어 있으며, Apache Spark, Apache Hive, Apache Impala 등의 데이터 처리 프레임워크와 호환된다. Parquet은 효율적인 데이터 압축 및 인코딩 방식을 사용해 데이터를 저장하며, 고속 쿼리 처리를 가능하게 한다. Parquet의 주요 특징 및 장점은 다음과 같다. 열(column) 기반 저장 Parquet은 열 기반의 파일 포맷으로, 데이터를 열 단위로 저장한다. 이러한 방식은 대규모 데이터셋에서 작은 부분만 읽어야 하는 경우 유용하다. 예를 들어, 특정 열에 대한..
2023.04.18 -
import pyupbit as pu import numpy as np import pandas as pd import matplotlib.pyplot as plt from statsmodels.graphics.tsaplots import plot_acf pu.get_current_price(["KRW-BTC"]) btc = pu.get_ohlcv(ticker="KRW-BTC",interval='minute1',to='2023-04-12 23:59',count=3000).close plt.figure(figsize=(14,7)) plt.title('Bitcoin') plt.plot(btc) fig, ax = plt.subplots(figsize=(12, 5)) plot_acf(btc, ax=ax, lag..
자기상관함수(AutoCovariance Function, ACF) 그래프 확인하기import pyupbit as pu import numpy as np import pandas as pd import matplotlib.pyplot as plt from statsmodels.graphics.tsaplots import plot_acf pu.get_current_price(["KRW-BTC"]) btc = pu.get_ohlcv(ticker="KRW-BTC",interval='minute1',to='2023-04-12 23:59',count=3000).close plt.figure(figsize=(14,7)) plt.title('Bitcoin') plt.plot(btc) fig, ax = plt.subplots(figsize=(12, 5)) plot_acf(btc, ax=ax, lag..
2023.04.17 -
# fitz 설치 pip install PyMuPDF def find_pages_with_keyword(input_pdf_path, keyword): pdf = fitz.open(input_pdf_path) pages_with_keyword = [] for page_num in range(pdf.page_count): page = pdf.load_page(page_num) if keyword.lower() in page.get_text().lower(): pages_with_keyword.append(page_num + 1) pdf.close() return pages_with_keyword def print_pages_with_keyword(input_pdf_path, keyword): pages = ..
PDF 파일에서 특정 페이지 python으로 추출하기# fitz 설치 pip install PyMuPDF def find_pages_with_keyword(input_pdf_path, keyword): pdf = fitz.open(input_pdf_path) pages_with_keyword = [] for page_num in range(pdf.page_count): page = pdf.load_page(page_num) if keyword.lower() in page.get_text().lower(): pages_with_keyword.append(page_num + 1) pdf.close() return pages_with_keyword def print_pages_with_keyword(input_pdf_path, keyword): pages = ..
2023.04.17 -
import pyupbit as pu import numpy as np import pandas as pd import matplotlib.pyplot as plt from statsmodels.tsa.seasonal import seasonal_decompose pu.get_current_price(["KRW-BTC"]) btc = pu.get_ohlcv(ticker="KRW-BTC",interval='minute1',to='2023-04-12 23:59',count=3000).close plt.figure(figsize=(14,7)) plt.title('Bitcoin') plt.plot(btc) result = seasonal_decompose(btc, model='multiplicative', pe..
시계열 분해(Time series decomposition) 그래프 확인하기import pyupbit as pu import numpy as np import pandas as pd import matplotlib.pyplot as plt from statsmodels.tsa.seasonal import seasonal_decompose pu.get_current_price(["KRW-BTC"]) btc = pu.get_ohlcv(ticker="KRW-BTC",interval='minute1',to='2023-04-12 23:59',count=3000).close plt.figure(figsize=(14,7)) plt.title('Bitcoin') plt.plot(btc) result = seasonal_decompose(btc, model='multiplicative', pe..
2023.04.13