분류 전체보기(37)
-
[Streamlit] st.col, st.tab
오늘은 streamlit에서 대시보드를 만들 때 조금 더 실용성있게 데이터를 넣을 수 있는 방법 두 가지를 가져왔습니다. col과 tab인데 col은 내용을 n등분한 공간에 넣을 수 있는 기능이고, tab은 완전히 새로운 페이지를 열 수 있는 방법입니다. 코드와 실행 결과를 통해 알아보겠습니다. streamlit의 기본적인 내용은 여기에 있습니다. https://hwdata.tistory.com/32 [streamlit] streamlit 배포 streamlit의 기본적인 사용법도 정리를 해야하는데,, 뭔가 순서가 꼬인 느낌,, 그래도 배포하는 방법 자체는 어렵지 않으니 이번에 그린 plotly 그래프를 stramlit에 배포를 해보겠습니다. 먼저 알아야 hwdata.tistory.com col의 사용방..
2024.02.04 -
[시각화] plotly line
오늘은 plotly로 선 그래프에 그리는 것에 대해서 알아보겠습니다. 선 그래프는 비교적 단순한 그래프여서 어떻게 꾸며야할 지 잘 모르겠습니다,, 우선 필요한 라이브러리들을 호출합니다. import pandas as pd import numpy as np import plotly.graph_objects as go import plotly.express as px 그리고 이번에도 역시 비어있는 그래프를 만들고 add_trace를 통해 선 그래프를 그려넣겠습니다. 선 그래프는 go.Scatter(mode='lines')로 그릴 수 있습니다. x=np.arange(1,100) y=np.sin(x) fig=go.Figure() fig.add_trace( go.Scatter(x=x,y=y,mode='lines'..
2024.02.03 -
[streamlit] st.slelctbox
Streamlit에서는 여러가지 기능을 제공합니다. 그 중에서 이번에는 selectbox에 대해서 코딩해보고 간단하게 구현해볼까 합니다. 이번 시각화에서 사용하는 라이브러리는 plotly이고, 다른 데이터 셋이지만 저번에 그린 그래프와 똑같은 형태로 구현했습니다.https://hwdata.tistory.com/30 [시각화] plotly bar chart 오늘 교육에서 개인적으로 streamlit을 사용하여 대시보드 배포하는 것을 연습하면서, plotly를 이용해서 그래프를 그려보았는데 그 그래프 그리는 것들에 대한 것을 정리해볼까 합니다. 단계로는 s hwdata.tistory.com 우선 selectbox가 무엇이냐 하면 아래와 같은 것입니다. 우리는 이것을 사용해서 그래프를 원하는 변수를 선택해서 ..
2024.02.02 -
[가상환경] API키 관리
API키를 발급받고 작성한 프로그래밍 코드를 github 등에 올리는 것은 안좋은 행동입니다. 왜냐면 API키는 개인적인 것이기 때문에 나의 개인적인 API키를 다른 사람들에게 뿌리는 행동입니다. 그래서 API키를 관리를 해주어서 다른 사람들에게 공개를 하지 않지만 요청은 잘 실행될 수 있는 방법을 작성하겠습니다. 우선 가상환경에 접속해서 필요한 라이브러리를 설치합니다. 가상환경을 생성하는 방법, 접속하는 방법은 여기에 정리되어 있습니다. https://hwdata.tistory.com/3 [Virtualenv] 가상환경 설정하는 방법 1.Virtualenv 1-1. 필요한 프로그램 다운로드 - Windows 기준입니다. -필요한 프로그램으로 Visual Studio Code와 Git이 필요합니다. ht..
2024.02.01 -
[Python] BeautifulSoup
오늘은 크롤링을 할 수 있는 방법 중 하나인 라이브러리 BeautifulSoup에 대해 다뤄볼까 합니다. 해당 라이브러리는 기본 라이브러리가 아니기 때문에 설치를 먼저 진행해야합니다. 그리고 HTTP 요청을 쉽게 보낼 수 있게 해주는 requests도 함께 사용하도록 하겠습니다. pip install beautifulsoup4 requests 이후 라이브러리를 불러오고 간단하게 응답 코드를 출력하는 코드를 작성해보겠습니다. import requests import bs4 from bs4 import BeautifulSoup import pandas as pd URL='https://www.naver.com/' req=requests.get(URL) print(req.status_code) 다음은 네이버 ..
2024.02.01