본문 바로가기

멋쟁이사자처럼 AI스쿨42

통계 특강2 신뢰구간을 구해보는 일을 하자! 데이터는... 2023.02.16 - [멋쟁이사자처럼 AI스쿨] - 통계 특강1 통계 특강1 하루에 100명이 고객이 구매율 30%로 365일 시뮬레이션을... 이항분포로 돌려보자! binom import! from scipy.stats import binom 이항분포로 100명, 구매율 0.3, 365일 데이터를 만들어보면... data = binom.rvs(n=100, p=0. helpming.tistory.com 에서 많이 다뤄봤던 car데이터를 사용하자! 일단 pingouin을 설치해보자! pip install pingouin 그리고 import해준다! import pingouin as pg ttest함수로 가격 평균의 95% 신뢰구간을 구해보자! 컬럼 1개에 대해.. 2023. 3. 1.
통계 특강1 하루에 100명이 고객이 구매율 30%로 365일 시뮬레이션을... 이항분포로 돌려보자! binom import! from scipy.stats import binom 이항분포로 100명, 구매율 0.3, 365일 데이터를 만들어보면... data = binom.rvs(n=100, p=0.3, size=365) # 100명의 고객, 30% 구매율, 365일 시뮬레이션 data 이렇게 된다! 이것을 히스토그램으로 그려보자! import matplotlib.pyplot as plt plt.hist(data, bins=40, range=[10, 50]); 손님이 가장 적게오는 날은 18명, 가장 많이오는 날은 46명이고... 구매율이 30%라 30명 주변에 몰려있는 것을 볼 수 있다! 확률밀도함수로 딱 40명.. 2023. 2. 16.
멋쟁이사자처럼 AI스쿨 8주차 회고 이번 주도 시각화의 연속... 한 번 열심히 복습해보자! 가장 먼저 다뤄본 데이터는 전국 신규 민간 아파트 분양가격 데이터이다! 데이터는 https://www.data.go.kr/data/15061057/fileData.do 주택도시보증공사_전국 신규 민간아파트 분양가격 동향_20211231 주택분양보증을 받아 분양한 전체 민간 신규아파트 분양가격 동향으로 지역별, 면적별 분양가격 등의 자료를 제공합니다. 해당 데이터는 주택도시보증공사 홈페이지 및 통계청 KOSIS에서도 www.data.go.kr 이곳 에서 다운받았다! 일단 필요라이브러리 호출! import pandas as pd import numpy as np import seaborn as sns import matplotlib.pyplot as .. 2023. 2. 9.
멋쟁이사자처럼miniproject2(행복지수와 코로나확진률) 미니프로젝트 2의 주제는 세계 행복 지수와 코로나 감염비율의 상관관계 파악! (제대로 파악하지는 못했지만...) 일단 사용한 데이터는 이렇다... 세계 행복지수 2019, 2020, 2021데이터셋 https://www.kaggle.com/datasets/mathurinache/world-happiness-report?resource=download&select=2022.csv World Happiness Report up to 2022 Bliss scored agreeing to financial, social, etc. www.kaggle.com 코로나 나라별 일별 누적확진자 데이터 https://www.kaggle.com/datasets/themlphdstudent/novel-covid19-data.. 2023. 2. 8.
멋쟁이사자처럼 AI스쿨 7주차 회고 이번주에는 데이터 전처리와 시각화 관련 수업이었다... 새로운 데이터가 주어졌을 때 잘 할 수 있을지는 모르겠지만... 한번 배운 것을 확인해 보자! 처음으로 다뤄본 데이터는 서울시 코로나19 발생동향 데이터이다! 일단 필요한 라이브러리를 업로드하고... # pandas, numpy, matplotlib.pyplot 불러오기 import pandas as pd import numpy as np import matplotlib.pyplot as plt 한글폰트 사용을 위해 코리안와이즈 매트플롯립을 설치했다! # 한글폰트 사용을 위해 설치 !pip install koreanize-matplotlib 설치가 잘 끝났고... 여러 부수적인 것들을 설정! import koreanize_matplotlib # 그래.. 2023. 2. 2.
멋쟁이사자처럼 miniproject1(네이버 증권 웹사이트 정보 수집하기) 두번째 주제는 네이버 증권 웹사이트 정보 수집하기로 정했다.. 해당 페이지 : https://finance.naver.com/sise/sise_group.naver?type=upjong 테마별 시세 : 네이버 증권 관심종목의 실시간 주가를 가장 빠르게 확인하는 곳 finance.naver.com 일단 업종별 시세 페이지를 수집한 다음.. 링크를 타고 세부적인 내용을 긁어오기로 했다! 업종별 시세 페이지 수집 함수 코드이다! 링크를 타고 들어가야해서 업종번호도 파생변수로 넣어줬다! # 업종별 시세 페이지 수집 함수 import pandas as pd import requests from bs4 import BeautifulSoup as bs from datetime import datetime def ge.. 2023. 2. 2.
멋쟁이사자처럼 miniproject1(스타벅스 매장 정보 수집하기) 멋쟁이 사자처럼 수강을 하면서 첫 프로젝트가 닥쳤다! 평소에 커피를 많이 좋아하기 때문에... 여러 데이터 중 스타벅스 매장 데이터를 수집해보기로 했다! 일단 데이터를 수집하고...(post방식) 여러 전처리를 거치는 함수이다! 특히 이름의 뒷부분에 매장타입에 관한 정보를 가지고 매장타입을 파생변수로 생성했다! # 필요 라이브러리 호출 import pandas as pd import requests import numpy as np #url을 통해 스타벅스 매장의 데이터를 수집하는 함수 def get_starbucks_store(url): # 데이터를 수집할 때 필요한 데이터 data = { 'p_sido_cd':'', 'p_gugun_cd':'', 'in_biz_cd':'', 'set_date':'',.. 2023. 1. 31.
멋쟁이사자처럼 AI스쿨 5주차 회고 이번주는 정말 많은 것을 배운 것 같습니다... 시간도 참 빠르게 느껴지네요... 그럼 이번주 배운 것들을 정리해봅시다! 가장 먼저... 행정안전부 대통령 기록관에서 대통령 연설기록을 수집했다! 검사 창에서 확인할 것들을 먼저 아래와 같이 확인해준다! 확인 했으면... 필요한 라이브러리와 url을 적고 요청을 해보자! # requests, bs4, pandas 불러오기 import requests from bs4 import BeautifulSoup as bs import pandas as pd page_no = 70 url = "https://www.pa.go.kr/research/contents/speech/index.jsp" params = f"spMode=&artid=&catid=&pageInde.. 2023. 1. 19.