본문 바로가기

반응형

분류 전체보기

(81)
관람정보 & 기사 크롤링 from bs4 import BeautifulSoupimport requests# 실습1. 국립중앙박물관 관람 정보html_mus = "https://www.museum.go.kr/site/main/home"mus = requests.get(html_mus)soup = BeautifulSoup(mus.text, 'html.parser')time1 = soup.select_one("li.info > strong")time2 = soup.select("div.info-txt > ul > li")cost = soup.select_one("li.admission > strong")print(f"{time1.text} {time2[0].text} {time2[1].text} {time2[2].text}")prin..
Python 데이터 beautifulsoup 지금까징 데이터 크롤링을 위해 환경설정과 간단한 이론을 공부하였습니다.그럼이제 데이터를 한번 불러와봐야 환경이 제대로 설치되었는지 알수 있겠죠? 오늘 학습할 라이브러리는 Beautifulsoup 입니다.import requests 와 같이 사용합니다그냥 아름다운 수프는 아닙니다. 이름만 그럽습니다. 이름만..... 먼저 beautifulsoup를 import를 해야하는데 이 모듈은 기본적으로 파이썬에서 제공하는 모듈이 아닙니다. 그러니 서브파티 모듈 다운법으로 다운로드 해주셔야 합니다. 서브 파티 모듈 다운 방법은 다들아시죠? ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓  python 모듈이번 시간에는 모듈을 알아봅시다.모듈이란 말을 처음 들어봤을 수도 있지만, 파이썬 코드을 한번이라도 보신적이 있으시다면 수도 없이 보..
데이터 가상환경 설정 데이터를 크롤링을 하기 위해서는 작업환경을 가상환경으로 설정해야 웹에 접근하여 크롤링을 할 수있습니다.물론 python으로도 데이터 크롤링을 할 수는 있으나, pip하나만을 포함하고 있어 필요한 모듈을 수동으로 하나하나 다운 받으셔야 합니다. 그렇게 하기 귀찮고 나중에 모듈이 뭐가 필요한지 검색하는 시간로스가 생기니까, 우리는 anaconda를 사용하여 데이터 분석을 진행 할 것입니다.아마 여러분들이 anconda를 통해 python을 다운 받으셨다면,  아래와 같은 프로그램이 있을 겁니다. 이제 이 프로그램에 들어가서, 쥬피터 노트북 다운로드와, 쥬피터 랩을 다운로드 후 ,가상환경 생성을 합니다.Environments > Create(하단 아이콘) > 가상환경 이름python 버전 확인해주세요이제 가상..
Python 예외 처리 오늘은 데이터 크롤링을 하기전에 if문 을 다룰 때 하나 더 학습해야 했던, 내용이 있어 python으로 돌아 왔습니다.그 내용은 바로try: ~ except: ~else:~ finally:일명 예외처리 문이다.예외처리파이썬에서 예외처리는 프로그램 실행 중 발생할 수 있는 오류(예외)를 관리하여 프로그램이 비정상적으로 종료되지 않도록 하는데 사용예외처리를 통해 오류가 발생하더라도 프로그램이 정상적으로 실해을 계속하거나, 사용자에게 적절한 메시지를 제공함에러와 예외에러(Error)구문(syntex) 오류 :  문법에 맞지 않거나 오타가 났을 경우 발생하는 오류, IDE에서 실행 전에 알 수 있음예외(Exception)실행(runtime) 오류 : 문법적인 오류는 없지만 실행(run) 될 때 에러가 발생하는..

반응형