목록Crawling (4)
JJUNNAK's

공공데이터 포털 : https://www.data.go.kr/index.do 공공 데이터 포털에서 회원가입 후 한국부동산원의 부동산 거래 api를 사용해 보았다. 사용 과정 공공데이터 포털 회원가입 사용하고자 하는 api 승인 요청 발급 받은 인증키 등록 4. 사용하고자 하는 데이터 카테고리에서 요청변수 입력후 api 호출 5. xml 형식으로 발급받아 URL에 접속해보면 결과는 다음과 같다. 위의 url를 beautifulSoup를 통해서 크롤링 할수 있다. 코드 # 부동산 공공데이터 api 크롤링 from bs4 import BeautifulSoup from urllib.request import urlopen # url 요청변수 분할 endpoint = "https://api.odclou..
대상 사이트 https://search.naver.com/search.naver?sm=tab_hty.top&where=nexearch&query=%EB%A1%9C%EB%98%90%EB%8B%B9%EC%B2%A8%EB%B2%88%ED%98%B8&oquery=%EB%A1%9C%EB%98%90&tqi=hWeswlp0J1Zssnko4hCssssstxR-268480 로또당첨번호 : 네이버 통합검색 '로또당첨번호'의 네이버 통합검색 결과입니다. search.naver.com 코드 from bs4 import BeautifulSoup from selenium import webdriver # 드라이버 경로 driver = webdriver.Chrome("C:/Users/nackjun/chromedriver.exe")..

Selenium과 ChromeDriver를 사용한 동적 웹사이트 크롤링. 크롤링 대상 사이트 https://www.livesport.com/kr/team/chelsea/4fGZN2oK/ Livesport: 첼시 - 결과, 일정, 풀햄 vs 첼시 live 첼시 (축구, 잉글랜드). 첼시 실시간 점수, 결과, 일정 www.livesport.com 코드 from selenium import webdriver from bs4 import BeautifulSoup # 크롬 드라이버 경로 driver = webdriver.Chrome("C:/Users/nackjun/chromedriver.exe") # 페이지 로드까지 3초 대기 driver.implicitly_wait(3) # 해외 축구 사이트 불러옴. d..

예제 코드 # URL 열어주는 라이브러리 from urllib.request import urlopen from bs4 import BeautifulSoup # url 지정 url = "https://www.ddaily.co.kr/news/article/?no=241974" # urlopen 함수로 경로를 따라가서 html 변수에 저장 html = urlopen(url) # bs_obj 변수에 url 페이지에 있는 html 저장 bs_obj = BeautifulSoup(html, "html.parser") # 태그로 감싸진 부분 추출 dl = bs_obj.find_all("dl") # 부분에 태그 부분만 추출 dd = dl[1].find_all("dd") # 추출된 dd 객체를 enumerate() 함수..