묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨일잘하는 마케터, MD에게 꼭 필요한 파이썬 데이터 분석
링크 변경 애러 질문
###############################!!링크변경!!############################################################################# name = ['호박즙'] ns_address = "https://smartstore.naver.com/goldhouse/products/2698413198?n_keyword=&n_rank=1&n_query=%ED%98%B8%EB%B0%95%EC%A6%99&n_campaign_type=2&n_media=11068&n_campaign=cmp-a001-02-000000006259509&n_ad_group=grp-a001-02-000000031918432&n_ad=nad-a001-02-000000225350866&n_match=3&n_network=search&n_mall_id=ncp_1nm8fw_01&n_mall_pid=2698413198&n_ad_group_type=2&n_keyword_id=&n_ad_extension=&NaPm=ct%3Dlhelvdj4%7Cci%3D0z800028I5vytTVpXKYs%7Ctr%3Dpla%7Chk%3Dca9985f6cfe1114e75168d87872e9d4dd1a915ad" shoppingmall_review = "/html/body/div[2]/div/div[3]/div[2]/div[2]/div/div[3]/div[4]/div/div[3]/ul/li[2]/a" category_total = "/html/body/div[2]/div/div[3]/div[2]/div[2]/div/div[3]/div[6]/div/div[3]/div[1]/div[2]/ul/li[1]/a" ############################################################################################################ header = {'User-Agent': ''} driver.implicitly_wait(3) driver.get(ns_address) req = requests.get(ns_address,verify=True) html = req.text soup = BeautifulSoup(html, "html.parser") sleep(2) # 2023.05.08 변경 find_element_by_xpath TO find_element # element=driver.find_element_by_xpath(shoppingmall_review) element=driver.find_element(By.XPATH, shoppingmall_review) driver.execute_script("arguments[0].click();", element) sleep(2)예시에서 링크를 변경해서 대입해보면 아래와 같은 애러가 발생하네요..! 뭐가 문제일까요? NoSuchElementException Traceback (most recent call last) <ipython-input-5-15bf827fd88a> in <cell line: 10>() 8 # 2023.05.08 변경 find_element_by_xpath TO find_element 9 # element=driver.find_element_by_xpath(shoppingmall_review) ---> 10 element=driver.find_element(By.XPATH, shoppingmall_review) 11 driver.execute_script("arguments[0].click();", element) 12 sleep(2) /usr/local/lib/python3.10/dist-packages/selenium/webdriver/remote/errorhandler.py in check_response(self, response) 243 alert_text = value["alert"].get("text") 244 raise exception_class(message, screen, stacktrace, alert_text) # type: ignore[call-arg] # mypy is not smart enough here --> 245 raise exception_class(message, screen, stacktrace) NoSuchElementException: Message: no such element: Unable to locate element: {"method":"xpath","selector":"/html/body/div[2]/div/div[3]/div[2]/div[2]/div/div[3]/div[4]/div/div[3]/ul/li[2]/a"} (Session info: headless chrome=90.0.4430.212) Stacktrace: #0 0x55d22a7987f9 <unknown> #1 0x55d22a7383b3 <unknown> #2 0x55d22a480016 <unknown> #3 0x55d22a4b481e <unknown> #4 0x55d22a4ea8fb <unknown> #5 0x55d22a4d7ded <unknown> #6 0x55d22a4e89e1 <unknown> #7 0x55d22a4d7c93 <unknown> #8 0x55d22a4a9ce4 <unknown> #9 0x55d22a4ab4d2 <unknown> #10 0x55d22a764542 <unknown> #11 0x55d22a773ce7 <unknown> #12 0x55d22a7739e4 <unknown> #13 0x55d22a77813a <unknown> #14 0x55d22a7745b9 <unknown> #15 0x55d22a759e00 <unknown> #16 0x55d22a78b5d2 <unknown> #17 0x55d22a78b778 <unknown> #18 0x55d22a7a3a1f <unknown> #19 0x7f091bdac609 start_thread #20 0x7f091afc0133 clone
-
해결됨일잘하는 마케터, MD에게 꼭 필요한 파이썬 데이터 분석
애러 질문
위 애러가 계속해서 나고있어요. 현재 강의는 [Google Colab 코드 작성(2) - (네이버리뷰) 코드 분석 및 코드 작성]을 듣고 있습니다.
-
미해결[2024 개정판] 이것이 진짜 크롤링이다 - 기본편
과제 정답을 어디서 볼 수 있을까요?
<뉴스의 제목과 링크를 가지고 오자> 강의에서 마지막에 내주신 과제의 정답 코드를 혹시 어디서 볼 수 있을까요?
-
미해결[2024 개정판] 이것이 진짜 크롤링이다 - 기본편
크롤링 프로그래밍 중 질문(제발 도와주세요ㅠㅠ)
위와 같은 사이트를 크롤링하려고 합니다. 첫번쨰 사진의 빨간색 동그라미 '현상태' 버튼을 개발자 도구로 찍어본 사진입니다.원하는 버튼을 눌러 나오는 숫자를 크롤링하여 디스플레이 하려고 하는데 일단 버튼 자체가 크롤링이 되지 않습니다... 버튼 뿐만 아니라 다른 정보도 위와 같이 []로만 뜨고 아무것도 못읽어오네요ㅠㅠ셀레니움으로도, id나 다른 셀렉터로도 시도해봤는데 계속 아무것도 읽혀지지 않습니다... 며칠쨰 구글링 하다가 도저히 모르겠어서 질문글 남깁니다 도와주세요ㅠㅠ
-
미해결[2024 개정판] 이것이 진짜 크롤링이다 - 실전편 (인공지능 수익화)
팝업 창
안녕하세요.질문 있어 문의드립니다.브라우져 처음 접근할 때, 위 그림처럼 쿠키 동의 창이 계속 나오는데 어떻게 해야하나요?... 크롬으로 제가 접속할 때는 제가 예전에 이미 동의를 해놓아서 따로 뜨지 않는데, webdriver 통해서 들어가면 항상 이 창이 뜹니다.
-
미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
#데이터가 하나가 있는 set을 만드는 방법을 알려주셔서 그대로 적용해서 data_set6 = set('appl') 이렇게 해서 출력을 해봤는데 출력이 {'appl'}이 나오지 않고 사진처럼 나와요...
3분 55초부터 나오는 설명보고 따라했습니다.! 코드는 임의로 바꿨어요
-
미해결실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
강의잘듣고공부중입니다~^^작성중에 url 에 특정이미지를 크롤링하는걸 배웠는데도 에러가떠서 한수부탁드려요ㅜ
""" dumpimages.py Downloads all the images on the supplied URL, and saves them to the specified output file ("/test/" by default) Usage: python dumpimages.py https://www.1688.com// [output] """ from bs4 import BeautifulSoup as bs from urllib.request import ( urlopen, urlparse, urlunparse, urlretrieve) import os import sys def main(url, out_folder="/test/"): """Downloads all the images at 'url' to /test/""" soup = bs(urlopen(url)) parsed = list(urlparse(url)) for image in soup.findAll("img"): print("Image: %(src)s" % image) filename = image["src"].split("/")[-1] parsed[2] = image["src"] outpath = os.path.join(out_folder, filename) if image["src"].lower().startswith("http"): urlretrieve(image["src"], outpath) else: urlretrieve(urlunparse(parsed), outpath) def _usage(): print("usage: python dumpimages.py http://example.com [outpath]") if __name__ == "__main__": url = sys.argv[-1] out_folder = "/test/" if not url.lower().startswith("http"): out_folder = sys.argv[-1] url = sys.argv[-2] if not url.lower().startswith("http"): _usage() sys.exit(-1) main(url, out_folder)root@goorm:/workspace/firstContainer# cd "/workspace/firstContainer";root@goorm:/workspace/firstContainer# python3 /workspace/firstContainer/index.pyTraceback (most recent call last): File "/workspace/firstContainer/index.py", line 38, in <module> url = sys.argv[-2]IndexError: list index out of range 구름ide로작성했는데 이렇게 오류가 떠요ㅠㅠ전체이미지가 아닌 배웠던 class 특정영역의 이미지들만 일괄저장하고싶어서요;;ㅠ
-
미해결[2024 개정판] 이것이 진짜 크롤링이다 - 실전편 (인공지능 수익화)
id 값이 바뀐것같아서 찾아서 넣어보는데 잘안됩니다.
https://n.news.naver.com/mnews/article/003/0011827028?sid=101이곳에서 개발자모드에서 id값을 찾아서 해보고있는데계속 None만 반환되네요.이유를 모르겠습니다. 도와주세요
-
미해결[2024 개정판] 이것이 진짜 크롤링이다 - 기본편
스크롤이 안내려갑니다!
안녕하세요.셀레니움 기본설정 알려주신 코드대로 입력해서아이폰 13 입력해서 들어가는 것까지는 작동을 하는데스크롤이 내려가지 않네요ㅠ뭐가 문제일까요?
-
해결됨내 업무를 대신 할 파이썬(Python) 웹크롤링 & 자동화 (feat. 주식, 부동산 데이터 / 인스타그램)
7.1 야후 파이낸스 크롤링 request 오류
혹시 못보셨나 해서 다시 올립니다.7.1 진행중에 request 오류가 나서기존 질문 답변보고 강의노트에 있는 헤더 넣어서 request.get 했는데도response 404가 나옵니다. 아래는 제가 실행했던 코드 입니다. =================================================== # importimport requestsimport bs4import timeimport randomimport numpy as npimport pandas as pdfrom IPython.core.interactiveshell import InteractiveShellInteractiveShell.ast_node_interactivity = "all"pd.set_option('display.float_format', lambda x: '%.3f' % x)pd.set_option('display.max_columns', None) url = "https://finance.yahoo.com/quote/AAPL/history?period1=1581206400&period2=1612828800&interval=1d&filter=history&frequency=1d&includeAdjustedClose=true"headers = {"cache-control": "max-age=0","sec-ch-ua": 'Chromium";v="94", "Google Chrome";v="94", ";Not A Brand";v="99',"sec-ch-ua-mobile": "?0","sec-ch-ua-platform": "macOS","sec-fetch-dest": "document","sec-fetch-mode": "navigate","sec-fetch-site": "same-origin","sec-fetch-user": "?1","upgrade-insecure-requests": "1","user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.81 Safari/537.36",} requests.get(url, headers)=================================================상기 내용이 미결이라 진도를 나아가지 못하고 있습니다.혹시 7.1 ~ 7.3 그냥 넘기고 바로 8로 넘어가도 문제 없을까요?
-
미해결실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
새로운 탭을 생성하고, 이동시 크롬 창 활성화
안녕하세요!headless를 이용하면 안되는 사이트도 있는거 같아서.그냥 크롬창을 띄워놓고 작업을 하는데요.탭을 2개 열어 놓고 작업을 시켰습니다.근데 탭을 변경하면 최소화된 크롬창이 자꾸 활성화 되면서 모니터 앞으로 튀어나오는데요..탭 변경시driver.switch_to.window(driver.window_handles[0])이 코드를 사용하는데요.0에서 작업하다가 1로 넘기면,넘길 때 마다 크롬창이 앞으로 팍 튀어나옵니다!해결 방법이 있을까요?headless를 사용하지 않고, 크롬창이 열리는 대신, 그냥 최소화 해놓고 작업을 하고 싶습니다!
-
미해결[2024 개정판] 이것이 진짜 크롤링이다 - 기본편
강의 구매 관련문의입니다.
우선 이전 질문 답변 감사드립니다.지금 셀레니움 기본 완강후심화 결제하려하는데요.그런데 인프런같은 타 플랫폼? 에도강의가 10만원대강의가있고 하더라구요.두개가 뭐가다른지 둘다 결제하면 중복되는거는아닌지 왜 인프런과 같은건지 궁금합니다.강의 내용이 좋아서 하시는강의를다 수강하고싶은 마음에글씁니다.
-
미해결[2024 개정판] 이것이 진짜 크롤링이다 - 기본편
작성하신 코드는 어디에서 복사하나요
강의 내용에 보면 " 내가 작성한 코드를 그대로 복사해서 쓰시면 된다 " 는 말씀을 하시는데,학습자료가 따로 업로드되어있지 않던데인프런에는 없는건지 궁금하네요
-
미해결파이썬 증권 데이터 수집과 분석으로 신호와 소음 찾기
[5.1] pd.concat Reindexing error
강의와 같이 코드를 입력 하였고 아래와 같은InvalidIndexError: Reindexing only valid with uniquely valued Index objects 에러가 납니다.다른분이 질문해주신 글에 답변 처럼 df_item = pd.concat(item_info, ignore_index=True)처리를 하여도 같은 에러가 생깁니다. 해당 문제때문에 강의 진행이 안돼서,, 어떻게 하면 해결할 수 있을까요
-
미해결내 업무를 대신 할 파이썬(Python) 웹크롤링 & 자동화 (feat. 주식, 부동산 데이터 / 인스타그램)
anaconda
안녕하세요anaconda 가상환경에 형태소 분석기,konlpy 설치 방법을알려주세요. 여러가지 방법으로 설치를 해도 오류가 나서문의 드립니다. 감사합니다.
-
미해결실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
셀레니움 바뀐 문법이 궁금합니다. webdriv.send_keys(Keys.ENTER)
셀레니움 질문드료요 ~인풋창에서 글을 입력하는데요 .webdriv= webdriver.Chrome(options=options)from selenium.webdriver.common.keys import Keys from selenium.webdriver.common.by import By 에러가 납니다. 문법이 바뀐것 같은데요 .. 목적은 인풋창에 값을 입력한뒤 Key.ENTER 가 하려고했습니다. keys.enter는 에러가 나서요 바뀐 . 문법이 궁금합니다. ------------------ webdriv.find_element(By.XPATH, # 는 알겠으나 // webdriv.send_keys(Keys.ENTER) # 이거는 어떻게 해야할지 몰라서 여쭈어 봅니다.
-
해결됨실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
쿠팡 사이트 접속 제한은?
강의 잘 들었습니다!쿠팡 사이트에 여러번 시도를 하니까엑세스 디나인이 뜨더라구요.강사님은 혹시 이것이 발생하는 주기를 알고 계실까요?예)1분에 10번 이상 접속 시도시 차단.차단되면 1일 후 이용 가능. 이런 대략적인 정보나? 경험이 있으면 알려주시면 감사하겠습니다!
-
미해결실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
ancestor :: span[2] 어떻게 해석해야 할지 //ancestor :: div[2] -- 질문
ancestor :: span[2] 어떻게 해석해야 할지 모르겠습니다. //ancestor :: div[2] --------- 질문 :: div등 [1] [2] 번호의 의미와 분석법 , ancestor :: span[2] ancestor 쓴는 이유와 찾는 방법 순서 ..궁금합니다 ~
-
해결됨내 업무를 대신 할 파이썬(Python) 웹크롤링 & 자동화 (feat. 주식, 부동산 데이터 / 인스타그램)
야후파이낸스 크롤링 오류
7.1 진행중에 request 오류가나서기존 질문답변 보고 강의노트에 올려주신 헤더 넣어서 requests.get했는데도response 404가 나옵니다. 확인 부탁 드립니다.
-
해결됨실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
셀레니움으로 thumb 이미지 클릭을 못합니다 도와주세요 ㅠ
선생님 난관에 부딪혔습니다.제목과, 이름은 잘가져오는데.썸네일 이미지가 메뉴에 가려져 있어서, 클릭을 못한다고 합니다. 이를 어찌 해결해야 할지 도저히 모르겠습니다 일단 코드는 아래와 같습니다.items = driver.find_elements(By.CSS_SELECTOR, "#_chartList > li.list_item") time.sleep(2) #_chartList .title.ellipsis for idx, item in enumerate(items[:5], 1): title = item.find_element(By.CSS_SELECTOR, 'p.title.ellipsis') name = item.find_element(By.CSS_SELECTOR, 'span.name.ellipsis') thumb = item.find_element(By.CSS_SELECTOR, 'div.thumb > a') thumb.click() time.sleep(2) album_url = driver.current_url driver.back() print(f">>>{idx}<<<") print(title.text.strip()) print(name.text.strip()) print(album_url) print() time.sleep(2)실행하면 아래와 같은 오류가 납니다.selenium.common.exceptions.ElementClickInterceptedException: Message: element click intercepted: Element <a href="javascript:goDetail('album','11211297')">...</a> is not clickable at point (40, 24). Other element would receive the click: <span class="ico-sprite ico-gnb-menu">...</span> 구글링 열심히 하다가 챗 gpt에게 물어보니오약 : 메뉴 요소에 가려져있어서 클릭을 못하고, 메뉴 요소를 닫아야 한다고합니다 <span class="ico-sprite ico-gnb-menu">이 메뉴 요소가 문제인거 같은데, 메뉴에 가려져 있으면 어떻게 해결 해야하나요?어떡해든 혼자힘으로 해결해 보려고 하였는데, 이건 도저히 해결책을 어떻게 연구해야 할지 모르겠습니다.도와 주신다면 감사하겠습니다.