게시글
질문&답변
2022.10.13
Route관련질의
아 강사님 v6가 사용중이었습니다말씀대로 수정하니 잘됩니다 감사합니다
- 0
- 2
- 235
질문&답변
2022.08.21
가중이동평균
안녕하세요 선생님 전년도 월매출 비교강의에서나오는 lag를 사용하니 좀더 간편하게 작성이 되는 것 같습니다 lag는 분명히 fundamental강의에서도 설명해 주셨었는데 까먹고있다가...필요한 상황에서 해당 부분 강의들으니 적용이 되네요 ㅎㅎ;; 하나 아쉬운건 query의 재사용성인데요 만약 20일 가중평균을 준다라면 20개 전부 함수를 입력해줘야하는??그런 불편함이 있네요 파이썬에서는 상수나 가중치 등을 를 변수로 지정해서 일자가 많더라도 코드를 줄일 수 있을거 같은데 SQL에서 상수를 변수로 지정할 수 있을까요? 예컨대 일수 = x 로 지정해서 x만 바꾸면 query의 변수도 자동으로 바뀌어 코드의 재사용이 가능하게 만들 수 있는지요? (사진)
- 0
- 2
- 394
질문&답변
2022.07.30
Scrapy 다양한 사용법: Scrapy 로 네이버 Open API 크롤링하기2 [12:12]
질문자분 궁금증은 강의에 나온 를 써서 특수문자처럼 생긴 태그를 없앴는데 뒤에 []대괄호는 왜 안없어지냐고 물어보신거 같네요 는 1개 이상의 whitespace를 제거하는 정규표현식이고 찾아보니 p tag는 whitespace를 만든다고하네요 그래서 ptag만 제거된것같습니다 The tag generates a paragraph break. It is applied to a section of text that is a block of text separated from nearby blocks of text by a blank space and/or first-line indent.
- 0
- 2
- 262
질문&답변
2022.07.30
아래분(phantele47)과 동일한 문제가 발생해서 문의드립니다.
저도 body_as_unicode()가 안먹네요 위에써주신 text로 변경해서 실습했습니다
- 0
- 6
- 670
질문&답변
2022.07.26
2-8-1 네이버이미지 크롤링 질문
말씀해주신 디코드코드를 활용하여 셀레니움 없이 이미지 다운로드 만들어봤습니다 스크롤 없이 보이는것만 다운로드되는거라 49~50개정도 다운되더라구요 브라우저를 스크롤 한 이후에 파서하면 더 다운로드될것같습니다 셀레니움없이 스크롤도 가능할까요??? 궁극적으로는 네이버 이미지검색에 직접 "사자" 같은 query를 날려서 결과를 받아오는 방법을 알고 싶습니다 from bs4 import BeautifulSoup import urllib.request as req import urllib.parse as rep import sys import io import os from urllib import parse sys.stdout = io.TextIOWrapper(sys.stdout.detach(), encoding='utf-8') sys.stderr = io.TextIOWrapper(sys.stderr.detach(), encoding='utf-8') opener = req.build_opener() opener.addheaders = [('User-agent', 'Mozilla/5.0')] req.install_opener(opener) base = "https://search.naver.com/search.naver?where=image&sm=tab_jum&query=" quote = rep.quote_plus("사자") url = base + quote res = req.urlopen(url) savePath = "./imagedown" # C:\imagedown\ try: if not (os.path.isdir(savePath)): os.makedirs(os.path.join(savePath)) except OSError as e: if e.errno != errno.EEXIST: print("폴더 만들기 실패!") raise soup = BeautifulSoup(res, "html.parser") # naver 이미지 검색결과에서 이미지url parser하기 a = soup.select("#main_pack > script:nth-child(10)") b = a[0].text c = b.split(",") d = [x.strip() for x in c] e = [x for x in d if x.startswith("\"originalUrl\":")] f = [x.replace("\"", "") for x in e] img_list = [] for i in range(len(f)): encoded_url =f[i].split(":")[1] #parser한 이미지 url decoding하기 decoded_url = parse.unquote(encoded_url, encoding="utf-8") img_list.append(decoded_url) for i, img_list in enumerate(img_list, 1): fullFileName = os.path.join(savePath, savePath + str(i) + '.jpg') req.urlretrieve(img_list, fullFileName) print("다운로드 완료")
- 1
- 3
- 276