묻고 답해요
150만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
순위 정보를
불러오고 있어요
-
해결됨파이썬으로 나만의 블로그 자동화 프로그램 만들기
25-3-08 키워드 경쟁강도 분석코드설계
25-3-08 키워드 경쟁강도 분석코드설계 이거 소스코드는어디에잇나요?카페에도없는거같아서요
-
미해결실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
안녕하세요 쿠팡 크롤링 막힌거 같아요 3번돌리니깐 막았어요 해결방법없을까요?
강의 내용 외 개인적인 실습 사이트의 질문은 답변이 제공되지 않습니다.문제가 생긴 코드, 에러 메세지 등을 꼭 같이 올려주셔야 빠른 답변이 가능합니다.코드를 이미지로 올려주시면 실행이 불가능하기 때문에 답변이 어렵습니다.답변은 바로 제공되지 않을 수 있습니다.실력 향상을 위해서는 직접 고민하고 검색해가며 해결하는 게 가장 좋습니다.
-
해결됨파이썬으로 나만의 블로그 자동화 프로그램 만들기
너무 어려워요....이해가 너무안되네요.
너무 어려워서 이해가 너무안되요 누구나 할수 있다고 하셧는데 누구나는 아닌것 같네요....
-
미해결[신규 개정판] 이것이 진짜 엑셀자동화다 - 기본편
전자는 보안때매 안되나요?
전자 사업장입니다. 커널선택에서 안되는데 보안때매 안되는건가요?
-
미해결실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
쿠팡 BeautifullSoup 헤더넣어도 막히네요
headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/133.0.0.0 Safari/537.36', "accept-language": "ko,en-US;q=0.9,en;q=0.8", "accept-encoding" : "gzip, deflate, br, zstd", "cache-control" : "max-age=0" } 위와 같이 헤더를 넣어도....타임아웃으로 나오지 않더라구요이제는 헤더만으로는 못할 거 같은데 셀레니움 외 방법이 없을까요 ㅠㅠ
-
해결됨파이썬으로 나만의 블로그 자동화 프로그램 만들기
open ai api키 사용하는거 무료인가요?
open ai api키 사용하는거 무료인가요?주시기 바랍니다.
-
미해결[신규 개정판] 이것이 진짜 엑셀자동화다 - 기본편
보고서, 데이터, 계산서 자동 정리 프로그램 오류
import os, glob, shutil keyword_list = ['보고서','데이터','계산서'] for keyword in keyword_list: file_list = glob.glob(rf'C:\Users\sonji\OneDrive\문서\공유폴더\*{keyword}*') if not os.path.exists(rf'C:\Users\sonji\OneDrive\문서\공유폴더\{keyword}파일'): os.mkdir(rf'C:\Users\sonji\OneDrive\문서\공유폴더\{keyword}파일') for file in file_list: shutil.move(file, rf'C:\Users\sonji\OneDrive\문서\공유폴더\{keyword}파일')코드는 맞게 작성한 듯 한데요계산서 부분만 폴더가 알맞게 들어가고 나머지 보고서, 데이터 폴더는 아얘 파일이 안 채워지네요 ㅡㅜ
-
해결됨파이썬으로 나만의 블로그 자동화 프로그램 만들기
ID태크와 Class 태그
안녕하세요.driver.find_element(By.CSS_SELECTOR, "#id").click()아이디 패스워드부분을 작성하실때는 #id 를 사용하시고다른 버튼 및 선택 부분은 .class를 사용하시는데 차이가 있을까요? 개발자도구에서 ID 부분에서 ID도 있지만 class도 있어서요. ID가 명시되어 있다면 ID로 하면되고 그렇지 않다면 Class를 넣어서 사용하면 될까요?
-
해결됨파이썬으로 나만의 블로그 자동화 프로그램 만들기
셀레니움 설치 후 from , import 안되요.
안녕하세요.셀레니움 설치후 from 명령어에도 안뜨고 실행도 안됩니다. 확인해야할 부분이 어딘지 알려주실수 있으실까요?
-
해결됨파이썬으로 나만의 블로그 자동화 프로그램 만들기
vscode말고 cursor ai사용해도 되나요
vs코드랑 cursor랑 다른거죠..? vs코드에 ai 랑 이거저거 붙이면 cursor되는걸로 아는데 제가 이해를 제대로 한게 맞을까요.. 코드 완전 초보라 암것도 몰라요;
-
해결됨파이썬으로 나만의 블로그 자동화 프로그램 만들기
쿠팡 파트너스 API 키 발급은 어떻게 받나요?
쿠팡 파트너스 API 키 발급은 어떻게 받나요? 확인해보니 파트너로 등록하고 최소 15만원 정도 판매해야 파트너스 API가 발급되는거같은데, 어떻게 해야되는건지 궁금합니다.
-
미해결파이썬 무료 강의 (활용편3) - 웹 스크래핑 (5시간)
selenium 업그레이드됨... 문법도 바뀜
기존 강의에서elem = browser.find_element_by_id("query")였는데이제는elem = browser.find_element("id","query")이렇게 작성해야함 ㅜㅜ계속 AttributeError 떠서 미치는줄 알았는데 구글링해서 찾다보니 나와서 써보니 문법이 바뀐거였음
-
미해결3분만에 1000명 DB 확보하는 DB 추출기 프로그램 개발 강의 (셀레니움 + pyqt + gui + exe 프로그램)
제목에 exe 프로그램도 써져있는데 내용이 없어요 수료증 출력이 안돼요
제목에 exe 프로그램도 써져있는데 내용이 없어요 수료증 출력이 안돼요
-
미해결블로그 자동화 프로그램 개발 강의 (파이썬 + 셀레니움)
아래 질문의 추가 캡쳐본입니다.
-
미해결블로그 자동화 프로그램 개발 강의 (파이썬 + 셀레니움)
오류 질문있습니다
지금 현재 from import에서 가져올수 없다는 오류가 계속 있습니다.
-
미해결LLM 데이터 분석 - 웹 크롤링부터 추천 시스템까지
YouTubeSearchTool 에러
YouTubeSearchTool 사용시requests.exceptions.HTTPError: 403 Client Error:Forbidden for url: https://api.ydc-index.io/search?query= 에러가 납니다.
-
미해결LLM 데이터 분석 - 웹 크롤링부터 추천 시스템까지
selenium chrome driver click시 화면이 공백으로 나옵니다.
from selenium.webdriver.common.by import Byeconomy = driver.find_element(By.CSS_SELECTOR,'#gnbContent > div > ul > li:nth-child(4) > a > span')economyeconomy.click()driver.implicitly_wait(5)시 화면이 공백으로 나오네요
-
미해결실습으로 끝장내는 웹 크롤링과 웹 페이지 자동화 & 실전 활용
네이버 쇼핑 크롤링 1 코드 사용 시, 접속 제한됐을 때의 해결 방법이 궁금합니다.
import requests from bs4 import BeautifulSoup keyword = input("검색할 상품을 입력하세요 : ") url = f"https://search.shopping.naver.com/search/all?&query={keyword}" user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36" headers = {"User-Agent" : user_agent} req = requests.get(url, headers=headers) html = req.text soup = BeautifulSoup(html, "html.parser") print(soup)위 코드 사용 시 아래와 같은 결과가 나타납니다.keyword = input("검색할 상품을 입력하세요 : ") url = f"https://search.shopping.naver.com/search/all?&query={keyword}" user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36" headers = {"User-Agent" : user_agent} req = requests.get(url, headers=headers) # req = requests.get(url, headers=headers) # print(req.request.headers) html = req.text soup = BeautifulSoup(html, "html.parser") print(soup)<title>네이버쇼핑</title></head><body><div class="content_error"><div class="head">쇼핑 서비스 접속이 일시적으로 제한되었습니다. </div><div class="desc">네이버는 안정적인 쇼핑 서비스 제공하고자 시스템을 통해 아래와 같은 비정상적인 접근이 감지될 경우 해당 네트워크의 접속을 일시적으로 제한하고 있습니다.</div><ul class="reason"><li>상품 구매, 탐색과 무관한 외부 이벤트를 통한 접속</li><li>짧은 시간 내에 너무 많은 요청이 이루어진 IP</li><li>VPN을 사용하여 접속한 IP</li><li>특정 확장 프로그램 이용 시</li></ul><div class="footer">위와 같은 접근이 아님에도 접속이 제한된 경우,네이버앱을 업데이트 또는 <a href="https://help.naver.com/service/30016/category/5278" target="_blank"> 원클릭 진단</a>을 부탁드립니다.<br/> 해당 방법을 통해서도 접속이 불가한 경우 <a href="https://help.pay.naver.com/mail/form.help?alias=shopping_stop" target="_blank">네 이버쇼핑 고객센터</a>로 문의 부탁드립니다.</div></div></body></html>이런 상황에서 대안이 있을까요?
-
미해결[신규 개정판] 이것이 진짜 엑셀자동화다 - 기본편
사이트 접속 후 로그인 버튼 클릭 시 문제점
파이썬 입문자로서 강의 잘 듣고 있습니다!해당 강의 중 잘 안되는 게 있어서 문의 드립니다. 해당 사이트에 접속 후 로그인 버튼을 눌러야 하는 데 클릭을 안해서 time.sleep(3)을 했는데도 제대로 작동을 안하는데 잘못된 것이 있을까요?
-
미해결파이썬 무료 강의 (활용편3) - 웹 스크래핑 (5시간)
2024.08.28 수요일 기준 날씨 정보 가져오기 소스코드입니다 (참고하세요 : ) )
개인적으로 만든거다 보니, 부족한 면이 많습니다. 헷갈리시는 분들이나 조금 어렵다고 느껴지는 분들을 위해서 공유해드려요 !import requests from bs4 import BeautifulSoup ''' [오늘의 날씨] 흐림, 어제보다 00도 높아요 현재 00도 (최저 00도 / 최고 00도) 오전 강수확률 00% / 오후 강수확률 00% 미세먼지 좋음 초미세먼지 좋음 ''' def scrape_weather(): print("[오늘의 날씨]") url = "https://search.naver.com/search.naver?where=nexearch&sm=top_hty&fbm=0&ie=utf8&query=%EB%82%A0%EC%94%A8" res = requests.get(url) res.raise_for_status() soup = BeautifulSoup(res.text, "lxml") cast = soup.find("p", class_="summary").get_text() curr_temp = soup.find("div", class_="temperature_text").get_text().replace("현재 온도", "") # 현재온도 targets = soup.find_all("li", class_="week_item today") min_temp = targets[0].find("span", class_="lowest").get_text() # 최저 온도 max_temp = targets[0].find("span", class_="highest").get_text() # 최고 온도 morning_and_afternoon = targets[0].find_all("span", class_="weather_left") morning_rain_rate = morning_and_afternoon[0].get_text() # 오전 강수확률 afternoon_rain_rate = morning_and_afternoon[1].get_text() # 오후 강수확률 dust_list = soup.find_all("li", class_="item_today") pm10 = dust_list[0].get_text() # 미세먼지 pm25 = dust_list[1].get_text() # 초미세먼지 # 출력 print(cast) print(f"현재 {curr_temp} ({min_temp} / {max_temp})") print(f"강수확률 {morning_rain_rate.strip()} / {afternoon_rain_rate.strip()}") print() print(f"{pm10.strip()}") print(f"{pm25.strip()}") print() if __name__ == "__main__": scrape_weather() # 오늘의 날씨 정보 가져오기
주간 인기글
순위 정보를
불러오고 있어요