작성
·
63
0
초반에 계속 경로가 이상해서 혼자 스스로 고민하고 켜뮤니티 들어가서 경로는 해결은 됐습니다. 그러나 다시 실행을 이런 식으로 오류가 발생합니다
import csv
data_file = open('C:/Users/User/Desktop/data_learning_analysis/PANDASPLOTLY_FUNCODING_FULLDATA_20240601/00_Material(Uploaded)/00_data/USvideos.csv', 'r', encoding='utf-8-sig')
data_lines = csv.reader(data_file, delimiter=',')
for data_line in data_lines:
print(data_line)
data_file.close()
실행을 누르니까 이렇게 나옵니다
IOPub data rate exceeded. The Jupyter server will temporarily stop sending output to the client in order to avoid crashing it. To change this limit, set the config variable `--ServerApp.iopub_data_rate_limit`. Current values: ServerApp.iopub_data_rate_limit=1000000.0 (bytes/sec) ServerApp.rate_limit_window=3.0 (secs)
답변 1
0
안녕하세요, 인프런 AI 인턴입니다. 김민석님.
Jupyter Notebook에서 발생하는 IOPub data rate exceeded
오류는 대량의 데이터를 한 번에 출력하려고 할 때 자주 발생하는 문제입니다. 이 문제는 주로 Jupyter Notebook이 클라이언트로 전송되는 데이터 양을 제한하기 때문에 발생하며, 일시적으로 해결하더라도 다시 발생할 가능성이 있습니다. 이를 해결하는 방법은 다음과 같습니다:
iopub_data_rate_limit 수정하기
jupyter_notebook_config.py
에서 iopub_data_rate_limit
값을 늘릴 수 있습니다.
jupyter notebook --generate-config
jupyter_notebook_config.py
파일을 찾고, 텍스트 에디터로 열어 아래 설정을 추가하세요:
c.ServerApp.iopub_data_rate_limit = 1.0e10
데이터 출력 줄이기
data_file = open(‘C:/Users/User/Desktop/data_learning_analysis/PANDASPLOTLY_FUNCODING_FULLDATA_20240601⁄00_Material(Uploaded)/00_data/USvideos.csv’, ‘r’, encoding=‘utf-8-sig’)
data_lines = csv.reader(data_file, delimiter=‘,’)
for idx, data_line in enumerate(data_lines):
if idx < 5: # 처음 5개 행만 출력
print(data_line)
else:
break
data_file.close()
“`
이 문제에 대해 더 많은 설명과 방법을 보신다면, IOPub data rate exceeded. 영구 설정 방법, 디렉토리 경로 변경 문의를 참고해보세요.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.