묻고 답해요
150만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
순위 정보를
불러오고 있어요
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
질문드립니다.
안녕하세요 강의 잘듣고 있습니다. 감사합니다.실습 내용 중에 질문이 있습니다.워드클라우드 그리는 예시에서 워드클라우드에서 '했다', '하는', '한다' ,' 밝혔다' 이런 동사 형태가 많이 보이는데 어떻게 해결 해야 할까요?워드클라우드에서 '인공지능'이 '인공', '지능' 으로 분리되어 나타나는데 '인공지능'으로 합쳐서 집계되고 표현되게 하려면 어떻게 하나요?'오늘', '현재', '한국', 오후' 이런 단어는 지우고 싶은데 어떻게 하면 되나요? 전처리 과정을 어떻게 해야하는지 궁금합니다..!답변 부탁드립니다. 감사합니다.
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
감성 분석을 하려면 어떤 부분을 공부해야 하나요?
프로젝트에서 감성 분석과 주제 찾는 작업이 필요합니다.주제 찾기는 강의를 통해 배울수 있을거 같은데요 감성 분석은 어떤것을 공부하면 좋을까요?
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
Ucinet 활용한 CONCOR 데이터 추출이 안 돼요
안녕하세요!강의를 통해 연구논문을 작성하는데 큰 도움을 받고 있습니다. 정말 감사드립니다. 다름이 아니라 Ucinet 활용한 CONCOR(군집분석) 데이터 추출할 때 어려운 점이 있어 문의드립니다.CONCOR용 데이터 추출 할 때, CCpart CCperm Concor1st 데이터를 바탕화면에 저장하고자 파일 경로를 입력한 후에 OK 버튼을 누르면 Concor1st만 저장이 되고 나머지 2개의 파일은 저장이 안 되네요. 그래서 다음 단계로 진행하기가 어렵습니다. 이 문제를 어떻게 해결할 수 있을까요? ConcorCCpart만 따로 저장할 수 있는 방법도 있을까요?답변 주시면 감사하겠습니다!
-
미해결[실전]텍스톰 TEXTOM 실전 강의: 빅데이터 논문 작성을 위한 텍스트 분석/텍스트마이닝
맥북은 ucinet사용이 제한되나요?
맥북사용자입니다. Ucinet이 깔리지 않아 방법 여쭙니다. 그리고 강의 내용과 현재텍스톰 매뉴얼이 바뀌었네요,혹시 바뀐 버전으로 강의를 들을 수는없는지도 같이 여쭙니다.
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
pyLDAvis 오류
제공해주신 idavis 오류 파일을 실행하면 시각화가 되는데, 기존파일에 내용을 붙여서 실행하면 안되는 이유는 뭘까요?오류 내용 첨부해 드립니다.
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
수업자료 다운로드 링크 에러
안녕하세요 강사님,수업자료를 다운로드하려고 하는데 이론 슬라이드 다운로드 링크 연결이 안됩니다.bitly 시스템에서 블락되었다고 뜨는데 확인부탁드려요.
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
BERTopic에 대해서 질문드립니다.
-강의 내용이나 궁금증이 있으시면 질문해 주세요! BERTopic을 할때는 데이터가 LDA를 할 때 처럼 형태소 분석된 데이터가 아닌원본 데이터를 그대로 입력으로 줘야 하나요?데이터는 동일하게 빅카인즈입니다.
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
TF-IDF값에 대해서 질문드립니다.
안녕하세요저도 동일하게 빅카인드 뉴스데이터로TF-IDF 분석을 하다 본 강의를 알게되었는데 TF-IDF 값이 주신 자료의 코드로 분석은 되는데값이 크게 나온 이유가 뭘까요? 강의자료의 예시 파일로 3자리 숫자가 나오는데통상 0.몇의 숫자로 표현되지 않나요? 코드의 계산식을 이용해서 값이 나온 결과를 설명해주세요
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
모두의 한국어 텍스트 분석과 자연어처리 with 파이썬 -> 섹션 3 부터 재생이 안됩니다.
안녕하세요.모두의 한국어 텍스트 분석과 자연어처리 with 파이썬위 과정을 수강중에 있는데요.. 섹션 3부터 재생이 안됩니다..
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
수업 자료 관련
안녕하세요, 수업 자료 어디에서 다운 받을 수 있나요?
-
미해결[실전]텍스톰 TEXTOM 실전 강의: 빅데이터 논문 작성을 위한 텍스트 분석/텍스트마이닝
텍스톰으로 Bertopic을 사용할 수는 없나요?
이제 논문을 준비해야 하는데 최근에 Bertopic을 사용한 논문이 많이 보이더라구요. 혹시 텍스톰으로 Bertopic 방법을 사용할 수 있을까요? 만약 불가능하다면 파이썬에 대한 지식이 없는 초보자가 bertopic 방법을 사용하기는 힘들까요? 바쁘시겠지만 답변 부탁드립니다 감사합니다
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
0204 쇼핑 리뷰 군집화 - KMeans, Elbow, Silhouette 분석 강의 질문있습니다.
0204 쇼핑 리뷰 군집화 - KMeans, Elbow, Silhouette 분석 강의 질문있습니다.강의에서는 Silhouette 이 부분이 1과 가까워지는 부분에서 좋은 n_cluster라고 하셨는데 그러면Elbow 차트 말고 Silhouette 만 써도 되는건가요?0204 쇼핑 리뷰 군집화 결과 분석 - 실제 제품과 군집 교차표 분석 4분 16초에 k.meanslabel==pardict를 하는 이유가 뭔가요? 라벨링 개수와 학습한 개수를 같은지 확인하는 이유가 궁금합니다.
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
load_metric 에러 발생
from datasets import load_metricImportError: cannot import name 'load_metric' from 'datasets' (/usr/local/lib/python3.10/dist-packages/datasets/__init__.py) datasets에서 load_metric을 불러오려고 하는데 위와 같은 에러가 발생합니다. 계속 삽질하고 있는데 방법을 찾기가 쉽지가 않네요ㅠ 도움 부탁드립니다.
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
원하는 결과를 얻기 위한 데이터 전처리 관련
안녕하세요word_count 파일을 가지고 전처리를 하기 위해 유사어나 제외어를 처리를 위해 library파일을 만들었습니다A 컬럼에는 제외할 키워드를 지정하고 B 칼럼에는 빈 공간을 두었습니다그리고 유사어 경우 A컬럼에는 '국가' B칼럼에는 '나라' 를 기입했습니다. 그리고 제공해준 대로 코딩을 해서 키워드 빈도나 워드 크라우드를 실행해도 수정되지 않은 결과가 나옵니다(제외할 키워드, 수정할 키워드 반영이 안됨)왜 그런지 ? 어떤 과정이 문제인지 잘 모르겠습니다그리고 만약 유사어를 여러개를 지정할 때, 예를 들면 ' 지역주민'과 유사어가 '시민' , '주민' 등과 같이2개이상일 경우에는 어떻게 작성해야 하는지도 궁금합니다
-
미해결[실전]텍스톰 TEXTOM 실전 강의: 빅데이터 논문 작성을 위한 텍스트 분석/텍스트마이닝
포털과 학술데이터 모두 활용할때
안녕하세요 강사님!덕분에 텍스톰을 활용하여 학술논문 작성중입니다.포털과 학술 데이터를 통합하여 활용하고자 할때는 어떻게 해야하나요?
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
LDA 분석시 빈출 키워드 관련 질문드립니다.
안녕하세요 선생님LDA분석을 마치고 자료를 정리하는 중인데 빈출 키워드 관련 궁금한 점이 있어 질문 드립니다.LDA분석시 파이썬 코드에서 상위 10개 혹은 15개 빈출단어를 설정하고 실행하면 해당 단어와 가중치가 함께 출력이 됩니다.그리고 PyLDAvis 라이브러리로 시각화를 하면 오른쪽 단어 그래프 맨 상단에 Relevance 값을 조정하여 전체에서 빈출된 단어 혹은 특정 토픽에서만 빈출하는 단어의 목록을 변경해 가며 확인할 수 있는데궁금한 점은이때 상위 10개 혹은 15개 빈출 단어와 그래프에서 Relevance 값을 조정한 단어가 다르게 나오는데.. 둘 중 연구자가 판단해서 연구에 사용하기 적합한 것으로 사용해도 되는 걸까요?또 Relevance 값은 가중치 값이 표시되지 않는데 표시할 수 있는 방법(코드)이 있는지, 논문에서 표로 단어 내용을 제시할 때 어떻게 제시하면 좋을지 궁금해서 질문 드립니다.바쁘시겠지만 관련해서 답변 주시면 정말 감사하겠습니다!
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
강의에서 사용하는 csv 파일이 없습니다
0301 KLUE Dacon 데이터셋 소개, 텍스트 길이 분석강의에서 다루는 'topic_dict' csv 파일이 없습니다. 어디서 파일을 구할 수 있나요??
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
LDAvis 시각화가 되지 않습니다.
안녕하세요 선생님, 수업 잘 듣고 있습니다. 파이썬 기본 용어 하나도 모르는데 선생님꺼 강의 보면서 하나씩 따라가고 있습니다. 다름이 아니라 저도 LDAvis 시각화가 되지 않는데요, 오류 코드는 다음과 같습니다. +AI 답변 참고해서 업그레이드 했는데도 여전히 오류라고 뜹니다.ict'방법 알려주시면 감사하겠습니다! /usr/local/lib/python3.10/dist-packages/ipykernel/ipkernel.py:283: DeprecationWarning: `should_run_async` will not call `transform_cell` automatically in the future. Please pass the result to `transformed_cell` argument and any exception that happen during thetransform in `preprocessing_exc_tuple` in IPython 7.17 and above. and should_run_async(code) Requirement already satisfied: pandas in /usr/local/lib/python3.10/dist-packages (2.2.2) Requirement already satisfied: numpy>=1.22.4 in /usr/local/lib/python3.10/dist-packages (from pandas) (1.26.4) Requirement already satisfied: python-dateutil>=2.8.2 in /usr/local/lib/python3.10/dist-packages (from pandas) (2.8.2) Requirement already satisfied: pytz>=2020.1 in /usr/local/lib/python3.10/dist-packages (from pandas) (2023.4) Requirement already satisfied: tzdata>=2022.7 in /usr/local/lib/python3.10/dist-packages (from pandas) (2024.1) Requirement already satisfied: six>=1.5 in /usr/local/lib/python3.10/dist-packages (from python-dateutil>=2.8.2->pandas) (1.16.0) --------------------------------------------------------------------------- TypeError Traceback (most recent call last) /usr/local/lib/python3.10/dist-packages/IPython/core/formatters.py in __call__(self, obj) 339 pass 340 else: --> 341 return printer(obj) 342 # Finally look for special method names 343 method = get_real_method(obj, self.print_method) 4 frames/usr/local/lib/python3.10/dist-packages/pandas/core/frame.py in to_dict(self, orient, into, index) 1986 >>> df['C'] = pd.date_range('2000', periods=2) 1987 >>> df.to_numpy() -> 1988 array([[1, 3.0, Timestamp('2000-01-01 00:00:00')], 1989 [2, 4.5, Timestamp('2000-01-02 00:00:00')]], dtype=object) 1990 """ TypeError: to_dict() takes from 1 to 2 positional arguments but 4 were given
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
적합한 알고리즘이나 라이브러리를 알고싶습니다
안녕하세요제가 구현하고 싶은 내용은 업체명(상호)에서 특정한 문자열 포함여부에 따라 20가지로 분류하고자 합니다제 소견에 로지스틱 회귀 + softmax + 크로스 엔트로피로 하는 것이 효율적인 것 같은데 적용에 적합한 머신러닝 라이브러리나 알고리즘을 알고 싶고 더불어 관련 자료 또는 사례의 출처도 알려주시면 너무 감사하겠습니다
-
미해결빅데이터/텍스트마이닝 논문 작성법(LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
데이터 전처리 관련 질문드립니다.
안녕하세요 선생님데이터 전처리 과정에서 힘든점이 있어 한가지 여쭙고 싶어 질문드립니다.텍스트 마이닝의 경우 원본(예를 들어 리뷰 등) 데이터가 많게는 몇천건에서 수만건, 수십만건 까지 자료를 수집해서 분석할 수 있는데 한글의 경우 okt 분석기로 형태소 분석을 하고 나면 여전히 제대로 단어가 분리되지 않아 단어 정제, 불용어 제거, 단어 정규화 과정을 계속 거쳐야 하잖아요..그런데 원본 리뷰 데이터가 수천, 수만건일 경우 수천 수만건을 개인이 일일이 하나씩 봐가면서 전처리 작업을 진행해야 할 것 같은데 이 과정이 너무나 시간이 많이 소요되고 힘든 것 같습니다.데이터 전처리시 이렇게 하나씩 데이터를 봐가면서 정제작업을 거치는 것이 정상적인 진행과정인지 너무 궁금합니다. ㅠ질문 읽어주셔서 감사합니다!
주간 인기글
순위 정보를
불러오고 있어요