딥러닝 CNN 완벽 가이드 - Pytorch 버전
₩110,000
초급 / 딥러닝, PyTorch, CNN, Kaggle, 컴퓨터 비전
5.0
(18)
딥러닝·CNN 핵심 이론부터 다양한 CNN 모델 구현 방법, 실전 문제를 통한 실무 딥러닝 개발 노하우까지, Pytorch 기반의 딥러닝 CNN 기술 전문가로 거듭나고 싶다면 이 강의와 함께하세요 :)
초급
딥러닝, PyTorch, CNN
(전) 엔코아 컨설팅
(전) 한국 오라클
AI 프리랜서 컨설턴트
파이썬 머신러닝 완벽 가이드 저자
딥러닝 CNN 완벽 가이드 - Pytorch 버전
₩110,000
초급 / 딥러닝, PyTorch, CNN, Kaggle, 컴퓨터 비전
5.0
(18)
딥러닝·CNN 핵심 이론부터 다양한 CNN 모델 구현 방법, 실전 문제를 통한 실무 딥러닝 개발 노하우까지, Pytorch 기반의 딥러닝 CNN 기술 전문가로 거듭나고 싶다면 이 강의와 함께하세요 :)
초급
딥러닝, PyTorch, CNN
FastAPI 완벽 가이드
₩77,000
중급이상 / Python, FastAPI, SQL, SQLAlchemy
4.9
(35)
본 강의는 FastAPI의 핵심 기능과 함께, 웹서비스 개발의 전 과정을 익힐 수 있도록 구성 하였습니다. 본 강의를 통해 여러분을 현장에서 필요로 하는 FastAPI 전문 개발자로 발돋움 시켜 드릴 것입니다.
중급이상
Python, FastAPI, SQL
카프카 완벽 가이드 - ksqlDB
₩99,000
중급이상 / Kafka, ksqlDB, 데이터 엔지니어링
4.8
(16)
본 강의는 ksqlDB의 활용과 핵심 메커니즘을 다양한 실습을 통해 익힐 수 있게 구성되어 있습니다. 강의를 마치고 나면 여러분은 Kafka(카프카) 기반의 실시간 Streaming 데이터 분석 시스템을 쉽고 빠르게 구축하실 수 있게 됩니다.
중급이상
Kafka, ksqlDB, 데이터 엔지니어링
카프카 완벽 가이드 - 커넥트(Connect) 편
₩99,000
중급이상 / Kafka, 데이터 엔지니어링
4.9
(24)
카프카 커넥트(Kafka Connect)에 대한 깊이 있는 이론 설명과 현업에서 바로 사용될 수 있는 수준의 상세한 실습을 통해 여러분을 현장에서 필요로 하는 카프카 커넥트 기반의 데이터 연동 및 데이터 파이프라인 구축 전문가로 성장시켜 드릴 것입니다.
중급이상
Kafka, 데이터 엔지니어링
카프카 완벽 가이드 - 코어편
₩99,000
중급이상 / Kafka, 데이터 엔지니어링
4.9
(83)
카프카(Kafka)의 핵심부터 내부 메커니즘에 대한 심화 수준의 내용까지, 상세한 이론 설명과 핸즈온 실습 & 실전 카프카 애플리케이션 개발 실습을 통해 카프카를 시작하는 사람도 단숨에 전문가 레벨로 도달할 수 있도록 강의를 구성했습니다.
중급이상
Kafka, 데이터 엔지니어링
다양한 사례로 익히는 SQL 데이터 분석
₩88,000
중급이상 / SQL, PostgreSQL, DBMS/RDBMS, 퍼포먼스 마케팅, 데이터 엔지니어링
5.0
(41)
다양한 실전 데이터 분석 사례를 SQL을 통해 구현해 나가면서 데이터 분석 능력과 SQL 활용 능력을 동시에 향상 시킬 수 있습니다.
중급이상
SQL, PostgreSQL, DBMS/RDBMS
질문&답변
HDD가 아닌 SSD인 경우는 dBMS I/O가 어떻게 동작하나요?
안녕하십니까, DBMS가 HDD와 SSD의 차이를 인지하고 DBMS I/O 동작이 달라지지는 않습니다. SSD가 물리적으로 HDD보다 Random I/O가 더 빠를 뿐입니다. 감사합니다.
질문&답변
Debezium 이벤트 메시지 발행 시 성공여부
안녕하십니까, 먼저 아래 인프런 AI 답변 중 Dead Queue Letter는 Sink Connector 일 때 적용할 수 있습니다. Debezium Source Connector에서는 Dead Queue Letter 방식으로 오류를 처리할 수 없습니다. 질문을 잘 이해하지 못했습니다만, 질문하신 '재처리'라는게 어떤 처리를 의미하는 건지요? 오류가 발생한 상황에서의 재처리를 의미하신것 같은데, 어떤 오류 상황이고(예를 들어 binlog가 손상되었는데, 이게 복구가 완료되었다거나), 어떤 재처리 인지 좀 더 명확하게 말씀해 주시겠습니까? 그리고, "재처리를 위해 SourceDB 또는 별도 로그성 테이블에 메시지발행에 대한 상태를 기록하고 싶을 경우, 커넥터로부터 메시지발행 성공에 대한 응답을 받을 수 있을까요?"라는 의미가 Source Connector가 Source DB로 부터 update된 데이터 변경을 Kafka topic에 기록하는 것 외에 log sequence 레벨로 성공/실패 여부만 별도의 로그나 db에 기록하는 방법을 물어보시는 건지요? 만약에 그렇다면, debezium을 사용하시면 connector에서 로그 메시지 남기는 것 외에 말씀하신 방식으로 별도 저장하는 방법이 없습니다. 감사합니다.
질문&답변
강의에서 사용하는 pdf or ppt자료는 따로 없는 건가요?
안녕하십니까, 아쉽게도 교안은 제공되지 않습니다. 온라인 강의 만들때 출판사와의 협약으로 별도로 제공되지 않으니, 양해 부탁드립니다. 감사합니다.
질문&답변
connect 구동 오류
안녕하십니까,오, 해결하셨군요.적어주신대로 Kafka를 재 초기화 하시면 실습 하실 때 문제는 없어질 것 입니다. 좀 더 자세한 내용은 섹션 4의 49. Kafka 실습 환경 전체 초기화 하기 를 참조해 주시면 됩니다.그리고 Retrying to fetch metadata 오류는 Connect에서 Kafka Broker 에 제대로 접속하지 못해서 발생하는 오류인데, 워낙 다양한 원인이 있어서 해결방법은 뭐라 제시하기가 어렵군요.bootstrap 설정, Network 연결등에 문제가 없을 경우에 Connect 초기화 먼저 시도해 보는 것도 방법일 수 있습니다. 좀 더 자세한 해결 방법은 zookeeper, kafka broker, connect의 log file들을 더 분석해 보고서 알아볼 수 있을 것 같지만, 기본적으로는 Connect Client가 Kafka Topic에 access할 때 발생하는 문제입니다. Connect 초기화로 안되면 해당 Connector가 access하는 Kafka Topic에 대해서 초기화가 필요할 수 있습니다. 감사합니다.
질문&답변
cnt/max로 구한 결과의 차이
안녕하십니까, 첫번째 이유는 window 절이 다릅니다. rows between unbounded preceding and unbounded following을 사용하지 않았기 때문에 max(hit_seq)가 window를 session_id 내에서 순차적으로 이동하면서 계산하기 때문에 계산 결과가 다릅니다. 두번째 이유는 아래 인프런 AI 인턴이 잘 답변해 주었군요. 그대로 인용해 보면, max(hit_seq) over (partition by sess_id order by hit_seq desc):이 방법은 각 sess_id 그룹에서 hit_seq의 최대값을 구합니다. 여기서 hit_seq가 동일한 세션 내에서 고유의 값이 아닐 경우, 최대값을 사용하는 것은 오해를 불러일으킬 수 있습니다.예를 들어, hit_seq의 값이 실제로 누락되거나 비연속적으로 증가하는 경우가 있을 수 있습니다. 그럴 경우 최대값과 실제 개수 간의 차이가 발생할 수 있습니다. 그러니까, hit_seq가 보통은 순차적으로 생성이 되지만, 만에 하나 그렇게 나오지 않을 수가 있습니다. 예를 들어 데이터를 생성하는 application에서 잘못해서 hit_seq를 연속적으로 입력하지 못하거나, 또는 중간에 값이 빠진 상태로(1, 2, 그리고 5로) 만들어 질 수 있습니다. 그렇기 때문에 max(hit_seq)와 같이 적용하시면 정확한 답이 안 나올 수 있습니다. 감사합니다.
질문&답변
FastAPI + Uvicorn 환경에서 메모리 누수 관련 문의드립니다.
안녕하십니까, 1, 2, 3번 한꺼번에 답변 드리겠습니다.FastAPI 메모리 누수는 금시초문 이군요. FastAPI는 이미 많은 사이트에서 안정적으로 사용되고 있습니다. 메모리 누수 걱정은 안 하셔도 될 것 같습니다. 웹 애플리케이션의 대부분 메모리 문제는 웹프레임워크(FastAPI, Spring등)의 문제가 아니라 사용자 코드에서 자원을 얻었다고 해제 시켜주지 않아서 발생하는 문제입니다( 대표적으로 DB Connection을 제대로 반환해주지 않는 경우 등). 강의에서 이런 부분에 대해서 중점적으로 말씀 드리고 있습니다. DB Connection을 사용하는 애플리케이션이라면 이 부분을 다시 확인해 보십시요.근데 LLM을 사용하는 애플리케이션에서 문제라면 CPU의 메모리가 문제인건가요? GPU의 메모리가 문제인건가요? (GPU 메모리가 문제라 질문을 올리셨을 것 같진 않지만) GPU 메모리가 문제라면 이건 모델 크기나 양자화로 해결하셔야 합니다.application에서 적은 용량이지만 반복적으로 사용하는데 리소스를 해제하지 않아서 메모리를 과대 사용하는 건지, 아님 원래부터 llm모델을 로딩하거나 inference 시에 과도한 메모리를 사용하고 있는 건지 먼저 확인해 보셔야 할 것 같습니다. Endpoint 레벨에서 메모리 사용량 체크하는 로직을 추가해서 테스트를 해보시는 게 좋을 것 같습니다.감사합니다.
질문&답변
모델 변환 성능 질문드립니다.
안녕하십니까,(이미 잘 알고 계시겠지만) 생각보다 tflite 성능이 잘 나오지 않습니다. 특히나 작은 오브젝트를 Detect하는 경우는 더욱 더 성능이 떨어집니다.작업하신 모델의 성능 저하 원인이 tflite 자체 성능의 문제인지, 아님 ONNX -> tflite 변환의 문제인지는 테스트를 해보셔야 할 것 같습니다.제 생각엔 pytorch 모델을 일단 사용하지 마시고, tensorflow 기반인 EfficientDet (또는 EfficientDet Lite)모델로 학습을 하신 뒤 이를 tflite 로 변환하여 성능을 먼저 보시면 어떨까 싶습니다. 이게 성능이 안난다면 Custom 학습된 모델 자체가 성능이 더 높아야 할 것 같습니다.만약에 해당 모델이 성능이 어느정도 난다면, pytorch model -> ONNX -> tensorflow -> tflite 과정에서 어느정도 모델이 잘못 변환될 가능성이 있을 것 같습니다. 감사합니다.
질문&답변
feature map 크기 질문
안녕하십니까, 5x5 밑에 보시면 same이라고 되어 있습니다. 이거는 padding이 same 이 적용되었다는 의미 입니다. 즉 27x27x96에 5x5 커널을 적용하더라도 27x27이 되도록 padding을 키운다는 의미 입니다(여기서는 padding을 2로 적용하면 됩니다). 그래서 size 면적 크기가 27x27x256 이 됩니다. 감사합니다.
질문&답변
실루엣 스코어..
안녕하십니까,질문 내용을 잘 이해하지 못했습니다. Graph attention network은 저는 잘 모릅니다가급적 강의 내용에서 질문 부탁드립니다. 강의 외적인 부분도 답변은 드리지만, 아쉽게도 본 질문은 제가 잘 모르는 내용이라 답변을 드리기가 어렵군요(혹 아래 인프런 AI 인턴이 도움이 되었으면 하는 바램이 있습니다)감사합니다.
질문&답변
float64 null 값 처리 방법
안녕하십니까, Colab 환경의 Pandas 버전이 실습 버전과 달라서 그런것 같은데, 아래 코드가 float64일때 제대로 동작하지 않는 것 같습니다. # object가 아닌 number 타입을 별도 리스트로 추출 num_columns=house_df.dtypes[house_df.dtypes!='object'].index.to_list() # Drop 하지 않는 number 타입 컬럼들에 대해서 Null컬럼들은 평균값으로 대체 house_df[num_columns].fillna(house_df[num_columns].mean(),inplace=True)아래와 같이 코드를 변경해 보시지요. num_columns = house_df.dtypes[house_df.dtypes != 'object'].index.to_list()# number 타입 컬럼들에 대해서 Null컬럼들은 평균값으로 대체for column in num_columns: house_df[column].fillna(house_df[column].mean(),inplace=True) 감사합니다.