묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결[스프링 배치 입문] 예제로 배우는 핵심 Spring Batch
빌드가 실패해요 ㅠㅠ
안녕하세요!강의와는 조금 다르게 java11과 springboot 2.7.13(snapshot)으로 진행해봤는데요.빌드가 계속 실패합니다 ㅠhttps://github.com/chojuyeon94/SpringBatchTutorialorg.springframework.beans.factory.BeanCreationException: Error creating bean with name 'batchDataSourceInitializer' defined in class path resource [org/springframework/boot/autoconfigure/batch/BatchAutoConfiguration$DataSourceInitializerConfiguration.class]: Bean instantiation via factory method failed; nested exception is org.springframework.beans.BeanInstantiationException: Failed to instantiate [org.springframework.boot.autoconfigure.batch.BatchDataSourceScriptDatabaseInitializer]: Factory method 'batchDataSourceInitializer' threw exception; nested exception is java.lang.IllegalStateException: Unable to detect database type데이터베이스 타입을 찾을 수 없다고 나오는데요이게 데이터베이스에 연결이 잘 안되는거라고 해서 여러 방법을 써봤는데 잘 안되서 글 남깁니다!!
-
미해결스프링 배치
JobInstance 생성 및 실행에 대해서 질문이 있습니다.
안녕하세요. 7:32초 쯤에부터 말씀을 해주신 내용에 질문이 있습니다. 다음 강의인 JobParameter의 내용까지 모두 수강하고 해당 질문을 드리게 되었는데요."이전과 동일한 Job, 그 다음에 똑같은 JobParameter의 값으로 실행이 되면 이미 존재하는 JobInstance를 리턴하고, 결국엔 수행이 실패합니다""똑같은 Job과 똑같은 JobParameter의 내용으로 다시 수행할 필요가 없는거죠. 그럼 내용까지 똑같아 지니까"위와 같이 말씀을 해주셨는데 해당 말씀을 듣고, 똑같은 Parameter의 "값"을 가진다고 해도 Job이 수행이 되어야하는게 아닌가? 왜 실패처리를 하게 Spring Batch에서 구현을 해놓은거지?라는 의문이 들었습니다. 그리고 이러한 의문을 가졌을때는 JobParameter에 대한 실습을 진행하지 않았던 상태여서 JobParameter를 넘기지 않는것을 토대로 Job을 실행시켜보았는데 강사님의 말씀대로 최초 한번만 실행되고 그 이후로는 Job이 실행되지 않고 Database에 이미 완료되었다는 Error Message와 함께 데이터가 쌓이더군요.그래서 아 정말 그렇구나 JobParameter가 같으면("JobParameter가 없다"라는게 같음, 동일한 Job + Empty JobParameter) 실패처리를 하는구나라고 생각을 하고 강의 수강을 이어갔습니다.그리고 다음 강의에서 JobParameter에 총 4개의 Parameter를 가지고 Job을 실행하시는 것을 보여주셨습니다.name=user1seq=2date=2021/01/01age=16.5JobInstance 강의에서 배운 내용을 가진채로, 저는 해당 Parameter의 값으로 여러번 실행하면 에러가 날줄 알았는데 예상과는 다르게 저의 처음 예상(똑같은 Parameter의 "값"을 가진다고 해도 수행이 되어야하는게 아닌가?)대로 정상적으로 모두 실행이 되었습니다. 또한 JobParameter 강의에서 강사님께서도 같은 Parameter를 가지고 여러번 수행했을때(jar, InteliJ Configuration으로 실행 방법은 달랐지만 넘기는 Parameter는 같은) 정상적으로 해당 Job이 성공을 하는 Flow가 강의에 담겨있었습니다.배운것과 조금 다른것 같아서 아래 코드를 다시 살펴보았고, 동일한 Job + JobParameter의 "값"의 동일함이 아닌,동일한 Job + JobParameter "객체"의 동일 여부를 가지고 JobInstance의 생성 및 실행을 구분하는것이 아닌가라는 결론을 내게 되었습니다.@Override public void run(ApplicationArguments args) throws Exception { JobParameters jobParameters = new JobParametersBuilder() .addString("name", "user1") .addLong("seq", 2L) .addDate("date", new Date()) .addDouble("age", 16.5) .toJobParameters(); jobLauncher.run(job, jobParameters);위의 제 결론에 확신을 더 얻고자, 말도 안되는 코드인것 같지만 아래와 같이 수행을 해봤을때 IllegalStateException: Failed to execute ApplicationRunner 에러가 발생하였습니다.아래 코드의 의도는 동일한 jobParameters라는 객체를 가지고 같은 Job을 실행시켰을때 오류가 날것이다라는 가정이였고, 오류가 났으니 제 가정이 맞는것 같습니다.@Override public void run(ApplicationArguments args) throws Exception { JobParameters jobParameters = new JobParametersBuilder() .addString("name", "user1") .addLong("seq", 2L) .addDate("date", new Date()) .addDouble("age", 16.5) .toJobParameters(); jobLauncher.run(job, jobParameters); // 같은 jobParameters 객체를 가지고 한번 더 실행 jobLauncher.run(job, jobParameters);정리하자면, 동일한 Job + JobParameter의 "값"의 동일함이 아닌,동일한 Job + JobParameter "객체"의 동일 여부를 가지고 JobInstance의 생성 및 실행을 구분하는것이 맞는것 같다인데, 혹시 제 생각이 맞을까요? 실제로 BATCH_JOB_EXECUTION_PARAMS 테이블에서 Parameter값들은 계속 같은게 들어오지만 BATCH_JOB_INSTANCE 테이블의 JOB_KEY값은 계속 다르게 저장이되네요.
-
미해결스프링 배치
H2 데이터베이스 설정과 기본 Spring Batch 설정에 대해서 질문이 있습니다.
H2 데이터베이스 설정과, 배치 실행을 위한 Schema와 Table을 생성하는 설정은 생략하고 이번 수업을 진행하신걸까요?H2에 대한 의존성을 설치하기위해 pom.xml에 작성하신것을 언급해주시긴 했지만, 그 후에 application.yml 혹은 application.properties에 아래의 기본적인 설정이 필요합니다.spring.datasource.url=jdbc:h2:tcp://localhost/~/testspring.datasource.driver-class-name=org.h2.Driverspring.datasource.username=saspring.datasource.password=사실 이것은 너무 기본적인것이기 때문에 생략을 해도 크게 문제가 되지 않을것 같다는 생각이 듭니다.하지만, Spring Batch를 처음 접해보는 수강생으로서 아래의 설정은 언급을 한번 해주셨다면 좋지 않았을까 아쉬움이 듭니다.spring.batch.jdbc.initialize-schema=always해당 설정은 바로 다음 수업에서 다뤄주시던데, 혹시 이번 수업은 그냥 그럼 눈으로만 보고 넘어가는 수업으로 의도하신걸까요?버전이 다르거나 다른 변수들이 너무 많기때문에 수강하는 사람도 수업내용을 그대로 해보고 안된다고 바로 질문을 하기보다는 어느정도의 Googling을 통해서 해결할 수 있는 문제는 스스로 해결해야한다고 생각합니다. 그러는 과정속에서 성장도 할 수 있으니 이 과정은 필요하다고 생각합니다.하지만, 해당 수업은 수업에 전적으로 의존하는것과 수강생이 직접 Googling을 하는것의 그 중간점을 설정하기가 참 어려운것 같습니다.위의 배치 관련된 설정은 알고나니 너무 그 방법이 쉽고, 기본적인것이지만 저것을 몰랐던 상황에서는 오류가 왜 나는지에 대해서 많이 혼란스러웠던것 같습니다.해당 강의의 Github의 코드도 참고하기 위해 Part2.1과 2.2로 브랜치를 Checkout해서 확인해 보았는데도, 설정관련된 코드는 어디에도 없었습니다.강사님이 생각하시는 "수강생이 직접 해봐야하는것"의 기준은 어느정도로 생각하고 계신건가요??
-
미해결스프링 배치
Break Point와 Debugging시 단축키
안녕하세요 강의를 보다가 몇가지 질문이 생겨서 글을 남기게 됬습니다. 27분정도의 강의를 모두 직접 해봤는데도 의문이 풀리지 않아서 질문드립니다.조금 중간중간 생략이 되어있는것 같아서, 앞으로의 강의도 수강시에 이렇게 생략된것들은 저희가 그냥 할 줄안다고 혹은 했다고 가정하고 진행을 하시는건지 여쭤보고 싶습니다. 그게 맞다면 참고해서 강의를 수강할 예정입니다. 23:28초쯤에 main메소드 디버그 모드로 실행시, 갑자기 아래의 프록시를 만드는 createLazyProxy 메소드 4개에 Break Point가 찍혀있는데, 이거는 강의 내에서 혹시 언제 찍힌건가요? 아무리 찾아봐도 없는것 같아서 질문 드립니다. 그냥 저희가 SimpleBatchConfiguration.java에 가서 직접 포인트를 찍고 Debugging을 실행시킨다라는걸 가정하신걸까요? 아니면 이번 강의에서는 그냥 눈으로만 보고 넘기는걸까요?return createLazyProxy(jobExplorer, JobExplorer.class); 24:43초 쯔음에, createLazyProxy관련 Break Point 4개를 왔다갔다 하실때 단축키를 사용하시는것 같은데 혹시 어떤 단축키를 쓰신건가요? 혹은 단축키가 각각 개발자 마다 다르니, Step Over, Step Into와 같은 Debugging의 기본 Feature들 중에서 어떠한 것을 사용하신건가요? 혹시 위의 제가 말씀드린 것들중에 없다면 사용하신 Feature의 이름을 말씀해주시면 좋을것 같습니다.관련해서 강사님의 앞으로의 강의 계획을 제가 다른 질문에서 본적이 있습니다. 너무 기대가 되는데, 강사님도 앞으로의 강의에 강의중에 사용하신 단축키를 화면의 중앙 하단에 표시해주는 App을 사용하셔서 수강생들에게 어떠한 단축키를 사용하셨는지 실시간으로 알려줄 수 있게 강의를 녹화해보시는건 어떨까요? 이게 수강생들에게 상당히 도움이 많이됩니다.24:49초쯤에, BatchConfigurerConfiguration.java에서도 두개의 Break Point가 찍혀져 있는데요, 이것도 1번과 마찬가지로 그냥 저희가 해당 파일에 직접 들어가서 Break Point를 찍고 보라는걸 의도하셔서 생략하신건지 여쭤보고 싶습니다. 그리고 JPA관련된 의존성을 애초에 Initializer 단계에서 받지 않았기때문에 해당 Break Point의 코드에는 도달할 수 없을것 같습니다. 하지만 강의에서는 2번 질문처럼 어떤 단축키를 통해서? 왔다갔다 되더니 해당 2개의 Break Point에 도달을 한것 같습니다. 밑에 Debug관련된 Stack창에 Stack이라도 찍혀있다면 그거 보고서라도 할텐데 그것도 없어서 어떻게 저 코드에 도달하신걸까 여쭤보고 싶습니다. 저는 1,2번 질문에 있는 총 6개의 Break Point를 모두 찍고 Debugging을 진행했었는데 도달을 하지는 않았던것 같습니다.JpaBatchConfigurer(properties, batchDataSource.getIfAvailable(() -> dataSource) 위에 제가 질문 드린것들을 저는 아 그냥 수강생들이 충분히 할 수 있다고 생각을 하셔서 생략을 하셨구나라고 생각을 해서 강의에 있는 모든 내용을 직접 찾아보면서 해보았습니다. 꼭 강사님의 강의가 아니더라도 다른 분들의 강의를 들을때도 마찬가지로 저는 이렇게 직접 확인해보면서 학습을 하는데요, 이러한 것들이 있다면 Break Point를 미리 찍어놨다던지 라는, 딱 한번만이라도 언급만이라도 해주시면 좋을것 같습니다. Context를 갑자기 잃어버리는 느낌이여서 강사님의 의도를 전혀 파악하지 못하는것 같습니다.현재 23.5.30 기준으로 Spring의 Version도 오르고, Spring Batch 버전이 5버전으로 오른것 같습니다. 관련해서 Deprecated된게 조금 있던데 우선 강의에 나온 버전으로 듣고나면 5버전에서 어떤게 어떻게 바뀐건지 왜 Deprecated된건지 스스로 학습할수 있을것 같다고 생각이 드는데 맞을까요?사실 관련되서 질문이 하나도 없어서, 이게 지금 다른분들은 수월하게 하실 수 있는데 저만 이러는건지도 의문이 듭니다. 답변 주시면 잘 참고해서 나머지 강의도 열심히 수강하겠습니다 감사합니다 :D
-
미해결스프링 배치
사용자 정의 ExitStatus를 listener에서 정의 하는 이유
사용자 정의 ExitStatus를 StepExecutionListener.afterStep에서 정의하는 이유가 궁금합니다.Tasklet 안에서 조건에 따라 contribution.setExitStatus(new ExitStatus("PASS"));를 사용해도 되는게 아닌가 싶은데, 그냥 afterStep에서도 할 수 있다는걸 보여준걸까요? 또, 다음 강의인 JobExecutionDecider 는 사용자 정의 StepExecutionListener.afterStep에서 사용자 종료 코드를 정의하는 것을 대체한다고 생각하면 되는걸까요?
-
미해결스프링 배치
ItemStream close(); 메서드
close 는중간에 오류가 나면 바로 close 메서드가 자동 실행되고 그렇지 않으면 모든 open update 메서드가 끝나면 자동 실행 된다고생각하면 되는건가요 ?
-
미해결스프링 배치
다음 강의 계획이 있으신가요?
강사님 강의를 보고 있는 사람입니다.아직 봐야할게 많지만 강의 퀄리티가 너무 좋아 정말 만족하고 있습니다.혹시 다음 강의 계획이 있으신지 궁금합니다.또 있다면 언제쯤 나올 예정인지도요.감사합니다.
-
미해결스프링 배치
강의 내용에 쿼츠도 있을까요?
아직 강의 듣는중인데 쿼츠도 있나 궁금하네요
-
해결됨스프링 배치
ItemReaderAdapter에 관해
수업중에 ItemReaderAdapter에서 계속 CustomService를 호출하여 무한반복되는데 왜그러는건가요??
-
미해결스프링 배치
Job 강의가 실행이 안됩니다!
섹션3 스프링 배치 도메인의 이해에 있는 Job 강의가 실행이 안되고 무한로딩으로 되는데 확인가능할까요??
-
미해결스프링 배치
partitionStep의 itemReader에 관하여
안녕하세요.! 대용량 배치를 개발하기 위해파티션스텝을 이용하여 개발중입니다.파티션 메인스텝에 워커 스텝을 지정하고실행하였는데요.Thread1의 itemReader가 1만건의 데이터를 fetch하는 동안Thread2의 itemReader는 Thread1의 itemReader의 fetch가 끝날때까지 기다리는건가요??제가 기대한 로그는Thread1 : result set row 100Thread2 : result set row 100Thread1 : result set row 200Thread2 : result set row 200동시에 스레드가 실행되어 위와 같이 병렬적으로 itemreader가 수행되어야 한다고 생각하는데실제 로그는Thread1 : result set row 100Thread1 : result set row 200Thread2 : result set row 100Thread2 : result set row 200위와 같이 Thread1의 itemreader가 끝이 나야 Thread2의 itemreader가 동작하는것 같습니다...제 생각이 맞을까요? 맞다면 왜 실제로그는 동기적인 방식으로 되는지 궁금합니다.
-
미해결스프링 배치
배치데이터가 쌓였을 때 속도 문제
안녕하세요 선생님강의 듣고 프로그램 배포해서 잘 운영하고 있습니다.다름이 아니라 운영중에 데이터가 점차 쌓이면서데이터가 많아지니 배치 속도가 조금씩 느려지더라고요.아직 운영에 큰 이슈는 없지만 나중에는 문제가 될 수도 있겠다 싶어 질문드립니다.보통 이런 경우에는 어떤 방법으로 속도를 개선 하는지 궁금합니다. 당장 생각 나는 방법이 오래된 날짜의 데이터는 지우는 방법인데BATCH_JOB_EXECUTION 의 CREATE_TIME을 기준으로 지우려고 합니다.메모리에 JOB_INSTANCE_ID를 저장하지 않고 처리 하려면데이터 삭제 순서가 BATCH_JOB_INSTANCE 테이블이 먼저가 되는 상황이 되는데외래키를 지우고 배치 프로그램을 운영해도 문제가 되지 않을지 궁금합니다.쿼리DELETE FROM BATCH_JOB_INSTANCE WHERE JOB_INSTANCE_ID IN (SELECT DISTINCT JOB_INSTANCE_ID FROM BATCH_JOB_EXECUTION) 진행중인 프로젝트에 바로 사용한다고시간이 없어 급하게 띄엄띄엄 들어서 못들은 강의가 많습니다.혹시나 강의에 언급하신 내용이라면 죄송합니다. 훌륭한 강의 덕분에 프로젝트 무사히 완료 할 수 있었습니다.감사합니다.
-
미해결스프링 배치
BatchStatus 와 ExitStatus 의 차이점이 뭔지 모르겠습니다.
안녕하세요 선생님, 제가 강의를 계속 듣다가 너무 헷갈려서 질문 올립니다.섹션 6 Transition - 배치상태 유형 (BatchStatus / ExitStatus / FlowExecutionStatus) 를 듣고 계속 머릿속으로 BatchStatus 와 ExitStatus 둘 간의 차이점을 이해하려고 해도 도통 이해가 되지 않아서 질문드립니다.PPT 에서는 BatchStatus, ExitStatus 를 다음과 같이 정의합니다.- BatchStatus : JobExecution 과 StepExecution 속성으로 Job 과 Step 의 종료 후 최종 결과 상태가 무엇인지 정의- ExitStatus : JobExecution 과 StepExecution 의 속성으로 Job 과 Step 의 실행 후 어떤 상태로 종료되었는지 정의... 라고 작성되어 있는데요.BatchStatus 에서 설명하는 "종료 후 최종 결과 상태" 라는 게 결국은 ExitStatus 에서 말하는 "실행 후 어떤 상태로 종료되었는지" 와 똑같은 말로 보입니다. 혹시 이 둘간의 "차이"와 "용도"가 뭔지 조금만 이해하기 쉽게 알려주실 수 없을까요?
-
미해결스프링 배치
flow 위에 jobparameters를 사용하기 위해서는 어떤 scope를 정의해줘야 하나요?
안녕하세요, 강사님!job > flow > step으로 구성되어 있는데 flow위에 jobparameters를 사용하기 위해서는 어떤 scope를 정의해줘야 하나요? step scope is not active라고 자꾸 오류가 나네요.강의를 봐도 잘 이해가 안 가서요. 아직 제가 개념이 덜 잡혔나봅니다. ㅠㅠ답변 감사드립니다! 코드입니다!@Slf4j @Getter @NoArgsConstructor public class CreateDateJobParameter { private String startDate; private String endDate; @Value("#{jobParameters[startDate]}") public void setStartDate(String startDate) { this.startDate = startDate; } @Value("#{jobParameters[endDate]}") public void setEndDate(String endDate) { this.endDate = endDate; } } @Slf4j @RequiredArgsConstructor @Configuration public class OrderProcessingJobConfiguration { private final JobBuilderFactory jobBuilderFactory; private final StepBuilderFactory stepBuilderFactory; private final CreateDateJobParameter jobParameterCreator; @JobScope @Bean public CreateDateJobParameter jobParameterCreator() { return new CreateDateJobParameter(); } @Bean public Job orderProcessingJob() { return jobBuilderFactory.get("orderProcessingJob") .incrementer(new UniqueRunIdIncrementer()) .start(fetchOrderDataFlow()) .next(getOrderListFlow()) .split(taskExecutor()) .add() .end() .build(); } @Bean @StepScope public Flow fetchOrderDataFlow() { log.debug(">>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>fetchOrderDataFlow"); Flow flow1 = new FlowBuilder<Flow>("flow1") .start(fetchOrderDataStep1()) .build(); Flow flow2 = new FlowBuilder<Flow>("flow2") .start(fetchOrderDataStep2()) .build(); Flow flow3 = new FlowBuilder<Flow>("flow3") .start(fetchOrderDataStep3()) .build(); Flow flow4 = new FlowBuilder<Flow>("flow4") .start(fetchOrderDataStep4()) .build(); Flow flow5 = new FlowBuilder<Flow>("flow5") .start(fetchOrderDataStep5()) .build(); FlowBuilder<SimpleFlow> flowBuilder = new FlowBuilder<>("fetchOrderDataFlow"); flowBuilder.split(taskExecutor()) .add(flow1, flow2, flow3, flow4, flow5); return flowBuilder.build(); } @Bean public Step fetchOrderDataStep1() { return createFetchOrderDataStep("fetchOrderDataStep1", "store1", jobParameterCreator.getStartDate(), jobParameterCreator.getEndDate()); } ... }
-
미해결스프링 배치
springbatch partition vs pararell 질문드립니다.
안녕하세요. 정수원 강사님스프링 배치 강의 잘 보고 있습니다. 많은 도움 받고 있어요. 정말 감사드립니다.토이 프로젝트를 진행하고 있는데 막상 구현하려니 쉽지 않네요. 어떤식으로 설계하면 좋을지 조언 구합니다.구현하려는 부분은 아래와 같습니다.rest api로 가맹점 5곳에 각각 api를 호출하여 주문id의 총 개수와 주문id 목록( total number of orderId and orderIds)을 가져와서 DB에 저장합니다.가맹점 5곳에서 받아온 total number of orderId and orderIds 를 DB에서 조회해와서 해당 목록을 chunk 사이즈로 나누어서 각각 rest api로 가맹점 5곳에 호출하여 목록을 가져와서 DB에 저장합니다.partiton과 pararell step을 이용해서 구성하려고 하는데 설계부터가 만만치 않네요.1은 pararell step을 이용하여 병렬로 각각 수행하도록 구현하려고 하고, 2는 총 개수와 grid 개수를 가지고 pagination 혹은 partiton을 이용해서 구현하려고 하는데 어떻게 해야할지 감이 잘 안 잡힙니다. 혹은 혼합하여 사용할 수도 있을까요? 강사님께서 부연설명 덧붙여 주신다면 큰 도움이 될 것 같습니다. 감사드립니다.
-
미해결스프링 배치
@JobScope JobParmeter Binding 질문
안녕하세요. @JobScope에 대해서 궁금한게 생겨서요!@Jobscope 를 쓰면 갖는 이점에 대해서는 이해했습니다. 웹어플리케이션이 실행될 때, Job Bean 객체에는 Scope의 JDKProxy 또는 CGLibProxy가 주입되는 것을 이해했고 Step 메소드 실행 시, 실제 Step 객체가 주입되는 것을 이해했습니다.그러므로 여러 스레드 ( 병렬 처리 ) 가 요청에 대한 처리를 할 때, thread safe에 대한 이점도 있을 거고 동시성에도 이점이 있을 거라고 생각됩니다. 여기서 궁금한게, @Value JobParmeters를 바인딩 하는 부분이 궁금한데요.질문 1. 이 JobParmeters는 그럼 Job에서 설정한 여러 Jobpameters 중 꼭 한가지 key값이여야만 하는 걸까요? 가령, name, requestDate 라한다면 둘 중 하나를 선택해도 무방한거죠? 두개는 안될까요?2. 당연한 말이겠지만 여러 Job들에서 다른 Step을 공유하기 위해선 이 Jobparmeter를 정적인 변수보다는 requestDate와 같은 yyyyhhmm ss 같은 변수를 사용하는 것이 좋겠죠?감사합니다!
-
미해결스프링 배치
JdbcCursorItemReader ,JdbcBatchItemWriter한개의 db에서 데이터 전환
안녕하세요 JdbcCursorItemReader 와 JdbcBatchItemWriter를 이용해 기존 데이터를 변환해서 다른 테이블로 이관하는 테스트를 진행하고 있습니다. 근데 JdbcCursorItemReader 에서 select는 잘되는데 JdbcBatchItemWriter에서 insert쿼리를 날릴때 무한대기 현상이 발생하는거 같습니다.@Bean public Job transferDBJob(JobRepository jobRepository, Step transferBookStep){ return new JobBuilder("transferDBJob",jobRepository) .start(transferBookStep) .build(); } @Bean public Step transferBookStep(JobRepository jobRepository, PlatformTransactionManager tm, JdbcPagingItemReader<TransSpecies> pagingSpeciesReader, ItemProcessor<TransSpecies, Species> transItemProcessor, JdbcBatchItemWriter<Species> transItemWriter) { return new StepBuilder("transferBookStep",jobRepository) .<TransSpecies,Species>chunk(10,tm) .reader(pagingSpeciesReader) .processor(transItemProcessor) .writer(transItemWriter) .build(); } @Bean public JdbcPagingItemReader<TransSpecies> pagingSpeciesReader(DataSource dataSource,PagingQueryProvider createQueryProvider) { return new JdbcPagingItemReaderBuilder<TransSpecies>() .name("transSpeciesReader") .pageSize(10) .fetchSize(10) .dataSource(dataSource) .rowMapper(new BeanPropertyRowMapper<>(TransSpecies.class)) .queryProvider(createQueryProvider) .build(); } @Bean public PagingQueryProvider createQueryProvider(DataSource dataSource) throws Exception { SqlPagingQueryProviderFactoryBean queryProvider = new SqlPagingQueryProviderFactoryBean(); queryProvider.setDataSource(dataSource); queryProvider.setSelectClause("SPECIESKEY,AUTHOR,TITLE"); queryProvider.setFromClause("FROM TRANSSPECIES"); Map<String, Order> sortKeys = new HashMap<>(1); sortKeys.put("SPECIESKEY", Order.ASCENDING); queryProvider.setSortKeys(sortKeys); return queryProvider.getObject(); } @Bean public ItemProcessor<TransSpecies,Species> transItemProcessor(){ return transSpecies ->{ Species species = new Species(); species.setRecKey(transSpecies.getSpeciesKey()); species.setTitle(transSpecies.getTitle()); species.setAuthor(transSpecies.getAuthor()); return species; }; } @Bean public JdbcBatchItemWriter<Species> transItemWriter(DataSource dataSource){ return new JdbcBatchItemWriterBuilder<Species>() .sql("INSERT INTO SPECIES VALUES (:recKey, :author, :title)") .beanMapped() .dataSource(dataSource) .build(); }현재 작성한 간단하 코드이며로그에는 현재 이렇게 무한대기 상태에 놓이게 됩니다.확인 부탁드립니다 ㅠㅠ
-
미해결스프링 배치
스프링 배치 스케일 아웃 관련 문의
안녕하세요. 선생님 강의 들으면서 실무에 Spring Batch를 잘 녹여보고자 노력하고 있는 직장인입니다. 다름이 아니라 부서에서 Spring Batch를 활용해 배치의 성능을 높여야 하는 상황이라, 스케일 아웃을 고려하고 있는데요. 문제는 스케일 아웃을 하되 워커(혹은 슬레이브) 서버에서는 DB에 접근을 하지 못하는 상황이라, read-process-write의 구조에서 read/write는 마스터 서버에서 처리 해야 하는 상황입니다. 그래서 처음에는 AsyncItemProcessor/AsyncItemWriter를 활용하여, 마스터 프로세스에서 워커 서버들에 HTTP API를 호출하고 결과를 리턴 받으면 write를 하는 방식을 고려 했는데요.그런데, chunk 단위로 순차적으로 read-process-write를 하다보니 기대보다는 성능이 안나오고 있습니다 😭 사실 기대했던 바는 process를 하고 있을 때 read/write도 동시에 진행되면 어떨까였습니다. (이 부분이 혹시 잘못됐다면 지적해주세요.) 그래서 든 생각이 read-process-write가 chunk 단위로 순차적으로 되는 진행되는 것이 아니라, reader와 processor와 writer가 서로 publisher-subscriber 구조로 개별적으로 동작하는게 어떨까라는 생각이 들었습니다.조금 더 말씀드리면 reader가 파일을 읽어 큐에 넣고 processor는 큐의 데이터를 읽어 처리하고 writer가 보고 있는 queue에 넣으면 writer가 해당 큐를 참조하여 파일 write를 하는 방식입니다. 혹시 이 아이디어에서 제가 잘못 생각하고 있는게 있을까요? 아니면 기존의 chunk oriented tasklet을 손보면 말씀드린 것과 같은 구조를 만들 수가 있나요?
-
미해결스프링 배치
@Autowired 관련 질문입니다.
@Autowired private Job fileJob; @Autowired private Job apiJob;각각 다른 클래스에서 주입받아야하는 Job이 다른데 변수 명으로 스프링이 알아서 알맞은 Job을 주입해주는것인가요?
-
미해결스프링 배치
branch Part11 관련질문입니다.
안녕하세요 정수원 선생님 브랜치 Part11에 관해 동작문의가 2개 있습니다.1) SendJobConfiguration에서 apiJob이 제일 먼저 실행이 되는 job이고apiJob에서 apiStep1 (시작로그를 남기는) , apiStep2(끝냈다는 로그를 남기는) 사이에 주입받은 jobStep을 실행시키는데 이 jobStep은 SendChildJobConfiguration에 있는 jobStep 인가요? 2) 이후에 jobStep에서 apiMasterStep을 실행시키고 Partition으로 쪼개서 3개의 스레드에 할당할때는 apiSlaveStep에서 read부터 각 스레드가 담당하는것이 맞나요?