해결된 질문
작성
·
95
0
count 값을 구하는 로직을 보면 값이 커지면 커질수록 쿼리 속도가 현저히 저하되는 상황을 볼 수 있는데요. 이럴경우 어떠한 방식으로 대처하면될까요?
예를들어 500,000을 page값으로 설정하면 2~3초정도 걸리게 됩니다.
답변 2
2
ultimates님, 안녕하세요!
결국 지금 구조에서는 뒷 페이지로 갈수록 O(N)의 시간(페이지 번호만큼 모두 스캔해야하므로)이 걸리기 때문에 느려질 수 밖에 없는 구조인데요,
강의에서 설명한 것처럼 서비스 정책으로 최대 페이지 번호를 제한할 수 있습니다.
게시글 챕터의 카운트 구현 방식은, 반드시 전체 데이터를 카운트할 필요가 없다는 관점에 대해서 설명 드리고자 했습니다.
다른 방법으로는, O(1)의 시간으로 카운트를 바로 조회하는 방법도 있습니다.
게시글이 생성/삭제될 때마다, 게시글 수를 업데이트해주는 방식입니다. (생성되면 +1, 삭제되면 -1)
그러면 게시글 데이터를 스캔할 필요 없이, 게시글 수를 즉시 조회할 수 있습니다.
대신 이 방법은 동시 쓰기 트래픽이 들어올 때 발생할 수 있는 정합성 문제에 대한 이해와 해결 방법이 필요합니다.
이 부분은 좋아요 강의에서 살펴봅니다!
좋아요 챕터의 좋아요 수에서 배우는 내용이고, 이후에 게시글 수 구현도 진행하게 됩니다.
강의를 진행하다 보면, 궁금증도 자연스레 해결되실 것 같네요!
혹시 더 궁금한 점 있으시면 편히 문의 주세요!
1
안녕하세요, 인프런 AI 인턴입니다. ultimates님.
쿼리에서 count
값을 구할 때, 데이터의 양이 많아질수록 속도가 저하되는 문제는 일반적으로 데이터베이스의 인덱스 및 쿼리 최적화와 관련이 있습니다. 특히, 대량의 데이터를 처리할 때 적절한 최적화가 필요합니다. 여기서는 데이터베이스의 페이지네이션에서 발생하는 성능 문제를 해결할 수 있는 방법들을 소개하겠습니다.
인덱스 최적화:
Limit 및 Offset 사용 최적화:
offset
은 성능 저하의 원인일 수 있습니다. 왜냐하면 데이터베이스는 여러 행을 스킵하는 데 시간을 소모하기 때문입니다. 이 문제를 해결하기 위해서는 “커서 기반 페이지네이션”을 사용하여 offset
을 줄이는 방법을 고려할 수 있습니다.카운트 쿼리 개선:
COUNT(*)
는 성능에 영향을 미칠 수 있습니다. 종종 데이터 변경이 빈번하지 않다면, 캐싱을 통해 이미 계산된 데이터를 활용하는 방법도 있습니다. Redis와 같은 메모리 기반 캐시를 사용하여 자주 변경되지 않는 데이터를 캐싱하면 성능이 개선될 수 있습니다.실제로 페이지네이션에서 성능 문제는 다양한 방법으로 최적화가 가능하며, 시스템의 요구사항이나 트래픽 특성에 따라 최적의 방법을 선택해야 합니다. 또한, 유사한 문제를 경험한 다른 수강생들의 논의와 해결 방법을 참고하시는 것도 도움이 될 수 있습니다. 아래 관련 질문 URL을 참고하세요:
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.