인프런 커뮤니티 질문&답변

소병욱님의 프로필 이미지

작성한 질문수

[C++과 언리얼로 만드는 MMORPG 게임 개발 시리즈] Part4: 게임 서버

캐시

GetTickCount64() 의 정밀성

24.08.02 11:42 작성

·

77

0

#include "pch.h"
#include "CorePch.h"
#include <iostream>
#include <atomic>
#include <thread>
#include <mutex>
#include <Windows.h>
#include <future>

int32 buffer[10'000][10'000];

int main()
{
	memset(buffer, 0, sizeof(buffer)); // 배열을 전부 0값으로 초기화

	//! [i][j] 순으로 더하기
	{
		uint64 start = GetTickCount64(); //~ 시작 시간 측정

		int64 sum = 0;
		for (int32 i = 0; i < 10'000; i++)
			for (int32 j = 0; j < 10'000; j++)
				sum += buffer[i][j];

		uint64 end = GetTickCount64(); // ~ 종료 시간 측정 
		cout << "Elapsed Time [i][j] : " << (end - start) << endl;
	}
	
	//! [j][i] 순으로 더하기
	{
		uint64 start = GetTickCount64(); //~ 시작 시간 측정

		int64 sum = 0;
		for (int32 i = 0; i < 10'000; i++)
			for (int32 j = 0; j < 10'000; j++)
				sum += buffer[j][i];

		uint64 end = GetTickCount64(); // ~ 종료 시간 측정 
		cout << "Elapsed Time [j][i] : " << (end - start) << endl;
	}
}

해당 코드를 7900 CPU 에서 테스트하는데, 경과시간이 둘 다 0,0 이 나오더군요..

 

분명 그럴수가 없는데, CPU클럭이 너무 빨라서 gettick64() 의 정밀도로 측정이 불가능해서그런건가요?

 

분명 두번째 스코프에 있는 경과시간이 더 느리게 나와야 정상인데, 둘 다 틱이 0 0 이 나와서 당황스럽습니다

답변 1

0

소병욱님의 프로필 이미지
소병욱
질문자

2024. 08. 02. 11:44

해결했습니다.

디버그 모드로 실행하니 제대로된 측정이 되는군요.

 

그럼 이어지는 질문으로, 디버그모드&릴리즈모드와 gettick은 무슨 관계가 있는건가요?

 

이 또한 컴파일러의 최적화와 연관이 있는건가요?

 

만약 그렇다면, 왜 굳이 컴파일러는 현재 진행중인 틱의 계산도 최적화를 하는것입니까?