작성
·
105
0
#include "pch.h"
#include "CorePch.h"
#include <iostream>
#include <atomic>
#include <thread>
#include <mutex>
#include <Windows.h>
#include <future>
int32 buffer[10'000][10'000];
int main()
{
memset(buffer, 0, sizeof(buffer)); // 배열을 전부 0값으로 초기화
//! [i][j] 순으로 더하기
{
uint64 start = GetTickCount64(); //~ 시작 시간 측정
int64 sum = 0;
for (int32 i = 0; i < 10'000; i++)
for (int32 j = 0; j < 10'000; j++)
sum += buffer[i][j];
uint64 end = GetTickCount64(); // ~ 종료 시간 측정
cout << "Elapsed Time [i][j] : " << (end - start) << endl;
}
//! [j][i] 순으로 더하기
{
uint64 start = GetTickCount64(); //~ 시작 시간 측정
int64 sum = 0;
for (int32 i = 0; i < 10'000; i++)
for (int32 j = 0; j < 10'000; j++)
sum += buffer[j][i];
uint64 end = GetTickCount64(); // ~ 종료 시간 측정
cout << "Elapsed Time [j][i] : " << (end - start) << endl;
}
}
해당 코드를 7900 CPU 에서 테스트하는데, 경과시간이 둘 다 0,0 이 나오더군요..
분명 그럴수가 없는데, CPU클럭이 너무 빨라서 gettick64() 의 정밀도로 측정이 불가능해서그런건가요?
분명 두번째 스코프에 있는 경과시간이 더 느리게 나와야 정상인데, 둘 다 틱이 0 0 이 나와서 당황스럽습니다
답변 1
0
해결했습니다.
디버그 모드로 실행하니 제대로된 측정이 되는군요.
그럼 이어지는 질문으로, 디버그모드&릴리즈모드와 gettick은 무슨 관계가 있는건가요?
이 또한 컴파일러의 최적화와 연관이 있는건가요?
만약 그렇다면, 왜 굳이 컴파일러는 현재 진행중인 틱의 계산도 최적화를 하는것입니까?