작성
·
211
1
int 타입은 하드웨어 의존 가능성이 있으므로 플랫폼에 따라 4바이트 또는 2바이트로 실행이 될 수 있으므로 이식성에 문제가 있을 수 있음을 설명하셨습니다. 그래서 플랫폼 independent하게 4바이트로 고정 될 수 있는 int32_t라는 타입이 있는 것으로 이해가 됩니다. 그러나 stdint.h에 정의되고 있는 아래 typedef에 의하면 그냥 원래 int 를 int32_t라는 이름으로 재정의하고 있을 뿐입니다. 그런데 왜 이것이 32비트로 고정이 되는지 궁급합니다. 즉, int32_t i 로 i 변수를 define 한다는 것은 int i 와 다를 바가 없는 것으로 이해가 됩니다. 아시겠지만 tydef는 구글링 한 바로는 아래와 같습니다.
typedef int int32_t;
The typedef is a keyword used in C programming to provide some meaningful names to the already existing variable in the C program. It behaves similarly as we define the alias for the commands. In short, we can say that this keyword is used to redefine the name of an already existing variable.
답변 4
0
0
1은 크기가 다릅니다.
2는 int8_t, int16_t, int32_t등이 있는데, int16_t만 int로 쓰면 어색하겠지요.
3에서 unsigned char와 signed char는 범위가 다릅니다.
0
선생냄, 빠른 답변에 감사드립니다.
완전한 이해를 위해 다음 재 질의 및 제가 더 공부하고 여기 질문으로 다시 돌아 오겠습니다
1. size_t가 x86과 x64에서 다름 : 깊게 파고 돌아 오겠습니다. 뭔가 확실히 다를 것 같습니다.
2. Int와 int32_t는 그냥 다른 것들과 맞춰주기 위함 : 이 문구에 대해 좀더 상세 설명 부탁드립니다.
3. char를 문자로 쓰느냐 아니면 int8_t로 쓰느냐는 문맥에서 차이 : char를 문자로 쓰면 ascii를 사용하게 되는데 수로 생각하면 unsigned char 또는 signed char 모두 사용 될 것 같습니다. 그런데 char, unsigned char, signed char 형은 별도 존재 하는 것으로 보입니다.
0
아, 저도 예전에 같은 의문을 가졌던 기억이 나네요.
아마 가장 크게 차이가 나는 것은 포인터 변수의 크기입니다.
size_t가 x86과 x64에서 달라지지요.
int와 int32_t는 그냥 다른 것들과 맞춰주기 위한 거라고 보셔도 될 것 같은데 char를 문자로 쓰느냐 아니면 int8_t로 쓰느냐는 문맥에서 차이가 있겠지요.
또 한 가지 많이 쓰는 용법이 있다면, 보통 데이터를 주고 받을때 1byte를 unsigned char의 배열을 사용하는 경우가 많은데 예전에는 std::vector<unsigned char>를 사용하기도 했었습니다만 요즘은 std::vector<uint8_t>를 사용합니다.