묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결
Hadoop HA Datanode java.net.UnknownHostException
Hadoop Namenode HA 구성을 했습니다.core-site.xml에 fs.defaultFS를 hdfs://hadoop-ha로 설정했습니다. <property> <name>fs.defaultFS</name> <value>hdfs://hadoop-ha</value> </property> WebHDFS REST API 중 파일 생성하는 API를 Active 상태의 Namenode 주소로 호출했는데,{ "RemoteException": { "exception": "IllegalArgumentException", "javaClassName": "java.lang.IllegalArgumentException", "message": "java.net.UnknownHostException: hadoop-ha" } }위와 같은 에러가 발생합니다.⬇ 호출한 API[ PUT ] http://{server_ip}:{active_namenode_port}/webhdfs/v1/testB?op=CREATE 마찬가지로 datanode의 내부 쉘에서 hdfs dfs -ls /와 같은 명령어를 입력하면,2024-08-05 06:08:49,260 WARN fs.FileSystem: Failed to initialize filesystem hdfs://hadoop-cluster: java.lang.IllegalArgumentException: java.net.UnknownHostException: hadoop-ha-ls: java.net.UnknownHostException: hadoop-ha에러가 발생합니다. Hadoop HA 구성은 본 서버에 namenode1, namenode2, datanode1, datanode2, datanode3을docker compose로 같은 네트워크 내에서 동작하도록 5개 컨테이너를 생성하여 실행하였습니다. 각 컨테이너의 /etc/hosts에 active 상태의 namenode 주소를active_namenode_container_ip hadoop-ha이렇게 하나씩 명시하면 API 호출도 잘 되고 명령어 실행도 잘 되지만,active namenode가 죽고 standby namenode가 active 상태가 되면 동일한 에러가 발생합니다. hadoop-ha를 active 상태의 namenode ip와 자동으로 연결되도록 하는 방법은 없나요? 🥲🥲 ha 설정은 namenode가 죽었을 때 정상적으로 돌아가게 하기 위한 구성인데,/etc/hosts를 수동으로 명시하는 방법은 맞지 않은 거 같아서 질문 남깁니다..( ᐪ ᐪ )
-
미해결15일간의 빅데이터 파일럿 프로젝트
실습에서 fsck와 report , rm 명령어 사용결과가 상이합니다.
하둡 파일 시스템 검사의 fsck 및 report , rm등 명령어를 사용해보는 도중에강사님이 하신 결과와 다른 결과가 나오는데 이유를 알수 있을까요? 권한 설정해야는게 따로있나요?
-
미해결15일간의 빅데이터 파일럿 프로젝트
HDFS 미달 복제 블록 문제
다음과 같은 문제가 발생하여 검색을 해보니 복제계수를 2로 바꿔보라는 코멘트를 보고 변경을 해보았으나 여전히 저런 에러가 계속납니다.
-
미해결15일간의 빅데이터 파일럿 프로젝트
하둡 파일 시스템 상태 검사 (hdfs fsck)
하둡 파일 시스템 검사 명령어를 사용해보는 도중에 강사님과 같은 결과가 아닌 이러한결과가 나오는데요 이유가 있을까요? ;ㅁ;
-
미해결15일간의 빅데이터 파일럿 프로젝트
파일 시스템으로 Sample.txt 파일을 cat하면 글자가 깨집니다.
안녕하세요 빅디님 Sample.txt 원본파일은 한글이 잘 읽히는데, centos에 올라가면 sample.txt가 깨져서 보입니다. locale 설정을 변경해도 동일한 현상이 보입니다. 어떤 문제일까요? 개발환경은 윈도우는 아니고 MacOS에서 작업중입니다.