티스토리 뷰

java 설치

  • hadoop은 java로 만들어져 있으므로 java를 설치 해야한다

  • rpm -> 설치 버전

  • tar.gz -> 압축 버전

sts 에서 윈도우 -> hadoop01 머신 파일 전송

  • local에 있는 파일을 hadoop01로 전송할 수 있다.

  • 윈도우에서 받은 jdk를 hadoop폴더로 전송

  • 파일 전송 확인

  • rpm 파일 설치

  • rpm 으로 설치하는 프로그램은 usr폴더에 설치된다.

 

  • hadoop02, hadoop03, hadoop04로 jdk 파일 복사

  • hadoop02, hadoop03, hadoop04로 jdk 파일 설치

  • root계정의 home디렉토리는 root폴더이므로 경로를 지정하지 앟아도 rpm명령어를 바로 실행 할 수 있다.

Hadoop

  • hadoop계정으로 파일 복사

  • 확인

  • 압축 풀기

  • hadoop02, hadoop03, hadoop04 머신에 복사

  • hadoop02, hadoop03, hadoop04 머신에 설치

  • hadoop 설정

  • masters 설정

 

  • slaves 설정

  • 임시 폴더 생성

  • gedit로 core-site.xml 설정

  • 네임노드, 임시폴더 지정

  • hdfs-sith.xml 설정

  • dfs.replication : 복제본의 개수

  • mapred-site.xml 설정

  • 설정 파일을 hadoop02, hadoop03, hadoop04에 복사

  • 복사 확인

  • 네임노드 포맷

 

  • 하둡 실행

  • 실행확인

hadoop start 된 후 jps로 확인시 데몬이 모두 실행되어 있지 않은 경우

  • 하둡폴더의 logs폴더에서 오류 확인

    1. 오류 수정

    2. 1번 ~ 4번 머신의 모든 tmp디렉토리를 삭제(hadoop-data폴더)

    3. tmp디렉토리 재생성

    4. conf폴더의 모든 파일을 4개의 머신에 복사

    5. 네임노드 초기화

    6. hadoop start

    7. jps로 데몬 확인

  • 나머지 머신 노드 확인

  • DataNode에 블록 단위로 분산 저장되므로 로컬에서는 데이터를 확인 할 수없다.

  • NameNode의 관리자 페이지 : hadoop01:50070

  • Live Nodes 현재 실행되고 있는 노드 개수

  • 파일 정보 확인 가능

  • hdfs 내 폴더 생성

  • 확인

  • hdfs폴더로 파일 복사

  • -put 또는 -copyFromLocal 명령어 사용

hadoop 명령어

  • namenode

  • jar

hdfs 명령어

  • mkdir

  • ls

  • copyFromLocal

  • cat

hadoop에서 mapreduce실행하기

  • ../bin/hadoop jar jar파일명 Driver파일 input파일 output파일

    • Driver 파일 : main메소드가 있는 자바 Application

    • output 파일 : mapreduce처리결과가 저장될 파일

    • input파일, output파일 모두 hdfs에 저장될 path

  • wordcount 실행

  • 실행결과

jobtracker 관리자 페이지

 

댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/01   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함