Multi Node Cluster( 완전 분산 모드) master, worker1, worker2 실행 도메인 설정( master, worker1, worker2 모두 설정) hostname으로 ping 확인 NFS 설정 추가(master) nfs서버 재시작 nfs서버 mount(worker1, worker2) ssh 설정 ( master, worker1, worker2) ssh restart 공개키 생성 worker1 ssh 서버 설치 master 와 같이 설정 worker2 ssh 서버 설치 master 와 같이 설정 key 복사 하둡은 각 노드에서 데이터를 처리한 후 재조합 하여 다시 분석을 한다. 노드간 데이터 이동 시 보안을 위해 ssh 를 사용. 노드 이동을 위해 키 값들을 각 노드에 복사한다..
Hadoop 하둡에 붙여서 쓰는 것 : 에코 시스템 Single Node : Hadoop Single Node Cluster : NameNode, DataNode를 1대로 Multi Node Cluster : NameNode 1대, DataNode 3대 짝수로 써야함 Hadoop 설치 https://hadoop.apache.org/releases.html 세팅 추가 설치 확인 Single Node 단독모드 mapreduce wordcount 사용하기 단어 횟수 분석 성공하면 _SUCCESS가 뜸 결과 결과 디렉터리가 있으면 에러가 나므로 같은 디렉토리를 쓰려면 삭제해야한다 Single Node Cluster 의사 분산 모드 openssh 패키지 설치 key 생성 공개키를 ssh 인증키로 등록 접속 로그아..
윈도우 : 1대 , 리눅스 master , worker1, worker2 : 3대 생성 메모리는 4G , 2G, 2G 로 나눈다. 기본적으로 짝수로 설정해야 한다 Master 메모리 4096MB, 하드디스크 100GB 설정(동적 할당) Ubuntu 18.04 버전 Worker1 메모리 2048MB, 하드디스크 100GB 설정(동적할당) Ubuntu 18.04 버전 Worker2 메모리 2048MB, 하드디스크 100GB 설정(동적할당) Ubuntu 18.04 버전 네트워크 툴 설치 네트워크 설정 고정 아이피 사용 스냅샷 스냅샷 상태로 되돌리려면 복원 누르고 실행 컴퓨터 복제하기 (Worker1, Worker2) 메모리 2048MB
- Total
- Today
- Yesterday
- RAID Architecture
- 빅데이터
- Disk Scheduling
- jdbc
- I/O Services of OS
- Variable allocation
- Spring
- springboot
- hadoop
- Free space management
- oracle
- Disk System
- vmware
- aop
- SQL
- Replacement Strategies
- Java
- mapreduce
- File Protection
- HDFS
- I/O Mechanisms
- SPARK
- JSON
- Flume
- linux
- maven
- gradle
- 빅데이터 플랫폼
- 하둡
- Allocation methods
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |