- 인쇄
- PDF
서비스별 UI 접속 및 패스워드 설정
- 인쇄
- PDF
네이버 클라우드 플랫폼 Cloud Hadoop에서 제공하는 Web UI(Ambari, Hue 등)를 이용하여 Cloud Hadoop 클러스터의 정보 및 상태를 관리할 수 있습니다.
HDFS Namenode UI 등 일부 Web UI는 SSH 터널링을 통해서만 접속할 수 있는 경우가 있습니다. 자세한 내용은 터널링을 이용한 Web UI 접속 가이드를 참고해 주십시오.
사전 작업
클러스터 노드에 접속하기 위해서는 먼저 다음과 같은 준비가 필요합니다.
항목 | 설명 | 가이드 |
---|---|---|
SSL VPN 설정 | 외부에서 네이버 클라우드 플랫폼 내부에 구성된 네트워크로 보안 접속 | |
ACG 설정 | 해당 클러스터의 ACG 설정에 접근하려는 장비의 고정 IP 및 접근할 페이지의 허용 포트 추가 | 방화벽 설정(ACG) |
인증키 | 해당 클러스터 접속에 필요한 프라이빗 키(.pem) | 클러스터 직접 접속 인증키 관리 |
도메인 | 해당 클러스터 노드 접속에 필요한 도메인 클러스터 상세 정보의 도메인 항목에서 확인 가능 | 클러스터 상세 정보 확인 |
1. SSL VPN 설정
외부에서 네이버 클라우드 플랫폼 내부에 구성된 네트워크로 보안 접속하려면 SSL VPN이 설정되어 있어야 합니다.
SSL VPN 설정에 대한 자세한 내용은 SSL VPN 설정을 참고해 주십시오.
2. ACG 룰 설정
클러스터의 ACG 룰을 변경하는 방법은 다음과 같습니다.
- 네이버 클라우드 플랫폼 콘솔에서 Services > Compute > Server > ACG 메뉴를 차례대로 클릭해 주십시오.
- 접근하려는 클러스터의 ACG를 선택한 후 [ACG 설정] 버튼을 클릭해 주십시오.
- 다음 네 가지 정보를 입력하고 ACG Rule을 추가해 주십시오.
- 프로토콜: TCP
- 접근 소스: SSH 통신을 하는 로컬 장비의 IP
- 허용 포트: Ambari의 경우
8443
, HDFS NameNode의 경우8421
- 메모(선택)
- 클러스터 버전별, 타입별 Application Web UI 리스트
Cloud Hadoop 클러스터 버전별, 타입별로 제공되는 Application Web UI는 다음과 같습니다.
- Cloud Hadoop 클러스터 버전 1.3, 1.4
클러스터 버전 | 클러스터 Type | 클러스터 add-on | Application Web | Application Web Reference Site |
---|---|---|---|---|
1.3 1.4 | Core Hadoop | default 제공 | Ambari Web Console | https://ambari.apache.org/ |
Core Hadoop | default 제공 | Hue Admin | https://gethue.com/ | |
Core Hadoop | default 제공 | Zeppelin Notebook | https://zeppelin.apache.org/ | |
Core Hadoop | default 제공 | Ranger | https://ranger.apache.org | |
HBase | default 제공 | Ambari Web Console | https://ambari.apache.org/ | |
HBase | default 제공 | Ranger | https://ranger.apache.org | |
Spark | default 제공 | Ambari Web Console | https://ambari.apache.org/ | |
Spark | default 제공 | Hue Admin | https://gethue.com/ | |
Spark | default 제공 | Zeppelin Notebook | https://zeppelin.apache.org/ | |
Spark | default 제공 | Ranger | https://ranger.apache.org | |
Presto | default 제공 | Ambari Web Console | https://ambari.apache.org/ | |
Presto | default 제공 | Hue Admin | https://gethue.com/ | |
Presto | default 제공 | Zeppelin Notebook | https://zeppelin.apache.org/ | |
Presto | default 제공 | Presto Coordinator | https://prestodb.io/ | |
Presto | default 제공 | Ranger | https://ranger.apache.org |
- Cloud Hadoop 클러스터 버전 1.5, 1.6, 1.7, 1.8, 1.9, 2.0, 2.1
클러스터 버전 | 클러스터 Type | 클러스터 add-on | Application Web | Application Web Reference Site |
---|---|---|---|---|
1.5 1.6 1.7 1.8 1.9 2.0 2.1 | Core Hadoop with Spark | default 제공 | Ambari Web Console | https://ambari.apache.org/ |
Core Hadoop with Spark | default 제공 | Hue Admin | https://gethue.com/ | |
Core Hadoop with Spark | default 제공 | Zeppelin Notebook | https://zeppelin.apache.org/ | |
Core Hadoop with Spark | default 제공 | Ranger | https://ranger.apache.org/ | |
Core Hadoop with Spark | default 제공 | Namenode | https://hadoop.apache.org/ | |
Core Hadoop with Spark | default 제공 | Yarn Timeline Server | https://hadoop.apache.org/ | |
Core Hadoop with Spark | default 제공 | Yarn Resource Manager | https://hadoop.apache.org/ | |
Core Hadoop with Spark | default 제공 | Tez | https://tez.apache.org/ | |
Core Hadoop with Spark | default 제공 | Oozie | https://oozie.apache.org/ | |
Core Hadoop with Spark | default 제공 | Spark History Server | https://spark.apache.org/ | |
Core Hadoop with Spark | Presto | Presto Coordinator | https://prestodb.io/ | |
Core Hadoop with Spark | HBase | HBase Master | https://hbase.apache.org/ | |
Core Hadoop with Spark | Impala | Impala Server, Impala Statestore, Impala Catalog | https://impala.apache.org/ | |
Core Hadoop with Spark | Kudu | Kudu Master | https://kudu.apache.org/ | |
Core Hadoop with Spark | Trino | Trino Coordinator | https://trino.io/ | |
Core Hadoop with Spark | NiFi | NiFi | https://nifi.apache.org/ |
Cloud Hadoop 1.5부터 제공되는 Namenode UI의 File Broswer 업로드 기능은 사용할 수 없습니다. Hue를 이용해서 업로드해 주십시오.
Web UI 접속
DNS를 이용하여 각 Web UI에 접속할 수 있습니다.
Cloud Hadoop 2.1부터 SSO 연동으로 인하여 Web UI에 접속하려면 NCloud 계정 로그인 인증을 완료해야 합니다.
이용 가능한 Web UI에 접속하는 방법은 다음과 같습니다.
- 네이버 클라우드 플랫폼 콘솔에서 Services > Big Data & Analytics > Cloud Hadoop 메뉴를 차례대로 클릭해 주십시오.
- 클러스터 목록에서 Web UI에 접속할 클러스터를 선택한 후 [Application 별 보기] 버튼을 클릭해 주십시오.
- 팝업창의 Web UI 목록에서 비고란에 있는 Web UI 링크를 클릭해 주십시오.
- 해당 NCloud 로그인 인증 페이지에서 NCloud 계정으로 로그인을 통해 접속해 주십시오.
SSL 보안 정책 강화로 인해 사용자 환경이 Mac OS Catalina, Chrome인 경우에는 Self-signed 인증서 URL 접속 시 에러가 발생할 수 있습니다. 해당 에러 화면의 빈 공간을 클릭한 후 키보드로 thisisunsafe
단어를 입력하면 접속할 수 있습니다.
Mozilla Firefox 브라우저에서는 아래와 같은 경고 메시지가 보입니다. [고급] 버튼을 클릭한 후 [위험을 감수하고 계속 진행] 버튼을 클릭해 주십시오.
Kerberize를 진행한 이후에는 Web UI 페이지 접근 시 Kerberos 인증이 추가됩니다. Kerberize에 대한 자세한 내용은 Secure Hadoop 구성(옵션) 가이드를 참고해 주십시오.
Private IP로 접근
SSL VPN을 켠 상태에서 각 노드의 Private IP를 사용해서 접근할 수 있습니다. Ambari UI 페이지의 Quick Links 링크를 클릭하면 호스트의 Private IP가 아니라, FQDN을 사용하므로 FQDN을 Private IP로 치환해야 합니다.
패스워드 변경
Ambari
Ambari UI 접속 패스워드 변경은 Cloud Hadoop 콘솔의 [클러스터 관리] > 클러스터 관리자 패스워드 초기화 메뉴를 사용하여 설정할 수 있습니다.
자세한 내용은 클러스터 관리자 패스워드 초기화를 참고해 주십시오.
Hue
Hue UI 접속 패스워드를 변경하는 방법은 다음과 같습니다.
- PuTTY를 실행한 후 SSH로 엣지 노드에 접속해 주십시오. (SSH로 클러스터 노드 접속 가이드 참고)
- 아래 명령어를 수행해 패스워드를 변경해 주십시오.
또는 아래와 같이$ pwd /usr/hdp/3.1.0.0-78/hue/build/env/bin # Cloud Hadoop 1.x /usr/nch/3.1.0.0-78/hue/build/env/bin # Cloud Hadoop 2.x $ echo "from django.contrib.auth.models import User; u = User.objects.get(username='기존유저명'); u.set_password('새 비밀번호'); u.save() " | ./hue shell
hue changepassword
명령어를 사용해 패스워드를 변경해 주십시오.$ sudo ./hue changepassword example Changing password for user '기존유저명' Password: Password (again): Password changed successfully for user '기존유저명'
Zeppelin Notebook
Cloud Hadoop에서는 Zeppelin Notebook을 Ambari에서 관리하고 있습니다.
따라서 직접 클러스터에 접속하여 파일을 변경하고 스크립트를 실행하기 보다는 Ambari UI에 접속하여 작업을 수행하는 것을 권장드립니다.
Zeppelin Notebook 비밀번호 변경 방법은 다음과 같습니다.
- Ambari UI 접속 후 클러스터 관리자 계정 ID와 패스워드로 로그인해 주십시오.
- 왼쪽 사이드 바에서 Zeppelin Notebook을 클릭해 주십시오.
- 상단의 [CONFIGS] 탭을 클릭해 주십시오.
- Advanced-zeppelin-shiro-ini 항목을 클릭한 후, 다음과 같이 비밀번호를 수정해 주십시오.
- 우측 하단의 [SAVE] 버튼을 클릭해 주십시오.
- 우측 상단의 [ACTIONS] > Restart All을 클릭한 후, 팝업창의 [CONFIRM RESTART ALL] 버튼을 클릭해 주십시오.
위의 순서대로 작업을 수행하고 Zeppelin Notebook에 접속하면 비밀번호 변경이 적용된 것을 확인할 수 있습니다.