Zeppelin-0.7.3 + Spark-2.1.0 클러스터 모드 설치Big Data2018. 4. 3. 14:56
Table of Contents
1). Zeppelin 파일을 다운 받고 압축을 해제한다.
wget http://mirror.navercorp.com/apache/zeppelin/zeppelin-0.7.3/zeppelin-0.7.3-bin-all.tgz
tar zxfv zeppelin-0.7.3-bin-all.tgz
2). Zeppelin 설정
[zeppelin-env.sh]
#환경 변수 설정을 해준다.
export SPARK_HOME=/opt/spark/spark-2.1.0-bin-hadoop2.7
export HADOOP_CONF_DIR=/opt/hadoop/current/etc/hadoop
export ZEPPELIN_PORT=8888
export JAVA_HOME=/opt/jdk/current
export SPARK_SUBMIT_OPTIONS="--packages com.databricks:spark-csv_2.10:1.2.0"
export MASTER=spark://nn01:7077
[zeppelin-site.xml]
#Spark Web UI와 포트가 겹치니 수정해준다.
<property>
<name>zeppelin.server.port</name>
<value>8888</value>
<description>Server port.</description>
</property>
[shiro.ini]
#사용자 정보를 수정한다.
[users]
# List of users with their password allowed to access Zeppelin.
admin = admin, admin
[interpreter.json]
#Spark 클러스터 정보를 입력한다.
#spark.Utils.InvolkeMethod 장애 발생 시 useHiveContext 설정 값을 false로 변경한다.
"master": "spark://nn01:7077"
"zeppelin.spark.useHiveContext": "false"
3). zeppelin-daemon.sh start 명령어로 실행한다.
반응형
'Big Data' 카테고리의 다른 글
Zeppelin-0.9.1 + Spark-2.2.0 연동 과정에서 connection refused 장애 해결 방법 (0) | 2018.07.31 |
---|---|
kafka 리눅스 환경에서 IPv4로 실행 (0) | 2018.06.11 |
Spark-Shell에서 Initial job has not accepted.. 장애 해결 (0) | 2018.04.03 |
Apache Hadoop-2.7.5와 Spark-2.1.0 완전 분산 모드 설치 (0) | 2018.04.03 |
HDFS 데이터 블럭 balancer 실행 명령어 (0) | 2018.03.27 |
@kogun82 :: Ctrl+C&V 로 하는 프로그래밍
Korean BioInformation Center(KOBIC) Korea Research Institute of Bioscience & Biotechnology Address: #52 Eoeun-dong, Yuseong-gu, Deajeon, 305-806, KOREA +82-10-9936-2261 e-mail: kogun82@kribb.re.kr Blog: kogun82.tistory.com Homepage: www.kobic.re.kr
포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!