CDH5.15.0安装spark2.3

news/2024/8/26 15:19:35

简介:

在我的CDH5.15.0集群中,默认安装的spark是1.6版本,这里需要将其升级为spark2.x版本。经查阅官方文档,发现spark1.6和2.x是可以并行安装的,也就是说可以不用删除默认的1.6版本,可以直接安装2.x版本,它们各自用的端口也是不一样的。我尝试了安装spark2.3版本,大告成功,这里做一下安装spark2.3版本的步骤记录。

一.  安装准备

所需软件

②parcel包:http://archive.cloudera.com/spark2/parcels/2.3.0.cloudera4/

以上均选择红框内的内容下载。

注意,下载对应版本的包,我的CentOS6,所以下载el6的包,若是CentOS7,就要下el7的包。

二.  开始安装

1.安装前可以停掉集群和Cloudera Management Service,也可以不停,但是待会还是要停止重启的。

2.上传CSD包到每台服务器上的/opt/cloudera/csd目录,并且修改文件的用户和组。注意如果本目录下有其他的jar包,把删掉或者移到其他目录----cdn包放在/opt/cloudera/csd目录才能被识别

注意给jra包分组:chown -R cloudera-scm:cloudera-scm /opt/cloudera/

3.上传

manifest.json

SPARK2-2.3.0.cloudera4-1.cdh5.13.3.p0.611179-el6.parcel

SPARK2-2.3.0.cloudera4-1.cdh5.13.3.p0.611179-el6.parcel.sha1到主节点,并且重新命名

mv SPARK2-2.3.0.cloudera4-1.cdh5.13.3.p0.611179-el6.parcel.sha1 SPARK2-2.3.0.cloudera4-1.cdh5.13.3.p0.611179-el6.parcel.sha

到机器master的/opt/cloudera/parcel-repo目录下。注意:将   SPARK2-2.3.0.cloudera4-1.cdh5.13.3.p0.611179-el6.parcel.sha1重命名为   SPARK2-2.3.0.cloudera4-1.cdh5.13.3.p0.611179-el6.parcel.sha。如果有其他的安装包,不用删除 ,但是如果本目录下有其他的重名文件比如manifest.json文件,把它重命名备份掉。然后把那3个parcel包的文件放在这里。

4.如果刚刚没有停掉CM和集群,现在将他们停掉。然后运行命令。
#启动主节点cloudera-scm-server
/opt/cm-5.15.0/etc/init.d/cloudera-scm-server start
#启动所有节点cloudera-scm-agent
/opt/cm-5.15.0/etc/init.d/cloudera-scm-agent start

5.把CM和集群启动起来。然后点击主机->Parcel页面,看是否多了个spark2的选项。如下图,你这里此时应该是分配按钮,点击,等待操作完成后,点击激活按钮

6.激活后,点击你的群集-》添加服务,添加spark2服务。注意,如果你这里看不到spark2服务,就请检查你的CSD包和parcel包是否对应,上面的步骤是否有漏掉。正常情况下,应该是能用了。我的集群到此已经OK.

最后附上一个成功集成spark2的截图

 


http://www.niftyadmin.cn/n/3537923.html

相关文章

java sqoop api 导mysql数据到hdfs

package com.example.demo.controller;import org.apache.hadoop.conf.Configuration; import org.apache.sqoop.Sqoop; import org.apache.sqoop.tool.SqoopTool; import org.apache.commons.lang3.StringUtils; /*** 创建人 **** 创建时间 2018/12/20*/ public class sqoopte…

centos安装mysql 在线安装

yum install mysql-server -y service mysqld start chkconfig mysqld on chkconfig --list mysqld mysql 进入mysql命令行接口 mysql -u root; use mysql; select user, host, password from user; CREATE USER yishikeji% IDENTIFIED BY yishikeji; GRANT ALL PRIVILEGES ON…

Java几种常用JSON库性能比较

SON不管是在Web开发还是服务器开发中是相当常见的数据传输格式,一般情况我们对于JSON解析构造的性能并不需要过于关心,除非是在性能要求比较高的系统。 目前对于Java开源的JSON类库有很多种,下面我们取4个常用的JSON库进行性能测试对比&…

我司Spark迁移Hive数据到MongoDB生产案例代码

github地址:https://github.com/yanglin502/sparkhivetomg/tree/master/sparkhivetomg 文章转自 若泽大数据:https://open.weixin.qq.com/connect/oauth2/authorize?appidwxc8cfdff818e686b9&redirect_urihttp%3A%2F%2Fkf.qq.com%2Ftouch%2Fsappfa…

代码 | Spark读取mongoDB数据写入Hive普通表和分区表

版本: spark 2.2.0 hive 1.1.0 scala 2.11.8 hadoop-2.6.0-cdh5.7.0 jdk 1.8 MongoDB 3.6.4 一 原始数据及Hive表 MongoDB数据格式 {"_id" : ObjectId("5af65d86222b639e0c2212f3"),"id" : "1","name" …

HBase2.0新特性之In-Memory Compaction

摘要: In-Memory Compaction是HBase2.0中的重要特性之一,通过在内存中引入LSM结构,减少多余数据,实现降低flush频率和减小写放大的效果。本文根据HBase2.0中相关代码以及社区的讨论、博客,介绍In-Memory Compaction的使…

HBase 入门之数据刷写(Memstore Flush)详细说明

文章转自微信公众号:iteblog_hadoop 接触过 HBase 的同学应该对 HBase 写数据的过程比较熟悉(不熟悉也没关系)。HBase 写数据(比如 put、delete)的时候,都是写 WAL(假设 WAL 没有被关闭&#xf…

spark 2.4让你飞一般的处理复杂数据类型

转自微信公众号: spark技术分享 spark 2.4 对复杂数据处理类型引入了 29 个内嵌函数,文档参考 https://docs.databricks.com/_static/notebooks/apache-spark-2.4-functions.html,里面包含一些 higher-order 函数,就跟scala 里面…