一、scala安装
首先下载scala压缩包wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz解压tar -zxvf scala-2.11.7.tgz移动目录mv scala-2.11.7 /usr/local/改名cd /usr/local/
mv scala-2.11.7 scala配置环境变量vim /etc/profile
export SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin环境变量生效source /etc/profile查看scala版本scala -version分发scala到其他主机scp -r /usr/local/scala/ root@Master:/usr/local/
scp -r /usr/local/scala/ root@Slave2:/usr/ 香港云主机local/二、spark安装
复制spark压缩包 到容器中docker cp /root/spark-2.1.2-bin-hadoop2.4.tgz b0c77:/查看并解压
在profile中添加spark环境变量
生效环境变量source /etc/profile编辑spark-env.shvim /usr/local/spark/conf/spark-env.shcp slaves.template slavesvi conf/slavesscp -r /usr/local/spark/ Master:/usr/localscp -r /usr/local/spark/ Slave2:/usr/local
同时其他两个节点也要修改 /etc/profile
启动spark./sbin/start-all.sh
成功打开之后使用jps在Master、Slave1和Slave2节点上分别可以看到新开启的Master和Worker进程。
成功打开Spark集群之后可以进入Spark的WebUI界面,可以通过
SparkMaster_IP:8080
端口映射:iptables -t nat -A DOCKER -p tcp –dport 8080 -j DNAT –to-destination 172.17.0.2:8080此时我们可以通过映射到宿主机的端口访问,可见有两个正在运行的Worker节点。
打开Spark-shell
使用spark-shell推出spark-shell的命令是“:quit”
因为shell在运行,我们也可以通过
SparkMaster_IP:4040(172.17.0.2:4040)访问WebUI查看当前执行的任务。
先进行端口映射:iptables -t nat -A DOCKER -p tcp –dport 4040 -j DNAT –to-destination 172.17.0.2:4040
这篇文章主要介绍了vue中如何动态修改a标签的样式的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇vue中如何动态修改a标 香港云主机签的样式文章都会有所收获,下面我们一起来看看吧。代码如下:像下面这样:下面是我项目中的代码:上面的…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。