版本比较
标识
- 该行被添加。
- 该行被删除。
- 格式已经改变。
1、卸载Spark
①停止spark服务
进入spark安装目录中,执行脚本停止spark服务,参考如下:
代码块 | ||
---|---|---|
| ||
cd /opt/spark-2.4.0-bin-hadoop2.7/bin
./stop-all.sh |
②如果部署Spark服务时开启了防火墙端口,则需要关闭对应的端口,参考如下:
代码块 | ||
---|---|---|
| ||
firewall-cmd --zone=public --remove-port=8080/tcp --permanent
firewall-cmd --zone=public --remove-port=8081/tcp --permanent
firewall-cmd --zone=public --remove-port=7077/tcp --permanent
firewall-cmd --zone=public --remove-port=30000-65535/tcp --permanent
firewall-cmd --reload |
③删除安装目录即可完成卸载
2、卸载Hadoop
①停止hadoop服务
进入hadoop安装目录,执行脚本停止hadoop服务,参考如下:
代码块 | ||
---|---|---|
| ||
cd /opt/hadoop-2.7.3/
./sbin/stop-dfs.sh |
②如果部署Hadoop服务时开启了防火墙端口,则需要关闭对应的端口,参考如下:
代码块 | ||
---|---|---|
| ||
firewall-cmd --zone=public --remove-port=50090/tcp --permanent
firewall-cmd --zone=public --remove-port=50070/tcp --permanent
firewall-cmd --zone=public --remove-port=9000/tcp --permanent
firewall-cmd --zone=public --remove-port=50010/tcp --permanent
firewall-cmd --zone=public --remove-port=50075/tcp --permanent
firewall-cmd --zone=public --remove-port=50020/tcp --permanent
firewall-cmd --reload |
③删除安装目录及hadoop数据目录即可完成卸载
3、卸载数据挖掘服务
①停止数据挖掘实验引擎和数据挖掘实验服务
进入数据挖掘安装目录,执行脚本停止数据挖掘服务,参考如下:
代码块 | ||
---|---|---|
| ||
cd /opt/smartbi-mining-engine-bin/engine/sbin
./experiment-daemon.sh stop
./service-daemon.sh stop |
②如果部署数据挖掘服务时开启了防火墙端口,则需要关闭对应的端口,参考如下:
代码块 | ||
---|---|---|
| ||
firewall-cmd --zone=public --remove-port=8899/tcp --permanent
firewall-cmd --zone=public --remove-port=8900/tcp --permanent
firewall-cmd --reload |
③删除数据挖掘安装目录即可完成卸载
目录 |
---|