使用SSH在电脑之间传输文件,因为本教程已经用VMware 14 克隆 CentOS 7,把主机的整个Hadoop文件到其他电脑上,达到Hadoop创建从机的要求。在此就不再详述。
如果是使用其他台式物理电脑的朋友,可以使用使用ssh将配置好的hadoop传到另外从机电脑上
本教程使用ssh将在主机上配置好的hadoop和环境变量路径传到另外两台虚拟机
第一步:
查看此时路径:
第二步:
使用scp传输Hadoop的根目录到hadoop2:/Myhadoop/hadoop-2.7.4上(详细的scp命令见下面)
第三步:
同理第二步
第四步:
传输profile文件
SSH的例子:在linux下一般用scp这个命令来通过ssh传输文件
1、从服务器上下载文件
scp username@servername:/path/filename /var/www/local_dir(本地目录)
例如scp root@192.168.0.101:/var/www/test.txt
把192.168.0.101上的/var/www/test.txt 的文件下载到/var/www/local_dir(本地目录)
2、上传本地文件到服务器
scp /path/filename username@servername:/path
例如scp /var/www/test.php root@192.168.0.101:/var/www/
把本机/var/www/目录下的test.php文件上传到192.168.0.101这台服务器上的/var/www/目录中
3、从服务器下载整个目录
scp -r username@servername:/var/www/remote_dir/(远程目录) /var/www/local_dir(本地目录)
例如:scp -r root@192.168.0.101:/var/www/test /var/www/
从服务器root@192.168.0.101:/var/www/test下载整个目录到/var/www/
4、上传目录到服务器
scp -r local_dir username@servername:remote_dir
例如:scp -r test root@192.168.0.101:/var/www/
把当前目录下的test目录上传到服务器的/var/www/ 目录
快速链接 上一篇汇总目录下一篇 5.3.2 安装密钥 云计算数据平台-hadoop集群 5.4 构建HDFS