1, 配置多台机器可以免密登陆:
步骤:
(Tip: 正常情况下 authorized_keys 应该同 id_rsa.pub)
1) 用 ssh-keygen 命令生成公匙
2) 接着在 Master 节点上做如下配置, 把 id_rsa.pub 追加到授权的 key 里面去.
cat /home/haoxin/.ssh/id_rsa.pub>>~/.ssh/authorized_keys/
3) 给自己加 sudo 权限:
- sudo vim /etc/sudoers
- haoxin ALL=(ALL) NOPASSWD: ALL
- wq!
4) 复制公匙到别的服务器上:
scp -r ~/.ssh/* mailto:root@10.10.67.122 :~/.ssh
scp ~/.ssh/* 远程用户名 @远程服务器 IP:~/
最好. ssh 目录是 700
.ssh / 目录下是 600
如果不修改成这样, 后期会出现:
bad permissions: ignore key: /root/.ssh/id_rsa
也就是配置的公匙失效了;
最后多台机器 reboot 重启一下, 就可以互相免密登陆;
总结 Tip:
1,scp -r ~/.ssh/ 主机名 @ip:~/.ssh/;
2, 查看系统 log 日志的方法:
tail -f /data/cloud/deploy/src/hadoop-2.7.3/logs/hadoop-haoxin-namenode-haoxintest1.master.chx.com.log
3, 创建 namenode 进程的方法:
hdfs namenode -format 先将 namenode 格式化
hadoop-daemon.sh start namenode
4,HDFS 即 Hadoop 分布式文件系统 (Hadoop Distributed Filesystem), 以流式数据访问模式来存储超大文件;
5,hdfs-site.xml 里面的配置信息是用来设置 namenode 是哪个主机的;
Yarn-site.xml 里面的配置信息也是一样;
碰到过的坑:
1,hadoop 已经做了软链接, 为什么还是执行不了?
权限所属问题不对
如果权限所属问题也改了, 还是不能执行, 可以有个终极解决办法:
在如下路径编辑一个脚本文件, 然后重启就可以了
Sudo vim /etc/profile.d/hadoop.sh
内容如下:
- # set hadoop
- export HADOOP_HOME=/usr/local/cloud/hadoop
- export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
- export HADOOP_CONF_DIR=/usr/local/cloud/hadoop/etc/hadoop
- export YARN_CONF_DIR=/usr/local/cloud/hadoop/etc/hadoop
来源: http://www.bubuko.com/infodetail-2689575.html