HDFS集群环境部署
一、https://hadoop.apache.org中下载安装包
二、环境分配
三、上传、解压
确认服务器创建、固定IP、防火墙关闭、Hadoop用户创建、SSH免密、JDK部署等
hdfs–site.xml
①、dfs.datanode.data.dir.perm 700
hdfs文件系统,默认权限700,rwx——
②、dfs.namenode.name.dir /data/nn
NameNode元数据的存储位置 在node1节点的/data/nn目录下
需要在node1节点:mkdir –p /data/nn mkdir data/dn 创建两个文件夹目录
③、dfs.namenode.hosts
NameNode允许哪几个节点的DataNode连接(即允许加入集群)
node1/node2/node3这三台服务器被授权
⑤、dfs.namenode.handler.count
namenode处理的并发线程数 100 表示以100个并行度处理文件系统的管理任务
⑥、dfs.datanode.data.dir
从节点dataNode的数据存储目录
/data/dn,即数据存放在node1,node2,node3三台机器的/data/dn内
mkdir –p /data/dn 需要在node2,node3各创建一个文件夹目录
五、从node1将hadoop安装目录文件夹远程复制到node2node3,并且配置环境变量
为了确保安全,hadoop系统不以root用户启动,将以普通的hadoop来启动整个hadoop服务
所以需要对文件权限进行授权(前提需要创建好hadoop用户,并配置好了hadoop用户之间免密登录)
七、对整个文件系统执行初始化
通过jsp命令查看,三台节点的运行程序
八、浏览器查看
关闭hadoop系统之后,然后init 0,关闭虚拟机,进行快照操作
======================================================================================
HDFS的Shell操作
协议头file:/// 或hdfs://node1:8020/ 可以省略
①、创建文件夹
# path 为待创建的目录
# -p选项的行为与Linux mkdir -p一致,沿着路径创建父目录
hadoop fs -mkdir -p /michael/bigdata
hadoop fs -mkdir -p hdfs://node1:8020/michael/bigdata #带上协议头
hdfs fs -mkdir -p /michael/hadoop
# 如果添加协议头(在Linux创建)
hadoop fs -mkdir -p file:///home/hodoop/test
# path 指定目录路径
# -h 人性化显示文件size kb
# -R 递归查看指定目录以及子目录
hadoop fs -ls / # hadoop根目录下
hdfs dfs -ls -R /
# -f 覆盖目标文件
# -p 保留访问和修改时间,所有权和权限
# localsrc 本地文件系统(客户端所在机器)
# dst 目标文件系统(HDFS)
hadoop fs -put word.txt /michael
hdfs dfs -put file:///etc/prifile hdfs://node1:8020/michael
hadoop fs -cat /test.txt
# 对于大文件,可以使用管道符配合more 按下空格进行翻页查看
hdfs dfs -cat /test.txt | more
⑤、下载HDFS文件
# -f 覆盖目标文件
# -p 保留访问和修改时间,所有权和权限
# HDFS->Linux下载
hadoop fs -get /test.txt . # .表示当前目录
⑥、拷贝HDFS文件
# HDFS->HDFS
hadoop fs -cp /test.txt /home/
# 也可以添加-p强制覆盖,并改名
hadoop fs -cp /test.txt /home/abc.txt
echo 1 >> 1.txt
echo 2 >> 2.txt
echo 3 >> 3.txt
hadoop fs -put 1.txt /
hadoop fs -cat /1.txt
# 本地内容追加到hdfs
hadoop fs -appendToFile 2.txt 3.txt /1.txt
hadoop fs -cat /1.txt
⑧、移动
hadoop fs -mv /test.txt /michael
hadoop fs -mv /test.txt /michael/abx.txt #移动之后还可以改名
⑨、删除
hadoop fs -rm -f /home # 删除home文件夹目录
hadoop fs -rm /michael/test.txt # 删除文件,不需要添加-r
hadoop fs -rm -r -skipTrash /michael
除了以上通过命令的方式查看文件,可以通过浏览器进行查看
但没有权限去操作,只能查看。
①、以DataGrip工具为例,安装Big Data Tools插件
或者
HDFS客户端-NFS
进入cd /export/server/hadoop/etc/hadoop目录下配置如下文件
②、将以上node1配置好的节点复制到node2和node3中
HDFS的存储原理
block块
副本要放在不同的服务器,可以设置配置文件决定副本存储,还可以通过命令临时设置
NameNode元数据
NameNode基于一批edits和一个fsimage文件的配合完成对整个文件系统的管理和维护。
原文地址:https://blog.csdn.net/usa_washington/article/details/134748119
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_36538.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!