专栏名称: DBAplus社群
围绕数据库、大数据、PaaS云,顶级大咖、技术干货,运营几个月受众过十万!成为运维圈最专注围绕“数据”的学习交流和专业社群!欢迎投稿,加入探讨。
目录
相关文章推荐
dbaplus社群  ·  MySQL 8.0 的这个参数千万别乱改! ·  12 小时前  
KubeSphere云原生  ·  OceanBase 上架 ... ·  昨天  
数据中心运维管理  ·  什么是数据中心布线以及主要布线标准? ·  2 天前  
AustinDatabases  ·  云数据库产品应改造PostgreSQL逻辑复 ... ·  昨天  
AustinDatabases  ·  泉城济南IvorySQL 2025 ... ·  2 天前  
AustinDatabases  ·  泉城济南IvorySQL 2025 ... ·  2 天前  
51好读  ›  专栏  ›  DBAplus社群

这是一篇最通熟易懂的Hadoop HDFS实践攻略!

DBAplus社群  · 公众号  · 数据库  · 2017-05-17 07:22

正文

请到「今天看啥」查看全文



安装完成后,在命令行终端下就可以使用vagrant命令。


3)下载Hadoop镜像

链接: https://pan.baidu.com/s/1bpaisnd

密码: pn6c


4)启动


加载Hadoop镜像

vagrant box add {自定义镜像名称} {镜像所在路径}


例如您想命名为Hadoop,镜像下载后的路径为d:\hadoop.box,加载命令就是这样:

vagrant box add hadoop d:\hadoop .box


创建工作目录,例如d:\hdfstest。


进入此目录,初始化

cd d:\hdfstest

vagrant init hadoop


启动虚机

vagrant up


启动完成后,就可以使用SSH客户端登录虚机了

IP   127.0.0.1

端口 2222

用户名 root

密码 vagrant


登录后使用命令ifconfig 查看本虚机的IP(如 192.168.31.239 ),可以使用此IP和端口22登录了

IP   192.168.31.239

端口 22

用户名 root

密码 vagrant


Hadoop服务器环境搭建完成。


2 、Shell命令行操作


登录Hadoop服务器后,先启动HDFS,执行命令:

start-dfs.sh


  • 查看帮助

hdfs dfs –help


显示目录信息

-ls 后面是要查看的目录路径


创建目录

创建目录/test

hdfs dfs -mkdir /test


一次创建多级目录/aa/bb

hdfs dfs -mkdir -p /aa/bb


  • 上传文件


形式

hdfs dfs -put {本地路径} {hdfs中的路径}


实例(先创建好一个测试文件 mytest.txt,内容随意,然后上传到/test

hadoop fs    -put       ~/mytest.txt /test


  • 显示文件内容

hdfs dfs -cat /test/mytest.txt


  • 下载文件

hdfs dfs -get /test/mytest.txt ./mytest2.txt


  • 合并下载


先创建2个测试文件(log.access, log.error),内容随意,使用-put上传到 /test目录下

hdfs dfs -put log.* /test


然后把2个log文件合并下载到一个文件中

hdfs dfs -getmerge /test/log.* ./log


查看本地log文件内容,应该包含 log.access log.error两个文件的内容。


  • 复制


从HDFS的一个路径拷贝HDFS的另一个路径







请到「今天看啥」查看全文