- Hadoop 基础概念
- Hadoop 伪分布式模式部署
- HDFS 的初始化方法
- HDFS 基本操作
- MapReduce 应用的编写和编译方法
- YARN 配置文件的作用
- HBase 的数据模型和基本操作
- Sqoop 的数据传输方法
- 向 Solr 添加数据的方法
- Hive 架构及部署
- Flume 的架构和数据流模型
- Flume Agent 配置方法
- Kafka 的架构及部署
- Flume 与 Kafka 的连接方法
- Pig 使用方法
- HDFS 的基本使用
- Hadoop 各配置项的作用
- HDFS 架构
- MapReduce 核心思想及架构
- YARN 核心思想及架构
- YARN 应用开发方式
- Sqoop 的体系结构
- Solr 特性及部署
- Solr 检索数据的方式
- Hive HQL 语言
- 多数据源下配置和启动 Agent 的方法
- Hive 导入外部数据的方法
- Kafka Connect 的用法
- Pig 架构及部署
杨婷
不会做
学到了很多
跟着步骤一步一步来,自己也记得了一些,在不断做错中汲取经验,从而达到最后圆满的结果
有手就行
OVERVIEW
已完成
已完成
已完成
已学完
已完成
review
review
不错不错
对hadoop的背景、生态、搭建有了比较基础了解;同时以wordcount为例执行了mapreduce任务计算。在实验过程中,因多次执行hdfs namenode -format导致启动时datanode未启动,查询了相关资料才知道要将tmp/下的data、name目录中的VERSION文件的clusterID保持一致。