环境
CentOS 6.8 64位 1核 2GB
JDK 1.7.0_75 64 位
Hadoop 1.1.2
Hive 0.12.0
Mysql 5.6.21
Sqoop 1.4.5
MySql数据导入到HDFS
- 查看 mysql 中的数据表
1 | mysql -uhive -phive |
- sqoop 列出 mysql 中所有数据库
1 | $ sqoop list-databases --connect jdbc:mysql://hadoop:3306/ --username hive --password hive |
- 把 hive 数据库 TBLS 表中数据导入到 HDFS
1 | $ sqoop import --connect jdbc:mysql://hadoop:3306/hive --username hive --password hive --table TBLS -m 1 |
- 查看导出结果
1 | $ hadoop fs -ls /user/yohann/TBLS |
MySql导出表数据到Hive
- 启动 metastore 和 hiveserver
1 | $ hive --service metastore & |
- 查看启动进程
1 | $ jps |
确保以上进程都存在。
- 导出
1 | $ hadoop fs -rmr /user/yohann/TBLS |
导出之前,先把刚刚生成的文件夹删掉
- 查看导出结果
1 | $ hive |
登录 hive,在 hive 中查看该表。