Sqoop -- 使用Sqoop导入数据到HDFS

一、import

       导入工具从RDBMS到HDFS导入单个表。表中的每一行被视为HDFS的记录。所有记录被存储在文本文件的文本数据或者在Avro和序列文件的二进制数据。

二、命令使用介绍
$ ./bin/sqoop help    # 查看sqoop所支持的工具
Result显示:
Available commands(可用的命令):
  codegen            Generate code to interact with database records
  create-hive-table  Import a table definition into Hive
  eval               Evaluate a SQL statement and display the results
  export             Export an HDFS directory to a database table
  help               List available commands
  import             Import a table from a database to HDFS
  import-all-tables  Import tables from a database to HDFS
  import-mainframe   Import datasets from a mainframe server to HDFS
  job                Work with saved jobs
  list-databases     List available databases on a server
  list-tables        List available tables in a database
  merge              Merge results of incremental imports
  metastore          Run a standalone Sqoop metastore
  version            Display version information

See 'sqoop help COMMAND' for information on a specific command.

对于我们并不清楚该怎么使用,我么可以使用如下命令进行查询:

sqoop help COMMAND

例如:

./bin/sqoop help list-databases
结果显示如下(截取部分):
Common arguments:
   --connect <jdbc-uri>                                       Specify JDBC
                                                              connect
                                                              string
   --help                                                     Print usage
                                                              instructions
 
   --password <password>                                      Set
                                                              authenticati
                                                              on password
   --temporary-rootdir <rootdir>                              Defines the
                                                              temporary
                                                              root
                                                              directory
                                                              for the
                                                              import

   --username <username>                                      Set
                                                              authenticati
                                                              on username

例子:

./bin/sqoop list-databases  \
       --connect jdbc:mysql://localhost:3306  \ 
       --username root 
       --password mysql
三、import命令执行步骤

①. 获取元数据信息(关系型数据库中表的元数据信息)
②. 提交map任务(没有reduce任务)

四、import小例子

1.在关系型数据库mysql中创建my_user表

mysql> create table my_user(
    -> id INT,
    -> name VARCHAR(100),
    -> PRIMARY KEY (id),
    -> );

2.插入数据

mysql> insert into my_user values(1, "zhangsna");
mysql> insert into my_user values(2, "lisi");
mysql> insert into my_user values(3, "wangwu");

mysql> select * from my_user;
+----+----------+
| id | name     |
+----+----------+
|  1 | zhangsna |
|  2 | lisi     |
|  3 | wangwu   |
+----+----------+
3 rows in set (0.00 sec)

3.执行import语句

sqoop$ ./bin/sqoop import
            --connect jdbc:mysql://localhost:3306/test
            --username root 
            --password mysql
            --table my_user;

默认的导出路径是在当前用户主目录下(我的主目录是:/user/hadoop),查看导出文件:

./bin/hdfs dfs -ls -R /user/hadoop
drwxr-xr-x   - hadoop supergroup          0 2018-08-11 01:11 /user/hadoop/my_user
-rw-r--r--   1 hadoop supergroup          0 2018-08-11 01:11 /user/hadoop/my_user/_SUCCESS
-rw-r--r--   1 hadoop supergroup         11 2018-08-11 01:11 /user/hadoop/my_user/part-m-00000
-rw-r--r--   1 hadoop supergroup          7 2018-08-11 01:11 /user/hadoop/my_user/part-m-00001
-rw-r--r--   1 hadoop supergroup          9 2018-08-11 01:11 /user/hadoop/my_user/part-m-00002

hadoop$ ./bin/hdfs dfs -cat /user/hadoop/my_user/part*
1,zhangsna
2,lisi
3,wangwu
四、import命令其他参数
1. --target-dir <dir>   指定导出路径
2.--num-mappers <n>     指定map任务的个数
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,802评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,109评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,683评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,458评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,452评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,505评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,901评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,550评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,763评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,556评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,629评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,330评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,898评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,897评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,140评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,807评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,339评论 2 342

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,579评论 18 139
  • sqoop数据导入导出应用案例 1 sqoop导入数据 将RDBMS中的一个表数据导入到hdfs。表中的每一行被视...
    yanzhelee阅读 1,991评论 0 3
  • 1/列出mysql数据库中的所有数据库sqoop list-databases -connect jdbc:mys...
    时待吾阅读 2,739评论 1 5
  • 我该如何将你比作夏天呢 你很可爱,很温婉 狂风想把五月的蓓蕾摇落,留下一地遗憾 夏天的足迹匆忙,人们该将如何追赶夏...
    鹿宥宥阅读 9,855评论 0 8
  • 就像你不会绝对的爱着我 我也不会绝对的依恋你 就像你不会绝对的恨着我 我也不会绝对的算计你 无绝对的公平 无绝对的...
    鄢梦琪阅读 291评论 0 0