Sqoop采集mysql数据到HDFS遇到的坑

  • 1. 在sqoop进行数据迁移时,我写了几个简单的脚本,便于后续做定时任务

① 要进行数据导出的数据库信息配置脚本(db_xxx.sh)

#!/bin/sh  

# 数据库信息
export username='root'
export password='12345678' 
export database_url='jdbc:mysql://localhost:3306' 
# 数据库名字 
export base_database_name='test'  
# 要导入的表  
export tables=(log) 
# 导入HDFS的目标路径   
export target_dir='/private/tmp/dfs/data' 
# 增量导入监测的列
export monitor_col_array=('time')
# 增量导入各列的last-value值
export last_value_array=('2017-09-05') 

# 环境变量     
source /etc/profile  

② 存放数据库信息配置脚本的一个脚本(dbs.sh)

#!/bin/sh  

# 环境变量     
source /etc/profile 
# 各个数据库配置的数组
export dbs_conf_array=(db_xxx.sh)
 

③ 配置sqoop导入命令的脚本(run.sh)
-- 每行后面的\前有空格,\后面直接回车到下一行
-- 在这里写了循环,便于导入其他数据库时,只需写一个数据库信息配置脚本 再加入dbs.sh

#!/bin/sh
    # 定义一个整形变量      
    a=0
    for table_name in ${tables[*]}  
    do     
sqoop job --create ${table_name} \
-- import --connect ${database_url}/${base_database_name}  \
--username ${username} \
--password ${password} \
--table ${table_name} \ 
--target-dir ${hdfs_target_dir}/${base_database_name}/${table_name} \
--check-column ${monitor_col_array[$a]} \
--incremental append \
--last-value ${last_value[$a]}
      sqoop job --exec ${table_name}
      let a++
    done  

④ 配置最终要运行的脚本(base_import.sh)

#!/bin/sh  
# 执行,run.sh 和当前文件同级  
base_home='/usr/local/Cellar/sqoop/1.4.6/libexec/conf'  
source ${base_home}/dbs.sh

for db_cfg in ${dbs_conf_array[*]}
    do
        source ${base_home}/$db_cfg;
        # 数据库信息
        export username=${username}
        export password=${password}
        export database_url=${database_url}
        # 数据库名字 
        export base_database_name=${base_database_name} 
        # 要导入的表  
        export tables=${tables} 
        # 导入HDFS的目标路径   
        export hdfs_target_dir=${target_dir}
        # 增量导入监测数据库的列
        export monitor_col_array=${monitor_col_array}
        # last-value
        export last_value_array=${last_value_array}

        # 环境变量     
        source /etc/profile 
        # 执行导入  
        source ${base_home}/run.sh  
    done
  • 2. 将脚本放在服务器上执行时,遇到了如下几个问题
(1) 无法创建job
问题描述:

把一个sqoop job删除后,再次创建任何job报类似如下错:
ERROR org.apache.sqoop.metastore.hsqldb.HsqldbJobStorage - Cannot restore job

问题原因:

缺省时,Sqoop metastore自动连接存储在~/.sqoop/.目录下的本地嵌入式数据库。然而要在Oozie中执行Sqoop job需要Sqoop使用共享的元数据存储,否则会报上述的错。

解决方案:

在sqoop-site.xml里面,将如下配置的注释去掉(默认配置文件是把这些配置项注释了的)

<!-- 启用metastore(默认value是false) -->
 <property>
    <name>sqoop.metastore.client.enable.autoconnect</name>
    <value>true</value>
    <description>If true, Sqoop will connect to a local metastore
      for job management when no other metastore arguments are
      provided.
    </description>
 </property>

  <property>
    <name>sqoop.metastore.client.autoconnect.url</name>
    <value>jdbc:hsqldb:file:/tmp/sqoop-meta/meta.db;shutdown=true</value>
    <description>The connect string to use when connecting to a
      job-management metastore. If unspecified, uses ~/.sqoop/.
      You can specify a different path here.
    </description>
  </property>
  <property>
    <name>sqoop.metastore.client.autoconnect.username</name>
    <value>SA</value>
    <description>The username to bind to the metastore.
    </description>
  </property>
  <property>
    <name>sqoop.metastore.client.autoconnect.password</name>
    <value></value>
    <description>The password to bind to the metastore.
    </description>
  </property>

  <!-- sqoop执行时会让输入密码,这里value改成true后,会自动保存密码,这样就可以做定时任务(job自动执行) -->
   <property>
    <name>sqoop.metastore.client.record.password</name>
    <value>true</value>
    <description>If true, allow saved passwords in the metastore.
    </description>
  </property>

  <property>
    <name>sqoop.metastore.server.location</name>
    <value>/tmp/sqoop-metastore/shared.db</value>
    <description>Path to the shared metastore database files.
    If this is not set, it will be placed in ~/.sqoop/.
    </description>
  </property>
  <property>
    <name>sqoop.metastore.server.port</name>
    <value>16000</value>
    <description>Port that this metastore should listen on.
    </description>
  </property>
(2) mapreduce执行一半,出现数据库连接超时
问题描述:

在hadoop集群上,执行任务。map完成了一些后,突然报数据库连接超时的错误。然后map还可继续执行,但是任务状态为failed;

问题原因:

考虑到hadoop的mapreduce在执行job时会向各节点分发任务。我之前只对当前节点进行了数据库连接授权,其他节点没授权。

解决方案:

对集群的每个节点进行数据库连接授权

(3) 任务执行到running job时就卡死了
解决方案:

节点的内存不够,CPU也不够。加大了各个节点的CPU和内存。(自己的解决方式,通过Ambari来修改的)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,189评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,577评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,857评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,703评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,705评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,620评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,995评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,656评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,898评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,639评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,720评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,395评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,982评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,953评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,195评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,907评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,472评论 2 342

推荐阅读更多精彩内容