Sqoop导出hive的parquet格式数据到mysql报错_noclassdeffounderror: org/datanucleus/nucleusconte-程序员宅基地

技术标签: sqoop  parquet  

1.1 在本地mysql建表

create table if not exists ads_nshop_flowpu_stat(
uv bigint NOT NULL COMMENT '独立访客数',
pv bigint NOT NULL COMMENT '页面访客数',
pv_avg double NOT NULL COMMENT '人均页面访问数',
bdp_day varchar(12) NOT NULL COMMENT '日期'
)ENGINE=InnoDB DEFAULT CHARSET=utf8;
1.2 初次导数据 报错

在使用Sqoop抽取Hive Parquet表,脚本如下
sqoop export --connect jdbc:mysql://10.0.15.23:3306/test \
--driver com.mysql.jdbc.Driver \
--table ads_nshop_flowpu_stat \
-m 1 \
--username root --password root \
--input-fields-terminated-by '\t' \
--input-null-string '\\N' \
--input-null-non-string '\\N' \
--export-dir /hive/db/qf_shi.db/ads_nshop_flowpu_stat/*
报错如下
ERROR sqoop.Sqoop: Got exception running Sqoop: org.kitesdk.data.DatasetNotFoundException: Descriptor location does not exist: hdfs://qf/hive/db/qf_shi.db/ads_nshop_flowpu_stat/*/.metadata
org.kitesdk.data.DatasetNotFoundException: Descriptor location does not exist: hdfs://qf/hive/db/qf_shi.db/ads_nshop_flowpu_stat/*/.metadata


解决方法

  使用--hcatalog-database、--hcatalog-table替换--export-dir参数,修改命令如下

解决方法

使用–hcatalog-database、–hcatalog-table替换–export-dir参数,修改命令如下

1.3 第二次导数据 使用--hcatalog-XXXX

sqoop export --connect jdbc:mysql://10.0.15.23:3306/test \
--driver com.mysql.jdbc.Driver \
--table ads_nshop_flowpu_stat \
--username root --password root \
--hcatalog-database qf_shi \
--hcatalog-table ads_nshop_flowpu_stat \
-m 1


各种报错 缺jar包

1.4 各种报错 缺jar包 
java.lang.NoClassDefFoundError: org/apache/hive/hcatalog/mapreduce/HCatOutputFormat
java.lang.ClassNotFoundException: org.apache.hive.hcatalog.mapreduce.HCatOutputFormat

cp hive-hcatalog-core-2.1.1.jar /home/framework/sqoop-1.4.7/lib/

Caused by: java.lang.ClassNotFoundException: org.datanucleus.NucleusContext

 cp datanucleus-core-4.1.6.jar /home/framework/sqoop-1.4.7/lib/

然后还是报错!!!!
然后看到这篇博客
http://blog.yikesz.com/2017/08/30/spark-%E6%8F%90%E7%A4%BAcould-not-initialize-class-org-apache-derby-jdbc-embeddeddriver/


1.5解决办法  直接将hive的配置文件拖到sqoop的conf下!!!

竟然好了 哦了

[root@node245 conf]# cp /home/framework/hive-2.1.1/conf/hive-site.xml ./


1.6重新运行 成功 mysql有数据

总结
1.可能第一步就是将hive下面的hcatalog的hive-hcatalog-core-2.1.1.jar包放到sqoop下
2.然后将hive的配置文件复制到sqoop的conf下(或者将hive的jar包都复制到sqoop下)!!!
因为我的配置文件最后面配置了hive的jar包路径 猜想可能是这样
因为使用–hcatalog-XXX 后报错就是缺各种jar包 所以使用这样的解决办法

附录:服务器的hive配置文件

[root@node245 conf]# cat /home/framework/hive-2.1.1/conf/hive-site.xml
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!--
   Licensed to the Apache Software Foundation (ASF) under one or more
   contributor license agreements.  See the NOTICE file distributed with
   this work for additional information regarding copyright ownership.
   The ASF licenses this file to You under the Apache License, Version 2.0
   (the "License"); you may not use this file except in compliance with
   the License.  You may obtain a copy of the License at

       http://www.apache.org/licenses/LICENSE-2.0

   Unless required by applicable law or agreed to in writing, software
   distributed under the License is distributed on an "AS IS" BASIS,
   WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
   See the License for the specific language governing permissions and
   limitations under the License.
-->
<configuration>
  <property>
                <name>hive.metastore.warehouse.dir</name>
                <value>hdfs://qf/hive/db</value>
        </property>
        <property>
                <name>hive.metastore.local</name>
                <value>true</value>
        </property>

        <property>
                <name>hive.metastore.schema.verification</name>
                <value>false</value>
        </property>

        <property>
                <name>datanucleus.schema.autoCreateAll</name>
                <value>true</value>
        </property>

        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://node245:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>12345678</value>
        </property>

        <property>
          <name>hive.metastore.authorization.storage.checks</name>
          <value>false</value>
        </property>

        <!-- metastore -->
    <property>
       <name>hive.metastore.uris</name>
       <value>thrift://node245:9083</value>
    </property>

    <!-- thrift -->
    <property>
       <name>hive.server2.thrift.port</name>
       <value>10001</value>
    </property>

    <property>
      <name>hive.server2.thrift.bind.host</name>
      <value>node245</value>
    </property>

    <property>
      <name>hive.server2.webui.host</name>
      <value>node245</value>
    </property>
    <property>
      <name>hive.server2.webui.port</name>
      <value>10002</value>
    </property>
    <!--spark engine -->
    <property>
        <name>hive.execution.engine</name>
        <value>mr</value>
    </property>

    <!-- spark engine
    <property>
        <name>hive.enable.spark.execution.engine</name>
        <value>true</value>
    </property>
    -->

    <!--sparkcontext
    <property>
        <name>spark.master</name>
        <value>yarn</value>
    </property>
    <property>
        <name>spark.serializer</name>
        <value>org.apache.spark.serializer.KryoSerializer</value>
    </property>

    <property>
        <name>spark.executor.instances</name>
        <value>2</value>
    </property>
    <property>
        <name>spark.executor.cores</name>
        <value>2</value>
    </property>
    <property>
        <name>spark.executor.memory</name>
        <value>512m</value>
    </property>
    <property>
        <name>spark.driver.cores</name>
        <value>2</value>
    </property>
    <property>
        <name>spark.driver.memory</name>
        <value>1024m</value>
    </property>
    <property>
        <name>spark.yarn.queue</name>
        <value>default</value>
    </property>
    <property>
        <name>spark.app.name</name>
        <value>hive-app</value>
    </property>

    <property>
        <name>hive.support.concurrency</name>
        <value>true</value>
    </property>
    <property>
        <name>hive.enforce.bucketing</name>
        <value>true</value>
    </property>
    <property>
        <name>hive.exec.dynamic.partition.mode</name>
        <value>nonstrict</value>
    </property>
    <property>
        <name>hive.txn.manager</name>
        <value>org.apache.hadoop.hive.ql.lockmgr.DbTxnManager</value>
    </property>
    <property>
        <name>hive.compactor.initiator.on</name>
        <value>true</value>
    </property>
    <property>
        <name>hive.compactor.worker.threads</name>
        <value>1</value>
    </property>
    <property>
        <name>spark.executor.extraJavaOptions</name>
        <value>-XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
        </value>
    </property>
    -->

        <property>
          <name>hive.server2.enable.doAs</name>
          <value>false</value>
        </property>
        <property>
          <name>hive.cli.print.current.db</name>
          <value>true</value>

        </property>
         <property>
          <name>hive.cli.print.header</name>
          <value>true</value>

        </property>

<property>
   <name>hive.exec.mode.local.auto</name>
   <value>true</value>
</property>

<property>
        <name>hive.aux.jars.path</name>
        <value>/home/framework/hive-2.1.1/lib/</value>
</property>
</configuration>

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/C_time/article/details/102527382

智能推荐

js-选项卡原理_选项卡js原理-程序员宅基地

文章浏览阅读90次。【代码】js-选项卡原理。_选项卡js原理

设计模式-原型模式(Prototype)-程序员宅基地

文章浏览阅读67次。原型模式是一种对象创建型模式,它采用复制原型对象的方法来创建对象的实例。它创建的实例,具有与原型一样的数据结构和值分为深度克隆和浅度克隆。浅度克隆:克隆对象的值类型(基本数据类型),克隆引用类型的地址;深度克隆:克隆对象的值类型,引用类型的对象也复制一份副本。UML图:具体代码:浅度复制:import java.util.List;/*..._prototype 设计模式

个性化政府云的探索-程序员宅基地

文章浏览阅读59次。入选国内首批云计算服务创新发展试点城市的北京、上海、深圳、杭州和无锡起到了很好的示范作用,不仅促进了当地产业的升级换代,而且为国内其他城市发展云计算产业提供了很好的借鉴。据了解,目前国内至少有20个城市确定将云计算作为重点发展的产业。这势必会形成新一轮的云计算基础设施建设的**。由于云计算基础设施建设具有投资规模大,运维成本高,投资回收周期长,地域辐射性强等诸多特点,各地在建...

STM32问题集之BOOT0和BOOT1的作用_stm32boot0和boot1作用-程序员宅基地

文章浏览阅读9.4k次,点赞2次,收藏20次。一、功能及目的 在每个STM32的芯片上都有两个管脚BOOT0和BOOT1,这两个管脚在芯片复位时的电平状态决定了芯片复位后从哪个区域开始执行程序。BOOT1=x BOOT0=0 // 从用户闪存启动,这是正常的工作模式。BOOT1=0 BOOT0=1 // 从系统存储器启动,这种模式启动的程序_stm32boot0和boot1作用

C语言函数递归调用-程序员宅基地

文章浏览阅读3.4k次,点赞2次,收藏22次。C语言函数递归调用_c语言函数递归调用

明日方舟抽卡模拟器wiki_明日方舟bilibili服-明日方舟bilibili服下载-程序员宅基地

文章浏览阅读410次。明日方舟bilibili服是一款天灾驾到战斗热血的创新二次元废土风塔防手游,精妙的二次元纸片人设计,为宅友们源源不断更新超多的纸片人老婆老公们,玩家将扮演废土正义一方“罗德岛”中的指挥官,与你身边的感染者们并肩作战。与同类塔防手游与众不同的几点,首先你可以在这抽卡轻松获得稀有,同时也可以在战斗体系和敌军走位机制看到不同。明日方舟bilibili服设定:1、起因不明并四处肆虐的天灾,席卷过的土地上出..._明日方舟抽卡模拟器

随便推点

Maven上传Jar到私服报错:ReasonPhrase: Repository version policy: SNAPSHOT does not allow version: xxx_repository version policy snapshot does not all-程序员宅基地

文章浏览阅读437次。Maven上传Jar到私服报错:ReasonPhrase: Repository version policy: SNAPSHOT does not allow version: xxx_repository version policy snapshot does not all

斐波那契数列、素数、质数和猴子吃桃问题_斐波那契日-程序员宅基地

文章浏览阅读1.2k次。斐波那契数列(Fibonacci Sequence)是由如下形式的一系列数字组成的:0, 1, 1, 2, 3, 5, 8, 13, 21, 34, …上述数字序列中反映出来的规律,就是下一个数字是该数字前面两个紧邻数字的和,具体如下所示:示例:比如上述斐波那契数列中的最后两个数,可以推导出34后面的数为21+34=55下面是一个更长一些的斐波那契数列:0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584,_斐波那契日

PHP必会面试题_//该层循环用来控制每轮 冒出一个数 需要比较的次数-程序员宅基地

文章浏览阅读363次。PHP必会面试题1. 基础篇1. 用 PHP 打印出前一天的时间格式是 2017-12-28 22:21:21? //&gt;&gt;1.当前时间减去一天的时间,然后再格式化echo date('Y-m-d H:i:s',time()-3600*24);//&gt;&gt;2.使用strtotime,可以将任何字符串时间转换成时间戳,仅针对英文echo date('Y-m-d H:i:s',str..._//该层循环用来控制每轮 冒出一个数 需要比较的次数

windows用mingw(g++)编译opencv,opencv_contrib,并install安装_opencv mingw contrib-程序员宅基地

文章浏览阅读1.3k次,点赞26次,收藏26次。windows下用mingw编译opencv貌似不支持cuda,选cuda会报错,我无法解决,所以没选cuda,下面两种编译方式支持。打开cmake gui程序,在下面两个框中分别输入opencv的源文件和编译目录,build-mingw为你创建的目录,可自定义命名。1、如果已经安装Qt,则Qt自带mingw编译器,从Qt安装目录找到编译器所在目录即可。1、如果已经安装Qt,则Qt自带cmake,从Qt安装目录找到cmake所在目录即可。2、若未安装Qt,则安装Mingw即可,参考我的另外一篇文章。_opencv mingw contrib

5个高质量简历模板网站,免费、免费、免费_hoso模板官网-程序员宅基地

文章浏览阅读10w+次,点赞42次,收藏309次。今天给大家推荐5个好用且免费的简历模板网站,简洁美观,非常值得收藏!1、菜鸟图库https://www.sucai999.com/search/word/0_242_0.html?v=NTYxMjky网站主要以设计类素材为主,办公类素材也很多,简历模板大部个偏简约风,各种版式都有,而且经常会更新。最重要的是全部都能免费下载。2、个人简历网https://www.gerenjianli.com/moban/这是一个专门提供简历模板的网站,里面有超多模板个类,找起来非常方便,风格也很多样,无须注册就能免费下载,_hoso模板官网

通过 TikTok 联盟提高销售额的 6 个步骤_tiktok联盟-程序员宅基地

文章浏览阅读142次。你听说过吗?该计划可让您以推广您的产品并在成功销售时支付佣金。它提供了新的营销渠道,使您的产品呈现在更广泛的受众面前并提高品牌知名度。此外,TikTok Shop联盟可以是一种经济高效的产品或服务营销方式。您只需在有人购买时付费,因此不存在在无效广告上浪费金钱的风险。这些诱人的好处是否足以让您想要开始您的TikTok Shop联盟活动?如果是这样,本指南适合您。_tiktok联盟