<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當前位置: 首頁 - 科技 - 知識百科 - 正文

        Hive學習筆記之-使用Sqoop把Oracle表導入Hive

        來源:懂視網 責編:小采 時間:2020-11-09 10:29:25
        文檔

        Hive學習筆記之-使用Sqoop把Oracle表導入Hive

        Hive學習筆記之-使用Sqoop把Oracle表導入Hive:Hive學習筆記之-使用Sqoop把Oracle表導入Hive 安裝環境: Hive: hive-0.11.0 Hadoop: Hadoop 1.2.1 Sqoop: sqoop-1.4.4.bin__hadoop-1.0.0 Oralce driver: ojdbc6.jar 軟件下載: Hive: Hadoop: Sqoop:
        推薦度:
        導讀Hive學習筆記之-使用Sqoop把Oracle表導入Hive:Hive學習筆記之-使用Sqoop把Oracle表導入Hive 安裝環境: Hive: hive-0.11.0 Hadoop: Hadoop 1.2.1 Sqoop: sqoop-1.4.4.bin__hadoop-1.0.0 Oralce driver: ojdbc6.jar 軟件下載: Hive: Hadoop: Sqoop:

        Hive學習筆記之-使用Sqoop把Oracle表導入Hive

        安裝環境:

        Hive: hive-0.11.0

        Hadoop: Hadoop 1.2.1

        Sqoop: sqoop-1.4.4.bin__hadoop-1.0.0

        Oralce driver: ojdbc6.jar

        軟件下載:

        Hive:

        Hadoop:

        Sqoop:

        Ojdbc:

        操作步驟:

        前提確保hadoop已經啟動

        1. 安裝sqoop

        --解壓

        tar zvxf sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz

        cp -r sqoop-1.4.4.bin__hadoop-1.0.0/app/hadoop

        chown -Rlicz:hadoop /app/hadoop/sqoop-1.4.4.bin__hadoop-1.0.0

        2. 復制Oracle JDBC的驅動放到Sqoop的lib文件夾下

        cp ojdbc6.jar/app/hadoop/sqoop-1.4.4.bin__hadoop-1.0.0/lib

        3. 修改環境變量

        [licz@nticket1~]$ vi .bash_profile

        export HADOOP_HOME=/app/hadoop/hadoop-1.2.1

        export JAVA_HOME=/usr/java/jdk1.6.0_18

        export HIVE_HOME=/app/hadoop/hive-0.11.0

        export SQOOP_HOME=/app/hadoop/sqoop-1.4.4.bin__hadoop-1.0.0

        PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$HADOOP_HOME/bin:$PIG_HOME/bin:$HIVE_HOME/bin:$SQOOP_HOME/bin

        export PATH

        4. 導入oracle數據

        --導入方法

        $ sqoop import--hive-import --connect jdbc:oracle:thin:@192.168.56.111:1521:DBNAME --username USERNAME --password PASSWORD --verbose -m 1 --table TABLENAME

        說明:

        DBNAME:數據庫實例名

        USERNAME:用戶名

        PASSWORD:密碼

        TABLENAME:表名

        -m:導入數據的進程的并發數,默認是4。如果導入的數據不大的話,不妨設置成1,這樣導入更快。一般來說Sqoop會使用主鍵來平均地分割數據。并發導入的時候可以設置相關的分割列等等,具體的做法參考官方的文檔。

        官方文檔:

        參數說明參考:

        注意:

        l 用戶名和表名必需是大寫的,除非它們在創建的時候是名字是放在引號中的大小寫混合的形式。

        l Sqoop會把Oracle中的表自動在hive中創建,不用手工創建

        --導入實例

        sqoop import--hive-import --connect jdbc:oracle:thin:@172.16.80.115:1521:CUSTOMER2--username WEBMEMBER --password webmem123 --verbose -m 1 --table MEMBERS

        5. 增量導入

        另外一個問題,,如果我們要導入某個表中的新加入的部分,可以使用--check-column、--incremental、--last-value三個參數,--check-column指定要檢查的列,--incremental指定某種增加的模式,只有兩個合法的值,append 和lastmodified。如果--incremental為append,則Sqoop會導入--check-column指定的列的值大于--last-value所指定的值的記錄。如果--incremental為lastmodified,則Sqoop會導入--check-column指定的列的值(這是一個時間戳)近于--last-value所指定的時間戳的記錄。

        例如下面的命令可以導入列ID的值大于4的所有記錄。

        $ sqoop import--hive-import --connect jdbc:oracle:thin:@192.168.56.111:1521:DBNAME --usernameUSERNAME --password PASSWORD --verbose -m 1 --table TABLENAME --check-column ID--incremental append --last-value 4

        遇到的問題:

        1.導入hive時報錯

        ERROR tool.ImportTool:Imported Failed: Attempted to generate class with no columns

        原因和解決辦法:

        是因導入時表名或用戶名沒有大寫所致

        sqoop import --hive-import --connectjdbc:oracle:thin:@172.16.80.115:1521:CUSTOMER2 --username WEBMEMBER --passwordwebmem123 --verbose -m 1 --tablemembers

        Sqoop 的詳細介紹:請點這里
        Sqoop 的下載地址:請點這里

        相關閱讀:

        通過Sqoop實現Mysql / Oracle 與HDFS / Hbase互導數據

        [Hadoop] Sqoop安裝過程詳解

        用Sqoop進行MySQL和HDFS系統間的數據互導

        Hadoop Oozie學習筆記 Oozie不支持Sqoop問題解決

        Hadoop生態系統搭建(hadoop hive hbase zookeeper oozie Sqoop)

        Hadoop學習全程記錄——使用Sqoop將MySQL中數據導入到Hive中

        linux

        聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        Hive學習筆記之-使用Sqoop把Oracle表導入Hive

        Hive學習筆記之-使用Sqoop把Oracle表導入Hive:Hive學習筆記之-使用Sqoop把Oracle表導入Hive 安裝環境: Hive: hive-0.11.0 Hadoop: Hadoop 1.2.1 Sqoop: sqoop-1.4.4.bin__hadoop-1.0.0 Oralce driver: ojdbc6.jar 軟件下載: Hive: Hadoop: Sqoop:
        推薦度:
        標簽: 使用 oracle hiv
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 亚洲精品视频免费看| 奇米影视亚洲春色| jiz zz在亚洲| 国产成人亚洲合集青青草原精品 | 亚洲AV无码国产精品色| 亚洲AV成人精品日韩一区| 日韩免费电影网站| 亚洲国产精品久久| 18禁止看的免费污网站| 亚洲午夜成激人情在线影院| 免费视频专区一国产盗摄| 亚洲最大福利视频| 国产免费69成人精品视频| 免费无码婬片aaa直播表情| 在线观看亚洲av每日更新| 黄色网址在线免费| 亚洲国产午夜电影在线入口| 国产精品成人免费视频网站京东| 亚洲国产精品美女久久久久| 亚洲国产综合精品中文字幕| a级毛片在线免费| 亚洲三级中文字幕| 国产三级免费观看| 日韩电影免费观看| 亚洲综合无码无在线观看| 亚洲国产成人乱码精品女人久久久不卡 | 成全视频免费高清| 一级特黄录像视频免费| 久久精品国产亚洲av麻豆色欲| 无码国产精品久久一区免费| 91精品国产亚洲爽啪在线影院 | 亚洲精品成人区在线观看| 玖玖在线免费视频| 精品日韩99亚洲的在线发布| 婷婷亚洲天堂影院| 99re免费在线视频| 亚洲AV无码一区二区一二区| 亚洲精品成人片在线播放| 色妞WWW精品免费视频 | 一级毛片免费毛片毛片| 亚洲美女aⅴ久久久91|