欢迎来到天天文库
浏览记录
ID:34723212
大小:439.56 KB
页数:9页
时间:2019-03-10
《hadoop基本命令建表-删除-导数据》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、HADOOP表操作1、hadoop简单说明hadoop数据库中的数据是以文件方式存存储。一个数据表即是一个数据文件。hadoop目前仅在LINUX的环境下面运行。使用hadoop数据库的语法即hive语法。(可百度hive语法学习)通过s_crt连接到主机。 使用SCRT连接到主机,输入hive命令,进行hadoop数据库操作。2、使用hive进行HADOOP数据库操作3、hadoop数据库几个基本命令showdatebases; 查看数据库内容; 注意:hadoop用的hive语法用“;”结束,代表一个命令输入完成。usezb_dim; showt
2、ables;4、在hadoop数据库上面建表; a1: 了解hadoop的数据类型 int整型; bigint整型,与int的区别是长度在于int; int,bigint相当于oralce的number型,但是不带小数点。 doubble 相当于oracle的numbe型,可带小数点; string相当于oralce的varchar2(),但是不用带长度; a2:建表,由于hadoop的数据是以文件有形式存放,所以需要指定分隔符。 createtablezb_dim.dim_bi_test_
3、yu3(idbigint,test1string,test2string)rowformatdelimitedfieldsterminatedby't'storedastextfile; --这里指定't'为分隔符 a2.1 查看建表结构: describe A2.2往表里面插入数据。 由于hadoop的数据是以文件存在,所以插入数据要先生成一个数据文件,然后使用SFTP将数据文件导入表中。数据文件的生成,第一步,在EXECLE中按表的顺序依次放入要需要的数据,然后复制到UE编码器中生成文件,保存格
4、式为TXT。注意:文件中的分隔符必须与建表时指定的分隔一致。保存文件时生成的格式。A2.2.1: 通过4A打开SFTP导入文件。A2.2.2:将数据文件写入表内。 loaddatalocalinpath'/home/mapr/yu_dim_test.txt'overwriteintotable zb_dim.dim_bi_test_yu3; A2.2.3查看导入的内容。 注意:由于hadoop是库的数据是以文件存的,与oarlce中的追加一条记录,删除一条记录不一样,只能再覆盖文件。A2.2.4:将一个表的数据导入另一个表
5、。 例:将zb_dim.dim_bi_test_yu3表中的数据导入zb_dim.dim_bi_yu_test_yu; 注意:源表必须有数据才能使用insertoverwritetable将源表的数据写入目标表。insertoverwritetablezb_dwa.dwa_s_m_acc_al_charge_"$v_prov"partition(month_id='"$v_month"')SELECTT.USER_ID, T.SERVICE_TYPE, '', '', SUM(T.BEF_FEE),
6、 0, 0, SUM(T.FEE), '"$v_prov"'FROMZB_DWD.DWD_M_ACC_AL_CHARGE_"$v_prov"TWHERET.MONTH_ID='"$v_month"'GROUPBYT.USER_ID, T.SERVICE_TYPE(有分区)insertoverwritetablezb_dim. dim_bi_yu_test_yu SELECTid,test1,test2 FROM zb_dim.dim_bi_test_yu3 查看写入的内容:A2.3: DROP表
此文档下载收益归作者所有