Hive的UDF实现两种简单方法+通过编译源码添加UDF
创始人
2025-05-29 12:29:55
0

Hive的UDF实现两种简单方法+通过编译源码添加UDF

一、实现简单的say_hello

1、打开IDE在pom.xml中添加如下

org.apache.hivehive-exec3.1.2

在这里插入图片描述

点击maven 进行相关包导入,会有点慢

2、新建 UDFHello.java

内容如下:

package hive.udf;import org.apache.hadoop.hive.ql.exec.UDF;public class UDFHello extends UDF {public String evaluate(String name){return "hello"+name;}}

在这里插入图片描述

3、打包

在这里插入图片描述

4、上传jar包至hive的lib下,并赋权

[peizk@hadoop lib]$ chmod 777 MapReduce-1.0.jar 

5、进入Hive,添加jar包

hive (default)> add jar /home/peizk/app/hive-3.1.2/lib/MapReduce-1.0.jar;

可使用list jars 查看添加的jar包

hive (default)> list jars;
/home/peizk/app/hive-3.1.2/lib/MapReduce-1.0.jar

6、创建临时函数对应我们的jar包

语句如下:(指定我们函数在jar包位置)

create temporary function say_hello as "hive.udf.UDFHello"

执行如下

hive (default)> create temporary function say_hello as "hive.udf.UDFHello";
OK
Time taken: 0.46 seconds

7、测试一下

hive (default)> select say_hello('peizk');
OK
_c0
hellopeizk
Time taken: 1.657 seconds, Fetched: 1 row(s)

成功!

8、总结

(1)pom.xml 增加 hive-exec

(2)编写Java ,继承 UDF,实现方法 evaluate

(3)打包上传服务器lib下,并赋权

(4)进入hive 通过add jar 导入jar包

(5)创建临时函数指定jar包

(6)运行自定义UDF

二、将UDF函数注册到元数据里

1、在一的基础上退出hive重新进入,会发现添加的UDF函数没有了,不能用了

2、在HDFS上创建一个文件夹将我们的jar包上传上去

在这里插入图片描述

3、在hive上执行如下语句

hive (default)> create  function say_hello as "hive.udf.UDFHello" using jar "hdfs://hadoop:9000/hive-udf/MapReduce-1.0.jar";
Added [/tmp/44d659a4-298c-4e98-8d60-9c088801a3b2_resources/MapReduce-1.0.jar] to class path
Added resources: [hdfs://hadoop:9000/hive-udf/MapReduce-1.0.jar]
OK
Time taken: 0.5 seconds

4、查看mysql 元数据库下的 FUNCS 表

在这里插入图片描述

5、hive执行UDF函数

hive (default)> select say_hello('peizk'); 
OK
_c0
hellopeizk
Time taken: 1.354 seconds, Fetched: 1 row(s)

注意在哪个hive库下添加,UDF在哪个库下有效

6、退出hive后再次重新进入执行

可以成功

三、通过hive -i 方法添加元数据

编写一个say_hello.sql 文件 内容如下:

add jar /home/peizk/app/hive-3.1.2/lib/MapReduce-1.0.jar;
create temporary function say_hello as "hive.udf.UDFHello";

使用 hive -i say_hello.sql 启动 hive 同样也可以使用UDF函数

四、通过编译源码,添加UDF

1、访问hive官网,下载源码

在这里插入图片描述

2、将我们写好的UDFHello.java文件放入相关目录

(1)首先UDFHello.java 的 包更改为org.apache.hadoop.hive.ql.udf

全部代码如下

package org.apache.hadoop.hive.ql.udf;import org.apache.hadoop.hive.ql.exec.UDF;public class UDFHello extends UDF {public String evaluate(String name){return "hello :"+name;}}

(2)将UDFHello.java 放入如下文件夹

apache-hive-3.1.2-src\ql\src\java\org\apache\hadoop\hive\ql\udf

3、修改exec文件下FunctionRegistry.java

目录如下

apache-hive-3.1.2-src\ql\src\java\org\apache\hadoop\hive\ql\exec

修改第一处

添加如下:

import org.apache.hadoop.hive.ql.udf.UDFHello;

在这里插入图片描述

修改第二处

添加如下

system.registerUDF("say_hello", UDFHello.class,false);

在这里插入图片描述

4、将文件打包上传服务器进行编译

5、进入家目录,进行编译,语句如下:

mvn clean package -DskipTests -Phadoop-2 -Pdist

6、编译成功

在如下目录处找到我们编译好的包

apache-hive-3.1.2-src/packaging/target

在这里插入图片描述

在如下目录处找到我们编译好的包

相关内容

热门资讯

linux入门---制作进度条 了解缓冲区 我们首先来看看下面的操作: 我们首先创建了一个文件并在这个文件里面添加了...
C++ 机房预约系统(六):学... 8、 学生模块 8.1 学生子菜单、登录和注销 实现步骤: 在Student.cpp的...
JAVA多线程知识整理 Java多线程基础 线程的创建和启动 继承Thread类来创建并启动 自定义Thread类的子类&#...
【洛谷 P1090】[NOIP... [NOIP2004 提高组] 合并果子 / [USACO06NOV] Fence Repair G ...
国民技术LPUART介绍 低功耗通用异步接收器(LPUART) 简介 低功耗通用异步收发器...
城乡供水一体化平台-助力乡村振... 城乡供水一体化管理系统建设方案 城乡供水一体化管理系统是运用云计算、大数据等信息化手段࿰...
程序的循环结构和random库...   第三个参数就是步长     引入文件时记得指明字符格式,否则读入不了 ...
中国版ChatGPT在哪些方面... 目录 一、中国巨大的市场需求 二、中国企业加速创新 三、中国的人工智能发展 四、企业愿景的推进 五、...
报名开启 | 共赴一场 Flu... 2023 年 1 月 25 日,Flutter Forward 大会在肯尼亚首都内罗毕...
汇编00-MASM 和 Vis... Qt源码解析 索引 汇编逆向--- MASM 和 Visual Studio入门 前提知识ÿ...
【简陋Web应用3】实现人脸比... 文章目录🍉 前情提要🌷 效果演示🥝 实现过程1. u...
前缀和与对数器与二分法 1. 前缀和 假设有一个数组,我们想大量频繁的去访问L到R这个区间的和,...
windows安装JDK步骤 一、 下载JDK安装包 下载地址:https://www.oracle.com/jav...
分治法实现合并排序(归并排序)... 🎊【数据结构与算法】专题正在持续更新中,各种数据结构的创建原理与运用✨...
在linux上安装配置node... 目录前言1,关于nodejs2,配置环境变量3,总结 前言...
Linux学习之端口、网络协议... 端口:设备与外界通讯交流的出口 网络协议:   网络协议是指计算机通信网...
Linux内核进程管理并发同步... 并发同步并发 是指在某一时间段内能够处理多个任务的能力,而 并行 是指同一时间能够处理...
opencv学习-HOG LO... 目录1. HOG(Histogram of Oriented Gradients,方向梯度直方图)1...
EEG微状态的功能意义 导读大脑的瞬时全局功能状态反映在其电场结构上。聚类分析方法一致地提取了四种头表面脑电场结构ÿ...
【Unity 手写PBR】Bu... 写在前面 前期积累: GAMES101作业7提高-实现微表面模型你需要了解的知识 【技...