创建自定义函数的步骤
1.创建java类 extends org.apache.hadoop.hive.sql.exec.UDF
2.需要实现evalute函数,evalute函数支持重载
3.把程序打包放在机器上
4.进入hive客户端,上传jar包到hdfs
5.创建duf函数
create【temporary】 function 【function_name】as '【class_path】' using jar '【jar_hdfs_path】'
需要注意的是hive需要指定schema,并且这个udf函数不能被sparkSQL使用,如果sparksql需要使用的话可以在sparksql的代买里先注册再使用。