UDF是SQL中很常見的功能,但在Spark-1.6及之前的版本,只能創(chuàng)建臨時UDF,不支持創(chuàng)建持久化的UDF,除非修改Spark源碼。從Spark-2.0開始,SparkSQL終于支持持久化的UDF。本文基于當前最新的Spark-2.0.2版本,講解SparkSQL中使用UDF和底層實現(xiàn)的原理。
轉載注明原文http://www.cnblogs.com/shenh062326/p/6189672.html
1. 臨時UDF
創(chuàng)建和使用方法:
create temporary function tmp_trans_array as ''com.test.spark.udf.TransArray' using jar 'spark-test-udf-1.0.0.jar'; select tmp_trans_array (1, '\\|' , id, position) as (id0, position0) from test_udf limit 10;
實現(xiàn)原理,在org.apache.spark.sql.execution.command.CreateFunctionCommand類的run方法中,會判斷創(chuàng)建的Function是否是臨時方法,若是,則會創(chuàng)建一個臨時Function。從下面的代碼我可以看到,臨時函數(shù)直接注冊到functionRegistry(實現(xiàn)類是SimpleFunctionRegistry),即內存中。
網(wǎng)友評論