hudi版本1.0.0
需要使用较低版本的hive,编译hudi只需要修改下类即可:
org.apache.hudi.hadoop.hive.HoodieCombineHiveInputFormat
一、复制org.apache.hadoop.hive.common.StringInternUtils
找个hive2.3.9的源码包,创建包路径,并将此类复制到hudi的hudi-common
到下。
当然其他包(hudi-hadoop-mr
)也可以。HoodieCombineHiveInputFormat
类能读取到就可以。
二、添加方法并修改
基于不同的hive版本,只是有一些方法,中string <—> path 不同,因此添加一些转换对象,将path和string互转即可。如下:
添加方法:
public static <T> Map<Path, T> toPathMap(Map<String, T> input) {Map<Path, T> output = new HashMap<>();input.forEach((s, strings) -> {output.put(new Path(s), strings);});return output;}public static <T> Map<String, T> toStrMap(Map<Path, T> input) {Map<String, T> output = new HashMap<>();input.forEach((k, v) -> output.put(k.toString(), v));return output;}public static <T> Map<Map<Path, T>, Map<Path, T>> toMapPathMap(Map<Map<String, T>, Map<String, T>> input) {Map<Map<Path, T>, Map<Path, T>> output = new HashMap<>();input.forEach((k, v) -> {Map<Path, T> k1 = toPathMap(k);Map<Path, T> v1 = toPathMap(v);output.put(k1, v1);});return output;}public static <T> Map<Map<String, T>, Map<String, T>> toMapStrMap(Map<Map<Path, T>, Map<Path, T>> input) {Map<Map<String, T>, Map<String, T>> output = new HashMap<>();input.forEach((k, v) -> {Map<String, T> k1 = toStrMap(k);Map<String, T> v1 = toStrMap(v);output.put(k1, v1);});return output;}
将所有的本类中的类似string和path报错的位置添加转换方法即可。
三、修改pushProjectionsAndFilters
参数
此处参考org.apache.hadoop.hive.ql.io.BucketizedHiveInputFormat
的使用方法:
参照如下修改即可:
Path pathTmp = hsplit.getPath(0);pushProjectionsAndFilters(job, inputFormatClass, pathTmp.toString(), pathTmp.toUri().toString());
四、编译
mvn clean package "-Dspark3.3" "-Dflink1.18" "-Dmaven.test.skip=true" "-Dcheckstyle.skip=true"