We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
简单的看了一下,可以认为其实你是整个了各个系统,然后采用jdbc去连接他们。
这里有个想法,不知道会不会存在,比如我要连接hbase,impala,但是他们的版本不一致,或者引用的相同jar的版本不一致,可能会导致jar冲突。不知道你这边有没有做类似不同应用的class隔离。
The text was updated successfully, but these errors were encountered:
目前没有遇到,我这里都能连接成功!hadoop2+,hive0.13+,hbase0.98+,spark1.3.+,presto0.100+没有问题!如果出现版本不一致可以考虑替换/lib下面的相关jar文件!
Sorry, something went wrong.
就这么说吧,你能同时连接hadoop的,hbase的各个版本吗?比如1.0用了commons-io的1.1版本的,2.0用了commons-io的1.2版本,而两个jar的版本还不兼容,你怎么po
项目git到本地,重新编译下,修改依赖版本!
(⊙o⊙)哦。貌似你没明白我的意思。我用你的程序,同时连接hadoop1.0和spark2.0。但是hadoop1用到了commons-io的1.0版本,spark2用到了commons-io的2.0版本。他们之间有jar冲突。你目前支持不同应用所引用jar之间的class隔离吗
No branches or pull requests
简单的看了一下,可以认为其实你是整个了各个系统,然后采用jdbc去连接他们。
这里有个想法,不知道会不会存在,比如我要连接hbase,impala,但是他们的版本不一致,或者引用的相同jar的版本不一致,可能会导致jar冲突。不知道你这边有没有做类似不同应用的class隔离。
The text was updated successfully, but these errors were encountered: