cdh吧 关注:44贴子:200
  • 3回复贴,共1

各位大神,打扰了,问个问题:CDH上spark 和kafka的兼容问题

只看楼主收藏回复

我使用的为5台服务器,在CDH集群上跑spark on yarn程序,其中的两台kafka的版本为0.9,其他为0.10,在cm的web端,我设置为0.10版本,也按照官网的方法更改了spark的配置文件,但是都没有用,其中的两台在跑程序中一直是0.9的kafka版本。求各位大神指导一下


IP属地:广东1楼2018-09-03 14:52回复
    在cm里面改成0.10不就行了


    IP属地:广东3楼2019-02-25 11:26
    回复
      所有节点上kafka应该都是统一的啊,都是分发安装的,怎么会不一样呢?比较另类啊你,统一安装,分发部署,并不是一个一个安装啊


      4楼2019-11-09 22:06
      回复
        求kafka的parcel包


        IP属地:安徽来自Android客户端6楼2021-07-01 22:47
        回复