我想通过 Flink 计算 Kafka 中的数据,但问题是 Kafka 中的 JASON 数据可能会发生变化。像这样:{"data":{"template":25,"name":"name"}}或这个:{"data"{"type":"type1","props":"props","strem":"stream1"}而且我无法提前知道这个 JSON 中包含了多少数据。所以在使用 Flink 时有一个问题:streamExecutionEnvironment.addSource(new FlinkKafkaConsumer010<KafkaEvent>("flink", new KafkaEventSchema(), kafkaProps)) .flatMap(new KafkaEventToRow()).returns(getReturnType());那么Json数据这样的时候如何定义pojo类型和mapFuncation呢?
添加回答
举报
0/150
提交
取消