为了账号安全,请及时绑定邮箱和手机立即绑定

使用 Flink 将数据集设置为 Kafka?是否可以

使用 Flink 将数据集设置为 Kafka?是否可以

PIPIONE 2021-09-15 16:56:34
我有一个用例,我需要将记录从 hive 移动到 kafka。我找不到可以直接将 kafka sink 添加到 flink 数据集的方法。因此,我使用了一种解决方法,我在 flink 数据集上调用地图转换,并在地图函数内部对给定记录使用 kafkaProducer.send() 命令。我面临的问题是我没有任何方法可以在每个工作节点上执行 kafkaProducer.flush(),因此用 kafka 写入的记录数总是比数据集中的记录数略少。有没有一种优雅的方法来处理这个问题?有什么办法可以在 flink 中将 kafka sink 添加到数据集?或者调用 kafkaProducer.flush() 作为终结器的方法?
查看完整描述

1 回答

?
梦里花落0921

TA贡献1772条经验 获得超6个赞

您可以简单地创建一个SinkKafkaProducer在后台使用并将数据写入 Kafka 的文件。


查看完整回答
反对 回复 2021-09-15
  • 1 回答
  • 0 关注
  • 138 浏览

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信