Flink 程序在面对数据高峰期时如何处理?

使用大容量的 Kafka 把数据先放到消息队列里面作为数据源,再使用Flink 进行消费,不过这样会影响到一点实时性。
标签: flink、大容量、高峰期、实时性、数据源、面试
  • 回复
隐藏