How to transform bounded pcollection to unbounded in Python with Apache Beam?
我正在尝试在不使用太多内存的情况下转换存储在 GCS 中的几 TB 邮件日志。
按照指南中的建议,我为每个元素添加时间戳,将其拆分为滑动窗口,并在将其发送到 GroupByKey 和之后的 ParDo 解析器之前指定了一个(聚合)触发器。这应该可以,但仍然 GroupByKey 等待所有数据到达。为什么?
我也尝试过使用 Direct 和 Google Dataflow runner。
我错过了什么?
这是代码的要点:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
|
known_args , pipeline_options = parse_args (sys. argv)
pipeline = beam. Pipeline(options =pipeline_options )
lines = pipeline | ‘read’ >> beam. io. ReadFromText(known_args. input)
parsed_json = lines //
| ‘cut’ >> beam. Map(lambda x: x [39: ])//
| ‘jsonify’ >> beam. Map(json_loads ). with_outputs(‘invalid_input’, main =‘main’)
keyed_lines = parsed_json[‘main’]// | ‘key_filter’ >> beam.Filter(lambda x: u‘key’ in x)// | ‘keyer’ >> beam.Map(lambda x: (x[‘key’], x))// | ‘log_processed_rows’ >> beam.Map(log_processed_rows)
window_trigger = trigger.DefaultTrigger()
windowed_lines = keyed_lines// | ‘timestamp’ >> beam.ParDo(AddTimestampDoFn())// | ‘window’ >> beam.WindowInto(beam.window.SlidingWindows(size=3600+600, period=3600), trigger=window_trigger, accumulation_mode=trigger.AccumulationMode.DISCARDING) # 1 hour steps with 10 minutes of overlap
results = windowed_lines // | ‘groupbykey’ >> beam.GroupByKey()// | ‘parse’ >> beam.ParDo(ParseSendingsDoFn()).with_outputs(‘too_few_rows’, ‘invalid_rows’, ‘missing_recipients’, main=‘main_valid’)
output = results[‘main_valid’] // | ‘format’ >> beam.Map(output_format)// | ‘write’ >> beam.io.WriteToText(known_args.output, file_name_suffix=".gz") |
- 现在我做到了,但会导致错误。很好的提示!我希望这很容易。
- 嗯,什么都看不到,你设法让它工作了吗?如果您这样做了,那么发布答案将非常有帮助。我想知道它是 bounded 管道还是您传递了 –streaming,是否 DefaultTrigger 导致它等待完成,或者 WriteToText 可能在完成之前无法刷新
- @Andor – 有什么更新吗?我处于类似情况,似乎无法触发窗口
- 从那以后我就没有使用过 Beam/DF。 Spark 和普通 Python 最终更适合。
默认触发器要求整个数据集在处理之前都可用,这就是它等待所有数据到达的原因。
尝试使用数据驱动触发器或处理时间触发器。
此外,SlidingWindows 主要用于运行平均值,由于您只是添加时间戳,因此单个全局窗口可能是更好的选择。
编辑
关于窗口化,您可以有一个流式作业,它从内存中的数据创建一个 pcollection,并从 GCS 存储中获得一个侧面输入。
- 正如我所写的,由于要处理的数据量很大,整个混乱是必要的。处理时间触发器真的会让它变得不可预测。那时 Python 还没有数据驱动的触发器。无论如何,从那时起我就去过 Crunch conf,其中 Beam 的一位作者声称无法做到这一点。这是因为每个源都有一个内部属性,无论它是否是流式传输的。如果它不是流式传输的,那么你就不能真正使用窗口化。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/267930.html