- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我正在处理来自 babeltrace 命令的实时流数据。该命令会不断输出日志。现在我想将这些日志分开并保存到不同的文件中。例如,0~10 秒之间的日志保存到文件 1,10~20 秒之间的日志保存到文件 2 ...请问在同时执行命令的时候用linux bash可以实现这个功能吗?
我试过:
babeltrace --input-format=lttng-live Test | tee file1 file2 ...
但是 tee 将重定向所有文件中的所有内容。
最佳答案
如果你想要任何健壮的东西,你真的需要编写一个程序来完成它。你可以尝试这样的事情:
babeltrace --input-format=lttng-live Test | { i=0; while : $((i++)); do
timeout 10 sh -c "cat > file-$i"; done; }
但在生产环境中我不相信这一点。
== 编辑 ==您不应该在生产环境中信任它的原因。我不知道 timeout
和 cat
的实现细节,即使我很了解它们,我也不相信它们不会改变(随着时间或平台)。我怀疑 timeout
会发送一个信号来终止 shell。如果 cat
已经读取了一些数据但还没有写入,会发生什么情况? cat
会优雅地终止并刷新其所有缓冲区,还是会丢弃任何未写入的数据? timeout
是否发送 TERM
或 INT
或(喘气)KILL
?这种行为是规范的吗? cat
在收到信号时会正常终止是否已标准化?我不知道,只编写一个强大的程序来处理这些问题比尝试依赖 timeout
和 cat
更容易。
另一个想法(我仍然不相信这是稳健的):
{ while sleep 10; do echo SENTINEL; done & babeltrace ...; } |
awk '/^SENTINEL/{of="output-file" idx++; next} {print > of}' of=output-file0
这里的基本思想是让单个 awk 进程读取 babeltrace 的输出并每 10 秒向输出流写入一个指示器,这会导致 awk 更改输出文件。请注意,如果您的输出流包含匹配“^SENTINEL”的行,它将被丢弃。一种稍微更稳健的方法是(咳咳,在这里幽默一下)让 awk 注册一个信号处理程序来更改输出文件名并让计时器向它发送一个信号,但是 a)我不知道是否除了深奥的 awk 之外,您还可以注册信号处理程序,并且 b) 说真的,我说过这样会更健壮吗?!如果您希望进程运行很长时间,您可能还想在 awk 中关闭输出文件。
关于linux - 使用 linux bash 处理数据流,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57995343/
是否可以插入到初始表,然后使用插入的 ID 插入到主表中,该主表在一个数据流的列之间具有外键约束? 我是集成服务的新手,不知道这些功能 场景: 表 A - ID - DESC 表 B - ID - A
在 Azure 数据流中,在聚合转换中是否可以在分组依据中动态包含列?我在分组依据中可能需要 8 列,具体取决于它们的值,即如果值为 1,则包含在分组依据中。 简化为 2 列: Column1
我想要实现的是在azure数据流中包含错误处理,如果在传输行时发生错误,它不应该失败,它会处理其他行并将发生错误的行的ID保存在文本文件或日志中 示例: 假设我们有 10 行要沉入表中,不知何故我们在
我的数据流作业将源和接收器作为突触数据库。 我在从突触数据库提取数据时有一个源查询,其中包含数据流中的联接和转换。 众所周知,底层的数据流将启动 databricks 集群来执行数据流代码。 我的问题
这是关于非常常见的传感器数据处理问题。 为了同步和合并来自不同来源的传感器数据,我想用 Java 实现它,而不需要太复杂的第三个库或框架。 假设我定义了一个对象 (O),它由 4 个属性 (A1,..
我开始从事一个项目,我需要使用 PowerTrack/GNIP 流式传输 Twitter 数据,老实说,我在网络方面非常非常缺乏经验,而且我完全不了解网络方面的知识到数据流 (HTTP),它们如何工作
我有一个后端要用 Python 实现,它应该将数据流式传输到 JavaScript 正在创建表示的 Web 浏览器(例如,不断更新变量或绘制到 )。 该数据将以高达 100 Hz 的速率更新(最坏情
我构建了一个简单的 MERN 应用程序,用户可以在其中对电话号码进行评分。用户只需填写电话号码,选择评级(1 - 5 星评级)、城市和短文本。该应用程序具有带过滤和排序选项的搜索功能。这一切都足够好
我在 TPL 数据流上使用顺序管道构建,它由 3 个块组成: B1 - 准备消息 B2 - 将消息发布到远程服务 B3 - 保存结果 问题是如何在发生服务关闭等错误时关闭管道。管道必须以受控方式关闭,
我在 ADF 数据流中有一个数据集(ADLS Gen2 中存在的 csv 文件)。我第一次尝试进行数据预览时,原始文件中的所有列都正确显示。然后,我从 csv 文件中删除了第一列并刷新了“数据预览”选
我正在使用 ADF v2 DataFlow ativity 将数据从 Blob 存储中的 csv 文件加载到 Azure SQL 数据库中的表中。在数据流(源 - Blob 存储)中,在源选项中,有一
我有很多带有嵌套列表的 json 文件需要展平。问题是它们是不同的,我不想为它们每一个创建一个分支。如何通过输入参数动态执行具有“展开依据”和“输入列”字段的展平事件? 谢谢! 最佳答案 对于展开方式
我一直在尝试使用 Azure 数据工厂的数据流在文件的小数列中进行数据类型检查,但它没有按预期工作。我的问题如下: 我想检查数字 121012132.12 是否为小数,因此我使用数据流的派生列并编写表
我们使用 Azure 数据流在 Azure SQL 数据仓库中生成数据表的历史记录。在数据流中,我们在所有列上使用 md5 或 sha1 函数来生成唯一的行指纹来检测记录中的更改,或识别已删除/新记录
我们使用 Azure 数据流在 Azure SQL 数据仓库中生成数据表的历史记录。在数据流中,我们在所有列上使用 md5 或 sha1 函数来生成唯一的行指纹来检测记录中的更改,或识别已删除/新记录
我之前使用 bz2 来尝试解压缩输入。我想要解码的输入已经是压缩格式,因此我决定将格式输入到交互式 Python 控制台中: >>> import bz2 >>> bz2.decompress(inp
在测试 WPF 项目中,我尝试使用 TPL 数据流来枚举给定父目录的所有子目录,并创建具有特定文件扩展名的文件列表,例如“.xlsx”。我使用 2 个 block ,第一个 dirToFilesBlo
问题:为什么使用 WriteOnceBlock (或 BufferBlock )用于从另一个 BufferBlock 取回答案(类似回调) (取回答案发生在发布的 Action 中)导致死锁(在此代码
此代码永远不会到达最后一行,因为完成不会从 saveBlock 传播到 sendBlock。我做错了什么? var readGenerateBlock = new TransformBlock(n =
好吧,我知道我的问题需要更多的指导,而不是技术细节,但我希望 SO 成员不会介意 TPL 数据流的新手提出一些非常基础的问题。 我有一个简单的 Windows 窗体应用程序,它负责从我系统上的 Exc
我是一名优秀的程序员,十分优秀!