gpt4 book ai didi

linux - 每天在 bash 中提取文件行

转载 作者:塔克拉玛干 更新时间:2023-11-03 00:23:17 24 4
gpt4 key购买 nike

我有一个包含 20.000.000 行的文件,每天都会向该文件添加或删除一些行,我需要做一个 crontab,我需要每天获取 9 个 50.000 行的文件。

例如:

BigFile is my file with 20.000.000 lines.

我需要生成 9 个文件,第一个文件包含 1 到 50000 行,第二个文件包含 50001 到 100000 行,第三个文件包含 100001 到 150000 行 。 . .

我第一次无法拆分,因为我的文件整天都在变化,我遇到的第二个问题是,如果我在第二天第一次获得我的 9 个文件,我需要继续使用最后一行。

例如,第一天我使用 450.000 行,然后第二天我需要第一行 450001 到 500000 行,第三天我需要为我的第一个文件使用 900001。

拆分不起作用,因为如果我第一次使用拆分,文件会更改,那么我拥有的文件在第二天就不起作用

你能帮帮我吗?

最佳答案

使用 split 命令 ( manpage )。

例如:

$ split -l 50000 /path/to/bigfile

关于linux - 每天在 bash 中提取文件行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17774685/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com