- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我想将文件从一个地方复制到另一个地方,但问题是我要处理很多稀疏文件。
有没有什么(简单的)方法可以复制稀疏文件而不会在目的地变得很大?
我的基本代码:
out, err := os.Create(bricks[0] + "/" + fileName)
in, err := os.Open(event.Name)
io.Copy(out, in)
最佳答案
请注意,io.Copy()
会通过管道传输原始字节——一旦您认为它将数据从 io.Reader
传输到 ,这就可以理解了io.Writer
对应提供了Read([]byte)
和Write([]byte)
。因此,io.Copy()
绝对能够处理任何提供的源字节和绝对消耗它们的任何接收器。
另一方面,文件中漏洞的位置是一种“旁道”信息,“经典”系统调用(例如 read(2)
)向用户隐藏了这些信息。io.Copy()
无法以任何方式传达此类边信道信息。
IOW,最初,文件稀疏性只是在用户背后高效存储数据的想法。
所以,不,io.Copy()
本身无法处理稀疏文件。
您需要更深入地使用 syscall
包和一些手动修补来实现所有这些。
要处理漏洞,您应该为 lseek(2)
系统调用使用 SEEK_HOLE
和 SEEK_DATA
特殊值,虽然正式非标准,由 all 支持major platforms .
不幸的是,不存在对那些“where”位置的支持既不在股票 syscall
包中(从 Go 1.8.1 开始)也不在 golang.org/x/sys
树。
但不要害怕,有两个简单的步骤:
首先,股票syscall.Seek()
实际上映射到lseek(2)
在相关平台上。
接下来,您需要计算出 SEEK_HOLE
的正确值,并且SEEK_DATA
用于您需要支持的平台。
Note that they are free to be different between different platforms!
比如说,在我的 Linux 系统上我可以做一些简单的事情
$ grep -E 'SEEK_(HOLE|DATA)' </usr/include/unistd.h
# define SEEK_DATA 3 /* Seek to next data. */
# define SEEK_HOLE 4 /* Seek to next hole. */
…计算出这些符号的值。
现在,比方说,你在你的包中创建了一个特定于 Linux 的文件包含类似的东西
// +build linux
const (
SEEK_DATA = 3
SEEK_HOLE = 4
)
然后将这些值与 syscall.Seek()
一起使用。
要传递给 syscall.Seek()
和 friend 的文件描述符可以使用 Fd()
方法从打开的文件中获取os.File
值。
读取时使用的模式是检测包含数据的区域,并从中读取数据——参见 this举个例子。
请注意,这涉及读取稀疏文件;但是如果你真的想将它们传输为稀疏的——也就是说,在保持它们的这个属性的情况下——情况就更复杂了:它似乎更不便携,所以一些研究和实验到期了。
在 Linux 上,您似乎可以尝试使用 fallocate(2)
和FALLOC_FL_PUNCH_HOLE | FALLOC_FL_KEEP_SIZE
尝试在您正在写入的文件的末尾;如果那合法地失败了(使用 syscall.EOPNOTSUPP
),您只需将您正在读取的漏洞所覆盖的尽可能多的归零 block 铲到目标文件中——希望如此操作系统会做正确的事情,并自行将它们变成一个洞。
请注意,一些文件系统根本不支持空洞——作为一个概念。一个例子是 FAT 家族中的文件系统。我要引导您的是,无法创建稀疏文件可能在您的情况下实际上是目标文件系统的属性。
您可能会找到 Go issue #13548 "archive/tar: add support for writing tar containing sparse files"引起兴趣。
请注意:您还可以考虑检查复制源文件的目标目录是否与源文件位于同一文件系统中,如果是这样,请使用 syscall.Rename()
(在 POSIX 系统上)或 os.Rename()
只在不同目录之间移动文件 w/o实际上是在复制它的数据。
关于file - io.Copy() 的稀疏文件很大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43035271/
我在服务器上 checkout 了一个 git 存储库。该存储库过去在根目录下包含所有相关文件,但我必须进行一些更改,现在我有两个文件夹,src 和 dist,我想跟踪这两个文件夹. 我遇到的问题是,
我很难弄清楚 VkDescriptorSetLayoutBinding::binding 的任何用例,这是结构: struct VkDescriptorSetLayoutBinding { u
Python中能否有效获取稀疏向量的范数? 我尝试了以下方法: from scipy import sparse from numpy.linalg import norm vector1 = spa
我正在尝试找出为什么这段代码不对数组进行排序... 任意向量。 x = array([[3, 2, 4, 5, 7, 4, 3, 4, 3, 3, 1, 4, 6, 3, 2, 4, 3, 2]])
有谁知道如何压缩(编码)稀疏 vector ?稀疏 vector 表示有许多“0”的 1xN 矩阵。 例如 10000000000001110000000000000000100000000 上面是稀
我使用稀疏高斯过程进行 Rasmussen 回归。[http://www.tsc.uc3m.es/~miguel/downloads.php][1] 预测平均值的语法是: [~, mu_1, ~, ~
我在朴素贝叶斯分类器中使用 Mahout API。其中一个功能是 SparseVectorsFromSequenceFiles虽然我已经尝试过旧的谷歌搜索,但我仍然不明白什么是稀疏 vector 。最
我正在尝试将JavaScript稀疏数组映射到C#表示形式。 建议这样做的方法是什么? 它正在考虑使用一个字典,该字典包含在原始数组中包含值的原始词列表。 还有其他想法吗? 谢谢! 最佳答案 注意 针
如果我想求解一个完整上三角系统,我可以调用linsolve(A,b,'UT')。然而,这目前不支持稀疏矩阵。我该如何克服这个问题? 最佳答案 UT 和 LT 系统是最容易解决的系统之一。读一读on t
我有一个带有 MultiIndex 的 Pandas DataFrame。 MultiIndex 的值在 (0,0) 到 (1000,1000) 范围内,该列有两个字段 p 和 q. 但是,DataF
我目前正在实现一个小型有限元模拟。使用 Python/Numpy,我正在寻找一种有效的方法来创建全局刚度矩阵: 1)我认为应该使用coo_matrix()从较小的单元刚度矩阵创建稀疏矩阵。但是,我可以
a , b是 1D numpy ndarray与整数数据类型具有相同的大小。 C是一个 2D scipy.sparse.lil_matrix . 如果索引[a, b]包含重复索引,C[a, b] +=
我有一个大的、连通的、稀疏的邻接表形式的图。我想找到两个尽可能远的顶点,即 diameter of the graph以及实现它的两个顶点。 对于不同的应用程序,我对无向和有向情况下的这个问题都很感兴
上下文:我将 Eigen 用于人工神经网络,其中典型维度为每层约 1000 个节点。所以大部分操作是将大小为 ~(1000,1000) 的矩阵 M 与大小为 1000 的 vector 或一批 B v
我有一些大小合适的矩阵 (2000*2000),我希望在矩阵的元素中有符号表达式 - 即 .9**b + .8**b + .7**b ... 是一个元素的例子。矩阵非常稀疏。 我通过添加中间计算来创建
在 R 或 C++ 中是否有一种快速填充(稀疏)矩阵的方法: A, B, 0, 0, 0 C, A, B, 0, 0 0, C, A, B, 0 0, 0, C, A, B 0, 0, 0, C, A
我有一个大的稀疏 numpy/scipy 矩阵,其中每一行对应于高维空间中的一个点。我想进行以下类型的查询: 给定一个点P(矩阵中的一行)和一个距离epsilon,找到与epsilon距离最大的所有点
假设我有一个 scipy.sparse.csr_matrix 代表下面的值 [[0 0 1 2 0 3 0 4] [1 0 0 2 0 3 4 0]] 我想就地计算非零值的累积和,这会将数组更改为:
我了解如何在 Git 中配置稀疏 checkout ,但我想知道是否可以消除前导目录。例如,假设我有一个 Git 存储库,其文件夹结构如下: 文件夹1/foo 文件夹2/foo/bar/stuff 文
根据 this thread , Git 中的排除 sparse-checkout feature应该实现。是吗? 假设我有以下结构: papers/ papers/... presentations
我是一名优秀的程序员,十分优秀!