- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我目前正在开发一个将文本文件转换为 PDF 文件或相反的小应用程序。但是,我希望能够将转换后的文件保存在内存中,直到用户按下按钮将文件(或一组文件保存到 .zip 中)为止,所有转换后的文件都保存在字典中,并以旧路径为键和字节数组作为值。
一切正常,除非出于测试目的,我使用了一个包含 12000 多行的大文本文件并试图在文本和 PDF 之间来回切换,现在我遇到了一个奇怪的问题。
当使用这个大文件从文本到 PDF 时,一切都很好。
但是,从该文件的 PDF 格式转换为文本会在堆中占用大量内存。最终超过 2 GB 导致内存不足异常。
我应该注意到我使用的是 Itext 7。
这是我正在使用的代码:
文本转PDF
public override byte[] ConvertFile(Stream stream, string path)
{
OnFileStartConverting(path);
string ext = Path.GetExtension(path);
TextFileType current = TextFileType.Parse(ext);
MemoryStream resultStream = new MemoryStream();
if (current.Extension.Equals(TextFileType.Txt.Extension))
{
resultStream = TextToPdf(stream, path);
}
else if (current.Extension.Equals(TextFileType.Word.Extension))
{
throw new NotImplementedException();
}
OnFileConverted(path);
return resultStream.ToArray();
}
private MemoryStream TextToPdf(Stream stream, string path)
{
MemoryStream resultStream = new MemoryStream();
StreamReader streamReader = new StreamReader(stream);
int lineCount = GetNumberOfLines(streamReader);
PdfWriter writer = new PdfWriter(resultStream);
PdfDocument pdf = new PdfDocument(writer);
Document document = new Document(pdf);
int lineNumber = 1;
while (!streamReader.EndOfStream)
{
string line = streamReader.ReadLine();
Paragraph paragraph = new Paragraph(line);
document.Add(paragraph);
int percent = lineNumber * 100 / lineCount;
OnFileConverting(path, percent, lineNumber);
lineNumber++;
}
document.Close();
return resultStream;
}
PDF转文本
public override byte[] ConvertFile(Stream stream, string path)
{
OnFileStartConverting(path);
string ext = Path.GetExtension(path);
TextFileType current = TextFileType.Parse(ext);
MemoryStream resultStream = new MemoryStream();
if (current.Extension.Equals(TextFileType.Pdf.Extension))
{
resultStream = PdfToText(stream, path);
}
else if (current.Extension.Equals(TextFileType.Word.Extension))
{
throw new NotImplementedException();
}
resultStream.Seek(0, SeekOrigin.Begin);
OnFileConverted(path);
return resultStream.ToArray();
}
private MemoryStream PdfToText(Stream stream, string path)
{
MemoryStream resultStream = new MemoryStream();
StreamWriter writer = new StreamWriter(resultStream);
PdfReader reader = new PdfReader(stream);
PdfDocument pdf = new PdfDocument(reader);
FilteredEventListener listener = new FilteredEventListener();
LocationTextExtractionStrategy extractionStrategy =
listener.AttachEventListener(new LocationTextExtractionStrategy());
PdfCanvasProcessor parser = new PdfCanvasProcessor(listener);
int numberOfPages = pdf.GetNumberOfPages();
for (int i = 1; i <= numberOfPages; i++)
{
parser.ProcessPageContent(pdf.GetPage(i));
writer.WriteLine(extractionStrategy.GetResultantText());
int percent = i * 100 / numberOfPages;
OnFileConverting(path, percent, i);
}
pdf.Close();
writer.Flush();
return resultStream;
}
从 PDF 转为文本时的内存使用情况
最佳答案
问题的原因在 PdfToText
对于具有多页的文档,它提取的文本比那里多。LocationTextExtractionStrategy
当您开始向其提供新页面时,不会忘记其内容。它不是为跨页面重复使用而设计的,您需要为每个页面创建一个新实例。
在代码中的循环中重用会导致
i=1
要写入的第 1 页的内容 writer
; i=2
要写入的第 1 页和第 2 页的内容 writer
; i=3
要写入 writer
的第 1、2 和 3 页的内容; FilteredEventListener
的实例化,
LocationTextExtractionStrategy
, 和
PdfCanvasProcessor
进入循环,为每个页面重新创建它们。
关于c# - 小pdf文件变成巨大的字节数组,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64087622/
我通过在共享首选项中使用 GSON 将其转换为 json 来存储我的复杂对象。但是在检索它时,无法获得预期的字符串。 代码 这里 holderListCustomizationMap 是对象的复杂映射
因此,我正在尝试对大于可用RAM的gz压缩文件执行某种面向行的操作,因此排除了将其首先读取为字符串的情况。问题是,如何在rust(缺少gunzip file.gz|./my-rust-program)
我试图更好地理解为什么具有潜在大精度的大数字处理不一致,特别是在 JavaScript 及其本地化工具(例如 ECMA-402/Intl)中。我假设这与 float 的使用有关,但我想了解限制在哪里和
我们有一个 5GB 的 csv 文件,这是我们业务的主列表。 有多个类别,每个类别包含数千条记录。我们的目标是将每个类别导出为其自己的 csv 文件。 我们如何运行查询并导出数据? 运行 OSX。有没
基于上一个问题 ( see here ),我试图通过 xmlEventParse 读取许多大型 xml 文件,同时保存节点变化数据。使用此示例 xml:https://www.nlm.nih.gov/
我正在开发一个系统,它加载一个巨大的 CSV 文件(超过 100 万行)并保存到数据库中。每行也有超过一千个字段。 CSV 文件被视为一个批处理,每一行都被视为其子对象。在添加对象的过程中,每个对象都
借助node-google模块 我编写了一个简单的 Node 模块来为我的网络应用程序启用“文本网络搜索”功能,并在我的一个 View 中显示结果。 由于在来自同一 IP 的少量查询后 Google
我有相当大的 4D 阵列 [20x20x40x15000],我使用 h5py 将其作为 HDF5 文件保存到磁盘.现在的问题是我想计算整个数组的平均值,即使用: numpy.average(HDF5_
我在遗留代码库中连接巨大的 CString 时遇到问题。 CStrings 可以包含 base64 编码的文件,因此可能很大。在某些时候,这些 CString 会像这样连接起来: result +=
我正在尝试让我的服务器提供来自另一台服务器的巨大文件。但是,为了保护我的凭据免受该远程服务器的攻击,我不能简单地将请求者重定向到文件 url;另一方面,虽然使用 StreamingHttpRespon
感谢对此的任何见解,我有 2 个问题: 1) 弄清楚为什么我的本地数据库 oplog 庞大且不断增长 2) 安全删除(或重置)我的 local.oplog 以释放 18 GB 的浪费空间 场景:我一直
我的预期任务:获取大量数据(1 GB 及更多大小)json 字符串,操作(进行一些格式化、解析 json、重组 json 数据)并写入新格式化的 json 字符串作为响应。处理这种情况的更好方法是什么
我做了一个小的 Angular 4 应用程序,但我不知道如何应用 tree shaking 和 aot 编译。我运行的命令如下: ng build --prod --aot 但我得到的结果仍然很大,供
我是一名优秀的程序员,十分优秀!