gpt4 book ai didi

c# - 为什么我不能利用计算机中的 4GB RAM 来处理 C# 中少于 2GB 的信息?

转载 作者:IT王子 更新时间:2023-10-28 23:38:47 27 4
gpt4 key购买 nike

场景:我需要以数学方式处理超过 1.5GB 的文本和 csv 文件。我尝试使用 SQL Server Express,但加载信息,即使使用 BULK 导入也需要很长时间,理想情况下我需要将整个数据集放在内存中,以减少硬盘 IO。

有超过 120,000,000 条记录,但即使我尝试将信息过滤到仅一列(内存中),我的 C# 控制台应用程序也消耗约 3.5GB 的内存来处理仅 125MB(700MB 实际读入)文本。

GC 似乎没有收集对字符串和字符串数组的引用,即使在将所有引用设置为 null 并使用 using 关键字封装 IDisposables 之后也是如此。

我认为罪魁祸首是 String.Split() 方法,它为每个逗号分隔值创建一个新字符串。

您可能会建议我什至不应该将不需要的*列读入字符串数组,但这没有捕获重点:如何将这个 整个 数据集放在内存中,以便我可以处理它在 C# 中是并行的吗?

我可以优化统计算法并使用复杂的调度算法协调任务,但这是我在遇到内存问题之前希望做的事情,而不是因为。

我已经包含了一个完整的控制台应用程序,它可以模拟我的环境并且应该有助于重现问题。

感谢任何帮助。提前致谢。

using System;
using System.Collections.Generic;
using System.Text;
using System.IO;

namespace InMemProcessingLeak
{
class Program
{
static void Main(string[] args)
{
//Setup Test Environment. Uncomment Once
//15000-20000 files would be more realistic
//InMemoryProcessingLeak.GenerateTestDirectoryFilesAndColumns(3000, 3);
//GC
GC.Collect();
//Demostrate Large Object Memory Allocation Problem (LOMAP)
InMemoryProcessingLeak.SelectColumnFromAllFiles(3000, 2);
}
}

class InMemoryProcessingLeak
{
public static List<string> SelectColumnFromAllFiles(int filesToSelect, int column)
{
List<string> allItems = new List<string>();
int fileCount = filesToSelect;
long fileSize, totalReadSize = 0;

for (int i = 1; i <= fileCount; i++)
{
allItems.AddRange(SelectColumn(i, column, out fileSize));
totalReadSize += fileSize;
Console.Clear();
Console.Out.WriteLine("Reading file {0:00000} of {1}", i, fileCount);
Console.Out.WriteLine("Memory = {0}MB", GC.GetTotalMemory(false) / 1048576);
Console.Out.WriteLine("Total Read = {0}MB", totalReadSize / 1048576);
}
Console.ReadLine();
return allItems;

}

//reads a csv file and returns the values for a selected column
private static List<string> SelectColumn(int fileNumber, int column, out long fileSize)
{
string fileIn;
FileInfo file = new FileInfo(string.Format(@"MemLeakTestFiles/File{0:00000}.txt", fileNumber));
fileSize = file.Length;
using (System.IO.FileStream fs = file.Open(FileMode.Open, FileAccess.Read, FileShare.Read))
{
using (System.IO.StreamReader sr = new System.IO.StreamReader(fs))
{
fileIn = sr.ReadToEnd();
}
}

string[] lineDelimiter = { "\n" };
string[] allLines = fileIn.Split(lineDelimiter, StringSplitOptions.None);

List<string> processedColumn = new List<string>();

string current;
for (int i = 0; i < allLines.Length - 1; i++)
{
current = GetColumnFromProcessedRow(allLines[i], column);
processedColumn.Add(current);
}

for (int i = 0; i < lineDelimiter.Length; i++) //GC
{
lineDelimiter[i] = null;
}
lineDelimiter = null;

for (int i = 0; i < allLines.Length; i++) //GC
{
allLines[i] = null;
}
allLines = null;
current = null;

return processedColumn;
}

//returns a row value from the selected comma separated string and column position
private static string GetColumnFromProcessedRow(string line, int columnPosition)
{
string[] entireRow = line.Split(",".ToCharArray());
string currentColumn = entireRow[columnPosition];
//GC
for (int i = 0; i < entireRow.Length; i++)
{
entireRow[i] = null;
}
entireRow = null;
return currentColumn;
}

#region Generators
public static void GenerateTestDirectoryFilesAndColumns(int filesToGenerate, int columnsToGenerate)
{
DirectoryInfo dirInfo = new DirectoryInfo("MemLeakTestFiles");
if (!dirInfo.Exists)
{
dirInfo.Create();
}
Random seed = new Random();

string[] columns = new string[columnsToGenerate];

StringBuilder sb = new StringBuilder();
for (int i = 1; i <= filesToGenerate; i++)
{
int rows = seed.Next(10, 8000);
for (int j = 0; j < rows; j++)
{
sb.Append(GenerateRow(seed, columnsToGenerate));
}
using (TextWriter tw = new StreamWriter(String.Format(@"{0}/File{1:00000}.txt", dirInfo, i)))
{
tw.Write(sb.ToString());
tw.Flush();
}
sb.Remove(0, sb.Length);
Console.Clear();
Console.Out.WriteLine("Generating file {0:00000} of {1}", i, filesToGenerate);
}
}

private static string GenerateString(Random seed)
{
StringBuilder sb = new StringBuilder();
int characters = seed.Next(4, 12);
for (int i = 0; i < characters; i++)
{
sb.Append(Convert.ToChar(Convert.ToInt32(Math.Floor(26 * seed.NextDouble() + 65))));
}
return sb.ToString();
}

private static string GenerateRow(Random seed, int columnsToGenerate)
{
StringBuilder sb = new StringBuilder();

sb.Append(seed.Next());
for (int i = 0; i < columnsToGenerate - 1; i++)
{
sb.Append(",");
sb.Append(GenerateString(seed));
}
sb.Append("\n");

return sb.ToString();
}
#endregion
}
}

*在程序的整个生命周期中,这些其他列将被需要并按顺序和随机访问,因此每次从磁盘读取都是非常繁重的开销。

**环境说明:4GB DDR2 SDRAM 800、Core 2 Duo 2.5Ghz、.NET Runtime 3.5 SP1、Vista 64。

最佳答案

是的,String.Split 为每个“片段”创建一个新的 String 对象——这就是它的本意。

现在,请记住 .NET 中的字符串是 Unicode(实际上是 UTF-16),加上对象开销,字符串的字节成本大约是 20 + 2*n 其中 n 是字符数。

这意味着如果您有很多小字符串,与所涉及的文本数据的大小相比,它会占用大量内存。例如,将 80 个字符的行拆分为 10 x 8 个字符串将占用文件中的 80 个字节,但 10 * (20 + 2*8) = 360 个字节的内存 - 4.5 倍的爆炸!

我怀疑这是一个 GC 问题 - 我建议您在不需要时删除将变量设置为 null 的额外语句 - 只是数据过多的问题。

建议您逐行阅读文件(使用 TextReader.ReadLine() 而不是 TextReader.ReadToEnd())。如果不需要,显然将整个文件保存在内存中是一种浪费。

关于c# - 为什么我不能利用计算机中的 4GB RAM 来处理 C# 中少于 2GB 的信息?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/704350/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com