gpt4 book ai didi

c# - Entity Framework 中的大规模增删多对多关系

转载 作者:行者123 更新时间:2023-11-29 20:27:14 25 4
gpt4 key购买 nike

我目前正在从事一个项目,最近获取了许多数据库记录。我现在正在尝试对此进行优化。这是我的模型:

public class QueueEntity
{
public int Id { get; set; }
public string Name { get; set; }
public virtual List<PhraseEntity> Phrases { get; set; }
}

public class PhraseEntity
{
public int Id { get; set; }
public string Name { get; set; }
public virtual SourceEntity Source { get; set; }
public virtual List<QueueEntity> Queues { get; set; }
}

public class SourceEntity
{
public int Id { get; set; }
public string Name { get; set; }
public virtual List<PhraseEntity> Phrases { get; set; }
}

我现在正在测试大约 100,000 个短语记录,并假设这些短语的每 20,000 个增量属于不同的源。

用户可以在队列中添加和删除“源”;本质上,我只是将源中的所有短语添加或删除到队列中。这个结构不是我选择的,现在改变已经太晚了。

这些保存和删除现在导致我的测试系统崩溃,因为我似乎无法在不将它们拉入内存的情况下访问队列上的短语。即使尝试批量删除(例如 context.Queues.Single(m => m.Id == queueId).Phrases.Take(1000); 或获取存储为变量 ' 的 1000 个短语的 IQueryable phrases' 并执行 context.Queues.Single(m => m.Id ==queueId).Phrases.RemoveAll(m =>phrases.Contains(m));) 看来我正在尝试将该队列上的所有短语记录拉入内存。

是否有更简单的方法来删除这些记录之间的关系,同时仍然使用 LINQ 表达式?

最佳答案

如果其他人偶然发现了同样的问题,我们决定在这种情况下不使用 ORM。我们只写了两个SQL存储过程(一个用于添加,一个用于删除),这简化了问题并极大地提高了效率。当测试超过 100,000 条记录时,如果不抛出内存不足异常,完成操作将花费大量时间。使用存储过程,我们的操作可以在几秒钟或更短的时间内完成。这种方法的唯一缺点来自可测试性的角度。

关于c# - Entity Framework 中的大规模增删多对多关系,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39235943/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com