gpt4 book ai didi

python - 加速 Django 数据库函数以对缺失值进行地理插值

转载 作者:行者123 更新时间:2023-11-29 13:15:34 25 4
gpt4 key购买 nike

我有一个大型商业地产地址数据库(约 500 万行),其中 200,000 行缺少建筑面积。这些特性按行业分类,我知道每个特性的租金。

我对缺失的建筑面积进行插值的方法是,在建筑面积未知的特性的指定半径内过滤出类似分类的特性,然后根据附近特性的成本/平方米的中位数计算建筑面积。

最初,我使用 pandas 来解决这个问题,但随着数据集变大(甚至使用 group_by),这已成为问题。它经常超出可用内存,然后停止。工作时,大约需要 3 个小时才能完成。

我正在测试是否可以在数据库中完成相同的任务。我为径向填充编写的函数如下:

def _radial_fill(self):
# Initial query selecting all latest locations, and excluding null rental valuations
q = Location.objects.order_by("locode","-update_cycle") \
.distinct("locode")
# Chained Q objects to use in filter
f = Q(rental_valuation__isnull=False) & \
Q(use_category__grouped_by__isnull=False) & \
Q(pc__isnull=False)
# All property categories at subgroup level
for c in LocationCategory.objects.filter(use_category="SGP").all():
# Start looking for appropriate interpolation locations
fc = f & Q(use_category__grouped_by=c)
for l in q.filter(fc & Q(floor_area__isnull=True)).all():
r_degree = 0
while True:
# Default Distance is metres, so multiply accordingly
r = (constants.BOUNDS**r_degree)*1000 # metres
ql = q.annotate(distance=Distance("pc__point", l.pc.point)) \
.filter(fc & Q(floor_area__isnull=False) & Q(distance__lte=r)) \
.values("rental_valuation", "floor_area")
if len(ql) < constants.LOWER_RANGE:
if r > constants.UPPER_RADIUS*1000:
# Further than the longest possible distance
break
r_degree += 1
else:
m = median([x["rental_valuation"]/x["floor_area"]
for x in ql if x["floor_area"] > 0.0])
l.floor_area = l.rental_valuation / m
l.save()
break

我的问题是这个函数需要 6 天才能运行。必须有更快的方法,对吧?我敢肯定我做错了什么...

模型如下:

class LocationCategory(models.Model):
# Category types
GRP = "GRP"
SGP = "SGP"
UST = "UST"
CATEGORIES = (
(GRP, "Group"),
(SGP, "Sub-group"),
(UST, "Use type"),
)
slug = models.CharField(max_length=24, primary_key=True, unique=True)
usecode = models.CharField(max_length=14, db_index=True)
use_category = models.CharField(max_length=3, choices=CATEGORIES,
db_index=True, default=UST)
grouped_by = models.ForeignKey("self", null=True, blank=True,
on_delete=models.SET_NULL,
related_name="category_by_group")

class Location(models.Model):
# Hereditament identity and location
slug = models.CharField(max_length=24, db_index=True)
locode = models.CharField(max_length=14, db_index=True)
pc = models.ForeignKey(Postcode, null=True, blank=True,
on_delete=models.SET_NULL,
related_name="locations_by_pc")
use_category = models.ForeignKey(LocationCategory, null=True, blank=True,
on_delete=models.SET_NULL,
related_name="locations_by_category")
# History fields
update_cycle = models.CharField(max_length=14, db_index=True)
# Location-specific econometric data
floor_area = models.FloatField(blank=True, null=True)
rental_valuation = models.FloatField(blank=True, null=True)

class Postcode(models.Model):
pc = models.CharField(max_length=7, primary_key=True, unique=True) # Postcode excl space
pcs = models.CharField(max_length=8, unique=True) # Postcode incl space
# http://spatialreference.org/ref/epsg/osgb-1936-british-national-grid/
point = models.PointField(srid=4326)

使用 Django 2.0 和 Postgresql 10

更新

通过以下代码更改,我的运行时间提高了 35%:

# Initial query selecting all latest locations, and excluding null rental valuations
q = Location.objects.order_by("slug","-update_cycle") \
.distinct("slug")
# Chained Q objects to use in filter
f = Q(rental_valuation__isnull=False) & \
Q(pc__isnull=False) & \
Q(use_category__grouped_by_id=category_id)
# All property categories at subgroup level
# Start looking for appropriate interpolation locations
for l in q.filter(f & Q(floor_area__isnull=True)).all().iterator():
r = q.filter(f & Q(floor_area__isnull=False) & ~Q(floor_area=0.0))
rl = Location.objects.filter(id__in = r).annotate(distance=D("pc__point", l.pc.point)) \
.order_by("distance")[:constants.LOWER_RANGE] \
.annotate(floor_ratio = F("rental_valuation")/
F("floor_area")) \
.values("floor_ratio")
if len(rl) == constants.LOWER_RANGE:
m = median([h["floor_ratio"] for h in rl])
l.floor_area = l.rental_valuation / m
l.save()

id__in=r 效率低下,但它似乎是在添加和排序新注释时保持 distinct 查询集的唯一方法。假设在 r 查询中可以返回大约 100,000 行,在那里应用的任何注释,以及随后的按距离排序,都可能需要非常长的时间。

但是……我在尝试实现子查询功能时遇到了很多问题。 AttributeError: 'ResolvedOuterRef' object has no attribute '_output_field_or_none' 我认为这与注释有关,但我找不到太多关于它的信息。

相关重构代码为:

rl = Location.objects.filter(id__in = r).annotate(distance=D("pc__point", OuterRef('pc__point'))) \
.order_by("distance")[:constants.LOWER_RANGE] \
.annotate(floor_ratio = F("rental_valuation")/
F("floor_area")) \
.distinct("floor_ratio")

和:

l.update(floor_area= F("rental_valuation") / CustomAVG(Subquery(locs),0))

我可以看出这种方法应该非常有效,但要正确使用它似乎远远超出了我的技能水平。

最佳答案

您可以使用(大部分)经过优化的 Django 内置查询方法来简化您的方法。更具体地说,我们将使用:


我们将创建一个自定义聚合类来应用我们的 AVG 函数(方法的灵感来自于这个出色的答案:Django 1.11 Annotating a Subquery Aggregate)

class CustomAVG(Subquery):
template = "(SELECT AVG(area_value) FROM (%(subquery)s))"
output_field = models.FloatField()

我们将使用它来计算以下平均值:

for location in Location.objects.filter(rental_valuation__isnull=True):
location.update(
rental_valuation=CustomAVG(
Subquery(
Location.objects.filter(
pc__point__dwithin=(OuterRef('pc__point'), D(m=1000)),
rental_valuation__isnull=False
).annotate(area_value=F('rental_valuation')/F('floor_area'))
.distinct('area_value')
)
)
)

以上分解:

  • 我们收集所有没有 rental_valuationLocation 对象,然后“传递”列表。
  • 子查询: 我们选择 radius=1000m 圆内的 Location 对象(将其更改为如你所愿)从我们当前的位置点开始,我们在它们上注释成本/m2计算(使用F()获取列的值每个对象的 rental_valuationfloor_area),作为名为 area_value 的列。为了获得更准确的结果,我们仅选择此列的不同值。
  • 我们将 CustomAVG 应用到 Subquery 并更新我们当前的位置 rental_valuation

关于python - 加速 Django 数据库函数以对缺失值进行地理插值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49570712/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com