gpt4 book ai didi

python - 交错集群的算法

转载 作者:塔克拉玛干 更新时间:2023-11-03 03:12:56 26 4
gpt4 key购买 nike

我需要将项目集群交织到一维数组中,以最大化同一集群项目之间的传播。

例子:

clusterA = [A, A, A, A, A, A, A, A]
clusterB = [B, B, B, B]
clusterC = [C, C]

interleaved_example = [A, B, A, C, A, A, B, A, B, A, C, A, B, A]

A 值之间的分布为 (2, 2, 1, 2, 2, 2, 2),平均值为 ~1.9

B 值之间的分布为 (5, 2, 4),平均值为 ~3.7

C 值之间的分布是(7) = 7 的平均值

平均点差 =~ 2.8,最小点差 = 1

理想情况下,首先优化最小价差,然后优化平均价差。

我对算法的第一次尝试是获取最大的簇并将其放入数组X,然后获取第二大的簇并将值插入X在线性间隔的位置(必要时四舍五入),然后对每个后续的较小集群重复,但这很容易证明是次优的,尽管平均来说还不错。

我一直努力将其建模为凸优化问题,希望在其上使用 scipy.optimize.minimize

我想知道是否存在实现这一目标的现有原则性算法。

最佳答案

我认为通过在平分位置逐步插入,您将获得最佳传播效果。从最小到最大的集合应用它应该会产生最佳传播(或接近它):

首先,您需要一个函数,该函数将为您提供 N 个目标元素列表中 m 个源元素的平分插入点(其中 N >= m)。该函数应从前 3 个插入点(第一个、最后一个、中间)的尽可能广泛的分布开始,然后对其余插入点使用中间的二分法。

def iPoints(N,m):
d = N//2
result = [0,N,d]
if m==N: result[1] = N-1
while len(result)<m:
d = max(1,d//2)
for r in result[2:]:
for s in [-1,1]:
p = r+s*d
if p in result : continue
result.append(p)
result = sorted(result[:m])
result = [ p + sum(p>r for r in result[:i]) for i,p in enumerate(result)]
return result

使用它,您可以从最大到最小遍历集群列表并执行插入:

clusterA  = ["A", "A", "A", "A", "A", "A", "A", "A"]
clusterB = ["B", "B", "B", "B"]
clusterC = ["C", "C"]

clusters = [clusterA,clusterB,clusterC]
totalSize = sum(map(len,clusters))
order = -1 if all((totalSize-len(c))//(len(c)-1) for c in clusters) else 1
clusters = sorted(clusters,key=lambda c: order*(totalSize-len(c))//(len(c)-1))
merged = clusters[0]
for cluster in clusters[1:]:
target = cluster.copy()
source = merged
if len(source) > len(target):
source,target = target,source
indexes = iPoints(len(target),len(source))
for c,p in zip(source,indexes):
target.insert(p,c)
merged = target

print(merged)

# ['C', 'B', 'A', 'A', 'B', 'A', 'A', 'B', 'A', 'A', 'A', 'A', 'B', 'C']

对这个结果的分析表明,对于这组集群来说要好一些。不幸的是,它并不总能提供最佳解决方案。

from statistics import mean
m = "".join(merged)
spreadA = [ d+1 for d in map(len,m.split("A")[1:-1])]
spreadB = [ d+1 for d in map(len,m.split("B")[1:-1])]
spreadC = [ d+1 for d in map(len,m.split("C")[1:-1])]
print("A",spreadA,mean(spreadA))
print("B",spreadB,mean(spreadB))
print("C",spreadC,mean(spreadC))
print("minimum spread",min(spreadA+spreadB+spreadC))
print("average spread", round(mean(spreadA+spreadB+spreadC), 1))

# A [1, 2, 1, 2, 1, 1, 1] 1.3
# B [3, 3, 5] 3.7
# C [13] 13
# minimum spread 1
# average spread 3

在试验其他集群大小时,我发现集群处理的顺序很重要。我使用的顺序是基于每个集群的最大分布。如果至少有一个比其余的大,则升序,否则降序。

clusterA = ["A", "A", "A", "A", "A"]
clusterB = ["B", "B", "B", "B"]
clusterC = ["C", "C"]


# ['A', 'C', 'B', 'A', 'B', 'A', 'B', 'A', 'B', 'C', 'A']
# A [3, 2, 2, 3] 2.5
# B [2, 2, 2] 2
# C [8] 8
# minimum spread 2
# average spread 3

关于python - 交错集群的算法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56873180/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com