gpt4 book ai didi

python - python 中的轨迹相交

转载 作者:塔克拉玛干 更新时间:2023-11-03 06:37:45 27 4
gpt4 key购买 nike

我正在使用 tensorflow 和 python 检测人员和车辆。我计算轨迹并使用卡尔曼滤波器预测它们,然后拟合一条线来预测轨迹。

我的问题是如何找到两条轨迹之间的交点和碰撞时间?

我尝试了线与线的交点,但拟合线并不总是一条两点线,它是一条折线。这是我的尝试:

 detections = tracker.update(np.array(z_box))

for trk in detections[0]:
trk = trk.astype(np.int32)
helpers.draw_box_label(img, trk, trk[4]) # Draw the bounding boxes on the
centerCoord = (((trk[1] +trk[3]) / 2), (trk[0] + trk[2]) / 2)
point_lists[trk[4]].append(centerCoord)
x = [i[0] for i in point_lists[trk[4]]]
y = [i[1] for i in point_lists[trk[4]]]
p = np.polyfit(x, y, deg=1)
y = p[1] + p[0] * np.array(x)
fitted = list(zip(x, y))
cv2.polylines(img, np.int32([fitted]), False, color=(255, 0, 0))
for other in detections[0]:
other = other.astype(np.int32)
if other[4] != trk[4]: # check for self ID
x2 = [i[0] for i in point_lists[other[4]]]
y2 = [i[1] for i in point_lists[other[4]]]
p2 = np.polyfit(x2, y2, deg=1)
y2 = p2[1] + p2[0] * np.array(x2)
other_fitted = list(zip(x2, y2))
if(line_intersection(fitted, other_fitted)):
print("intersection")
else:
print("not intersection")

最佳答案

这是一个更宽泛的话题,所以我将只关注数学/物理部分,因为我感觉 CV/DIP 部分已经被你们两个提问者处理过(andre ahmed,和chris burgees ).

为简单起见,我假设以恒定速度进行线性运动那么如何做到这一点:

  1. 在已知时间后获取每个对象的 2 个独立帧的 2D 位置 dt

    因此获取每个相关对象在图像上的 2D 中心(或角点或其他)位置。

  2. 将它们转换为 3D

    因此,使用已知的相机参数或关于场景的已知背景信息,您可以将屏幕上的 2D 位置反投影到相机的 3D 相对位置。如果像 2D 情况一样处理,这将摆脱非线性插值,否则需要。

    根据您所掌握的内容,有更多选项可以获取 3D 位置。例如像这样:

  3. 获取物体的实际速度

    速度矢量很简单:

    vel = ( pos(t+dt) - pos(t) )/dt

    因此只需从 2 个后续帧中减去同一对象的位置,然后除以帧速率周期(或所用帧之间的间隔)。

  4. 测试每 2 个物体是否发生碰撞

    这是有趣的事情是的,你可以解决一个不平等的系统,比如:

    | ( pos0 + vel0 * t ) - (pos1 + vel1 * t ) | <= threshold

    但是我在这里使用了一种更简单的方法

    想法是计算t被测物体距离最近的地方(如果靠近彼此)。

    所以我们可以像这样推断每个对象的 future 位置:

    pos(t) = pos(t0) + vel*(t-t0)

    哪里t是实际时间,t0是一些开始时间(例如 t0=0 )。

    假设我们有 2 个对象 (pos0,vel0,pos1,vel1) 我们想要测试,因此计算它们距离的前 2 次迭代:

    pos0(0) = pos0;
    pos1(0) = pos1;
    dis0 = | pos1(0) - pos0(0) |

    pos0(dt) = pos0 + vel0*dt;
    pos1(dt) = pos1 + vel1*dt;
    dis1 = | pos1(dt) - pos0(dt) |

    哪里dt是一些足够小的时间(以避免跳过碰撞)。现在if (dis0<dis1)然后物体被割掉所以没有碰撞,if (dis0==dis1)物体没有移动或平行于每个物体移动且仅移动 if (dis0>dis1)物体彼此靠近,因此我们可以估计:

    dis(t) = dis0 + (dis1-dis0)*t

    并且碰撞期望dis(t)=0所以我们可以再次推断:

    0 = dis0 + (dis1-dis0)*t
    (dis0-dis1)*t = dis0
    t = dis0 / (dis0-dis1)

    哪里t是估计的碰撞时间。粗略地说,所有这些都将所有运动都处理为线性并进行了很多推断,因此它不准确,但是因为您可以对更多后续帧执行此操作,并且随着接近碰撞的时间,结果将更加准确......还要确保您应该推断每个物体在估计碰撞时的位置以验证结果(如果没有碰撞那么外推只是数值并且物体没有碰撞只是靠近每个物体一段时间)

    extrapolation

如前所述,转换为 3D(bullet #2)不是必需的,但它消除了非线性,因此可以稍后使用简单的线性插值/外推大大简化了事情。

关于python - python 中的轨迹相交,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55089783/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com