gpt4 book ai didi

c++ - 使用笛卡尔坐标和欧拉角控制 OpenSceneGraph 相机

转载 作者:行者123 更新时间:2023-11-30 05:38:42 25 4
gpt4 key购买 nike

我正在尝试使用我从文件中读入的笛卡尔坐标(X、Y、Z)和欧拉角(Yaw、Pitch、Roll)来控制 osg::Camera。

第 1 部分

出于某种原因,设置我的滚动将导致相机围绕 z 轴而不是预期的 y 轴旋转。

以下是我正在向其提供位置数据的先前编写的相机操纵器。

class EulerManipulator : public osgGA::CameraManipulator
{
public:
EulerManipulator(osg::ref_ptr<osg::View> x) :
view(x),
camView(new osg::CameraView)
{
}

virtual ~EulerManipulator(){}

virtual osg::Matrixd getMatrix() const
{
// Note: (x, y, z) and (yaw, pitch, roll) are read in from file and saved in memory

// Position works fine
this->camView->setPosition(osg::Vec3d(x, y, z));

// Possibly something wrong with rotation
osg::Quat rotationQuat;

const osg::Vec3d headingAxis(0.0, 0.0, 1.0);
const osg::Vec3d pitchAxis(1.0, 0.0, 0.0);
const osg::Vec3d rollAxis(0.0, 1.0, 0.0);

std::array<double, 3> rotation = {yaw, pitch, roll};

rotationQuat.makeRotate(
deg2rad(rotation[2]), rollAxis,
deg2rad(rotation[1] + 90.0f), pitchAxis,
-deg2rad(rotation[0]), headingAxis);

this->camView->setAttitude(rotationQuat);

// Not 100% sure what this does but assume it works as Heading and Pitch seem to work fine.
auto nodePathList = this->camView->getParentalNodePaths();
return osg::computeLocalToWorld(nodePathList[0]);
}

private:
osg::ref_ptr<osg::View> view;
osg::ref_ptr<osg::CameraView> camView;
};

注意:以上代码不是我自己的,而是用于驱动相机的代码。我的目标是从我自己的相机中获取笛卡尔位置和欧拉角并写入文件。但在执行此操作之前,我需要弄清楚为什么这段代码没有按预期运行。

上面的代码有什么明显的错误吗?

第 2 部分

对于这个问题的第二部分,我正在捕获相机的位置数据并将其写入文件。

我取得了一些成功,但它仍然无法正常工作。下面是我为附加到我的 View 的事件处理程序编写的重载句柄函数。目标是在场景中四处移动相机时捕获相机的位置数据。

在这里我运行我的程序并水平旋转相机(偏航)但由于某种原因俯仰角急剧减小。如果我从 0 度偏航到 90 度偏航。我的俯仰角将从 0 度减小到大约 90 度。我本以为水平旋转相机时我的俯仰保持大致相同。

    virtual bool handle(const osgGA::GUIEventAdapter& ea, osgGA::GUIActionAdapter&, osg::Object*, osg::NodeVisitor*) override
{
switch(ea.getEventType())
{
case osgGA::GUIEventAdapter::FRAME:
{
if((this->camera != nullptr))
{
osg::Vec3d center;
osg::Vec3d vecDontCare;
this->camera->getViewMatrixAsLookAt(vecDontCare, center, vecDontCare);

auto rotation = this->camera->getViewMatrix().getRotate();

std::array<double, 4> quat = {{rotation.x(), rotation.y(), rotation.z(), rotation.w()}};

// Assuming this conversion is correct
auto ypr = Quaternion2YawPitchRoll(quat);

// Convert the rotation into my coordinate system.
ypr[0] *= -1.0;
ypr[1] -= 90.0;

// The output angles for YPR don't appear to align with the manual rotation I perform with the camera
Debug << "Y: " << ypr[0] << " P: " << ypr[1] << " R: " << ypr[2];
// Write XYZ and YPR to file
}
}
break;

default:
break;
}

问题是,我获取相机位置数据的方式有什么明显的错误吗?有更好的方法吗?

最佳答案

第 1 部分

问题是我将角度添加到四元数的顺序。

rotationQuat.makeRotate(
deg2rad(rotation[1] + 90.0f), pitchAxis,
deg2rad(rotation[2]), rollAxis,
-deg2rad(rotation[0]), headingAxis);

在绕 X 轴旋转时必须首先添加俯仰

第 2 部分

这里有几处错误。

首先,我需要获取逆 View 矩阵。我不是 100% 确定为什么,也许有更多知识的人可以发表评论,但它有效。

auto rotation = this->camera->getViewInverseMatrix().getRotate();

其次,假设转换函数是正确的结果证明是错误的。我为这个函数写了一个单元测试,结果发现它是错误的。

// Assuming this conversion is correct
auto ypr = Quaternion2YawPitchRoll(quat);

关于c++ - 使用笛卡尔坐标和欧拉角控制 OpenSceneGraph 相机,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32595198/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com