- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
显卡通常会将其输出写入内存中我可以访问的某个位置吗?我必须使用驱动程序吗?如果是这样,我可以使用 OpenGL 吗?
我想知道是否可以在 Linux 上“捕获”可以直接访问 GPU 并运行 Windows 的 VM 的输出。理想情况下,我可以直接从内存访问输出,而无需接触 GPU,因为此代码将能够在 Linux 主机上运行。
另一种选择可能是编写一个 Windows 驱动程序,该驱动程序读取 GPU 的输出并将其写入内存中的某个位置。然后,在 Linux 端,一个程序可以读取这个内存。这似乎有点不可能,因为我不确定如何让主机上的进程与 guest 上的进程共享内存。
是否可以执行选项 1 并简单地从内存中读取输出?
最佳答案
我不在 下编码Linux 但在 window (无论如何你都在模拟器中运行它)你可以使用 WinAPI 从 直接访问任何窗口甚至桌面的 Canvas 第三名派对应用程序。一些 显卡 覆盖可能难以捕捉(尤其是基于 DirectX ),但我的 没有问题总帐/总帐单 目前。
如果您可以访问 App 源,您可以使用 glReadPixels
用于从 中提取图像总帐 直接(但仅适用于当前的 GL 基于渲染)。
glReadPixels
void OpenGLscreen::screenshot(Graphics::TBitmap *bmp)
{
if (bmp==NULL) return;
int *dat=new int[xs*ys],x,y,a,*p;
if (dat==NULL) return;
bmp->HandleType=bmDIB;
bmp->PixelFormat=pf32bit;
if ((bmp->Width!=xs)||(bmp->Height!=ys)) bmp->SetSize(xs,ys);
if ((bmp->Width==xs)&&(bmp->Height==ys))
{
glReadPixels(0,0,xs,ys,GL_BGRA,GL_UNSIGNED_BYTE,dat);
glFinish();
for (a=0,y=ys-1;y>=0;y--)
for (p=(int*)bmp->ScanLine[y],x=0;x<xs;x++,a++)
p[x]=dat[a];
}
delete[] dat;
}
xs,ys
是OpenGL窗口分辨率,可以忽略整个bmp
东西(它是我用来存储屏幕截图的 VCL 位图),也可以忽略 for
它只是将图像从缓冲区复制到位图。所以重要的事情就是这样:int *dat=new int[xs*ys]; // each pixel is 32bit int
glReadPixels(0,0,xs,ys,GL_BGRA,GL_UNSIGNED_BYTE,dat);
glFinish();
//---------------------------------------------------------------------------
//--- screen capture ver: 1.00 ----------------------------------------------
//---------------------------------------------------------------------------
class scrcap
{
public:
HWND hnd,hnda;
TCanvas *scr;
Graphics::TBitmap *bmp;
int x0,y0,xs,ys;
scrcap()
{
hnd=NULL;
hnda=NULL;
scr=new TCanvas();
bmp=new Graphics::TBitmap;
#ifdef _mmap_h
mmap_new('scrc',scr,sizeof(TCanvas() ));
mmap_new('scrc',bmp,sizeof(Graphics::TBitmap));
#endif
if (bmp)
{
bmp->HandleType=bmDIB;
bmp->PixelFormat=pf32bit;
}
x0=0; y0=0; xs=1; ys=1;
hnd=GetDesktopWindow();
}
~scrcap()
{
#ifdef _mmap_h
mmap_del('scrc',scr);
mmap_del('scrc',bmp);
#endif
if (scr) delete scr; scr=NULL;
if (bmp) delete bmp; bmp=NULL;
}
void init(HWND _hnd=NULL)
{
RECT r;
if (scr==NULL) return;
if (bmp==NULL) return;
bmp->SetSize(1,1);
if (!IsWindow(_hnd)) _hnd=hnd;
scr->Handle=GetDC(_hnd);
hnda=_hnd;
resize();
}
void resize()
{
if (!IsWindow(hnda)) return;
RECT r;
// GetWindowRect(hnda,&r);
GetClientRect(hnda,&r);
x0=r.left; xs=r.right-x0;
y0=r.top; ys=r.bottom-y0;
bmp->SetSize(xs,ys);
xs=bmp->Width;
ys=bmp->Height;
}
void capture()
{
if (scr==NULL) return;
if (bmp==NULL) return;
bmp->Canvas->CopyRect(Rect(0,0,xs,ys),scr,TRect(x0,y0,x0+xs,y0+ys));
}
};
//---------------------------------------------------------------------------
//---------------------------------------------------------------------------
//---------------------------------------------------------------------------
bmp
和 Canvas scr
适合您的编程环境风格。也忽略 _mmap_h
代码块它们只是用于调试/跟踪与我当时面临的一些讨厌的编译器错误相关的内存指针我写了这个。// globals
scrcap cap;
// init
cap.init();
// on screenshot
cap.capture();
// here use cap.bmp
cap.init()
它将锁定整个 Windows 桌面。如果您调用cap.init(window_handle)
它将锁定特定的可 window 口/组件。要从第 3 个应用程序端获取窗口句柄,请参阅:关于c - 如何直接访问显卡的输出?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38535809/
我想为我的应用程序设计背景图像。图像应填满 iPhone 屏幕。什么图像尺寸适用于 3G 和 4G? A) 320 x 480。B) 640 x 960。 我更喜欢使用 B,因为它的质量更高,3G 会
我需要为我的类(class)作业编写一些关于低级视频卡控制的应用程序。例如 - 温度、工作 SM、管理对它们的访问等。操作系统 linux、tesla c1060。 你能给我一些建议在哪里搜索这类信息
我目前在安装带有 gpu 支持的 tensorflow 时遇到一些问题。 这是我遵循的指南。 安装 NVIDIA CUDA(预装) 安装 NVIDIA cuDNN(预装) 安装 bazel wget
我对如何使用一些视频卡驱动程序 API 读取 GPU 温度(图形处理单元,显卡主芯片)的方法感兴趣? 每个人都知道有两个不同的芯片制造商(至少是流行的)- ATI 和 nVIDIA - 因此有两种不同
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 7年前关闭。 Improve thi
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许在 Stack Overflow 上提出有关通用计算硬件和软件的问题。您可以编辑问题,使其成为
我的笔记本电脑有两个显卡,一个是高性能 NVIDIA 显卡,另一个是板载 Intel 显卡。然而,当我调用 IDirect3D9::GetAdapterCount 时,它只找到板载 Intel 适配器
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 5 年前。
我想使用两个 xserver,每个都在一个单独的显卡上运行,实际上我正在使用两个显示器,我的计算机上安装了两个不同的显卡,如下所示: root@ziomario-Z87-HD3:/home/zioma
当我在我的容器中时,我运行 lspci | grep -i nvidia 并没有显示。 当我从 NVIDIA 提供的示例中运行 ./deviceQuery 时,我得到 no CUDA-capabl
我有一台带有 Intel GMA 3150 显卡的 Asus Eee PC,操作系统是 Windows 7 Starter,并且安装了 DirectX 11。 当我运行我的项目时,它使用 XNA 4.
我知道 Quadro 2000 是 CUDA 2.1。我的电脑规范如下: Quadro 2000,配备 16GB RAM。 至强(R) CPU W3520 @2.67GHz 2.66GHz Windo
我需要帮助将 C++ 头文件转换为 Delphi。 下面是原始头文件和我的Delphi翻译。 C++ header : #if _MSC_VER > 1000 #pragma once #endif
我在配备 Radeon Pro 560X 4096 MB 和 Intel UHD Graphics 630 1536 MB 的 MacBook Pro 上用 python 运行一些 Keras/ten
如何在 c sharp 中获取我的显卡的共享系统内存、总可用内存和系统显存? 最佳答案 我会考虑使用 WMI ,特别是 Win32_VideoController目的。 WMI Code Creato
PowerVR SGX 卡中与纹理内存相关的“共享内存”到底是什么。没有与此相关的适当文档。 通常对于 iphone 上的应用程序(假设 3gs/ipad PowerVR SGX 卡),它被限制为使用
以防我购买带有集成英特尔® UHD 显卡 620 的 Thinkpad 并在其下安装 Ubuntu Linux 和 TensorFlow。然后,稍后我添加带有 Nvidia GPU 的 eGPU。我应
我是 TF 新手,想从源代码编译,因为我的桌面没有支持 AVX 指令的 CPU 或 GPU。我的系统有一个 Intel i7 930 处理器(来自 nehalem 家族的 Bloomfield)和一个
因此,在 64 位 Ubuntu 上,我正在使用 LWJGL 进行开发,但是在 Windows(和 Mac,尽管我测试的更少)上运行良好的代码在我的新机器上出现了问题。 基本上,如果我尝试初始化全屏模
我是一名优秀的程序员,十分优秀!