gpt4 book ai didi

python - 在 Linux 上开发 HDMI 端口

转载 作者:IT王子 更新时间:2023-10-29 00:58:05 25 4
gpt4 key购买 nike

如何才能从应用程序中专门驱动 HDMI 输出,而不允许操作系统自动将其配置为显示输出?

例如,使用标准 DVI/VGA 作为主显示器,但使用设备文件将 Mplayer 视频输出发送到 HDMI。

这是一个很难通过 Google 回答的问题。几乎每个结果都与通过 HDMI 处理音频有关。

(在这里编辑)

下面的评论提到使用单独的 Xorg 服务器。虽然这是一个有用的想法,但它没有回答我提出的一个问题,也没有回答我暗示的一个问题:

1) 如果控制台在另一个显示器之前加载,或者如果它是唯一的显示器(当仅使用 SSH 登录时),我如何阻止 Linux 将控制台放在该显示器上?2)如果没有X怎么办?我想直接将图形驱动到适配器。我是否可以使用标准功能从代码中执行此操作,而不直接与驱动程序交互(可能已过时,但使用 SVGALib 或其他一些非 X 图形层)?

(在这里编辑)

我查看了 SVGALib(旧的)和 SDL。后者在 X 内部和外部均可工作,甚至提供对 OpenGL 的访问。我通过某处的论坛链接找到了 1.3 版,但网站和 FTP 似乎只有 1.2 版。总的来说,SDL 是一个很好的解决方案,但它有以下两个具体的缺点:

1) 一般的 create-device 调用接受设备索引,但完全忽略它:

(src/video/bwindow/SDL_bvideo.cc)
BE_CreateDevice(int devindex)

特定于驱动程序的调用似乎具有相同的缺陷。例如,DirectFB(我假设它在控制台下提供图形):

(src/video/directfb/SDL_DirectFB_video.c)
DirectFB_CreateDevice(int devindex)

这些函数的主体似乎都没有现成的位置来设置设备索引...毫无疑问是因为它们所构建的标准接口(interface)缺乏支持。

2) 无论何时选择适配器,SDL 似乎都会自动将所有显示器连接在一起。示例“testsprite2.c”(随库提供)接受“--display”参数,该参数在“common.c”(所有示例的通用功能)中处理。您可以看到,它对“--display”参数所做的一切都是在一个大的组合 Canvas 中计算该屏幕的 X/Y 坐标:

if (SDL_strcasecmp(argv[index], "--display") == 0) {
++index;
if (!argv[index]) {
return -1;
}
state->display = SDL_atoi(argv[index]);
if (SDL_WINDOWPOS_ISUNDEFINED(state->window_x)) {
state->window_x = SDL_WINDOWPOS_UNDEFINED_DISPLAY(state->display);
state->window_y = SDL_WINDOWPOS_UNDEFINED_DISPLAY(state->display);
}
if (SDL_WINDOWPOS_ISCENTERED(state->window_x)) {
state->window_x = SDL_WINDOWPOS_CENTERED_DISPLAY(state->display);
state->window_y = SDL_WINDOWPOS_CENTERED_DISPLAY(state->display);
}
return 2;
}

因此,如果一个显示器位于同一个适配器上,则无法将它们与另一个显示器隔离开来。 SDL 将不起作用。

除非有与 SDL 相当的解决方案,否则事实证明将特定设备 (devindex) 设置在适当的位置是微不足道的(这可能不是这种情况,因此,这可能是它的原因未实现),似乎独占和完全专用屏幕的最佳选择是在分配给您的第二个设备的单独 Xorg 实例下编写您自己的窗口管理器。

最佳答案

您可以直接写入帧缓冲设备/dev/fb(假设您的控制台默认使用一个)。为了防止控制台显示在上面,只需禁用所有虚拟终端(然后您将只能远程登录)。如果你有多个适配器,你应该得到一个以上的帧缓冲设备(这需要确认)。

在帧缓冲区上绘制矩形的 C 示例如下:

Paint Pixels to Screen via Linux FrameBuffer

#include <stdlib.h>
#include <unistd.h>
#include <stdio.h>
#include <fcntl.h>
#include <linux/fb.h>
#include <sys/mman.h>
#include <sys/ioctl.h>

int main()
{
int fbfd = 0;
struct fb_var_screeninfo vinfo;
struct fb_fix_screeninfo finfo;
long int screensize = 0;
char *fbp = 0;
int x = 0, y = 0;
long int location = 0;

// Open the file for reading and writing
fbfd = open("/dev/fb0", O_RDWR);
if (fbfd == -1) {
perror("Error: cannot open framebuffer device");
exit(1);
}
printf("The framebuffer device was opened successfully.\n");

// Get fixed screen information
if (ioctl(fbfd, FBIOGET_FSCREENINFO, &finfo) == -1) {
perror("Error reading fixed information");
exit(2);
}

// Get variable screen information
if (ioctl(fbfd, FBIOGET_VSCREENINFO, &vinfo) == -1) {
perror("Error reading variable information");
exit(3);
}

printf("%dx%d, %dbpp\n", vinfo.xres, vinfo.yres, vinfo.bits_per_pixel);

// Figure out the size of the screen in bytes
screensize = vinfo.xres * vinfo.yres * vinfo.bits_per_pixel / 8;

// Map the device to memory
fbp = (char *)mmap(0, screensize, PROT_READ | PROT_WRITE, MAP_SHARED, fbfd, 0);
if ((int)fbp == -1) {
perror("Error: failed to map framebuffer device to memory");
exit(4);
}
printf("The framebuffer device was mapped to memory successfully.\n");

x = 100; y = 100; // Where we are going to put the pixel

// Figure out where in memory to put the pixel
for (y = 100; y < 300; y++)
for (x = 100; x < 300; x++) {

location = (x+vinfo.xoffset) * (vinfo.bits_per_pixel/8) +
(y+vinfo.yoffset) * finfo.line_length;

if (vinfo.bits_per_pixel == 32) {
*(fbp + location) = 100; // Some blue
*(fbp + location + 1) = 15+(x-100)/2; // A little green
*(fbp + location + 2) = 200-(y-100)/5; // A lot of red
*(fbp + location + 3) = 0; // No transparency
//location += 4;
} else { //assume 16bpp
int b = 10;
int g = (x-100)/6; // A little green
int r = 31-(y-100)/16; // A lot of red
unsigned short int t = r<<11 | g << 5 | b;
*((unsigned short int*)(fbp + location)) = t;
}

}
munmap(fbp, screensize);
close(fbfd);
return 0;
}

只要您拥有可用的构建工具以及适用于您系统的头文件,它就应该可以编译。如果想刺激一下,请从 SSH 运行它并在您尚未登录的物理屏幕上观看它绘制。

应该注意的是,在 X11 之外,有许多工具可以处理帧缓冲区,但它们不会直接访问帧缓冲区。相反,它们通过称为 DirectFB 的附加抽象层工作。 DirectFB 将允许相同的应用程序在 X11 内外运行...包括 MPlayer、GStreamer、任何包含 SDL(称为 DirectFB)的应用程序,以及一个轻量级、流行的假 X11 容器,称为 XDirectFB(我相信它应该运行 X11 应用程序,但不会像典型的窗口管理器那样负担过重)。

关于python - 在 Linux 上开发 HDMI 端口,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14718147/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com