- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我拼凑了一个简单的游戏循环,主要使用了似乎很流行的技术,特别是在 Killer Game Programming in Java 一书中和我刚刚发现的本教程中:Here只是一个带有后台缓冲区的简单定时游戏循环。
问题是它不会以良好的 FPS 重绘屏幕。我的摩托罗拉 Xoom 最高可以达到 15FPS,目标是 24。
如果我将后台缓冲区的大小减半,速度会大幅提升,所以我猜测问题可能与使用 Xoom 上的屏幕有关(我的 SurfaceView 的大小是 1280x727 )......然而其他游戏在相同大小下运行得非常好。
我没有任何其他设备可以测试,所以我现在有点不知所措。
我做错了什么/遗漏了/不知道什么?
最佳答案
也许您的位图和表面的像素格式不同,导致每次绘制位图时都发生转换?那肯定会引起开销。尝试并试验 SurfaceHolder.setFormat()看看是否有帮助。
由于您的位图使用的是 Bitmap.Config.ARGB_8888
,您可以尝试将表面支架格式设置为 PixelFormat.RGBA_8888
。或者,如果可以,请尝试使用 Bitmap.Config.RGB_565
和 PixelFormat.RGB_565
。
关于android - 为什么我的 SurfaceView 的游戏循环不能运行像样的 FPS?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6967021/
我有一个计数器可以计算每一帧。我想做的是将其除以时间以确定我的程序的 FPS。但是我不确定如何在 python 中对计时函数执行操作。 我试过将时间初始化为 fps_time = time.time
我发布了我的 original question here .试过suggested solution .但这并不能解决我的问题。 这就是我所做的。下载 this video来自 Youtube 作为
JavaFX UI 线程上限为每秒 60 次更新(1、2)似乎是一种共识。据我了解,更新意味着 pulse。 A pulse is an event that indicates to the Jav
在处理来自相机的帧时,我正在尝试测量每秒帧数。计算没什么特别的,可以在这个问题中找到:How to write function with parameter which type is deduce
我在 Xcode 6.1.1 中使用 OpenGL ES 3.0 开发了一款针对 iPad Air 的游戏。当我捕获 OpenGL ES 帧时,FPS 数字和着色器程序时间始终显示为 0。 我在项目方
我正在尝试通过 ffmpeg 对视频进行编码在 Linux 系统中。原始视频有 60 FPS,我需要将其更改为 25,但是当我这样做时,视频比原始视频慢。 当我将其更改为 30 时,一切都很好(我想编
我正在尝试将视频从 25 fps 加速到 60 fps。我想要完全相同的帧数,只是更快地呈现给我,并且每秒可以让我获得 60 帧。 ffmpeg -i Spider.mov -r 62500/1000
我们如何才能以更高的帧速率(例如 500 - 800 FPS)运行 OpenGL 应用程序(例如游戏)? 例如,AOE 2 的运行速度超过 700 FPS(我知道它与 DirectX 有关)。尽管我只
为了高性能的科学目的,我们需要渲染视频并在设备上以 60fps 的速度播放。我假设 H.264 视频的通常帧率低于该值。 这是可能的,还是帧率是固定的?如果是这样,在设备上全屏播放 H.264 视频时
拥有 50 fps 的 5 秒视频 想要在 10 秒内将其转换为 25 fps 的视频,而且一切都变慢了,即使是音频 是否可以使用 ffmpeg 最佳答案 利用 ffmpeg -i input.mp4
我有下面的代码(移植到 JOGL 2.0 的 Nehe 教程 1 的基本版本)请求一个以 30 FPS 为动画的 FPSAnimator。当我运行代码时,它会打印 21.321962 或 21.413
我在下面有一些非常简单的性能测试代码,用于在 2011 年末的 Macbook Pro 上使用 OpenCV 3.1 + Python3 测量我的网络摄像头的 FPS: cap = cv2.Video
我正在开发 ARKit 应用以及 Vision/AVKit 框架。我正在使用 MLModel 对我的手势进行分类。我的应用程序可以识别Victory、Okey 和¡No pasarán! 手势来控制视
我从其他 SO 问题中使用了这个命令: $ ffmpeg -i obraz%04d.png -framerate 1 -c:v libx265 output.mkv 我告诉它最多 1 FPS,但日志和
我错误地在 iPhone SE (2) 上录制了慢动作视频,而不是延时摄影。 我知道这里有很多关于这个问题的答案,但我一次又一次地尝试并且总是出现问题(比如一个视频的总帧数正确,但持续了 3 个小时并
任何人都可以帮助我默认情况下以 240 fps 或 120 fps 录制视频,使用 AVCapture session 录制 session 需要 30 fps。 用这个库录制视频 https://g
我目前正在用 Java 制作 3D 游戏。我的问题是当我通过 Eclipse 运行它时,我得到了大约 40 fps,这很好。虽然当我在导出的 jar 文件中运行它时,我得到了 18 fps? 我不太确
自从我在 C++ 项目中从 OpenCV 3.x 更改为 4.x(从源代码编译)以来,我遇到了一些麻烦。我在一个小例子中复制了这个行为,这个例子只打开了一个网络摄像头并记录了 5 秒钟。 使用 3.x
我通过 VLC 录制了一个 RTSP 流(4K)大约一个小时,发生了一些奇怪的事情。 文件大小为 6.6 GB,但视频长度只有 12 分钟。 当我在 VLC 上播放时,进度条到达末尾,但视频仍在连续播
我正在尝试运行此命令。 ffmpeg -i out_frames/frame%08d.jpg -i input.mp4 -map 0:v:0 -map 1:a:0 -c:a copy -c:v lib
我是一名优秀的程序员,十分优秀!