- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我正在开发一个应用程序,它的功能与 Facebook Android 原生应用程序非常相似:社交网络,用户大部分时间都会花在无尽的 ListView
中,显示大量图像,输入图像画廊等。
让我们在讨论中说,我正在做所有正确的事情和最佳 android 实践以实现平滑滚动(按应有的方式回收 View ,在需要时使用不同的 View 类型,仅将所需大小的缩放位图加载到内存,缓存位图,使用 ViewHolder 设计模式,尽可能不阻塞 UI 线程等等......)
我们还要说,我的应用程序中的所有其他内容都以最佳方式编写并遵循最佳实践(供讨论...... :->)
我的应用在那个阶段运行得还不错,但是当启用硬件加速,如 Android Developers documentation 中所述和 promise 的那样它使我的应用程序更加流畅和快速。
假设它不会像可能发生的那样对 UI 产生任何负面影响,而且我没有执行任何 Unsupported Operations
根据 Google 关于该主题的文档,我认为不使用此功能的唯一原因(除了我上面已经提到的所有其他原因)是它可能导致我的应用程序使用更多 RAM。但是有多少内存?多很多?我知道,当我的应用程序消耗大量 RAM 时,它会在需要释放一些内存时被操作系统销毁。
我的问题基本上是 -
TIA
最佳答案
使用或不使用
仅当您对图像的缩放、旋转和平移进行复杂的自定义计算时才建议使用硬件加速,但不要将其用于绘制直线或曲线(以及其他琐碎的操作)(source)。
如果您计划进行通用转换,并且考虑到您已经考虑过缩放、回收、缓存等,那么再给您的项目增加负担可能没有意义。此外,为支持硬件加速而重新编写代码所付出的任何努力都不会影响 3.0 以下版本的用户,截至 2013 年 5 月 8 日,该版本约占市场的 36%。
内存
关于内存使用量(根据 this article ),通过包含 Android 硬件,应用程序会为每个进程加载 OpenGL 驱动程序,占用大约 2MB 的内存使用量,并将其增加到 8MB。
其他问题
除了 API 版本,我想它也会影响电池生命周期。不幸的是,在线上没有针对不同用例的任何基准测试,以便在此基础上划清界限。一些人认为,在特定情况下,由于有多个 gpu 内核,使用加速可以节省电池生命周期。总的来说,我认为效果不会太显着(否则 Google 会将此作为重点)是安全的。
关于Android 硬件加速 - 使用还是不使用?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16432565/
我刚刚意识到二进制编译器会将源代码转换为目标平台的二进制文件。有点明显...但如果编译器以这种方式工作,那么同一个编译器如何用于不同的系统,如 x86、ARM、MIPS 等? 难道他们不应该“知道”硬
在我的 SDL 游戏中,出于游戏玩法和性能原因,我希望保留固定的游戏区域分辨率。 我想做的是有一个小分辨率(例如 320 * 240),并且在调整窗口大小时/切换到全屏模式时让 SDL/显卡缩放每个像
我正在使用这些方法来激活 SurFaceView 上的触摸焦点 private SurfaceView surfaceiew; private CameraSource camSource; priv
您好,当我从硬件菜单更改设备时,我遇到了这个奇怪的问题,但我想我可能遗漏了一些简单的东西。 我的 View Controller 中有这段代码: - (void)touchesBegan:(NSSet
编写一个名为 weird() 的函数,它将三个字符串作为参数并向后打印最长的一个。 (在平局的情况下,应该选择较早的参数字符串。 函数调用: weird("I", "Love", "Python")
您好,我正在尝试设置 hadoop 环境。简而言之,我要解决的问题涉及数十亿个大小为几 MB 的 XML 文件,使用 HIVE 从中提取相关信息,并对这些信息进行一些分析工作。我知道这在 hadoop
我知道 Phidgets,但是,我正在寻找可以与 C# 接口(interface)的一些其他类型的硬件。 谁有好东西? 最佳答案 查看 Netduino .它基于 Arduino,但使用 .Net
说一个函数(例如模乘法、正弦函数)是在硬件而不是软件中实现是什么意思? 最佳答案 在硬件中实现意味着电路(通过逻辑门等)可以执行操作。 例如,在 ALU 中,处理器在物理上能够将一个字节加到另一个字节
我需要编写一个程序,在可能状态的大空间中执行并行搜索,在此过程中发现了新区域(并开始了他们的探索),并且由于在其他地方获得的中间结果消除了可能性,因此提前终止了对某些区域的探索在其中发现新的有用结果。
我们需要通过带有硬件 token 的 EV 代码对 InstallShield 2013 Express 的安装进行签名,但是无法导出私钥证书文件,因此唯一的方法是使用 DigiCertUtil 工具
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 2 年前。 Improve this ques
我考虑从库中丢弃处理大端情况的代码,如果平台不是小端,则在初始化期间简单地抛出一个异常。如果我们限制为,我无法想象会有任何大端硬件 托管任何网站的典型服务器硬件 服务器根据开放计算项目规范 所有常见的
我知道这可以做到,但找不到交换目标调试设备的地方。我现在正在使用模拟器,但想切换到设备,反之亦然。谁能指出我正确的方向? 谢谢。 最佳答案 像这样.. 右键单击 PROJECT--->Run As--
我正在尝试创建一个监听音量键事件的服务。 每当按下音量键时,服务应向号码发送短信,但我无法检测到音量键事件。 最佳答案 您可以使用 OnKeyListener可以检测按键事件(包括音量键)。您可以找到
谁能解释一下中断如何从最低层(硬件)传递到应用程序。 所以在下图中我知道处理器之后发生了什么。 但是我想要从键盘按下到处理器的中断过程在硬件中发生了什么,例如它如何传递扫描代码,中断 Controll
我的任务是构建一个应用程序,其中业务用户将定义一些数据操作和处理规则(例如,取一个数值并将其平均分配给根据中指定的条件选择的多个记录)规则)。 每月必须运行一个批处理应用程序,以便根据定义的规则处理大
所以这是我的愚蠢问题: PGP/GPGP可以用来对文本进行签名,其他的使用公钥来验证。 比方说,非对称密码算法处理空间。 有没有什么算法可以处理时间? 例如在 2011-10-10 10:10:10
使用 nvcc 编译 CUDA 程序是否需要安装支持 CUDA 的显卡(在 Linux 中)?或者可以在任何地方编译程序并且只能在这样的系统上运行? 最佳答案 不,编译不需要显卡。 您甚至不需要一个来
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 这个问题似乎不是关于 a specific programming problem, a softwar
我有一个奇怪的问题,但我对这个话题很感兴趣。 是否有可能直接访问当前基于 x64 的计算机的硬件,而无需使用某种 HAL(硬件抽象层)或其他操作系统(udev、upower 等)的附属物?我不是在谈论
我是一名优秀的程序员,十分优秀!