- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我的 Android 应用程序中有一项服务需要在用户退出应用程序后继续监听位置更新(这对电池生命周期的影响是另一回事)。
我不确定我是否正确理解了本页概述的 Android 服务的生命周期:
http://developer.android.com/reference/android/app/Service.html
我相信,如果它在 onStart() 方法中返回 START_STICKY,那么无论服务是否在其自己的进程中运行,服务都会在主应用程序退出后继续运行。如果该服务与应用程序的其余部分在同一进程中运行并且我理解正确,则主应用程序的进程在应用程序退出后保持 Activity 状态,只是为了运行该服务。当应用程序再次启动时,它将在与仍在运行的服务相同的进程中运行。如果系统内存不足,Android 可能会决定终止此服务。
其次,我相信在与应用程序的其余部分相同的进程和相同的线程中运行监听 GPS 更新的位置监听器是可以的,并且在等待来自 GPS 的更新时它不会阻塞。
我的理解正确吗?
最佳答案
您理解正确。
如果系统内存不足,Android 可能会决定终止此服务。
如果您希望它持久化,您可以创建持久化服务(但它需要是系统应用程序/服务)。
请使用 AlarmManager 和 IntentService,这样您的服务就不需要在内存中,除非它正在做有意义的工作。 这也意味着当您在内存中时,Android 不太可能终止您的服务,用户也不太可能终止您的服务,因为他们认为您在浪费内存。
对于您的位置听众:
使用服务中实现的位置监听器。
服务启动时开始监听 GPS,服务停止时移除 GPS 监听器。
当您想收听 GPS(例如每 10 分钟)时启动此服务。
这比让您尝试持续运行并检查位置更改的服务更干净。
其次,我相信可以在与应用程序的其余部分相同的进程和相同的线程中运行监听 GPS 更新的位置监听器,并且在等待更新时不会阻塞GPS。
您不需要为此设置 AsyncTask 或后台线程。也理解正确。
关于android - Android 中的服务生命周期,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14835563/
已关闭。这个问题是 off-topic 。目前不接受答案。 想要改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 已关闭10 年前。 Improve th
我正在尝试将 JSON 发送到我的服务器并作为结果检索 JSON。例如发送用户名和密码并取回 token 和其他内容。 这就是我正在为发送的 HTTP 请求所做的。我现在如何检索同一请求中的内容?
我有以下 xts 矩阵: > options(digits.secs = 6) > set.seed(1234) > xts(1:10, as.POSIXlt(1366039619, tz="EST"
我目前正在开发一个应用程序,当用户到达某个位置时,它会提醒用户。我希望这个应用程序也在后台运行并搜索解决方案。 在 AppStore 中,我发现了一款名为“Sleep Cycle”的应用程序,它可
我想创建一个基于 farbtastic color picker 的颜色选择器。我想要实现的是添加我想要链接到色轮的 RGB slider 。这是我到目前为止所拥有的。 app.controller(
RFC 5545 允许 RDATE 属性具有 PERIOD 数据类型。该数据类型的语义是什么?据我所知,这是未指定的。它会改变事件的持续时间吗?如果时区更改且没有持续时间怎么办? 最佳答案 尽管我
在 CodinGame学习平台,C# 教程中用作示例的问题之一是: The aim of this exercise is to check the presence of a number in a
我听说网上有一本英特尔书,它描述了特定汇编指令所需的 CPU 周期,但我找不到(经过努力)。谁能告诉我如何找到CPU周期? 这是一个例子,在下面的代码中,mov/lock 是 1 个 CPU 周期,x
据我所知,Java GC有次要GC(低成本)和主要GC周期(高成本)。如果对象在本地范围内,则会在 Minor GC 中清理它。如果对象的引用存储在代码中的其他位置,则它会在主 GC 中被清除。 例如
到目前为止,我有一个很好的自旋锁,可以用作 intendend: std::atomic_flag barrier = ATOMIC_FLAG_INIT; inline void lo
晚上好,我将 cycle2 与 prev 和 next 函数一起使用,但我无法将 prev 和 next 函数置于图像下方的中心。我环顾四周,我知道这会很愚蠢,但我就是看不到它。非常令人沮丧。谢谢加里
出于教育目的,我想知道在优化(在不同级别)和编译之后执行函数需要多少 CPU 周期。有没有办法分析代码或可执行文件以获得可重现的答案?我在 64 位 Windows 7 Pro 上使用 Eclipse
我想彻底测量和调整我的 C/C++ 代码,以便在 x86_64 系统上更好地使用缓存。我知道如何使用计数器(我的 Windows 机器上的 QueryPerformanceCounter)来测量时间,
我尝试将一些数据分组到每四周一次的存储桶中,并使用 pd.Grouper(key='created_at', freq='4W')。我希望这些组是这样的,如果我有从 2019-08-26 到 2019
我正在做一个关于随机数的大型学校项目,但我找不到 Math.random() 的句点。我安装了 7.0.800.15 版本,并且正在使用 Windows 10 计算机。我试过用一个简单的程序来确定周期
我正在努力解决我们生产环境中垃圾收集利用率高的问题,我想知道设置一个大的堆大小来保证老年代永远不会被填满是否会阻止触发主要的 GC 周期。 为了实现这一点,我想有一个特定的阈值标记会触发主要的 GC
我想测量在 Python 3 中执行加法运算所需的时钟周期数。 我写了一个程序来计算加法运算的平均值: from timeit import timeit def test(n): for i
我正在寻找一种方法来测量线程上的函数调用所花费的 cpu 周期。 示例伪代码: void HostFunction() { var startTick = CurrentThread.Cur
就 CPU 周期而言,malloc() 的成本是多少?(Vista/OS,最新版本的 gcc,最高优化级别,...) 基本上,我正在实现一个复杂的 DAG 结构(类似于链表)由一些 16B(不太常见)
C/C++ 中的类型转换会导致额外的 CPU 周期吗? 我的理解是,至少在某些情况下应该消耗额外的 CPU 周期。就像从浮点类型转换为整数一样,CPU 需要将浮点结构转换为整数。 float a=2.
我是一名优秀的程序员,十分优秀!