- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
在CLRS书中,自上而下的heapify构建堆的复杂度为O(n)。也可以通过反复调用插入来建立堆,其最坏情况下的复杂度为nlg(n)。
我的问题是:对于后一种方法性能较差的原因,是否有任何见解?
我问这个问题是因为我觉得数学背后有一些简单的见解。例如,
快速排序、归并排序、堆排序都是基于减少不必要的比较,只是方法不同而已。quicksort:平衡分区,不需要比较左子集和右子集。合并排序:简单地比较两个子数组中的两个最小元素。heapsort:如果A的值比B大,则A的值比B的后代大,不需要和他们比较。
最佳答案
两者之间的主要区别在于它们的工作方向:向上(O(n log n) 算法)或向下(O(n))算法。
在通过进行 n 次插入完成的 O(n log n) 算法中,每次插入都可能使元素从(当前)堆的底部一直向上冒泡到顶部。因此,假设您已经构建了除最后一个完整层之外的所有堆。想象一下,每次在该层中进行插入时,您插入的值都是最小的整体值。在那种情况下,您必须将新元素一直冒泡到堆的顶部。在此期间,堆的高度(大致)为 log n - 1,因此您必须执行的交换总数(大致)为 n log n/2 - n/2,运行时间为 Θ(n log n) 在最坏的情况下。
在通过一次性构建堆完成的 O(n) 算法中,新元素被插入到各种较小堆的顶部,然后向下冒泡。直觉上,堆中越来越高的元素越来越少,所以大部分工作都花在了叶子上,而叶子的位置比在较高的元素上要低。
运行时的主要区别与方向有关。在 O(n log n) 版本中,由于元素冒泡,运行时间受从每个节点到树根的路径长度之和的限制,即 Θ(n log n)。在 O(n) 版本中,运行时间受从每个节点到树的叶子的路径长度的限制,这要低得多 (O(n)),因此运行时间更好.
希望这对您有所帮助!
关于algorithm - 为什么通过插入元素构建堆的运行时间比使用 heapify 差?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21441670/
考虑以下示例代码: void main() { List array = []; for (int i = 0; i newList = array.where( (value) => v
我在java中实现了textrank,但它看起来很慢。有谁知道它的预期性能吗? 如果预计速度不会很慢,则可能是以下任一问题: 1) 似乎没有办法在 JGraphT 时间内创建一条边并同时为其添加权重,
我正在尝试提交解决方案(使用一些具有编译时间限制的在线编译器)来对数组进行排序 - 这是我的代码片段 - class TSORT { public static void main(Strin
只是一个困惑......部分C++示例代码如下 我只是重新编辑了整个帖子。抱歉造成任何混淆 int i, j; i = 0; // c1 j = 0; // c2 while (i
我正在使用 OpenMP 运行一些并行工作,但发现加速无法很好地扩展。然后我发现随着线程数量的增加,完成相同工作量的时间也会增加。这是示例: void fillingVec(vector& vec)
我目前正在分析 maximum subarray problem 用于强力算法和分而治之算法(递归)。 使用蛮力算法,最坏情况下的运行时间为 O(n^2)。使用递归算法,最坏情况下的运行时间为 O(n
如果我有两个数组都有 10000 个项目,现在我想将它们合并到一个数组中,所以我用 concat 来完成: array1=array1.concat(array2); 但是有人知道运行时间是多少吗?
{ clock_t t1, t2; double time1 = 0; t1 = clock(); bubbleSort(data, n); t2 = cloc
我在某处读到有人可以在运行时访问配置值,但不能在设计时访问。在这种情况下,运行时和设计时有什么区别? 最佳答案 设计时间是有人用愉快的“看起来不错!”在我们的 Word 文档和 UML 图表上签字的时
我正在比较我们一个项目的两个分支的性能,一个比另一个慢得多。我注意到其中一个的 GC 运行计数更高(见下图)。 更有趣的是,运行时间要长很多倍,远远超过额外运行所能解释的时间。什么可以解释运行次数增加
我想以可读的方式格式化 log4j 经过的运行时间,%r 参数: [00:36:25.844] 和 [01 13:35:25.844] [时:分:ss.SSS] ... [dd 时:分:ss.SSS]
如何计算此代码的大 O 运行时效率?我的直觉告诉我它是 O(n^3),但我不确定,因为我不确定循环是独立的还是相关的。 for (i=1; i<=n; i++) for (j=1; j<=n;
确定这些不同循环的大 O 运行时间? for i = 1 to n { ... for j = 1 to 2*i { ... k = j; while (k>=0)
运行时间、复杂性、编译时间和执行时间有什么区别? 运行时间与时间复杂度有冲突,执行时间和执行时间有什么区别? 最佳答案 您真正需要的是如何将大O时间复杂度转换为运行时。这不像一开始看起来那么容易。 因
斯内普的《Unfriendly Algorithms for Wizards》教科书声称合并的运行时间排序是 O(n^4)。这种说法是否正确? 解决方案:是的。这个说法在技术上是正确的,因为 O(n^
我有一系列问题需要反馈和答案。我会评论我的想法,这不是家庭作业而是准备为了我的考试。 我的主要问题是确定不同情况下循环的迭代。试图弄清楚这一点会如何? 评估运行时间。 Q2。 for(int i =
我试图找到一个合理的机会来测量我的 java 程序/程序部分的速度,例如测试两种方法中哪一种执行得更快。注释掉这两种方法中的一种,确定运行时间,最后比较时间。我不想在我的程序中使用任何代码,例如: p
好吧,这些都是非常简单的方法,而且有几个,所以当它们都是同一件事时,我不想只创建多个问题。 BigO 是我的弱点。我只是想不通他们是如何得出这些答案的。无论如何,您是否可以让我深入了解您对分析其中一些
如何计算此给定代码的 Theta 运行时间: void f(int n) { for (int i=3; i
使用 leiningen 创建 uberjar 并使用 java -jar foo-uberjar.jar 运行该 jar 后程序运行良好,最后一行代码执行得相当快,但程序在关闭前挂了大约一分钟。这是
我是一名优秀的程序员,十分优秀!