- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
这涉及到 Python 如何根据对象是否不可变来通过引用传递或通过值传递。我可以递归地遍历二叉树并打印出所有值,但如果我想返回特定元素,那就有点困难了。在下面的代码中,如果节点的数据属性与传入的整数匹配,我(两次)尝试返回节点。n1 和 n2 是那些 int 值。
def get_node(self, d, root, n=[]):
if (root == None):
return
else:
if(root.data == d):
n.append(root)
self.get_node(d,root.left)
self.get_node(d, root.right)
return n
def tree_traversal(self, n1, n2):
n1 = self.get_node(n1,self.root)[0]
n2 = self.get_node(n2,self.root)[1]
print(n1.data)
print(n2.data)
return self.helper(n1,n2)
这有效,我得到一个包含我正在查找的节点对象的列表。但是,如果我不返回(并作为参数传递)列表,而是使用字符串或 None 对象以便稍后更改,则这是行不通的。我认为这是因为列表是可变的,而字符串则不是。更重要的是,你会看到我必须将 n[1] 分配给 n2,因为由于某种原因,即使退出 get_node 递归调用并对 n2 重新执行一遍之后,返回的列表仍然在第 0 个索引中包含 n1。
有人可以解释一下为什么在分配给 n2 时列表仍然被修改吗?有没有一种方法可以代替作为参数传递并返回空列表 n,作为参数传递并返回具有默认值 None 的常规对象?
最佳答案
您的第一个问题是:
def get_node(self, d, root, n=[]):
有很多关于不要像您那样使用可变数据来默认参数的警告。我们在这里讨论的不是按引用传递,也不是按值传递(Python仅按值传递——它按值传递指向容器的指针——按引用传递是某种东西)这里的问题是默认值仅计算一次,因此所有后续调用将使用相同 结构。这就是为什么你:
have to assign n[1] to n2 because for some reason, even after exiting the get_node recursive call and doing it all over again for n2, the returned list still contains n1 in the 0th index
现在你知道原因了。这与在递归期间使用全局存储结果几乎相同。避免它。
你的函数似乎没有设计正确。如果我们正在处理一棵树,那么我们应该能够在树中的任何点执行 get_node()
或 tree_traversal()
,不应该有固定的 root
在代码中。此外,使 n1
和 n2
在同一函数中具有不同的类型和含义会令人困惑 - 使用不同的变量名称。让我们试试这样:
class Node():
def __init__(self, data, left=None, right=None):
assert (data is not None), "Error in tree/model logic!"
self.data = data
self.left = left
self.right = right
def get_node(self, d):
if self.data == d:
return self
if self.left is not None:
result = self.left.get_node(d)
if result is not None:
return result
if self.right is not None:
result = self.right.get_node(d)
if result is not None:
return result
return None
def tree_traversal(self, n1, n2):
node1 = self.get_node(n1)
node2 = self.get_node(n2)
return node1, node2
root = Node(0)
root.left = Node(1, Node(2), Node(3, Node(4)))
root.right = Node(5, Node(6), Node(7, Node(8), Node(9)))
print(root.tree_traversal(3, 9))
现在,让我们讨论一下这是否适合您的模型。
关于Python 从递归 DFS 返回一个元素,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50359534/
我正在寻找我的代码的复杂度计算。简单来说就是DFS中的DFS(depth first search)。 DFS 从头到尾(向后搜索)在图(状态机)上运行。每当到达开始时,它都会累积使其到达开始的字符串
我通过实现堆栈编写了一个迭代 DFS。现在我试图递归地编写相同的 DFS,但我遇到了问题。 我的问题是,当我迭代编写它时,我可以保留某些全局变量,例如 paths=[] 并在找到新路径时添加到其中。
此程序用于图的 dfs 遍历,一个函数是迭代方法,另一个函数是递归方法,但两者给出的答案不同从迭代中我得到 01234从递归我得到 02341 谁能解释我为什么? NOTE -> User is en
这个问题在这里已经有了答案: Iterative DFS vs Recursive DFS and different elements order (4 个答案) 关闭 8 年前。 我试图了解 D
首先请原谅我的英语这可能不太可能,或者以前没有人经历过这种情况,我真的非常需要帮助。这可能是我第一次在这里提问 我正在尝试在 azure 订阅中的两台服务器(LIVE1 和 LIVE2)上设置 dfs
我以迭代方式和递归方式实现了深度优先搜索算法。它们对于小尺寸(小于 1 MB)的文件都可以正常工作。然而,当我尝试在 50 MB 的文件上运行它们时,递归 DFS(9 秒)似乎比使用迭代方法(至少几分
我正在解决这个 dfs/bfs问题。 我编写了 DFS 的迭代版本和递归版本。 节点访问的顺序不同,我不明白为什么。 迭代 DFS: static void DFS (Integer root, Gr
我遇到了一个问题,我要在图中寻找一种特殊类型的节点。该算法按以下方式工作: bool findSpecial(Node n) { if(isSpecial(n)) return
我写了一个递归DFS算法来遍历一个图: void Graph::DFS(Node n) { std::cout void Graph::IterativeDFS(Node n) {
在我的算法中,我将通过 DFS 方法创建频繁模式,例如,我生成 A-A, A-A-B, A-A-B-C, .. .顺序。(这三种模式为频繁子图模式,A,B,C为节点,- 表示两个节点之间存在一条边。)
我对 hadoop 中的 dfs 有疑问。有人知道如何解决我的问题吗? [hduser@evghost ~]$ start-dfs.sh Starting namenodes on [evghost]
据说在未加权的图中不能用DFS求最短路径。我已阅读多篇文章和博客,但并不满意,因为对 DFS 稍加修改就可以实现。 我认为如果我们以这种方式使用改进的 DFS,那么我们可以找到距源的最短距离。 Ini
考虑到一个具有 14,000 个顶点和 14,000 个边的图,我想知道为什么 GraphX 比图的 java 实现花费更多的时间来获取从顶点到叶子的所有路径? java 实现:几秒钟 Graphx
我已按照 Apache“单节点设置”说明在单节点上设置 dfs.replication。 但是后来我按照“Cluster Setup”进行操作,但它没有提到这个属性,所以我不知道这是要在 Nameno
有没有办法修改 pd.read_html 使其返回数据帧而不是数据帧列表? 语境: 我正在尝试使用 pandas read_html 从网站导入表格。我知道 pd.read_html 返回一个 dfs
为什么 hdfs dfs -ls 指向与 hdfs dfs -ls/ 不同的位置? 从下面的截图中可以清楚地看到两个命令给出不同的输出: 以上输出的主要原因是什么? 最佳答案 来自官方源码org.ap
我没有在 hdfs-site.xml 文件中设置 dfs.name.dir 和 dfs.data.dir 值没有设置。他们会怎样?有趣的是,他们默认接受什么值? (如何接收他们的当前值?) 最佳答案
我试图用一个名称节点和四个数据节点配置 hadoop。我能够在一台机器上成功配置名称节点和作业跟踪器并将其启动。 但是在我要配置数据节点的机器上,我做了以下操作: 我将 hadoop-2.0.0-cd
我正在尝试在 ec2-instance 上安装 Hadoop-2.6.0。 我下载并安装了 Hadoop。我还设置了环境变量。尝试启动 hdfs 服务时出现以下错误。 [ec2-user@ip-10-
我是 hadoop 框架的新手,目前我正在处理大数据项目,在 Windows 7 中使用 cygwin、hadoop-0.19.1、eclipse-3.3.1 (Europa)。现在我正在尝试从 ha
我是一名优秀的程序员,十分优秀!