- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在尝试在 Hadoop 上为以下任务实现“ strip ”方法和“对”方法,但我想知道如何在多个映射器之间进行通信以及如何在内部进行面向概率的聚合我的 reducer 。
每一行记录一次交易(一起购买的一组商品):输入数据集是具有以下格式的交易数据:
25 52 164 240 274 328 368 448 538 561 630 687 730 775 825 83439 120 124 205 401 581 704 814 825 83435 249 674 712 733 759 854 95039 422 449 704 825 857 895 937 954 96415 229 262 283 294 352 381 708 738 766 853 883 966 97826 104 143 320 569 620 7987 185 214 350 529 658 682 782 809 849 883 947 970 979227 39071 192 208 272 279 280 300 333 496 529 530 597 618 674 675 720 855 914 932================================================ =====================================**
最佳答案
对您的问题的简短回答是,您不在映射器之间直接通信……这与 map-reduce 计算模式背道而驰。相反,您需要构建您的算法,以便您的 map 阶段输出的键值可以被您的 reducer 阶段以智能方式使用和聚合。
从您在问题中的背景信息可以清楚地了解到,计算您感兴趣的条件概率实际上只是一种计数练习。这里通常的模式是在一个 map-reduce pass 中进行所有计数,然后获取这些输出并在之后划分适当的数量(尝试将它们处理到 map-reduce pass 中会增加不必要的复杂性)
您实际上只需要一个数据结构来跟踪您要计数的事物。如果速度是必须的,您可以使用一组具有隐式索引的数组来完成此操作,但是根据单个 HashMap 进行说明很简单。因为我们不感兴趣
用于 hadoop 流的 python 映射器代码
import sys
output={}
for line in sys.stdin:
temp=line.strip().split('\t')
# we should sort the input so that all occurrences of items x and y appear with x before y
temp.sort()
# count the occurrences of all the single items
for item in temp:
if item in output:
output[item]+=1
else:
output[item]=1
#count the occurrences of each pair of items
for i in range(len(temp)):
for j in range(i+1,len(temp)):
key=temp[i]+'-'+temp[j]
if key in output:
output[key]+=1
else:
output[key]=1
#you can triple nest a loop if you want to count all of the occurrences of each 3 item pair, but be warned the number of combinations starts to get large quickly
#for 100 items as in your example there would be 160K combinations
#this point of the program will be reached after all of the data has been streamed in through stdin
#output the keys and values of our output dictionary with a tab separating them
for data in output.items():
print data[0]+'\t'+data[1]
#end mapper code
reducer 的代码现在与所有如此多产的字数统计示例相同。可以找到带有 map-reduce 流的 python 代码示例 here . map-reduce 程序的输出将是一行,其中的键描述了已计算的内容以及每个项目的出现次数以及所有对的键和出现次数,您可以从那里编写程序计算您感兴趣的条件概率。
关于hadoop - mapreduce 条件概率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22572348/
我们有数据(此时未分配)要转换/聚合/透视到 wazoo。 我在 www 上看了看,我问的所有答案都指向 hadoop 可扩展、运行便宜(没有 SQL 服务器机器和许可证)、快速(如果你有足够的数据)
这很明显,我们都同意我们可以将 HDFS + YARN + MapReduce 称为 Hadoop。但是,Hadoop 生态系统中的其他不同组合和其他产品会怎样? 例如,HDFS + YARN + S
如果 es-hadoop 只是连接到 HDFS 的 Hadoop 连接器,它如何支持 Hadoop 分析? 最佳答案 我假设您指的是 this project .在这种情况下,ES Hadoop 项目
看完this和 this论文,我决定我想在 MapReduce 上为大型数据集实现分布式体积渲染设置作为我的本科论文工作。 Hadoop 是一个合理的选择吗? Java 不会扼杀一些性能提升或使与 C
我一直在尝试查找有关如何通过命令行提交 hadoop 作业的信息。 我知道命令 - hadoop jar jar-file 主类输入输出 还有另一个命令,我正在尝试查找有关它的信息,但未能找到 - h
Hadoop 服务器在 Kubernetes 中。而Hadoop客户端位于外网。所以我尝试使用 kubernetes-service 来使用 Hadoop 服务器。但是 hadoop fs -put
有没有人遇到奇怪的环境问题,在调用 hadoop 命令时被迫使用 SU 而不是 SUDO? sudo su -c 'hadoop fs -ls /' hdfs Found 4 itemsdrwxr-x
在更改 mapred-site.xml 中的属性后,我给出了一个 tar.bz2 文件、.gz 和 tar.gz 文件作为输入。以上似乎都没有奏效。我假设这里发生的是 hadoop 作为输入读取的记录
如何在 Hadoop Pipes 中获取正在 hadoop 映射器 中执行的输入文件 名称? 我可以很容易地在基于 java 的 map reducer 中获取文件名,比如 FileSplit fil
我想使用 MapReduce 方法分析连续的数据流(通过 HTTP 访问),因此我一直在研究 Apache Hadoop。不幸的是,Hadoop 似乎期望以固定大小的输入文件开始作业,而不是能够在新数
名称节点可以执行任务吗?默认情况下,任务在集群的数据节点上执行。 最佳答案 假设您正在询问MapReduce ... 使用YARN,MapReduce任务在应用程序主数据库中执行,而不是在nameno
我有一个关系A包含 (zip-code). 我还有另一个关系B包含 (name:gender:zip-code) (x:m:1234) (y:f:1234) (z:m:1245) (s:f:1235)
我是hadoop地区的新手。您能帮我负责(k2,list[v2,v2,v2...])形式的输出(意味着将键及其所有关联值组合在一起)的责任是吗? 谢谢。 最佳答案 这是Hadoop的MapReduce
因此,我一直在尝试编写一个hadoop程序,该程序将输入作为一个包含许多文件的文件,并且我希望hadoop程序的输出仅是输入文件的一行。但是我还没有做到这一点。我也不想去 reducer 课。如果有人
我使用的输入文本文件的内容是 1 "Come 1 "Defects," 1 "I 1 "Information 1 "J" 2 "Plain 5 "Project 1
谁能告诉我以下grep命令的作用: $ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+' 最佳答案 http:/
我不了解mapreducer的基本功能,mapreducer是否有助于将文件放入HDFS 或mapreducer仅有助于分析HDFS中现有文件中的内容 我对hadoop非常陌生,任何人都可以指导我理解
CopyFromLocal将从本地文件系统上载数据。 不要放会从任何文件上传数据,例如。本地FS,亚马逊S3 或仅来自本地fs ??? 最佳答案 请找到两个命令的用法。 put ======= Usa
我开始研究hadoop mapreduce。 我是Java和hadoop的初学者,并且了解hadoop mapreduce的编码,但是有兴趣了解它在云中的内部工作方式。 您能否分享一些很好的链接来说明
我一直在寻找Hadoop mapreduce类的类路径。我正在使用Hortonworks 2.2.4版沙箱。我需要这样的类路径来运行我的javac编译器: javac -cp (CLASS_PATH)
我是一名优秀的程序员,十分优秀!