- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我在映射器类中使用了 setup() 方法。还有一个用户定义的方法 aprioriGenK() 在映射器类中定义并在 map() 方法中调用。
现在的问题是:据我所知,为每一行输入调用了 map 方法。假设有 100 行,那么这个方法调用了 100 次。 map 方法每次相应地调用 aprioriGenK 方法。但是不需要每次调用map方法时都在map方法内部调用aprioriGenK。即 aprioriGenK 方法的结果对于 map 方法的所有输入行都是通用的。 aprioriGenK 方法非常占用 CPU,因此在一次又一次调用时会增加计算时间。我们能否以某种方式管理一次调用 aprioriGenK 并每次都在 map 方法中使用它。我试图将 aprioriGen 保留在设置方法中,以便它只能被调用一次,但令人惊讶的是它在很大程度上减慢了执行速度。
这是我的代码:
import dataStructuresV2.ItemsetTrie;
public class AprioriTrieMapper extends Mapper<Object, Text, Text, IntWritable>
{
public static enum State
{
UPDATED
}
private final static IntWritable one = new IntWritable(1);
private Text itemset = new Text();
private Configuration conf;
private StringTokenizer fitemset; // store one line of previous output file of frequent itemsets
private ItemsetTrie trieLk_1 = null; // prefix tree to store candidate (k-1)-itemsets of previous pass
private int k; // itemsetSize or iteration no.
// private ItemsetTrie trieCk = null; // prefix tree to store candidate k-itemsets
public void setup(Context context) throws IOException, InterruptedException
{
conf = context.getConfiguration();
URI[] previousOutputURIs = Job.getInstance(conf).getCacheFiles();
k = conf.getInt("k", k);
trieLk_1 = new ItemsetTrie();
for (URI previousOutputURI : previousOutputURIs)
{
Path previousOutputPath = new Path(previousOutputURI.getPath());
String previousOutputFileName = previousOutputPath.getName().toString();
filterItemset(previousOutputFileName, trieLk_1);
}
// trieCk = aprioriGenK(trieLk_1, k-1); // candidate generation from prefix tree of size k-1
}// end method setup
//trim count from each line and store only itemset
private void filterItemset(String fileName, ItemsetTrie trieLk_1)
{
try
{
BufferedReader fis = new BufferedReader(new FileReader(fileName));
String line = null;
// trieLk_1 = new ItemsetTrie();
while ((line = fis.readLine()) != null)
{
fitemset = new StringTokenizer(line, "\t");
trieLk_1.insertCandidateItemset(fitemset.nextToken());
}
fis.close();
}
catch (IOException ioe)
{
System.err.println("Caught exception while parsing the cached file '" + fileName + "' : " + StringUtils.stringifyException(ioe));
}
}// end method filterItemset
public void map(Object key, Text value, Context context) throws IOException, InterruptedException
{
StringTokenizer items = new StringTokenizer(value.toString().toLowerCase()," \t\n\r\f,.:;?![]'"); // tokenize transaction
LinkedList <String>itemlist = new LinkedList<String>(); // store the tokens or itemse of transaction
LinkedList <String>listCt; // list of subset of transaction that are candidates
// Map <String, Integer>mapCt; // list of subset of transaction that are candidates with support count
ItemsetTrie trieCk = null; // prefix tree to store candidate k-itemsets
StringTokenizer candidate;
trieCk = aprioriGenK(trieLk_1, k-1); // candidate generation from prefix tree of size k-1
if(trieCk.numberOfCandidate() > 0)
context.getCounter(State.UPDATED).increment(1); // increment counter
// optimization: if transaction size is less than candidate size then it should not be checked
if(items.countTokens() >= k)
{
while (items.hasMoreTokens()) // add tokens of transaction to list
itemlist.add(items.nextToken());
// we use either simple linkedlist listCt or map mapCt
listCt = trieCk.candidateSupportCount1(itemlist, k);
for(String listCtMember : listCt) // generate (key, value) pair. work on listCt
{
candidate = new StringTokenizer(listCtMember, "\n");
if(candidate.hasMoreTokens())
{
itemset.set(candidate.nextToken()); context.write(itemset, one);
}
}
} // end if
} // end method map
// generating candidate prefix tree of size k using prefix tree of size k-1
public ItemsetTrie aprioriGenK(ItemsetTrie trieLk_1, int itemsetSize) // itemsetSize of trie Lk_1
{
ItemsetTrie candidateTree = new ItemsetTrie(); // local prefix tree store candidates k-itemsets
trieLk_1.candidateGenK(candidateTree, itemsetSize); // new candidate prefix tree obtained
return candidateTree; // return prefix tree of size k
} // end method aprioriGenK
} //end class TrieBasedSPCItemsetMapper
这是我的驱动类:
公共(public)类AprioriTrie{ private static Logger log = Logger.getLogger(AprioriTrie.class);
public static void main(String[] args) throws Exception
{
Configuration conf = new Configuration();
// String minsup = "1";
String minsup = null;
List<String> otherArgs = new ArrayList<String>();
for (int i=0; i < args.length; ++i)
{
if ("-minsup".equals(args[i]))
minsup = args[++i];
else
otherArgs.add(args[i]);
}
conf.set("min_sup", minsup);
log.info("Started counting 1-itemset ....................");
Date date; long startTime, endTime; // for recording start and end time of job
date = new Date(); startTime = date.getTime(); // starting timer
// Phase-1
Job job = Job.getInstance(conf, "AprioriTrie: Iteration-1");
job.setJarByClass(aprioriBasedAlgorithms.AprioriTrie.class);
job.setMapperClass(OneItemsetMapper.class);
job.setCombinerClass(OneItemsetCombiner.class);
job.setReducerClass(OneItemsetReducer.class);
// job.setOutputKeyClass(Text.class);
job.setOutputKeyClass(IntWritable.class);
job.setOutputValueClass(IntWritable.class);
job.setInputFormatClass(NLineInputFormat.class);
NLineInputFormat.setNumLinesPerSplit(job, 10000); // set specific no. of line of records
// Path inputPath = new Path("hdfs://hadoopmaster:9000/user/hduser/sample-transactions1/");
Path inputPath = new Path(otherArgs.get(0));
// Path outputPath = new Path("hdfs://hadoopmaster:9000/user/hduser/AprioriTrie/fis-1");
Path outputPath = new Path(otherArgs.get(1)+"/fis-1");
FileInputFormat.setInputPaths(job, inputPath);
FileOutputFormat.setOutputPath(job, outputPath);
if(job.waitForCompletion(true))
log.info("SUCCESSFULLY- Completed Frequent 1-itemsets Geneation.");
else
log.info("ERROR- Completed Frequent 1-itemsets Geneation.");
// Phase-k >=2
int iteration = 1; long counter;
do
{
Configuration conf2 = new Configuration();
conf2.set("min_sup", minsup);
conf2.setInt("k", iteration+1);
log.info("Started counting "+(iteration+1)+"-itemsets ..................");
Job job2 = Job.getInstance(conf2, "AprioriTrie: Iteration-"+(iteration+1));
job2.setJarByClass(aprioriBasedAlgorithms.AprioriTrie.class);
job2.setMapperClass(AprioriTrieMapper.class);
job2.setCombinerClass(ItemsetCombiner.class);
job2.setReducerClass(ItemsetReducer.class);
job2.setOutputKeyClass(Text.class);
job2.setOutputValueClass(IntWritable.class);
job2.setNumReduceTasks(4); // break the output in 3 files
job2.setInputFormatClass(NLineInputFormat.class);
NLineInputFormat.setNumLinesPerSplit(job2, 10000);
FileSystem fs = FileSystem.get(new URI("hdfs://hadoopmaster:9000"), conf2);
// FileStatus[] status = fs.listStatus(new Path("hdfs://hadoopmaster:9000/user/hduser/AprioriTrie/fis-"+iteration+"/"));
FileStatus[] status = fs.listStatus(new Path(otherArgs.get(1)+"/fis-"+iteration));
for (int i=0;i<status.length;i++)
{
job2.addCacheFile(status[i].getPath().toUri()); // add all files inside output fis
//job2.addFileToClassPath(status[i].getPath());
}
// input is same for these job
// outputPath = new Path("hdfs://hadoopmaster:9000/user/hduser/AprioriTrie/fis-"+(iteration+1));
outputPath = new Path(otherArgs.get(1)+"/fis-"+(iteration+1));
FileInputFormat.setInputPaths(job2, inputPath);
FileOutputFormat.setOutputPath(job2, outputPath);
if(job2.waitForCompletion(true))
log.info("SUCCESSFULLY- Completed Frequent "+(iteration+1)+"-itemsets Generation.");
else
log.info("ERROR- Completed Frequent "+(iteration+1)+"-itemsets Generation.");
iteration++;
counter = job2.getCounters().findCounter(AprioriTrieMapper.State.UPDATED).getValue();
} while (counter > 0);
date = new Date(); endTime = date.getTime(); //end timer
log.info("Total Time (in milliseconds) = "+ (endTime-startTime));
log.info("Total Time (in seconds) = "+ (endTime-startTime)*0.001F);
}
最佳答案
您可以在设置调用之后将该函数调用添加到映射器的运行方法中。这将确保每个映射器只调用一次您的方法。
public class Mymapper extends Mapper<LongWritable,Text,Text,IntWritable>
{
public void map(LongWritable key,Text value,Context context) throws IOException,InterruptedException
{
//do something
}
public void myfunc(String parm)
{
System.out.println("parm="+parm);
}
public void run(Context context) throws IOException, InterruptedException
{
setup(context);
myfunc("hello");
while(context.nextKeyValue())
{
map(context.getCurrentKey(), context.getCurrentValue(), context);
}
}
}
关于java - 我们可以在 mapreduce 代码中将一些计算任务放在映射器类的设置方法中吗,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33050912/
我尝试理解[c代码 -> 汇编]代码 void node::Check( data & _data1, vector& _data2) { -> push ebp -> mov ebp,esp ->
我需要在当前表单(代码)的上下文中运行文本文件中的代码。其中一项要求是让代码创建新控件并将其添加到当前窗体。 例如,在Form1.cs中: using System.Windows.Forms; ..
我有此 C++ 代码并将其转换为 C# (.net Framework 4) 代码。有没有人给我一些关于 malloc、free 和 sprintf 方法的提示? int monate = ee; d
我的网络服务器代码有问题 #include #include #include #include #include #include #include int
给定以下 html 代码,将列表中的第三个元素(即“美丽”一词)以斜体显示的 CSS 代码是什么?当然,我可以给这个元素一个 id 或一个 class,但 html 代码必须保持不变。谢谢
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 7 年前。
我试图制作一个宏来避免重复代码和注释。 我试过这个: #define GrowOnPage(any Page, any Component) Component.Width := Page.Surfa
我正在尝试将我的旧 C++ 代码“翻译”成头条新闻所暗示的 C# 代码。问题是我是 C# 中的新手,并不是所有的东西都像 C++ 中那样。在 C++ 中这些解决方案运行良好,但在 C# 中只是不能。我
在 Windows 10 上工作,R 语言的格式化程序似乎没有在 Visual Studio Code 中完成它的工作。我试过R support for Visual Studio Code和 R-T
我正在处理一些报告(计数),我必须获取不同参数的计数。非常简单但乏味。 一个参数的示例查询: qCountsEmployee = ( "select count(*) from %s wher
最近几天我尝试从 d00m 调试网络错误。我开始用尽想法/线索,我希望其他 SO 用户拥有可能有用的宝贵经验。我希望能够提供所有相关信息,但我个人无法控制服务器环境。 整个事情始于用户注意到我们应用程
我有一个 app.js 文件,其中包含如下 dojo amd 模式代码: require(["dojo/dom", ..], function(dom){ dom.byId('someId').i
我对“-gencode”语句中的“code=sm_X”选项有点困惑。 一个例子:NVCC 编译器选项有什么作用 -gencode arch=compute_13,code=sm_13 嵌入库中? 只有
我为我的表格使用 X-editable 框架。 但是我有一些问题。 $(document).ready(function() { $('.access').editable({
我一直在通过本教程学习 flask/python http://blog.miguelgrinberg.com/post/the-flask-mega-tutorial-part-i-hello-wo
我想将 Vim 和 EMACS 用于 CNC、G 代码和 M 代码。 Vim 或 EMACS 是否有任何语法或模式来处理这种类型的代码? 最佳答案 一些快速搜索使我找到了 this vim 和 thi
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?更新问题,使其成为 on-topic对于堆栈溢出。 7年前关闭。 Improve this
这个问题在这里已经有了答案: Enabling markdown highlighting in Vim (5 个回答) 6年前关闭。 当我在 Vim 中编辑包含 Markdown 代码的 READM
我正在 Swift3 iOS 中开发视频应用程序。基本上我必须将视频 Assets 和音频与淡入淡出效果合并为一个并将其保存到 iPhone 画廊。为此,我使用以下方法: private func d
pipeline { agent any stages { stage('Build') { steps { e
我是一名优秀的程序员,十分优秀!