- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我有一个包含小 CSV 文件的文件夹,其中包含目录:“/catmydata/2017/1/1、/catdata/2017/1/2”,每个目录都包含一堆 CSV,其中 CSV 中的每一行都有 cat 适应。
我想使用spark分配负载并转换数据并将其粘贴到输出目录中的二进制JavaObject文件中,类似于我的源数据“/convertedcatdata/2017/1/1/adoptedcatjavaobjectbinaryfile,/convertedcatdata/2017/1/1/adoptedcatjavaobjectbinaryfile”
我将使用的 Java 对象是这样的:
public class Cat{
private Date dateOfAdoption;
private String name;
private Boolean isMale;
private Person owner;
public Cat(String name, Boolean isMale, Person owner, Date dateOfAdoption){
this.name = name;
this.isMale = isMale;
this.owner = owner;
this.dateOfAdoption = dateOfAdoption;
}
}
public class AdoptedCats{
public List<Cat> catList;
public AdoptedCats(){
}
}
我习惯使用 python Spark 将 csv 文件转换为 avro,但问题是在这种情况下我的输出文件是一个已填充的 Java 对象类。我怎样才能创建这样一个文件,其中它是一个序列化的 java 对象,其中包含 AdoptedClass 对象,该对象填充了 CSV 中列出的所有猫?
我的意思是,如果有人编写 Java 代码(非 Spark)并打开序列化的“adoptedcatjavaobjectbinaryfile”,他们就可以访问 Java 类的内容。说:
AdoptedCats adoptedCats = <the adoptedcatjavaobjectbinaryfile>
System.out.println(adoptedCats.cats.length) // this would output say, 75 if there were 75 rows in the original CSV.
我假设我必须使用Java Spark...但我不确定如何创建spark脚本,以便它可以划分并征服一月份整个月的所有cat目录,并将它们输出到各自的目录中。任何帮助或示例都会非常有帮助。
最佳答案
实现这一目标的步骤-
假设文件(我有一个包含目录的小 CSV 文件的文件夹)是 /somepath/catmydata.csv
JavaSparkContext context = ......;
//Retrieve list of files from master file
List<String> files = context.textFile("/somepath/catmydata.csv")
.flatMap(row->Arrays.asList(row.split(",")).iterator()).collect();
//Iterate through each file and save it as object file
Map<String,JavaRDD<Cat>> adoptedCatsMap =new HashMap<String,JavaRDD<Cat>>();
for (String file:files) {
// Extract file path and attach to convert
String output=String.format("/convertedcatdata/%s",file.substring(file.indexOf('/'),file.length()))
JavaRDD<Cat> adoptedCatsRdd = context.textFile(file).map(s->new Cat(s));
adoptedCatsMap.put(output,adoptedCatsRdd);
//This will write number of files based on rdd partitions,
// if you want only one file in a directory then save it
// to temporary directory then use copyMerge to create one file using Hadoop fs FileUtil
// https://hadoop.apache.org/docs/r2.7.1/api/org/apache/hadoop/fs/FileUtil.html
//Save to physical location if required.
adoptedCatsRdd.saveAsObjectFile(output);
}
我希望这会有所帮助。
关于java - 如何使用Spark处理CSV数据并输出序列化的自定义JavaObject?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46535922/
我遇到禁用 Cookie 的问题。我有一个用户使用其用户帐户登录的页面。如果登录成功,连接本身将保存在 session 中。 request.getSession().setAttribute("co
编辑1 我不确定标题是否最适合该问题,因此如果有更多的标题,请提出建议 我正在尝试使用camel,我必须从文件系统中获取一些csv文件,并且需要将其转换为xml格式并将其放置在其他系统上 我为此使用c
我的 xhtml 页面中有一个 Javascript 函数,它执行以下操作: HTML 文件: function getData(){ var data = document.getElemen
我需要解析 JSON schema文件以创建 pyspark.sql.types.StructType。我找到了 scala library可以为我做这个。所以我这样调用它: f = open('pa
我开始了一个新的小项目,我想从 XML 中反序列化对象。 我创建了一个 xsd: http://pastebin.com/n1pwjRGX 和一个示例 XML 文件:
我想使用 Xstream 将 XML 转换为 java 对象。下面是我的实现方法。 我有一个 XML,如下所示: spacekey1 spacekey2 spacekey3
好的,我有一个 json 说 userjson = { fname : "ABC", lname : "DEF" } 和一个用户 Pojo 对象 User { String id, String
在pyspark中,调用getPersistentRDDs() Java SparkContext 方法返回 scala.collection.Map> 的 JavaObject 实例。 from p
我是一名优秀的程序员,十分优秀!