- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试从 lua 表创建一个 .csv 文件。我已经在网上和这个论坛上阅读了一些文档......但似乎无法理解。我认为这是因为 lua 表的格式 - 自己看看。
这个脚本全部来自一个很棒的开源软件NeuralTalk2 .该软件的要点是为图像添加标题。您可以在该页面上阅读更多信息。
无论如何,让我向您介绍第一段代码:一个获取lua表并将其写入.json文件的函数。这是它的样子:
function utils.write_json(path, j)
-- API reference http://www.kyne.com.au/~mark/software/lua-cjson-manual.html#encode
cjson.encode_sparse_array(true, 2, 10)
local text = cjson.encode(j)
local file = io.open(path, 'w')
file:write(text)
file:close()
end
代码编译后,.json 文件如下所示:
[{"caption":"a view of a UNK UNK in a cloudy sky","image_id":"0001"},{"caption":"a view of a UNK UNK in a cloudy sky","image_id":"0002"}]
它会持续更长的时间,但一般来说,有一个“标题”跟在一些文本之后,还有一个“image_id”跟在图像 ID 之后。
当我将表格打印到终端上时,它看起来像这样:
{
1681 :
{
caption : "a person holding a cell phone in their hand"
image_id : "1681"
}
1682 :
{
caption : "a person is taking a picture of a mirror"
image_id : "1682"
}
}
它之前和之后都有内容...我只是向您展示表格的一般格式。
您可能想知道表是如何定义的……我不确定脚本中是否有非常明确的定义。分享给大家看看,定义它的文件依赖了很多其他文件,所以很乱。
我希望从终端输出中,您可以大致了解表的结构,并从中了解表的结构。我想将它输出到一个如下所示的 .csv 文件
image_id captions
1 xxxx
2 xxxx
3 xxxx
我该怎么做...?不确定,鉴于 lua 表的格式...
这是定义它的脚本。具体来说,它在最后定义,但同样,不确定它会有多大帮助。
require 'torch'
require 'nn'
require 'nngraph'
-- exotics
require 'loadcaffe'
-- local imports
local utils = require 'misc.utils'
require 'misc.DataLoader'
require 'misc.DataLoaderRaw'
require 'misc.LanguageModel'
local net_utils = require 'misc.net_utils'
local csv_utils = require 'misc.csv_utils'
-------------------------------------------------------------------------------
-- Input arguments and options
-------------------------------------------------------------------------------
cmd = torch.CmdLine()
cmd:text()
cmd:text('Train an Image Captioning model')
cmd:text()
cmd:text('Options')
-- Input paths
cmd:option('-model','','path to model to evaluate')
-- Basic options
cmd:option('-batch_size', 1, 'if > 0 then overrule, otherwise load from checkpoint.')
cmd:option('-num_images', 100, 'how many images to use when periodically evaluating the loss? (-1 = all)')
cmd:option('-language_eval', 0, 'Evaluate language as well (1 = yes, 0 = no)? BLEU/CIDEr/METEOR/ROUGE_L? requires coco-caption code from Github.')
cmd:option('-dump_images', 1, 'Dump images into vis/imgs folder for vis? (1=yes,0=no)')
cmd:option('-dump_json', 1, 'Dump json with predictions into vis folder? (1=yes,0=no)')
cmd:option('-dump_path', 0, 'Write image paths along with predictions into vis json? (1=yes,0=no)')
-- Sampling options
cmd:option('-sample_max', 1, '1 = sample argmax words. 0 = sample from distributions.')
cmd:option('-beam_size', 2, 'used when sample_max = 1, indicates number of beams in beam search. Usually 2 or 3 works well. More is not better. Set this to 1 for faster runtime but a bit worse performance.')
cmd:option('-temperature', 1.0, 'temperature when sampling from distributions (i.e. when sample_max = 0). Lower = "safer" predictions.')
-- For evaluation on a folder of images:
cmd:option('-image_folder', '', 'If this is nonempty then will predict on the images in this folder path')
cmd:option('-image_root', '', 'In case the image paths have to be preprended with a root path to an image folder')
-- For evaluation on MSCOCO images from some split:
cmd:option('-input_h5','','path to the h5file containing the preprocessed dataset. empty = fetch from model checkpoint.')
cmd:option('-input_json','','path to the json file containing additional info and vocab. empty = fetch from model checkpoint.')
cmd:option('-split', 'test', 'if running on MSCOCO images, which split to use: val|test|train')
cmd:option('-coco_json', '', 'if nonempty then use this file in DataLoaderRaw (see docs there). Used only in MSCOCO test evaluation, where we have a specific json file of only test set images.')
-- misc
cmd:option('-backend', 'cudnn', 'nn|cudnn')
cmd:option('-id', 'evalscript', 'an id identifying this run/job. used only if language_eval = 1 for appending to intermediate files')
cmd:option('-seed', 123, 'random number generator seed to use')
cmd:option('-gpuid', 0, 'which gpu to use. -1 = use CPU')
cmd:text()
-------------------------------------------------------------------------------
-- Basic Torch initializations
-------------------------------------------------------------------------------
local opt = cmd:parse(arg)
torch.manualSeed(opt.seed)
torch.setdefaulttensortype('torch.FloatTensor') -- for CPU
if opt.gpuid >= 0 then
require 'cutorch'
require 'cunn'
if opt.backend == 'cudnn' then require 'cudnn' end
cutorch.manualSeed(opt.seed)
cutorch.setDevice(opt.gpuid + 1) -- note +1 because lua is 1-indexed
end
-------------------------------------------------------------------------------
-- Load the model checkpoint to evaluate
-------------------------------------------------------------------------------
assert(string.len(opt.model) > 0, 'must provide a model')
local checkpoint = torch.load(opt.model)
-- override and collect parameters
if string.len(opt.input_h5) == 0 then opt.input_h5 = checkpoint.opt.input_h5 end
if string.len(opt.input_json) == 0 then opt.input_json = checkpoint.opt.input_json end
if opt.batch_size == 0 then opt.batch_size = checkpoint.opt.batch_size end
local fetch = {'rnn_size', 'input_encoding_size', 'drop_prob_lm', 'cnn_proto', 'cnn_model', 'seq_per_img'}
for k,v in pairs(fetch) do
opt[v] = checkpoint.opt[v] -- copy over options from model
end
local vocab = checkpoint.vocab -- ix -> word mapping
-------------------------------------------------------------------------------
-- Create the Data Loader instance
-------------------------------------------------------------------------------
local loader
if string.len(opt.image_folder) == 0 then
loader = DataLoader{h5_file = opt.input_h5, json_file = opt.input_json}
else
loader = DataLoaderRaw{folder_path = opt.image_folder, coco_json = opt.coco_json}
end
-------------------------------------------------------------------------------
-- Load the networks from model checkpoint
-------------------------------------------------------------------------------
local protos = checkpoint.protos
protos.expander = nn.FeatExpander(opt.seq_per_img)
protos.crit = nn.LanguageModelCriterion()
protos.lm:createClones() -- reconstruct clones inside the language model
if opt.gpuid >= 0 then for k,v in pairs(protos) do v:cuda() end end
-------------------------------------------------------------------------------
-- Evaluation fun(ction)
-------------------------------------------------------------------------------
local function eval_split(split, evalopt)
local verbose = utils.getopt(evalopt, 'verbose', true)
local num_images = utils.getopt(evalopt, 'num_images', true)
protos.cnn:evaluate()
protos.lm:evaluate()
loader:resetIterator(split) -- rewind iteator back to first datapoint in the split
local n = 0
local loss_sum = 0
local loss_evals = 0
local predictions = {}
while true do
-- fetch a batch of data
local data = loader:getBatch{batch_size = opt.batch_size, split = split, seq_per_img = opt.seq_per_img}
data.images = net_utils.prepro(data.images, false, opt.gpuid >= 0) -- preprocess in place, and don't augment
n = n + data.images:size(1)
-- forward the model to get loss
local feats = protos.cnn:forward(data.images)
-- evaluate loss if we have the labels
local loss = 0
if data.labels then
local expanded_feats = protos.expander:forward(feats)
local logprobs = protos.lm:forward{expanded_feats, data.labels}
loss = protos.crit:forward(logprobs, data.labels)
loss_sum = loss_sum + loss
loss_evals = loss_evals + 1
end
-- forward the model to also get generated samples for each image
local sample_opts = { sample_max = opt.sample_max, beam_size = opt.beam_size, temperature = opt.temperature }
local seq = protos.lm:sample(feats, sample_opts)
local sents = net_utils.decode_sequence(vocab, seq)
for k=1,#sents do
local entry = {image_id = data.infos[k].id, caption = sents[k]}
if opt.dump_path == 1 then
entry.file_name = data.infos[k].file_path
end
table.insert(predictions, entry)
if opt.dump_images == 1 then
-- dump the raw image to vis/ folder
local cmd = 'cp "' .. path.join(opt.image_root, data.infos[k].file_path) .. '" vis/imgs/img' .. #predictions .. '.jpg' -- bit gross
print(cmd)
os.execute(cmd) -- dont think there is cleaner way in Lua
end
if verbose then
print(string.format('image %s: %s', entry.image_id, entry.caption))
end
end
-- if we wrapped around the split or used up val imgs budget then bail
local ix0 = data.bounds.it_pos_now
local ix1 = math.min(data.bounds.it_max, num_images)
if verbose then
print(string.format('evaluating performance... %d/%d (%f)', ix0-1, ix1, loss))
end
if data.bounds.wrapped then break end -- the split ran out of data, lets break out
if num_images >= 0 and n >= num_images then break end -- we've used enough images
end
local lang_stats
if opt.language_eval == 1 then
lang_stats = net_utils.language_eval(predictions, opt.id)
end
return loss_sum/loss_evals, predictions, lang_stats
end
local loss, split_predictions, lang_stats = eval_split(opt.split, {num_images = opt.num_images})
print('loss: ', loss)
if lang_stats then
print(lang_stats)
end
if opt.dump_json == 1 then
-- dump the json
print(split_predictions)
utils.write_json('vis/vis.json', split_predictions)
csv_utils.write('vis/vis.csv', split_predictions, ";")
end
最佳答案
如果有人想知道,我很久以前就想出了解决方案。
function nt2_write(path, data, sep)
sep = sep or ','
local file = assert(io.open(path, "w"))
file:write('Image ID' .. "," .. 'Caption')
file:write('\n')
for k, v in pairs(data) do
file:write(v["image_id"] .. "," .. v["caption"])
file:write('\n')
end
file:close()
end
当然,您可能需要更改字符串值,但是是的。快乐的编程。
关于csv - 从 Lua 表创建 .CSV 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45224351/
我有两个 csv 文件 file1.csv 和 file2.csv。 file1.csv 包含 4 列。 文件1: Header1,Header2,Header3,Header4 aaaaaaa,bb
我想知道是否有任何方法可以在导入数据库之前测试 CSV 文件? 我有一个包含多列的巨大 CSV 文件,每列都有不同的数据类型和大小。如何测试生成的 CSV 文件中出现的数据是否与每列的大小一致? 还有
我正在从 SCOM 中提取服务器列表,并希望根据包含以下数据的 CSV 检查此列表: Computername,Collection Name Server01,NA - All DA Servers
我有一个包含 24 列的 csv 文件。其中我只想阅读 3 列。我看到 super CSV 是一个非常强大的库,但我不知道如何部分读取 CSV。 partial reading上的链接坏了。 请帮我举
我正在尝试将加特林日志文件导出到 CSV,因为我需要更新 google 电子表格中的所有全局值,因为我的经理需要电子表格中的值。 最佳答案 此 CSV 文件被删除并替换为 JSON 文件,名为 glo
我对 csv 是结构化数据还是半结构化数据感到困惑。 就像 RDBMS 是一个有关系的结构化数据,但 csv 没有关系。 我无法找到确切的答案。 最佳答案 我可以说,具有恒定列和行(二维)的 CSV
我正在使用 pipes-csv 库读取一个 csv 文件。我想先读第一行,然后再读其余的。不幸的是,在 Pipes.Prelude.head 函数返回之后。管道正在以某种方式关闭。有没有办法先读取 c
起初这似乎很明显,但现在我不太确定。 如果 CSV 文件具有以下行: a, 我会将其解释为具有值“a”和“”的两个字段。但是然后查看一个空行,我可以很容易地争辩说它表示一个值为“”的字段。 我接受文件
我正在尝试将列表字典写入 CSV 文件。我希望这些键是 CSV 文件的标题,以及与该键关联的列中的每个键关联的值。 如果我的字典是: {'600': [321.4, 123.5, 564.1, 764
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 10 年前。 Improve thi
是否有任何官方方法允许 CSV 格式的文件允许评论,无论是在其自己的行上还是在行尾? 我尝试检查wikipedia关于此以及RFC 4180但两者都没有提到任何让我相信它不是文件格式的一部分的内容,所
我有一些 csv 格式的数据。然而它们已经是一个字符串,因为我是从 HTTP 请求中获取它们的。我想使用数据框来查看数据。但是我不知道如何解析它,因为 CSV 包只接受文件,而不接受字符串。 一种解决
我有一个 CSV 文件,其中包含一些字段的值列表。它们作为 HTML“ul”元素存储在数据库中,但我想将它们转换为对电子表格更友好的东西。 我应该使用什么作为分隔符?我可以使用转义的逗号、竖线、分号或
我使用 Google 表格(电子表格)来合并我的 Gambio 商店的不同来源的文章数据。要导入数据,我需要在 .csv 文件中使用管道符号作为分隔符/分隔符,并使用 "作为文本分隔符。在用于导出为
这是一个奇怪的请求,因为我们都知道数据库头不应该包含空格。 但是,我正在使用的系统需要在其标题中使用空格才能导入。 我创建了一个 Report Builder 报告,它将数据构建到一个表中,并在我运行
我有一个 .csv 文件,我需要将其转换为 coldfusion 查询。我使用了 cflib.org CSVtoQuery 方法,它工作正常......但是...... 如果 csv 中的“单元格”在
我想知道是否有任何方法可以生成文化中性 CSV 文件,或者至少指定文件中存在的特定列的数据格式。 例如,我生成了包含带小数点分隔符 (.) 的数字的 CSV 文件,然后 将其传递给小数点分隔符为 (,
我正在构建一个 CSV 字符串 - 因此用户单击 div 的所有内容 - 5 个字符的字符串都会传递到隐藏字段中 - 我想做的是附加每个新值并创建一个 CSV 字符串 - 完成后- 在文本框中显示 -
我正在努力从另外两个文件创建一个 CSV 文件 这是我需要的 我想要的文件(很多其他行) “AB”;“A”;“B”;“C”;“D”;“E” 我拥有的文件: 文件 1:"A";"B";"C";"D";"
我正在尝试将表导出到配置单元中的本地 csv 文件。 INSERT OVERWRITE LOCAL DIRECTORY '/home/sofia/temp.csv' ROW FORMAT DELIMI
我是一名优秀的程序员,十分优秀!