- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我是caffe框架的新手,我想用caffe来实现多标签训练。我使用两个 LMDB 分别保存数据和标签。数据 LMDB 的维度为 Nx1xHxW,而标签 LMDB 的维度为 Nx1x1x3。标签是 float 数据。
文本文件如下:
5911 3
train/train_data/4224.bmp 13 0 12
train/train_data/3625.bmp 11 3 7
... ...
我使用 C++ 创建 LMDB。我的 main.cpp:
#include <algorithm>
#include <fstream> // NOLINT(readability/streams)
#include <string>
#include <utility>
#include <vector>
#include <QImage>
#include "boost/scoped_ptr.hpp"
#include "gflags/gflags.h"
#include "glog/logging.h"
#include "caffe/proto/caffe.pb.h"
#include "caffe/util/db.hpp"
#include "caffe/util/format.hpp"
#include "caffe/util/rng.hpp"
#include <boost/filesystem.hpp>
#include <iomanip>
#include <iostream> // NOLINT(readability/streams)
#include <string>
#include "google/protobuf/message.h"
#include "caffe/common.hpp"
#include "caffe/proto/caffe.pb.h"
#include "caffe/util/format.hpp"
#ifndef CAFFE_TMP_DIR_RETRIES
#define CAFFE_TMP_DIR_RETRIES 100
#endif
using namespace caffe; // NOLINT(build/namespaces)
using std::pair;
using boost::scoped_ptr;
const char *dat_lab="/home/mul/caffe-master/examples/2D_3D/new/info/train.data";
string data_db="/home/mul/caffe-master/examples/2D_3D/new/2D_3D_data_leveldb";
string label_db="/home/mul/caffe-master/examples/2D_3D/new/2D_3D_label_leveldb";
string root="/home/mul/caffe-master/examples/2D_3D/new/";
string path;
int main()
{
//Create data DB
scoped_ptr<db::DB> dat_db(db::GetDB("leveldb"));
dat_db->Open(data_db, db::NEW);
scoped_ptr<db::Transaction> dat_txn(dat_db->NewTransaction());
//Create label DB
scoped_ptr<db::DB> lab_db(db::GetDB("leveldb"));
lab_db->Open(label_db, db::NEW);
scoped_ptr<db::Transaction> lab_txn(lab_db->NewTransaction());
//Storing to db
Datum dat_datum,lab_datum;
int count=0;
std::ifstream infile(dat_lab);
std::string filename;
const char *dataname;
int dataNum;
int labelcount;
QImage img;
infile>>dataNum>>labelcount;
LOG(INFO) << "A total of " << dataNum<< " images.";
for (int line_id = 0; line_id < dataNum; ++line_id)
{
infile>>filename;
path=root+filename;
dataname=path.c_str();
img.load(dataname);
dat_datum.set_channels(1);
dat_datum.set_height(img.height());
dat_datum.set_width(img.width());
dat_datum.clear_data();
dat_datum.clear_float_data();
int datum_channels = dat_datum.channels();
int datum_height = dat_datum.height();
int datum_width = dat_datum.width();
int datum_size = datum_channels * datum_height * datum_width;
std::string buffer(datum_size, ' ');
const uchar* ptr = img.bits();
int img_index = 0;
for (int h = 0; h < datum_height; ++h)
{
for (int w = 0; w < datum_width; ++w)
{
for (int c = 0; c < datum_channels; ++c)
{
int datum_index = (c * datum_height + h) * datum_width + w;
buffer[datum_index] = static_cast<char>(ptr[img_index++]);
}
}
}
dat_datum.set_data(buffer);
lab_datum.set_channels(labelcount);
lab_datum.set_height(1);
lab_datum.set_width(1);
lab_datum.clear_data();
lab_datum.clear_float_data();
for(int i=0;i<labelcount;++i)
{
float mid;
infile>>mid;
lab_datum.add_float_data(mid);
}
// sequential
string key_str = caffe::format_int(line_id, 8);
// Put in db
string out;
CHECK(dat_datum.SerializeToString(&out));
dat_txn->Put(key_str, out);
CHECK(lab_datum.SerializeToString(&out));
lab_txn->Put(key_str, out);
if (++count % 1000 == 0)
{
// Commit db
dat_txn->Commit();
dat_txn.reset(dat_db->NewTransaction());
lab_txn->Commit();
lab_txn.reset(lab_db->NewTransaction());
LOG(INFO) << "Processed " << count << " files.";
}
}
// write the last batch
if (count % 1000 != 0)
{
dat_txn->Commit();
lab_txn->Commit();
LOG(INFO) << "Processed " << count << " files.";
}
return 0;
}
可以成功创建两个LMDB。但是当我用caffe实现两个LMDB的训练时,结果总是错误的。损失层为EUCLIDEAN_LOSS,损失不能下降。我不知道可以创建两个LMDB的代码是否有误。谁能帮我 ?无论如何谢谢。
最佳答案
总的来说,你上面的代码是好的,但你应该注意到:
最后,我添加了一个“MultiTaskData”层MultiTaskDataLayer从数据中读取多标签以进行多任务训练,您可以进行简单的修改以将其添加到您的 caffe 中并像这样使用:
name: "AgeNet"
layer {
name: "Age"
type: "MultiTaskData"
top: "data"
top: "age_label"
top: "gender_label"
data_param {
source: "age_gender_classification_0_60p_train_leveldb"
batch_size: 60
task_num: 2
label_dimension: 1
label_dimension: 1
}
transform_param {
scale: 0.00390625
crop_size: 60
mirror: true
}
include:{ phase: TRAIN }
}
layer {
name: "cls_age"
type: "InnerProduct"
bottom: "data"
top: "cls_age"
param {
lr_mult: 1
decay_mult: 1
}
param {
lr_mult: 2
decay_mult: 0
}
inner_product_param {
num_output: 7
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}
layer {
name: "age_loss"
type: "SoftmaxWithLoss"
bottom: "cls_age"
bottom: "age_label"
top: "age_loss"
include:{ phase: TRAIN }
}
layer {
name: "cls_gender"
type: "InnerProduct"
bottom: "data"
top: "cls_gender"
param {
lr_mult: 1
decay_mult: 1
}
param {
lr_mult: 2
decay_mult: 0
}
inner_product_param {
num_output: 2
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}
layer {
name: "gender_loss"
type: "SoftmaxWithLoss"
bottom: "cls_gender"
bottom: "gender_label"
top: "gender_loss"
include:{ phase: TRAIN }
}
关于c++ - 使用两个不同 LMDB 的多标签,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37265977/
在这里发帖是因为我找不到 lmdb 键值存储的任何论坛。 子库有限制吗?并发打开的子数据库的合理数量是多少? 我想要大约 200 个数据库,这看起来很多并且清楚地表明我的模型是错误的。 我想可以重构每
如何获得属于 env 的命名数据库的列表?通过阅读一些 python 绑定(bind)文档 (named database implementation) ,我知道名称存储在主(未命名?)数据库中,但
对现有 lmdb 中的数据进行混洗 ( Trying to solve this problem )。我检索了数据,整理并写回新的 lmdb。但是当我检查 lmdb 文件大小时,它减小了。旧 lmdb
创建 lmdb 环境时,我可以指定 map 大小。有没有办法在任何时候确定用了多少 map 大小? 换句话说,我需要找出剩余多少可用空间才能解决空间不足的问题。 我唯一能想到的就是遍历所有数据库并使用
内存中 B 树的某些 C++ 实现(例如谷歌 btree)和 LMDB(不考虑 LMDB 的所有功能,例如事务、隔离、共享访问等)之间的性能差异(读/写)是什么? .)? 最佳答案 其架构师 Howa
是否可以将多个键映射到同一个值?如果没有,是否有解决此功能的方法? 最佳答案 这是不可能的。我使用的一种解决方法是让第二个键上的值成为指向主键的指针。也就是说,第二个键的值是主键。 特别是,我制作了一
我刚刚开始用 LMDB 替换一些 SQL 表,LMDB 是用 C 实现的基本键值存储 ( lmdb link )。 在移植过程中,我遇到了一些理论问题: 数据库使用游标而不是键入的键,我认为这是因为键
我想使用 the lmdb crate 将一些数据写入我的数据库.我正在写一个枚举: enum MyEnum { A { astr: String, bstr: String }, B
如果您仅从单线程使用 LMDB,并且根本不关心数据库持久性,是否有任何理由打开和关闭事务? 在单个事务中执行所有操作会导致性能问题吗?打开和关闭太多事务是否会影响性能? 我发现我的 LMDB 数据库在
我有一个程序预计会使用 几 GB 的 lmdb 磁盘空间(这是一个区 block 链,我们正在远离 leveldb,因为它的 缺少 ACID,这是我 future 一些计划所需要的)。是否可以在 Ra
我有大约 100 万张图像要放入此数据集中,每次附加 10000 张。 我确信来自此 article 的 ref 的 map_size 是错误的 使用这条线来创建集合 env = lmdb.open(
根据文档 ( https://lmdb.readthedocs.org/en/release/ ),将 dupsort 传递给 open_db() 应该允许将重复键添加到 lmdb 数据库。但情况似乎
我想用同一个键存储多个值。我确保在创建数据库时包含 MDB_DUPSORT 标志。我也知道这限制了值的大小,但在这种特定情况下这不是问题。 当我想使用相同的键读取值时,我的问题就开始了。我进行了搜索,
是否有可以插入 LMDB 数据库的最大值大小?我正在尝试将一个 16GB 的文件插入到初始化为 32GB 的 LMDB 中,但我收到此错误: File "build_lmdb.py", line 90
一般来说,在TF中读取自定义数据我能想到的三种方式: native 实现/自定义数据读取器 https://www.tensorflow.org/versions/r0.10/how_tos/new_
我正在尝试从 LMDB 存储和获取一些数据。数据似乎已存储,我可以看到数据库中的键,但当我尝试使用刚刚存储的相同 ID 获取值时,它会给出 MDB_NOTFOUND 。 数据库打开 MDB_e
我正在处理 lmdb 并且 lmdb 真的很快。但它的一个问题是 lmdb 不是分布式的。每次我需要做一些维护时,lmdb 都必须关闭,并且站点有几个小时不可用。我正在研究如何使 lmdb 成为分布式
我正在尝试将数据写入 lmdb 数据库(引用来自 caffe/tools/convert_imageset.cpp)。控制台中没有错误,但 .mdb 文件的文件大小保持为零,即没有数据写入文件,但创建
我是caffe框架的新手,我想用caffe来实现多标签训练。我使用两个 LMDB 分别保存数据和标签。数据 LMDB 的维度为 Nx1xHxW,而标签 LMDB 的维度为 Nx1x1x3。标签是 fl
当我将最大数据库大小设置为例如 5G 时,在 Windows 上最终的数据库文件大小将变为 5G,即使我只插入一小段数据。但在 Linux 上它工作正常,最终的数据库大小与我插入的数据量有关。 这是我
我是一名优秀的程序员,十分优秀!