gpt4 book ai didi

r - 如何在 R 中的并行方法中使用无用的记录器进行记录?

转载 作者:行者123 更新时间:2023-12-02 12:19:26 24 4
gpt4 key购买 nike

我在 R 中使用无用的记录器进行日志记录。我有一个使用 R 中的 Snowfall 实现的并行算法。并行进程的每个核心都会在记录器中记录中间输出。但是这个输出没有显示在记录器中?

我们可以在使用降雪的并行作业中使用无用的记录器进行记录吗?

添加它是如何完成的:

我的具体情况有点不同。我正在使用我创建的共享对象从 R 调用 C 函数。该函数是一个迭代算法,我需要每隔几次迭代就记录一次输出。我对从 C 函数记录到无用的记录器感兴趣。为什么无用的记录器?因为这是 Web 应用程序的一部分,并且用户 session 的所有输出都采用一致的格式是有意义的。

这是我根据已接受的答案所遵循的一般方法。

# init script
# iter logger namespace global variable
assign("MCMC_LOGGER_NAMESPACE", "iter.logger", envir = .GlobalEnv)

loginit <- function(logfile) {
require('futile.logger')
flog.layout(layout.simple, name = ITER_LOGGER_NAMESPACE)
flog.threshold(TRACE, name = ITER_LOGGER_NAMESPACE)
flog.appender(appender.file(logfile), name = ITER_LOGGER_NAMESPACE)
NULL
}

parallel_funct_call_in_R <- function(required args) {
require('snowfall')
sfSetMaxCPUs()
sfInit(parallel = TRUE, cpus = NUM_CPU)
sfLibrary(required libs)
sfExport(required vars including logger namespace variable ITER_LOGGER_NAMESPACE)
iterLoggers = sprintf(file.path(myloggingdir, 'iterativeLogger_%02d.log', fsep = .Platform$file.sep), seq_len(NUM_CPU))
sfClusterApply(iterLoggers, loginit)
sfSource(required files)
estimates <- sfLapply(list_to_apply_over, func_callling_C_from_R, required args)
sfStop()
return(estimates)
}

iterTrackNumFromC <- function(numvec){
# convert numvec to json and log using flog.info
# the logger namespace has already been registered in the individual cores
flog.info("%s", toJSON(numvec), name = ITER_LOGGER_NAMESPACE)
}

func_callling_C_from_R <- function(args){
load shared obh using dyn.load
estimates = .C("C_func", args, list(iterTrackNumFromC)) # can use .Call also I guess
return(estimates)
}

现在是 C 函数

void C_func(other args, char **R_loggerfunc){ // R_loggerfunc is passed iterTrackNumFromC    
// do stuff
// call function that logs numeric values to futile.logger
logNumericVecInR();
}

void logNumericVecInR (char *Rfunc_logger, double *NumVec, int len_NumVec){
long nargs = 1;
void *arguments[1];
arguments[0] = (double*)NumVec;
char *modes[1];
modes[0] = "double";
long lengths[1];
lengths[0] = len_NumVec;
char *results[1];
// void call_R(char *func, long nargs, void **arguments, char **modes, long *lengths, char **names, long nres, char **results)
call_R(Rfunc_logger, nargs, arguments, modes, lengths, (char**)0, (long)1, results);
}

希望这有帮助。如果有更简单的方法让 R 和 C 共享通用记录器,请告诉我。

最佳答案

从降雪程序中使用 futile.logger 包的一个简单方法是使用 sfInit slaveOutfile='' 选项,以便工作器输出不会被重定向。

library(snowfall)
sfInit(parallel=TRUE, cpus=3, slaveOutfile='')
sfLibrary(futile.logger)
work <- function(i) {
flog.info('Got task %d', i)
i
}
sfLapply(1:10, work)
sfStop()

这是 Snow makeCluster outfile='' 选项的降雪接口(interface)。它可能无法与 Rgui 等 GUI 界面正常工作,具体取决于它们处理进程输出的方式,但它可以使用 Rterm.exe 在 Windows 上工作。

我认为最好为每个工作人员指定不同的日志文件。这是一个例子:

library(snowfall)
nworkers <- 3
sfInit(parallel=TRUE, cpus=nworkers)

loginit <- function(logfile) {
library(futile.logger)
flog.appender(appender.file(logfile))
NULL
}
sfClusterApply(sprintf('out_%02d.log', seq_len(nworkers)), loginit)

work <- function(i) {
flog.info('Got task %d', i)
i
}
sfLapply(1:10, work)
sfStop()

这避免了来自雪的所有额外输出,并将每个工作人员的日志消息放入一个单独的文件中,这样可以减少困惑。

关于r - 如何在 R 中的并行方法中使用无用的记录器进行记录?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20930112/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com