gpt4 book ai didi

java - 在处理程序中组装 Netty 消息

转载 作者:塔克拉玛干 更新时间:2023-11-03 05:22:14 24 4
gpt4 key购买 nike

我正在为我的项目制作 Netty 原型(prototype)。我正在尝试在 Netty 之上实现一个简单的面向文本/字符串的协议(protocol)。在我的管道中,我使用以下内容:

public class TextProtocolPipelineFactory implements ChannelPipelineFactory
{
@Override
public ChannelPipeline getPipeline() throws Exception
{
// Create a default pipeline implementation.
ChannelPipeline pipeline = pipeline();

// Add the text line codec combination first,
pipeline.addLast("framer", new DelimiterBasedFrameDecoder(2000000, Delimiters.lineDelimiter()));
pipeline.addLast("decoder", new StringDecoder());
pipeline.addLast("encoder", new StringEncoder());

// and then business logic.
pipeline.addLast("handler", new TextProtocolHandler());

return pipeline;
}
}

我在管道中有一个 DelimiterBasedFrameDecoder、一个字符串解码器和一个字符串编码器。

作为此设置的结果,我的传入消息被拆分为多个字符串。这导致多次调用我的处理程序的“messageReceived”方法。这可以。但是,这需要我在内存中累积这些消息,并在收到消息的最后一个字符串数据包时重新构造消息。

我的问题是,“累积字符串”然后“将它们重新构造成最终消息”的最有效内存方式是什么。到目前为止我有 3 个选项。它们是:

  • 使用 StringBuilder 进行累加,使用 toString 进行构造。 (这会带来最差的内存性能。事实上,对于具有大量并发用户的大型有效负载,这会带来 Not Acceptable 性能)

  • 通过 ByteArrayOutputStream 累积到 ByteArray,然后使用字节数组构造(这比选项 1 提供了更好的性能,但它仍然占用相当多的内存)

  • 存入一个Dymamic Channel Buffer,使用toString(charset)构造。我还没有分析这个设置,但我很好奇这与上述两个选项相比如何。有没有人使用动态 channel 缓冲区解决了这个问题?

我是 Netty 的新手,我可能在架构上做错了什么。非常感谢您的意见。

提前致谢 Solr

添加我的自定义 FrameDecoder 实现以供 Norman 审查

public final class TextProtocolFrameDecoder extends FrameDecoder 
{
public static ChannelBuffer messageDelimiter()
{
return ChannelBuffers.wrappedBuffer(new byte[] {'E','O','F'});
}

@Override
protected Object decode(ChannelHandlerContext ctx, Channel channel,ChannelBuffer buffer)
throws Exception
{
int eofIndex = find(buffer, messageDelimiter());

if(eofIndex != -1)
{
ChannelBuffer frame = buffer.readBytes(buffer.readableBytes());
return frame;
}

return null;
}

private static int find(ChannelBuffer haystack, ChannelBuffer needle) {
for (int i = haystack.readerIndex(); i < haystack.writerIndex(); i ++) {
int haystackIndex = i;
int needleIndex;
for (needleIndex = 0; needleIndex < needle.capacity(); needleIndex ++) {
if (haystack.getByte(haystackIndex) != needle.getByte(needleIndex)) {
break;
} else {
haystackIndex ++;
if (haystackIndex == haystack.writerIndex() &&
needleIndex != needle.capacity() - 1) {
return -1;
}
}
}

if (needleIndex == needle.capacity()) {
// Found the needle from the haystack!
return i - haystack.readerIndex();
}
}
return -1;
}
}

最佳答案

我认为如果您实现自己的 FrameDecoder,您将获得最佳性能。这将允许您缓冲所有数据,直到您确实需要将其分派(dispatch)给链中的下一个处理程序。请引用FrameDecoder apidocs.

如果您不想自己处理 CRLF 检测,也可以保留 DelimiterBasedFrameDecoder 并在其后面添加一个自定义 FrameDecoder 来组装表示一行文本的 ChannelBuffers。

在这两种情况下,FrameDecoder 都会尽量减少内存复制,方法是尝试“包装”缓冲区而不是每次都复制它们。

也就是说,如果您想获得最佳性能,请使用第一种方法,如果您希望轻松使用第二种方法;)

关于java - 在处理程序中组装 Netty 消息,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13422043/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com