gpt4 book ai didi

java - 项目织机: what makes the performance better when using virtual threads?

转载 作者:行者123 更新时间:2023-12-03 07:36:38 27 4
gpt4 key购买 nike

为了提供一些背景信息,我已经关注项目织机一段时间了。我读过the state of loom。我已经完成了异步编程。
异步编程(由java nio提供)在任务等待时将线程返回到线程池,并且不中断线程会花很长的时间。这样可以大大提高性能,我们现在可以处理更多的请求,因为它们不受操作系统线程数的直接限制。但是我们在这里失去的是背景。现在,同一任务不再仅与一个线程相关联。一旦我们将任务与线程分离,所有的上下文都会丢失。异常跟踪不能提供非常有用的信息,并且调试很困难。
带有virtual threads的项目织机成为了并发的单个单元。现在,您可以在单个virtual thread上执行单个任务。
到现在为止一切都很好,但是文章继续讲到项目织布机:

A simple, synchronous web server will be able to handle many more requests without requiring more hardware.


我不明白我们如何通过织机获得异步API带来的性能优势? asynchrounous APIs确保不使任何线程空闲。那么,项目织机如何做才能使其比 asynchronous API更加高效和高效?
编辑
让我重新表述这个问题。假设我们有一个http服务器,该服务器接收请求并使用支持的持久数据库执行一些操作。说,这个http服务器处理很多请求-100K RPM。两种实现方法:
  • HTTP服务器具有专用的线程池。当请求进入时,线程将任务继续进行直到到达数据库为止,其中任务必须等待来自数据库的响应。此时,线程将返回线程池并继续执行其他任务。当DB响应时,它再次由线程池中的某个线程处理,并返回HTTP响应。
  • HTTP服务器仅为每个请求生成virtual threads。如果有IO,则虚拟线程仅等待任务完成。然后返回HTTP响应。基本上,没有为virtual threads进行合并。

  • 假设硬件和吞吐量保持不变,那么在响应时间或处理更多吞吐量方面,任何一种解决方案的性能都比另一种更好吗?
    我的猜测是性能不会有任何差异。

    最佳答案

    @talex的answer清楚地说明了它。进一步增加它。
    Loom更多地是关于 native 并发抽象的,它还可以帮助编写异步代码。考虑到它的VM级抽象,而不仅仅是代码级​​(就像我们迄今为止使用CompletableFuture等所做的那样),它允许一个人实现异步行为,但减少了样板。
    使用Loom,更强大的抽象就是救世主。关于语法糖的抽象如何使一个人有效地编写程序,我们已经反复看到了这一点。无论是JDK8中的FunctionalInterfaces,还是Scala中的理解。
    使用织机时,不需要链接多个CompletableFuture(以节省资源)。但是人们可以同步编写代码。随着遇到的每个阻塞操作(ReentrantLock,I/O,JDBC调用),虚拟线程将被驻留。而且由于这些线程是轻量级线程,因此上下文切换非常便宜,将自己与内核线程区分开来。
    当被阻塞时,实际的载体线程(正在运行虚拟线程的run -body)将参与执行其他一些虚拟线程的运行。如此有效,载波线程不会闲置,而是在执行其他一些工作。并随时返回以继续执行原始虚拟线程。就像线程池将如何工作一样。但是在这里,您只有一个载波线程,可以执行多个虚拟线程的主体,并在阻塞时从一个虚拟线程切换到另一个虚拟线程。
    我们得到与手动编写的异步代码相同的行为(并因此获得性能),但是避免了样板操作。

    考虑一下Web框架的情况,其中有一个单独的线程池来处理I/O,另一个用于执行HTTP请求。对于简单的HTTP请求,可能会从http-pool线程本身提供请求。但是,如果存在任何阻塞(或)高CPU操作的情况,我们将使该 Activity 异步发生在单独的线程上。
    该线程将从传入的请求中收集信息,生成CompletableFuture,并用管道将其链接(作为一个阶段从数据库中读取,然后从中进行计算,然后进行另一阶段以写回数据库用例,Web服务调用等)。 )。每个阶段都是一个阶段,生成的CompletablFuture返回到Web框架。
    当最终结果完成后,网络框架将使用结果将结果中继回客户端。这就是Play-Framework和其他人一直在处理它的方式。在http线程处理池和每个请求的执行之间提供隔离。但是,如果我们深入研究,为什么我们这样做呢?
    核心原因之一是有效利用资源。特别是阻止通话。因此,我们使用thenApply等进行链接,这样就不会在任何 Activity 中阻塞任何线程,并且在线程数较少的情况下可以做更多的事情。
    这很好用,但是冗长。而且调试确实是痛苦的,并且如果其中一个中间阶段出现异常,则控制流程将变得一团糟,从而导致进一步的代码来处理它。
    使用Loom,我们可以编写同步代码,并让其他人决定阻塞时该怎么办。而不是 sleep ,什么也不做。

    关于java - 项目织机: what makes the performance better when using virtual threads?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63370669/

    27 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com