- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
如果您有一个线程 (thread1) 在 sem_wait()
上阻塞,而另一个线程 (thread2) 使用 sem_destroy()
破坏了那个信号量,那么会发生什么到线程 1?
A quick search on the internet tells me that it produces undefined behavior:
Destroying a semaphore that other processes or threads are currently blocked on (in sem_wait(3)) produces undefined behavior.
但是,我碰巧看到很多多线程 C++ 应用程序都在使用它。
我的主要问题:
最佳答案
在我听过的任何 API 中,我想不出有哪一个案例在使用过程中破坏某些东西是理智的或明确的。所以在我看来,你的问题的答案是:
So what were they trying to achieve?
我不知道。
shouldn't that be very unsafe?
是的!
也许您看过的那些其他程序的作者知道这些实现实际上做了什么并且依赖于它。但他们必须为 future 可能发生变化的情况做好准备。也许他们已经权衡了这种改变破坏他们的程序的风险与他们通过走捷径和依赖未定义的行为所实现的节省,并认为这是值得的。您必须自己做出判断。
关于c++ - sem_destroy 一个信号量被其他人持有 sem_wait?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14076624/
我这里有一个相当奇怪的问题,或者我不知道它的工作方式,但是我有下面的程序可以正确创建信号量并第一次运行到最后。但是在 sem_wait 处出现 SEGFault,如果信号量已经存在。我在 64 位 F
跟进我之前的问题: Conditional wait with pthreads 我将代码更改为使用信号量而不是互斥锁和条件信号。但是,我似乎遇到了无法解释的情况。 这是摘要 function thr
我用 C 编写了一个通用队列,用于各种负载类型。它是一个阻塞队列,因此消费者线程将阻塞等待队列被生产者线程填充。 我已经使用 check 单独测试了队列代码,包括线程阻塞等待将值添加到队列的行为。所有
我有一个进程生成了几个子进程。它们都共享一个信号量。 在我的主程序中。 sem_t *sharedSem = sem_open(SHAREDSEM, O_CREAT, 0600, 4); // Ini
我真正想知道的是sem_wait()是否是“不忙等待”。如果线程在 sem_wait() 中等待其请求的资源,是否会浪费 CPU 周期。 最佳答案 通常,同步原语将线程添加到等待队列,然后将其置于 s
这是我的生产者和消费者问题的代码。它可以被编译,但是当我运行程序时它什么也不打印。我测试了程序,发现问题可能与 sem_wait() 有关。为什么程序可以编译但输出错误?谢谢。 int main(in
有什么办法可以让我在同一个互斥锁中拥有最多 10 个线程? 类似于 sem_wait() 的值 10。 编辑: 找到这个: 它是信号量的一个实现,使用了互斥量和条件变量。 typedef struct
我编写了这个创建子进程并在其中打印一些消息的简单程序: #include #include #include #include #include #include #include se
用 gcc 编译。我运行它来查看为什么我在其他程序中使用的信号量无法正常工作。我只是错误地使用了它们还是什么?即使信号量应该停止执行并导致死锁,每次都会输出该字符串,对吧? 代码如下: #includ
我正在使用 semaphore.h,如果 n 而不是只有一个插槽可用,我想获取一个信号量。 Posix 本身不提供这个。我该如何解决这个问题?我必须使用信号量,没有其他同步方法是可能的。 我正在考虑使
我正在使用命名信号量编写一个多进程程序,在主进程中我使用以下代码打开信号量 semaphore = sem_open("/msema",O_RDWR|O_CREAT|O_TRUNC,00777,1);
我在 Linux 中写了一个关于共享内存的简单项目。两个程序共享内存,一个是向其中写入字母,第二个是从中读取字母。我决定使用信号量以确保在读取新字母之前不会生成新字母。 问题是当 sem_wait(r
为什么 sem_wait 不能在信号处理程序中使用(特别是每个线程的 SIGSEGV 信号)?有人能给我一个应用程序崩溃的示例场景吗?我想 sem_wait 既是可重入又是线程安全,那么这里的问题是什
基本上,我的程序创建了 3 个线程。 “服务器”和 2 个“ worker ”。工作人员旨在对 1000 行文件(每个线程 500 个数字)中的 3 位正整数求和。在每个 worker 对自己的部分求
我有一个由多个 pthread 使用的队列结构。如果队列不为空,线程应该从队列中出队,然后做他们的工作。 我最初将其设置为 while 循环,其中线程使用 mutex_lock 检查队列是否为空。不幸
我正在开发一个项目,其中“学生”线程将使用信号量来唤醒“TA”线程。 我有一个名为 studentNeedsHelp_Sem 的信号量 我用 sem_init(&studentNeedsHelp_Se
static int res1 = 0; static int res2 = 0; static int res3 = 0; static int counter = 0; static sem_t
我正在做一个学校项目,我们必须制作一个多线程网络服务器。当我在我的信号量上调用 sem_wait 时遇到问题(应该初始化为 0 但似乎已经被 sem_post() 编辑为 1)。我得到一个 SIGAB
我发现 sem_post 和 sem_wait 的时间间隔至少有 50 微秒。 sem_t gSema; struct timeval gTv; void *run(void *arg) {
如果您有一个线程 (thread1) 在 sem_wait() 上阻塞,而另一个线程 (thread2) 使用 sem_destroy() 破坏了那个信号量,那么会发生什么到线程 1? A quick
我是一名优秀的程序员,十分优秀!