- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我尝试使用满足另一个表中条件的值的总和来更新表中的值。
在第一个命令中,我想获取共享文章的数量(此处为 3):
db=# select article_id,liked,shared, COUNT(article_id) FROM social WHERE article_id > 0 GROUP BY article_id,liked,shared HAVING article_id=2087 AND shared=true;
article_id | liked | shared | count
------------+-------+--------+-------
2087 | f | t | 3
(1 row)
我有另一个表,我需要将这个值 (3) 放在右列中:
db=# SELECT article_id,shared FROM articles WHERE article_id=2087;
article_id | shared
------------+--------
2087 |
(1 row)
我可以用 Python 中的两个命令来做到这一点,但我确信在一个 SQL 请求中有更好的方法来做到这一点?
编辑:
我试过这个命令:
db=# UPDATE articles SET shared=subquery.count FROM ( SELECT count(article_id) FROM social WHERE article_id=2087 AND shared=true) AS subquery WHERE article_id=2087;
UPDATE 1
db=# SELECT article_id,shared FROM articles WHERE article_id=2087;
article_id | shared
------------+--------
2087 | 3
(1 row)
我只需要设置一次 article_id 就可以了。有什么建议吗?
最佳答案
我会将计数包装在 CTE 中,并根据 CTE 的结果进行更新:
with counts as (
select article_id,liked,shared, COUNT(article_id) as article_count
FROM social
WHERE article_id > 0
GROUP BY article_id,liked,shared
HAVING article_id=2087 AND shared=true
)
update articles a
set shared = c.article_count
from counts c
where a.article_id = c.article_id
其他一些挑剔的事情......
HAVING article_id=2087 and shared=true
最好移到 where
子句中。当然,这会起作用,但是 HAVING
通常保留用于聚合函数(having count (*) > 1
或 having sum (qty) = 0
。将其移动到 where 子句的好处是您可以避免抓取和聚合最终被过滤掉的数据。我不确定这一点,但它甚至可以更好地利用索引。
shared=true
可以简写为 shared
。你可能不喜欢它的含义变得模糊不清,所以要么接受要么放弃。
第一个查询与您要更新的内容不一致...具体而言,初始查询可能会返回多个结果,因为您没有仅按 article_id 进行分组 - 因此您可能会得到大量结果相同的 article_id。您信任的这个构造将更新正确的构造。你是这个意思吗?
这三个建议的总结和一些假设:
with counts as (
select article_id, COUNT(article_id) as article_count
FROM social
WHERE article_id > 0 and article_id=2087 AND shared
GROUP BY article_id
)
update articles a
set shared = c.article_count
from counts c
where a.article_id = c.article_id
我意识到 article_id > 0
和 article_id=2087
是多余的,但我假设后者是一个您最终会删除的测试用例,以便您可以一次更新所有记录.
关于database - 从一个表中获取一个值(使用条件)并在一个命令中存储在另一个表中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54485585/
我有一台 MySQL 服务器和一台 PostgreSQL 服务器。 需要从多个表中复制或重新插入一组数据 MySQL 流式传输/同步到 PostgreSQL 表。 这种复制可以基于时间(Sync)或事
如果两个表的 id 彼此相等,我尝试从一个表中获取数据。这是我使用的代码: SELECT id_to , email_to , name_to , status_to
我有一个 Excel 工作表。顶行对应于列名称,而连续的行每行代表一个条目。 如何将此 Excel 工作表转换为 SQL 表? 我使用的是 SQL Server 2005。 最佳答案 这取决于您使用哪
我想合并两个 Django 模型并创建一个模型。让我们假设我有第一个表表 A,其中包含一些列和数据。 Table A -------------- col1 col2 col3 col
我有两个表:table1,table2,如下所示 table1: id name 1 tamil 2 english 3 maths 4 science table2: p
关闭。此题需要details or clarity 。目前不接受答案。 想要改进这个问题吗?通过 editing this post 添加详细信息并澄清问题. 已关闭 1 年前。 Improve th
下面两个语句有什么区别? newTable = orginalTable 或 newTable.data(originalTable) 我怀疑 .data() 方法具有性能优势,因为它在标准 AX 中
我有一个表,我没有在其中显式定义主键,它并不是真正需要的功能......但是一位同事建议我添加一个列作为唯一主键以随着数据库的增长提高性能...... 谁能解释一下这是如何提高性能的? 没有使用索引(
如何将表“产品”中的产品记录与其不同表“图像”中的图像相关联? 我正在对产品 ID 使用自动增量。 我觉得不可能进行关联,因为产品 ID 是自动递增的,因此在插入期间不可用! 如何插入新产品,获取产品
我有一个 sql 表,其中包含关键字和出现次数,如下所示(尽管出现次数并不重要): ____________ dog | 3 | ____________ rat | 7 | ____
是否可以使用目标表中的LAST_INSERT_ID更新源表? INSERT INTO `target` SELECT `a`, `b` FROM `source` 目标表有一个自动增量键id,我想将其
我正在重建一个搜索查询,因为它在“我看到的”中变得多余,我想知道什么 (albums_artists, artists) ( ) does in join? is it for boosting pe
以下是我使用 mysqldump 备份数据库的开关: /usr/bin/mysqldump -u **** --password=**** --single-transaction --databas
我试图获取 MySQL 表中的所有行并将它们放入 HTML 表中: Exam ID Status Assigned Examiner
如何查询名为 photos 的表中的所有记录,并知道当前用户使用单个查询将哪些结果照片添加为书签? 这是我的表格: -- -- Table structure for table `photos` -
我的网站都在 InnoDB 表上运行,目前为止运行良好。现在我想知道在我的网站上实时发生了什么,所以我将每个页面浏览量(页面、引荐来源网址、IP、主机名等)存储在 InnoDB 表中。每秒大约有 10
我在想我会为 mysql 准备两个表。一个用于存储登录信息,另一个用于存储送货地址。这是传统方式还是所有内容都存储在一张表中? 对于两个表...有没有办法自动将表 A 的列复制到表 B,以便我可以引用
我不是程序员,我从这个表格中阅读了很多关于如何解决我的问题的内容,但我的搜索效果不好 我有两张 table 表 1:成员 id*| name | surname -------------------
我知道如何在 ASP.NET 中显示真实表,例如 public ActionResult Index() { var s = db.StaffInfoDBSet.ToList(); r
我正在尝试运行以下查询: "insert into visits set source = 'http://google.com' and country = 'en' and ref = '1234
我是一名优秀的程序员,十分优秀!