- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个名为“employee”的 MySQL 表,如下所示:
ID | User | Phone_No | Phone_No_Count
1 | Fred | 9999 | 1
2 | John | 8888 | 2
3 | Pablo | 123 | 1
4 | John | | 0
5 | John | 8888 | 2
6 | Pablo | | 0
7 | John | 456 | 1
Phone_No_Count 是 Phone_No 列的计数,如果没有 Phone_No,则 Phone_No_Count 设置为零。
我想使用具有最高 Phone_No_Count 的 Phone_No 条目回填缺失的 Phone_No 条目。
例如用户 John 有 2 个 Phone_No(8888 和 456),因此我只想使用 8888,因为它具有最高的 Phone_No_Count (2)
员工中的回填数据将如下所示:
ID | User | Phone_No | Phone_No_Count
1 | Fred | 9999 | 1
2 | John | 8888 | 2
3 | Pablo | 123 | 1
4 | John | 8888 | 0
5 | John | 8888 | 2
6 | Pablo | 123 | 0
7 | John | 456 | 1
然后我可以单独更新 Phone_No_Count,无论如何我都知道该怎么做。
我在网上看到的所有示例都是用于回填多个表,或者如果只是一个表,则它们没有所需的逻辑。
有人可以帮忙吗,因为这整天都在煎熬我的大脑!
最佳答案
进行此类更新的一种方法是,您可以在查询中使用用户定义的变量,并为具有最大电话计数的用户存储电话(即相关子查询),然后将此数据与您的表连接并执行更新
update Table1 t1a
inner join(
select t1.id,
t1.`User`,
@p:= case
when t1.Phone_No is null then @c
else t1.Phone_No END Phone_No,
@c:=(select Phone_No from Table1 where t1.`User`=`User` order by `Phone_No_Count` DESC limit 1 ) max_phone
from Table1 t1,(select @p:=0,@c:=0) t
order by t1.`User`,t1.`Phone_No_Count` DESC
) t2 on(t1a.id=t2.id)
set t1a.Phone_No = t2.Phone_No
关于mysql - 如何从一张表中回填丢失的 mysql 数据?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23228720/
设置 考虑 df = pd.DataFrame(index=pd.date_range('2016-03-01', '2016-03-08'), columns=list('ABC')) df.ilo
我经常遇到必须从另一个数据源“填写”信息的情况。 例如: x 2 b y 3 c x 4 d w 5 e v 6 f u 7 g t 8
所以这是场景: 我们有一个 m_reading 表,每天都会在其中提取 24 个读数。 在 24 个读数中,23 个是当天的读数,1 个是前一天的读数。 物化 View 应该聚合天数数据。 业务用户可
假设您有一个 Airflow DAG,回填没有意义,这意味着,在它运行一次之后,再快速运行它之后的时间将完全没有意义。 例如,如果您从某个仅每小时更新一次的来源将数据加载到数据库中,那么快速连续发生的
我有一个如下所示的 DAG,dagrun_timeout 设置为 4 小时。当我转到 UI 并清除从 start_date 到 present 的所有任务时,所有 DAG 都设置为运行状态。 4 小时
我的第一篇文章。我在 Google Analytics(分析)中的目标漏斗中遇到了大问题。 我们设置了一个漏斗来跟踪从我们的主要公司网站到在第三方网站上处理的用户注册的注册(使用虚拟网页浏览来跟踪用户
试图找出一种方法来回填 ds 分区 Hive 表的分区。 我知道如何从 CLI 运行 Hive 命令,例如 $HIVE_HOME/bin/hive -e 'select a.col from tab1
https://cloud.google.com/bigquery/docs/reference/datatransfer/rest/ 我正在寻找“bigquery 数据传输服务”的 php 客户端库
我是一名优秀的程序员,十分优秀!