- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
你好,我有一个 df1 文件,例如:
Acc_number
ACC1.1_CP_Sp1_1
ACC2.1_CP_Sp1_1
ACC3.1_CP_Sp1_1
ACC4.1_CP_Sp1_1
和另一个 df2,例如:
Cluster_nb SeqName
Cluster1 YP_009216714
Cluster1 YP_002051918
Cluster1 JZSA01005235.1:37071-37973(-):Sp1_1
Cluster1 NW_014464344.1:68901-69716(-):Sp2_3
Cluster1 YP_001956729
Cluster1 ACC1.1_CP_Sp1_1
Cluster1 YP_009213712
Cluster2 ACC2.1_CP_Sp1_1
Cluster2 NR_014464231.1:35866-36717(-):Sp1_1
Cluster2 NR_014464232.1:35889-36788(-):Sp1_1
Cluster2 YP_009213728
Cluster3 ACC3.1_CP_Sp1_1
Cluster3 NK_014464231.1:35772-38898(-):Sp1_2
Cluster3 NZ_014464232.1:3533-78787(+):Sp1_2
Cluster3 YP_009213723
Cluster3 YP_009213739
如果 groupby
Cluster_nb
包含 Acc_number[i]
,我想检查 df1 中的每个 Acc_number
在其 (+ or -):...
部分中还包含另一个具有相同扩展名的序列(Acc_number
中 _CP_
之后的部分) .
例如
for ACC1.1_CP_Sp1_1 as i
我看到了:
df=df2.loc[df2['SeqName']==i]
Cluster_number=df['Cluster_nb'].iloc[0]
df3=df2.loc[df2['Cluster_nb']==Cluster_number]
print(df3)
Cluster_nb SeqName
Cluster1 YP_009216714
Cluster1 YP_002051918
Cluster1 JZSA01005235.1:37071-37973(-):Sp1_1
Cluster1 NW_014464344.1:68901-69716(-):Sp2_3
Cluster1 YP_001956729
第 3 行中的序列 JZSA01005235.1:37071-37973(-):Sp1_1
在其末尾具有相同的 Sp1_1
模式。
所以这里的答案是肯定的,ACC1.1_CP_Sp1_1 与另一个具有相同结尾的序列位于同一簇中(但名称中带有 (-or +):
)
for ACC3.1_CP_Sp1_1 as i
我看到了:
df=df2.loc[df2['SeqName']==i]
Cluster_number=df['Cluster_nb'].iloc[0]
df3=df2.loc[df2['Cluster_nb']==Cluster_number]
print(df3)
Cluster3 ACC3.1_CP_Sp1_1
Cluster3 NK_014464231.1:35772-38898(-):Sp1_2
Cluster3 NZ_014464232.1:3533-78787(+):Sp1_2
Cluster3 YP_009213723
Cluster3 YP_009213739
我看到在簇中没有其他序列具有与 ACC3.1_CP_Sp1_1
相同的结尾,所以答案是否定的。
结果应该总结在df3中:
Acc_number present cluster
ACC1.1_CP_Sp1_1 Yes Cluster1
ACC2.1_CP_Sp1_1 Yes Cluster2
ACC3.1_CP_Sp1_1 No NaN
ACC4.1_CP_Sp1_1 No NaN
非常感谢你的帮助
我试过了:
for CP in df1['Acc_number']:
df=df2.loc[df2['SeqName']==CP]
try:
Cluster_number=df['Cluster_nb'].iloc[0]
df3=df2.loc[df2['Cluster_nb']==Cluster_number]
for a in df3['SeqName']:
if '(+)' in a or '(-)' in a:
if re.sub('.*_CP_','',CP) in a:
new_df=new_df.append({"Cluster":Cluster_number,"Acc_nb":CP,"present":'yes'}, ignore_index=True)
print(CP,'yes')
except:
continue
最佳答案
我在代码中做了注释;概述是为每一行获取唯一标识符,合并数据框并仅保留您感兴趣的列:
#create an 'ending' column
#where u split off the ends after ':'
df1['ending'] = df1.loc[df1.SeqName.str.contains(':'),'SeqName']
df1['ending'] = df1['ending'].str.split(':').str[-1]
#get the cluster number and add to the ending column
#it will serve as a unique identifier for each row
df1['ending'] = df1.Cluster_nb.str[-1].str.cat(df1['ending'],sep='_')
#get rid of null and duplicates; keep only relevant columns
df1 = df1.dropna().drop('SeqName',axis=1).drop_duplicates('ending')
#create ending column here as well
df['ending'] = df['Acc_number'].str.extract(r'((?<=ACC)\d)')
#merge acc_number with the ending to serve as unique identifier
df['ending'] = df['ending'].str.cat(df['Acc_number'].str.extract(r'((?<=P_).*)'),sep='_')
#merge both dataframes
(df
.merge(df1,on='ending',how='left')
#keep only relevant columns
.filter(['Acc_number','Cluster_nb'])
#create present column
.assign(present = lambda x: np.where(x.Cluster_nb.isna(),'no','yes'))
.rename(columns={'Cluster_nb':'cluster'})
)
Acc_number cluster present
0 ACC1.1_CP_Sp1_1 Cluster1 yes
1 ACC2.1_CP_Sp1_1 Cluster2 yes
2 ACC3.1_CP_Sp1_1 NaN no
3 ACC4.1_CP_Sp1_1 NaN no
关于python - 检查两个 df 是否相同模式并在 pandas 中使用 groupby,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60949091/
给定输入: [1, 2, 3, 4, 5, 6, 7, 8, 9, 10] 将数字按奇数或偶数分组,然后按小于或大于 5 分组。 预期输出: [[1, 3, 5], [2, 4], [6, 8, 10
编辑: @coldspeed、@wen-ben、@ALollz 指出了我在字符串 np.nan 中犯的新手错误。答案很好,所以我不删除这个问题来保留那些答案。 原文: 我读过这个问题/答案 What'
我试图概括我提出的问题 here . mlb 数据框看起来像 Player Position Salary Year 0 Mike Wit
我认为我不需要共享整个数据框,但基本上,这是有问题的代码行(当然,已经导入了 pandas) divstack = df[df['Competitor']=='Emma Slabach'].group
我面临下一个问题:我有组(按 ID),对于所有这些组,我需要应用以下代码:如果组内位置之间的距离在 3 米以内,则需要将它们添加在一起,因此将创建一个新组(代码如何创建我在下面显示的组)。现在,我想要
我有以下数据: ,dateTime,magnitude,occurrence,dateTime_s 1,2017-11-20 08:00:09.052260,12861,1,2017-11-20 08
我按感兴趣的列对 df 进行分组: grouped = df.groupby('columnA') 现在我只想保留至少有 5 名成员的组: grouped.filter(lambda x: len(x
数据是一个时间序列,许多成员 ID 与许多类别相关联: data_df = pd.DataFrame({'Date': ['2018-09-14 00:00:22',
选择 u.UM_TOKEN_NO 、u.UM_FULLNAME、u.SECTOR、u.department_name、t.TS_PROJECT_CODE、sum(t.TS_TOTAL_HRS) 来自
我有这两个表: +---------------+-------------+---------------------+----------+---------+ | items_ordered |
我正在使用 groupby 和 sum 快速汇总两个数据集 一个包含: sequence shares 1 100 2 200 3 50 1 2
这个问题在这里已经有了答案: list around groupby results in empty groups (3 个答案) itertools groupby object not out
我有一组行,我想按标识符的值进行分组 - 存在于每一行中 - 然后对将作为结果的组进行进一步的隔离处理。 我的数据框是这样的: In [50]: df Out[50]: groupkey b
假设您要在全局范围内销售产品,并且希望在某个主要城市的某个地方设立销售办事处。您的决定将完全基于销售数字。 这将是您的(简化的)销售数据: df={ 'Product':'Chair', 'Count
我有一个将数据分组两次的查询: var query = (from a in Context.SetA() from b in Context.SetB().Where(x => x.aId == a
我有一个这种格式的数据框: value identifier 2007-01-01 0.087085 55 2007-01-01 0.703249
这个问题在这里已经有了答案: python groupby behaviour? (3 个答案) 关闭 4 年前。 我有一个这样的列表 [u'201003', u'200403', u'200803
在 Python 中,我可以使用 itertools.groupby 将具有相同键的连续元素分组。 : >>> items = [(1, 2), (1, 5), (1, 3), (2, 9), (3,
无法翻译以下 GroupBy 查询并将引发错误:不支持客户端 GroupBy IEnumerable ids = new List { 1, 2, 3 }; var q = db.Comments.W
考虑一个 Spark DataFrame,其中只有很少的列。目标是对其执行 groupBy 操作,而不将其转换为 Pandas DataFrame。等效的 Pandas groupBy 代码如下所示:
我是一名优秀的程序员,十分优秀!