- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
假设我有这个有效的微数据增强 HTML 片段:
<div itemscope itemtype="http://schema.org/Corporation">
<div itemprop="legalName">Example</div>
</div>
(我已经用谷歌的结构化数据测试工具对此进行了测试。)
现在我想添加一个在 schema.org 中不可用但在不同词汇中的属性(在本例中为 W3C 注册的 Org Vocab [1]):
<div itemscope itemtype="http://schema.org/Corporation">
<div itemprop="legalName">Example</div>
<div itemprop="http://www.w3.org/ns/regorg#registration">XXX</div>
</div>
至少谷歌声称:
错误:页面包含不属于架构一部分的属性“http://www.w3.org/ns/regorg#registration”。
我可以删除 itemtype
但我不想这样做,因为它会丢失保真度 [2]没有其他方法可以做到这一点吗?使用 RDFa,这将不是问题。
编辑
我发现 [3] 建议复制内容,但这显然不是一个好的解决方案。
[1] http://www.w3.org/TR/vocab-regorg/#ref_rov_registration
[2] Using itemprop without itemtype
[3] http://www.w3.org/wiki/Mixing_HTML_Data_Formats#Mixing_Vocabularies_using_Repeated_Content
最佳答案
微数据(W3C 注释)定义 which values itemprop
may have .
始终允许使用绝对 URI 作为 itemprop
值。
除非词汇表(如 schema.org)指定在此上下文中使用 http://www.w3.org/ns/regorg#registration
值(“[...] 允许在这种情况由词汇规范”),它会是
[…] a proprietary item property name (i.e. one used by the author for private purposes, not defined in a public specification)
Google 的结构化数据测试工具不是验证器。它主要关注的是报告有关 Google 私下使用 schema.org 的警告,这就是为什么您也可能会收到有关缺少“必需”属性的警告(但根本没有 schema.org doesn’t define any required properties)。
FWIW,Yandex’ Structured data validator不报告使用绝对 URI 作为值的问题。
关于microdata - How to use multiple Vocabularies with HTML5 Microdata (different vocab than schema.org),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21757705/
当处理数百万文档并将它们保存为空间文档以供以后使用(更多处理、可视化、提取特征)时,一种明显的扩展解决方案是并行/分布式处理。这意味着每个并行进程都将拥有自己的 Vocab,这些 Vocab 可能会随
这不是一个新问题,我找到的引用文献没有任何适合我的解决方案 first和 second .我是 PyTorch 的新手,面对 AttributeError: 'Field' object has no
下面的代码是获取每个句子的文档的示例代码。 Get docs 为了获取每个单词的属性,我们使用文档,示例代码如下。 Get Tokens 通过深入挖掘 spacy 代码,我发现对于每个名词,我们确实有
我正在处理约 10 万篇研究论文的语料库。我正在考虑三个领域: 明文 标题 摘要 我使用 TfIdfVectorizer 获取明文字段的 TfIdf 表示,并将由此产生的词汇反馈回标题和摘要的 Vec
什么是@vocab JSON-LD 中的属性?正如我所见,您可以“导入”远程词汇表,但这与您可以使用 @context 做的事情不一样吗? ?如果我没有错,那么您可以为 @context“导入”远程源
我正在尝试使用来自 TensorFlow Hub 的 Bert 并构建一个分词器,这就是我正在做的: >>> import tensorflow_hub as hub >>> from bert.to
我看到别人的BERT模型,其中vocab.txt的大小是22110,但是bert_config.json中vocab_size参数的值为21128。 我明白这两个数字一定是完全一样的。是吗? 最佳答案
假设我有这个有效的微数据增强 HTML 片段: Example (我已经用谷歌的结构化数据测试工具对此进行了测试。) 现在我想添加一个在 schema.org 中不可用但在不同词汇中的属性(在
此问题适合那些熟悉 GPT 或 GPT2 的人OpenAI 模型。特别是编码任务(字节对编码)。这是我的问题: 我想知道如何创建自己的 vocab.bpe 文件。 我有一个西类牙语语料库文本,我想用它
当我尝试查看批处理时,通过打印 BucketIterator 对象的下一次迭代,抛出了 AttributeError。 tv_datafields=[("Tweet",TEXT), ("Anger",
我正在执行的所有代码是: from __future__ import unicode_literals import spacy from spacy.vocab import Vocab nlp
我是一名优秀的程序员,十分优秀!