- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
使用 Core Text 获取给定文本行边界的最简单准确方法是什么?
我尝试了多种技术,但得到的结果不一致。
我一直在努力弄清楚如何找到目前单行文本的实际范围。
Core Text 文档在框架、行和运行级别例程返回什么方面充其量是不完整的,声明它们返回“实际”边界,而实际上它们不同意(至少在框架级别),并且不' 返回特定字符串的实际边界,但返回的大小似乎大于字体大小的预测值。
但是,当我获得单个字形的边界时,我确实看到了不同字符之间的差异,这表明这是唯一准确的方法(遍历所有字形,找到它们的有效并集)。
我已经在 playground 文件中编写了一些测试,我是否遗漏了一些明显的东西?我的最终目标(部分/大部分工作)是拥有一个自定义 CALayer,它接受一个属性字符串,并将其缩放以填充整个边界。这与自动布局配合得很好,因为我可以根据需要创建一个随布局缩放的标签。
下面是我的 playground 片段,请注意右栏中生成的值。
// Playground - noun: a place where people can play
import UIKit
import CoreText
import QuartzCore
print("start")
let f = UIFont.systemFontOfSize(12)
let t = NSAttributedString(string: "A", attributes: [NSFontAttributeName:f])
let line = CTLineCreateWithAttributedString(t)
var ascent:CGFloat = 0, descent:CGFloat = 0, leading:CGFloat = 0
CTLineGetTypographicBounds(line, &ascent, &descent, &leading)
ascent
descent
ascent + descent
leading
let boundingSize = CGSizeMake(CGFloat.max, CGFloat.max)
let fs = CTFramesetterCreateWithAttributedString(t)
let frameSize = CTFramesetterSuggestFrameSizeWithConstraints(fs, CFRangeMake(0, t.length),
nil, boundingSize, nil)
frameSize
let lineWidth = frameSize.width
let lineHeight = frameSize.height
// for each run
let runs = CTLineGetGlyphRuns(line) as [AnyObject] as! [CTRun]
for (runIndex, run) in runs.enumerate() {
// get font
let attributes = CTRunGetAttributes(run) as NSDictionary as! [String:AnyObject]
let runFont:CTFont = attributes[kCTFontAttributeName as String] as! CTFont
// get glyphs for current run
let glyphCount = CTRunGetGlyphCount(run)
let range = CFRangeMake(0, glyphCount)
var glyphs = Array<CGGlyph>(count: glyphCount, repeatedValue: CGGlyph())
var positions = [CGPoint](count: glyphCount, repeatedValue: CGPointZero)
CTRunGetGlyphs(run, range, &glyphs)
CTRunGetPositions(run, range, &positions)
let runWidth = CTRunGetTypographicBounds(run, range, &ascent, &descent, &leading)
runWidth
ascent
descent
leading
// for each glyph in run
for (glyphInRun, var glyph) in glyphs.enumerate() {
let glyphFrame = withUnsafePointer(&glyph) { pointer -> CGRect in
return CTFontGetBoundingRectsForGlyphs(runFont, .Default, pointer, nil, 1) }
glyphFrame.size
}
}
print("done")
谢谢!
最佳答案
您正在使用 CTRunGetTypographicBounds
。排版边界是指用于排版的边界,因此上升、下降和前进是基于字体规范,而不是运行中字形的实际外观。
听起来您想要 CTRunGetImageBounds
,它返回一个“紧密包围运行字形路径”的 CGRect
。请注意,您可以为上下文参数传递 nil
(在我的测试中)。
关于ios - 核心文本 : Simplest accurate means of getting text bounds?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33509662/
入门教程使用内置的梯度下降优化器非常有意义。但是,k均值不仅可以插入梯度下降中。似乎我不得不编写自己的优化程序,但是鉴于TensorFlow原语,我不确定如何执行此操作。 我应该采取什么方法? 最佳答
我想知道 K-Mean 和 K-Means++ 算法之间的区别。如果有人了解 K-Means++ 算法的流程,您能举例说明一下吗?虽然,我了解 K-Mean 算法,但发现如何实现 K-Means++
我有不同的数据帧均值计算值。通常,我想它们应该是一样的。或者有什么区别: daily1 = daily_above_zero['2011-2'].mean() daily1 Out[181]: P_S
我有关于人们每周上类旅行次数的数据。随着行程的距离,我对两个变量之间的关系感兴趣。 (预计频率会随着距离的增加而下降,本质上是一种负相关。)Cor.test 支持这个假设:-0.08993444,p
我了解 k-means 算法步骤。 但是我不确定该算法是否会始终收敛?或者观察总是可以从一个质心切换到另一个质心? 最佳答案 该算法总是收敛(按定义)但 不一定是全局最优 . 算法可能会从质心切换到质
(添加了可重现的示例。) 我对 rnorm 函数有点困惑。 我期待 mean(rnorm(100,mean=0,sd=1))为0;和 sd(rnorm(100,mean=0,sd=1))为 1。但给出
我想计算一个平均值。这是带有示例数据的代码: # sample data Nr <- c(1, 2, 3, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17,
我有一个像这样的数据框: Id F M R 7 1 286 907 12 1 286 907 17 1 186 1271 21 1 296 905 30 1
如果我们将 K-means 和顺序 K-means 方法应用于具有相同初始设置的相同数据集,我们会得到相同的结果吗?解释你的理由。 个人认为答案是否定的,顺序K-means得到的结果取决于数据点的呈现
我想使用 MEAN JavaScript 堆栈,但我注意到有两个不同的堆栈,它们有自己的网站和安装方法:mean.js 和 mean.io。所以我开始问自己这个问题:“我用哪一个?”。 所以为了回答这
似乎有多种方法可以安装 Mean Stack (mean.io) 的所有模块。但是,在 c9.io 中执行此操作的最佳方法是什么?我一直在尝试很多事情,但我似乎并没有全部掌握。 c9.io 有专门的
在开发过程中,我希望加载原始(未聚合).js 文件。 Mean.io 文档说: All javascript within public is automatically aggregated wit
我正在尝试添加 angular-material到 mean.io应用。 在我的自定义包中,我使用 bower 来安装 angular-material,现在我有一个 .../public/asset
我只运行以下三行: df = pd.read_hdf('data.h5') print(df.mean()) print(df['derived_3'].mean()) 第一个 print 列出了每一
k-means++算法有助于原始k-means算法的以下两点: 原始的 k-means 算法在输入大小的 super 多项式的最坏情况下运行时间,而 k-means++ 声称是 O(log k)。 与
这两个字段有什么区别? : 每个请求的时间(平均) 每个请求的时间(平均,跨所有并发请求) 它们每个是如何计算的? 示例输出: Time per request: 3953.446 [ms
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 7年前关闭。 Improve this qu
我想看看是否可以根据它们所处理的目标函数来比较两者的性能? 最佳答案 顺便说一句,Fuzzy-C-Means (FCM) 聚类算法也称为Soft K-Means。 目标函数实际上是相同的,唯一的区别是
虽然我看到了很多与此相关的问题,但我并没有真正得到答案,可能是因为我是使用 nltk 集群的新手。我确实需要对聚类新手进行基本解释,特别是关于 NLTK K 均值聚类的向量表示以及如何使用它。我有一个
我在学习mean.io来自 this tutorial video ,它显示了示例包(由 mean package mymodule 创建。它也在 docs 的“包”下进行了描述)。我想帮助了解给定的
我是一名优秀的程序员,十分优秀!