- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在研究与移动分析相关的 AWS 服务,因为我们使用 AWS 作为我们的后端基础设施,现在想了解如何最好地利用 Pinpoint 和/或 Kinesis 以最终将事件存储在 S3 中以供以后分析。
Pinpoint 提供分析并有一些标准事件和自定义事件。这些具有 90 天的保留期,但允许与 Kinesis 连接以无限期存储事件:
https://docs.aws.amazon.com/pinpoint/latest/userguide/analytics-streaming.html
这听起来不错。
我还在 AWS Amplify 的网站上看到,可以使用 Pinpoint 和 Kinesis 完成分析:
https://aws-amplify.github.io/docs/ios/analytics#analytics
是否可以在没有 Pinpoint 的情况下完成分析以及它看起来如何? 它似乎只是提供了将任何数据从移动设备发送到 Kinesis 流的可能性,而不是分析。正确的?
我希望如果使用 Pinpoint 收集标准和自定义事件,它已经可以最佳地执行 Kinesis 描述的所有内容,如何优化性能和电池。因此,如果将 Pinpoint 连接(在 Pinpoint 设置中)与 Kinesis 一起使用,则所有这些都已提供,因此不需要从移动设备与 Kinesis 直接连接。正确的?
如果有人对此或相关经验有深入的了解,如果您分享它,我会很高兴,因为不清楚究竟会发生什么。谢谢!
最佳答案
从我的研究来看,直接流式传输到 Kinesis 似乎更像是一种手动方法,至少对于 javascript,它通过手动包含您要发送的数据来显示将 kinesis 集成到您的代码中,也就是说,对于您执行的每个事件进行分析.record() 上,您可以包含他们按下的按钮或您查询的其他信息。除了最基本的准系统框架代码说明在何处包含您的数据之外,没有太多关于如何实际使用这种方法的文档。 ( https://docs.amplify.aws/lib/analytics/streaming/q/platform/js )
另一方面,使用 Pinpoint,似乎有更多的结构包含名称、属性等字段。我想这可以通过 Kinesis 手动完成,但对其进行格式化并让所有数据都可以很好地格式化并制作感觉可能更难。
我认为 Pinpoint 的主要优势在于它强加给数据的结构和易用性。似乎有更多关于如何将数据从 Pinpoint 导出到 Kinesis 并将其与其他 AWS 服务一起使用的文档。目前还没有关于哪种最好的明确答案,但似乎精确定位是更容易、更不容易出错的方法(但需要付出代价,因为您必须为另一项服务付费,原则上如果你愿意自己配置一切)
关于amazon-web-services - Pinpoint 连接到 Kinesis 与直接流式传输到 Kinesis 的移动应用程序有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55355202/
我有一个带有 2 个分片的 kinesis 流,如下所示: { "StreamDescription": { "StreamStatus": "ACTIVE",
我们可以从单个 Kinesis Firehose 获得多个目的地吗?我看到了这张图片 由此看来,可以从单个 Firehose 添加 s3、红移和 Elasticsearch 。我正是想这样做。 但是当
我正在尝试在流级别收集 Kinesis 的指标,更具体地说,我想获得工作进程/消费者进程在流级别落后的计数,我不关心分片级别的滞后.我在 AWS 文档上找到了一个计算消耗滞后的示例,但它计算的是滞后时
是否可以定义一个具有滑动间隔的窗口?例如。我需要每 10 秒计算过去 30 秒的总和吗? Kinesis Analytics SQL 是否支持此类具有重叠的滑动窗口? 最佳答案 我认为跳窗代表你的需求
我想将来自 AWS Kinesis 流的消息处理延迟一小时。我已将 KCL 使用者配置为每四分钟读取一批记录,检查每条记录的时间戳,并在任何记录不到一小时的情况下停止处理该批处理,没有检查点。我希望同
将分片拆分为 2 个子分片时,父分片将关闭。当发生这种情况时,期望记录处理器(此处使用 KCL)将检查点,如以下 KCL 源代码所示: try { recordProc
在生产者-消费者 Web 应用程序中,为 kinesis 流分片创建分区键的思考过程应该是什么。 假设,我有一个包含 16 个分片的 kinesis 流,我应该创建多少个分区键?它真的取决于分片的数量
有没有办法创建具有缓冲区限制的 Kinesis 使用者?赞 here : #Flush when buffer exceeds 100000 Amazon Kinesis records, 64 MB
他们似乎对我做同样的事情。任何人都可以向我解释其中的区别吗? 最佳答案 两者的高层次区别: 运动流 允许您生成和使用大量数据(日志、Web 数据等),其中 DynamoDB 流 是 DynamoDB
从文档中可以清楚地看出,当以 TRIM_HORIZON 作为迭代器类型启动 KCL 应用程序时,将从流的开头读取记录。文档还提到应用程序的状态是通过使用检查点在 DynamoDB 表中维护的。 但是我
我的问题 我有一个日志管道,其中使用 Filebeat 将日志写入文件并发送到 ElasticSearch。 .我想从 ElasticSearch 切换到 AWS Kinesis,我想知道为新输出配置
我正在尝试通过 Amazon Kinesis 抽取大量数据(每秒订购 10,000 个点)。 为了通过我的分片最大限度地提高每秒记录数,我想通过分片循环我的请求(我的应用程序逻辑不关心分片单个消息去哪
无法打开与monitoring.us-east-1.amazonaws.com:443的连接:连接到AWS kinesis时证书验证失败 public static KinesisProducer g
我正在将 Java API 用于 Kinesis Firehose,并在可能的情况下利用 putRecordBatch()。但是,在我的应用程序中,我偶尔只发送一条记录,无法等待更多记录或将其缓存在内
添加时aws-xray-recorder-sdk-aws-sdk-instrumentor KCL 提出 SegmentNotFoundException . 据我所知,这是因为 KCL 正在启动他们
我正在研究与移动分析相关的 AWS 服务,因为我们使用 AWS 作为我们的后端基础设施,现在想了解如何最好地利用 Pinpoint 和/或 Kinesis 以最终将事件存储在 S3 中以供以后分析。
Kinesis Firehose 以及 Kinesis Streams 用于根据 AWS 博客中提到的详细信息加载流数据。对于 Firehose,没有分片或维护的概念。在这种情况下,Kinesis F
Firehose 是完全托管的,而 Streams 是手动管理的。 如果其他人知道其他主要差异,请添加它们。我只是在学习。 谢谢.. 最佳答案 Amazon Kinesis Data Firehose
我正在做一个点击跟踪项目,我正在使用 Snowplow (开源)为此。我正在使用 Scala 扫雪机收集器来收集数据并将其路由到 Amazon Kinesis。但是,当我使用此配置启动它时: coll
我正在尝试发送 HTTP Post 请求以将记录放入 Amazon Kinesis Stream。有多种方法(Kinesis 客户端、KPL、将 AWS 网关设置为 Kinesis 代理)。 我看到了
我是一名优秀的程序员,十分优秀!