- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在 AzureSynapse 无服务器池中定义了一个 View ,它使用 openrowset 获取数据。我在专用 sql 池中的表中也有数据。
我可以做一个连接这两个表的 sql 查询吗?
最佳答案
Azure Synapse Analytics 确实有三个独立的引擎(至少我是这么认为的),您的 SQL 查询必须从这些引擎之一执行,这为您提供了选择:
OPENROWSET
查询,或许可以到转载 它在专用内,例如作为外部表。如果您已经在 serverless 中创建了一个 View ,那么此时无法直接从专用的引用它。 Dedicated 不像 serverless 那样支持 OPENROWSET(此时)。CREATE EXTERNAL TABLE AS (CETAS)
将其转储出来。进入您的数据湖,然后您可以使用另一个 OPENROWSET
从无服务器读取它询问。spark.read.synapsesql
一样简单名称由三部分组成。这是一个简单的例子(在 Scala 中)val dfNation = spark.read.synapsesql("tpch_ded.dbo.nation")
dfNation.show
dfNation.createOrReplaceTempView("nation")
Class.forName("com.microsoft.sqlserver.jdbc.SQLServerDriver");
val jdbcHostname = "XXX-ondemand.sql.azuresynapse.net"
val jdbcPort = 1433
val jdbcDatabase = "master"
//Create connection String
val jdbcUrl = s"jdbc:sqlserver://${jdbcHostname}:${jdbcPort};database=${jdbcDatabase};encrypt=true;trustServerCertificate=false;hostNameInCertificate=*.database.windows.net;loginTimeout=60;"
import java.util.Properties
val props = new Properties()
val jdbcUsername = "someSQLUser"
val jdbcPassword = "xxx"
props.put("user", s"${jdbcUsername}")
props.put("password", s"${jdbcPassword}")
val driverClass = "com.microsoft.sqlserver.jdbc.SQLServerDriver"
props.put("Driver", s"${driverClass}")
val sqlQuery = """select top 10 *
from openrowset(
bulk 'https://pandemicdatalake.blob.core.windows.net/public/curated/covid-19/ecdc_cases/latest/ecdc_cases.parquet',
format = 'parquet') AS rows"""
// this worked but isn't using the prop object
val df = spark.read.format("jdbc").
option("url", jdbcUrl).
option("user", s"${jdbcUsername}").
option("password", s"${jdbcPassword}").
option("Driver", s"${driverClass}").
option("query", sqlQuery).
load()
df.show(false)
因此,您可以使用
join
将两个数据帧放在笔记本中. Spark 池和无服务器 SQL 池也有
shared metadata model所以你可以在 Spark 中创建托管\非托管表,它们出现在无服务器中。更好的例子
here .
关于azure-synapse - 从专用 sql 池和无服务器 sql 池加入 Azure Synapse 中的数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/66531172/
当存储帐户访问 key 被禁用时,Dataverse 的突触链接运行正常。我们可以创建新记录,这里没有问题。但当存储帐户 key 被禁用时,它无法为 Dataverse 设置新的突触链接。有人以前见过
是否有计划支持专用池的开放行集?优点: 比外部文件格式更多(更快)的解析器选项,例如行分隔符 可以自动推断模式 直接定义文件格式更方便 最佳答案 这是一个很棒的功能请求,安德斯。我看到您已经创建了一个
我有一个天蓝色的突触工作区,其中包含无服务器 SQL 池中的许多管道和外部表。所有这些都与一个特定项目相关。 还有另外 2-3 个完全独立的项目正在进行中,需要突触工具集。 我应该创建一个新的工作区,
我有一个天蓝色的突触工作区,其中包含无服务器 SQL 池中的许多管道和外部表。所有这些都与一个特定项目相关。 还有另外 2-3 个完全独立的项目正在进行中,需要突触工具集。 我应该创建一个新的工作区,
能否请您帮助我在 Azure Synapse 中使用 FOR XML PATH。如果不是,还有什么选择。 谢谢 最佳答案 如果您希望使用 FOR XML 来准备,例如动态数据透视查询的列名,那么 st
编辑:这是一个连接到 git 存储库的工作区。如果我向处于“实时”模式的工作区添加触发器,触发器将显示。如何将触发器添加到设置到 git 存储库的工作区? 使用 Azure Synapse,我在创建和
我在 AzureSynapse 无服务器池中定义了一个 View ,它使用 openrowset 获取数据。我在专用 sql 池中的表中也有数据。 我可以做一个连接这两个表的 sql 查询吗? 最佳答
我在 Synapse 工作区中有一个主管道,其中有 2 个事件: 第一 - 笔记本事件 第二 - If 条件事件 对于第一个(Synapse 笔记本、spark 池、pyspark),我有一个如下所示
我在 Synapse 工作区中有一个主管道,其中有 2 个事件: 第一 - 笔记本事件 第二 - If 条件事件 对于第一个(Synapse 笔记本、spark 池、pyspark),我有一个如下所示
我们将从本地迁移到 Azure,并将使用 Azure Synapse。我们的转换主要是从 SQL 存储过程的直接迁移开始。 查看高级文档,我没有发现 ADF 和 Azure Synapse Pipel
最近,我们将专用 SQL 池部署到生产中的 Synapse 工作区。在开发中,我们可以访问无服务器 SQL 池和专用 SQL 池。但是,在生产中,我们可以访问无服务器 SQL 池,但无法访问专用 SQ
我正在尝试克隆 Synapse Serverless SQL 数据库,以便可以使用它进行测试。 当我在 Synapse Studio 中单击 SQL 数据库时,没有克隆选项。 No 'Clone' o
我正在尝试克隆 Synapse Serverless SQL 数据库,以便可以使用它进行测试。 当我在 Synapse Studio 中单击 SQL 数据库时,没有克隆选项。 No 'Clone' o
根据Doc。这是否意味着,目前数据库设计器不支持Delta格式来可视化地创建Lake数据库表?
以下 Azure 服务之间有什么区别? Azure Synapse Analytics(以前称为 SQL DW) Azure Synapse Analytics(专用链接中心预览版) Azure Sy
以下 Azure 服务之间有什么区别? Azure Synapse Analytics(以前称为 SQL DW) Azure Synapse Analytics(专用链接中心预览版) Azure Sy
我正在尝试使用 Synapse Pipelines 中的 Notebook Activity 执行 Azure Synapse Notebook,它在调试 Pipelines 时不断出现错误,Note
我有一个表,由于名称列中的差异,它为相同的ID返回多个行。有些名字在名字后面加上中间字母,或者在姓氏后面加上后缀。在下面的示例中,我只想要第一行,因为它有完整的名称。。我尝试按名称长度进行排名,但因未
我有一个表,由于名称列中的差异,它为相同的ID返回多个行。有些名字在名字后面加上中间字母,或者在姓氏后面加上后缀。在下面的示例中,我只想要第一行,因为它有完整的名称。。我尝试按名称长度进行排名,但因未
我们在目录和订阅(我们将其称为目录_1 和订阅_1)下有不同的资源(存储帐户、逻辑应用、SQL 数据库、SQL Server、Synapse 工作区) 这些资源用于执行简单的 ETL 管道。 我们希望
我是一名优秀的程序员,十分优秀!