我可以在火花池突触中运行存储过程吗?

发布于 2025-02-08 02:05:06 字数 91 浏览 2 评论 0原文

我想知道如何在我在专用SQL池中创建的Spark Pool(Azure Synapse)中运行存储过程。另外,我们可以运行SQL查询以访问笔记本中DDSQL池中的数据。

I wanted to know how we can run stored procedure in spark pool (azure synapse) which i have created in dedicated SQL pool. Also can we run SQL queries to access data in ddsql pool in notebook.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

酒绊 2025-02-15 02:05:06

可以执行此操作(例如,使用odbc连接如所述在这里进行编排的管道:

  1. 运行存储的PROC活动,该活动将您想要使用的数据放在相关的表或存储帐户中
  2. 使用spark.spark.Synapsesql方法,请详细描述在这里

模式:

“在此处输入图像描述”

您是否有一个特定原因将SQL池中的现有数据复制到Spark中?我做的模式非常相似,但是将其保留给我在SQL中所无法做的事情,例如复杂的变换,正则高度,硬数学,复杂的字符串操纵等

It is possible to do this (eg using an ODBC connection as described here) but you would be better off just using a Synapse Pipeline to do the orchestration:

  1. run a stored Proc activity which places the data you want to work with in a relevant table or storage account
  2. call a notebook activity using the spark.read.synapsesql method as described in detail here.

The pattern:

enter image description here

Is there a particular reason you are copying existing data from the sql pool into Spark? I do a very similar pattern but reserve it for things I can't already do in SQL, such as sophisticated transform, RegEx, hard maths, complex string manipulation etc

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文