运行 Scala 代码时出错 - Databricks 7.3LTS 及更高版本

发布于 2025-01-18 05:29:40 字数 571 浏览 1 评论 0原文

我正在运行 databricks 7.3LTS,并在尝试使用 scala 批量复制时遇到错误。 错误是: 对象 sqldb 不是 com.microsoft 包的成员。 我已经安装了正确的 sqlconnector 驱动程序,但不确定如何修复此错误。 安装的驱动程序是:

com.microsoft.azure:spark-mssql-connector_2.12:1.1.0.

我还安装了 JAR 依赖项,如下所示:

spark_mssql_connector_2_12_1_1_0.jar

我在互联网上找不到上述配置的任何 scala 代码示例。 我的 scala 代码示例如下:

%scala
import com.microsoft.azure.sqldb.spark.config.Config

一旦我运行此命令,我就会收到错误,

Object sqldb is not a member of package com.microsoft.azure

请提供帮助

I am running databricks 7.3LTS and having errors while trying to use scala bulk copy.
The error is:
object sqldb is not a member of package com.microsoft.
I have installed correct sqlconnector drivers but not sure how to fix this error.
The installed drivers are:

com.microsoft.azure:spark-mssql-connector_2.12:1.1.0.

also i have installed the JAR dependencies as below:

spark_mssql_connector_2_12_1_1_0.jar

i couldnt find any scala code example for the above configurations on the internet.
my scala code sample is as below:

%scala
import com.microsoft.azure.sqldb.spark.config.Config

as soon as i run this command i get the error

Object sqldb is not a member of package com.microsoft.azure

any help please

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

_蜘蛛 2025-01-25 05:29:40

In the new connector you need to use

In the new connector you need to use com.microsoft.sqlserver.jdbc.spark.SQLServerBulkJdbcOptions class to specify bulk copy options.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文