使用Spark Connector读写AWS Keypace的问题

发布于 2025-01-28 13:31:08 字数 275 浏览 6 评论 0 原文

我正在尝试在AWS Keyspace上编写读写一些数据,但是出现以下消息。

版本: 火花:2.4.6 卡桑德拉连接器:2.5.2 Scala:2.11.10

新版本和旧版本问题也发生。

I'm trying to write read and write some data on aws keyspace, but the following message appears.

enter image description here

Versions:
Spark: 2.4.6
Cassandra connector: 2.5.2
Scala: 2.11.10

New and old version problems occurs too.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

你与清晨阳光 2025-02-04 13:31:08

此错误是无法查看System.Peers表。 Spark需要同行表信息以获取令牌信息。

  1. 检查他们是否可以访问读取系统表。如果您使用的是公共端点,则应该有9个,如果使用VPCE,则应该为每个可用性区域都有一个。
    选择 *从System.peers 选择 *

如果使用VPC端点检查检查是否有设置

 {
         "Sid":"ListVPCEndpoints",
         "Effect":"Allow",
         "Action":[
            "ec2:DescribeNetworkInterfaces",
            "ec2:DescribeVpcEndpoints"
         ],
         "Resource":"*"
      }

以下示例是如何使用火花/胶将密钥空间数据导出到S3。

This error is do to not being able to see system.peers table. Spark requires the peers table info to get the token information.

  1. check if they have access to read the system tables. If you are using a public endpoint you should have 9 and if you are using a VPCE you should have one for each availability zone.
    SELECT * FROM system.peers

If you are using a vpc endpoint check to see if you have setup the right permissions.

 {
         "Sid":"ListVPCEndpoints",
         "Effect":"Allow",
         "Action":[
            "ec2:DescribeNetworkInterfaces",
            "ec2:DescribeVpcEndpoints"
         ],
         "Resource":"*"
      }

The following example is how to using Spark/Glue to export Keyspaces data to S3.
https://github.com/aws-samples/amazon-keyspaces-examples/tree/main/scala/datastax-v4/aws-glue/export-to-s3

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文