JDBC Sink Connector 与 Redshift Sink Connector 之间的区别
我是 Kafka 新手,我想知道为什么有特定的数据库连接器(例如 Redshift Sink Connector)以及为什么我们不应该使用通用 JDBC 接收器连接器。两者有什么优点或者区别。
此外,Redshift Sink 连接器的性能很差。有什么办法可以改进吗?
I'm new to Kafka and I would like to know why there are specific Database connectors like Redshift Sink Connector and why we should not go for generic JDBC sink connectors. What are the advantages or differences between both.
Also, the Redshift Sink connector is giving me poor performance. Is there anyway to improve the same?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
因为有一个 为 Redshift 编写的 Java AWS SDK,这就是该连接器使用的内容。
JDBC 接收器连接器对 AWS 开发工具包没有硬依赖性
理想情况下,我认为您不想在 Connect API 配置中公开您的 AWS 凭证。
此外,Confluence 连接器可能不支持 Redshift JDBC“方言”
Because there is a Java AWS SDK written for Redshift, and this is what that connector uses.
The JDBC Sink connector has no hard-dependency on the AWS SDK
Ideally, you don't want to expose your AWS credentials in the Connect API configurations, I assume.
Also, the Redshift JDBC "dialect" might not be supported by the Confluent Connector