有没有好用的大数据ETL工具
目前业界有没有好用的etl工具?用于数据仓库建设的。
1、hadoop的oozie和azkaban用了下感觉更适合小型任务的,但在数据仓库建设中感觉会十分麻烦。
2、ETL Automation、kettle等适合于oracle等,不太适合hadoop等。
3、自己开发ETL了,有些互联网公司就是这么干的。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(7)
是要用于大数据的管理吗
大数据ETL工具最主要的就是平台发建设,而Datastreams在这方面一直都力求不断创新。
便捷性:
Datastreams已经拥有数据整合平台,所以领域扩张到大数据很自然很容易。不仅增设了用户不懂操作方法也能使用的和同一平台hadoop一样的大数据部件。Hadoop作为TeraStream的一部分运行,用户使用很便利。
技术优势:
Datastreams把它定位在大型数据处理技术和速度、数据容量上。当时使用的是甲骨文关联的数据库,但因为它不能运行复杂的运算系统导致不同用户的速度差很明显,还有数据容量小的问题。
Datastreams的产品是有特别大数据容量缩短数据处理时间的超高速引擎。通过数据整合使用此技术。最初介绍此技术时相关行业都评价说是相当创新的技术
技术创新:
持有录入项目、文脉及含义的数据用语词典。所有定义都存储在元数据管理方案中。还有一点是地址。移动时收集的数据会变成旧数据只要不更新就无法使用数据。
MetaStream软件可以将这些数据标准化。而且相对来说数据之间数据的状态会不太好,因此由于限制搜索结果的无数对比会需要许多电脑资源。所以用标准化形态去维护数据非常重要。MetaStream可以进行这一作业。
你是准备ETL之后把数据放进传统的SQL数据仓库么?
如果数据量非常大,可以试着直接存放在Hadoop或者NonSQL数据库,比如Cassandra。然后在这基础上使用一些SQL on Hadoop的方案去查询数据,比如Spark,或者Impala等。也有个中国人做的开源产品Apache Kylin,可以一看。
大数据的时代,etl工具会节约很多的成本
kettle处理json不太好,因为我这边存储在hbase中,hive转换,不太顺
如今就是一个大数据时代的社会
同意楼上“大数据的时代,etl工具会节约很多的成本“
做过几个集成大项目:数据时代,海量信息时代爆发。
世界已是地球村,分工越来越精细,需要的是快速、
便捷专业的产品化工具和优质的服务。
精打细算后用ETL工具可以节省很多的成本:
上线部署时间,后期维护成本......
中国市场本身就急缺的即懂业务又懂集成的工程师。
所以用成熟的产品化ETL工具可以给工程师极大的提高集成效率
(即节省成本)“工欲善其事,必先利其器 ”
所谓 “学有所长,术有专攻”:
请参考专注十年有余ETL工具产品 : Beeload/BeeDI
http://www.livbee.com
推荐BeeDI 工具