红移,创建一个带有生成系列的表的错误
我正在尝试将生成的日期系列保存在Redshit上的临时表中: drop table if exists date_list; create temporary table date_list as with seq as( selec…
蜂巢tblproperties等于pyspark中的parquet文件
我正在将HQL脚本转换为Pyspark。 hql代码: show tblproperties tblname('transient_lastddltime') 我想要parquet文件的“ transient_lastddltime”…
Hive加入表并创建2个不同的表格
我正在使用Hive .14进行学校项目(因此不能使用更好的版本),目前我分析了纽约Uber获取的数据。我使用2个表:YellowTaxi22,以获取有关Uber旅行的信…
失败:ParseException行3:0无法识别附近的输入'格式' '脱墨'在表行格式规范中(状态= 42000,代码= 40000)
CREATE EXTERNAL TABLE CLIENTES ( 'idcliente int, cnh string, cpf string, validacnh date, nome string, datacadastro date, datanascimento date…
Deltalake:替换在日期格式的地方不工作
我的用例是我想在日期分区。在不同的日期,将附加行,但是如果代码在同一日期重新运行,则应 在网上查看后覆盖,似乎可以使用Deltalake的替换Whather …
通过Pysimplegui从Python(3.9.7)与Hive连接
我正在尝试从Python(脚本)连接到Hive,并且连接成功。但是,当我通过创建的GUI传递相同的CONN STR详细信息时,我会发现错误: gaierror:[Errno 8] …
trino unnest字段投掷trinoqueryError(type = internal_error,name = page_transport_error)
我试图在Trino中打开两个字段,并且在运行查询大约30分钟后会引发以下错误。源表只有大约3K记录,而我试图打开的字段具有许多子元素,并且是类型行。…
通配符搜索数组< string>在雅典娜
我在雅典娜有一张桌子,其中一列是类型数组。 我尝试了以下查询以获取包含 Earth 的输出,但行不通。 如何在此列中执行通配符搜索? 通配符搜索后的预…
获取描述而不是Impala查询中的属性名称
在Impala(在Hadoop中使用色调)作为输出时 describe scheme1.table1 ,我正在获得带有列的表格 '名称' '类型' “评论” 字段中的“注释”我看到了属…
Hive Select Select记录,最新创建日期,如果有多个记录具有相同的帐号
我有下表,我需要添加一个条件,表明如果有多个记录具有相同的ACCT_ID,然后选择具有最新创建日期的记录。 ACCT_ID 名称 角色 create_date 12345 ABC …
如何使用Impala SQL在Impala表中更改列值?
我试图使用: UPDATE tablename SET supports = 'A B' WHERE supports = 'A' 但是,由于我的表不是kudu表,因此我会遇到错误。 我尝试使用 alter 命令…
无法通过JDBC Java连接Hive
我试图通过Java(Eclipse)连接Hive。 Hive正在我安装它的Linux服务器上工作。 我已经导入所有JAR文件。 我正在使用此代码, BasicConfigurator.confi…
Dockerised Hive找不到org.apache.hadoop.fs.s3a.s3a.s3afilesystem,即使我添加了hadoop-aws jar
我正在尝试使用由HDFS&组成的Docker-Compose。色调& Hive +连接到我的AWS S3存储桶。 截至目前,我正在运行它,并且可以使用Hue File浏览器…
如何进行增量加载而不与整个数据进行比较?
我试图从本地数据湖到Azure Data Lake Gen2进行增量载荷。 select ac_id,mbr_id ,act_id ,actdttm, cretm ,rsltyid,hsid,cdag,cdcts from df2_hs2_lak…
我们可以使用临时表创建一个永久表
with temp1 as (select cust_id, case when cm_since_dt between '2017-01-01' and '2017-12-31' then '2017' when cm_since_dt between '2018-01-01'…