I dont know why this spark sql skips the last 3 000s after that decimal point
df = spark.sql("""
select cast('1900-01-01 00:00:00.000' as timestamp) as a from dbo.products
""")
df.show(1,False)
上面的查询生成 1900-01-01 00:00:00 它以某种方式错过了小数点后的最后 3 个零
预计是
1900-01-01 00:00:00.000
有人可以帮忙吗
看来当毫秒是
.000
Spark 时默认会跳过该部分:例如,如果将毫秒设置为
.999
,则会显示:如果您确实需要显示该部分,请使用date_format: