I dont know why this spark sql skips the last 3 000s after that decimal point
df = spark.sql("""
select cast('1900-01-01 00:00:00.000' as timestamp) as a from dbo.products
""")
df.show(1,False)
Esta consulta acima produz 1900-01-01 00:00:00 De alguma forma, ela perde os últimos 3 zeros após os decimais
Esperado é
1900-01-01 00:00:00.000
Alguém pode ajudar por favor
Parece que quando os milissegundos são
.000
ativados, por padrão, pula essa parte:Se você definir milissegundos como, por exemplo,
.999
, será exibido:Se você realmente precisa que essa parte seja exibida, use date_format :