Cómo convertir unix timestamp a fecha en Spark
Tengo un marco de datos con una columna de unix timestamp(eg.1435655706000), y quiero convertirlo a datos con formato 'aaaa-MM-DD', he probado con nscala-time pero no funciona.
lenguaje : scala -->
val time_col = sqlc.sql("select ts from mr").map(_(0).toString.toDateTime)
time_col.collect().foreach(println)
y tengo error java.lang.IllegalArgumentException: Invalid format: "1435655706000" is malformed at "6000"
31
3
Necesita importar las siguientes librerías.
O ajustándose a su caso:
Podría haber otra manera:
Espero que esto ayude :)
He resuelto este problema utilizando la librería joda-time mapeando el
DataFrame
y convirtiendo elDateTime
en un String:lenguaje : scala -->
No es necesario convertir a String antes de aplicar toDataTime con nscala_time
import com.github.nscala_time.time.Imports._
`