Vượt qua điều này với AWS Glue và Postgres. Có một lỗi trong Spark 2.1.0 đã sửa nó cho hầu hết mọi người, nhưng ai đó đã đăng một giải pháp trong nhận xét về việc sử dụng customSchema tùy chọn .
Tôi đã gặp vấn đề tương tự với AWS Glue và Spark SQL:Tôi đang tính toán một số tiền tệ nên kết quả là một số thả nổi. Keo đã tạo ra lỗi Decimal precision 1 exceeds max precision -1
mặc dù Danh mục dữ liệu keo đã xác định cột dưới dạng số thập phân. Lấy một trang từ giải pháp customSchema ở trên bằng cách truyền cột một cách rõ ràng là NUMERIC (10,2) và Spark ngừng phàn nàn.