Kwam dit tegen met AWS Glue en Postgres. Er was een bug in Spark 2.1.0 die dit voor de meeste mensen heeft opgelost, maar iemand heeft een oplossing gepost in de opmerkingen over het gebruik van een customSchema-optie .
Ik had een soortgelijk probleem met AWS Glue en Spark SQL:ik was een valutabedrag aan het berekenen, dus het resultaat was een float. Lijm gooide de fout Decimal precision 1 exceeds max precision -1
hoewel de Glue Data Catalog de kolom als een decimaal definieerde. Nam een pagina van de bovenstaande customSchema-oplossing door de kolom expliciet te casten als NUMERIC(10,2) en Spark stopte met klagen.