Tôi đã gặp sự cố chính xác này với mysql / mariadb và nhận được manh mối LỚN từ câu hỏi này
Vì vậy, lệnh pyspark của bạn phải là:
pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>
Ngoài ra, hãy để ý các lỗi khi bắt đầu pyspark như "Cảnh báo:Local jar ... không tồn tại, đang bỏ qua." và "ERROR SparkContext:Jar not found at ...", những điều này có thể có nghĩa là bạn đã viết sai đường dẫn.