# 导入模块
from pyspark.sql import SparkSession
# 创建Spark会话对象 spark = SparkSession.builder .appName("Read MySQL") .getOrCreate() # 或者写成一行 spark = SparkSession.builder.appName("Read MySQL").getOrCreate() # 设置JDBC连接参数 url = "jdbc:mysql://localhost/mydatabase" properties = { "user": "username", "password": "password", "driver": "com.mysql.cj.jdbc.Driver" } # 通过format指定要读取的格式为jdbc,并传入相应的URL、属性等信息
# 使用来加载MySQL表中的数据到DataFrame中
df = spark.read.format("jdbc").option("url", url).options(properties) .option("dbtable", "tablename").load()
# 或者每一个属性单独写一行
df = spark.read.format("jdbc")
.option("url", mysql_url)
.option("user", user)
.option("password", password)
.option("driver", "com.mysql.cj.jdbc.Driver")
.option("dbtable", dbtable)
.load()
# 显示(打印)DataFrame内容 df.show()到此这篇pyspark读取mysql(pyspark.sql)的文章就介绍到这了,更多相关内容请继续浏览下面的相关 推荐文章,希望大家都能在编程的领域有一番成就!
版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/sqlbc/56114.html