在Spark中读取MySQL数据库数据,可以使用Spark的DataFrame API和JDBC连接器来实现。以下是一种常见的方法:
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>{your_version}</version>
</dependency>
val spark = SparkSession.builder()
.appName("Read from MySQL")
.getOrCreate()
val df = spark.read.format("jdbc")
.option("url", "jdbc:mysql://localhost:3306/{database_name}")
.option("user", "{username}")
.option("password", "{password}")
.option("dbtable", "{table_name}")
.load()
在这里,需要替换大括号中的内容为实际的数据库连接信息。
df.filter($"column_name" === "value").show()
spark.stop()
通过以上步骤,就可以在Spark应用程序中成功读取MySQL数据库中的数据了。