apache-spark - SparkSession 连接到 Databricks Azure
问题描述
我正在使用 maven 和 scala 创建一个 spark 应用程序,该应用程序需要连接到 azure databricks 上的集群。我怎样才能让我的 sparksession 连接到 databricks 集群?
我看到了databricks-connect,但它使用 sbt 加载了一些 jar 文件。我不明白它是如何实现这种连接的。
我的用例需要根据请求在数据库集群上以编程方式运行火花作业,所以我需要能够在那里连接它。
解决方案
推荐阅读
- c# - 将从 SQL Server 获得的字段转换为 C# 中 datagridview 的复选框
- regex - 重复捕获组和替换 - 几乎在那里
- python - Plotly 甘特图:删除重复的 Y 轴标签并堆叠并行任务
- vba - Visual Basic 百分比数据保存失败
- python - 如何让 Dictwriter 将键值对写入 csv 的每一行
- flutter - Flutter 2.2中如何手动打开抽屉
- amazon-web-services - 将 aws cognito 令牌添加到 OAuth2PasswordBearer Fast Api
- mongodb - MongoDB聚合管道:从匹配文档中计算列表字段中单词的出现次数?
- c# - 如何从 Cefsharp getAuthCredentials 导航到空白页?
- javascript - Firebase 更新功能有时执行较慢