scala - 如何创建 Spark 活动以在 HDInsight 上运行 Scala 脚本?
问题描述
我想使用 HDInsight 执行 Scala 脚本。下面的文章描述了运行 py 脚本,但没有提到 abt Scala。我关注了这篇文章(而不是 py 文件,上传了 Scala 文件),但 Azure DataFactory 无法执行并出现错误消息:
({
"errorCode": "2312",
"message": "Spark job failed, batch id:4",
"failureType": "UserError"
}
https://docs.microsoft.com/en-us/azure/data-factory/transform-data-using-spark
解决方案
如果要执行用 scala 编写的 spark 代码,则必须调用 Jar file 。如果它太复杂,那么你也可以使用 databricks 笔记本。如果您遇到问题,请告诉我
推荐阅读
- python - 数字转换成符号(Python)
- php - 级联更新列关系 Laravel 5.6
- java - Java DatagramSocket 不接收数据
- perl - “使用 Mojo::Base 'Mojolicious::Plugin'” 引用语句的含义是什么?
- .net-core - 自动生成类/文件/等,例如使用 T4 文件
- java - 如何调用位于另一个实例内部的实例的 getter 方法
- java - Java - 如何检查数组的值是否包含指定的值作为属性
- javascript - 尝试使用带有奇怪错误的 signInWithCustomToken 进行身份验证
- python - Python3 - 重定向的标准错误没有正确重置?
- oracle - 如何在单引号 sql 查询中使用管道?