apache-spark - spark-streaming-kafka 不适用于 scala-library
问题描述
我正在尝试设置kafka_2.11-1.1.0
与spark-2.2.0.
根据这里的官方文档
https://spark.apache.org/docs/2.2.0/structured-streaming-kafka-integration.html
我已经下载spark-streaming-kafka-0-8-assembly_2.10-2.2.0.jar
并将其放到SPARK_HOME/jars
.
我已经成功创建了流对象
kafkaStream = KafkaUtils.createStream(
ssc,
'127.0.0.1:2181',
'spark',
{'test':1}
)
但是当我跑步时
ssc.start()
ssc.awaitTermination()
我明白了
java.lang.NoClassDefFoundError: scala/collection/GenTraversableOnce$class
正如我从那看到的scala-library-2.11.8.jar
那样,spark-2.2.0 jars
它只是scala/collection/GenTraversableOnce
存在的一部分。
scala/collection/GenTraversableOnce$class
不存在 - 它在早期版本中存在。
那么这是什么意思呢?这种集成根本不起作用spark-2.2.0
?
如果您有此集成工作,请分享您的成功经验。
解决方案
推荐阅读
- kotlin - JUnit 测试中的 Kotlin 内联类
- scala - Scala Play + Slick:如何将依赖项注入 Spec 测试?
- google-analytics-api - GoogleAnalytics API 受众 > 技术 > 网络 > 服务提供商
- ios - 绘制 MTLBuffer 的一部分?
- android - Zxing QR码扫描仪代码在片段中不起作用
- c# - 在基类中创建枚举的别名
- java - 使用 IntelliJ 在类路径中找不到 application.yaml
- python - 将熊猫系列列表转换为熊猫数据框
- flutter - Flutter:浮动动作按钮固定位置
- c# - 如何在同一个项目中获取整数/双打到另一个页面?