apache-spark - 从 Kafka 读取时 Pyspark 结构化流中的异常
问题描述
环境:Spark 2.4.0
我已经包含了 spark-sql-kafka-0-10 jar,它与我使用的 Spark 版本相同。
这是一个例外:
py4j.protocol.Py4JJavaError: An error occurred while calling o38.load.
: java.lang.NoClassDefFoundError: org.apache.kafka.common.serialization.ByteArrayDeserializer
at org.apache.spark.sql.kafka010.KafkaSourceProvider$.<init>(KafkaSourceProvider.scala:487)
at org.apache.spark.sql.kafka010.KafkaSourceProvider$.<clinit>(KafkaSourceProvider.scala)
at org.apache.spark.sql.kafka010.KafkaSourceProvider.validateStreamOptions(KafkaSourceProvider.scala:414)
at org.apache.spark.sql.kafka010.KafkaSourceProvider.sourceSchema(KafkaSourceProvider.scala:66)
at org.apache.spark.sql.execution.datasources.DataSource.sourceSchema(DataSource.scala:209)
at org.apache.spark.sql.execution.datasources.DataSource.sourceInfo$lzycompute(DataSource.scala:95)
at org.apache.spark.sql.execution.datasources.DataSource.sourceInfo(DataSource.scala:95)
at org.apache.spark.sql.execution.streaming.StreamingRelation$.apply(StreamingRelation.scala:33)
at org.apache.spark.sql.streaming.DataStreamReader.load(DataStreamReader.scala:171)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:90)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:55)
at java.lang.reflect.Method.invoke(Method.java:508)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
at py4j.Gateway.invoke(Gateway.java:282)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:238)
at java.lang.Thread.run(Thread.java:812)
Caused by: java.lang.ClassNotFoundException: org.apache.kafka.common.serialization.ByteArrayDeserializer
at java.net.URLClassLoader.findClass(URLClassLoader.java:610)
at java.lang.ClassLoader.loadClassHelper(ClassLoader.java:937)
at java.lang.ClassLoader.loadClass(ClassLoader.java:882)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:343)
at java.lang.ClassLoader.loadClass(ClassLoader.java:865)
... 20 more
解决方案
我的类路径中没有kafka-clients jar。添加它修复了缺少的类异常
使用 packages 选项启动 spark-shell 也可以:
spark-shell --packages org.apache.spark:spark-sql-kafka-0-10_2.11:2.4.0
推荐阅读
- mongodb - 从 DB(mongoDB) 元素中不存在的弹性搜索中删除
- html - 如何使段落变宽?
- html - 如何在侧导航栏中为活动链接添加下划线?在 Angular 应用程序中使用材料设计
- c# - xamarin - 如何将每张新的拍摄照片设置到每一帧?
- python - 尝试在不同线程中使用变量时出现 UnboundLocalError
- hp-uft - UFT 无法识别 webfile 对象
- php - mongo find 用户至少订阅了 n 天
- sql - 基于具有非空结果的列值求和
- django - 使用 axios 请求发送 x-csrf-token (Django/Reactjs)
- typo3 - Typo3 9.5 为什么在哪个页面上看不到错误?