首页 > 解决方案 > 为什么在 Spark GraphX 中执行 Pregel 时出现 TypeMismatch 错误?

问题描述

我在 Spark GraphX 中使用 Pregel 编写了我的算法。但不幸的是,我得到了 TypeMismatch 错误。我用 : 加载图表val my_graph= GraphLoader.edgeListFile(sc, path)。所以一开始节点的结构如下:

(1,1)
(2,1)
(3,1)

以 nodeID 作为键,1 是它的默认属性。

run2函数内部,首先我更改了结构以使每个节点都可以存储多个属性。因为我正在研究重叠社区检测算法,所以属性是标签和它们的分数。在第一次运行时run2,每个节点都具有如下结构:

(34,Map(34 -> (1.0,34)))
(13,Map(13 -> (1.0,13)))
(4,Map(4 -> (1.0,4)))
(16,Map(16 -> (1.0,16)))
(22,Map(22 -> (1.0,22)))

这意味着节点 34 具有标签 34,其分数等于 1。然后每个节点可以存储从其邻居接收的多个属性,并在接下来的步骤中将它们发送给其邻居。

在算法结束时,每个节点可以包含多个属性或仅包含一个属性,例如以下结构:

(1,Map((2->(0.49,1),(8->(0.9,1)),(13->(0.79,1))))
(2,Map((11->(0.89,2)),(6->(0.68,2)),(13->(0.79,2)),(10->(0.57,2))))
(3,Map((20->(0.0.8,3)),(1->(0.66,3))))

如上结构所示,例如节点 1 属于社区 2,得分为 0.49,属于社区 8,得分为 0.9,属于社区 13,得分为 0.79。

下面的代码显示了 Pregel 中定义的不同函数。

def run2[VD, ED: ClassTag](graph: Graph[VD, ED], maxSteps: Int) = {

  val temp_graph = graph.mapVertices { case (vid, _) => mutable.HashMap[VertexId, (Double,VertexId)](vid -> (1,vid)) }

  def sendMessage(e: EdgeTriplet[mutable.HashMap[VertexId, (Double,VertexId)], ED]): Iterator[(VertexId, mutable.HashMap[VertexId, (Double, VertexId)])] = {
    Iterator((e.srcId,e.dstAttr), (e.dstId,e.srcAttr))
  }

  def mergeMessage(count1: (mutable.HashMap[VertexId, (Double,VertexId)]), count2: (mutable.HashMap[VertexId, (Double,VertexId)]))= {

    val communityMap = new mutable.HashMap[VertexId, List[(Double, VertexId)]]

    (count1.keySet ++ count2.keySet).map(key => {

      val count1Val = count1.getOrElse(key, (0D,0:VertexId))
      val count2Val = count2.getOrElse(key, (0D,0:VertexId))

      communityMap += key->(count1Val::communityMap(key))
      communityMap += key->(count2Val::communityMap(key))

    })
    communityMap
  }

  def vertexProgram(vid: VertexId, attr: mutable.HashMap[VertexId,(Double, VertexId)], message: mutable.HashMap[VertexId, List[(Double, VertexId)]]) = {
    if (message.isEmpty)
      attr
    else {
      val labels_score: mutable.HashMap[VertexId, Double] = message.map {
        key =>
          var value_sum = 0D
          var isMemberFlag = 0
          var maxSimilar_result = 0D
          val max_similar = most_similar.filter(x=>x._1==vid)(1)
          if (key._2.exists(x=>x._2==max_similar)) isMemberFlag = 1 else isMemberFlag = 0

          key._2.map {
            values =>
              if (values._2==max_similar) maxSimilar_result = values._1 else maxSimilar_result = 0D

              val temp = broadcastVariable.value(vid)(values._2)._2
              value_sum += values._1 * temp
          }
          value_sum += (beta*value_sum)+((1-beta)*maxSimilar_result)
          (key._1,value_sum) //label list
      }


      val max_value = labels_score.maxBy(x=>x._2)._2.toDouble
      val dividedByMax = labels_score.map(x=>(x._1,x._2/max_value)) // divide by maximum value

      val resultMap: mutable.HashMap[VertexId,Double] = new mutable.HashMap[VertexId, Double]
      dividedByMax.foreach{ row => // select labels more than threshold P = 0.5
        if (row._2 >= p) resultMap += row
      }

      val max_for_normalize= resultMap.values.sum
      val res = resultMap.map(x=>(x._1->(x._2/max_for_normalize,x._1))) // Normalize labels

      res
    }
  }

  val initialMessage = mutable.HashMap[VertexId, (Double,VertexId)]()

  val overlapCommunitiesGraph = Pregel(temp_graph, initialMessage, maxIterations = maxSteps)(
    vprog = vertexProgram,
    sendMsg = sendMessage,
    mergeMsg = mergeMessage)

  overlapCommunitiesGraph
}

val my_graph= GraphLoader.edgeListFile(sc, path)
val new_updated_graph2 = run2(my_graph, 1)

在上面的代码中,p=0.5beta=0.5. most_similar是一个包含每个节点及其最重要节点的 RDD。例如(1,3)表示节点 3 是与节点 1 最相似的邻居。broadcatVariable结构如下:

(19,Map(33 -> (1.399158675718661,0.6335049099178383), 34 -> (1.4267350687130098,0.6427405501408145)))

(15,Map(33 -> (1.399158675718661,0.6335049099178383), 34 -> (1.4267350687130098,0.6427405501408145)))
...

该结构将节点之间的关系显示为键,将其邻居作为值。例如,节点 19 与节点 33 和 34 是邻居,关系由它们之间的分数表示。

在算法中,每个节点发送Map包含多个标签及其分数的每个属性。然后在mergeMessage函数中,将具有相同编号的标签的值放入 aList中,并在vertexProgram每个标签或键中处理其列表。

更新

根据下图中的等式,我使用 aList来收集标签的不同分数并在vertexProgram函数中处理它们。因为我需要P_ji处理每个节点的标签分数,所以我不知道是否可以在mergeMessage函数中执行或者是否需要在vertexProgram. P_ji是源节点与其邻居之间的分数,应该乘以标签分数。

在此处输入图像描述

我得到的错误显示在该行的前面,vprog = vertexProgram,并显示在这张图片中。谁能帮我解决这个错误?

在此处输入图像描述

标签: scalaapache-sparkspark-graphx

解决方案


主要问题是您使用两种不同类型的消息。初始消息是类型mutable.HashMap[VertexId, (Double,VertexId)],但在合并两个(与mergeMessage函数)后,类型变为mutable.HashMap[VertexId, List[(Double,VertexId)]]. 这里的问题是,由于类型错误,现在合并的消息无法与另一条消息合并。

有两种方法可以解决这个问题:

  1. 将消息类型更改为mutable.HashMap[VertexId, List[(Double,VertexId)]],确保初始消息与此匹配。
  2. 保持消息类型为mutable.HashMap[VertexId, (Double,VertexId)]并更改输出类型mergeMessage以匹配。

下面是关于这两种选择的可能解决方案的一些草图。它们内部可能存在一些错误,因为实际需要的逻辑不是很清楚(代码中有一些未使用的变量等)。这两个选项在与其余代码结合时都可以运行,并将返回一个新图形。


解决方案 1

您需要调整sendMessagemergeMessageinitialMessage处理列表。这可以按如下方式完成:

def sendMessage(e: EdgeTriplet[Map[VertexId, (Double,VertexId)], ED]): Iterator[(VertexId, Map[VertexId, List[(Double, VertexId)]])] = {
  val msg1 = e.dstAttr.map{ case (k,v) => (k, List(v)) }
  val msg2 = e.srcAttr.map{ case (k,v) => (k, List(v)) }
  Iterator((e.srcId, msg1), (e.dstId, msg2))
}

def mergeMessage(count1: Map[VertexId, List[(Double,VertexId)]], count2: Map[VertexId, List[(Double,VertexId)]])= {
  val merged = count1.toSeq ++ count2.toSeq
  val new_message = merged.groupBy(_._1).map{case (k,v) => (k, v.map(_._2).flatten.toList)}
  new_message
}

val initialMessage = Map[VertexId, List[(Double,VertexId)]]()

可能messages.isEmpty回报率vertexProgram也需要调整。

解决方案 2

要使用没有列表的消息,您需要将合并逻辑从 移动vertexProgrammergeMessage。我稍微简化了代码,因此代码可能需要一些测试。

def mergeMessage(count1: (Map[VertexId, (Double, VertexId)]), count2: (Map[VertexId, (Double, VertexId)]))= {

  val merged = count1.toSeq ++ count2.toSeq
  val grouped = merged.groupBy(_._1)

  val new_message = grouped.map{ case (key, key_values) =>
    val values = key_values.map(_._2)
    
    val max_similar = most_similar.filter(x => x._1 == key).headOption match {
      case Some(x) => x  
      case _ => -1   // What should happen when there is no match?
    }
  
    val maxSimilar_result = values.filter(v => v._2 == max_similar).headOption match {
      case Some(x) => x._1
      case _ => 0.0
    }
    
    val value_sum = values.map{ v => v._1 * broadcastVariable.value(key)(v._2)._2}.sum
    val res = (beta*value_sum)+((1-beta)*maxSimilar_result)
    (key, (res, key))
  }
  
  new_message.toMap
}

def vertexProgram(vid: VertexId, attr: Map[VertexId, (Double, VertexId)], messages: Map[VertexId, (Double, VertexId)]) = {
  if (messages.isEmpty){
    attr
  } else { 
    val labels_score = messages.map(m => (m._1, m._2._1))
    val max_value = labels_score.maxBy(x => x._2)._2.toDouble
    val dividedByMax = labels_score.map(x => (x._1, x._2 / max_value)) // divide by maximum value

    // select labels more than threshold P = 0.5
    val resultMap = dividedByMax.filter{ row => row._2 >= p }

    val max_for_normalize= resultMap.values.sum
    val res = resultMap.map(x => (x._1 -> (x._2 / max_for_normalize, x._1))) // Normalize labels

    res
  }
}

备注

  1. 目前在 中sendMessage,消息被发送到两个节点,而与图边的方向无关。这是否正确取决于所需的逻辑。
  2. 我更改mutable.HashMap为 normal (immutable) Map。如果可能,总是首选使用不可变选项。
  3. 解决方案 1 应该更易于使用,因为其中的逻辑vertexProgram非常复杂。那里还有一些变量目前没有做任何事情,但也许它们会在以后使用。如果无法以迭代方式合并消息(并且您需要一次查看所有消息),那么使用 aList将是可行的方法。

推荐阅读