sql - 删除保留最新记录的重复记录
问题描述
我正在尝试删除重复的记录,似乎我的代码几天前工作但已经开始失败。
这是我尝试过的一些事情
sdf_sql(spark,'DELETE pred FROM TB1 pred
INNER JOIN TB2 pred2
WHERE pred.last_upd < pred2.last_upd AND pred.id = pred2.id')
这是我收到的消息错误:
Error: org.apache.spark.sql.catalyst.parser.ParseException:
extraneous input 'pred' expecting 'FROM'(line 1, pos 7)
== SQL ==
DELETE pred FROM TB1 pred
-------^^^
INNER JOIN TB2 pred2
WHERE pred.last_upd < pred2.last_upd AND pred.id = pred2.id
解决方案
Try with below code :
DELETE pred FROM contacts pred
INNER JOIN
contacts t2
WHERE
pred.id > t2.id AND pred.email = t2.email;
推荐阅读
- javascript - 使用 Google 跟踪代码管理器从 URL 中删除查询字符串
- julia - julia 警告消息:从模块 NamedTuples 到 DataFrames 的 eval
- jquery - 为什么这个添加和删除类在 JQuery 中不起作用?
- gnuplot - Gnuplot:在y轴上显示绝对值,在y2上显示百分比
- simulator - 没有收到来自 openday light netconf testtool 模拟器的响应
- mysql - 如何在超过 1000 万且仍在增加中运行 select mysql 命令
- excel - 带有标准的 xl2010/xl2013 的 TEXTJOIN
- symfony - twig.controller.exception 不存在
- java - 如何更改此日期的格式
- jquery - jQuery | 如何为下一个脚本修复 if / else?