首页 > 解决方案 > DBAmp SF_TableLoader BatchSize Salesforce

问题描述

我开始使用 DBAmp 来更新 Salesforce 云。我了解使用 SF_Bulk 根据所使用的 API 限制为 200 的批量大小。我认为使用 SF_TableLoader 可以让我将浴缸大小增加到大约 10000,并且该过程将允许将更多的记录更新到云中,并决定即时使用的最佳 API。但是,当我使用 SF_TableLoader 运行超过 200 条记录时,我收到与批量大小相关的错误。即使我运行 170 条记录,我也会收到错误消息。我错过了什么?请告知如何一次更新数千条记录。

声明@SalesforceServerName NVARCHAR(20)、@SalesforceOrgID VARCHAR(18)、@SQLString NVARCHAR(200)、@Result VARCHAR(18)、@ErrorMessage VARCHAR(MAX);

SET @SalesforceOrgID = '00Di0000000H1FtEAK'
SET @SalesforceServerName = N'SALESFORCE' SET @SQLString = N'SELECT @Result=OrganizationId FROM ' + @SalesforceServerName + '...sys_sfsession'

--将批量大小增加到 10000 EXECUTE SF_TableLoader 'Update:batchsize(200)', @SalesforceServerName, 'NICX__Rfp__c_UPDATE'

错误:--- 结束 SF_TableLoader。手术失败。消息 50000,级别 16,状态 1,过程 SF_TableLoader,第 362 行 SF_TableLoader 错误:09:11:09:DBAmpNet2 3.9.2.0 (c) 版权所有 2015-2017 forceAmp.com LLC09:11:09:批量大小重置为每行 1000 行batch.09:11:09:参数:更新 NICX__Rfp__c_UPDATE DALDCEEDWPROD Salesforce SALESFORCE 09:11:09:使用 Salesforce SOAP API.09:11:10:删除 NICX__Rfp__c_UPDATE_Result(如果存在)。09:11:10:使用新结构创建 NICX__Rfp__c_UPDATE_Result .09:11:10:1000 的批量太大。重置为每批 200 行。09:11:53:从 SQL 表读取 221 行。09:11:53:200 行失败。有关详细信息,请参阅行的错误列。09:11:53:成功处理了 21 行。09:11:53:发生错误。有关详细信息,请参阅行的错误列。09:11:53:DBAmpNet2 操作失败。

标签: salesforcebatchsizedbamp

解决方案


推荐阅读