salesforce - DBAmp SF_TableLoader BatchSize Salesforce
问题描述
我开始使用 DBAmp 来更新 Salesforce 云。我了解使用 SF_Bulk 根据所使用的 API 限制为 200 的批量大小。我认为使用 SF_TableLoader 可以让我将浴缸大小增加到大约 10000,并且该过程将允许将更多的记录更新到云中,并决定即时使用的最佳 API。但是,当我使用 SF_TableLoader 运行超过 200 条记录时,我收到与批量大小相关的错误。即使我运行 170 条记录,我也会收到错误消息。我错过了什么?请告知如何一次更新数千条记录。
声明@SalesforceServerName NVARCHAR(20)、@SalesforceOrgID VARCHAR(18)、@SQLString NVARCHAR(200)、@Result VARCHAR(18)、@ErrorMessage VARCHAR(MAX);
SET @SalesforceOrgID = '00Di0000000H1FtEAK'
SET @SalesforceServerName = N'SALESFORCE' SET @SQLString = N'SELECT @Result=OrganizationId FROM ' + @SalesforceServerName + '...sys_sfsession'
--将批量大小增加到 10000 EXECUTE SF_TableLoader 'Update:batchsize(200)', @SalesforceServerName, 'NICX__Rfp__c_UPDATE'
错误:--- 结束 SF_TableLoader。手术失败。消息 50000,级别 16,状态 1,过程 SF_TableLoader,第 362 行 SF_TableLoader 错误:09:11:09:DBAmpNet2 3.9.2.0 (c) 版权所有 2015-2017 forceAmp.com LLC09:11:09:批量大小重置为每行 1000 行batch.09:11:09:参数:更新 NICX__Rfp__c_UPDATE DALDCEEDWPROD Salesforce SALESFORCE 09:11:09:使用 Salesforce SOAP API.09:11:10:删除 NICX__Rfp__c_UPDATE_Result(如果存在)。09:11:10:使用新结构创建 NICX__Rfp__c_UPDATE_Result .09:11:10:1000 的批量太大。重置为每批 200 行。09:11:53:从 SQL 表读取 221 行。09:11:53:200 行失败。有关详细信息,请参阅行的错误列。09:11:53:成功处理了 21 行。09:11:53:发生错误。有关详细信息,请参阅行的错误列。09:11:53:DBAmpNet2 操作失败。
解决方案
推荐阅读
- c++ - C++ 重置 cin 和 cout
- c - C MPI 程序需要永远启动
- python - 即使 plt.subplots(sharex = True) 也显示在两个 x 轴上的值
- python - 使用命名值通过pyparsing获取字符串中的标记位置
- reactjs - 在 React 中使用惰性和悬念时如何导出加载状态?
- javascript - 为输入复选框触发 change() 事件不会触发所有事件处理程序
- php - 在php中获得多卷曲的响应时,如何控制接收数据的顺序?
- r - 使用 R 进行 2D 投影的 3D 表面
- mysql - MySQL 触发器:使用 IF 语句插入新表但出现重复项
- tensorflow - SageMaker:可视化训练统计