batch-file - 使用批处理脚本将 CSV 文件数据加载到雪花云表
问题描述
我是批处理脚本的新手,我的要求是将 CSV 文件复制到 snowfalke 表。
我曾尝试使用
复制到命令
由 SNOWFLAKE 文件提供。
但不幸的是它不起作用,请帮我解决这些问题。
这是我亲手尝试过的
for /f "tokens=2 delims==" %%a in ('wmic OS Get localdatetime /value') do set "dt=%%a"
set "YY=%dt:~2,2%" & set "YYYY=%dt:~0,4%" & set "MM=%dt:~4,2%" & set "DD=%dt:~6,2%"
set fullstamp=select * from Tbl_Store where OperationDate='%YYYY%-%MM%-%DD%'
set filename=Tbl_Store_%YYYY%_%MM%_%DD%
sqlcmd -S ta -d SMS_Online -U sa -P ***-h -1 -s, -W -Q "%fullstamp%" -s "," -o "E:\Workspace\%filename%.csv"
set File_Name=%filename%.csv
: path to Output the
set File_PATH=E:\Workspace\
: Set Bucket Path
set AWSBUCKET=s3://S3_TEST
: Set AWS path
set AWSPROFILE= S3_TEST
: upload the ZIP FILE to the AWS
:aws s3 cp %File_PATH%%File_Name% %AWSBUCKET%
:Copy into SnowFlake
copy into table_name from %File_PATH%%File_Name%
解决方案
我通过使用我们需要配置的 snowsql.exe 找到了解决方案。
通过批处理,我将 ddl 语句生成到一个文本文件中,之后我使用以下命令执行 SQL 语句以在雪花上执行数据加载。
copy into tablename from @my_s3_stage/%file_path and name on_error = 'skip_file' force=true;
snowsql -c Schema_Name -f file_path
@my_s3_stage 需要在 snowfalke IDE 上创建
推荐阅读
- python - Python水平条不显示时间戳数据的整个范围
- javascript - 使用 `react-hook-form` 库向组件写入测试
- google-analytics - 指定页面的页面引用
- angular - Angular Karma 测试原型功能
- java - 如何避免 Object.equals 方法的多个 if else 块?
- .net - .net 编译器错误“并非所有代码路径都返回值”任务方法
- mongodb - 如何在MongoDB中按多个分组
- mysql - 用于搜索列的 SQL 查询(SQL 查询中的帮助)
- git - 将本地合并到开发环境中的冲突
- unity3d - Unity 时间轴,播放动画片段和控制事件播放