amazon-web-services - AWS CodePipeline - 代码部署到 S3 未压缩工件大小限制
问题描述
我有一个简单的 AWS 代码管道,它构建了一个 Gatsby 站点并创建了一个大约 3.2GB 的压缩工件。移动到代码部署时,它会失败并显示以下消息,
是否有增加限制的选项或任何解决方法将工件上传到 S3 并解压缩?
以下是代码管道步骤,
部署阶段配置,
解决方案
尝试在代码构建阶段本身的 buildspec.yaml 中使用此命令
aws s3 cp --recursive ./build s3://AWS_S3_BUCKET/
推荐阅读
- kendo-ui - 剑道网格编辑事件处理程序不更新行
- python - 如果它是分类变量,如何替换空值?
- python - 我如何在 Python 中重构 Sconstruct 以使用 pycharm 检测可能的错误
- elasticsearch - Kibana 仪表板数据未显示
- python - Pyinstaller 无法识别 Nornir 并且脚本崩溃
- c# - C# Serial.read 正确读取字符,即使 BaudRate 错误
- regex - 将变量作为正则表达式环视的表达式传递
- flutter - 从资产颤动中打开pdf文件
- reactjs - 为什么在使用 react 和 typescript 使用 createContext 时,类型 {} 上不存在 setLoading 错误?
- matlab - 如何在二进制图像中找到线?