amazon-web-services - AWS 负载均衡器大小限制
问题描述
AWS ALB 将大小限制为 100 MB。我的 API 响应的一部分是来自 Github API 的渲染 README.md。我不控制渲染,但事实证明 ALB 不会从 Github 返回带有此渲染 REAME.md 文件文本的响应。当我将响应移动到直接从 VM 命中 Nginx LB 时,没有问题。我查看了内容,是的,README 内容看起来相当大。我不知道是否/如何超过 100 MB,但这似乎是他的问题。无论如何,我无法控制 Github 如何控制渲染。
这个 100 MB 的限制有什么解决方法吗?如果没有,我可以使用 Nginx 作为 lambda 函数的反向负载均衡器吗?否则,我将需要回到常规 VM 并在非自动缩放 VM 中执行加权 DNS,因为我仍然无法为 VM、Fargate 或任何东西使用负载均衡器。
解决方案
根据评论。
不能直接将 100 MB 文件上传到 lambda 函数中。原因是 lambda 的最大数据有效负载为:
- 6 MB(同步)
- 256 KB(异步)
替代方案是:
- 而是将文件上传到 S3。您可以设置 S3 事件来为每个新上传的文件触发 lambda。
- 使用其他东西然后 lambda、EC2、Fargate 或 Beanstalk 能够直接上传 100 MB 文件。
推荐阅读
- authentication - 如何在 Keycloak 中限制 SAML 客户端的某些组的用户身份验证?
- delphi - 线程可以安全地创建 FMX.Graphics.TBitmap.Canvas 吗?
- python - 如何使用 Python3 中的对数属性确保一个数字是另一个数字的幂?
- sql-server - 如何根据具有不同 where 条件和按包含撇号的字段名称分组的日期表最大值获取结果?
- svn - .svnignore 在执行时被 Subversion 忽略:“svn copy”
- javascript - 延迟阅读php代码
- java - java温度转换程序不起作用
- html - chrome浏览器变窄时如何修复导航栏消失?
- scala - 为什么我启动火花流时 kafka 消费者代码会冻结?
- tensorflow - TensorFlow 删除图并释放资源