machine-learning - 为什么 PyTorch MultiheadAttention 被认为是激活函数?
问题描述
当滚动 PyTorch 包(此处)上可用的所有激活功能时,我发现nn.MultiheadAttention
那里有描述。你能解释一下为什么它被认为是激活函数吗?也许我理解错了,但 Multihead Attention 有它自己的可学习权重,所以它似乎更适合层,而不是激活函数。能否请您纠正我,并提供一些我没有得到的见解。
谢谢!
解决方案
推荐阅读
- html - bootstrap-icons 更改字体路径静态站点
- html - 单击指向超链接的按钮时,如何避免原始页面转到不同的页面?
- c# - Firebase 跨平台问题 - .setAsync() 设置在 2 个路径目标中,而不仅仅是一个
- css - 如何在tailwind-css中将div重叠在div上
- python - 基于矢量化函数添加新的 dask 列
- ios - 显示从 Firebase 生成的 downloadURL 下载的图像
- powershell - Powershell Set-Alias 用于长命令
- javascript - delegateToSchema 没有使用我的执行程序
- c++ - 在 Visual Studio 2015 中编译 Win32 C++ 控制台应用程序
- c# - C# - 如何使用该键的值获取对字典的键对象的引用