博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
神经网络注意力机制--Attention in Neural Networks
阅读量:6306 次
发布时间:2019-06-22

本文共 919 字,大约阅读时间需要 3 分钟。

Original url:

Attention in Neural Networks and How to Use It


这篇博文主要介绍神经网络中的注意力机制,代码实现了两个 soft visual attention

What is Attention? 首先来看看 注意力机制是什么?

在非形式化上,神经注意机制赋予神经网络关注其输入(或特征)子集的能力:它选择特定的输入。
注意力机制可以让一个神经网络能够只关注其输入的一部分信息,它能够选择特定的输入。

attention is implemented as

神经网络注意力机制--Attention in Neural Networks
f 是一个 attention network,其生成一个 attention vector a, 再讲 a 与输入 x 的 特征向量 z 相乘,这个 a 取值范围是 【0,1】,当我们说 soft attention 时,其取值是 0 到 1,当我们说 hard attention 其取值就只有 0 或 1。

为什么 attention 是重要的了?我们还有从 neural network 的本质说起, neural network 本质上就是一个 函数拟合器 function approximator,它的结构决定其可以拟合什么类型的函数,通常情况下输入向量彼此的作用方式只能是相加。典型的神经网络是由矩阵乘法和元素非线性构成的,其中输入或特征向量的元素仅通过加法相互作用。

但是 注意力机制可以让输入向量之间的作用方式是相乘 ,注意机制计算一个用于多重特征的掩码。
神经网络是一种通用的函数逼近器,可以对任意函数进行任意精度的逼近,但只能在无限个隐藏单元的极限内进行逼近。在任何实际的设置中,情况都不是这样:我们受到可以使用的隐藏单元数量的限制。注意力引入的 multiplicative interactions 可以让我们拟合更复杂的函数模型。
神经网络注意力机制--Attention in Neural Networks
该模型在生成描述该部分的单词时,学习关注图像的特定部分

注意力机制扩展了神经网络的功能:它们允许逼近更复杂的函数,或者用更直观的术语来说,它们允许专注于输入的特定部分。

转载于:https://blog.51cto.com/13923058/2355270

你可能感兴趣的文章
More than React(四)HTML也可以静态编译?
查看>>
React Native最佳学习模版- F8 App开源了
查看>>
云服务正在吞噬世界!
查看>>
阅读Android源码的一些姿势
查看>>
Web语义化标准解读
查看>>
一份代码构建移动、桌面、Web全平台应用
查看>>
高性能 Lua 技巧(译)
查看>>
区分指针、变量名、指针所指向的内存
查看>>
异步编程的世界
查看>>
最近话题火爆的四件事你知道不?
查看>>
SpringBoot整合MyBatis
查看>>
云计算产业如何率先推行信用管理?
查看>>
Android 类库书签更新(一)
查看>>
Unity3D Input按键系统
查看>>
简单的一条SQL,不简单的做事思维 NOT IN 、NOT EXISTS、LEFT JOIN用法差别 ...
查看>>
DataWorks:任务未运行自助排查
查看>>
ionic/cordova热部署
查看>>
「镁客早报」特斯拉裁员,马斯克解释没有办法;微软推出Azure DevOps赏金计划...
查看>>
Flink入坑指南第五章 - 语法糖 view
查看>>
centos 7.4 使用 pgxc_ctl 安装与使用
查看>>