-
Transformers 长程上下文综述多头自注意力开销很大,序列长度的O(n²)复杂度意味着不太可能让经典的Transformer模型处理超长文本序列。这篇文章重点介绍在大规模下更有前景的解决办法。AI研习社-译站2020年09月01日 15:20
-
盘点 | 电子游戏中的神经技术与脑机接口应用虽然行业现状已经不再只是实验室研究,但要想从你的头脑中直接控制任何游戏,还有很长的路要走。也许用不了多久,这些技术的影响就会超越游戏 。AI研习社-译站2020年08月28日 11:46
-
TensorFlow Lattice:灵活、可控、可解释的机器学习TF Lattice使得在采用(高准确率)灵活模型的同时,通过一些选项使向学习过程注入领域知识成为可能。AI研习社-译站2020年08月24日 15:14
-
CVPR 2020 目标检测论文精选近期举行的CVPR 2020对推动目标检测有相当大量的贡献。在这篇文章中,我们将看看一些特别令人印象深刻的论文。AI研习社-译站2020年08月24日 14:47