-
Transformers 长程上下文综述多头自注意力开销很大,序列长度的O(n²)复杂度意味着不太可能让经典的Transformer模型处理超长文本序列。这篇文章重点介绍在大规模下更有前景的解决办法。AI研习社-译站2020年09月01日 15:20
-
老北京生活影像和3D AI主播为什么在2020年火爆全网?AI给广电行业带来了两个变革——对过去缺损画面、素材残缺像素的“无中生有”,以及实时渲染带来的更强互动性。包永刚2020年08月24日 18:42