日前有消息显示,谷歌DeepMind方面发布的Mixture-of-Depths(MoD),改变了以往Transformer架构的计算模式。
据了解,通过动态分配大模型中的FLOPs(运算次数或计算资源),优化不同层次模型深度中的分配,限制给定层的自注意力和MLP计算的token数量,MoD可跳过一些不必要计算,迫使神经网络学会主要关注真正重要的信息, 实现只给需要准确预测的token分配更多计算资源,从而显着提高训练效率和推理速度。
例如,虽然预测下一个句子的内容很难,但预测句子结束的标点符号很简单,如果给两者分配同样的计算资源,那么后者明显会浪费资源、而MoD则可避免这种情况。
据谷歌方面发布的相关测试结果显示,在等效计算量和训练时间上,MoD每次向前传播所需的计算量更小,而且后训练采样过程中步进速度提高50%。
据了解,谷歌研究团队还探讨了MoD和MoE结合的可能性MoDE,而且结果表明而这一结合能提供更好的性能和更快的推理速度。
此外值得一提的是,为解决AI幻觉问题,不久前谷歌DeepMind还与斯坦福大学联合开了一款AI事实核查工具“搜索增强事实评估器”(Search-Augmented Factuality Evaluator,SAFE)。
据了解,SAFE可通过四个步骤对AI聊天机器人生成的回复进行分析、处理和评估,以验证其准确性和真实性。具体而言,SAFE首先会将回复分割成多个单个待核查内容、对上述内容进行修正,然后再与谷歌搜索结果进行比较。随后,SAFE还会检查各个事实与原始问题的相关性。
为评估SAFE性能,谷歌方面的研究人员还创建了包含约16000个事实的数据集LongFact,并在包括Claude、Gemini、GPT、PaLM-2在内的13个大语言模型上测试了这一工具。结果显示,在对100个有争议事实进行的重点分析中,SAFE的判定在进一步审查下正确率达到76% 。与此同时,SAFE还具备显着的经济性优势,即其成本比人工注释便宜20多倍。
【以上内容转自“三易生活网”,不代表本网站观点。如需转载请取得三易生活网许可,如有侵权请联系删除。】
延伸阅读:
- 消息称 谷歌Tensor G4芯片采用三星4nm制程工艺和FOWLP封装工艺
- 不愿妥协!谷歌确认不会推出低价版Pixel手机,新机型疑遭曝光
未经允许不得转载:头条今日_全国热点资讯网(头条才是今日你关心的) » 谷歌发布全新MoD架构,可节省更多计算资源