专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注! Transformer统治了AI大模型领域。有人认为,实现AGI,Transformer就够了! 还有人认为,还需要几次底层架构 ...
本文提出基于状态空间模型(Mamba)的蛋白质链间残基接触预测框架MaMCon,通过三角几何约束模块增强残基对表征,有效解决长序列建模难题。在TEST300等基准数据集上验证了其超越现有方法的性能,为蛋白质相互作用(PPI)研究提供新工具。 Highlight 方法 本节 ...
为解决传统实验方法耗时耗力且计算成本高的问题,南京医科大学研究团队开发了双向Mamba-注意力混合框架BiMA-DTI。该研究创新性地融合状态空间模型与多头注意力机制,通过多模态特征加权融合技术,在五个不同规模数据集上实现了AUROC最高达0.9933的预测性能。
先说说Transformer的“富贵病”。 Transformer确实很聪明,靠自注意力机制能够同时关注输入序列中所有词语之间的关联,比如阅读文章时可以快速建立首尾关键信息的联系。 但这种能力的实现需要较高的计算成本,随着输入序列长度的增加,其计算量会呈平方级 ...
这项由Meta公司FAIR实验室的白尚民(Sangmin Bae)博士领导的国际研究团队发表于2025年10月的最新研究,探索了一种全新的语言模型架构设计思路。有兴趣深入了解的读者可以通过arXiv:2510.04800查询完整论文。这项研究就像是在AI世界里开了一家"建筑公司",专门研究 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果