新闻中心
-
03-13350亿参数、开放权重,Transformer作者创业后推出新大模型今天,由Transformer作者之一AidanGomez参与创立的人工智能初创公司Cohere迎来了自家大模型的发布。Cohere最新发布的模型被命名为「Co...
-
03-11清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!大型模型仅能记忆和理解有限的上下文,这已成为它们在实际应用中的一大制约。例如,对话型人工智能系统常常无法持久记忆前一天的对话内容,这导致利用大型模型构建的智能体...
-
01-18OM5光纤:为人工智能时代注入动力在快速发展的技术领域中,OM5光纤电缆已经成为一种革命性的解决方案。凭借其出色的性能,OM5光纤正在为各行业带来重大变革,特别是在人工智能(AI)领域。本文将深...
-
11-28规模小、效率高:DeepMind推出多模态解决方案Mirasol 3B多模态学习面临的主要挑战之一是需要融合文本、音频、视频等异构的模态,多模态模型需要组合不同来源的信号。然而,这些模态具有不同的特征,很难通过单一模型来组合。例如...
-
11-08韩媒报道:苹果研发高能量密度新电池,为AR/VR设备提供更长续航时间根据韩国媒体《ETNews》报道,苹果正在研发一种提高能量密度和充电速率的新型高性能电池,并可能会在2025年后投入使用。预计这种电池将应用于VisionPro...
-
09-15想让大模型在prompt中学习更多示例,这种方法能让你输入更多字符基于Transformer的大型语言模型(LLM)已经展现出执行上下文学习(ICL)的强大能力,并且几乎已经成为许多自然语言处理(NLP)任务的不二选择。Tra...

