新闻中心
-
11-27HuggingFace工程师亲授:如何在Transformer中实现最好的位置编码一个有效的复杂系统总是从一个有效的简单系统演化而来的。——JohnGall在Transformer模型中,位置编码(PositionalEncoding)被用来...
-
11-27跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本在当今多模态领域,CLIP模型凭借其卓越的视觉与文本对齐能力,推动了视觉基础模型的发展。CLIP通过对大规模图文对的对比学习,将视觉与语言信号嵌入到同一特征空间...
-
11-26陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销现在,大语言模型的结构化生成有了一个更加高效、灵活的引擎。不管是编写和调试代码,还是通过函数调用来使用外部工具,又或是控制机器人,都免不了需要LLM生成结构化数...
-
11-26吴恩达出手,开源最新Python包,一个接口调用OpenAI等模型在构建应用程序时,与多个提供商集成很麻烦,现在aisuite给解决了。用相同的代码方式调用OpenAI、Anthropic、Google等发布的大模型,还能实现...
-
11-25智能体竟能自行组建通信网络,还能自创协议提升通信效率HuggingFace上的模型数量已经超过了100万。但是几乎每个模型都是孤立的,难以与其它模型沟通。尽管有些研究者甚至娱乐播主试过让LLM互相交流,但所用的方...
-
11-24这才是真・开源模型!公开「后训练」一切,性能超越Llama 3.1 Instruct开源模型阵营又迎来一员猛将:Tülu3。它来自艾伦人工智能研究所(Ai2),目前包含8B和70B两个版本(未来还会有405B版本),并且其性能超过了Llama3...

