新闻中心
-
03-12参照人类大脑,学会忘记会让AI大模型变得更好?最近,一支计算机科学家团队研发了一种更灵活、更具弹性的机器学习模型,它们具有周期性遗忘已知信息的能力,这是现有大型语言模型所不具备的特点。实测表明,在很多情况下...
-
03-07马斯克Ilya私密邮件被Claude破译,OpenAI打码信息公开,谷歌很受伤OpenAI和马斯克争得不可开交,却无意间揭示了Claude3的新技能。因为网友吃瓜的心可不只用在了事情本身,就连邮件里打码的部分写了什么,也成了热点话题。于是...
-
03-04AI 替代人工编辑首战失败,维基百科不再视 CNET 媒体为可靠信源3月2日消息,数秒内生成新闻文章,对于媒体行业来说固然是非常诱人的部署方案,但科技媒体CNET率先施行后并未赢得掌声,反而损害其声誉。维基百科有一个名为“可靠来...
-
03-04模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分在目前的模型训练范式中,偏好数据的的获取与使用已经成为了不可或缺的一环。在训练中,偏好数据通常被用作对齐(alignment)时的训练优化目标,如基于人类或AI...
-
03-012025年自动驾驶标注行业是否会被世界模型所颠覆?1.数据标注面临的问题(特别是基于BEV任务)随着基于BEVtransformer任务的兴起,随之带来的是对数据的依赖变的越来越重,基于BEV任务的标注也变得越...
-
03-01几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling在标准的UNet结构中,longskipconnection上的scaling系数一般为1。然而,在一些著名的扩散模型工作中,比如Imagen,Score-ba...

