-
刘庆峰:通用大模型已可完全对标ChatGPT
10月24日消息,在今天的2023科大讯飞全球1024开发者节上,科大讯飞董事长刘庆峰表示,今天发布的星火认知大模型V3.0实现了5月6日的承诺:即通用大模型可完全对标ChatGPT,在中文能力上超越、在英文上能力相当。刘庆峰表示,星火认知大模型V3.0的多项能力获得了提升,多模态能力、代码能力、数学能力、逻辑推理能力、语言理解等七项能力都获得了提升...
互联网 2023-10-24 10:17:43 -
Remedy通讯总监:《心灵杀手2》主机端优化非常好
Remedy通讯总监Thomas Puha近日发推称,《心灵杀手2》主机端的优化非常好。“作为一名主机玩家,我真的很高兴《心灵杀手2》在主机平台上的表现如此出色...
游戏资讯 2023-10-22 16:09:03 -
Remedy通讯总监:《心灵杀手2》主机端优化非常好
Remedy通讯总监Thomas Puha近日发推称,《心灵杀手2》主机端的优化非常好。“作为一名主机玩家,我真的很高兴《心灵杀手2》在主机平台上的表现如此出色...
游戏资讯 2023-10-22 16:09:03 -
你追我赶!英伟达、Meta同日宣布机器人重磅成果
《科创板日报》10月21日讯(编辑 宋子乔) 如今,科技巨头主动肩负起机器人研发的重任,正你追我赶奔赴下一场科技盛宴。当地时间10月20日,英伟达、Meta各自发布了重磅机器人训练工具...
智能设备 2023-10-22 13:47:52 -
黑曜石总监乐于见到《Pentiment》登陆NS平台
虽然2022年微软并没有发布太多备受关注的第一方作品,但玩过黑曜石《Pentiment》的玩家能感觉到这款游戏还是相当不错的。《Pentiment》提供了非常紧凑的实验性叙事驱动冒险体验,是一款非常容易被低估的游戏作品...
游戏资讯 2023-10-21 12:44:56 -
魔兽1.36.1PTR出炉:神级宝物登场,WD&PLD大幅加强
北京时间10月20日凌晨,就在微软宣布收购动视暴雪后一周,暴雪官方发布了魔兽1.36...
游戏资讯 2023-10-20 15:59:44 -
节省专家40%的时间,微软启动SecurityCopilot抢先体验计划
IT之家 10 月 20 日消息,微软今年 3 月宣布推出 Security Copilot 服务,满足企业和组织的计算机安全需求。微软今天发布新闻稿,表示已经启动抢先体验计划,邀请部分企业参与测试...
智能设备 2023-10-20 10:33:03 -
讯飞高管解读财报:星火大模型将实现对标ChatGPT不受英伟达影响
雷递网 乐天 10月20日科大讯飞昨日发布财报。财报显示,科大讯飞2023年前三个季度营收为126.14亿元,较上年同期下降0...
智能设备 2023-10-20 10:25:54 -
FCC同意为AR/VR等开放6GHz频段,Meta、苹果和谷歌等兴奋
10月20日消息,美国联邦通信委员会(FCC)周四同意为某些设备开放新的频段,这对增强现实(AR)和虚拟现实(VR)可穿戴设备的发展非常有帮助。FCC成员一致投票决定将6GHz频段开放给所谓的“一类新的超低功耗设备”,比如可穿戴技术...
电信通讯 2023-10-20 10:25:06 -
Meta首席AI研究员杨立昆:现在的AI很蠢,监管别来管我们
10月20日消息,社交媒体Facebook母公司Meta的首席人工智能研究员杨立昆(YannLeCun)在接受采访时表示,人工智能现在很愚蠢,根本不用监管。他声称,早期阻碍人工智能的种种尝试会扼杀竞争...
业界动态 2023-10-20 09:56:57 -
OpenAI向ChatGPT付费用户开放DALL-E3访问权限
10月20日消息,美国时间周四,人工智能初创企业OpenAI宣布向ChatGPTPlus付费用户和企业版客户开放新版图像生成器DALL-E3的访问权限。DALL-E 3模型已经整合到ChatGPT中...
业界动态 2023-10-20 08:28:03 -
超火迷你GPT-4视觉能力暴涨,GitHub两万星,华人团队出品
白交 发自 凹非寺量子位 | 公众号 QbitAIGPT-4V来做目标检测?网友实测:还没有准备好。虽然检测到的类别没问题,但大多数边界框都错放了。没关系,有人会出手!那个抢跑GPT-4看图能力几个月的迷你GPT-4升级啦——MiniGPT-v2。△(左边为GPT-4V生成,右边为MiniGPT-v2生成)而且只是一句简单指令:[grounding] describe this image in detail就实现的结果。不仅如此,还轻松处理各类视觉任务。圈出一个物体,提示词前面加个 [identify] 可让模型直接识别出来物体的名字。当然也可以什么都不加,直接问~MiniGPT-v2由来自MiniGPT-4的原班人马(KAUST沙特阿卜杜拉国王科技大学)以及Meta的五位研究员共同开发。上次MiniGPT-4刚出来就引发巨大关注,一时间服务器被挤爆,如今GItHub项目已超22000+星。此番升级,已经有网友开始用上了~多视觉任务的通用界面大模型作为各文本应用的通用界面,大家已经司空见惯了。受此灵感,研究团队想要建立一个可用于多种视觉任务的统一界面,比如图像描述、视觉问题解答等。「如何在单一模型的条件下,使用简单多模态指令来高效完成各类任务?」成为团队需要解决的难题。简单来说,MiniGPT-v2由三个部分组成:视觉主干、线性层和大型语言模型。该模型以ViT视觉主干为基础,所有训练阶段都保持不变。从ViT中归纳出四个相邻的视觉输出标记,并通过线性层将它们投影到 LLaMA-2语言模型空间中。团队建议在训练模型为不同任务使用独特的标识符,这样一来大模型就能轻松分辨出每个任务指令,还能提高每个任务的学习效率。训练主要分为三个阶段:预训练——多任务训练——多模式指令调整。最终,MiniGPT-v2 在许多视觉问题解答和视觉接地基准测试中,成绩都优于其他视觉语言通用模型。最终这个模型可以完成多种视觉任务,比如目标对象描述、视觉定位、图像说明、视觉问题解答以及从给定的输入文本中直接解析图片对象。感兴趣的朋友,可戳下方Demo链接体验:https://minigpt-v2.github...
智能设备 2023-10-19 09:56:05