首页 > 资讯列表 >  本页面生成Questmobile专题报道,Questmobile滚动新闻,Questmobile业界评论等相关报道!
  • 《光环:无限》玩家数量回暖Steam在线峰值超1.8万

    《光环:无限》玩家数量回暖Steam在线峰值超1.8万

    随着第五赛季的推出,《光环:无限》Steam玩家人数开始回暖。SteamDB数据显示,这款游戏24小时的在线峰值达到了1.8万。第五赛季:审判提供了全新的战斗通行证,其中包含灵感源自洪魔的奖励、新地图、新模式以及适用于铸造器的先进 AI 工具包。枪林弹雨:山丘之王将在第五赛季后期上线,为备受欢迎的合作波次生存模式带来新的变化。 ...

    游戏资讯 2023-10-19 02:18:23
  • 消息称改款特斯拉Model3将配备通风座椅、氛围灯

    消息称改款特斯拉Model3将配备通风座椅、氛围灯

    IT之家 6 月 13 日消息,特斯拉正在进行 Model 3 的重大改款,代号为“高地计划”(Project Highland),目前该车仍处于传闻阶段,但此前测试车辆已多次曝光,显示改款 Model 3 可能会增加一些新功能,而最新的传闻显示,新车可能会从其老大哥 Model S 和 Model X 那里继承一些功能。最大的亮点可能就是通风座椅了,特斯拉在 2021 年推出了 Model S 和 Model X 的改款,首次引入了通风座椅,现在看来该功能也将出现在 Model 3 上...

    智能设备 2023-06-13 11:00:46
  • 造车新势力Silence宣布量产旗下首款电动汽车S04:电池可拆卸

    造车新势力Silence宣布量产旗下首款电动汽车S04:电池可拆卸

    IT之家 6 月 10 日消息,前捷豹路虎 SVO 部门主管约翰爱德华兹和前日产汽车营销总监托尼刘易创立了电动车品牌 Silence,该品牌近日宣布将正式进军电动汽车市场,其首款四轮电动车 Silence S04 已开始量产。▲ 图源:SilenceSilence 表示,S04 是一款双门双座电动汽车,其最大卖点是具有摩托车一样的的灵活性,但安全性比摩托车更好。Silence S04 的车身尺寸是 2.28m 长、宽 1...

    手机互联 2023-06-13 11:00:10
  • PSAI修图免费平替来了!StabilityAI又放大招,核弹级更新一键扩图

    PSAI修图免费平替来了!StabilityAI又放大招,核弹级更新一键扩图

    新智元报道编辑:编辑部【新智元导读】Stability AI再放大招,Uncrop Clipdrop一键扩图+重构图片,Photoshop Generative Fill免费平替来了。此前,PS的重建图像功能就让人无比振奋,让无数人惊呼今天,Stability AI又放大招了。它联合Clipdrop推出了Uncrop Clipdrop——一个终极图像比例编辑器。从Uncrop这个名字上,我们就能看出它的用途。它是一个AI生成的「外画」工具,通过创建扩展背景,这个工具可以补充任何现有照片或图像,来更改任何图像的比例。敲黑板:通过Clipdrop网站,就可以免费试用这个工具了,无需登录!比例任意调,满意为止Uncrop基于Stability AI的文本到图像模型Stable Diffusion XL构建。通过先进的算法和深度学习技术,Uncrop会自动分析上传图像中的内容,然后生成视觉上合理的产出。这可解了许多修图师和画手的燃眉之急了。拍了一张近乎完美的照片,就是构图不尽人意,怎么办?Uncrop给你一键解决!很多时候,为了让图像显示在横幅或大画布上,我们都需要调整图像大小,把它调到合适的尺寸,而且不能扭曲,不能丢失重要的细节,Uncrop完全解决了这样的烦恼。拍出的横图想变竖图?Uncrop帮你解忧。竖图变横图?也是易如反掌。比例不合适的照片,可以随意拉到你想要的比例。不过呢,Uncrop也有自己的局限性。如果是极端的未剪裁图像,或者大量缺失内容的图像,会产生不太准确的结果。因此,我们需要尽可能确保原始图像的高质量,才能获得最佳效果。另外,Uncrop是依靠算法来分析周围的像素、填补空白,它的精度可能会因为场景的复杂性而不同。效果演示官方的介绍效果视频:网友们分享了自己做的外画效果实例:上手体验看到效果这么好,小编忍不住手痒了,立马上手实测了一波。实操起来感受就是:操作非常方便。就像上边的GIF展示的那样,选好一张图片,拖拽到页面中的指定区域。就可以像下图这样选择自己想要扩展的范围,然后等几秒钟,平台就会生成4张扩展完成的图片供你挑选保存。而且还可以针对某一张生成的图片结合Clipdrop的AI修图进行再加工。去除背景。锐化。再让AI对处理过的图片进行风格重构。经过几次AI的套娃生成加工之后,图片不仅仅被扩展了,还可以根据用户的具体需求进行风格和内容上的彻底「进化」。这时候,就是设计师们发挥自己的创造力的时候了!我们也针对人像,运动场景,静物场景做了一些测试。人像原图扩展效果扩展出来的部分效果确实挺自然。不过因为不能用Prompt指引方向,扩展的效果比较随机。重构效果扩展后重构效果AI生成人物图像的老问题手指解决的还是不理想。而且重构之后小姐姐的身体比例稍微有点问题,颜值也感觉降低了。静物原图扩展效果扩展效果比较自然,几乎看不出什么违和感。扩展重构效果但是重构之后线条扭曲的比较明显,整个画面的风格会有比较大的变化。运动场景原图扩展效果很敏感地捕捉到了图片的动态风格,扩展效果不错。扩展后重构效果重构之后主体已经消失,只留下动态的模糊画面,AI对于内容要点把握的还不好。当我尝试想让一张风景照无限扩展变成一张全景照片时。发现对于已经被扩展过的部分,Uncrop的扩展功能是不能继续套娃的。开源版SD-XL4月,Stability AI将Stable Diffusion XL开始面向公众测试。值得一提的是,开源的SD-XL就已经达到了Midjourney水平,能够图像细节等方面表现更好,几乎完全可控。关于Stable Diffusion XL模型的具体信息,官方并没有透露太多,目前只知道是一个与v2模型架构相似、但规模和参数量更大的模型。SD-v2.1包括9亿参数,SD-XL大约有23亿参数,Emad表示正式版可能会额外发布一个更小的蒸馏版本。SD-XL相比之前版本的改进如下:使用较短的描述性prompt即可生成高质量图像可以生成更贴合prompt的图像图像中的人体结构更合理与 v2...

    智能设备 2023-06-13 10:59:19
  • SamAltman中国对话全文

    SamAltman中国对话全文

    Sam Altman 的致辞发生在6月10日智源大会的AI安全与对齐分论坛上。现场座无虚席,这位OpenAI CEO在屏幕上出现时,现场响起掌声,几乎所有人都举起手机对着屏幕拍照。不过Altman本人显得十分平静,甚至是谨慎。这是去年ChatGPT搅动全球AI热潮以来,Sam Altman 首度在中国背景的场合公开发表意见。事实上当天他也在离中国不远的地方,此前他刚刚抵达首尔,见了韩国总统。在对话中他自己提到,上一次来中国是2016年。在发表演讲后,他还与智源研究院理事长张宏江进行了一对一问答。以下为要点及实录。要点:随着我们在技术上越来越接近AGI,不对齐的影响和缺陷将呈指数级增长。OpenAI目前使用强化学习人类反馈技术来确保AI系统有用与安全,同时也在探索新的技术,其中一个思路是使用AI系统来辅助人类去监督别的AI系统。十年内人类将拥有强大的人工智能系统(AI System)。OpenAI没有相关的新的有关开源的时间表,尽管他承认在有关AI安全的问题上,开源模型具有优势,但开源所有东西可能并不是一条(促进AI发展的)最佳路线。看明白神经网络比看明白人类脑子容易多了。中国有最优秀的人工智能人才,AI安全需要中国研究者的参与和贡献。以下为演讲实录:今天,我想谈谈未来。具体来说,就是我们在人工智能能力方面看到的增长速度。我们现在需要做什么,为它们引入世界做好负责任的准备,科学史教会我们,技术进步遵循指数曲线。我们已经能从历史中看到这一点,从农业、工业到计算革命。人工智能令人震撼的不仅是它的影响力,还有它的进步速度。它拓展了人类想象力的边界,并且以快速的步伐进行着。想象一下,在未来十年里,通常被称为通用人工智能(AGI)的系统,在几乎所有领域都超越了人类的专业水平。这些系统最终可能超过我们最大公司的集体生产力。这里面潜藏着巨大的上升空间。人工智能革命将创造共享财富,并使提高每个人生活水平成为可能,解决共同挑战,如气候变化和全球卫生安全,并以无数其他方式提高社会福祉。我深信这个未来,为了实现它并享受它,我们需要共同投资于AGI安全,并管理风险。如果我们不小心,一个不符合目标的AGI系统,可能会通过提供没有根据的建议,破坏整个医疗系统。同样地,一个旨在优化农业实践的AGI系统可能会由于缺乏对长期可持续性的考虑而无意中耗尽自然资源或破坏生态系统,影响食品生产和环境平衡。我希望我们都能同意,推进AGI安全是我们最重要的领域之一。我想把我剩下的讲话重点放在我认为我们可以从哪里开始的地方。一个领域是AGI治理,这是一项具有全球影响的技术。鲁莽开发和部署造成的事故成本将影响我们所有人。在这方面,有两个关键要素:首先,我们需要建立国际规范和标准,并通过包容的过程,在所有国家为AGI的使用制定平等统一的保护措施。在这些保护措施之内,我们相信人们有充分的机会做出自己的选择。其次,我们需要国际合作来建立对日益强大的人工智能系统安全开发的全球信任,以可验证的方式。这不是一件容易的事情。我们需要作为国际社会投入持续而重要的关注,才能做好这件事。道德经提醒我们,千里之行始于足下。我们认为在这里采取最有建设性的第一步是与国际科技界合作。特别是,我们应该促进增加透明度和知识共享的机制,关于AGI安全方面的技术进展。发现新出现安全问题的研究人员应该为了更大的利益分享他们的见解。我们需要认真考虑如何在尊重和保护知识产权权利的同时,鼓励这种规范。如果我们做好了这一点,它将为我们打开新的大门,让我们能够加深合作。更广泛地说,我们应该投资、促进和引导对目标和安全研究的投资。在OpenAI,我们今天的目标研究主要集中在技术问题上,即如何让人工智能系统作为一个有用和安全的助手,在我们当前的系统中行动。这可能意味着,我们如何训练ChatGPT,使它不会发出暴力威胁或协助用户进行有害活动。但是随着我们更接近AGI,任何不符合目标的潜在影响和程度都将呈指数增长。为了提前解决这些挑战,我们努力将未来灾难性结果的风险降到最低。对于当前系统,我们主要使用来自人类反馈的强化学习来训练我们的模型,使其作为一个有用和安全的助手行动。这是后期训练目标技术中的一个例子,我们也在忙于开发新的技术。要做好这件事情需要很多艰苦的工程工作。从GPT-4完成预训练到部署它,我们花了8个月的时间来做这件事。总的来说,我们认为我们在这方面走在了正确的轨道上。GPT-4比我们以前的任何模型都更符合目标。然而,对于更先进的系统来说,目标仍然是一个未解决的问题,我们认为这需要新的技术方法,以及更多的治理和监督。想象一下,一个未来的AGI系统提出了10万行二进制代码。人类监督者不太可能检测到这样一个模型是否在做一些邪恶的事情。所以我们正在投资一些新的和互补的研究方向,我们希望能够取得突破。一个是可扩展的监督。我们可以尝试使用人工智能系统来协助人类监督其他人工智能系统。例如,我们可以训练一个模型来帮助人类监督者发现其他模型输出中的缺陷。第二个是可解释性。我们想尝试更好地理解这些模型内部发生了什么。我们最近发表了一篇论文,使用GPT-4来解释GPT-2中的神经元。在另一篇论文中,我们使用模型内部信息来检测模型何时在说谎。虽然我们还有很长的路要走,但我们相信先进的机器学习技术可以进一步提高我们产生解释的能力。最终,我们的目标是训练人工智能系统来帮助目标研究本身。这种方法的一个有希望的方面是,它随着人工智能发展的步伐而扩展。随着未来模型变得越来越聪明和有用作为助手,我们将找到更好的技术,实现AGI的非凡利益,同时减轻风险,是我们这个时代最重要的挑战之一。以下为对话实录:张宏江:我们离人工智能还有多远?风险是不是很紧迫,还是我们离它还很遥远?无论是安全的人工智能,还是潜在的不安全的人工智能。Sam Altman :这个问题很难准确预测时间,因为它需要新的研究思路,而这些思路并不总是按照规定的日程来发展的。它可能很快就会发生,也可能需要更长的时间。我认为很难用任何程度的确定性来预测。但我确实认为,在未来十年内,我们可能会拥有非常强大的人工智能系统。在这样的世界里,我认为解决这个问题是重要而紧迫的,这就是为什么我呼吁国际社会共同合作来解决这个问题。历史上确实给我们提供了一些新技术比许多人想象的更快地改变世界的例子。我们现在看到的这些系统的影响和加速度,在某种意义上是前所未有的。所以我认为做好准备,让它尽快发生,并且解决好安全性方面的问题,考虑到它们的影响和重要性,是非常有意义的。张宏江:你感觉到了一种紧迫感吗?Sam Altman:是的,我感觉到了。我想强调一下,我们并不真正知道。而且人工智能的定义也不同,但是我认为在十年内,我们应该为一个拥有非常强大系统的世界做好准备。张宏江:你在刚才的演讲中也提到了几次全球合作。我们知道世界在过去六七十年里面临过很多危机。不过对于其中的很多危机,我们设法建立了共识和全球合作。你也正在进行一次全球之旅。你正在推动什么样的全球合作?你对目前收到的反馈感觉如何?Sam Altman:是的,我对目前收到的反馈非常满意。我认为人们非常认真地对待人工智能带来的风险和机遇。我认为在过去六个月里,这方面的讨论已经有了很大进步。人们真正致力于找出一个框架,让我们能够享受这些好处,同时共同合作来减轻风险。我认为我们处于一个非常有利的位置来做这件事。全球合作总是很困难的,但我认为这是一种机会和威胁,可以让世界团结起来。我们可以制定一些框架和安全标准,来指导这些系统的开发,这将是非常有帮助的。张宏江:在这个特定的话题上,你提到了高级人工智能系统的对齐是一个未解决的问题。我也注意到OpenAI在过去几年里投入了很多精力。你还提到了GPT-4是对齐方面的最佳例子。你认为我们能否通过对齐来解决人工智能安全问题?或者这个问题比对齐更大?Sam Altman :我认为对齐这个词有不同的用法。我认为我们需要解决的是如何实现安全人工智能系统的整个挑战。对齐在传统意义上是指让模型按照用户的意图行事,这当然是其中的一部分。但我们还需要回答其他一些问题,比如我们如何验证系统是否做了我们想要它们做的事情,以及我们要根据谁的价值观来对齐系统。但我认为重要的是要看到实现安全人工智能所需要的全貌。张宏江:是的,如果我们看看GPT-4所做的事情,在很大程度上,它仍然是从技术角度来看的。但除了技术之外,还有许多其他因素。这是一个非常复杂的问题。通常复杂问题是系统性的。人工智能安全可能也不例外。除了技术方面之外,你认为还有哪些因素和问题对人工智能安全至关重要?我们应该如何应对这些挑战?特别是我们大多数人都是科学家,我们应该做什么?Sam Altman:这当然是一个非常复杂的问题。我会说没有技术解决方案,其他一切都很难。我认为把很多精力放在确保我们解决了安全方面的技术问题上是非常重要的。正如我提到的,弄清楚我们要根据什么样的价值观来对齐系统,这不是一个技术问题。它需要技术输入,但它是一个需要全社会深入讨论的问题。我们必须设计出公平、有代表性和包容性的系统。而且,正如你指出的,我们不仅要考虑人工智能模型本身的安全性,还要考虑整个系统的安全性。所以建立安全分类器和检测器,可以在模型之上运行,可以监控使用策略的遵守情况,这也很重要。然后,我也认为很难提前预测任何技术会出现什么问题。所以从真实世界中学习和迭代地部署,看看当你把模型放到现实中时会发生什么,并改进它,并给人们和社会时间去学习和更新,并思考这些模型将如何以好的和坏的方式影响他们的生活。这也很重要。张宏江:你刚才提到了全球合作。你已经访问了很多国家,你提到了中国。但你能否分享一些你在合作方面取得的成果?你对下一步有什么计划或想法?从这次世界之旅中,从你与各种政府、机构、机构之间的互动中?Sam Altman:我认为通常需要很多不同的视角和人工智能安全。我们还没有得到所有的答案,这是一个相当困难和重要的问题。此外,正如所提到的,这不是一个纯粹的技术问题,使人工智能安全和有益的。涉及在非常不同的背景下了解不同国家的用户偏好。我们需要很多不同的投入才能实现这一目标。中国拥有一些世界上最优秀的人工智能人才。从根本上说,我认为,考虑到解决高级人工智能系统对齐的困难,需要来自世界各地的最好的头脑。所以我真的希望中国的人工智能研究人员在这里做出巨大的贡献。张宏江:我明白今天的论坛是关注AI安全的,因为人们对OpenAI很好奇,所以我有很多关于OpenAI的问题,不仅仅是AI安全。我这里有一个观众的问题是,OpenAI有没有计划重新开源它的模型,就像在3.0版本之前那样?我也认为开源有利于AI安全。Sam Altman:我们有些模型是开源的,有些不是,但随着时间的推移,我认为你应该期待我们将来会继续开源更多的模型。我没有一个具体的模型或时间表,但这是我们目前正在讨论的事情。张宏江:我们把所有的努力都投入到了开源中,包括模型本身、开发模型的算法、优化模型和数据之间关系的工具。我们相信有必要分享,并让用户感觉到他们控制了自己所使用的东西。你是否有类似的反馈?或者这是你们在OpenAI中讨论的内容?Sam Altman:是的,我认为开源在某种程度上确实有一个重要的作用。最近也有很多新的开源模型出现。我认为API模型也有一个重要的作用。它为我们提供了额外的安全控制。你可以阻止某些用途。你可以阻止某些类型的微调。如果某件事情不起作用,你可以收回它。在当前模型的规模下,我不太担心这个问题。但是随着模型变得像我们期望的那样强大,如果我们对此是正确的,我认为开源一切可能不是最佳路径,尽管有时候它是正确的。我认为我们只需要仔细地平衡一下。张宏江:关于GPT-4和AI安全方面的后续问题是,我们是否需要改变整个基础设施或整个AGI模型的架构,以使其更安全、更容易被检查?你对此有什么想法?Sam Altman:这肯定有可能,我们需要一些非常不同的架构,无论是从能力还是从安全性方面来看。我认为我们将能够在可解释性方面取得一些进展,在当前类型的模型上,并让它们更好地向我们解释它们在做什么以及为什么。但是,如果在变换器之后还有另一个巨大的飞跃,那也不会让我感到惊讶。而且实际上我们已经在原始的变换器之后,架构已经发生了很大的变化。张宏江:作为一个研究人员,我也很好奇,下一步的AGI研究方向是什么?在大模型、大语言模型方面,我们会不会很快看到GPT-5?下一个前沿是不是在具身模型上?自主机器人是不是OpenAI正在或者准备探索的领域?Sam Altman:我也很好奇下一步会发生什么,我最喜欢做这项工作的原因之一就是在研究的前沿,有很多令人兴奋和惊讶的事情。我们还没有答案,所以我们在探索很多可能的新范式。当然,在某个时候,我们会尝试做一个GPT-5模型,但不会是很快。我们不知道具体什么时候。我们在OpenAI刚开始的时候就做过机器人方面的工作,我们对此非常感兴趣,但也遇到了一些困难。我希望有一天我们能够回到这个领域。张宏江:听起来很棒。你在演讲中也提到了你们是如何用GPT-4来解释GPT-2的工作原理,从而使模型更安全的例子。这种方法是可扩展的吗?这种方向是不是OpenAI未来会继续推进的?Sam Altman:我们会继续推进这个方向。张宏江:那你认为这种方法可以应用到生物神经元上吗?因为我问这个问题的原因是,有一些生物学家和神经科学家,他们想借鉴这个方法,在他们的领域里研究和探索人类神经元是如何工作的。Sam Altman:在人工神经元上观察发生了什么比在生物神经元上容易得多。所以我认为这种方法对于人工神经网络是有效的。我认为使用更强大的模型来帮助我们理解其他模型的方法是可行的。但我不太确定你怎么把这个方法应用到人类大脑上。张宏江:好的,谢谢你。既然我们谈到了AI安全和AGI控制,那么我们一直在讨论的一个问题是,如果这个世界上只有三个模型,那么会不会更安全?这就像核控制一样,你不想让核武器扩散。我们有这样的条约,我们试图控制能够获得这项技术的国家数量。那么控制模型数量是不是一个可行的方向?Sam Altman:我认为对于世界上有少数模型还是多数模型更安全,有不同的观点。我认为更重要的是,我们是否有一个系统,能够让任何一个强大的模型都经过充分的安全测试?我们是否有一个框架,能够让任何一个创造出足够强大的模型的人,既有资源,也有责任,来确保他们创造出的东西是安全和对齐的?张宏江:昨天在这个会议上,MIT未来生命研究所的Max教授提到了一种可能的方法,就是类似于我们控制药物开发的方式。科学家或者公司开发出新药,你不能直接上市。你必须经过这样的测试过程。这是不是我们可以借鉴的?Sam Altman:我绝对认为,我们可以从不同行业发展出来的许可和测试框架中借鉴很多东西。但我认为从根本上说,我们已经有了一些可以奏效的方法。张宏江:非常感谢你,Sam。谢谢你抽时间来参加这次会议,虽然是虚拟的。我相信还有很多问题,但考虑到时间,我们不得不到此为止。希望下次你有机会来中国,来北京,我们可以有更深入的讨论。非常感谢你。 ...

    智能设备 2023-06-13 10:58:37
  • Instagram被曝将引入AI聊天机器人拥有30种人物性格

    Instagram被曝将引入AI聊天机器人拥有30种人物性格

    6月7日消息,Meta正在加速采用生成式人工智能技术,并将其整合到包括广告在内的各种平台上。现在,该公司正在Instagram上测试一项新功能...

    互联网 2023-06-07 07:40:29
  • 苹果宣布StandBy功能:让iPhone变身智能屏幕

    苹果宣布StandBy功能:让iPhone变身智能屏幕

    IT之家 6 月 6 日消息,苹果在今天召开的 WWDC 2023 开幕演讲中,宣布了 StandBy 功能,iPhone 启用之后,可以充当智能屏幕(Smart Display),对于使用智能家居的用户来说是一项实用功能。苹果宣布将在今年秋季推出的 iOS 17 更新中,推出 StandBy 功能...

    手机互联 2023-06-06 21:39:26
  • 苹果全线产品转向自家AppleSilicon英特尔跌超4%

    苹果全线产品转向自家AppleSilicon英特尔跌超4%

    6月6日消息,当地时间周一苹果发布采用全新自研芯片的Mac Pro,芯片制造商英特尔股价当日应声下跌4.63%,收于每股29...

    互联网 2023-06-06 07:05:27
  • 新款MacStudio将搭载M2Max和M2Ultra芯片

    新款MacStudio将搭载M2Max和M2Ultra芯片

    财联社6月6日电,苹果宣布,新款Mac Studio将搭载M2 Max和M2 Ultra芯片。苹果还推出搭载M2 Ultra芯片的MAC Pro...

    业界动态 2023-06-06 01:23:53
  • 华为版ChatGPT要来了?产品主要面向ToB/G客户,产业链相关股望受益

    华为版ChatGPT要来了?产品主要面向ToB/G客户,产业链相关股望受益

    ①华为公司将发布一款直接对标ChatGPT的多模态千亿级大模型产品,名为“盘古Chat”。 ②华为盘古大模型的优势在于人才储备和算力自主可控,有望成为国内领先的大模型,其生态产业链标的有望迎来加速发展。 ③在B端的重型应用也有诸多大模型能够发挥的场景。 财联社6月3日讯,钛媒体近日从华为内部独家获悉,华为公司将发布一款直接对标ChatGPT的多模态千亿级大模型产品,名为“盘古Chat”。预计华为盘古Chat将于今年7月7日举行的华为云开发者大会 (HDC.Cloud 2023) 上对外发布以及内测,产品主要面向To B/G政企端客户。随着ChatGPT在全球范围内迅速爆红,AI大模型赛道的热潮从国外涌向国内,并随之急速升温。目前,阿里、腾讯、百度、三六零等巨头正加速大模型布局,华为的入局意味着在大模型领域,阿里、腾讯等巨头企业将迎来强劲对手。华为自2020年就已开始布局大模型,盘古大模型是由CV(计算机视觉)大模型、科学计算大模型、NLP(自然语言处理)大模型、语音大模型、多模态大模型组成的系列,于2021年4月正式发布。目前,盘古大模型已经在100多个行业场景完成验证,包括能源、零售、金融、工业、医疗、环境、物流等等,从行业及场景两个维度能够管窥盘古大模型的应用情况:行业方面:CV大模型可应用于工业质检、物流仓库监控、时尚辅助设计等领域。NLP大模型可应用于智能文档搜索、智能ERP、小语种大模型等领域。科学计算大模型可应用于气象预报、海浪预测等领域。场景方面:盘古矿山大模型实现了综采场景的全景视频拼接等功能,保障安全生产;CV大模型实现了货车故障轨旁图像检测系统精度超过人类检测员;气象大模型实现了精度超过传统预报方式。华为云盘古大模型的核心定位是为各行各业进行赋能,分为三个层级:L0是类似于GPT3这样的基础通用大模型;L1是基础模型与行业数据结合进行混合训练后的行业大模型,已经发布了矿山、气象、药物、分子、电力、海浪、金融等行业的大模型;L2是把L1再具体下游业务场景进行部署后生成的部署模型,如金融OCR模型、电力巡检模型等。国金证券认为,盘古大模型具备极强的泛化能力、一个模型适用大量复杂行业场景。随着盘古大模型的开放,各行各业的开发者不必再“从零开始”,只需在云上找到所需要的模型,盘古大模型相当于各个行业AI通用的“轮子”,助力各行各业加速智能化转型。东吴证券认为华为盘古大模型的优势在于人才储备和算力自主可控,有望成为国内领先的大模型,其生态产业链标的有望迎来加速发展,东吴证券梳理的华为盘古大模型产业链相关个股如下:值得一提的是,相较于前期市场在AI应用行情的演绎中更为重视高频的C端创作类应用,“盘古Chat”主要面向To B/G政企端客户可谓是“另辟蹊径”。中金公司认为在B端的重型应用也有诸多大模型能够发挥的场景:如在通用企业服务软件(ERP、PLM、MES等)通过集成AI模块有望实现交互模式变革,降低软件的应用门槛并提升使用效率。在垂类细分的工业领域,同样积累了大量未充分利用的数据,CV、NLP等AI技术的应用有望赋能工业场景,提升智能化水平并实现生产降本增效。B端的大模型落地场景同样丰富,中金公司建议持续关注通用企业服务赛道、垂直细分行业赛道以及其他工业场景方面的投资机会:通用企业服务赛道:推荐赛意信息(华为Meta ERP主要合作伙伴)、用友网络(企业服务大模型研发参与者),建议关注汉得信息(百度文心大模型合作伙伴);垂直细分行业赛道:煤炭行业智能化推荐北路智控、龙软科技,建议关注云鼎科技;流程行业智能化推荐中控技术(场景、格局、数据优势明显,期待产品与AI结合落地);其他工业场景中,中金推荐容知日新、东土科技,建议关注霍莱沃。 ...

    手机互联 2023-06-04 09:03:41
  • 日本:敞开训练AI不用管版权,LeCun:机器学习天堂

    日本:敞开训练AI不用管版权,LeCun:机器学习天堂

    西风 发自 凹非寺量子位 | 公众号 QbitAI大模型狂潮下,日本政府坐不住了。直接宣布:不会对训练AI所使用的数据实施版权保护。这也就意味着,训练AI可以使用任何数据。不管是非营利还是商业目的,不论是否是复制以外的行为,只要你能搞得到,你就可以用,甚至从非法网站获得的数据也可以用。连Yann LeCun看到消息后都发文表示:日本已经成为了机器学习的天堂。确实,不少日本学术界和商界人士那是敲锣打鼓。毕竟想要在全球大模型舞台上分得一杯羹,数据本就是一大关键要素。但这引起了动漫和艺术创作者的担忧。早在四个月前,日本参议院议员、职业漫画家赤松健在YouTube上发布了一个讲用AI进行图像生成的视频,就有提到过侵权问题,以及漫画师的担忧。在那时,就有日本画友认为:希望能开发出超越“Novel AI”的AI插图服务。当然,这个AI服务的训练数据集中不能使用未经授权的转载图片。但现在,对训练AI所使用的数据集的版权限制已放开。用无视版权的方式“弯道超车”其实,日本并不是第一次在版权保护上有所松懈。日本曾经因为过于严苛的版权保护,导致版权转让极为不便,需要遵循诸多条条框框,盗版问题也很严重。之后,日本在2019年修正了版权保护制度。即便如此,这次日本被爆在训练AI方面的大尺度政策,还是令人惊讶。Technomancers.ai报道称:似乎日本认为版权问题,尤其是与动漫和其它视觉媒体相关的版权问题,阻碍了该国在人工智能技术方面的进展。作为回应,日本决定全力以赴,选择无版权的方式来保持竞争力。尽管日本目前是世界第三大经济体,但自1990年代以来,日本的经济增长一直缓慢。此时,若人工智能可以得到有效发展,就有可能在短时间内将日本的GDP提高50%或者更多。对于日本来说,这是一个令人兴奋的前景。日本还试图把手伸向西方国家的数据库,这也是日本发展人工智能的关键。相较而言,日本的日语训练数据量明显少于西方可用的英语数据资源。日本拥有很受欢迎动漫等文化内容。在这点上,日本的立场似乎很明确:如果西方利用日本文化来训练AI,那么西方文化资源也应该可供日本训练AI。AI监管辩论还在继续TB级别的训练数据是维系大模型进化的一大核心要素。毕竟可用的高质量训练数据越多,AI 模型就越好。而关于大模型训练数据不透明等问题一直是大家讨论的热点。大模型的野蛮生长势必要带来人们对其安全合规的考量,侵权问题就是需要监管的问题之一。而此次日本这一举动也为监管辩论增添了转折。针对版权问题,美国版权局(USCO)在三月份也发布了新规。但并不是对版权进行保护,而是称:人工智能(AI)自动生成的作品不受版权法保护。因为,和人工参与创作的Photoshop作品不同,通过Midjourney、Stability AI、ChatGPT等平台生成的作品完全由AI自动完成,而且训练的数据是基于人类创作的作品,因此不受版权法保护。对此,你怎么看?参考链接:[1]https://technomancers...

    智能设备 2023-06-03 10:08:55
  • 苹果AppleWatch新专利:背面配摄像头,可拍照生成虚拟头像

    苹果AppleWatch新专利:背面配摄像头,可拍照生成虚拟头像

    IT之家 6 月 2 日消息,根据美国商标和专利局(USPTO)公示的清单,苹果公司近日获得了一项关于 Apple Watch 的技术专利。专利描述了一个奇怪的应用场景 ,苹果计划在 Apple Watch 背面配备摄像头,允许佩戴者拍摄 Face ID 图像,并生成可在 Apple Watch、苹果 AR / VR 头显中使用的 2D / 3D 虚拟头像...

    智能设备 2023-06-02 11:23:45

站长搜索

http://www.adminso.com

Copyright @ 2007~2024 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持