首页 > 资讯列表 >  科技资讯
  • 谷歌CEO评苹果头显:令人感到兴奋但还没亲自体验过

    谷歌CEO评苹果头显:令人感到兴奋但还没亲自体验过

    6月12日消息,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)表示,他对苹果首款混合现实头显Vision Pro等技术的潜力感到兴奋,这些技术可以为人们带来更加身临其境的计算体验。皮查伊补充说,虽然他本人还没有亲身体验过这款售价3499美元的设备,但谷歌“始终认为计算将超越黑色矩形”,这指的是如今的智能手机。皮查伊最近接受彭博社采访时发表了上述言论。在采访中,他被问及人工智能和硅谷最近陷入低迷等一系列话题。谈到谷歌裁员问题时,皮查伊表示,公司将继续努力提高效率。今年1月,谷歌解雇了1.2万名员工,而对于雇用大量合同工的外包公司,也削减了业务往来。在采访中他还被问及,在OpenAI使用谷歌研究的某些技术并成为其竞争威胁之后,谷歌是否需要改变发布新研究成果的策略。此前有报道称,随着谷歌将人工智能融入其产品中,公司内部领导人正在重新考虑在学术期刊上发表多少尖端人工智能研究。皮查伊对此表示,他预计谷歌将继续积极发表人工智能领域的研究成果。在虚拟现实(VR)和增强现实(AR)计算领域,谷歌曾多次涉足,但成败参半。早在2014年,该公司就发布了一款由纸板制成的VR头显,智能手机可以置入其中充当显示屏。这款硬纸板头显旨在为新VR用户提供一种低价设备,以扩大沉浸式应用的潜在市场。尽管谷歌发布了更多VR头显,但基本上已经放弃了这个市场,而是专注于其应用程序中的AR体验,例如谷歌镜头(Google Lens),它允许用户使用相机拍摄的照片进行搜索。谷歌还曾推出过谷歌眼镜(Google Glass),这款更昂贵的AR眼镜被嘲笑为丑陋且具有侵入性,它内置了一个可以捕捉周围环境的摄像头。在过去几年专注于企业市场之后,谷歌最近宣布将完全停止销售这款设备。据报道,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)在上周的一次全公司会议上抨击了苹果头显Vision Pro,称其过于昂贵,与Meta的VR愿景不符。当然,Meta是Quest系列头显的制造商,也是该领域的市场领导者。在采访中,皮查伊还被问及微软首席执行官萨蒂亚·纳德拉(Satya Nadella)的评论。纳德拉曾经表示,微软进军人工智能领域的努力促使谷歌“跳舞”,这表明谷歌在保持灵活性方面遇到挑战。当被问及皮查伊是否认为这些评论公平时,他基本上回避了这个问题,并苦笑着回答说:“我认为他这么说就是为了让你问我这个问题。”(小小) ...

    业界动态 2023-06-13 10:59:30
  • 特斯拉辅助驾驶系统四年间在美国发生736起车祸至少17人遇难

    特斯拉辅助驾驶系统四年间在美国发生736起车祸至少17人遇难

    6月12日消息,媒体对美国国家公路交通安全管理局(NHTSA)收集的数据进行分析后发现,自2019年以来,美国共发生了736起涉及特斯拉司机辅助驾驶系统的车祸,远远超过此前报道的数量。在这些事故中,至少造成了17人遇难。这类撞车事故激增表明,特斯拉辅助驾驶系统的使用越来越广泛,同时其带来的危险也不断增加。以下为翻译全文:一份警方报告称,今年3月份的某个下午,当17岁的蒂尔曼·米切尔(Tillman Mitchell)下车时,校车正在显示停车标志,红色警示灯不断闪烁着。然后,一辆特斯拉Model Y驶进了北卡罗来纳州的561号高速公路。据称,当时这辆车上的司机辅助驾驶系统Autopilot正处于启动状态,但它没有任何减速的迹象。这辆Model Y以时速超过70公里的速度撞上了米切尔。据他的姑祖母多萝西·林奇(Dorothy Lynch)说,米切尔先是撞穿了挡风玻璃,然后飞向空中,最终脸朝下落在路上。米切尔的父亲听到了撞击声,冲出门廊,发现他的儿子正躺在路中央。林奇说:“如果他是个更小的孩子,可能早就死了!”媒体对NHTSA收集的数据分析显示,这起撞车事故发生在北卡罗来纳州哈利法克斯县,只是自2019年以来在美国发生的736起涉及特斯拉Autopilot的撞车事故之一,这个数字远远超过此前的报道。数据显示,这类撞车事故的数量在过去四年里激增表明,随着特斯拉司机辅助驾驶技术被越来越广泛地使用,以及越来越多配备此类系统的汽车出现在美国公路上,它们带来的危险也越来越高。数据还显示,与Autopilot相关的死亡和重伤人数也大幅增加。当NHTSA在2022年6月首次公布涉及Autopilot的事故的部分统计时,他们只统计了三起明确与这项技术有关的致命车祸。而最新数据包括至少17起致命事故,其中11起是自去年5月以来发生的,还有5人重伤。米切尔在3月份的撞车事故中幸存下来,但颈部骨折,腿部骨折,不得不接受呼吸机治疗。他仍然患有记忆力问题,走路也困难。他的姑祖母林奇说,这起事件应该是对这项技术危险性的一个警告。“我祈祷这是一个学习的过程,”林奇说。“当涉及到机器时,人们太轻信它了!”特斯拉首席执行官埃隆·马斯克( Elon Musk)表示,在启动Autopilot系统的情况下,特斯拉汽车比仅由人类驾驶的汽车更安全,并列举了两种驾驶模式时的撞车率。他希望特斯拉开发和部署更多辅助驾驶功能,以躲避停泊的校车、消防车、停车标志和行人。他甚至辩称,这项技术将带来一个更安全、几乎不再有车祸的未来。虽然不可能说已经有多少起车祸被避免,但数据显示,在美国高速公路上实时测试的这项技术存在明显缺陷。媒体分析发现,特斯拉Autopilot涉及的17起致命撞车事故显示出不同的模式:其中4起涉及与摩托车相撞,另一起涉及与急救车相撞。与此同时,多位专家表示,马斯克的某些决定似乎是导致事故报告增加的原因之一,比如广泛扩大辅助驾驶功能的可用性,以及取消车辆上的雷达传感器。特斯拉和马斯克都没有回复置评请求。NHTSA表示,一份涉及司机辅助驾驶系统的撞车报告本身并不意味着这项技术是导致事故的原因。该机构发言人维罗妮卡·莫拉莱斯(Veronica Morales)说:“NHTSA正在对特斯拉Autopilot进行积极调查,包括其升级版FSD。NHTSA提醒公众,所有先进的辅助驾驶系统都要求人类司机时刻处于控制状态,并全身心投入驾驶任务中。因此,美国所有州的法律都要求人类司机对其车辆的操作负责。”马斯克一再为自己向特斯拉车主推广辅助驾驶技术的决定辩护,认为其利大于弊。他去年曾说:“既然你相信增加自主性可以减少伤亡,我认为你就有道义上的义务部署它,即使你会被很多人起诉和指责。”NHTSA前高级安全顾问、乔治梅森大学工程与计算学院教授米西·卡明斯(Missy Cummings)表示,涉及特斯拉的车祸激增令人担忧。她在回应上述分析发现时说,特斯拉发生的撞车事故比正常情况更严重,也更致命。卡明斯说,一个可能的原因是,在过去一年半的时间里,FSD的推广范围扩大了,它为城市和居民区的街道带来了辅助驾驶。“事实上,任何人都可以拥有这套系统。预计这可能会导致事故率上升,这合理吗?当然合理。”卡明斯说,与总体撞车事故相比,死亡人数增加也是一个令人担忧的问题。目前尚不清楚NHTSA的数据是否记录了涉及特斯拉辅助驾驶系统的每一起撞车事故,但其中囊括了部分启用Autopilot或FSD的事故,包括三起死亡事故。在2021年一项联邦命令要求汽车制造商披露涉及辅助驾驶技术的事故后,作为美国最高汽车安全监管机构,NHTSA开始收集数据。与所有道路事故相比,涉及这项技术的撞车事故总数仍然很少。NHTSA估计,去年有超过4万美国人死于各种车祸。数据显示,自引入撞车事故报告要求以来,与辅助驾驶系统相关的807起撞车事故中,绝大多数涉及特斯拉。这是因为特斯拉在自动驾驶方面的尝试比其他汽车制造商更积极,它也与几乎所有的致命事故有关。斯巴鲁排名第二,自2019年以来共发生23起撞车事故。这种巨大的鸿沟可能反映了特斯拉整个车队更广泛地部署和使用驾驶辅助系统,以及鼓励特斯拉司机使用Autopilot的情况。特斯拉于2014年推出Autopilot,这是一套辅助驾驶功能,使汽车能够自动从高速公路入口匝道转向出口匝道,并在此期间保持特定速度,与其他车辆保持距离,并跟随车道线行驶。特斯拉将Autopilot作为其车辆的标准功能,超过80万辆在美国道路上行驶的特斯拉汽车配备了Autopilot,尽管迭代需要付出成本。FSD是消费者必须购买的一项试验性功能,它允许特斯拉按照路线上的指示转弯,在停车标志和红灯时停车,自动转弯和换道,并对沿途的危险做出反应,从而从A点机动到B点。特斯拉表示,无论使用哪种系统,司机都必须监控道路情况,并在必要时进行干预。撞车事故的增加恰逢特斯拉积极推广FSD之际,在过去一年多一点的时间里,FSD的用户从大约1.2万人扩大到近40万人。特斯拉向NHTSA报告的所有涉及辅助驾驶系统撞车事故中,近三分之二发生在过去一年。卡内基梅隆大学教授菲利普·库普曼(Philip Koopman)对自动驾驶汽车安全性进行了25年的研究。他表示,数据中特斯拉的名字频繁出现引发了关键问题。“数字明显增加肯定让人感到担心,”他说。“我们需要了解这是因为更严重的撞车事故所致,还是有其他一些因素,比如在开启Autopilot模式下行驶的里程数大幅增加。”今年2月,特斯拉召回了超过36万辆配备FSD系统的汽车,原因是担心该软件会促使其车辆违反红绿灯、停车标志和限速规则。安全机构发布的文件称,如果司机不干预,藐视交通法规“可能会增加撞车的风险”。特斯拉表示,该公司通过空中软件更新修复了这些问题,远程解决了风险。尽管特斯拉不断改进其辅助驾驶软件,但它也采取了史无前例的举措,从新车上移除雷达传感器,并在已经上路的车辆上禁用雷达传感器。在全球电脑芯片短缺的情况下,马斯克推出了一套更简单的硬件,移除了这些车上的一个关键传感器。马斯克去年曾表示:“只有极高分辨率的雷达才有意义。”有报道称,特斯拉最近已采取措施,重新引入雷达传感器。在3月份的一次演示中,特斯拉声称,通过比较每次碰撞的行驶里程,涉及FSD的撞车事故发生率至少比正常驾驶下的车辆低五倍。如果没有特斯拉提供的详细数据,这一说法以及马斯克对自动驾驶仪“绝对更安全”的描述,可能都无法证实。Autopilot在很大程度上是一款高速公路系统,与典型的道路使用者所经历的各种情况相比,它可以在不太复杂的环境中运行。目前尚不清楚NHTSA数据中涵盖的致命车祸中使用了哪种系统:特斯拉已要求NHTSA不要披露相关信息。在NHTSA数据中阐述软件版本的部分,特斯拉用大写字母标记:“已编辑,可能包含机密商业信息。”近年来,Autopilot和FSD都受到了密切关注。美国交通部长皮特·布蒂吉格(Pete Buttigieg)上个月称,当法律规定你需要把手放在方向盘上,眼睛始终盯着路的时候,Autopilot显然并非最合适的名字。NHTSA已经对涉及特斯拉的撞车事故和其辅助驾驶软件的其他问题展开了多项调查。其中一项调查重点是所谓的“幻影刹车”,即车辆会因想象中的危险而突然减速。在去年的一起案件中,一辆据称启用辅助驾驶系统的特斯拉Model S在旧金山湾大桥上的车流中突然刹车,导致8辆车连环相撞,9人受伤,其中包括一名2岁的儿童。在提交给NHTSA的其他投诉中,车主表示,这些汽车在迎面而来的车道上遇到卡车时也会突然刹车。许多撞车事故都涉及到类似的设置和条件。例如,NHTSA已经收到了十几起特斯拉汽车启动Autopilot的情况时撞上停放的紧急车辆的报告。去年,该机构称将对这些事件的调查升级为“工程分析”,这是强制大规模召回的前奏。同样在去年,NHTSA连续两次对涉及特斯拉汽车和摩托车手的致命撞车事故展开特别调查。据称,其中一起车祸发生在犹他州,时间在凌晨1点过后不久,一名骑着哈雷戴维森摩托车的人在盐湖城外的15号州际公路上行驶。一辆开启Autopilot的特斯拉汽车从后面撞了上来。犹他州公共安全部称,特斯拉的司机没有看到摩托车手,与摩托车后座相撞,导致车手摔了下来,并当场死亡。卡明斯说:“摩托车在特斯拉附近行驶是非常危险的。”在数百起涉及特斯拉辅助驾驶系统的撞车事故中,NHTSA专注于对约40起事故进行深入分析,希望对该技术的运作方式有更深入的了解。其中包括北卡罗来纳州涉及米切尔的撞车事故。事故发生之后,米切尔在医院醒来,完全不记得发生了什么。据北卡罗来纳州公路巡逻队中士马库斯·贝西亚(Marcus Bethea)称,特斯拉司机霍华德·易(Howard G...

    业界动态 2023-06-13 10:59:24
  • PSAI修图免费平替来了!StabilityAI又放大招,核弹级更新一键扩图

    PSAI修图免费平替来了!StabilityAI又放大招,核弹级更新一键扩图

    新智元报道编辑:编辑部【新智元导读】Stability AI再放大招,Uncrop Clipdrop一键扩图+重构图片,Photoshop Generative Fill免费平替来了。此前,PS的重建图像功能就让人无比振奋,让无数人惊呼今天,Stability AI又放大招了。它联合Clipdrop推出了Uncrop Clipdrop——一个终极图像比例编辑器。从Uncrop这个名字上,我们就能看出它的用途。它是一个AI生成的「外画」工具,通过创建扩展背景,这个工具可以补充任何现有照片或图像,来更改任何图像的比例。敲黑板:通过Clipdrop网站,就可以免费试用这个工具了,无需登录!比例任意调,满意为止Uncrop基于Stability AI的文本到图像模型Stable Diffusion XL构建。通过先进的算法和深度学习技术,Uncrop会自动分析上传图像中的内容,然后生成视觉上合理的产出。这可解了许多修图师和画手的燃眉之急了。拍了一张近乎完美的照片,就是构图不尽人意,怎么办?Uncrop给你一键解决!很多时候,为了让图像显示在横幅或大画布上,我们都需要调整图像大小,把它调到合适的尺寸,而且不能扭曲,不能丢失重要的细节,Uncrop完全解决了这样的烦恼。拍出的横图想变竖图?Uncrop帮你解忧。竖图变横图?也是易如反掌。比例不合适的照片,可以随意拉到你想要的比例。不过呢,Uncrop也有自己的局限性。如果是极端的未剪裁图像,或者大量缺失内容的图像,会产生不太准确的结果。因此,我们需要尽可能确保原始图像的高质量,才能获得最佳效果。另外,Uncrop是依靠算法来分析周围的像素、填补空白,它的精度可能会因为场景的复杂性而不同。效果演示官方的介绍效果视频:网友们分享了自己做的外画效果实例:上手体验看到效果这么好,小编忍不住手痒了,立马上手实测了一波。实操起来感受就是:操作非常方便。就像上边的GIF展示的那样,选好一张图片,拖拽到页面中的指定区域。就可以像下图这样选择自己想要扩展的范围,然后等几秒钟,平台就会生成4张扩展完成的图片供你挑选保存。而且还可以针对某一张生成的图片结合Clipdrop的AI修图进行再加工。去除背景。锐化。再让AI对处理过的图片进行风格重构。经过几次AI的套娃生成加工之后,图片不仅仅被扩展了,还可以根据用户的具体需求进行风格和内容上的彻底「进化」。这时候,就是设计师们发挥自己的创造力的时候了!我们也针对人像,运动场景,静物场景做了一些测试。人像原图扩展效果扩展出来的部分效果确实挺自然。不过因为不能用Prompt指引方向,扩展的效果比较随机。重构效果扩展后重构效果AI生成人物图像的老问题手指解决的还是不理想。而且重构之后小姐姐的身体比例稍微有点问题,颜值也感觉降低了。静物原图扩展效果扩展效果比较自然,几乎看不出什么违和感。扩展重构效果但是重构之后线条扭曲的比较明显,整个画面的风格会有比较大的变化。运动场景原图扩展效果很敏感地捕捉到了图片的动态风格,扩展效果不错。扩展后重构效果重构之后主体已经消失,只留下动态的模糊画面,AI对于内容要点把握的还不好。当我尝试想让一张风景照无限扩展变成一张全景照片时。发现对于已经被扩展过的部分,Uncrop的扩展功能是不能继续套娃的。开源版SD-XL4月,Stability AI将Stable Diffusion XL开始面向公众测试。值得一提的是,开源的SD-XL就已经达到了Midjourney水平,能够图像细节等方面表现更好,几乎完全可控。关于Stable Diffusion XL模型的具体信息,官方并没有透露太多,目前只知道是一个与v2模型架构相似、但规模和参数量更大的模型。SD-v2.1包括9亿参数,SD-XL大约有23亿参数,Emad表示正式版可能会额外发布一个更小的蒸馏版本。SD-XL相比之前版本的改进如下:使用较短的描述性prompt即可生成高质量图像可以生成更贴合prompt的图像图像中的人体结构更合理与 v2...

    智能设备 2023-06-13 10:59:19
  • 他一夜干出2个英特尔,风头盖过马斯克

    他一夜干出2个英特尔,风头盖过马斯克

    “我们重新发明了计算!”文 | 华商韬略 张静波台北夜市,两个美女在直播。突然,一名黑衣男子探头探脑,闯到了镜头前。在两人的相邀下,该男子还对着观众唱了起来。当时,她们并不知道,这名黑衣男子竟是当下全球科技产业最有权势的人。【一夜干出2个英特尔】是的,你没看错!就在不久前,华尔街上演了奇迹。一家叫英伟达的公司,市值一夜暴涨24%,逼近万亿美元大关。相比之下,它的竞争对手,全球三大芯片巨头——高通、英特尔、AMD,市值加起来,还不到英伟达的一半。事实上,仅5月25日一晚,英伟达涨出的市值就相当于2个英特尔。而后者为了今天,已经奋斗了整整55年。就这,还没完。此后两天,英伟达的市值继续飙升,盘中突破万亿美元大关,成为人类历史上第一家市值超过万亿的芯片企业。几年前,三星和英特尔还在为谁是芯片行业老大,争得头破血流。现在,不用争了,因为答案变得毫无悬念。最离奇的是,眼下正值全球半导体产业哀鸿遍野之际,大多数同行举步维艰,三星电子更是创下14年最差业绩。是什么,让英伟达无视全行业的衰退,逆势飙升?答案正是眼下大热的ChatGPT。ChatGPT的背后是大模型,而训练大模型需要超强算力。根据国盛证券的估算,ChatGPT大模型训练一次,成本在200万美元以上。这些钱大部分投在英伟达的GPU芯片上。事实上,为了训练ChatGPT,OpenAI已经买了2.5万个英伟达的GPU。而这,还只是冰山一角。今年以来,随着ChatGPT大热,全球科技公司疯狂追逐大模型。微软、谷歌、亚马逊对数据中心芯片的需求,超出所有人的预期。在中国,目前已发布大模型的公司超过30家。这些公司,无论开发的大模型有多么不同,却无一例外都在争抢一种产品,那就是英伟达的GPU。随着订单雪片般飞来,英伟达的芯片一货难求。有人形容:英伟达的芯片,已成为这个星球上最稀缺的资源。马斯克则抱怨:比毒品还难搞到!一货难求之下,价格也水涨船高。在网上,英伟达AI旗舰芯片H100,被炒到4万美元以上。几个月前,ChatGPT刚爆发时,所有人都以为,OpenAI是大赢家。眼下来看,最大的赢家其实是英伟达。一夜干翻英特尔,也让英伟达的创始人黄仁勋成为硅谷,乃至当下全球科技产业最有权势的人。其风头,甚至盖过马斯克。这个祖籍浙江青田,总穿一身黑色皮衣的男人,因为拳打英特尔、脚踢AMD,被称为硅谷最好斗的男人。但外表好斗的老黄,内心深处,藏着一颗孩童般的好奇心。在台北,他一个人逛夜市,手里还拎着一袋大麻花。甚至,还被人拍到,他探头探脑,一脸好奇地出现在两位美女主播镜头前的样子。一个坐拥万亿市值、全球科技产业最有权势的人,竟对街头小巷,产生如此大的好奇心,这多少有些违和。但正是这种好奇心,让老黄改写了芯片产业的历史。【为了人类,做不一样的事】2012年9月30日,注定要载入史册。那天,一种叫AlexNet的深度学习模型,在全球视觉识别挑战赛中,以吊打第二名的成绩夺冠,一战成名。新一轮AI革命,由此引发。与传统上使用CPU不同,AlexNet使用两块英伟达的GPU,来为模型训练提供算力。GPU专为并行计算设计,可同时处理大量相同的计算任务。相比之下,CPU则需处理更加复杂多变的计算。有人打了个比喻,CPU就像老教授,微分积分都会算。GPU则像小学生,只会算简单的加减乘除。但如果有个工作,需要计算几亿次100以内的加减乘除,那么几十个小学生,显然是吊打老教授的。而AI模型训练,恰恰就需要这种计算。事实上,早在本世纪初,在美国大学里,就有人开始用GPU来训练AI模型。毕竟,相比CPU,它成本更低、效率更高。黄仁勋对AlexNet的成功,产生了极大的好奇心。他由此预感到,AI时代即将到来。在老黄看来,AlexNet不仅仅是某种AI模型,更是一种软硬件层面的革命。为了迎接这场革命,黄仁勋做了一个大胆的决定:all in AI,让英伟达制造的每一块芯片,都专注于人工智能。2012年,是属于移动互联网和智能手机的时代。黄仁勋all in AI的决定,多少有些形单影孤。但这并不是他第一次另辟蹊径。2006年,为了让GPU获得像CPU一样的通用计算能力,英伟达推出了CUDA并行计算架构,让程序员可以调用GPU的算力。在此之前,GPU正如它的名字——图形处理芯片一样,只能用作图形渲染。这个决定让英伟达在当时一众显卡厂商中,鹤立鸡群。它也因此改写了GPU的历史。对此,黄仁勋解释说,英伟达之所以在并行计算领域敢为天下先,原因在于:“我们的目标是为人类做出贡献。这意味着,我们不会走别人走过的老路,而是打造别人不曾打造过的产品。”这种好奇心和改变世界的理想,一直激励英伟达,在人类未知领域不断探索。2012年,在决定豪赌AI之后,黄仁勋在软硬件层面,不断提升英伟达GPU的性能和易用性。尤其2016年,推出首个针对AI计算场景的P100芯片。在此基础上,英伟达重金打造了全球第一台AI超算DGX-1。但黄仁勋并没有出售,而是将它捐赠给了旧金山一家非营利性机构,它就是今天在全球科技产业界如雷贯耳的OpenAI。捐赠仪式上,老黄拿出记号笔,在机箱上激动地写下了一句话:“为了计算和人类的未来,我捐出世界上第一台DGX-1。”当时,除了OpenAI,没有几个人真正读懂这句话。在大多数人看来,老黄做了一笔亏本的买卖。但时任OpenAI联合创始人的马斯克,专门发推感谢了黄仁勋,因为DGX-1让OpenAI的训练时间,从1年缩短至1个月。有了DGX-1的OpenAI,信心爆棚,决心打造更强大的AI。他们找到微软,向对方提出一个大胆的想法:构建一个AI系统,永远改变人类与计算机交互的方式。也就是今天风靡全球的ChatGPT。在移动互联网时代,被谷歌、苹果强压一头的微软,岂肯错过这样的机会,当即决定向OpenAI投资10亿美元。后来的事,大家都知道了。黄仁勋用一台价值12...

    智能设备 2023-06-13 10:59:00
  • 天猫魔盒8Pro机顶盒上市:支持8K视频解码,到手价399元起

    天猫魔盒8Pro机顶盒上市:支持8K视频解码,到手价399元起

    IT之家 6 月 12 日消息,网络机顶盒新品到来,天猫魔盒 8 Pro 于近日推出,到手价 399 元起。天猫魔盒 8 Pro 采用简洁的黑色设计,看外观还有点像音箱;该机搭载 Amlogic晶晨半导体的 S905X4 处理器,该芯片采用 12nm 工艺、64 位 A55 机构、主频 2.0GHz,支持 8K 视频解码、杜比 Audio 以及 DTS 音频硬解码。天猫魔盒 8 Pro 支持 HDR 10+ 画质、KODI 蓝光播放器,还能播放 NAS 的本地视频;标配蓝牙遥控器,可同时控制电视和盒子;搭载蓝牙 5...

    智能设备 2023-06-13 10:58:50
  • SamAltman中国对话全文

    SamAltman中国对话全文

    Sam Altman 的致辞发生在6月10日智源大会的AI安全与对齐分论坛上。现场座无虚席,这位OpenAI CEO在屏幕上出现时,现场响起掌声,几乎所有人都举起手机对着屏幕拍照。不过Altman本人显得十分平静,甚至是谨慎。这是去年ChatGPT搅动全球AI热潮以来,Sam Altman 首度在中国背景的场合公开发表意见。事实上当天他也在离中国不远的地方,此前他刚刚抵达首尔,见了韩国总统。在对话中他自己提到,上一次来中国是2016年。在发表演讲后,他还与智源研究院理事长张宏江进行了一对一问答。以下为要点及实录。要点:随着我们在技术上越来越接近AGI,不对齐的影响和缺陷将呈指数级增长。OpenAI目前使用强化学习人类反馈技术来确保AI系统有用与安全,同时也在探索新的技术,其中一个思路是使用AI系统来辅助人类去监督别的AI系统。十年内人类将拥有强大的人工智能系统(AI System)。OpenAI没有相关的新的有关开源的时间表,尽管他承认在有关AI安全的问题上,开源模型具有优势,但开源所有东西可能并不是一条(促进AI发展的)最佳路线。看明白神经网络比看明白人类脑子容易多了。中国有最优秀的人工智能人才,AI安全需要中国研究者的参与和贡献。以下为演讲实录:今天,我想谈谈未来。具体来说,就是我们在人工智能能力方面看到的增长速度。我们现在需要做什么,为它们引入世界做好负责任的准备,科学史教会我们,技术进步遵循指数曲线。我们已经能从历史中看到这一点,从农业、工业到计算革命。人工智能令人震撼的不仅是它的影响力,还有它的进步速度。它拓展了人类想象力的边界,并且以快速的步伐进行着。想象一下,在未来十年里,通常被称为通用人工智能(AGI)的系统,在几乎所有领域都超越了人类的专业水平。这些系统最终可能超过我们最大公司的集体生产力。这里面潜藏着巨大的上升空间。人工智能革命将创造共享财富,并使提高每个人生活水平成为可能,解决共同挑战,如气候变化和全球卫生安全,并以无数其他方式提高社会福祉。我深信这个未来,为了实现它并享受它,我们需要共同投资于AGI安全,并管理风险。如果我们不小心,一个不符合目标的AGI系统,可能会通过提供没有根据的建议,破坏整个医疗系统。同样地,一个旨在优化农业实践的AGI系统可能会由于缺乏对长期可持续性的考虑而无意中耗尽自然资源或破坏生态系统,影响食品生产和环境平衡。我希望我们都能同意,推进AGI安全是我们最重要的领域之一。我想把我剩下的讲话重点放在我认为我们可以从哪里开始的地方。一个领域是AGI治理,这是一项具有全球影响的技术。鲁莽开发和部署造成的事故成本将影响我们所有人。在这方面,有两个关键要素:首先,我们需要建立国际规范和标准,并通过包容的过程,在所有国家为AGI的使用制定平等统一的保护措施。在这些保护措施之内,我们相信人们有充分的机会做出自己的选择。其次,我们需要国际合作来建立对日益强大的人工智能系统安全开发的全球信任,以可验证的方式。这不是一件容易的事情。我们需要作为国际社会投入持续而重要的关注,才能做好这件事。道德经提醒我们,千里之行始于足下。我们认为在这里采取最有建设性的第一步是与国际科技界合作。特别是,我们应该促进增加透明度和知识共享的机制,关于AGI安全方面的技术进展。发现新出现安全问题的研究人员应该为了更大的利益分享他们的见解。我们需要认真考虑如何在尊重和保护知识产权权利的同时,鼓励这种规范。如果我们做好了这一点,它将为我们打开新的大门,让我们能够加深合作。更广泛地说,我们应该投资、促进和引导对目标和安全研究的投资。在OpenAI,我们今天的目标研究主要集中在技术问题上,即如何让人工智能系统作为一个有用和安全的助手,在我们当前的系统中行动。这可能意味着,我们如何训练ChatGPT,使它不会发出暴力威胁或协助用户进行有害活动。但是随着我们更接近AGI,任何不符合目标的潜在影响和程度都将呈指数增长。为了提前解决这些挑战,我们努力将未来灾难性结果的风险降到最低。对于当前系统,我们主要使用来自人类反馈的强化学习来训练我们的模型,使其作为一个有用和安全的助手行动。这是后期训练目标技术中的一个例子,我们也在忙于开发新的技术。要做好这件事情需要很多艰苦的工程工作。从GPT-4完成预训练到部署它,我们花了8个月的时间来做这件事。总的来说,我们认为我们在这方面走在了正确的轨道上。GPT-4比我们以前的任何模型都更符合目标。然而,对于更先进的系统来说,目标仍然是一个未解决的问题,我们认为这需要新的技术方法,以及更多的治理和监督。想象一下,一个未来的AGI系统提出了10万行二进制代码。人类监督者不太可能检测到这样一个模型是否在做一些邪恶的事情。所以我们正在投资一些新的和互补的研究方向,我们希望能够取得突破。一个是可扩展的监督。我们可以尝试使用人工智能系统来协助人类监督其他人工智能系统。例如,我们可以训练一个模型来帮助人类监督者发现其他模型输出中的缺陷。第二个是可解释性。我们想尝试更好地理解这些模型内部发生了什么。我们最近发表了一篇论文,使用GPT-4来解释GPT-2中的神经元。在另一篇论文中,我们使用模型内部信息来检测模型何时在说谎。虽然我们还有很长的路要走,但我们相信先进的机器学习技术可以进一步提高我们产生解释的能力。最终,我们的目标是训练人工智能系统来帮助目标研究本身。这种方法的一个有希望的方面是,它随着人工智能发展的步伐而扩展。随着未来模型变得越来越聪明和有用作为助手,我们将找到更好的技术,实现AGI的非凡利益,同时减轻风险,是我们这个时代最重要的挑战之一。以下为对话实录:张宏江:我们离人工智能还有多远?风险是不是很紧迫,还是我们离它还很遥远?无论是安全的人工智能,还是潜在的不安全的人工智能。Sam Altman :这个问题很难准确预测时间,因为它需要新的研究思路,而这些思路并不总是按照规定的日程来发展的。它可能很快就会发生,也可能需要更长的时间。我认为很难用任何程度的确定性来预测。但我确实认为,在未来十年内,我们可能会拥有非常强大的人工智能系统。在这样的世界里,我认为解决这个问题是重要而紧迫的,这就是为什么我呼吁国际社会共同合作来解决这个问题。历史上确实给我们提供了一些新技术比许多人想象的更快地改变世界的例子。我们现在看到的这些系统的影响和加速度,在某种意义上是前所未有的。所以我认为做好准备,让它尽快发生,并且解决好安全性方面的问题,考虑到它们的影响和重要性,是非常有意义的。张宏江:你感觉到了一种紧迫感吗?Sam Altman:是的,我感觉到了。我想强调一下,我们并不真正知道。而且人工智能的定义也不同,但是我认为在十年内,我们应该为一个拥有非常强大系统的世界做好准备。张宏江:你在刚才的演讲中也提到了几次全球合作。我们知道世界在过去六七十年里面临过很多危机。不过对于其中的很多危机,我们设法建立了共识和全球合作。你也正在进行一次全球之旅。你正在推动什么样的全球合作?你对目前收到的反馈感觉如何?Sam Altman:是的,我对目前收到的反馈非常满意。我认为人们非常认真地对待人工智能带来的风险和机遇。我认为在过去六个月里,这方面的讨论已经有了很大进步。人们真正致力于找出一个框架,让我们能够享受这些好处,同时共同合作来减轻风险。我认为我们处于一个非常有利的位置来做这件事。全球合作总是很困难的,但我认为这是一种机会和威胁,可以让世界团结起来。我们可以制定一些框架和安全标准,来指导这些系统的开发,这将是非常有帮助的。张宏江:在这个特定的话题上,你提到了高级人工智能系统的对齐是一个未解决的问题。我也注意到OpenAI在过去几年里投入了很多精力。你还提到了GPT-4是对齐方面的最佳例子。你认为我们能否通过对齐来解决人工智能安全问题?或者这个问题比对齐更大?Sam Altman :我认为对齐这个词有不同的用法。我认为我们需要解决的是如何实现安全人工智能系统的整个挑战。对齐在传统意义上是指让模型按照用户的意图行事,这当然是其中的一部分。但我们还需要回答其他一些问题,比如我们如何验证系统是否做了我们想要它们做的事情,以及我们要根据谁的价值观来对齐系统。但我认为重要的是要看到实现安全人工智能所需要的全貌。张宏江:是的,如果我们看看GPT-4所做的事情,在很大程度上,它仍然是从技术角度来看的。但除了技术之外,还有许多其他因素。这是一个非常复杂的问题。通常复杂问题是系统性的。人工智能安全可能也不例外。除了技术方面之外,你认为还有哪些因素和问题对人工智能安全至关重要?我们应该如何应对这些挑战?特别是我们大多数人都是科学家,我们应该做什么?Sam Altman:这当然是一个非常复杂的问题。我会说没有技术解决方案,其他一切都很难。我认为把很多精力放在确保我们解决了安全方面的技术问题上是非常重要的。正如我提到的,弄清楚我们要根据什么样的价值观来对齐系统,这不是一个技术问题。它需要技术输入,但它是一个需要全社会深入讨论的问题。我们必须设计出公平、有代表性和包容性的系统。而且,正如你指出的,我们不仅要考虑人工智能模型本身的安全性,还要考虑整个系统的安全性。所以建立安全分类器和检测器,可以在模型之上运行,可以监控使用策略的遵守情况,这也很重要。然后,我也认为很难提前预测任何技术会出现什么问题。所以从真实世界中学习和迭代地部署,看看当你把模型放到现实中时会发生什么,并改进它,并给人们和社会时间去学习和更新,并思考这些模型将如何以好的和坏的方式影响他们的生活。这也很重要。张宏江:你刚才提到了全球合作。你已经访问了很多国家,你提到了中国。但你能否分享一些你在合作方面取得的成果?你对下一步有什么计划或想法?从这次世界之旅中,从你与各种政府、机构、机构之间的互动中?Sam Altman:我认为通常需要很多不同的视角和人工智能安全。我们还没有得到所有的答案,这是一个相当困难和重要的问题。此外,正如所提到的,这不是一个纯粹的技术问题,使人工智能安全和有益的。涉及在非常不同的背景下了解不同国家的用户偏好。我们需要很多不同的投入才能实现这一目标。中国拥有一些世界上最优秀的人工智能人才。从根本上说,我认为,考虑到解决高级人工智能系统对齐的困难,需要来自世界各地的最好的头脑。所以我真的希望中国的人工智能研究人员在这里做出巨大的贡献。张宏江:我明白今天的论坛是关注AI安全的,因为人们对OpenAI很好奇,所以我有很多关于OpenAI的问题,不仅仅是AI安全。我这里有一个观众的问题是,OpenAI有没有计划重新开源它的模型,就像在3.0版本之前那样?我也认为开源有利于AI安全。Sam Altman:我们有些模型是开源的,有些不是,但随着时间的推移,我认为你应该期待我们将来会继续开源更多的模型。我没有一个具体的模型或时间表,但这是我们目前正在讨论的事情。张宏江:我们把所有的努力都投入到了开源中,包括模型本身、开发模型的算法、优化模型和数据之间关系的工具。我们相信有必要分享,并让用户感觉到他们控制了自己所使用的东西。你是否有类似的反馈?或者这是你们在OpenAI中讨论的内容?Sam Altman:是的,我认为开源在某种程度上确实有一个重要的作用。最近也有很多新的开源模型出现。我认为API模型也有一个重要的作用。它为我们提供了额外的安全控制。你可以阻止某些用途。你可以阻止某些类型的微调。如果某件事情不起作用,你可以收回它。在当前模型的规模下,我不太担心这个问题。但是随着模型变得像我们期望的那样强大,如果我们对此是正确的,我认为开源一切可能不是最佳路径,尽管有时候它是正确的。我认为我们只需要仔细地平衡一下。张宏江:关于GPT-4和AI安全方面的后续问题是,我们是否需要改变整个基础设施或整个AGI模型的架构,以使其更安全、更容易被检查?你对此有什么想法?Sam Altman:这肯定有可能,我们需要一些非常不同的架构,无论是从能力还是从安全性方面来看。我认为我们将能够在可解释性方面取得一些进展,在当前类型的模型上,并让它们更好地向我们解释它们在做什么以及为什么。但是,如果在变换器之后还有另一个巨大的飞跃,那也不会让我感到惊讶。而且实际上我们已经在原始的变换器之后,架构已经发生了很大的变化。张宏江:作为一个研究人员,我也很好奇,下一步的AGI研究方向是什么?在大模型、大语言模型方面,我们会不会很快看到GPT-5?下一个前沿是不是在具身模型上?自主机器人是不是OpenAI正在或者准备探索的领域?Sam Altman:我也很好奇下一步会发生什么,我最喜欢做这项工作的原因之一就是在研究的前沿,有很多令人兴奋和惊讶的事情。我们还没有答案,所以我们在探索很多可能的新范式。当然,在某个时候,我们会尝试做一个GPT-5模型,但不会是很快。我们不知道具体什么时候。我们在OpenAI刚开始的时候就做过机器人方面的工作,我们对此非常感兴趣,但也遇到了一些困难。我希望有一天我们能够回到这个领域。张宏江:听起来很棒。你在演讲中也提到了你们是如何用GPT-4来解释GPT-2的工作原理,从而使模型更安全的例子。这种方法是可扩展的吗?这种方向是不是OpenAI未来会继续推进的?Sam Altman:我们会继续推进这个方向。张宏江:那你认为这种方法可以应用到生物神经元上吗?因为我问这个问题的原因是,有一些生物学家和神经科学家,他们想借鉴这个方法,在他们的领域里研究和探索人类神经元是如何工作的。Sam Altman:在人工神经元上观察发生了什么比在生物神经元上容易得多。所以我认为这种方法对于人工神经网络是有效的。我认为使用更强大的模型来帮助我们理解其他模型的方法是可行的。但我不太确定你怎么把这个方法应用到人类大脑上。张宏江:好的,谢谢你。既然我们谈到了AI安全和AGI控制,那么我们一直在讨论的一个问题是,如果这个世界上只有三个模型,那么会不会更安全?这就像核控制一样,你不想让核武器扩散。我们有这样的条约,我们试图控制能够获得这项技术的国家数量。那么控制模型数量是不是一个可行的方向?Sam Altman:我认为对于世界上有少数模型还是多数模型更安全,有不同的观点。我认为更重要的是,我们是否有一个系统,能够让任何一个强大的模型都经过充分的安全测试?我们是否有一个框架,能够让任何一个创造出足够强大的模型的人,既有资源,也有责任,来确保他们创造出的东西是安全和对齐的?张宏江:昨天在这个会议上,MIT未来生命研究所的Max教授提到了一种可能的方法,就是类似于我们控制药物开发的方式。科学家或者公司开发出新药,你不能直接上市。你必须经过这样的测试过程。这是不是我们可以借鉴的?Sam Altman:我绝对认为,我们可以从不同行业发展出来的许可和测试框架中借鉴很多东西。但我认为从根本上说,我们已经有了一些可以奏效的方法。张宏江:非常感谢你,Sam。谢谢你抽时间来参加这次会议,虽然是虚拟的。我相信还有很多问题,但考虑到时间,我们不得不到此为止。希望下次你有机会来中国,来北京,我们可以有更深入的讨论。非常感谢你。 ...

    智能设备 2023-06-13 10:58:37
  • 苹果VisionPro头显低配版曝光:显示屏、处理器和传感器会缩水

    苹果VisionPro头显低配版曝光:显示屏、处理器和传感器会缩水

    IT之家 6 月 12 日消息,苹果公司上周在其年度 WWDC 活动上发布了备受期待的 Vision Pro 头戴式设备,这款设备搭载了强大的硬件,运行 VisionOS 系统,是一款专为开发者、内容创作者和专业人士设计的增强现实(AR)设备。然而,这款设备的售价高达 3500 美元(IT之家备注:当前约 24955 元人民币),对于普通消费者来说显然很难接受...

    智能设备 2023-06-13 10:58:34
  • 科大讯飞星火V1.5发布刘庆峰:我们的目标不仅是追赶和尊重OpenAI

    科大讯飞星火V1.5发布刘庆峰:我们的目标不仅是追赶和尊重OpenAI

    【网易科技6月9日报道】科大讯飞于今日庆祝其24周年,并借此机会发布了讯飞星火认知大模型V1.5。据悉,此大模型的发布与科大讯飞上一代大模型仅间隔一个月,但在许多关键能力上实现了重要的升级,包括开放式知识问答、多轮对话、逻辑和数学能力等方面,都获得了显著提升。据了解,科大讯飞正在推动星火认知大模型在教育、医疗、工业、办公等领域的广泛应用。例如,星火已经赋能了星火语伴APP、医疗诊后康复管理平台、羚羊工业互联网平台、讯飞听见智慧屏等产品,并开放了讯飞星火开发接口,以与开发者一起共建“星火”生态。此外,科大讯飞与全国首批22所全国重点高校联合启动了星火大模型场景创新赛,旨在打造讯飞高校AI星火营,为产业未来培养通用人工智能时代的人才。科大讯飞董事长刘庆峰表示:“我们所有的技术平台都是完全自主研发的,我们对每一个阶段的技术都是可控的,也非常有信心。”他强调,讯飞的目标不仅是追赶和尊重OpenAI,更是在源头上进行自主创新,目前已经在类脑智能、神经网络大模型、博弈智能等方面进行了广泛的探索。据介绍,讯飞星火认知大模型V1...

    智能设备 2023-06-13 10:58:28
  • 一名38岁大厂高管的“毕业”自白

    一名38岁大厂高管的“毕业”自白

    行业走下坡路时,大厂高管没有“中途岛”,要么中途自己离开,要么被逼着离开文|《中国企业家》记者 闫俊文‍‍编|李薇文章来源|中国企业家杂志(ID:iceo-com-cn)‍‍ 吴可38岁了,目前,他失业在家。2022年10月之前,吴可是国内一家电商巨头全国生鲜行业负责人。公司内部虽然没有P职级,但如果按照他曾供职的阿里巴巴职级算,吴可算得上P9,年薪数百万,直接向副总裁汇报工作。2022年10月,吴可离开了这家电商巨头,按照他的话,“没有高增长了,不得不离开”。5月底,他在职场平台脉脉发文:“想不到中年危机能发生在我身上,失业了,被逼退休在家”,并将自己4页半的简历公布出来:“找不到好的项目,大家看看简历,有没有合作的机会。”翻开吴可的简历,他有一个“开挂”的前半生。2005年,吴可从安徽农业大学毕业后,一直在农业领域工作。2011年,他开始在生鲜行业创业,公司做到了“安徽第一生鲜宅配”。折腾几年后,2016年,他加入阿里巴巴淘鲜达。2017年12月,吴可操盘腾讯和今日资本投资的谊品生鲜,担任新零售全国总经理。项目失败后,在2019年10月,他重回阿里巴巴,任职高级运营专家(P8),全国半小时达生鲜菜场负责人,但1个月后因家庭原因离职。2020年10月,吴可入职另一家电商巨头,两年后离职。可以说,过去十多年,吴可的每一步都踏准了风口,生鲜行业叠加互联网,让其有机会参与了中国商业历史上的新零售、即时配送以及社区团购等战役。吴可自己也坦陈,他信奉“高增长”理论,一旦接手的业务失去高增长的可能性,他就会跳出来,重新寻求机会。进入和离开阿里巴巴等大厂,基本上是出于这个理由。但互联网高速发展的蛮荒时代已过,包括吴可在内,中国互联网公司的中高层,也都需要寻找自己新的可能性。“刚进入职场,你会觉得选择占50%,努力占50%;然后有一天,我发现可能选择占95%,努力占5%;最终又有一天,我发现所有的东西100%都是幸存者偏差,时机和选择很重要。”吴可说。没有任何壁垒是永久的。接受《中国企业家》采访时,吴可在两个多小时的表达中,高频词是“成长”“退化”“竞争”“主动”等,他推荐了几本书,比如《创新者的窘境》《进化论》。吴可感慨,当一个行业走下坡路时,大厂高管没有“中途岛”,要么中途自己离开,要么被逼着离开。以下是吴可的自述:决心离开我在某电商巨头待了两年,我当时带着几十个人的团队,一年的工资,除了我之外,别人的工资,都要发上千万。但对公司来说,增长已经没有了。但之前是有的。我做了一两年,大概涨了有几十亿元,这是有结果的,但慢慢地,增长越来越少。行业红利没有了,团队拿不到结果,说白了,没有增长。当一个行业没有红利的时候,你再怎么努力,他就没有钱挣了,没有增量,就意味着团队只能进入一个维持的状态,那对我来说是没有价值的。要么走要么转岗,无非就是这两种。如果你不离开,在那个位置待着却不创造价值,公司肯定会让你换岗,换着换着也不知道换哪里去了,你让我换还不如我自己主动换(公司)。我每一个阶段都在找高增长,我从来不做维持的事情,所以你看我的简历上很跳。很多人是维持,他也愿意在那工作,稳定,但我觉得不稳定。我觉得只有能力的成长和持续创造价值才是最大的稳定,而不是不增长你还在那待着,实际上你的能力是在退化的。公司保护了你,让你感觉到你还能挣到钱,其实你的能力在退化,但你年轻的竞争对手已经出来了。两个人打架的时候,如果你躲着对方的拳头,你反而会被打得更惨。如果你面对着他,我就看你拳头怎么出,反而你可以挡掉几个,然后组织正确的进攻。大家看到,我可能是中年失业,但其实并不是像大家想象得这么差,因为我是很早就做好了准备。来源:视觉中国‍‍‍‍‍其实我是几个月前(2022年10月)就离职的。我在脉脉写是我被逼退休,是因为大厂没有好机会了,我只能退休了。我想看看有没有更好的机会。我自己也是一直在盘点各种机会,只要我找到一些高增长的机会,我就会投入我的钱或者精力进去。我的态度是,不管怎么样,先跳出来。每个月领工资那是上瘾的行为,你要出来看看真实的世界是什么样,公司不能一直保护你。到最后有一天你被裁的时候,你再出来,来不及了,你要学会每天都把自己放置于危机当中,才能总结出更正确的方法,更正确的逻辑,而不是在一个地方就躲着。我觉得这是40岁前和40岁之后的一个分界线。40岁之前,我们不撞南墙是不会回头的,认为自己比别人厉害,但实际上从整个时代的浪潮来看,这个时代所有的商业公司,做成一件事大概是运气而不是努力。为什么有些老板水平没有员工高,但他却是老板?你必须在合适的时机入场,你才能拿到这个位置,而不是靠晋升。一个行业如果开始走下坡路了,即使它是超大型企业,你也晋升不上去,因为它一直在裁员,你怎么晋升?如果是一个高增长的行业,它一直需要人,你就算水平不够,也能进去,因为他缺人,高增长的赛道会被动吸入大量的资源进去,会把你从一个普通的人带到顶层。所以如果你努力,不应该放在怎么去努力做一个细节的事情上,首先你要去看大方向,等方向研究清楚了之后就决定了95%。在大的高速增长范围内,你努力一点可能是100分,不努力一点可能也有80分,超过了绝大多数人。所以我们真正的努力不是去跟别人拼体力、拼加班,或者是拼一些具体的业务专业性。我不是说这些不重要,是因为浪潮风口就是用户的价值倾向。风口变化了之后,你的专业就没有意义了。享受时代红利的一批人我大学学的是农业,一直到现在,我都深耕农业,所以这个风口也是我侥幸出场的。为什么选择农业呢?我有个亲戚很厉害,我考大学选专业的时候,他说不要去选很多人都报名的比如经济管理、计算机、会计,你搞不过最聪明的人。你去选最没有人看得上的,但是大的方向很对的专业。农业就是。我的几段经历都收获不少。阿里实际上是给我一个全量的数据,让我看到了用户的行为,让我明白了商业的大框架的东西;谊品生鲜教会了我所有的商业洞察,商业纵深,怎么去打赢一场仗,虽然项目做失败了。我刚毕业的时候天天种水稻,出水稻(种子),然后出口到国外。后来又做食品安全,稍微好一点,也是一点点在努力。2016年,我进入阿里巴巴,当时他们正拓展淘鲜达,我去面试的时候还穿着西装,那时候阿里员工都看我,因为他们很少穿西装。来源:中企图库去阿里前,我一直在合肥,一去杭州还不适应。等我去了阿里之后,我发现我一无所知,我面对的是个全新的情况,开始重新学习。过程就非常痛苦,但认知在那一年爆裂式增长。我经常跟别人说,你到阿里去啥事不干,你就看着别人干活,听别人讲话,你的认知度提升几倍那种感觉。阿里做业务是360度的视角。比如一个小店,每天卖多少货,然后怎么定价,到底找小店合作还是大店合作,后面的跟进怎么策划,人员怎么配置,用什么样的系统,到底是往大池子做还是小池子做。我刚去阿里的时候,一个阿里P10级别的领导给我们上了第一节课,我就问,一年以后,我们到底是往管理方向发展,还是往技术方向发展。这位领导跟我们讲一句话,你在大厂,既要懂管理,也要懂技术。你要把这个事搞定,你到底是从一个技术方面搞定还是管理方式搞定?搞定就好了,不分什么技术和管理。干了一年多后,今日资本的人和谊品生鲜董事长就叫我过来帮他们负责全国的新零售,其实就是现在大厂做的社区团购,这对我来说挑战特别大,我们当时认为能挣钱,结果做了一两年发现都是亏钱的。停掉之后,大厂过了两年就开始做这个业务。我当时还觉得我做的不太好,每天负毛利10个点,比如一年做1个亿,一天就亏3万多。不过我看大厂现在搞这个业务,基本也是这个水平,心里相对平衡一点。他们也没做成这个业务。专业不专业并不是最关键的,关键是要找到自己的定位和生态位,专业只是一个相对的词而已。在大厂,我负责几百亿的生意,我下面的团队每一个人都比我专业,他们是行业内的精英,最专业的人可能是螺丝钉,我的专业可能是在另外一个层面了,比如可能就是我找方向的速度,卡位的速度。好比打篮球的时候,我就喜欢卡位之后拿到球传给专业投篮的人。有时候别人说,他连投篮都不会,我确实不会,但我能让会投篮的人投进球。寻找高增长我那个帖子发完之后,很多以前的老同事发信息给我。我们天天都焦虑得很,担心下一步去哪。有很多人不敢离开公司,因为公司提供了保护以及各种资源。但你把整个社会当成一个大公司,你在不同的地区不同的公司去做事情,它不就相当于一个公司里面不同的部门,我在整个中国去找一个新的方向,然后再去整合资源去做。公司内的资源是很小的,我不如在整个中国去挪动我的生态位。我自己的底层逻辑就是,成长才是刚需,高增长才是方向。来源:视觉中国所有的公司和项目最终都会走向灭亡。所以对于我来说,我们永远要去寻找高增长的赛道,高增长的企业,然后重新去学习,只要你停下来了,很快就能被淘汰。高增长怎么定义?高增长是看增量而不是存量。比如整个大盘已经四五百亿了,你做小型的业务不可能让500亿变成600亿的,只可能让500亿变成501.1亿。但对于一些很好的小赛道,比如一年做两个亿,但能挣1000万。盘子小不代表我挣的钱就少。你去看克里斯坦森(“颠覆性技术”理念的首创者),他讲过一种大方向的高增长,基本上来自于一个行业本身,结合新的技术改变,带来了更大量用户的使用,成本可能变得更低了,效率变得更高了,一般是往这个方向去进化的,只要往这个方向找就肯定会有。《创新者的窘境》可以一读,《进化论》也要好好理解,企业其实就是它做了一套产品,它属于一个生态位;所有东西跟生物演化方向是一样的,搞清楚这两个概念,基本上商业的演化就能掌握。互联网公司真正高增长的时候是没有管理的,当公司开始搞管理的时候,增量就比较小了。PUA是管理的一种工具。当一个领导要去PUA员工的时候,说明领导自己找不到增量,不知道让员工往哪个方向做,然后就会反过来怪员工没有把细节做好,所以这是个很愚昧的领导。互联网岗位有个特性,就是前期人很重要,慢慢地产品化了之后,人就不太重要了。要去搞清楚自己要什么。有个互联网大厂的小伙伴绩效倒数,他很痛苦,我告诉他,你不要用过去的成绩去决定你未来做什么,而是要去思考你本来准备去做什么。也不要用公司给你的评价来评价自己,因为公司的评价是为了塑造一个岗位的螺丝钉,而不是塑造属于你自己的未来。未来打算2022年10月,离开大厂后,我一开始有一些不习惯,但不习惯的时间并不长,我觉得我需要更多的时间来陪家人。 网上流传着乔布斯临终之前说的一段话:当我快要去世的时候,才发现我一生积累了那么多财富其实没什么用,当一个人财富足够了之后,就应该花更多的时间去做一些对周围的人有价值的事。比如说自己的亲人,自己的朋友,甚至去研究一些艺术,这种看起来没有直接经济收益,但实际上能真正地让自己灵魂变得充实,这样可能才不枉一生。为什么很多人挣钱越挣越多,最后停不下来,这是一种上瘾的行为,是一种惯性。我现在离开公司几个月了,在家歇着,我也可以去上班,但我没有,我觉得我要照顾家庭。现在我觉得我的健康很重要,陪伴家人、跟朋友一起交往很重要,因为生命很短,这两个才是大头,剩下的时间你用一点点时间去挣点钱,挣不到也无所谓。最重要的事情叫,子欲养而亲不待。我在大厂干了两年,回家的机会都很少,我现在回来了,没事儿去找我爸喝点酒,我觉得很开心。我以后也不会选择进互联网大厂了。我觉得第一就是跟自己喜欢的人在一起,第二就是做一些小但是有价值的事情,这是我要思考的方向。目前还没有完全思考好,以前我可能觉得我很功利,是因为职场的效应造成的,对效率越高的事情关注越多,效率低的事情我都不做。现在反过来了,我要做一些看起来没什么意思的事情,跟周围的人一起去做,我觉得很开心。比如说跟朋友去钓鱼,陪小孩骑自行车,我觉得很开心。媒介合作联系微信号|ciweimeijiejun如需和我们交流可后台回复“进群”加社群 ...

    智能设备 2023-06-13 10:58:22
  • OpenAICEO:马斯克对公司的批评完全是错误的

    OpenAICEO:马斯克对公司的批评完全是错误的

    6月9日消息,OpenAI首席执行官萨姆·奥特曼(Sam Altman)最近接受采访时回应了埃隆·马斯克(Elon Musk)的批评,并称后者针对这家人工智能初创公司的评论完全是错误的。当地时间周三,奥特曼在印度德里参加活动,被问及如何看待马斯克批评“OpenAI并非真正的非营利组织”,因为微软向该公司投资了数十亿美元。对此,奥特曼表示,他不想与马斯克发生矛盾,但他想让人们知道,这位亿万富翁关于OpenAI的批评完全是错误的。“我真的不想与马斯克发生矛盾,我喜欢这个家伙。但我认为他在这件事上完全错了。在某种程度上,他可以想说什么就说什么,但我对我们正在做的事情感到自豪。我认为我们将为世界做出积极贡献,我在努力兑现这个承诺。”奥特曼和马斯克于2015年共同创立了OpenAI,但马斯克于2018年辞去了董事会的职务。当时,这家旧金山初创公司将马斯克的离职归因于特斯拉正在构建自动驾驶系统。但马斯克在离职后多次批评OpenAI,称其偏离了他最初的开源意图,并一度暗示他可能会起诉该公司。马斯克一再警告先进人工智能的危险,称其可能威胁人类生存。今年3月,马斯克与1000多名科技行业人士签署了一封公开信,呼吁暂停培训比OpenAI GPT-4更先进的人工智能系统6个月。马斯克是特斯拉和SpaceX的首席执行官,也是推特的所有者。今年4月,马斯克表示,他将推出自己的人工智能聊天机器人TruthGPT。3月9日的一份文件显示,马斯克已经创办了名为X.AI的新人工智能公司。马斯克在5月份接受采访时表示,他认为有必要再找一家公司来与谷歌和微软竞争,他说:“我认为竞争中应该有第三匹重要的马。”奥特曼和马斯克都呼吁对先进的人工智能进行监管。(小小) ...

    智能设备 2023-06-13 10:58:01
  • 消息称苹果为VisionPro头显打造3D怪兽剧,身临其境观看哥斯拉

    消息称苹果为VisionPro头显打造3D怪兽剧,身临其境观看哥斯拉

    IT之家 6 月 12 日消息,苹果公司可能正在为其即将推出的头戴式设备 Apple Vision Pro 制作 3D 视频内容,其中一部名为《君主:怪兽遗产(Monarch: Legacy of Monsters)》的新剧或许就是专为该设备而拍摄的。IT之家此前报道,Apple Vision Pro 可以让用户在巨大的虚拟屏幕上观看 2D 和 3D 视频内容,该设备具有空间音频和空间视频的功能,从而提供更加沉浸式的观影体验...

    智能设备 2023-06-13 10:57:52
  • Gurman:苹果已在开发M3芯片的MacBookAir,2024年发布

    Gurman:苹果已在开发M3芯片的MacBookAir,2024年发布

    IT之家 6 月 11 日消息,彭博社的 Mark Gurman 称,苹果已经在开发配备 M3 芯片的 13 英寸和 15 英寸 MacBook Air 机型,预计将在 2024 年发布。据报道,当前的 13 英寸 MacBook Air 于 2022 年 6 月发布,而 15 英寸机型于下周上市...

    智能设备 2023-06-13 10:57:44

站长搜索

http://www.adminso.com

Copyright @ 2007~2025 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持