-
财联社10月19日电,美国联邦存款保险公司(FDIC)将于2024年前期更新对银行业所面临的加密数字货币风险评估。
01:35:42 财联社10月19日电,美国联邦存款保险公司(FDIC)将于2024年前期更新对银行业所面临的加密数字货币风险评估。 ...
区块链 2023-10-19 02:15:03 -
雪铁龙发布新款平价电动SUV售18万,对标中国电动车
10月18日消息,雪铁龙于周二在法国默东发布了其新款电动SUV,名为e-C3,起售价为23300欧元(约合2.45万美元/18万元人民币),旨在与中国汽车制造商在平价电动汽车市场竞争。图片来源:Stellantis官网雪铁龙隶属于全球第四大汽车集团Stellantis。这款电动汽车将在斯洛伐克组装,并于2024年第二季度上市。与目前的C3小型车相比,它的尺寸相同,但外观更加方正,稍微高一些。据了解,这个售价不包括高达5000欧元的政府补贴。雪铁龙总经理蒂埃里·科斯卡斯(Thierry Koskas)表示:“这是雪铁龙品牌至少10年来最重要的一次发布。这是一种打破市场常规的新方式。欧洲的一辆售价为23000欧元的电动汽车?这是独一无二的。”目前欧洲平价电动汽车的平均价格约为30000欧元。为了降低成本,Stellantis正在重新利用其在印度使用的简化的“SmartCar”平台,该平台与集团正在开发的四个电动汽车平台有所不同。该电动汽车的续航里程只有320公里,使用来自中国的磷酸铁锂电池技术。汽车基础配置符合法国政府每月100欧元的“社会租赁”平价电动汽车计划,虽然没有娱乐信息屏幕,但仍可连接手机。科斯卡斯表示,该公司并不希望将新款C3打造成一个“技术上的圣诞树”,但在重要方面并没有节省。他强调, “它在舒适性和电气性能方面达到了最高水平。”例如,这款电动汽车采用了雪铁龙通常为更大型车型提供的柔软悬挂系统。鉴于欧洲市场将迎来低价中国电动汽车的大量涌入,雪铁龙计划进一步发展。科斯卡斯表示,该品牌计划在2025年初推出更便宜的C3电动车,起价为20000欧元,续航里程将缩短至200公里。雪铁龙的C3去年在欧洲城市车市场占据了11%的份额。自2002年首款车型问世以来,已售出超过560万辆。雪铁龙在法国19世纪末组装飞艇的一处巨大机库HangarY发布了e-C3电动SUV,同时还发布了回归起源的新标志。(辰辰) ...
业界动态 2023-10-19 02:14:53 -
9月美国游戏市场数据公开:PS5硬件第一星空软件第一
9月美国游戏市场数据公开。硬件方面,PS5依然是最畅销的主机,销售量和销售额都是第一,Xbox则都是第二...
游戏资讯 2023-10-19 02:14:50 -
外媒:在电池竞赛中,中国如何将世界远远甩在后面
10月13日消息,在新书《气候资本主义》中,彭博社记者阿克沙特·拉蒂(Akshat Rathi)通过目前全球最大电池公司宁德时代的视角,解释了中国在电池市场占据主导地位的原因。 以下为翻译全文:2018年7月,全球最大电池公司宁德时代首席执行官曾毓群与德国图林根州部长沃尔夫冈·蒂芬塞(Wolfgang Tiefensee)签署了一项协议,承诺这家中国制造业巨头将在德国建立第一家大型电动汽车电池工厂...
业界动态 2023-10-19 02:14:17 -
7天流动性缩水近80%币安美国成为SEC诉讼最大受害者
①据统计,上周SEC对币安提起法律行动后,币安美国分公司的市场深度下降了76%; ②币安全球及另一家被SEC诉讼的Coinbase也出现了市场深度下降的情况,加密行业则出现了更大范围的抛售; ③有分析师称,短暂的抛售也为逢低买入创造了良好机会。 财联社6月13日讯(编辑 马兰)6月5日,美国证券交易委员会对币安及姐妹公司币安美国提起诉讼,指控其老板赵长鹏及这两家机构通过参与一个欺骗、缺乏披露和蓄意逃避法律的网络,将客户资金转移。而由于本土监管的最新严厉打击措施,币安美国成为这一诉讼中受伤最深的一方。根据加密数据提供商Kaiko的一份报告,在提起诉讼后的一周内,币安美国的总市场深度下跌了76%,该指标衡量了币安美国上17种代币的流动性。6月4日时,币安美国的市场深度为3400万美元,而周一仅剩下700万美元。大量的做市商和交易员出逃,币安美国的美国市场份额也从4月份的20%骤降至目前不到5%。与此同时,币安全球的市场深度也有所下降,自6月初以来削减了7%。另一家受到SEC法律攻击的美国加密交易所——Coinbase的市场深度则下降了16%。Kaiko在报告中指出,流动性的急剧下降表明做市商十分紧张,他们希望避免波动造成损失,他们很担心再次出现FTX崩盘时的局面。好时机or坏时机恐慌情绪也造成了加密货币行业的大规模抛售。根据Coinshares的数据,上周,数字资产投资产品净流出8800万美元,连续第八周资金流出,累计流出资金达到4.17亿美元。Coinshares分析称,加密资产流出与货币政策有关,而监管对币安和Coinbase的重拳出击则是这波下跌背后的催化剂。不过,数据公司FundStrat的数字资产研究主管Sean Farrell认为,代币价格下跌可能为投资者提供了逢低买入的好机会。诉讼和价格下跌会进一步推动抛售,但在未来几天会创造一些买入点。STORM的管理合伙人Sheraz Ahmed也称,短期抛售是预料之中的事情,但会出现复苏。他指出很多代币都与区块链的优质项目相关,因此随后出现强劲的复苏。但也有人警告远离风波中的加密交易所。投资银行Berenberg在一份报告中将Coinbase的股票标记为短期内不可投资。分析师Mark Palmer表示,预计该公司在2023年第二季度交易量将十分疲软,诉讼将更加恶化这一情况。其将该公司股价从55美元下调至39美元,下跌近30%。 ...
区块链 2023-06-13 11:00:55 -
消息称美国FTC将试图阻止微软收购动视暴雪
IT之家 6 月 13 日消息,据 CNBC 报道,一位知情人士透露,美国联邦贸易委员会(FTC)今天将申请禁令,试图阻止微软收购动视暴雪的交易。微软去年 1 月宣布将以 687 亿美元(IT之家备注:当前约 4898.31 亿元人民币)的价格收购动视暴雪,这是游戏行业有史以来最大的并购案,该交易的截止日期为 7 月 18 日。FTC 已经对这笔交易提起诉讼,要求其内部行政法官进行审理。通过这种类似于审判的程序,法官将作出初步决定,然后可以向全体委员会提出上诉。如果微软不满意委员会的投票结果,还可以向联邦法院提出上诉。此案将于 8 月提交行政法法官审理。此外,英国竞争和市场管理局(CMA)也决定阻止这笔交易,微软计划在今年夏天对其进行上诉。微软总裁布拉德・史密斯表示:“我们很高兴有机会在联邦法院陈述我们的案件。我们相信加快美国的法律程序最终将为市场带来更多的选择和竞争。” ...
智能设备 2023-06-13 11:00:42 -
扎克伯格称苹果VisionPro没有重大技术突破,自家产品价优,能触达更多用户
6月9日消息, Meta首席执行官马克·扎克伯格(Mark Zuckerberg)似乎并没有对苹果推出首款混合现实头显Vision Pro感到不安。在美国当地时间周四举行的公司全体会议上,他称这款设备可能代表了未来计算愿景,但却不是他想要的...
业界动态 2023-06-13 11:00:28 -
美国“严打”了,周末“小币种”崩了,币圈风暴又双叒叕刮起来了
美国证券交易委员会(SEC)“严打”加密行业,令币圈掀起一场腥风血雨,加密“小币种”(除比特币和以太坊之外的加密货币)暴跌。继SEC起诉币安和 Coinbase之后,SEC主席Gary Gensler“我们不需要更多加密货币”的重磅发言又给了币圈一拳重击。根据CoinMarketCap的数据,本周市值排名前十的加密货币,至少有4种价格大幅下挫15%以上。Cardano是第七大市值加密货币,在过去一周下跌了20%。排名第九的Solana下跌了18%。排名第十的Polygon也下跌了18%。排名较低的Filecoin下跌了19%。币安的BNB代币(排名第四)下跌了16%。 比特币和以太坊这两种最受欢迎的加密货币较为稳定,下跌幅度都不到5%。CoinGecko数据显示,当前全网加密货币总市值回落至1.1万亿美元,24小时跌幅为4...
区块链 2023-06-13 10:59:55 -
谷歌、微软测试AI搜索广告策略遭品牌商抵制
6月9日消息,不少广告买家表示,Alphabet旗下的谷歌以及微软都在自家搜索引擎试验人工智能的过程中插入广告,还没有能退出或关闭的选项。这种做法已经惹恼了一些品牌,有可能遭到广告行业的抵制...
业界动态 2023-06-13 10:59:43 -
特斯拉辅助驾驶系统四年间在美国发生736起车祸至少17人遇难
6月12日消息,媒体对美国国家公路交通安全管理局(NHTSA)收集的数据进行分析后发现,自2019年以来,美国共发生了736起涉及特斯拉司机辅助驾驶系统的车祸,远远超过此前报道的数量。在这些事故中,至少造成了17人遇难。这类撞车事故激增表明,特斯拉辅助驾驶系统的使用越来越广泛,同时其带来的危险也不断增加。以下为翻译全文:一份警方报告称,今年3月份的某个下午,当17岁的蒂尔曼·米切尔(Tillman Mitchell)下车时,校车正在显示停车标志,红色警示灯不断闪烁着。然后,一辆特斯拉Model Y驶进了北卡罗来纳州的561号高速公路。据称,当时这辆车上的司机辅助驾驶系统Autopilot正处于启动状态,但它没有任何减速的迹象。这辆Model Y以时速超过70公里的速度撞上了米切尔。据他的姑祖母多萝西·林奇(Dorothy Lynch)说,米切尔先是撞穿了挡风玻璃,然后飞向空中,最终脸朝下落在路上。米切尔的父亲听到了撞击声,冲出门廊,发现他的儿子正躺在路中央。林奇说:“如果他是个更小的孩子,可能早就死了!”媒体对NHTSA收集的数据分析显示,这起撞车事故发生在北卡罗来纳州哈利法克斯县,只是自2019年以来在美国发生的736起涉及特斯拉Autopilot的撞车事故之一,这个数字远远超过此前的报道。数据显示,这类撞车事故的数量在过去四年里激增表明,随着特斯拉司机辅助驾驶技术被越来越广泛地使用,以及越来越多配备此类系统的汽车出现在美国公路上,它们带来的危险也越来越高。数据还显示,与Autopilot相关的死亡和重伤人数也大幅增加。当NHTSA在2022年6月首次公布涉及Autopilot的事故的部分统计时,他们只统计了三起明确与这项技术有关的致命车祸。而最新数据包括至少17起致命事故,其中11起是自去年5月以来发生的,还有5人重伤。米切尔在3月份的撞车事故中幸存下来,但颈部骨折,腿部骨折,不得不接受呼吸机治疗。他仍然患有记忆力问题,走路也困难。他的姑祖母林奇说,这起事件应该是对这项技术危险性的一个警告。“我祈祷这是一个学习的过程,”林奇说。“当涉及到机器时,人们太轻信它了!”特斯拉首席执行官埃隆·马斯克( Elon Musk)表示,在启动Autopilot系统的情况下,特斯拉汽车比仅由人类驾驶的汽车更安全,并列举了两种驾驶模式时的撞车率。他希望特斯拉开发和部署更多辅助驾驶功能,以躲避停泊的校车、消防车、停车标志和行人。他甚至辩称,这项技术将带来一个更安全、几乎不再有车祸的未来。虽然不可能说已经有多少起车祸被避免,但数据显示,在美国高速公路上实时测试的这项技术存在明显缺陷。媒体分析发现,特斯拉Autopilot涉及的17起致命撞车事故显示出不同的模式:其中4起涉及与摩托车相撞,另一起涉及与急救车相撞。与此同时,多位专家表示,马斯克的某些决定似乎是导致事故报告增加的原因之一,比如广泛扩大辅助驾驶功能的可用性,以及取消车辆上的雷达传感器。特斯拉和马斯克都没有回复置评请求。NHTSA表示,一份涉及司机辅助驾驶系统的撞车报告本身并不意味着这项技术是导致事故的原因。该机构发言人维罗妮卡·莫拉莱斯(Veronica Morales)说:“NHTSA正在对特斯拉Autopilot进行积极调查,包括其升级版FSD。NHTSA提醒公众,所有先进的辅助驾驶系统都要求人类司机时刻处于控制状态,并全身心投入驾驶任务中。因此,美国所有州的法律都要求人类司机对其车辆的操作负责。”马斯克一再为自己向特斯拉车主推广辅助驾驶技术的决定辩护,认为其利大于弊。他去年曾说:“既然你相信增加自主性可以减少伤亡,我认为你就有道义上的义务部署它,即使你会被很多人起诉和指责。”NHTSA前高级安全顾问、乔治梅森大学工程与计算学院教授米西·卡明斯(Missy Cummings)表示,涉及特斯拉的车祸激增令人担忧。她在回应上述分析发现时说,特斯拉发生的撞车事故比正常情况更严重,也更致命。卡明斯说,一个可能的原因是,在过去一年半的时间里,FSD的推广范围扩大了,它为城市和居民区的街道带来了辅助驾驶。“事实上,任何人都可以拥有这套系统。预计这可能会导致事故率上升,这合理吗?当然合理。”卡明斯说,与总体撞车事故相比,死亡人数增加也是一个令人担忧的问题。目前尚不清楚NHTSA的数据是否记录了涉及特斯拉辅助驾驶系统的每一起撞车事故,但其中囊括了部分启用Autopilot或FSD的事故,包括三起死亡事故。在2021年一项联邦命令要求汽车制造商披露涉及辅助驾驶技术的事故后,作为美国最高汽车安全监管机构,NHTSA开始收集数据。与所有道路事故相比,涉及这项技术的撞车事故总数仍然很少。NHTSA估计,去年有超过4万美国人死于各种车祸。数据显示,自引入撞车事故报告要求以来,与辅助驾驶系统相关的807起撞车事故中,绝大多数涉及特斯拉。这是因为特斯拉在自动驾驶方面的尝试比其他汽车制造商更积极,它也与几乎所有的致命事故有关。斯巴鲁排名第二,自2019年以来共发生23起撞车事故。这种巨大的鸿沟可能反映了特斯拉整个车队更广泛地部署和使用驾驶辅助系统,以及鼓励特斯拉司机使用Autopilot的情况。特斯拉于2014年推出Autopilot,这是一套辅助驾驶功能,使汽车能够自动从高速公路入口匝道转向出口匝道,并在此期间保持特定速度,与其他车辆保持距离,并跟随车道线行驶。特斯拉将Autopilot作为其车辆的标准功能,超过80万辆在美国道路上行驶的特斯拉汽车配备了Autopilot,尽管迭代需要付出成本。FSD是消费者必须购买的一项试验性功能,它允许特斯拉按照路线上的指示转弯,在停车标志和红灯时停车,自动转弯和换道,并对沿途的危险做出反应,从而从A点机动到B点。特斯拉表示,无论使用哪种系统,司机都必须监控道路情况,并在必要时进行干预。撞车事故的增加恰逢特斯拉积极推广FSD之际,在过去一年多一点的时间里,FSD的用户从大约1.2万人扩大到近40万人。特斯拉向NHTSA报告的所有涉及辅助驾驶系统撞车事故中,近三分之二发生在过去一年。卡内基梅隆大学教授菲利普·库普曼(Philip Koopman)对自动驾驶汽车安全性进行了25年的研究。他表示,数据中特斯拉的名字频繁出现引发了关键问题。“数字明显增加肯定让人感到担心,”他说。“我们需要了解这是因为更严重的撞车事故所致,还是有其他一些因素,比如在开启Autopilot模式下行驶的里程数大幅增加。”今年2月,特斯拉召回了超过36万辆配备FSD系统的汽车,原因是担心该软件会促使其车辆违反红绿灯、停车标志和限速规则。安全机构发布的文件称,如果司机不干预,藐视交通法规“可能会增加撞车的风险”。特斯拉表示,该公司通过空中软件更新修复了这些问题,远程解决了风险。尽管特斯拉不断改进其辅助驾驶软件,但它也采取了史无前例的举措,从新车上移除雷达传感器,并在已经上路的车辆上禁用雷达传感器。在全球电脑芯片短缺的情况下,马斯克推出了一套更简单的硬件,移除了这些车上的一个关键传感器。马斯克去年曾表示:“只有极高分辨率的雷达才有意义。”有报道称,特斯拉最近已采取措施,重新引入雷达传感器。在3月份的一次演示中,特斯拉声称,通过比较每次碰撞的行驶里程,涉及FSD的撞车事故发生率至少比正常驾驶下的车辆低五倍。如果没有特斯拉提供的详细数据,这一说法以及马斯克对自动驾驶仪“绝对更安全”的描述,可能都无法证实。Autopilot在很大程度上是一款高速公路系统,与典型的道路使用者所经历的各种情况相比,它可以在不太复杂的环境中运行。目前尚不清楚NHTSA数据中涵盖的致命车祸中使用了哪种系统:特斯拉已要求NHTSA不要披露相关信息。在NHTSA数据中阐述软件版本的部分,特斯拉用大写字母标记:“已编辑,可能包含机密商业信息。”近年来,Autopilot和FSD都受到了密切关注。美国交通部长皮特·布蒂吉格(Pete Buttigieg)上个月称,当法律规定你需要把手放在方向盘上,眼睛始终盯着路的时候,Autopilot显然并非最合适的名字。NHTSA已经对涉及特斯拉的撞车事故和其辅助驾驶软件的其他问题展开了多项调查。其中一项调查重点是所谓的“幻影刹车”,即车辆会因想象中的危险而突然减速。在去年的一起案件中,一辆据称启用辅助驾驶系统的特斯拉Model S在旧金山湾大桥上的车流中突然刹车,导致8辆车连环相撞,9人受伤,其中包括一名2岁的儿童。在提交给NHTSA的其他投诉中,车主表示,这些汽车在迎面而来的车道上遇到卡车时也会突然刹车。许多撞车事故都涉及到类似的设置和条件。例如,NHTSA已经收到了十几起特斯拉汽车启动Autopilot的情况时撞上停放的紧急车辆的报告。去年,该机构称将对这些事件的调查升级为“工程分析”,这是强制大规模召回的前奏。同样在去年,NHTSA连续两次对涉及特斯拉汽车和摩托车手的致命撞车事故展开特别调查。据称,其中一起车祸发生在犹他州,时间在凌晨1点过后不久,一名骑着哈雷戴维森摩托车的人在盐湖城外的15号州际公路上行驶。一辆开启Autopilot的特斯拉汽车从后面撞了上来。犹他州公共安全部称,特斯拉的司机没有看到摩托车手,与摩托车后座相撞,导致车手摔了下来,并当场死亡。卡明斯说:“摩托车在特斯拉附近行驶是非常危险的。”在数百起涉及特斯拉辅助驾驶系统的撞车事故中,NHTSA专注于对约40起事故进行深入分析,希望对该技术的运作方式有更深入的了解。其中包括北卡罗来纳州涉及米切尔的撞车事故。事故发生之后,米切尔在医院醒来,完全不记得发生了什么。据北卡罗来纳州公路巡逻队中士马库斯·贝西亚(Marcus Bethea)称,特斯拉司机霍华德·易(Howard G...
业界动态 2023-06-13 10:59:24 -
SamAltman中国对话全文
Sam Altman 的致辞发生在6月10日智源大会的AI安全与对齐分论坛上。现场座无虚席,这位OpenAI CEO在屏幕上出现时,现场响起掌声,几乎所有人都举起手机对着屏幕拍照。不过Altman本人显得十分平静,甚至是谨慎。这是去年ChatGPT搅动全球AI热潮以来,Sam Altman 首度在中国背景的场合公开发表意见。事实上当天他也在离中国不远的地方,此前他刚刚抵达首尔,见了韩国总统。在对话中他自己提到,上一次来中国是2016年。在发表演讲后,他还与智源研究院理事长张宏江进行了一对一问答。以下为要点及实录。要点:随着我们在技术上越来越接近AGI,不对齐的影响和缺陷将呈指数级增长。OpenAI目前使用强化学习人类反馈技术来确保AI系统有用与安全,同时也在探索新的技术,其中一个思路是使用AI系统来辅助人类去监督别的AI系统。十年内人类将拥有强大的人工智能系统(AI System)。OpenAI没有相关的新的有关开源的时间表,尽管他承认在有关AI安全的问题上,开源模型具有优势,但开源所有东西可能并不是一条(促进AI发展的)最佳路线。看明白神经网络比看明白人类脑子容易多了。中国有最优秀的人工智能人才,AI安全需要中国研究者的参与和贡献。以下为演讲实录:今天,我想谈谈未来。具体来说,就是我们在人工智能能力方面看到的增长速度。我们现在需要做什么,为它们引入世界做好负责任的准备,科学史教会我们,技术进步遵循指数曲线。我们已经能从历史中看到这一点,从农业、工业到计算革命。人工智能令人震撼的不仅是它的影响力,还有它的进步速度。它拓展了人类想象力的边界,并且以快速的步伐进行着。想象一下,在未来十年里,通常被称为通用人工智能(AGI)的系统,在几乎所有领域都超越了人类的专业水平。这些系统最终可能超过我们最大公司的集体生产力。这里面潜藏着巨大的上升空间。人工智能革命将创造共享财富,并使提高每个人生活水平成为可能,解决共同挑战,如气候变化和全球卫生安全,并以无数其他方式提高社会福祉。我深信这个未来,为了实现它并享受它,我们需要共同投资于AGI安全,并管理风险。如果我们不小心,一个不符合目标的AGI系统,可能会通过提供没有根据的建议,破坏整个医疗系统。同样地,一个旨在优化农业实践的AGI系统可能会由于缺乏对长期可持续性的考虑而无意中耗尽自然资源或破坏生态系统,影响食品生产和环境平衡。我希望我们都能同意,推进AGI安全是我们最重要的领域之一。我想把我剩下的讲话重点放在我认为我们可以从哪里开始的地方。一个领域是AGI治理,这是一项具有全球影响的技术。鲁莽开发和部署造成的事故成本将影响我们所有人。在这方面,有两个关键要素:首先,我们需要建立国际规范和标准,并通过包容的过程,在所有国家为AGI的使用制定平等统一的保护措施。在这些保护措施之内,我们相信人们有充分的机会做出自己的选择。其次,我们需要国际合作来建立对日益强大的人工智能系统安全开发的全球信任,以可验证的方式。这不是一件容易的事情。我们需要作为国际社会投入持续而重要的关注,才能做好这件事。道德经提醒我们,千里之行始于足下。我们认为在这里采取最有建设性的第一步是与国际科技界合作。特别是,我们应该促进增加透明度和知识共享的机制,关于AGI安全方面的技术进展。发现新出现安全问题的研究人员应该为了更大的利益分享他们的见解。我们需要认真考虑如何在尊重和保护知识产权权利的同时,鼓励这种规范。如果我们做好了这一点,它将为我们打开新的大门,让我们能够加深合作。更广泛地说,我们应该投资、促进和引导对目标和安全研究的投资。在OpenAI,我们今天的目标研究主要集中在技术问题上,即如何让人工智能系统作为一个有用和安全的助手,在我们当前的系统中行动。这可能意味着,我们如何训练ChatGPT,使它不会发出暴力威胁或协助用户进行有害活动。但是随着我们更接近AGI,任何不符合目标的潜在影响和程度都将呈指数增长。为了提前解决这些挑战,我们努力将未来灾难性结果的风险降到最低。对于当前系统,我们主要使用来自人类反馈的强化学习来训练我们的模型,使其作为一个有用和安全的助手行动。这是后期训练目标技术中的一个例子,我们也在忙于开发新的技术。要做好这件事情需要很多艰苦的工程工作。从GPT-4完成预训练到部署它,我们花了8个月的时间来做这件事。总的来说,我们认为我们在这方面走在了正确的轨道上。GPT-4比我们以前的任何模型都更符合目标。然而,对于更先进的系统来说,目标仍然是一个未解决的问题,我们认为这需要新的技术方法,以及更多的治理和监督。想象一下,一个未来的AGI系统提出了10万行二进制代码。人类监督者不太可能检测到这样一个模型是否在做一些邪恶的事情。所以我们正在投资一些新的和互补的研究方向,我们希望能够取得突破。一个是可扩展的监督。我们可以尝试使用人工智能系统来协助人类监督其他人工智能系统。例如,我们可以训练一个模型来帮助人类监督者发现其他模型输出中的缺陷。第二个是可解释性。我们想尝试更好地理解这些模型内部发生了什么。我们最近发表了一篇论文,使用GPT-4来解释GPT-2中的神经元。在另一篇论文中,我们使用模型内部信息来检测模型何时在说谎。虽然我们还有很长的路要走,但我们相信先进的机器学习技术可以进一步提高我们产生解释的能力。最终,我们的目标是训练人工智能系统来帮助目标研究本身。这种方法的一个有希望的方面是,它随着人工智能发展的步伐而扩展。随着未来模型变得越来越聪明和有用作为助手,我们将找到更好的技术,实现AGI的非凡利益,同时减轻风险,是我们这个时代最重要的挑战之一。以下为对话实录:张宏江:我们离人工智能还有多远?风险是不是很紧迫,还是我们离它还很遥远?无论是安全的人工智能,还是潜在的不安全的人工智能。Sam Altman :这个问题很难准确预测时间,因为它需要新的研究思路,而这些思路并不总是按照规定的日程来发展的。它可能很快就会发生,也可能需要更长的时间。我认为很难用任何程度的确定性来预测。但我确实认为,在未来十年内,我们可能会拥有非常强大的人工智能系统。在这样的世界里,我认为解决这个问题是重要而紧迫的,这就是为什么我呼吁国际社会共同合作来解决这个问题。历史上确实给我们提供了一些新技术比许多人想象的更快地改变世界的例子。我们现在看到的这些系统的影响和加速度,在某种意义上是前所未有的。所以我认为做好准备,让它尽快发生,并且解决好安全性方面的问题,考虑到它们的影响和重要性,是非常有意义的。张宏江:你感觉到了一种紧迫感吗?Sam Altman:是的,我感觉到了。我想强调一下,我们并不真正知道。而且人工智能的定义也不同,但是我认为在十年内,我们应该为一个拥有非常强大系统的世界做好准备。张宏江:你在刚才的演讲中也提到了几次全球合作。我们知道世界在过去六七十年里面临过很多危机。不过对于其中的很多危机,我们设法建立了共识和全球合作。你也正在进行一次全球之旅。你正在推动什么样的全球合作?你对目前收到的反馈感觉如何?Sam Altman:是的,我对目前收到的反馈非常满意。我认为人们非常认真地对待人工智能带来的风险和机遇。我认为在过去六个月里,这方面的讨论已经有了很大进步。人们真正致力于找出一个框架,让我们能够享受这些好处,同时共同合作来减轻风险。我认为我们处于一个非常有利的位置来做这件事。全球合作总是很困难的,但我认为这是一种机会和威胁,可以让世界团结起来。我们可以制定一些框架和安全标准,来指导这些系统的开发,这将是非常有帮助的。张宏江:在这个特定的话题上,你提到了高级人工智能系统的对齐是一个未解决的问题。我也注意到OpenAI在过去几年里投入了很多精力。你还提到了GPT-4是对齐方面的最佳例子。你认为我们能否通过对齐来解决人工智能安全问题?或者这个问题比对齐更大?Sam Altman :我认为对齐这个词有不同的用法。我认为我们需要解决的是如何实现安全人工智能系统的整个挑战。对齐在传统意义上是指让模型按照用户的意图行事,这当然是其中的一部分。但我们还需要回答其他一些问题,比如我们如何验证系统是否做了我们想要它们做的事情,以及我们要根据谁的价值观来对齐系统。但我认为重要的是要看到实现安全人工智能所需要的全貌。张宏江:是的,如果我们看看GPT-4所做的事情,在很大程度上,它仍然是从技术角度来看的。但除了技术之外,还有许多其他因素。这是一个非常复杂的问题。通常复杂问题是系统性的。人工智能安全可能也不例外。除了技术方面之外,你认为还有哪些因素和问题对人工智能安全至关重要?我们应该如何应对这些挑战?特别是我们大多数人都是科学家,我们应该做什么?Sam Altman:这当然是一个非常复杂的问题。我会说没有技术解决方案,其他一切都很难。我认为把很多精力放在确保我们解决了安全方面的技术问题上是非常重要的。正如我提到的,弄清楚我们要根据什么样的价值观来对齐系统,这不是一个技术问题。它需要技术输入,但它是一个需要全社会深入讨论的问题。我们必须设计出公平、有代表性和包容性的系统。而且,正如你指出的,我们不仅要考虑人工智能模型本身的安全性,还要考虑整个系统的安全性。所以建立安全分类器和检测器,可以在模型之上运行,可以监控使用策略的遵守情况,这也很重要。然后,我也认为很难提前预测任何技术会出现什么问题。所以从真实世界中学习和迭代地部署,看看当你把模型放到现实中时会发生什么,并改进它,并给人们和社会时间去学习和更新,并思考这些模型将如何以好的和坏的方式影响他们的生活。这也很重要。张宏江:你刚才提到了全球合作。你已经访问了很多国家,你提到了中国。但你能否分享一些你在合作方面取得的成果?你对下一步有什么计划或想法?从这次世界之旅中,从你与各种政府、机构、机构之间的互动中?Sam Altman:我认为通常需要很多不同的视角和人工智能安全。我们还没有得到所有的答案,这是一个相当困难和重要的问题。此外,正如所提到的,这不是一个纯粹的技术问题,使人工智能安全和有益的。涉及在非常不同的背景下了解不同国家的用户偏好。我们需要很多不同的投入才能实现这一目标。中国拥有一些世界上最优秀的人工智能人才。从根本上说,我认为,考虑到解决高级人工智能系统对齐的困难,需要来自世界各地的最好的头脑。所以我真的希望中国的人工智能研究人员在这里做出巨大的贡献。张宏江:我明白今天的论坛是关注AI安全的,因为人们对OpenAI很好奇,所以我有很多关于OpenAI的问题,不仅仅是AI安全。我这里有一个观众的问题是,OpenAI有没有计划重新开源它的模型,就像在3.0版本之前那样?我也认为开源有利于AI安全。Sam Altman:我们有些模型是开源的,有些不是,但随着时间的推移,我认为你应该期待我们将来会继续开源更多的模型。我没有一个具体的模型或时间表,但这是我们目前正在讨论的事情。张宏江:我们把所有的努力都投入到了开源中,包括模型本身、开发模型的算法、优化模型和数据之间关系的工具。我们相信有必要分享,并让用户感觉到他们控制了自己所使用的东西。你是否有类似的反馈?或者这是你们在OpenAI中讨论的内容?Sam Altman:是的,我认为开源在某种程度上确实有一个重要的作用。最近也有很多新的开源模型出现。我认为API模型也有一个重要的作用。它为我们提供了额外的安全控制。你可以阻止某些用途。你可以阻止某些类型的微调。如果某件事情不起作用,你可以收回它。在当前模型的规模下,我不太担心这个问题。但是随着模型变得像我们期望的那样强大,如果我们对此是正确的,我认为开源一切可能不是最佳路径,尽管有时候它是正确的。我认为我们只需要仔细地平衡一下。张宏江:关于GPT-4和AI安全方面的后续问题是,我们是否需要改变整个基础设施或整个AGI模型的架构,以使其更安全、更容易被检查?你对此有什么想法?Sam Altman:这肯定有可能,我们需要一些非常不同的架构,无论是从能力还是从安全性方面来看。我认为我们将能够在可解释性方面取得一些进展,在当前类型的模型上,并让它们更好地向我们解释它们在做什么以及为什么。但是,如果在变换器之后还有另一个巨大的飞跃,那也不会让我感到惊讶。而且实际上我们已经在原始的变换器之后,架构已经发生了很大的变化。张宏江:作为一个研究人员,我也很好奇,下一步的AGI研究方向是什么?在大模型、大语言模型方面,我们会不会很快看到GPT-5?下一个前沿是不是在具身模型上?自主机器人是不是OpenAI正在或者准备探索的领域?Sam Altman:我也很好奇下一步会发生什么,我最喜欢做这项工作的原因之一就是在研究的前沿,有很多令人兴奋和惊讶的事情。我们还没有答案,所以我们在探索很多可能的新范式。当然,在某个时候,我们会尝试做一个GPT-5模型,但不会是很快。我们不知道具体什么时候。我们在OpenAI刚开始的时候就做过机器人方面的工作,我们对此非常感兴趣,但也遇到了一些困难。我希望有一天我们能够回到这个领域。张宏江:听起来很棒。你在演讲中也提到了你们是如何用GPT-4来解释GPT-2的工作原理,从而使模型更安全的例子。这种方法是可扩展的吗?这种方向是不是OpenAI未来会继续推进的?Sam Altman:我们会继续推进这个方向。张宏江:那你认为这种方法可以应用到生物神经元上吗?因为我问这个问题的原因是,有一些生物学家和神经科学家,他们想借鉴这个方法,在他们的领域里研究和探索人类神经元是如何工作的。Sam Altman:在人工神经元上观察发生了什么比在生物神经元上容易得多。所以我认为这种方法对于人工神经网络是有效的。我认为使用更强大的模型来帮助我们理解其他模型的方法是可行的。但我不太确定你怎么把这个方法应用到人类大脑上。张宏江:好的,谢谢你。既然我们谈到了AI安全和AGI控制,那么我们一直在讨论的一个问题是,如果这个世界上只有三个模型,那么会不会更安全?这就像核控制一样,你不想让核武器扩散。我们有这样的条约,我们试图控制能够获得这项技术的国家数量。那么控制模型数量是不是一个可行的方向?Sam Altman:我认为对于世界上有少数模型还是多数模型更安全,有不同的观点。我认为更重要的是,我们是否有一个系统,能够让任何一个强大的模型都经过充分的安全测试?我们是否有一个框架,能够让任何一个创造出足够强大的模型的人,既有资源,也有责任,来确保他们创造出的东西是安全和对齐的?张宏江:昨天在这个会议上,MIT未来生命研究所的Max教授提到了一种可能的方法,就是类似于我们控制药物开发的方式。科学家或者公司开发出新药,你不能直接上市。你必须经过这样的测试过程。这是不是我们可以借鉴的?Sam Altman:我绝对认为,我们可以从不同行业发展出来的许可和测试框架中借鉴很多东西。但我认为从根本上说,我们已经有了一些可以奏效的方法。张宏江:非常感谢你,Sam。谢谢你抽时间来参加这次会议,虽然是虚拟的。我相信还有很多问题,但考虑到时间,我们不得不到此为止。希望下次你有机会来中国,来北京,我们可以有更深入的讨论。非常感谢你。 ...
智能设备 2023-06-13 10:58:37 -
中国银行重庆市分行落地全市首笔对公数字人民币贷款业务
近日,中国银行重庆高新分行成功为西部(重庆)科学城政府平台企业投放数字人民币贷款2400万元。这也是全市落地的首笔数字人民币对公贷款,实现了重庆数字人民币推广运用新突破...
区块链 2023-06-13 10:57:00