热门搜索
-
天桐科技申请区块链攻击检测专利,利用图神经网络识别网络威胁
天桐科技申请区块链攻击检测专利,利用图神经网络识别网络威胁金融界2024年10月18日消息,国家知识产权局信息显示,天桐(苏州)网络科技有限公司申请一项名为“一种基于图神经网络的区块链攻击检测方法及装置”的专利,公开号CN118784285A,申请日期为2024年6月。该专利旨在解决区块链网络安全问题,通过采用图神经网络(GNN)来识别和检测潜在的攻击行为...
区块链 2024-10-18 18:37:45 -
SpaceX面临63万美元罚款,马斯克威胁提起反诉:FAA监管越权?
SpaceX面临63万美元罚款,马斯克威胁提起反诉:FAA监管越权?美国联邦航空管理局(FAA)宣布计划对SpaceX处以超过63万美元的罚款,原因是该公司在去年两次发射活动中未能遵守相关规定。对此,SpaceX首席执行官埃隆·马斯克迅速回应,威胁将提起反诉,指责FAA“监管越权”...
业界动态 2024-09-18 15:50:03 -
iPhone 16 系列出货量上调:Pro 机型或成销量主力,新款 iPhone SE4 将成潜在威胁
iPhone 16 系列出货量上调:Pro 机型或成销量主力,新款 iPhone SE4 将成潜在威胁根据知名分析师郭明錤的最新预测,苹果 iPhone 16 系列的 2024 年出货量将从 8700 万 - 8800 万台提升至 8800 万 - 8900 万台,主要增长动力来源于 iPhone 16 标准版。郭明錤预计,iPhone 16、iPhone 16 Plus、iPhone 16 Pro 和 iPhone 16 Pro Max 在 2024 年的出货占比分别为 26%、6%、30% 和 38%...
手机互联 2024-09-09 15:05:14 -
比特币跌破6万美元,空头挤压风险上升,美国政府成另一威胁?
比特币跌破6万美元,空头挤压风险上升,美国政府成另一威胁?尽管全球股市持续反弹,加密货币市场却持续低迷,其中比特币在过去一个月累计下跌超过12%,现已跌破6万美元关口。然而,加密货币分析机构K33Research表示,比特币衍生品市场显示出“空头挤压”的风险正在上升,这可能为比特币带来一波强劲反弹...
区块链 2024-08-21 16:44:38 -
舅舅党感慨PS敢肆无忌惮涨价:不再把Xbox视为威胁
知名舅舅党Jez今日发推感慨PlayStation肆无忌惮地涨价,希望Xbox能提高竞争力。“在我看来,PlayStation能够如此轻易地提高产品价格,说明他们不再将Xbox视为威胁...
游戏资讯 2023-10-19 03:19:55 -
美媒:升级太慢,GPS系统不再领先,民用领域或受威胁
10月16日消息,诞生近50年后,随着系统逐渐老化,加之中国、俄罗斯和欧盟已经开发出类似的服务,GPS正面临失去全球定位服务“黄金标准”的可能性。负责管理GPS的美国军方计划用更现代化的卫星升级系统,提供更精确的坐标...
业界动态 2023-10-19 02:14:22 -
李楠预计苹果VisionPro三代后可威胁室内所有非分享屏幕
【手机中国新闻】6月7日,手机中国注意到,前魅族科技高级副总裁李楠发文表示,根据他的预测,保守估计,如果相关技术进步顺利,历经三代产品优化,在室内场景下,苹果的Vision Pro会威胁所有非分享屏幕(这里的非分享屏幕可能包括智能手机、平板、电脑等等)。而目前,除了硬件技术和成本,游戏的匹配是苹果Vision Pro的最大短板。在十几年前,苹果的iPhone曾经改变了整个手机行业。而如今,苹果刚刚于WWDC 2023上发布的这款Vision Pro也引起了广泛的关注。关于这款产品是否能够为科技行业带来下一次变革,不少网友都有自己的看法。不过,目前苹果Vision Pro的售价为3499美元(折合人民币大约2.5万元),这让它注定和大部分普通消费者暂时无缘。根据此前苹果官方在WWDC 2023上的介绍,Vision Pro是一种全新的AR平台和一种革命性的产品,其机身配备了复数的摄像头、数码表冠、头带和扬声器等部件,用户直接用眼睛、手和声音来控制该设备。同时,Vision Pro还是苹果首台3D相机, 可拍摄和回顾3D视频。TrendForce的分析师表示,考虑到发售的时间、地区、产品售价,以及暂时还缺少必要性的应用功能等因素,预估2024年苹果的Vision Pro出货量仅约20万台左右。 ...
手机互联 2023-06-08 08:31:55 -
电影明星忧虑AI威胁:别人用我的脸和声音做片子怎么办
6月2日消息,随着生成式人工智能的不断普及,一些人开始利用这种技术制作虚假电影和预告片,这让相关角色的演员们感到十分担忧。因此,在人工智能在电影行业广泛应用之前,他们希望能够采取一系列措施来保护自己的权益...
业界动态 2023-06-02 17:08:20 -
OpenAICEO威胁过度监管或退出欧洲欧议员称立法者不该被“勒索”
5月26日消息,几个月来,人工智能研究公司OpenAI首席执行官萨姆·奥特曼(Sam Altman)始终在呼呼世界各地的立法者起草管理这项技术的新规则。但在周三,他威胁称,如果欧盟“过度监管”,该公司可能会退出欧盟。在过去的一周里,奥特曼在欧洲各地奔波,分别与法国、西班牙、波兰、德国和英国的政界人士会面,讨论ChatGPT的进展以及人工智能的未来。在OpenAI向世界推出其人工智能驱动的聊天机器人ChatGPT六个多月后,围绕其潜力的担忧引发了兴奋和恐慌,并使其与监管机构不断发生冲突。奥特曼本周没有去过的一个地方是布鲁塞尔,在那里,欧盟监管机构正在制定期待已久的欧盟人工智能法案,这可能是全球首套管理人工智能的规则。两位知情人士称,奥特曼取消了原定对布鲁塞尔的访问。奥特曼周三在伦敦表示:“目前的欧盟人工智能法案草案存在过度监管,但我们听说它将被撤回。”然而,负责制定人工智能法案的欧盟议员对奥特曼的说法提出了异议。罗马尼亚欧洲议会议员德拉戈斯·图多拉切(Dragos Tudorache)表示:“我认为短期内不会出现任何修订。”他补充说:“尽管如此,我们还是很高兴邀请奥特曼先生到议会来,这样他就可以表达自己的担忧,并听取欧洲立法者对这些问题的想法。”欧盟负责内部市场的委员蒂埃里·布雷东(Thierry Breton)也批评了奥特曼的威胁,称规则草案不是用于谈判的。周四,奥特曼将与英国首相里希·苏纳克(Rishi Sunak)和法国总统伊曼纽尔·马克龙(Emmanuel Macron)等多国领导人举行会面,预计OpenAI将更详细地讨论如何监管人工智能。立法者不该被“勒索”荷兰欧洲议会议员金·范·斯巴伦塔克(Kim van Sparrentak,)也参与了欧盟人工智能法案草案的起草工作,她说自己和其他议员“不应该被美国公司勒索”。“如果OpenAI不能遵守基本的数据治理、透明度以及安全要求,那么他们的系统就不适合欧洲市场,”斯巴伦塔克表示。到2月份,ChatGPT创下了历史上所有消费者应用程序中用户增长最快的纪录。OpenAI首次与监管机构发生冲突是在3月份,当时意大利数据监管机构Garante在国内关闭了该应用,并指责OpenAI藐视欧洲隐私规则。在该公司为用户制定了新的隐私措施后,ChatGPT才得以重新上线。与此同时,欧盟立法者在人工智能法案中增加了新的提案,迫使任何使用ChatGPT等生成式人工智能工具的公司披露用于培训其系统的任何受版权保护材料。欧盟议员本月早些时候就该法案草案达成一致,欧盟所属成员国、欧盟委员会和欧洲议会将敲定该法案的最终细节。通过欧盟委员会,法国或波兰等个别成员国也可以在该法案可能在今年晚些时候获得通过之前寻求修改。全力以赴推进计划虽然这项立法已经酝酿了几年,但就在对这些提案进行关键投票的前几周,专门针对生成式人工智能工具的新条款才被起草出来。此前有报道称,有些立法者最初提议完全禁止使用受版权保护的材料来培训生成式人工智能模型,但这一提议最终被否决,转而支持更严格透明度的要求。图多拉切表示:“这些规则主要与透明度有关,这确保了人工智能和构建它的公司是值得信任的。我看不出有哪一家公司会回避透明度。”Pinsent Masons律师事务所的技术合伙人尼尔斯·劳尔(Nils Rauer)表示,奥特曼在立法者审议他们的提案时发表了上述言论,这“并不令人感到意外”。“OpenAI不太可能背弃欧洲,毕竟欧盟在经济上太重要了,”他说。“你不可能将拥有近5亿人口和15万亿欧元(约合16.51万亿美元)经济规模的单一市场分割出去。”奥特曼周四在德国慕尼黑表示,他已经与德国总理奥拉夫·朔尔茨(Olaf Scholz)会面。德国欧洲议会议员谢尔盖·拉戈丁斯基(Sergey Lagodinsky)也参与了这项立法,他说,虽然奥特曼可能正试图在各个国家之间推动他的议程,但布鲁塞尔监管这项技术的计划正在“如火如荼地推进”。“当然,可能会有一些修改,”他说。“但我觉得他们不会改变整体轨迹。”(小小) ...
智能设备 2023-05-26 11:18:32 -
OpenAICEO威胁过度监管或退出欧盟欧议员称立法者不该被“勒索”
5月26日消息,几个月来,人工智能研究公司OpenAI首席执行官萨姆·奥特曼(Sam Altman)始终在呼呼世界各地的立法者起草管理这项技术的新规则。但在周三,他威胁称,如果欧盟“过度监管”,该公司可能会退出欧盟。在过去的一周里,奥特曼在欧洲各地奔波,分别与法国、西班牙、波兰、德国和英国的政界人士会面,讨论ChatGPT的进展以及人工智能的未来。在OpenAI向世界推出其人工智能驱动的聊天机器人ChatGPT六个多月后,围绕其潜力的担忧引发了兴奋和恐慌,并使其与监管机构不断发生冲突。奥特曼本周没有去过的一个地方是布鲁塞尔,在那里,欧盟监管机构正在制定期待已久的欧盟人工智能法案,这可能是全球首套管理人工智能的规则。两位知情人士称,奥特曼取消了原定对布鲁塞尔的访问。奥特曼周三在伦敦表示:“目前的欧盟人工智能法案草案存在过度监管,但我们听说它将被撤回。”然而,负责制定人工智能法案的欧盟议员对奥特曼的说法提出了异议。罗马尼亚欧洲议会议员德拉戈斯·图多拉切(Dragos Tudorache)表示:“我认为短期内不会出现任何修订。”他补充说:“尽管如此,我们还是很高兴邀请奥特曼先生到议会来,这样他就可以表达自己的担忧,并听取欧洲立法者对这些问题的想法。”欧盟负责内部市场的委员蒂埃里·布雷东(Thierry Breton)也批评了奥特曼的威胁,称规则草案不是用于谈判的。周四,奥特曼将与英国首相里希·苏纳克(Rishi Sunak)和法国总统伊曼纽尔·马克龙(Emmanuel Macron)等多国领导人举行会面,预计OpenAI将更详细地讨论如何监管人工智能。立法者不该被“勒索”荷兰欧洲议会议员金·范·斯巴伦塔克(Kim van Sparrentak,)也参与了欧盟人工智能法案草案的起草工作,她说自己和其他议员“不应该被美国公司勒索”。“如果OpenAI不能遵守基本的数据治理、透明度以及安全要求,那么他们的系统就不适合欧洲市场,”斯巴伦塔克表示。到2月份,ChatGPT创下了历史上所有消费者应用程序中用户增长最快的纪录。OpenAI首次与监管机构发生冲突是在3月份,当时意大利数据监管机构Garante在国内关闭了该应用,并指责OpenAI藐视欧洲隐私规则。在该公司为用户制定了新的隐私措施后,ChatGPT才得以重新上线。与此同时,欧盟立法者在人工智能法案中增加了新的提案,迫使任何使用ChatGPT等生成式人工智能工具的公司披露用于培训其系统的任何受版权保护材料。欧盟议员本月早些时候就该法案草案达成一致,欧盟所属成员国、欧盟委员会和欧洲议会将敲定该法案的最终细节。通过欧盟委员会,法国或波兰等个别成员国也可以在该法案可能在今年晚些时候获得通过之前寻求修改。全力以赴推进计划虽然这项立法已经酝酿了几年,但就在对这些提案进行关键投票的前几周,专门针对生成式人工智能工具的新条款才被起草出来。此前有报道称,有些立法者最初提议完全禁止使用受版权保护的材料来培训生成式人工智能模型,但这一提议最终被否决,转而支持更严格透明度的要求。图多拉切表示:“这些规则主要与透明度有关,这确保了人工智能和构建它的公司是值得信任的。我看不出有哪一家公司会回避透明度。”Pinsent Masons律师事务所的技术合伙人尼尔斯·劳尔(Nils Rauer)表示,奥特曼在立法者审议他们的提案时发表了上述言论,这“并不令人感到意外”。“OpenAI不太可能背弃欧洲,毕竟欧盟在经济上太重要了,”他说。“你不可能将拥有近5亿人口和15万亿欧元(约合16.51万亿美元)经济规模的单一市场分割出去。”奥特曼周四在德国慕尼黑表示,他已经与德国总理奥拉夫·朔尔茨(Olaf Scholz)会面。德国欧洲议会议员谢尔盖·拉戈丁斯基(Sergey Lagodinsky)也参与了这项立法,他说,虽然奥特曼可能正试图在各个国家之间推动他的议程,但布鲁塞尔监管这项技术的计划正在“如火如荼地推进”。“当然,可能会有一些修改,”他说。“但我觉得他们不会改变整体轨迹。”(小小) ...
业界动态 2023-05-26 08:23:59 -
硅谷热辩:AI是否会毁灭人类?
5月22日消息,随着生成式人工智能等新技术成为科技界新热潮,关于人工智能是否会毁灭人类的争论愈演愈烈。有知名科技领袖警告称,人工智能可能会接管整个世界。其他研究人员和高管则表示,这种说法是科幻小说。在上周召开的美国国会听证会上,人工智能初创企业OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)明确提醒大家,该公司公开的这项技术存在安全风险。奥尔特曼警告说,ChatGPT聊天机器人等人工智能技术可能会引发虚假信息和恶意操纵等问题,并呼吁进行监管。他表示,人工智能可能“对世界造成严重伤害”。奥尔特曼在美国国会作证之际,关于人工智能是否会主宰世界的辩论正转向主流,整个硅谷和致力于推广人工智能技术的人士意见不一、分歧也越来越大。以前曾有个别人认为,机器的智力水平可能会突然超越人类,并决定毁灭人类,现在这种边缘型想法正在获得越来越多人的支持。一些权威科学家甚至都认为计算机学会超越人类并能控制人的时间将有所缩短。但许多研究人员和工程师表示,虽然不少人担心现实中出现像电影《终结者》中的天网那种杀手型人工智能,但这种担忧并不是基于合乎逻辑的好科学。相反其分散了人们对这种技术已经造成现实问题的注意力,包括奥尔特曼在证词中所描述的问题。现在的人工智能技术正在混淆版权,加剧人们对数字隐私和监控的担忧,还可能被用来提高黑客突破网络防御的能力。谷歌、微软以及OpenAI都已经公开发布突破性的人工智能技术。这些技术可以与用户进行复杂对话,并根据简单文本提示生成图像。关于邪恶人工智能的争论已经升温。“这不是科幻小说,”人工智能教父、谷歌前员工杰弗里·辛顿(Geoffrey Hinton)说。辛顿表示,比人类更聪明的人工智能可能会在5到20年内出现,而他之前的估计是30到100年。“就好像外星人已经登陆地球或即将登陆,”他说。“我们真的无法接受,因为它们讲话流利,它们很有用,它们会写诗,还会回复无聊的信。但它们真的是外星人。”尽管如此,在大型科技公司内部,许多与这项技术有密切关系的工程师并不认为人工智能取代人类是大家现在需要担心的事情。人工智能初创公司Cohere旗下研究实验室Cohere for AI主管、前谷歌研究员萨拉·胡克(Sara Hooker)说:“在积极从事这一学科的研究人员中,关注当前现实风险的人远远多于关注人类是否有生存风险的人。”目前的现实风险很多,比如发布受过不良内容训练的机器人会加深偏见和歧视等问题;人工智能的绝大多数训练数据用的都是英语,主要来自北美或欧洲,这可能会使互联网更加偏离大多数人的语言和文化;这些机器人还经常编造虚假信息,将其伪装成事实;在某些情况下,它们甚至会陷入攻击用户的无限循环对话。此外,人们也不清楚这项技术带来的连锁反应,所有行业都在为人工智能可能带来的颠覆或变革做准备,甚至律师或医生等高薪工作也会被取代。也有人认为,未来人工智能可能会伤害人类,甚至以某种方式控制整个社会。虽然事关人类生存的风险似乎更加严峻,但许多人认为,这种风险更难量化,也不那么具体。“有一群人认为,这些只是算法。它们只是在重复网上看到的内容。”今年4月份谷歌首席执行官桑德尔·皮查伊(Sundar Pichai)在接受采访时表示:“还有一种观点认为,这些算法正涌现出新特性,具有创造力、推理能力和规划能力。”“我们需要审慎对待这件事。”这场争论源于过去10年间计算机科学领域机器学习技术的不断突破。机器学习创造出相关软件和技术,可以在没有人类明确指令的情况下,从大量数据中提取出新颖见解。这种技术在社交媒体算法、搜索引擎和图像识别程序等各种应用中无处不在。去年,OpenAI和其他几家小公司开始陆续发布使用新机器学习技术的工具:生成式人工智能。这种所谓的大语言模型用网上抓取的上万亿张照片和句子进行自我训练后,可以根据简单提示生成图像和文本,与用户开展复杂对话,并编写计算机代码。未来生命研究所(Future of Life Institute)执行董事安东尼·阿吉雷(Anthony Aguirre)说,大公司正在竞相开发越来越智能的机器,几乎没有任何监管。未来生命研究所成立于2014年,目的是研究社会存在的风险。在特斯拉首席执行官埃隆·马斯克(Elon Musk)的资助下,研究所于2015年开始研究人工智能毁灭人类的可能性。阿吉雷说,如果人工智能获得比人类更好的推理能力,它们就会试图实现自我控制。这是值得人们担心的,就像现在存在的现实问题一样。他说:“如何约束它们不偏离轨道,将变得越来越复杂。”“不少科幻小说已经说得很具体了。”今年3月份,阿吉雷帮助撰写了一封公开信,呼吁暂停训练新的人工智能模型6个月时间。这封公开信共获得27000位人士签名支持,获得2018年计算机科学最高奖项的资深人工智能研究员约书亚·本吉奥(Yoshua Bengio)和最具影响力的人工智能初创企业之一首席执行官埃马德·莫斯塔克(Emad Mostaque)都位列其中。马斯克无疑是其中最引人注目的。他曾帮助创建OpenAI,现在自己也在忙着组建人工智能公司,最近投资了训练人工智能模型所需的昂贵计算机设备。多年来马斯克一直认为,人类应该对发展超级人工智能的后果倍加小心。在上周特斯拉年度股东大会期间接受采访时,马斯克表示,自己当初之所以资助OpenAI,是因为他觉得谷歌联合创始人拉里·佩奇(Larry Page)对人工智能的威胁“漫不经心”。美版知乎Quora也在开发自家人工智能模型。公司首席执行官亚当·德安吉洛(Adam D’angelo)没有在公开信上签名。他在谈到这封公开信时说,“人们提出这项建议时有各自不同的动机。”OpenAI首席执行官奥尔特曼也不认可公开信内容。他表示,自己赞同这封公开信的部分内容,但总体上缺乏“技术细节”,并不是监管人工智能的正确方式。奥尔特曼在上周二举行的人工智能听证会上表示,他公司的做法是尽早向公众推出人工智能工具,以便在技术变得更强大之前发现和解决问题。但科技界有关杀手型机器人的争论越来越多。其中一些最严厉的批评来自多年来一直研究这项技术缺陷的研究人员。2020年,谷歌研究人员蒂姆尼特·格布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell)与华盛顿大学学者艾米丽·M·本德(Emily M. Bender)和安吉丽娜·麦克米兰-梅杰(Angelina McMillan-Major)合作撰写了一篇论文。他们认为,大语言模型模仿人类的能力不断增强,这加剧了人们会认为它们是有感情的风险。相反,他们认为这些模型应该被理解为“随机的鹦鹉学舌”,或者说仅仅是非常擅长纯粹根据概率预测句子接下来会出现哪一个单词,而不需要理解自己在说什么。其他批评者称大语言模型是“自动补全”或“知识灌肠”。他们详细记录了大语言模型如何照本宣科地生成性别歧视等不良内容。格布鲁说,这篇论文曾被谷歌压下来了。在自己坚持公开发表这篇文章后,谷歌解雇了她。几个月后,公司又解雇了米切尔。这篇论文的四位合作者也写了一封信,以此回应马斯克等人签名的公开信。他们说:“用一个幻想中的人工智能乌托邦或世界末日来分散我们的注意力很危险。”“相反,我们应该关注那些开发公司非常真实、非常现实的剥削行为,这些公司正在迅速集中力量,加剧社会不平等。”谷歌当时拒绝就格布鲁被解雇一事发表评论,但表示仍有许多研究人员在研究负责任和合乎道德的人工智能。“毫无疑问,现代人工智能是强大的,但这并不意味着它们对人类生存的威胁迫在眉睫,”Cohere公司人工智能研究主管胡克说。目前,关于人工智能摆脱人类控制的大部分讨论都集中在其如何迅速克服自身的限制上,就像《终结者》中的天网一样。胡克说:“大多数技术和技术中存在的风险都是逐步变化的。”“目前存在的技术限制加剧了大多数风险。”去年,谷歌解雇了人工智能研究员布莱克·莱蒙(Blake Lemoine)。他在接受采访时曾表示,自己坚信谷歌的LaMDA人工智能模型具有感知能力。当时,莱蒙遭到了业内许多人的严厉斥责。但一年后,科技界也有不少人开始接受他的观点。前谷歌研究员辛顿说,直到最近使用了最新的人工智能模型之后,自己改变了对这项技术潜在危险的既定看法。辛顿向计算机程序提出一些复杂的问题,在他看来,这些问题需要人工智能模型能大致理解他的请求,而不仅仅是根据训练数据预测出可能的答案。今年3月份,微软研究人员表示,在研究OpenAI的最新模型GPT4时,他们观察到了“通用人工智能的火花”,其指的就是能够像人类一样独立思考的人工智能。微软已经花了数十亿美元与OpenAI合作开发必应聊天机器人。质疑者认为,微软正在围绕人工智能技术打造自己的公众形象。人们总认为这种技术比实际情况更先进,微软可以从中获益良多。微软研究人员在论文中认为,这项技术仅仅基于所训练的文本内容,就已经发展出对世界空间和视觉的理解。GPT4可以自动画出独角兽,并描述如何将包括鸡蛋在内的随机物体堆叠在一起,让鸡蛋不会破碎。微软研究团队写道:“除了掌握语言之外,GPT-4还可以解决涉及数学、编程、视觉、医学、法律、心理学等领域的各种复杂新问题,而且不需要任何特殊提示。”他们总结说,人工智能在许多领域的能力与人类相当。不过其中一位研究人员承认,尽管人工智能研究人员曾尝试制定量化标准来评估机器的智能程度,但如何定义“智能”依旧非常棘手。他说,“它们都存在问题或有争议。”(辰辰) ...
业界动态 2023-05-22 09:37:15 -
“AI教父”频发警报:人工智能比气候变化的威胁更紧迫
·“随着气候的变化,很容易推荐你应该做什么:你只要停止燃烧碳。如果你这样做,最终一切都会好起来的...
智能设备 2023-05-07 12:43:43