金融科技研究中心高级研究员
英国帝国理工大学计算机技术特等硕士学位、英国布里斯托大学通信系统与信号处理特等硕士学位,曾任美国高通公司无线通信算法高级工程师。
专注物联网技术、通信技术、传感器算法以及机器学习等领域。
在英期间,参与人体体征信号检测和数字广播等算法研发;参与蓝牙5.0及其测试标准协议制定;获东芝最佳表现奖,发表论文1篇。
2020-12-17 09:12
12月11日,江苏省互联网金融协会与苏宁金融研究院联合举办的“2020江苏金融科技与普惠金融发展研讨会暨苏宁金融研究院五周年论坛”在南京举行。香港浸会大学副校长、英国皇家工程院院士、江苏苏宁银行首席科学家郭毅可教授在会上作了《铸就人工智能重器 赋能金融产业升级》的视频演讲。以下为演讲节选:尊敬的各位嘉宾,大家下午好!首先感谢主办方江苏省互联网金融协会与苏宁金融研究院的邀请,在今天和大家共同探讨江苏金融科技和普惠金融的发展大计。数字经济与数据资产我们这个时代是一个大数据的时代。大数据是我们时代的自然资源,在人类的历史上,从来没有过像现在这样用非常简便的方法、用非常短的时间获得大量的数据,通过不同的传感器,通过各种的数据采集,通过互联网上自己的生活痕迹采集大量的数据,成为新的自然资源。在这个大数据时代,我们有了一个基本的技术生态,我们有云计算,同时又有无线网、有5G,可以使每个人随时随地访问到数据服务。这个时代把数据变成资源,有了这个以后数据就变成了资产。今天又开始过渡到一个对它资本化的过程,把数据作为一种产品,作为一种可以交换的资产,就是资本,它作为新的社会发展的动力。今天数据资产的特点,它具有个性化,每个人都是数据的生产者,正是因为这个原因,所以我们才有了数据市场的概念,才有了像GDPR这样对于个人资产的保护这样的一种协议,这是一个非常重要的未来前景,在数据构成的环节中,每个人都是数据生产者,也是数据资产的拥有者,怎么界定它,怎么保护它,是我们经济生活中一个重要的特点。从数据资产到数据资本有两个重大的瓶颈,第一点是要解决数据资产的交易性和数据使用的特征,要保证我们所形成的数据资产的产品,是可以用来交换的,这个时候就有一个非常重要的数据特点,那就是所谓的使用的非排他性,数据可以随意拷贝。解决这个问题有区块链的技术,区块链构成数据中间,每一块的数据资产都是不可复制的,这就是形成交易性的一个重要条件。第二点,对于个人数据接近无限的量级,我们无法用脑力来处理我们的数据,这个时候就需要用人工智能,人工智能的一个重要任务就是把数据形成数据产品。从这个意义上来讲,数据经济和社会具有整体性,这个整体性从数据资源到数据资产,我们运用了区块链这样一种新的数据互联的结构,还有一个从数据资产到数据生产力,我们采用的是人工智能这样的一个生产工具。这两个组合起来就是一个数据社会。那么基于这个社会的一个基础,对其经济学的研究就是数字经济学。我们可以回顾一下数据经济生态系统的演变,可以看到,从过去数据是零散的,每个人不规则地管理它,到了2010年之后出现了云计算,就出现了数据管理者的概念。我们可以托管数据,就像银行管理着我们的金钱,我们有一个数据中心或者云计算中心管理着我们的数据。那么有了管理数据以后,数据的拥有者跟管理者之间就有一个非常重要的关系,这个关系是什么?这个关系就是资产管理。数据管理者必须保证其管理的数据在使用时,能够保证数据拥有者的私密性、数据的拥有权、数据的控制权,这就引出了数据资产管理的概念,这在2010年以后到今天,都是一个最热门的题目。那么,形成了这样的资产管理以后,交换交易怎么样形成数据产品,这就是区块链的一个重要特征。同时,另一个重要的认识是我们今天所谓的大数据,即数据科学,就是通过数据来认识世界的科学。数据科学与人工智能总结一下,我们认为数据是世界新的市场资源,我们不断利用和创造这样的资源,这种资产或者资本化是数据科学一个重要的研究。数据科学还有一个重要的任务,通过数据来认识世界,怎么认识?它的认识是从观察来总结观察到的事实,总结的过程是基于统计的推演,推演的结果就是我们所说的模型,推演的过程不是人来做而是自动化,那就是机器学习、人工智能。我们将会有越来越多的数据,越来越强的推理,越来越自动的学习,越来越深的理解,这就是我们的未来。以上就引出了人工智能的发展。所谓的人工智能是数据科学的一个基本技术,我们可以这样来简单的看一下人工智能的特征。我们有世界,有一个认知体,这个认知体可以是人也可以是机器,总的来说是一个认知。我们人在做认知或者机器做认知的时候要做总结,总结出来就是模型,模型存在我们的思维体中,在脑中的存储的模型不断地对这个世界做出判断,或者叫预测,这样的预测和观察就一定会形成对比,一个是主观的认识,一个是客观的观察。这个时候如果说我们把观察和自己主观的意识做一个比较,这中间会有一些差异,如果没有差异就很好,因为我们的认识得到了实际的检验,这使我们的认识更加有信心;如果观察和认识有不同的话,那么这时候就会出现两个结果,一个是我们相信自己的观察,相信世界的客观性,这个时候怎么办?就改变我脑中的模型,这就是一个学习的过程;还有一种人比较自信,相信自己的认知,认为自己是对的,这个世界是错的,那就会出现改变世界,出现一个行为。人类整个的认识过程基本上就这两类。在过去,当数据量比较少,计算率比较差的时候,机器人的知识获得,是通过人把自己的知识总结出一条一条的规律,来告诉机器人,这是硬的输入。后来随着数据量的增长,计算能力的提高,我们才有了基于统计的学习,最后到今天的深度学习。总而言之,我们的信息量越来越大,计算能力越来越强,导致了我们知识获取能力、自动获取能力发生了变化。人工智能有很多的研究,下面讲一讲它的应用。今天很多所谓的智能,智能银行也好,智慧城市也好,智慧车也好,讲的都是给今天所生活的每一个社会体赋予一种人工智能推理的能力。这里有很多的例子,中间一个比较重要的例子就是智慧金融,这里面有很多很多的应用,根据我自己的一些实践,再稍微举一些例子。人工智能与金融产业升级一个是金融服务的精细化,很大的一个改变,通过数据可以感知整个金融界,跟你的金融产品的性能和市场表现,还有客户的洞察,这些都可以使得金融机构构造一个以客户为导向的,有精确营销的高性能服务,这是人工智能的一个很重要的应用。现在讲的普惠金融,很大程度上就是细分,什么叫普惠?就是把金融落实到个人身上,未来的状态就是这样的,精细化的金融服务,强调用户体验,强调用户的个性需求。在金融服务链方面,整体上来说它有一个很重要的数据驱动的数据链,我们从产品竞争力到员工激励,到营销系统、管理,一直到客户的管理系统,这些都是通过数据来服务的,来看顾客的忠诚度,来看产品的易化程度,这里面都离不开大数据。讲到这个问题,产品怎么设计?产品设计的未来总是一个特点,就是长尾效应,更多的个性化,更多的照顾每一个人,这个时候我们要研究产品的分布,要研究区域的竞争力,还有就是它的时效和整个生命周期中间不同的社会情况,不同的经济情况对它的影响,它的抗灾性等等,都是一种非常重要的数据驱动的做法。把握资金流动的特征,特别是在信用打分的时候是非常重要的。前面讲的很多的消费信贷产品,面向个人的系统,这里面很重要的一点就是对个人偿还能力的评分,这个评分里面有各种对你资金流动的理财爱好、风险偏好等等的特殊描述,这也就决定了个人的信用。还有很重要的一点,就是要揭示金融世界中的内在关系,一个股票的增长和它的变化以及其他的金融产品的变化,跟一些因素相关,把它们之间的因果关系揭示出来,是非常重要的,那么这一句话怎么解释我们所能看到的一些数据,就是一些持续数据,比方说股票的波动,那么我们怎么样通过这些波动来推导这些系统中间各元素之间的关系,这是一个非常重要的因果分析的关系,也是机器学习和人工智能中间的一个难点。金融监管与人工智能产品化最近谈到最多的话题之一是大数据风控和监管。大数据风控,它的特点是将风险控制落实到微观个体,而监管的特点是通过政策来宏观控制风险,这两者之间的平衡实际上在相当长的一段时间里都是我们将要讨论的重点,它们两个是没有矛盾的,相辅相成,但是现在看来更多好像是一种矛盾。长远看来,监管需要更多的精细化,大数据风控必须要有一定的宏观政策保证,这两个是相辅相成的体系,这是一个很重要的研究领域,银行在最近的风波中间应该得到一个启示,要真正认真地研究数据风控与监管之间的关系。最后,对于人工智能的研究,现在要做的是把它赋能工业化,产品化。这个所谓的工业化是什么?它是标准化、组件化、流程化、社会化,我们要把人工智能很重要的各种功能作为达成人工智能的组件,这方面我们有很多的经验,我自己也做过这方面很多的工作。工业化应用开发平台的构造,这里面不仅有模型的构造,有模拟分析器,还有一个很重要的特点就是模型管理,我们会生产出越来越多的知识分析模型,这些模型我们必须把它管理好,管理是我们对于一个企业知识的管理,这将会是人工智能发展工业化最重要的一个瓶颈,将来我们有很多的工作要去做。最后总结一下,今天人工智能给金融的智能化提供了非常好的技术,现在要做的是踏踏实实把这个技术用好。我们对于人工智能很多的研究,没有必要去做太多的哲学问题上的考虑,比如AI会不会超过人的智能等等,更重要的是要考虑怎么样在今天各种社会生活中间把该技术用好,使得它为我们服务。那么,金融产业当中人工智能大有用处,希望江苏在这方面能够走得早,走得好,走得踏实。也希望我在和苏宁银行的合作期间,能够为江苏省金融产业的发展做出自己的贡献。谢谢大家!
2020-08-20 09:17
本文由微信公众号苏宁金融研究院(ID:SIF-2015)原创,作者为苏宁金融研究院金融科技研究中心主任助理王元。2020年是不寻常的一年,全球的健康、贸易、经济、文化、政治和科技领域,无不发生着深刻的变化。笔者所在的科技领域,也恰逢现代人工智能(简称AI)发展10周年。前10年,人工智能技术得到了长足的发展,但也留下许多问题有待解决。那么,未来AI技术将会如何发展呢?本文将结合学术界、工业界的研究成果,以及笔者个人研究见解,从算力、数据、算法、工程化4个维度,与读者一起探索和展望AI发展的未来。一数据我们首先分析数据的发展趋势。数据对人工智能,犹如食材对美味菜肴,过去10年,数据的获取无论是数量,还是质量,又或者是数据的种类,均增长显著,支撑着AI技术的发展。未来,数据层面的发展会有哪些趋势呢,我们来看一组分析数据。首先,世界互联网用户的基数已达到十亿量级,随着物联网、5G技术的进一步发展,会带来更多数据源和传输层面的能力提升,因此可以预见的是,数据的总量将继续快速发展,且增速加快。参考IDC的数据报告(图1),数据总量预计将从2018年的33ZB(1ZB=106GB),增长到2025年的175ZB。其次,数据的存储位置,业界预测仍将以集中存储为主,且数据利用公有云存储的比例将逐年提高,如图2、图3所示。以上对于未来数据的趋势,可以总结为:数量持续增长;云端集中存储为主;公有云渗透率持续增长。站在AI技术的角度,可以预期数据量的持续供给是有保证的。另一个方面,AI技术需要的不仅仅是原始数据,很多还需要标注数据。标注数据可分为自动标注、半自动标注、人工标注3个类别。那么,标注数据未来的趋势会是怎样的?我们可从标注数据工具市场的趋势窥探一二,如图4所示。可以看到,人工标注数据在未来的5-10年内,大概率依然是标注数据的主要来源,占比超过75%。通过以上数据维度的分析与预测,我们可以得到的判断是,数据量本身不会限制AI技术,但是人工标注的成本与规模很可能成为限制AI技术发展的因素,这将倒逼AI技术从算法和技术本身有所突破,有效解决对数据特别是人工标注数据的依赖。二算力我们再来看看算力。算力对于AI技术,如同厨房灶台对于美味佳肴一样,本质是一种基础设施的支撑。算力指的是实现AI系统所需要的硬件计算能力。半导体计算类芯片的发展是AI算力的根本源动力,好消息是,虽然半导体行业发展有起有落,并一直伴随着是否可持续性的怀疑,但是半导体行业著名的“摩尔定律”已经经受住了120年考验(图5),相信未来5-10年依然能够平稳发展。不过,值得注意的是,摩尔定律在计算芯片领域依然维持,很大原因是因为图形处理器(GPU)的迅速发展,弥补了通用处理器(CPU)发展的趋缓,如图6所示,从图中可以看出GPU的晶体管数量增长已超过CPU,CPU晶体管开始落后于摩尔定律。当然,半导体晶体管数量反映整体趋势可以,但还不够准确地反映算力发展情况。对于AI系统来说,浮点运算和内存是更直接的算力指标,下面具体对比一下GPU和CPU这2方面的性能,如图7所示。可以看出,GPU无论是在计算能力还是在内存访问速度上,近10年发展远超CPU,很好的填补了CPU的性能发展瓶颈问题。另一方面,依照前瞻产业研究院梳理的数据,就2019年的AI芯片收入规模来看,GPU芯片拥有27%左右的份额,CPU芯片仅占17%的份额。可以看到,GPU已成为由深度学习技术为代表的人工智能领域的硬件计算标准配置,形成的原因也十分简单,现有的AI算法,尤其在模型训练阶段,对算力的需求持续增加,而GPU算力恰好比CPU要强很多,同时是一种与AI算法模型本身耦合度很低的一种通用计算设备。除了GPU与CPU,其他计算设备如ASIC、FGPA等新兴AI芯片也在发展,值得行业关注。鉴于未来数据大概率仍在云端存储的情况下,这些芯片能否在提高性能效率的同时,保证通用性,且可以被云厂商规模性部署,获得软件生态的支持,有待进一步观察。三算法现在我们来分析算法。AI算法对于人工智能,就是厨师与美味佳肴的关系。过去10年AI的发展,数据和算力都起到了很好的辅助作用,但是不可否认的是,基于深度学习的算法结合其应用取得的性能突破,是AI技术在2020年取得里程碑式发展阶段的重要原因。那么,AI算法在未来的发展趋势是什么呢?这个问题是学术界、工业界集中讨论的核心问题之一,一个普遍的共识是,延续过去10年AI技术的发展,得益于深度学习,但是此路径发展带来的算力问题,较难持续。下面我们看一张图,以及一组数据:1. 根据OpenAI最新的测算,训练一个大型AI模型的算力,从2012年开始计算已经翻了30万倍,即年平均增长11.5倍,而算力的硬件增长速率,即摩尔定律,只达到年平均增速1.4倍;另一方面,算法效率的进步,年平均节省约1.7倍的算力。这意味着,随着我们继续追求算法性能的不断提升,每年平均有约8.5倍的算力赤字,令人担忧。一个实际的例子为今年最新发布的自然语义预训练模型GPT-3,仅训练成本已达到约1300万美元,这种方式是否可持续,值得我们思考。2. MIT最新研究表明,对于一个过参数化(即参数数量比训练数据样本多)的AI模型,满足一个理论上限公式:上述公式表明,其算力需求在理想情况下,大于等于性能需求的4次方,从2012年至今的模型表现在ImageNet数据集上分析,现实情况是在9次方的水平上下浮动,意味着现有的算法研究和实现方法,在效率上有很大的优化空间。3. 按以上数据测算,人工智能算法在图像分类任务(ImageNet)达到1%的错误率预计要花费1亿万亿(10的20次方)美元,成本不可承受。结合前文所述的数据和算力2个维度的分析,相信读者可以发现,未来标注数据成本、算力成本的代价之高,意味着数据红利与算力红利正在逐渐消退,人工智能技术发展的核心驱动力未来将主要依靠算法层面的突破与创新。就目前最新的学术与工业界研究成果来看,笔者认为AI算法在未来的发展,可能具有以下特点:(1)先验知识表示与深度学习的结合纵观70多年的人工智能发展史,符号主义、连接主义、行为主义是人工智能发展初期形成的3个学术流派。如今,以深度学习为典型代表的连接主义事实成为过去10年的发展主流,行为主义则在强化学习领域获得重大突破,围棋大脑AlphaGo的成就已家喻户晓。值得注意的是,原本独立发展的3个学派,正在开始以深度学习为主线的技术融合,比如在2013年,强化学习领域发明了DQN网络,其中采用了神经网络,开启了一个新的研究领域称作深度强化学习(Deep Reinforcement Learning)。那么,符号主义类算法是否也会和深度学习进行融合呢?一个热门候选是图网络(Graph Network)技术,这项技术正在与深度学习技术相融合,形成深度图网络研究领域。图网络的数据结构易于表达人类的先验知识,且是一种更加通用、推理能力更强(又称归纳偏置)的信息表达方法,这或许是可同时解决深度学习模型数据饥渴、推理能力不足以及输出结果可解释性不足的一把钥匙。(2)模型结构借鉴生物科学深度学习模型的模型结构由前反馈和反向传播构成,与生物神经网络相比,模型的结构过于简单。深度学习模型结构是否可以从生物科学、生物神经科学的进步和发现中吸取灵感,从而发现更加优秀的模型是一个值得关注的领域。另一个方面,如何给深度学习模型加入不确定性的参数建模,使其更好的处理随机不确定性,也是一个可能产生突破的领域。(3)数据生成AI模型训练依赖数据,这一点目前来看不是问题,但是AI模型训练依赖人工标注数据,是一个头痛的问题。利用算法有效解决或者大幅降低模型训练对于人工标注数据的依赖,是一个热点研究领域。实际上,在人工智能技术发展过程中一直若隐若现的美国国防部高级研究计划局(DARPA),已经将此领域定为其AI3.0发展计划目标之一,可见其重要程度。(4)模型自评估现有的AI算法,无论是机器学习算法,还是深度学习算法,其研发模式本质上是通过训练闭环(closed loop)、推理开环(open loop)的方式进行的。是否可以通过设计模型自评估,在推理环节将开环系统进化成闭环系统也是一个值得研究的领域。在通信领域,控制领域等其他行业领域的大量算法实践表明,采用闭环算法的系统在性能和输出可预测性上,通常均比开环系统优秀,且闭环系统可大幅降低性能断崖式衰减的可能性。闭环系统的这些特性,提供了对AI系统提高鲁棒性和可对抗性的一种思路和方法。四工程化上文已经对人工智能数据、算力、算法层面进行了梳理和分析,最后我们看看工程化。工程化对于人工智能,如同厨具对于美味佳肴一样,是将数据、算力、算法结合到一起的媒介。工程化的本质作用是提升效率,即最大化利用资源,最小化减少信息之间的转换损失。打一个简单的比喻,要做出美味佳肴,食材、厨房灶台、厨师都有,但是唯独没有合适的厨具,那么厨师既无法发挥厨艺(算法),又无法处理食材(数据),也无法使用厨房灶台的水电气(算力)。因此,可以预见,工程化未来的发展,是将上文提到的算力与算法性能关系,从现在的9次方,逼近到理论上限4次方的重要手段之一。过去10年,AI工程化发展,已形成一个明晰的工具链体系,近期也伴随着一些值得关注的变化,笔者将一些较为明显的趋势,汇总如下:总结来说,AI工程化正在形成从用户端到云端的,以Python为编程语言的一整套工具链,其3个重要的特点为:远程编程与调试,深度学习与机器学习的GPU加速支持,以及模型训练与推理工具链的解耦。与此同时,产业链上游厂商对开源社区的大量投入,将为中下游企业和个人带来工具链的技术红利,降低其研发门槛和成本,笔者认为微软、脸书、英伟达3家上游厂商主推的开源工具链尤其值得关注。五结语对于人工智能技术过去10年发展取得的成就,有人归因于数据,也有人归因于算力。未来人工智能技术发展,笔者大胆预测,算法将是核心驱动力。同时,算法研发的实际效率,除了算法结构本身,还取决于设计者对先进工具链的掌握程度。未来10年,科技界是否能用更少的数据,更经济的算力,获得真正意义上的通用智能呢?我们拭目以待。
2020-05-18 09:05
本文由微信公众号苏宁金融研究院(ID:SIF-2015)原创,作者为苏宁金融研究院金融科技研究中心主任助理王元,首图来自壹图网。美国时间2020年5月15日,正值美国政府将华为列入“实体清单”一周年之际,美国商务部再次升级对华为的制裁,此次制裁升级,敌意明显,且精心设计,以下作详细解读。一美国制裁的逻辑在解读制裁的逻辑前,先来看一下制裁的具体内容。美国商务部做了2条规定:第一,华为及关联公司,比如海思半导体,在使用美国商务管制清单内的软件和技术产生的设计,将纳入管制。第二,对于位处美国以外的芯片代工厂,但凡使用了被列为美国商务管制清单中的生产设备,都需要获得美国政府的许可证,才能为华为及关联企业制造芯片,途径不但包括直接为华为生产,还包含出口、再出口,转运给华为。美国商务部的声明中,透露了一个信息,那就是美国对去年将华为列入实体清单后的效果不满意,因此,此次制裁,专业性、针对性、攻击性明显增强。具体的,美国的制裁分为2个方面:(1)针对芯片设计环节,限制华为使用美国软件技术;(2)针对芯片制造环节和流通渠道,限制全球代工企业为华为直接、间接生产芯片,这2个方面有着严密的逻辑关系和互补效果,下面逐一分析。1、芯片设计环节一款芯片产品,设计是第一步。现代芯片设计离不开电子设计自动化软件,英文简称EDA软件。EDA软件对于芯片设计人员,就如笔墨对于书法家一样不可或缺,甚至更重要,因为EDA软件不只是在芯片设计阶段使用,在芯片生产制造阶段(专业术语叫流片)同样需要。然而,EDA软件几乎被美国全球垄断,3家美国公司掌握95%的市场,这就是美国在制裁中强调美国商务管制清单内的软件和技术,其实主要就是针对EDA软件。值得注意的一点是,去年美国将华为列为实体清单,美国EDA公司已经从华为撤出,不再为其提供软件更新和技术服务,也不再对华为出售新产品。这种情况下,华为只能继续使用授权尚未到期的EDA软件,而且EDA软件通常是在本地部署,即使到期也有某些方法继续使用(请自行脑补)。笔者认为,美国政府显然是了解到了这点,因此才在芯片制造环节再下杀招。2、芯片制造环节芯片制造环节,美国的布局更早更全面。此次制裁,破坏力更多来自于此。首先,芯片制造,通俗来讲,就是使用整机制造设备,使用EDA软件,按照芯片设计图纸,在硅晶圆片上激光刻出完整的芯片。美国此次要求全球的芯片制造厂,只要使用了美国设备,都需要申请许可才能为华为制造芯片,这么限制,其实就是在逼迫国际上(非美国)的芯片代工厂选边站队,大幅提高国际芯片代工厂,比如三星、台积电等的政策风险成本,逼迫他们知难而退。其次,为了防止中国大陆芯片代工厂可以自行制造芯片,美国早在1996年就与日本、英国、荷兰等40个国家制定签署了《瓦森纳协定》,全称为《关于常规武器和两用物品及技术出口控制的瓦森纳协定》。利用此协定,美国可以对芯片光刻机的供应商荷兰ASML加以控制,使其不能对中国出口先进制程的光刻机,也就限制了华为选择中国大陆芯片代工厂制造芯片的可能。综上所述,美国此次制裁是精心设计的组合拳。背后的逻辑是:如果仅制裁芯片制造环节,华为可以不自己制造芯片,选择只设计芯片然后出售设计方案给第3方;如果仅制裁芯片设计,华为依然可能以某种形式使用EDA软件进行规避。现在,美国出台制裁政策同时限制芯片设计和制造,而且限制芯片制造流通途径,破坏力是巨大的。那么,美国作为一个超级大国,在此时此刻,如此出手对付一家中国民营企业,是一种什么心态?是胜利者的心态吗?笔者认为不是。相反,美国制裁华为的背后,透露着一股羡慕嫉妒恨。二美国制裁背后的无奈我们先看看美国政府有没有产生羡慕心态的可能。众所周知,5G已明确被列入中国国内新基建的重要信息基础设施之一,华为作为5G技术标准的主要制定方,自然会有近水楼台先得月的优势,先来看一组中国移动的集采数据。从以上数据可以看出,华为成为中国移动集采最大赢家。5G新基建,中国的制度有先天优势,且已经复工复产,而美国目前依然陷在新冠病毒全球确诊第一的尴尬局面里,一时难以抽身。从新基建发展的角度来看,是有羡慕的成分的。再来看看有没有嫉妒心态。半导体行业,有一个现象叫赢者通吃,同时还有一个现象是芯片产品单品价格越来越便宜,但是,芯片的研发投入资源是巨大的。实际上,整个半导体行业,无论是芯片制造还是芯片设计,正在从美国本土向欧洲、欧洲往亚洲迁移。这一点,笔者亲身经历,感同身受。首先,芯片设计岗位数字化、自动化水平日益增高。而且正在向低成本的国家和区域迁移。举个例子,相同的芯片设计岗位,同一个水平的工程师,美国的收入是欧洲的近2倍,所以,在芯片行业,欧洲、英国地区已开始被称为“低成本劳动力”了。其次,芯片测试,其行业成熟度远远高于软件行业,而且,衡量标准较为简单,行业术语叫做比特匹配(bit matching),但是,由于芯片是硬件,一旦出错,无法挽回,因此芯片公司会投入大量测试人力,确保无差错。因此,公司通常会将测试中心放在亚洲,以减少人力成本。如果说更有性价比、更有市场竞争力的人力成本不足以让美国政府嫉妒的话,那么,半导体行业的年轻人流入情况想必会让他们嫉妒。下面看一组美国UC Berkeley大学电子工程专业与计算机专业的入学人数数据。如上图所示,电子工程专业的入学人数在10年间基本无增长,而计算机专业的入学人数持续攀升。这虽然是美国一所大学的情况,但是结合笔者的经历,完全有理由认为是很有可能的。笔者以前就读的大学,也曾有类似情况,导致学习EE的本土学生进了课堂,感叹自己好像是留学生,而本土学生更多流向计算机专业。另一个侧面,笔者当年工作的团队,几乎没有年轻人,平均年龄45岁以上,而且都是小团队。笔者想,美国政府也会嫉妒中国半导体行业的人口红利吧。最后说说恨心态。美国政府自从去年制裁华为以来,已经分别在去年5月、8月、11月、今年2月、今年3月宣布了5次延长华为临时许可,这一次在升级制裁的同时宣布了第6次延长120天的决定。需要指出的是,美国政府这样不停的延长临时许可,不是为方便华为的,而是华为与美国多家公司有商业利益,延期是为了照顾这些美国企业的利益。与此同时,华为2019年财报显示,华为公司实现全球销售收入8588亿元人民币,同比增长19.1%,净利润为627亿元人民币,同比增长5.6%。试一下换位思考:美国政府叫嚣打压华为1周年,无奈于其本国企业的利益,一直投鼠忌器,结果华为非但没衰退,反而利润增长了,美国政府能不恨吗?综上,笔者觉得美国政府制裁华为背后透着一股浓浓的羡慕嫉妒恨心态。三结语自从去年美国政府开始制裁中兴、华为以来,此次新的制裁升级,是意料之中的。中国已被美国列为战略竞争对手,加上2020年全球疫情的爆发,美国坐实“美国第一”,特朗普政府前期甩锅中国不成,现如今打压华为,透着满满的羡慕嫉妒恨心态。此次制裁,手法固然凶狠,不过笔者觉得,该来的总会来,倒不如放弃幻想,忘掉拿来主义,“英雄自古磨难多,回头看,崎岖坎坷,向前看,永不言弃”。特别提示:近日,苏宁金融研究院发布了《2020互金一季报》,读者可在“苏宁金融研究院”公众号后台分别回复“2020互金一季报”,一键获取网盘链接和提取码。
2020-02-24 09:58
说到出国留学,很多小伙伴首先想到的是美国。美国是世界第一大国,有常青藤,有纽约,有硅谷。实际上,大家可能不知道,英国有着不输美国的教育产业,尤其是在人工智能(AI)等相关领域,英国的实力十分强大。下面,我们从英国的AI产业环境、签证与移民政策、学校与课程3个方面来聊聊英国留学攻略。一英国AI产业环境英国的AI实力,无论在学术界,还是在工业界都是全世界一流水准,且有着深厚的积累。大家知道,艾伦·图灵被誉为人工智能之父,图灵本身就是英国科学家;广为人知的谷歌、苹果、亚马逊等跨国公司AI技术的背后,有着无数英国公司的身影:1、DeepMind(被谷歌收购)这家创始于英国的人工智能公司,在AI领域可以说是当红炸子鸡。这家由英国剑桥大学、UCL大学博士生在2010年创立的公司,在2014年被谷歌以5亿美元收购,其后在2016年一名惊人,其研发的人工智能系统AlphaGo,以4:1战胜人类顶级围棋赛手李世石。此后,在AI强化学习、AI图像识别领域建树不断:在电子竞技和游戏领域,DeepMind研发的人工智能系统在《蒙特祖玛的复仇》、《星际争霸2》游戏中先后超越了人类顶级专业玩家;在医疗领域,DeepMind联合英国帝国理工大学在2020年1月1日公布了关于乳腺癌检测的研究成果,报告称其AI系统已经可以在筛查乳腺癌的准确率上超越专业放射科医生,此成果已发表于顶级科学期刊《自然》杂志。2、TrueKnowledge(被亚马逊收购)这家公司诞生于剑桥大学的自然语言处理(NLP)研究项目,被亚马逊收购,是亚马逊语言助手Alexa Alexa的核心技术组成部分。英国在NLP领域、语音识别领域积累深厚,根据CSRankings在NLP领域近10年的影响力排名,英国爱丁堡大学排名全球第一。3、VicalIQ (被苹果收购)这又是一家诞生于剑桥大学的、语言识别和NLP领域的技术初创公司,该公司2011年成立,2015年被苹果收购,用于提升旗下语言助手Siri的拟人化程度。4、Cambridge AnalyticaCambridge Analytica是英国企业Strategic Communication Laboratories注册在美国的公司。该公司使用的核心算法是基于剑桥大学计量心理学中心的Michal Kosinski和David Stillwell主导的算法模型,目前最出名的案例是帮助英国脱欧派赢得脱欧公投,以及帮助特朗普赢得美国总统大选,从技术角度来讲,令人敬畏。以上只是英国AI产业中的零星案例。事实上,作为人工智能的诞生地,英国一直在人工智能领域深耕发展。英国政府2018年4月发布《英国人工智能:有准备、有信心、有能力》,报告阐述了英国在技术、文化、伦理、法律、政策、商业、语言等多个方面的优势,将进一步发展和扩大人工智能产业发展。教育方面,截至2017年,英国有26所大学开设了人工智能本科生课程,20余所大学开设了30多种人工智能硕士研究生课程,但招生数量有限。2019年,英国商务、能源和工业战略部与数字化、文化、媒体和体育部两部委联合发表声明,从2019年9月起,英国大学每年扩大招收人工智能硕士研究生200人,英国科技公司积极参与人才培养并提供资助。同时,英国统筹考虑人工智能教育的院校和学科布局,在15所大学设立了16个博士点,并结合人工智能的应用方向,把医学、医疗保健、语言、计算、环境、音乐作为重点应用的学科专业。新设博士点计划每年招生200人,力争用5年时间,招生人数总计达到1000人。投资方面,英国对人工智能的投资保持着强劲势头。最新数据显示,英国快速增长的人工智能领域风险投资数量较上年增长了17%,其投资数超过欧洲的投资总和。2018年,英国政府已对外宣布将斥资10亿英镑,投入AI产业;2019年,英国政府宣布将在人工智能教育方面投入1.15亿英镑,加上英国产业界承诺的7800万英镑投资,与大学承诺的2300万英镑投入,这对总人口约6600万的英国来说是国家战略级的投资力度。二英国签证政策出国留学,签证是一个重大事项。以往去英国留学,学期的结束意味着回国的开始,这个情况现在发生了明显变化。2019年9月11日,英国政府宣布重启Post-Study-Work签证,该签证给2020年入学的英国本科和硕士留学生提供了为期2年的英国全职工作机会。可以说2020年,是享受最新英国留学签证政策红利的第一年。虽然该签证的具体实施条款还未公布,不过英国内政部(Home Office)已经在政府议会请愿官网上确认了一些细节,再结合英国的脱欧现实,总体来看,此政策对中国留学生是十分利好的:(1)根据该政策,2021年夏季或之后完成学位的国际学生都有资格申请获得两年PSW签证,且该签证没有名额限制;(2)申请成功的学生将获得两年签证时长,在此期间,同学们可以在英工作或寻找工作;(3)PSW签证可以转换为英国工作签证(Tier-2),这为进一步申请英国移民开了绿灯;(4)雇佣使用PSW签证员工的企业,原则上无需向英国政府交纳额外的人力费用,也不需要有Tier-2 Sponsor资质,这意味着全英的就业市场与企业将对中国留学生开放,而不仅仅只是有资质且能够承担雇佣非欧盟人员“惩罚性”人力费用的大型跨国公司;(5)结合英国脱欧,意味着无论是学校奖学金、项目资助,还是就业市场,来自欧盟与非欧盟国家的差异化对待,未来将进一步缩小;相比美国日趋收紧的签证政策,如企业实体清单、人工智能禁止出口等行政命令,可以看出英国在此时点做出的签证政策改革是诚意十足的。三英国AI优质课程前文所述的英国产业环境、签证政策只是辅助,优质的留学课程才是有意向留学的小伙伴们最关注的核心,下面,我来给大家介绍点干货,梳理一下英国顶级的人工智能留学课程及其对应的学校。英国的理工科硕士课程大致分为3种:一是以授课为主,颁发的学历是MSc,这在英国是主流;二是以研究为主,颁发的学历是MPhil,这种课程多为攻读博士学位(PhD)而设计的第一年前置课程,与授课型硕士无本质差别;三是4年本硕连读,学历一般是MEng。英国全日制硕士课程周期一般为12个月,也有9个月、11个月的,其课程分为3个学期,第一学期从9月到12月,第二学期从来年2月到6月,最后一个学期为3个月的毕业设计,一般到来年9月底交论文,10-11月获取毕业文凭。下面,来为大家介绍一下人工智能相关的大学及课程,这里先介绍硕士课程,后简要介绍英国有名的AI实验室,为想要读博深造的同学提供一些参考。1、University of Cambridge(剑桥大学)(1)院系:Departmentof Computer Science and Technology(2)课程:MPhil inAdvanced Computer Science(3)入学门槛:本科成绩综合90%以上(985/211大学),其他95%以上(4)简介:该课程是为期9个月的研究生课程,本身其实并不比其他学校的出色,不过鉴于剑桥大学的名声、其AI领域的全面性,主要体现在自然语言处理、生物特征、图像、图谱领域均有厉害的行业领军学者,该课程还是值得一读的,尤其是想后面读博的同学们。2、University of Oxford(牛津大学)(1)院系:Department of Computer Science(2)课程:MSc in Computer Science(3)入学门槛:本科成绩综合90%以上(985/211大学),其他95%以上(4)简介:一般而言,理工科的英国择校思路是先剑桥后牛津,但是就AI硕士课程而言,笔者倒是建议首选牛津大学,因为该课程是针对授课型硕士设计的完整12月课程,且牛津的人工智能小组里面也有来自DeepMind的助理教授。3、Imperial College London(帝国理工学院)(1)院系:Department of Computing(2)课程1:MSc Computing (Artificial Intelligence and Machine Learning)(3)课程2:MSc Artificial Intelligence(4)入学门槛:本科成绩综合85%以上(211大学)(5)简介:帝国理工学院,英国“三足鼎立”的大学之一,文科最好是牛津、理科最好是剑桥,工科最好是帝国理工。帝国理工计算机学院的这2个课程,课程1是为有计算机基础的同学设置的,另一个是为非计算机专业但是有数学背景的同学设置的,比如数学、物理等系的同学。这2个课程均获得了IET(英国工程技术学院)的专业认证,可满足申请特许工程师(CEng)的学术要求。4、University College London(伦敦大学学院)(1)院系:Centre for Computational Statistics and Machine Learning (CSML)(2)课程1:MSc Computational Statistics and Machine Learning(3)课程2:MSc Machine Learning (Computer Science/Gatsby)(4)入学门槛:本科成绩综合85%以上(5)简介:伦敦大学学院在深度学习领域造诣深厚,尤其是CSML学院,该学院由统计学院、计算机学院以及Gatsby计算神经科学学院联合承建,DeepMind联合创始人Shane Legg当年就在Gatbsy学院担任研究助理。除了学术能力,该校还有一大优势是经费优势,因为Gatsby学院由Gatsby基金赞助,该基金由英国亿万富翁David Sainsbury创立。从课程上来说,上述课程1是CSML王牌课程,授课由统计、计算机、Gatsby这三院老师联合完成,课程内容详实深入。5、University of Edinburgh(爱丁堡大学)(1) 院系:School of Informatics(2) 课程1:MSc Artificial Intelligence(3) 课程2:MSc Cognitive Science(4)入学门槛:本科成绩综合80%以上(5)简介:对于想专注自然语言处理(NLP)领域的留学小伙伴,爱丁堡大学的课程是不二选择。爱丁堡大学的NLP领域全欧洲第一,这里有英国最大的NLP小组,而且多位深度学习领域的大牛均毕业于爱丁堡大学的博士学位。如果对语音识别感兴趣的小伙伴,也可以关注爱丁堡大学哲学与物理系的一个课程MSc Speech & Language Processing。以上就是英国几个较为突出的AI硕士课程。对于想出国深造博士的小伙伴,人工智能实验室以及博士导师可能比学校和课程更加值得关注。下面就为大家介绍一些值得关注的重点实验室和一些有名望的博士导师。1、剑桥大学AI小组(1)大牛导师1:Pietro Lio教授,专注AI图像领域,尤其是生物医学领域,其论文引用数目超过1万。(2)大牛导师2: John Daugman教授,专注图像领域、生物特征识别领域,他率先发明了视网膜识别算法,此算法已经被印度政府采用,用于其12亿公民的国民身份证识别。(3)大牛导师3:Neil Lawrence教授,专注概率模型、计算生物等深度学习领域,他是DeepMind指定的剑桥教授。2、帝国理工这里推荐3个帝国理工AI相关的实验室:(1)Dyson Robotics Lab该实验室由Dyson公司与帝国理工联合创建,专注计算机视觉、SLAM、机器人方向。内有大牛导师——AndrewDavison教授,他从2005年开始和Dyson公司合作,领导Dyson新型机器人的研究工作,同时担任该实验室的负责人。(2)The Hamlyn Centre该实验室由Darzi教授联合创建,Darzi教授2002年被英国女王册封为勋爵(Lord)。该实验室的研究方向是医学成像、图像视觉、医疗传感器、机器人,有着充裕的研究资金支持——除了英国政府资金,还有欧盟、比尔盖茨基金会、Royal Society的资金赞助,实验室设备等硬件设施可以说是国际一流水平。(3)Data Science Institute该实验室由华裔英国工程院院士郭毅可教授创建,研究方向是图像视觉、大数据,还涉及数据科学相关领域,比如数据可视化、云计算等。值得一提的是,该实验室研发的深度学习框架TensorLayer获得了 ACM Multimedia (MM) 年度最佳开源软件奖。3、英国伦敦大学学院(UCL)(1)实验室:Gatsby Computational Neuroscience Unit(2)方向:通用深度学习、贝叶斯模型、强化学习。DeepMind创始人曾在此实验室做研究。该实验室在深度学习、强化学习领域积累深厚,而且准入十分严苛,能进入此实验室学习本身就是一项荣誉。4、爱丁堡大学(1) 实验室:NLP组(http://edinburghnlp.inf.ed.ac.uk/)(2) 大牛导师:Mirella Lapata教授(3)方向:自然语言处理。该小组实力在NLP领域可以说是超一流。CSRankings排名也是世界第一,想在NLP领域深造的小伙伴们不用犹豫了,选这个小组就对了。四结语以上就是人工智能领域的英国留学攻略,希望对留学小伙伴们有所帮助。总体来说,英国的AI产业及配套教育在全球是很有竞争力的。想要申请的同学们可要抓紧了,上述课程和学校竞争激烈,申请截止时间比一般学校要早,所以现在就是最佳时间,赶快准备起来吧。本文由“苏宁财富资讯”原创,作者为苏宁金融研究院金融科技研究中心主任助理王元,首图来自壹图网
2019-12-10 09:09
2019年末将至,回顾今年科技领域的热点技术,5G可谓是当红炸子鸡,其热度可从A股5G指数的均线走势图上得到直观的验证(见图1)。与此同时,5G离人们的生活越来越近。截至2019年11月底,中国的5G基站已建成11.3万个,今年年底将达到13万个,5G套餐的预约用户数也已经达到千万。在5G已来的背景下,如何正确理解5G被提上日程。笔者注意到,网络上很多与5G相关的文章,对5G的理解和诠释不清晰:有些对5G标准的理解出现了偏差;有些强调5G技术的优势,却没有看到5G技术的弱点;有些着重阐述5G对其他行业的影响,却忽略了其背后的商业逻辑。因此,笔者在这里借用希腊哲学家亚里士多德的“第一性原理”,为读者做一次年终盘点,希望让读者一文读懂5G。本文将从5G标准的正确解读开始,然后梳理5G关键技术及其背后的路径依赖,然后分析路径依赖导致的通信行业商业变化,最后以笔者所在的金融行业为例,预测一下5G对金融业产生的影响。一5G的正确解读5G的正确解读包含3个层面:5G由谁提出;5G的设计指标;5G指标的正确理解。5G是由国际电信联盟(ITU)提出的。该组织致力于收集全球通信业运营现状,梳理全球通信行业未来发展需要解决的问题,进而制定全球通信行业的发展目标。2015年10月,ITU认为现有的4G通信网络不足以支撑未来10年通信业的发展需求,因此发布新一代通信网络研究计划IMT-2020,俗称5G标准。IMT-2020明确定义了5G针对的应用场景、设计目标以及时间计划,如图2 所示。其中代表性的文档为M.2083和M.2410。这2份文档具体定义了5G需要支持的应用场景以及5G标准的性能指标。下面简单做个介绍:1、M.2803文档。该文档定义了5G网络需要服务的3个典型应用场景,即应用特性:(1)增强型移动宽带(eMBB);(2)高可靠低延时(uRLLC);(3)海量连接(mMTC)。此外,该文档还制定了衡量5G网络性能的8项指标,如图3所示。2、M.2410文档。该文档定义了5G网络建成后需达到的性能指标下限。例如,文档定义了增强型移动宽带场景下,需要达到的下行传输峰值速率(Peak data rate)为20Gbps。对于以上提到的5G应用特性和技术指标,有几点注意事项需要特别指出:5G的3个应用特性:增强型移动宽带(eMBB)、高可靠低延时(uRLLC)、海量连接(mMTC),是对5G通信网络可灵活配置提出的要求,即一张物理网络,动态配置和调整网络资源。这不是指5G任何时刻对每一个用户都需要同时满足这3个要求。通信系统是由发送端和接收端构成的,5G的8项指标(见图2)有针对发送端(基站设备厂商)提出的要求,有针对接收端(手机终端厂商)提出的要求,还有针对通信运营商提出的要求,并不都是站在终端用户角度衡量的。在这8项指标中,有主有次,5G最核心的指标是峰值速率(又称信道容量),因为该指标是其他多数指标实现的基础。需要注意的是,该指标主要是针对基站设备商、运营商提出的要求:假设运营商将所有的带宽资源都分配给单一用户,在理想无错误的无线信道条件下,运营商必须能有传输20Gbps的能力,这不代表用户的下载速度。实际上,5G承诺的用户下载速度为100Mbps,这在M.2410文档中已明确定义。ITU提出的IMT-2020本质上是5G技术的需求文档。它规定了5G所需要达到的目标和要求,并没有规定具体的实施技术和路径。这部分工作实际上交给了由通信产业各大公司代表构成的3GPP标准化组织,该组织负责5G的技术层面的选型与标准化。因此,若想看清5G,只看到ITU提出的5G实现目标是不全面的。只有理解负责5G具体实施的3GPP组织在技术选型过程中的路径依赖,才能了解5G技术的副作用以及为此付出的代价,进而从全局上看清5G对通信行业、对其他行业,譬如金融行业的影响以及背后的逻辑。下面我们就来简要梳理一下3GPP选定并已标准化的5G关键技术以及其路径依赖。二5G关键技术与路径依赖前文提到5G的8项指标中,峰值速率是基础,该指标相比4G提高了20倍。其实,峰值速率又称信道容量,一直是通信业发展的主线。本节笔者想阐述的是3点:(1)5G如何做到20倍增长的;(2)它的路径依赖是什么;(3)这些路径依赖,对通信业产生了哪些重大变化。如同摩尔定律指引半导体行业,香农定理(Shannon-Hartley)一直为通信行业发展指明了道路。以下公式就是笔者为方便读者阅读而简化的版本:5G的核心技术都是遵循此定理发展的,如表1所示,5G利用与香农定理各项变量对应的相关技术,对其进行优化和升级,实现信道容量这一根本指标的突破。然而,上述这些技术都不是完美无副作用的,每项技术副作用的叠加构成了5G的路径依赖,如表2所示。从表2可以看出,5G相比2G、3G、4G时代,对基站、网络控制设备需求数量大幅增加,这是5G技术的最大路径依赖。该依赖在5G工程实施过程中产生了4个方面的问题。在这里,笔者收集了一些组网上公开报道的相关数据,给读者直观感受一下:(1)基站数量:5G基站在市区预计平均300米需要部署一个,4G基站大致1公里左右部署一个。因此,如运营商提供相同的信号覆盖度,所需的基站数量将是4G的2-3倍。(2)基站重量:5G单个基站的设备重量是大约在50-60千克,4G单个基站的设备重量约为20-30千克,因此,现有承重设施需要改造升级。(3)基站功耗:5G设备耗能约是4G设备的2-3倍, 5G基站满载功率约为3700瓦,4G约为1000瓦。(4)现有基站配套设施复用程度:预计96%的站点需进行改造,复用率低于4%。从以上数据可以看出,5G时代的网络运营商不仅将承担大量的网络基建成本,还将承担比4G高得多的电力与运维成本。这是一个值得思考的问题:因为5G使用的技术在通信产业链的最上游已经被制定为标准,其构成的技术路径依赖最终转化为成本,正在传导到位于产业链下游的运营商。运营商是否能承受?我们可以从移动流量单价、运营商的营收、利润这3个维度做一个大致判断,下面看3张图:通过以上数据可以看到,运营商已经至少3年日子不好过了,除了中国联通受到混改红利影响,净利润在2018年有较大提升之外,运营商的营收增速在下滑(见图5),净利润增速不是下滑就是一马平川(见图6),而且移动流量高收费的日子一去不复返(见图4)。现在,全新的5G终于上马了,结果成本如此之高,仅靠网络套餐的价格上升是难以消化的。所以,如果运营商自身不做改变,那就是等着本行业发明的技术革了自己的命。与此同时,运营商还面临一个严峻问题,那就是5G网络需要一张物理网络同时支持多种应用场景(eMBB、uRLLC、mMTC),这意味着运营商需要有根据客户需求动态配置网络拓扑结构的能力,此能力只有每个基站都可以被软件定义和控制的情况下才能实现,这本质上和IT领域的云计算异曲同工。换言之,由于5G技术的路径依赖,强推着5G时代下的运营商既需要赶快具备云服务的能力,又需要解决如何利用5G高密度的基站创造新的业务模式和收入,来抵消5G的高额成本。因此,笔者认为,5G时代下,客户与运营商,也就是买方与卖方之间的关系会发生变化。同时,笔者还认为运营商会利用5G的基础设施,带来除了基于5G关键技术的2项额外“福利”:(1)云基础设施服务(IaaS):开放基站配套的硬件基础设施,闲置时供租用;(2)精准定位服务:利用5G基站的高密度,提供基于5G无线电信号的高精度定位,同时服务室内和室外区域。上述“福利”可以看成是通信业在商业驱动下的创新。综上,5G带来的是通信行业技术和商业上的双重创新,这是不同于以往的通信标准迭代的。三5G对金融行业的影响了解了5G技术的路径依赖及其促生的新服务,那么,5G对金融行业有哪些具体影响呢?笔者梳理了一张表格,见表3。如表3所示,笔者认为5G对金融可能产生的影响主要集中在金融业务的3个场景:获客、消费金融、供应链金融。下面作简单介绍:1、获客。5G对金融获客来说,主要是客户覆盖面变大了。农村与城市相比,人口密度相对较低,采用5G的高带宽接入互联网比光纤到户更加经济,因此会增加普惠金融的总客群人数。2、消费金融。随着双录政策开始实施,金融行业对于视频、音频等非结构化、高带宽需求的应用会越来越多。5G的高带宽会提供比4G更加优异的用户体验。在支付层面,得益于5G的高可靠低延时特性,将进一步缩短用户交易时间,提升支付成功率。与此同时,对金融机构来讲,这也变相提升了其支付系统的吞吐量。5G还意味着支付渠道的扩展,例如穿戴设备、物联网设备通过5G技术联网,支付终端将不仅仅限于用户手机。营销方面,5G网提供的高带宽、低延时对多媒体营销、交互式营销等多种营销方式可以说是十分对口。3、供应链金融。5G对金融业促进最大的是在供应链金融领域,促进的原因恰恰是利用了5G需要高密度部署基站,且运营商有较强对外输出其云服务的动力。这里举2个小例子。第一,由于5G基站是高密度部署的,平均200-300米/个,供应链金融很多仓储企业,其仓库的占地面积都超过了5G基站的覆盖面积,这些企业可以就近租用周边的基站基础设施,搭建企业专有云服务,同时由运营商负责运维,这为仓储企业省去了自建数据中心购买设备、拉线、挖槽等基建成本,同时租用的5G基站就在库区附近,相当于局域网,带宽问题也一并解决了。对运营商而言,基站资源得到了共享、创造了收入,这是双赢买卖。第二,5G基站的高密度覆盖,可提供的定位服务会比GPS更加精确、节能,这对供应链金融业务中的资产进行定位有较大帮助,尤其是室内场景。笔者相信,5G的到来,对金融行业还会有更多的场景发挥赋能作用。四结语在2019年末,我们系统地盘点了5G技术,以及5G赋能金融行业背后的逻辑:从标准,到技术,到路径依赖,到成本倒逼下的通信业新的创新。可以看到,5G的创新中不仅有技术,也有商业。笔者预见,5G将作为通信技术与信息技术的汇合点,由运营商为代表,综合提供传输、计算、存储服务,作为共享的基础设施赋能其他行业,就像5G将赋能金融行业一样。本文由“苏宁财富资讯”原创,作者为苏宁金融研究院金融科技研究中心主任助理王元,首图来自壹图网
2019-09-02 14:12
新零售作为中国零售业的最新发展趋势以及消费的重要流量入口,借助消费升级的行业红利,已广泛融入我们的生活。如今,人们的消费场景、消费内容、消费习惯不再整齐划一,展现出丰富的多样性。金融科技作为一种支付技术,与新零售天生匹配。随着金融科技的持续发展,金融科技对新零售也逐渐从辅助作用进化为促进作用。下面,我们就来梳理一下金融科技是如何赋能新零售场景的。一支付场景支付场景的核心诉求之一是便捷。便就是方便,即在用户体验上付款环节少,对用户侧的操作要极简;捷则为迅速,即整个支付过程耗时越低越好。利用金融科技的机器视觉技术极大简便了付款流程,5G技术则将进一步缩短支付环节的总耗时。在此,我们以苏宁无人店的购物流程为例,来看一看机器视觉技术是如何赋能新零售支付场景的。苏宁无人店的购物流程如下:消费者首先通过入口的人脸识别确认用户身份。当消费者从货架上拿起商品时,通过部署在无人店内的摄像头,利用机器视觉技术自动通过商品识别、手势识别确认商品确实被用户拿走未放回。顾客离店时,会根据上述感知信息自动从系统后台结算相应的金额到用户账户,整个支付流程,用户是无感的。如果说机器视觉技术可以解决传统支付过程繁琐的问题,那么5G传输技术则是解决支付结算的延时问题。它可让用户享受0秒支付等待时间。这是因为5G网络的超低延时和高吞吐量的特点。对于金融机构侧而言,5G的超低延时意味着在相同资源下,可以支持更多用户和服务,从而进一步提升用户侧的支付体验。二营销场景新零售的营销场景分为线下和线上场景。线上场景的数据获取较为容易,线下营销场景更贴近用户,但是数据电子化、线上化程度还有待提升。金融科技为线下营销场景提供了数据入口,促进了新零售理念的O2O融合的思想。还是以无人店为例,因为整个店面装配了摄像头设备,结合机器视觉vSLAM技术和其它室内定位辅助技术,可以实现以商品SKU为颗粒度的用户关注程度分析、店内热点区域、商品效率分析、营销组织活动力分析等量化指标,为传统营销手段提供更精准化的营销工具和营销数据见解。三物流场景除了前面提到的2个用户侧的场景,新零售对企业物流和供应链的效率和速度,以及可溯源、可查询同样提出了更高的诉求。新零售区别于传统零售的一个重要属性,就是强调其物流的数据属性。比如,商品的发源地在哪、由哪些原材料构成、商品流通经过了哪些环节、在什么地点和场景下由何种方式被消费者以何种形式购买。这些数据不仅对零售企业的运营有助益,还对其上下游企业的行业融资等金融服务提供了数据信用。金融科技同样可以为物流场景赋能增效,即提供物流环节的透明性和可追溯性。例如,在商品源头端,RFID技术为每一个商品提供了全球唯一标识码;5G低功耗协议eMTC提供的定位技术会随着5G基站的覆盖率增加,提供比GPS定位技术更好的效能功耗比,在商品流转环节为终端用户提供更加透明的物流状态信息;在物流配送环节,基于机器视觉导航技术的AGV无人配送车、无人机的使用将可以实现针对城市环境下办公楼、小区便利店等订单集中场所进行批量送货,进而提升商品的物流配送效率,减少物流人工成本。四结语新零售模式在用户侧和企业侧的场景是多元化的,而金融科技就是利用科技将金融服务像水一样渗透到这些多元化场景中,二者相辅相成,并伴随着消费升级的行业红利持续深化嵌入。但是,我们也要看到无论是线上还是线下,流量的成本在逐渐升高,这对零售业务是有一定冲击的。与之相反的是,金融科技因为是科技驱动,所以仍在迅速发展。那么,以5G、通用人工智能(AGI)等前沿科技为代表,持续的科技进步能否进一步催生出新的零售场景和零售模式,成为新零售的发展新引擎呢?让我们拭目以待。本文由“苏宁财富资讯”原创,作者为苏宁金融研究院物联网实验室主任助理王元,首图来自壹图网
2019-05-31 09:23
根据人民日报5月28日最新消息,自美国商务部工业与安全局(BIS)将华为及其70个关联企业列入美方“实体”黑名单以来,Micro-SD、WiFi、USB、JEDEC等国际行业标准组织迫于压力,相继禁止或暂停华为的合法成员资质,全球一片哗然。美国针对华为的禁令,将对华为及其所在的信息科技行业造成多大的影响?这涉及到软件产品、硬件产品、制造、供应链、知识产权、贸易、法律、政治等多个方面,除了当事双方,其实很难准确评估。在此,笔者想为广大读者系统梳理一下我们每一个人目前所依赖和使用的信息科技里面,有哪些具有影响力的美国科技公司,以及它们在技术版图上的分布位置。本文将从应用主线、研发主线两个层面来展开。如下图所示。一应用主线应用主线,是以应用产品为颗粒度,主要包括硬件产品、软件产品,以及知识产权类产品。所谓应用产品,可以理解为其产品以直接或集成形式,服务客户最终目标需求的产品。它往往是以成品交付,比如,用户买电视,那么电视就是一个应用产品,因为它直接服务于用户看电视的目标需求;再比如,电视厂商买液晶屏幕,那么液晶屏幕也是一个应用产品,因为电视厂商买了液晶屏幕,组装到自己的产品里,然后再卖给终端用户。在应用主线下,我们以手机为终端产品,可以梳理出2条分支:手机端和云端。这是由于手机的工作原理所致:一个手机用户A与另一个手机用户B实现通信与交互,其本质是一连串0和1组成的数据流的交互,这个数据流的专业术语叫比特流。比特流的传输,一般情况是双向的,即从用户与之交互的APP或者网页应用起始,通过手机发送到云端,再从云端发送到用户B的手机上的过程。在这个过程中,2部手机之间传输的比特流需要分别经过手机端技术栈和云端技术栈2个部分。下面,我们先看一看手机端有哪些在行业中有影响力的美国科技公司。1、手机端手机端技术可粗略归纳为3个不同层次,它们是应用层、操作系统层和硬件系统层,其中,应用层和操作系统层是软件。贯穿这3层的还有知识产权类产品,它以专利授权的形式体现,很多情况下都不涉及具体软件和硬件实体。下面,我们具体来看一下手机端有哪些有实力的美国科技公司,以及他们所在的技术层。(1)应用层应用层主要指的是办公软件、多媒体、AI应用、VR等面向用户的应用程序,涉及应用层的公司和产品往往是用户最有感知的。在这之中,最具代表性的美国巨头企业为微软(Microsoft)、谷歌(Google)、苹果(Apple), 这3家美国公司市值总和接近2.6万亿美元。老牌美国科技企业IBM在应用层的知识产权领域也有布局,据映维网报道,2017年IBM在虚拟现实领域(VR)的专利申请数排名全球第二。(2)操作系统层手机端的操作系统被安卓和iOS垄断。大家知道,安卓是由谷歌研发推出的开源系统,iOS则是苹果的闭源自用系统。其实,微软和甲骨文(Oracle)也归属于该层:微软拥有安卓核心系统的专利,而甲骨文则拥有Java语言以及数据库系统方面的核心专利,这些专利多针对底层技术,都是安卓系统本身所依赖的。(3)硬件系统层手机功能的硬件实现属于此层。手机作为集计算、存储、传输和显示的多媒体设备,拥有众多硬件功能模块,涉及众多元器件供应商和技术知识产权,在此不一一赘述了。在这些供应商中,有影响力的美国公司有高通(Qualcomm)、德州仪器(TI)、博通(Broadcom)、镁光(Micron)、亚德诺半导体(Analog Devices),还有一些体量相对较小但在手机产业链十分重要的企业,如思佳讯(Skyworks)、威讯联合半导体(Qorvo)等。需要指出的是,著名移动处理器知识产权企业安谋科技(ARM),本身是英国公司(隶属日本软银旗下),但由于其研发中心很多在美国本土,所以受到美国政府的政策影响。2、云端我们再来看一看云端。与手机端类似,云端技术也可大致分为4层结构:硬件层、虚拟化层、平台层和应用层。(1)硬件层硬件层主要涉及2大类硬件产品,一类是射频基站方面的硬件,另一类是网络传输与数据处理方面的硬件。基站方面,除了前文提到的企业之外,具有影响力的美国企业还有阿尔特拉(Altera,隶属英特尔)、赛灵思(Xilinx)、赛普拉斯半导体(Cypress),以及一些特定元器件供应商如Acacia、Oclaro等。这些企业涉及射频、数模转换、光交换芯片、FPGA、MCU、存储和电源管理等相关硬件领域。网络和数据方面,具有影响力的美国企业有英特尔(Intel)、AMD、英伟达(Nvidia)、IBM、甲骨文(Oracle)、戴尔(Dell)、EMC(隶属Dell)、思科(Cisco)、惠普(HP),涉及网络交换机、路由器、中央处理器芯片(CPU)、显示处理器(GPU)、IT服务器、数据库存储等领域。(2)虚拟化层在4G/5G时代下的数据计算、交换和存储离不开分布式集群式的服务器部署。虚拟化技术解决了硬件设备集群化部署与管理,以及单一硬件设备故障依赖的问题,属于云端的核心技术层,已经开始大规模普及。在虚拟化层,美国科技企业在全球具有垄断性技术优势,这些企业在技术版图上呈现阶梯型分布:首先,Intel、AMD、Nvidia和IBM作为芯片制造商,提供芯片架构与处理器指令集的虚拟化技术;其次,威睿(VMware)、微软、Linux基金会(美国非盈利组织掌握Linux内核开发)提供操作系统内核虚拟化技术;在被业内称为轻量级虚拟化技术的容器技术领域,也有Docker这样的美国企业占据市场主导地位;最后,还有甲骨文、红帽(Red Hat,隶属IBM旗下)、Canonical、思杰(Citrix)、网威(Novell)提供企业级虚拟化产品。(3)平台层平台层企业提供通常意义上的云服务。云服务层根据其服务终端对象不同,可分为2类:A.直接面向终端客户。根据Statista统计的2018年公有云平台使用情况来看,亚马逊(Amazon)、微软、谷歌、IBM、VMware、Oracle分别占据第1到第6的位置,我国企业阿里巴巴排名第7。B.面向云服务技术提供方。云服务的核心技术特点是分布式的服务。分布式服务技术有2种途径获得,一个是云服务公司自研,另一个是基于开源软件开发或集成。这里,除了前文提到的美国公司,还有2家美国机构值得重点关注,他们是Rackspace和Apache软件基金会(Apache SoftwareFoundation,简称ASF)。Rackspace是一家美国云计算公司,他们与美国航天宇航局(NASA)在2010年合作创办了开源云平台OpenStack框架,很多云服务企业,例如华为,其云平台正是基于此框架开发的。另一个机构是Apache软件基金会。它是专门支持和研发开源软件项目的美国非盈利组织,它所支持的很多开源项目,譬如Kafka、Spark、ActiveMQ、CouchDB、Tomcat等,在行业内已形成准行业标准(de facto),这些软件已经被云服务厂商广泛采用,作为基础设施技术纳入其产品中。值得关注的是,因为Apache软件基金会是美国所属机构,所以该基金会的开源项目受到美国出口管理条例(EAR)约束。(4)应用层应用层是指面向用户的应用服务,比如国内的微信、支付宝、苏宁易购等,又比如国外的谷歌、微软、Twitter、Facebook、Instagram等。由于在应用层的美国企业对于国内无论是市场占有率还是影响力都较为有限,而且又非不可替代,这里就不一一列举了。以上是根据应用主线梳理的美国科技企业在技术版图上的分布。可以看到,美国科技企业分布的特点是全技术版图的覆盖,无死角,特别是在操作系统、虚拟化和云平台这3个特定技术点上具有行业垄断优势。如果仅仅只是分析美国科技企业在应用主线方面的分布而不涵盖研发主线,那么,对其实际分布的广度和深度的认知,将会是不完整的。下面,我们沿着研发主线,进一步梳理还有哪些美国科技企业,以及他们在科技版图上的分布情况。二研发主线研发主线主要分析的是产品在设计阶段所需要的工具,这些工具往往是由一些专门从事工具类产品研发的科技公司和机构提供的。下面我们来梳理一下相应的研发工具所涉及的美国科技公司。一款硬件产品的研发,例如手机,可分为硬件研发和软件研发。具体如下图所示。1、硬件研发硬件研发有2个层面:硬件设计和硬件测试。下面分别梳理一下:(1)硬件设计硬件设计离不开电子设计自动化(EDA)。EDA技术就是以计算机为工具,硬件设计者在其EDA软件上完成电路设计、仿真和生成交付给制造厂商的硬件电路图。从目前集成电路的复杂程度和晶体管数量来看,可以不夸张地说,没有EDA软件就无法设计硬件电路,自然也就无法制造硬件了。需要指出的是,硬件产品的最小颗粒是芯片,下面来梳理一下芯片设计涉及到的美国EDA软件巨头。在EDA领域,有3家公司几乎把整个市场份额瓜分殆尽,仅2017年,全球EDA行业的总收入中有70%被这三家公司瓜分,他们分别是:楷登电子科技(Cadence)、新思科技(Synopsys)、明导国际(Mentor Graphics),这3家皆为美国公司(注:Mentor Graphic虽然在2016年被德国西门子并购,但是公司仍作为独立子公司运营,且总部在美国)。因此,美国企业在EDA领域可谓具有垄断性的市场与技术优势。(2)硬件测试硬件测试,需要实验室测试与验证器材。在这个领域,现场可编程门阵列(Field Programmable Gate Array,简称FPGA),凭借着其特有的通用性和可编程性,已经被纳入到设计流程中,成为硬件原型设计的重要测试和验证手段。FPGA市场是一个相对小众的市场,据Gartner预计,全球FPGA市场到2020年也就84亿美元,但是,FPGA技术在短短二十多年中从电子设计的外围器件逐渐演变为数字系统的核心,其重要性不容忽视。该市场目前被4家美国科技企业牢牢把持,他们是:赛灵思(Xilinx)、阿尔特拉(Altera,隶属Intel)、莱迪思(Lattice)、美高森美(Microsemi)。其中,仅赛灵思和阿尔特拉2家企业,已占据了全球89%的市场份额,技术专利达到6000多项,可见,美国企业在FPGA市场同样具有垄断性市场和技术优势。2、软件研发软件研发有2个层面:工具链和计算机编程语言。下面分别梳理一下:(1)工具链现代软件产品的研发是研发人员通过编写特定计算机编程语言,然后利用该语言环境下的一系列工具,手动或自动对其编写的代码进行编译、执行、调试、集成和测试的过程。在这个过程中使用到的一系列工具,叫做工具链(tool chain)。商业化软件产品,因为有研发周期和市场窗口的限制,大多使用市面上成熟的工具链产品,从而快速完成软件产品的研发。在工具链领域,美国既有苹果、谷歌、微软、Facebook、亚马逊这种广为人知的企业,也有Eclipse Foundation和Free Software Foundation这样大型的开源软件社区,他们都是美国非盈利机构,还有Github(隶属微软)这样的代码托管服务公司。这些机构提供的工具链基本覆盖了从嵌入系统、手机,到PC、服务器上的应用软件研发场景。(2)编程语言计算机语言既是编程人员与计算机交互的入口,又是软件生态的基石。根据TIOBE网站统计的计算机语言排名,Java、C、C++、Python、VB、C#语言位列2019年前6位,同时上榜的还有Matlab、R这样被广泛用于科学计算领域的语言。在这些编程语言当中,有很多已成为国际标准。需要指出的是,虽然语言本身已成为国际标准,但其具体实现(专业术语叫编译器)还是有版权的。以下表格汇总了上述编程语言的主要应用场景、主流编译器、以及版权归属情况。从中可以看到,这些语言的主流编译器的版权均为美国公司或美国非盈利机构所有。三结语通过以上对美国科技企业在技术版图上的分布及影响力分析,可以看到,美国作为互联网的发源地,技术根基深厚,技术维度广阔,实力不容小视。我们需要认识到,美国科技企业之所以能够形成这样体系化的分布,除了有市场化的自由引导,更离不开美国国防部高级研究计划局(DARPA)这样的专业政府机构的顶层设计。这次,美国政府不惜动用国家力量打击中国一家民营科技企业,更佐证了这一点。同时,我们还需认识到,大家熟知的开源软件和自由软件,其实都是受到美国出口管理条例约束的,所谓技术无国界,企业和机构有国界。如何打破技术封锁之路,任重而道远。本文由“苏宁财富资讯”原创,作者为苏宁金融研究院物联网实验室高级研究员王元。
2019-04-22 09:46
北京时间4月10日,全球天文学家同步公布了人类历史上首张黑洞图片。该图片验证了爱因斯坦广义相对论的正确,也引起了关于广义相对论中奇点效应的广泛讨论。北京时间4月11日,人民日报针对社会热点话题“996ICU”发表评论员文章,同期,互联网大佬们争相就该话题发声阐述自己的观点。996和奇点效应,这2个不同世界的名词,就这样在2019年来了一次不期而遇。什么是奇点效应?奇点效应是指已知事物在特定条件下(时间或者空间)发生本质改变的现象。什么是996?996指的是工作时间从早上9点到晚上9点、每周工作6天的工作制度。那么,996的奇点效应是什么?会何时发生?关于第二问题,英国著名经济学家凯恩斯在1928年曾预言:到2028年,每个人每天只需要工作3小时,就能拥有美好生活。关于第一个问题,他给出的答案是科技的进步。笔者不敢乐观预期2028年每人工作3小时就能拥有美好生活,但笔者同样认为,科技是996的奇点效应,技术的进步将成为缓解996痛点的良药之一。目前产生996问题的原因多样,也有多种解决问题的角度,笔者在这里将聚焦科技与996痛点的交集,聊一聊科技是否能成为996的“止痛片”。交集一产品上线速度与产品质量管理的矛盾一款软件产品,从概念到上线有很多工作流程。同时,一款产品的研发还涉及到多个部门的沟通和协作,比如软件研发人员与软件测试人员多数是不同的团队,使用的是不同的软硬件环境,这都增加了产品最终交付上线的不确定性,这常常导致研发和测试人员被迫延长工作时间。从测试人员的角度,当研发人员改变代码后,测试人员需要重新测试新版本,测试包括单元测试、SIT测试、UAT测试等。举个简单的例子,假设研发人员晚上5点修改了代码,为了第2天一早就有完整的测试结果上报老板,测试人员就得加班完成测试,从这一点来说,测试的效率直接决定了测试人员可以几点下班。那么,科技能为测试人员做什么?我们可以略微梳理一下:(1)容器技术解决研发环境与测试环境不符的情况,降低因为环境不同而带来的测试问题;(2)浏览器自动化技术解决UAT测试需要人工的问题;(3)版本管理和Bug管理软件结合持续集成技术,有效提升沟通效率与SIT自动化测试效率,降低沟通时间成本。所以,科技的提升,既有利于满足企业对于产品上线的速度与质量的双重诉求,亦有利于提升员工研发与测试工作效率、降低工作时间的诉求。交集二系统不间断运行与运维人为依赖的矛盾互联网时代,软件系统的运行是24小时不间断的。然而,负责软件运维的工程师却不能24小时持续工作,这就带来了企业对软件系统的稳定性诉求与运维员工工作时长诉求的客观矛盾。科技目前已为此痛点提供了2个层面的解决思路:(1)微服务架构有效解决软件系统架构稳定性问题,即从设计层面提升软件稳定性,避免某一功能故障导致全系统停摆的问题;(2)链路监控与追踪技术提供系统运行的实时状态自动监控,大幅减少了需要人力监控的频次。可以预见,新一代的IT技术结合运维数据智能算法分析,可以提供高级智能诊断和修复功能,从而降低对人力运维的依赖,进一步减少需要人工介入与修复的频次。交集三知识依赖与企业高离职率的矛盾在国内IT行业,企业科技人员的高离职率是一个行业普遍问题。对于IT企业,高离职率带来软件代码移交的额外工作开销和重复劳动,致使IT产品上线速度与品控矛盾更加突出。高离职率带来的另一个问题是知识随员工离职而去,企业无法获得相关知识沉淀,这在知识密集型岗位体现得尤为突出。举个例子,如果一个金融企业的风控部门经常换人,那么除了其风控能力难以掌握,还会引发潜在的金融风险问题。有效利用大数据、自然语言处理等前沿AI科技,可以将企业员工个人的专业智慧逐渐沉淀至企业,最终以规则、模型等可交互、可运行的方式承载其集体专业知识与智慧,最大化降低其人员流动对企业核心业务、核心知识产权的影响。交集四高薪资与高工时的矛盾在IT行业,应聘者对高薪资的诉求与企业对在此薪资下的高工时诉求,是一个相互博弈的市场机制。前沿科技岗位,例如机器视觉、语音处理、自然语言处理等,在人力资源市场的薪资普遍高于传统IT软件研发岗位。根据猎聘联合 GMIC 发布的《2018 AI 人才竞争力报告》,在其调查的6个季度中,AI 平均年薪峰值比互联网平均年薪峰值高 4.79 万元,这意味着同样以“26万元年薪、一周6天工作时间”为基准, AI岗员工平均每天比互联网研发岗员工少工作2小时。可以预见,前沿科技岗位带来的不仅是相同薪水下的工时的减少,同时还将带来IT产业升级的正循环作用,即将IT行业从目前的研发劳动密集型工种居多,逐渐升级为科研创新岗为主流的互联网4.0+产业。笔者认为,这一技术升级还将进一步促进企业与员工共同发展,有利于提高工作稳定性,降低离职率。结语作为一名科技工作者,笔者期待技术的不断发展创新能促成996与奇点一词的再次相遇,希望彼时能真切感受到其奇点效应带来的社会红利。那么,回到文章的开头:凯恩斯的“三小时工作时长”的预言会实现吗?时间会告诉我们答案!(作者:苏宁金融研究院物联网实验室高级研究员王元;来源:苏宁财富资讯;首图来自壹图网)