2023数博会直播 | 高端对话:“人工智能大模型”到此结束,感谢各位网友的观看。
非常感谢五位重量级的嘉宾,感谢各位精彩的分享。圆桌已经结束,但是我们探索仍将继续,让我们携手共进继续关注人工智能和数据智能发展,为构建更智能更美好未来而努力。
嘉宾们,朋友们,今天2023年数博会“人工智能大模型高端对话”活动到此结束,未来贵州将继续把大数据作为全省战略全局推进,加速大数据和实体经济的深度融合。同时,作为国家“东数西算”工程两个重要枢纽节点,贵州和上海将更加积极地推动人工智能、大数据等数字经济核心产业交流与合作,扎实推进数字基础设施建设,助力数字中国建设从量的增长到质的提升和转变。在这里,再次感谢现场各位领导,嘉宾,以及各界朋友的光临,我是东东,让我们下一次数博会再见。
科学的角度,科学的方法来推动大模型,理智性、技术性向前发展。
再次用掌声谢谢各位嘉宾,也谢谢各位,接下来把话筒交给主持人。
大模型大数据做精做细做透,做透才能真正实现大数据科学,如果是科学就可以推广,如果推广应用就是我们的生产力。
机遇大于挑战,但是要做好管控。
大模型给我们带来更多机遇,虽然对某些行业是有危机的,但其实更多的是带来机遇。这是对整个产业未来的展望。
无论B端还是C端都重做一遍。
大模型用古诗说,采得百花酿成蜜,为谁辛苦为谁甜呢,希望为星辰大海。
非常好。特区也许不是一个有形的建筑,特区里面包含的元素是有效数据,高质量数据的合理流动,也可能是一个开源的特区,也可能是数据开源特区,也可能是研究成果来带有半公益性质的特区,因为没有高质量的数据,什么大模型,什么有质量的大模型,也是难以为继,巧妇难为无米之炊。
我们论坛告一段落,尾声希望各位用一句话概括一下我们自己所谈话题的体会,或者有哪句话你没说,可以补上一句。
我看到第二次提醒时间到了,我也是做教授的,在这方面不太熟,但是我还是想讲一句,新区里最好能开一个特区,为产业大模型,产业大数据引进一批这样的企业,形成有特色的特区。在整个新区里面,形成完整的大数据大模型的生态体系。
数据是做更多决策用的。
我们最近有几个选题,比如说乡村振兴,大家可能没明白,数据跟乡村振兴有什么关系?太有关系了。比如说用电量是什么样。其实很多地方不太适合人类居住,很多地方年轻人又走掉了,所以形成了很多空心村,税务没有,交通没有,电力用得很少。你识别出空心村以后,聚焦力量把空心村拔掉,聚焦力量使这些人到适合他,有产业的地方去。这些是真正的数智融合,你可以理解为一种模型。
也是天之骄子,您讲到通用大数据,讲到上游数据是足够的。有没有考虑到应用,在这儿能不能马上形成落地的服务,形成商业模式,而不是靠投资人投资。
我其实已经在落地当中,我可以先给张江集团先交一份答案。我是2013年第一届就开始参加大数据博览会,今年是第九届。我跟郑院士非常熟,第一届的时候就是郑院士带我们过来的。贵阳最重要的一个资产,或者说最重要的一个特点,数据量经过十年的积累太大量了,没有一个地方数据量比它大,通用数据量没有比它大的。而现在大模型你要算,你就是要数据,某种意义上这是最重要的一个东西。从柏睿数据的角度来说,我们最擅长就是算,全内存的分布式计算引擎,我刚才听到沐曦讲他们是做GPU的,我们最近内部也在做研发,原来是计算机主存做辅助计算,我们的内存已经能干到100个TB,所有数据100个TB全部在内存里面算。我们最近也在研发项量数据库,比如说GPU的内存计算,GPU的内存说老实话还是偏小,跟主存还是不一样,怎么样能够把这两块打通。HPM相对来说速度比较快,但是延迟高。主存是延迟低,但是速度不快,但是它量又很大。零觉得在算数这块,对我们来说,贵安是最重要的,数据量大,非常适合去大量做计算,而且能源有很多上天赐予的能源。
迎链、扩链、续链,把链条做好。柏睿的刘总,您是董事长,如果让您到这儿来安家,您会考虑什么样的元素。
我刚才有在外面接受一次采访,我也给贵阳出了一点主意,也可以在这里赘述一下。我上午参观时觉得贵安新区有这么多好的企业,国内龙头基本上全来了,国际上也有苹果公司这样的龙头也在咱们这边设置了数据中心。对于现在整个大模型的生产来说,实际上最核心的是数据和算力。这个地方如果能够现场算,用我们的算力和我们的数据算,这样就可以省掉很多资源的浪费,因为不存在数据还要搬,不存在算力还要去到处找,找到之后还并行化,在这个地方就可以集中。我觉得未来我大胆设想,贵安是一个大数据工厂,大模型的工厂,所以未来可能比较专注于大模型这块的企业,我觉得可以来贵安安家。谢谢!
今天来到贵阳后有很深感触,自动化攻战集群第一次商业化大规模部署在张江,为什么在张江?因为张江离客户更近,更重要的是有我们需要的模型。我们晶泰内部在开发一套集群,可以理解为一个软件,软件做什么?把文献当中自然语言处理成化学语言,化学语言转化成机器语言,转化成分子式在自动化进行化学合成反应。解决什么问题?未来对人的依赖相对越来越少,这种场景是可以从其他更大的地方大规模复制的。这是我想到的一个点。
关系到未来。舞台上几位嘉宾,都跟数据有关,有的是数据企业,有的是跟数据企业做过密切的联系的协会组织。我们刚刚给张江出了主意,我们也给贵安出出主意,让在座各位推荐企业来贵安落地,您会考虑什么因素,先从王总开始。
为什么我们觉得时不我待呢?医药研发中原来是偶发式、创新式,分布式的,经过十年的追赶,我们从原来比较落后第三梯队到第三梯队的头部,但是目前研发新药第二和第十名加在一起也步入美国,新药研发范式通过大模型这样的技术产生突破,医药研发有可能变成集中式,谁掌握新的专有化模型,谁掌握新的高质量数据,有可能集中式研发出新药,这是时不我待的时刻。
我想跟大家分享的是,今天大模型、GPT还是通用人工智能不是高端对话,而是圆桌对话,而是日常对话,我们每个人都要考虑目前技术趋势对自己的生活带来哪些影响,不仅关系到技术、经济,可能关系到每个人,关系到历史,关系到哲学。
大模型应用是不可避免,而且是所有人比较关注。今天为止国内外大型制药企业以及初创技术型公司,几乎所有都在关注大模型,不是关注大模型本身,而是关注大模型背后开发计算的范式,以及对行业带来的潜在影响,我们很有幸是站在巨人肩膀上做二次开发,无论是openAI还是微软开发自己的GPT,以及谷歌自己也做了,都有开源和医药相关研究的基础,但是基础还不够高。刚才讲大模型的参数,刚才院士老师讲参数是百万亿级的参数,听上去是很大的数字,但是在医药领域,有机分子能够成药可能性是10的6次方,百万亿级是10的20、30次方,站在整个成药空间里又是非常小的数据,站在这个赛道是又是值得深挖的。
建立起合理流动机制,首先从安全开始,筑起坝,把坝建起来,数据自然在渠道里合理流动。谢谢!
再来问一下晶泰,晶泰智药,是智慧的智,其实是用人工智能的方式创新性研究药物,创新药用人工智能的方式研究。您自己本身也是跑很多数据,大模型、集散式、爆发性、有效大数据可以进行预训练、预学习的大数据、大模型,对未来医药研发领域会带来什么样的促动和挑战。
对于金融数据来说都是密集度最高的,因为金融数据有几个特点,因为数据比较纯净,大家的金融行为,你转一笔账,或者是做一笔汇款,这是第一点比较纯净。
第二点,密集度是最高的。
第三点,低频的,频率很低。因为每个人用金融APP频率比较着,所以是这样一个特点。
对整个金融数据流来说,目前能做的,金融系统安全是非常重要的考虑,对于张江金融数据港,可以作为整个金融风控的数据集散地或者中心,怎么样防止金融系统性风险,B端来说,对于企业的关联贷款、关联交易,这些在国家层面也可以做一些事情,可以从这些方面考虑。我知道国家也希望在这块通过数据做一些工作,我就在这点上抛砖引玉。
我还想跟您再探讨一句,上海有一个金融数据港也属于张江集团,袁总他们,包括上海市决策人在设置金融数据港,原来是一个银行卡中心,现在变化成了数据港,其实就像促进数据尤其金融数据之间合理有效的流动,您刚才提到了一个金融数据,目前来看,哪些数据可以合理自主的,或者有效地率先流动起来。
对各行各业来讲,肯定是底座在通用大模型里,各行各业里有专业的知识,这在未来肯定是一个趋势。但是怎么做,各行各业背后的业务逻辑是不一样的,比方说金融里面,获客、风控、降本增效,就像黄老师说的制造业可能是另外一个逻辑,可能有十个流程。可能物联网行业又不一样。这就看后面发展的趋势,我就先说这么多。
数据大模型我是这样看,刚才几位院士都讲了是颠覆式的,实际上背后有一个逻辑是什么呢?因为深度学习从2012年到现在,深度学习突破和大数据产生是同步的,基本上是一个时间点产生,就晚了一点点,晚一年不到的时间。数据产生以及算力算法最后AI模型,过去是若干个小模型,从人脸识别开始,我就不赘述了,现在如果业界统计可能一万个小模型。
背后的逻辑是什么呢?所有的厂商,不管是初创公司还是厂商,模型是需要成本。大模型出现给了大家一个希望,大模型成本是固定的,大家用得越多带来的趋势是什么呢?边际成本为零了,所以大家就兴奋起来了。觉得AI看到了希望,通用AI、GAI时代到来,大家以后带着大模型进行生产、生活、经营,降本增效等等,我觉得是这样的逻辑。
我刚才提到三个趋势。
第一,“小”字是打引号,不是说没有大数据,只是说你自己得到比较少。这里最主要的问题是数据流通出现各种各样的障碍。一个是大家都知道的,隐私保护,网络安全法,个保法等出台,特别是四中全会上提出数据作为生产要素。以前数据这个东西在企业产生后,不是生产要素的时候都不太重视,可能都作为废品处理,你要就拿走。现在定义为生产要素,毫无疑问大家都重视起来,一旦重视就是香饽饽了,那么共享和流通就存在了困难。我觉得需要我们在数据不动,价值动,数据不可见,模型能够生成上做一些工作。大家也都知道隐私计算技术,过去4、5年逐步成熟,相关方案也有出台,这是我刚才解决第一个趋势的一把利器,所以应用隐私计算实现。
谢谢。我们再往下推进,有请王健宗理事长,请您来分享一下,在大模型时代,比如说构建金融大模型,您能分享一下关于数据合规、数据共享,或者隐私保护方面的最佳实践和创新的解决方案吗?
我补充一点,1986年我到英国做博士时,我就做智能制造用的,什么都没做成。这就告诉我用通用的AI算法可能是行不通的,所以我在这40年来,一直在找这样的答案。一直到去年,最近五年当中我个人觉得,或者我的团队觉得有所突破。
其实您刚才还是提醒了大家,在出发之前要想好到底什么是适合我们自己脚下的路,因为大家走的路不一样。有的适合A种道路,有的适合B种道路。达而观数据也在做我们自己垂直专用自主可控的大模型,杨小康教授列的表里面,里面有十几个就有达而观数据,我们智能制造里也有我们自己的参数,我们也在跑。刚才柏睿刘总也在讲,我们智能制造,或者工业里面,除了实现自动化,实现信息化要往信息化转型,接下来管理和流程上还有智能化的问题,其实自动化、信息化、数字化和智能化,现在处在了三浪、四浪叠加的时期,您刚才作为学者给我们提了一个醒,不是现在大模型热就往大模型上撞,凡是热的东西,里面往往潜藏着锥子。
第一件事情,用物联网采集的实时数据来构建智能制造厂房计算机的内存,然后我们在用计算机CPU的算法,计算机CPU的算法花了好几年,差不多十年的时间探讨怎么样用到智能制造里面来,最后被我发现真的可以用,里面叫万序执行,OOOE。计算机里面70年代是突破性的,但是在制造领域从来没有用过,都是按序执行。现在在工厂内存基础上进行OOOE的做法。在这个基础上,第三板块会开发智能工厂,就像微软或者IOS这样一套系统,把传感器什么都管上。在这个架构上很简单,相比起来云平台等非常简单,完全可以做到,在这个基础上构建大模型比较可行。
这是我们的项目,希望下次数博会时可以介绍一下我们做到什么程度。
给大家分享一下最近拿到香港基金委比较大的项目,应该是智能制造批下来的最大一个项目。项目里我们提出了一个不新的,但是又是很新的一个方法,什么叫不新的呢?因为我们提出来,完全用标准的计算机架构来实现制造业数字化。为什么又说是新的呢?因为是我们第一次提出来用计算机架构做智能制造工厂的控制。我们做三件事情。
怎么讲呢?现在为止,智能制造板块采集数据也好,利用数据也好,都是一门艺术,不是一门科学,都是八仙过海各显神通,市场上平台也很多。你家做到他家做不到,没有办法,这是不行的。制造业就像你所说的,是我们的基石。我们一定要探讨把智能制造业真的做通,真的可以搭建智能制造的大模型。
谢谢主持人,今天听到很多都是通用大模型,我想强调的是产业大模型,也就是智能制造行业。为什么它应该得到重视呢?这么多年的经验告诉我,很可能和通用大模型的模型很可能是不同的。如果大家有机会参加智能制造这一领域的大会,很可能今年讲的话题跟我们差不多,但是如果我在那边讲的话,也会叫他们小心一点,未必通用大数据的大模型未必对智能制造适用,也未必不适用,我们不知道。似乎需要。
好的,黄教授专门从香港过来,路程劳顿,我们想让您多贡献点智慧,您刚才说研究智能制造领域,智能制造是国之基石,也是未来的国之重器。智能制造领域怎么实现产业的变革被数字化来指引来促动。
是的。我们现在在园区层面上提供类似的算力给到相关的企业。
其实没准你收集来数据以后,经过大模型跑通后,反向推演还可以指导下一个生产线。
对于领导来说很简单,我每天产出多少,废料多少,环评达不达标,以前环评完全靠经验,等东西流到河里,环保部门来了你把阀门给我关了,阀门关了就影响生产。今天贵阳第一句话就很重要“数实融合”,先进算力用在实际的生产过程当中,能够提高效率,这是很重要的。
我们在这个过程当中以落地为主,我们参与智能工厂的评估,我们评估完了以后,我们评估是不要钱的,我们的数据库是用在数据采集端,全内存分布式数据库有自己的一体机,用在工厂车间里面数据处理端,还有后来的数据挖掘端,挖掘端比如我是一个化学园区,我把所有平台整合了以后,数据收集上来以后,我对某一条产线进行建模。
我特别想听听柏睿数据你们具体做了哪些贡献?
我觉得我们国家体制还是不错的。因为国企有一定的公益性,他愿意贡献出模型出来。比如真正的私营企业,说老实话真不见得愿意把这些东西放出来给到规下企业,给到你你就会变成我的竞争对手了。我们的体制,还是有一定互帮互助的社会责任的。这个平台是相对公益性,有公信力的,政府研发性的机构是带公益性质,我们现在已经看到了,你可以认为是一种变现的过程。我觉得某种意义上也是整体提升的过程。
有没有专门企业收集这些跑过的,高质量的模型?
其实数据的商用化,我们最近一段时间,尤其是在工业领域,推进了类似的这种,这两年我们国家产业领域的提升,尤其是在智改数转,这个词稍微讲的明白一点,智能化改造,数字化转型。原来我们有很多工厂已经实现自动化,尤其是规上企业已经实现自动化了。但是自动化其实是不够的,比如说很多钢铁厂等,所有机器运行状况,用数字化反映到虚拟模型里。怎么变现呢?有一些做的好的企业愿意把模型贡献出来,比如说我把当中切割,比如说我的机器人切割、喷涂、折弯、钻孔等类似供需,可以切割切碎了,做成不同的模型。我自己的模型做出来以后,大家想你的机器人,其实品种是很有限的,而且能做成标准操作的动作,其实也是很有限的。在一些比较先行的企业,他们做完以后,他们就愿意把模型贡献出来,甚至把一些参数也贡献出来。这样的话,完全可以在有公信力的平台上,政府组织平台下,各个不同企业,比如说规下企业可以买、租它的模型,现在已经有趋势了。 尤其是我们国家举国体制下,因为上面都是规上国企。
我们达而观数据也是正确数据,并且将数据应用到场景里的企业。如果说几位刚才讲到内容都是通用大模型,无论是圆桌一还是圆桌二,我们这几位,就像IBM专家一样,我们都是讲专用型大模型建设,我们几位讲垂直领域大模型应用,我们几位讲的可能是大数据项下大数据的应用。再继续往下推进,下一个问题想问柏睿数据的刘睿民先生,数据要获得价值,要用数据产生出来价值,我们再介绍时说,您这个企业既是软科技的企业,也是硬科技的企业,既有自己的软件,又有自己的硬件,我特别想问问数据商用化在往前推进的过程当中,你们是怎么做的。
这与晶泰从事领域有关,一些数据跟人体相关,安全性和伦理性要求高,使用数据要极其慎重。
这一波下来我们看到了各位的观点,黄教授开始,我们要注意,梳理一下我们需要什么样的数据,包括跟在座同学们一起梳理一下,怎样才能产生高标准的数据。首先要遇则立,不遇则废,制订数据产生的标准和流程。选准产生大量有质量价值的区域,而且要用正确的方式往下走,要用正确的方式,有一定的方法,制定我们标准化生产的流程,才能够产生出我们想要的数据。而且制订数据产生的标准是站在皇冠上的明珠,是需要不断动态制订新的标准来指引我们数据生产企业的。再往下走,数据必须要开源,每个数据之间是有万有引力,数据之间生命不能人为阻挡,要把数据变成一个开源,能够交易,能够可供大家来参加。第四,数据还有一定的伦理,还要有一定的治理,还要保证一定的安全。对于数据治理还在不断地提升。
高质量还不能忘记安全角度,数据被负责任的存储,负责任使用,有生命的数据才能有数据。比如说人类基因组数据,人类基因组数据负责安全存储,我们想让它从互联网或者哪里消失就能消失,这才是可控的。
第二,发展角度数据必须是廉价产生的数据。目前我们喂模型,让我们模型知道怎么设计下一步化学反应,现在市面上数据都是靠人做的实验,然后提取录入到系统,再喂给机器学习。目前我们保守估计,中国可能有超过20万人在为全世界医药研发企业做实验,这些人可能都是硕士生,或者本科以上的学历,以后可能没有这么多人来做实验了。所以什么样的方式持续产生高质量数据的方式很重要,晶泰给出的方案,我们目前挑战自动化数据方式,持续产生高质量数据,这是我们的思考。
第一,数据发展的角度,数据需要标注和清洗,但是医药研发领域大量数据无法标注。举一个简单例子,我们也在训练自己的模型,我认为我们模型参数可以达到十亿级,可以找到十亿级以上的蛋白质结构,这是公开数据。我们能够找到包括自己有的蛋白质功能数据是100多条,这中间是巨大的差。传统大数据标注当中,人类要共享数据。
我先介绍晶泰科技是做什么,是科创平台企业,我们现在做两项业务,第一项人工智能技术加速药物研发。第二项业务是自动化云平台实验室。目前人员是1000多人,其中超过700人是研发人员,里面包含150名博士,药物研发过程中开发300多个自有AI模型,这方面对数据有自己的理解,回到刚才主持人的问题,什么是好数据,站在生物医药研发的角度来看,可以从两个维度来看数据。
您刚才讲到从大数据变成小数据,还是蛮有思考价值的。稍后我们再进行探讨。接下来有请晶泰智药技术有限公司的王明泰先生。
第二个变化,因为前面小数据的趋势,所以对于数据因为大模型时代下,对数据的高质量,对于数据多维要求变高。比如说以前标一张图,这张图就是一个公园,但是现在标注后还要把这张图描述一下,一个妈妈带着小孩在公园里面散步,还要这样标注出来。这样来说标注难度和工作数量级是呈指数上升,这样的趋势也是非常的明显。如果只是像过去一样标注一个牛、马,或者是单体,没办法形成多维的标签,对于放到大模型里面肯定是不可用的。
第三个变化,我很赞成刘总的观点,包括孙茂松教授也讲了,万物皆项量,数据中间有万有引力,数据现在都有关系,所以未来项量数据库是非常大的趋势,而项量数据库是新的方式,项量数据库非常火,国内外项量数据库厂商也很多。现在涉及到如何把我们的数据项量存储化,这些也是很明显的一个趋势。我就先说这么多,后面再展开讲,谢谢!
谢谢主持人。我2001年就开始接触大数据,过去12、13年的发展,过去提几个V,3个V、4个V、5个V、6个V,一直在讲。今年过去的半年,我自己进行了思考,数据在大模型时代下有三个变化。我觉得是非常明显的。
第一个变化,数据的获取变得难度加大了。很明显在行业内有从大数据向小数据发展的趋势,这是我的体会,数据产生很多,但是它是给你看的,你自己没办法用,这是一个很明显的趋势。
数据治理过程当中强调工艺性,工程性,非常强。下面有请中国人工智能开源软件发展联盟的王健宗理事长。
就引入第二个话题,其实刚才几位教授、院士提到很多数据是因为它们有很多高质量的数据,这也是一个标准。真正叫高质量数据?中期是中文处理,某种意义上二进制非常强。因为中文处理是中国人天然的一个优势,这块的标准一定要抓住,不抓住的话,数据处理技术方面的标准,我们已经在往前赶了,但是本身语数、语料、标注,标准不提高上去,大量是从互联网过来的素材,说老实话质量不高。
刚才您也提出一个,制订标准流程梳理数据出来的是高标准的,高质量的数据,是大模型时代更接近于我们需要的数据。
我们有两个标准,一个是2014年推进,基本上标准是10年左右,明年初稿能够公开,基本上已经成稿。
定标准这事好像凭一己之力非常难。
我其实从2014年开始做国际标准,在数据库领域国际标准非常重要,因为你要卡住计算,不被人家卡脖子,某种意义你要卡别人的脖子,靠什么卡脖子?就是标准。我有一套标准,标准里有两种标准,一种是数据库本身,你要算术的时候,数据库本身有一个标准,比如说你的语言,因为数据库涉及到语言怎么去使用,也涉及到他怎么实施。
提到数,尤其是大模型时代。首先简单讲两句,柏睿数据做的是全内存分布式计算引擎,其实我们产品是全内存分布式数据库。我们这两年其实做的这个工作,我们数据库本身也是“十四五”国家补短板的分布式计算引擎,前两年开始预研的一件事就是项量数据库,单位发现一个问题,所有模型都是项量和张量计算,这和以前用正数计算,所谓的正数是指整数,正数计算的模式不太一样。其实要用浮点数,半精度、双精度等做大量的矩阵计算。
听出来了,您的意思是数据也像淘金一样,不是所有沙子都可以淘得金出来,我们需要选择目标矿藏挖掘数据。
有请柏睿数据的董事长,您也是首席科学家。
是的。我是做智能制造的,跟行业接触了一下。和我们2005年、2008年做的手段差不多,只不过用了新的术语,技术水平高很多,但是基本思路还是同样的。缺乏了精细化布局,我们对几十个案例进行了分析,总结出三大定律。
第一个定律,大数据万有价值定律。什么地方去采集数据?一定是向产生价值的地方采数据,不要到处采,不然采回来也没用,钱也白花。
第二个定律,数据的共享定律。要有规模的数据,不形成规模的不要去采。这句话讲得很简单,但是很普及的。
第三个定律,采来数据形成碰撞,反着用的数据才有用,如果采来数据没有碰撞没有用。
这三大定律很抽象,要用案例来讲的话,时间不够。但是用起来,它就可以解决大数据里面面临的“三高”问题,成本高、风险高、技术门槛高。用了这三大定律三高问题就可以解决。
数据来源要有计划,有布局,遇则利。
大模型用好要有高质量大数据进来,要采集好的大数据要有大规模精细化的布局。不是数据颗粒度越小越好,或者时空窗口越细越好,不是数据越密越好,不是这个意思。我讲的是大与小之间的辩证。为什么这个很重要呢?如果做不到精细化布局不可能有好的大数据,还是要被人家卡脖子。卡人家脖子要有精细化布局,不让人家卡脖子也要精细化布局,在我们讲的大模型里面,我们不能让人家卡脖子,就必须精细化布局。
首先把话题转移到我们的舞台上,昨天我们主办方非常认真对待我们的谈话,我们还搞了一个小型线上碰头会,我们也要预训练。预训练是为了现在的强输出,第一位想请来自香港黄教授,黄教授昨天从香港转到深圳,从深圳专门飞到我们的贵阳。我们谈的话题是谈“数”。在所有大模型,三大促进元素当中,除了算力和算法之外,就是数据了。各位有不少都是数据业研究我们的数据带来的支撑作用,而且很多都是数据企业。我们也知道数据20条出台以后,也让我们对于数据合理合法,或者说数据的治理也有一些我们自己的判断和体会,讲到大模型时代,讲到数。首先想请在座的每位嘉宾讲讲大模型时代需要什么样的“数”,什么样的数据。什么样的数据才能是支撑大模型往下具体运行的数据,才能是我们自己心目中盼望的数据。
刚才很多嘉宾都说的是“算”,我们第二场圆桌论坛的主题是“数”,合起来叫“说话算数”。在这儿作为张江集团的一个驻区企业之一,达而观信息科技,感谢两个集团,一个是张江集团。在座各位也有几个入住在张江集团,我们不但在张江集团孵化、创业、加速成长,而且集团在上海园区里享受到服务,还能享受到张江集团把我们带出去开眼界,也感谢贵安集团能够让我们在数博会上有我们讲话的地方,让我们感受贵阳的热情和数博会的热情。
刚才的论坛确实嘉宾没聊嗨,因为还有一个圆桌论坛2,如果只剩下1就聊得更嗨,希望我们2能够聊得嗨一点。
接下来进行第二场圆桌对话,将聚焦“大模型时代的数据智能产业机遇与挑战”主题深入探讨,本场圆桌对话邀请到的嘉宾是:
达而观信息科技(上海)有限公司首席战略官刘江贤先生;香港理工大学先进制造研究院副院长、讲座教授黄国全先生;北京柏睿数据技术股份有限公司董事长兼首席科学家刘睿民先生;中国人工智能开源软件发展联盟副理事长王健宗先生;晶泰智药技术(上海)有限公司副总裁王明泰先生
有请各位对话嘉宾在台上落座。现场交给本场圆桌对话的主持人刘江贤先生。
掌声送给五位嘉宾,感谢各位的精彩分享,让我们获益匪浅。ChatGPT并不可怕,可怕是你永远不懂怎么掌握它。希望本场圆桌讨论能够促进各界对大模型时代算力发展的全面理解,当然我们也期待更多更有意义的交流。
圆桌会议。人民网 潘佳倩摄
感谢舞台上的嘉宾老师,也感谢在座的各位老师和同学们。今天四位嘉宾都没聊嗨,都没让他们好好聊。我们也期待下一次我们再围绕大模型之后带来的机会再好好聊。感谢各位,感谢大家!
谢谢郑总多次邀请,我们一定先和贵州超算一起合作,先把我们芯片用到贵州来,这是第一点。第二点,通过贵州全国算力网联网服务千家万户,能够服务中国14亿人,在未来算力时代受益。
算力最终是通过人工智能在产业里面,或者是社会上提供一系列的价值。现在看得非常清楚,这个价值实际上在未来的几年里边会有一些颠覆性的效果,每个人都要具备应用人工智能,利用数字化的技术,重新设计自己的职业,重新设计自己将来日常工作的能力,这一点非常重要。在座这么多人,我实际上想把这个信息提交给大家,我们将来面对新的人工智能信息化时代,我们每个人要随着技术改变,追赶技术。谢谢大家!
我们都说算力是数字经济的生产力,数据是数字经济的生产要素,我觉得大模型的出现让我看到了算力作为生产力,数据作为生产要素驱动、推动数字经济发展的一种可能。
作为贵安新区本土的国企,我希望我们基础设施里面有沐曦的芯片,我希望我们数据中台有云计算平台,也希望未来上层调度平台能够参与IBM的合作。
非常期待。我作为主持人也把我们算力做一下对未来的想象。我相信算力会像未来公用事业一样,像用水、用电、用煤气一样,贯穿到每个人的生活、工作、经济收入中去。
时间过得飞快,接下来我们用比较简短的时间,每位专家老师用一句话来表达我们对算力的未来可期。
再回答刚刚提到软件上的生态,其实在科学计算上,我们现在已经有最流行30个科学计算软件,都可以在我们模拟器上执行,这是第一点。第二点,国内外所有AI蓄电框架完全可以在我们生态上运行。刚才还提到大数据处理、GPU数据库等,也可以在我们模拟器上运行。我们在做生态的时候,我们想得很简单。中国有一百多万库达(音)程序员是存量用户,如果能让他们在我们芯片上用,他以前用英伟达芯片拔掉插上我们芯片就可以直接用,这100万程序员意味着20万家企业和高校和研究所里面,如果让他们用上我们的芯片,这是巨大的一个市场,这是我作为CTO一个出发点。
一个简单的比喻,英伟达生态上做到10层楼高度,我们已经站在九层半,这个毫不夸张,我们对比过很多家企业。有一个简单的例子,我们去年的夏天,为了证明我们的生态有多么好,我们请了38名三本大三的学生,大家知道都毕业工作过,大三三本的学生工作能力大家可想而知在什么样的水平,而且是三本,不是一本的。这些学生在40天的时间内,每人每天可以完成4个库达(音)的KI应用在我们整个模拟器上的验证,这证明普适性有多么好。
刚刚讲了英伟达生态,到今天为止已经做到5000个开源社区的应用,一行代码不改,然后可以完全在我们模拟器上运行,为什么是模拟器呢?是因为我们芯片还没回来,我们芯片年底才会有一千片大规模开放,可以做语言大模型训练,现在还不行。同时全国11家计算中心,计算中心有科学计算应用、图像处理应用、AI应用等,11家计算中心已经在我们模拟器上执行过了。
首先回应成本问题,现在一张已经涨到25万一张,非常夸张,这是香港价格,国内价格还要再加价,基本上是这样的情况,我们希望控制在8-10万的价格上。
对我们来讲生态非常重要,不仅是软件。第一个是CPU的适配,其实我们在第一颗芯片已经适配了国内X86 CPU,国内飞腾的CPU,我们已经适配8颗CPU,我们适配了6个操作系统,麒麟、欧拉等,这是非常庞大的数字。同时国内厂商适配了8家,国内基本都适配了。
云厂商最后归结到杨总这儿,还得要看您GPU的支撑,到底会是什么情况。而且从我的了解,本身GPU不仅仅看硬件,我们知道英伟达还有一个生态,围绕这个方向,模型角度,芯片角度,怎么把整个生态推动起来,最后能够让我们讲的超算中心也好,智算中心也好,真正在未来低成本服务于整个大模型时代。
东数西算,或者东数西训今天大家关注算力层面,基础设施层面,实际上我们要应用在这边,计算在另外一边分布式结果,最重要的是软件,怎么样把算力抽象起来,数据怎么样能够低成本发生移动,计算出来的结果怎么样能和企业,和用户一端现有系统整合起来,这里面有非常多的软件技术,包括算力怎么样来调度,包括邓总讲算力是多方面,今天我要训练模型,另外一个领域里可能要做浮点数运算,另外一个领域可能驱动业务流程。我们要把计算需求通过软件虚拟化在一个平台上抽象起来,这样就能够实现一个非常大的空间。这种跨度是东部和西部,西部和南部这么大的一个空间计算,这是一个很复杂的计算过程。所以今天我们的研发,不光是在基础架构上,实际上在上面若干层,一直到应用这一层我们也需要关注,这也是今天IBM在中国运营业务时,我们认为对国内人工智能大数据和数字化大数据非常重要的一点。
第二,西部有更加可靠的,就像邓总提到的非常可靠的数据中心的环境,为训练提供基础设施的保障。
第三,我想借用杨总讲的,杨总讲ChatGPT互动一次大概需要花多少钱,早些年我看到一个数据,我们在谷歌上搜索一次大概会消耗7克二氧化碳,为什么说这个呢?这其实也是在东数西算国家战略的意义所在,因为我们在贵州,在其他的试点,甘肃、宁夏、内蒙,我们有大量的可再生能源和清洁能源,这样就能够为大量的算力提供清洁能源的支持。当然您刚才讲作为云计算厂商,我们也有这样的考虑和布局,我们也会为客户提供这样的解决方案。
东数西算是战略,就是让西部的算力资源更充分地支撑东部数据的运算包括东数西算,东数西训,东数西存,数据存储等等。东数西算国家战略提出来以后,刚好赶上大模型出来,对东数西算实施起到非常大的作用,有几个优势:
第一,成本低。很显然,西部地区电力资源比较丰富,我们可以去想象,一场训练,比方说一千张GPU卡同时运算三个月,大概需要花多少电,这个很容易就算出来,这在西部成本绝对比东部便宜一半。
第一个问题,为什么这样问,前面有演讲专家老师都提到东数西算,还有东数西训,这符合算法时代的专业语言。请两位老师从东数西训和云这两件事迅速开展讨论。
为什么这样问呢,我们下面把时间节约一下,因为时间不多了。接下来想请刘总和魏总,因为你们两位都是云基础,尤其是魏总在IBM负责云和AI两块工作,接下来两个问题一起进行讨论,两位一起踊跃回答,并且迅速。
现在我们的一个规划,第一,建立城市算力一张网。首先贵阳市把我们的高校科研,包括科学数据这块做起来,也就是现在强调的科学数据中心做起来。同时要结合国家超算,因为现在国家超算已经打造了超算互联网,所以还要并到全国一张网里去,所以后面可能会加大城市算力网。还有超算的一些建设。同时除了把我们基础设施建好以后,中间还要建设我们自己的数据中台,上面产生一系列应用场景。另外,还有三块纵向的数据标准体系、安全体系和运营体系,三横三纵。
就想问问在大模型之后,现在趋势已经有了,大数据超算中心会有什么未来的规划吗?
但是在这个过程中,我们发现超算运行时市场需求是多样化的,除了大模型,市场还有大量的智算、通算和超算业务,业务进行多样化业务来的时候,算力供给又是铁板一块,又是标准的机型,我们希望中间能够把供给和需求打通。我很希望我们的芯片厂商和我们的一些集成商,因为国产芯片上面还要有操作系统,还要有数据库,中间件、云平台,整体功能构建起来才能向外输出算力,这可能是一个生态。美国卡我们脖子以后,生态要逐步建立起来,真的不只是一家芯片厂商,还有大量中间软件厂商,还有系统集成商、平台商都投入到贵安来。所以沐曦这边可以具体沟通一下,就像他说的不只是芯片要突破颠覆性的技术,系统集成、硬件方面要突破,集成方面也要突破。这样把丰富多样化的需求和供给打通,打通以后还要对算力进行调度,空闲的拿过来,这样把整体成本全部降下来,才能帮到更多的中小企业。
另外还有一个项目比较大,130亿东数西算算力产业园的配套项目。这个项目会构建极大规模的算力,正好可以补足大模型训练阶段。大模型有两个阶段,一个是做训练,把所有互联网数据以及已知的文本、图片,大家可以理解为已知的数据,能投进去都拿来做通用模型,通用模型就需要大规模的并行计算。因为大规模的并行计算,因为我们现在的算力,除了CPU外,CPU是全能选手,但是它在某些领域不行,特别是矩阵运算就不行,就需要用GPU来帮他提高能力。但是现在GPU美国在卡我们脖子,我们很希望沐曦这样的国产芯片厂商给到我们支持,所以也很希望跟他们进一步对接。
现在大家看到各个公司都在做大模型,大部分是有钱的公司在做,包括阿里、百度,这些都是不缺钱的公司才去玩大模型。当然玩大模型也是现在很好的概念,大家都希望股价往上涨一涨,可能投入也就回来了。站在贵安新区贵安发展集团下面的超算中心,我们实际上站在国家的角度,国家发改委给我们做了一些布局。我们去年发展集团拿到了两个发改委给的长期低息的贷款,一笔30亿,做算网一体化,这个地方正好可以解决大模型推理的问题。因为我们推理是希望有一个通用模型以后,适用各个场景,所以我们会把我们的领域数据和行业数据放进去。这时候我们需要分布多节点的场景去做事情,而且我们是需要能够多个城市,或者是各个行业打通,算网一体的安全运营体系做支撑。
我看您介绍是沐曦CTO,今天可以下一个定义,在座CTO或者未来想做CTO的,不会算钱的CTO不是好CTO,杨总讲了一堆数据,把商业和数据做了很深的结合。
邓总是超算中心,围绕超算中心的投入,刚刚杨总讲了一堆都是花钱的地方,有性价比的地方,在这种投入后,整个超算中心在未来大模型带来的机会,你的投入,你的产出,你整个未来的运行又会带来什么样的挑战和机会呢?
做这件事情我们以前算过大概需要8家企业一起合作三年才能做出来,而且还有可能失败,失败的话就有可能到4年、5年,基于存在,挑战也很大,未来大模型对于中国整个生产力是很有必要的。大家谈到语言大模型,没有谈到另外一点,还有一个自动驾驶。每辆车上至少有1-4块GPU,还有2028年以后,中国是老龄化社会,我父母已经85、86岁,老龄化社会需要家庭护理,家庭护理需要家庭机器人。家庭机器人不是一家一台机器人,一家2台机器人,中国需要5亿台机器人,摊薄到十年是每年5000台机器人的量级,每年需要5万张GPU算力来做。更长远来说,需要更多破坏性创新,才能使中国真正进入智能化社会时代。
数据存、传、算,存上面现在价格很贵,一片16的接近300美元,为什么芯片这么贵,1万美元以上,因为原材料等成本非常贵,所以导致非常贵。如果能降到1/10以上,有可能在中国条件下通过通力合作,同样工艺下让芯片总体成本降1/3,这是比较合理的,通常在业界做破坏性创新的概念,但是挑战很大。
利用一些(英文)技术,它有一个好处,一个芯片很大,800平方毫米,英伟达800平方毫米的芯片,实际上良品率提高1倍以上,同样面积下良品率提高1倍,这样成本就下降。还有封装技术有一个问题,现在封装技术相当贵,每一个封装都在几百美元,国内2.5封装走得比较快,我们还是比较骄傲,如果更便宜封装几百美元降下来,这样成本也会下降。
挑战来讲,作为芯片公司来讲,大模型算10秒需要花4美分,10秒花2美分,但是实际上做不到。今天摩尔定律已经失效,再给大家一个数据,英威达A100算力,很多算力只有2倍左右的提升,但是价格涨了2.5倍,实际上是3.5倍的价格。从旧的显卡涨到新的显卡,而且差3年的阶段。实际上每一块人民币得到的算力并没有得到提升,和以前是一模一样的,这对我们GPU挑战和机遇来讲,我们需要一个新的技术,而且是破坏性创新技术,能够让算力提高一倍,每一块钱计算结果能增加2倍的结果。
第二个数字,如果说谷歌把所有的搜索全部转成今天的语言大模型来做推理的话,每天要支出多少IT的开支呢?每天的IT开支是1亿美元。同时所有GPU生命周期只有3年,意味着谷歌需要买1000亿美元的GPU。大家通过这几个字来看问题,1000亿美元的GPU,假设未来算法有改进,可以降到300亿美元,意味着需要300万块GPU的结果。中国体量也差不多,意味着中国公共的,所有公网上需要的算力大概需要300亿GPU的市场,我先讲机遇。但是还没完,我们讲公共的。超过500人像的公司要垂直领域的大模型,垂直领域大模型不只是一个,比如说网页制造的有网页大模型,做文案需要文案的模型,就像offer3.5。或者说是新华社,希望政府在回材料时希望新华社问题做统一格式。数据和模型永远不能让第三方知道,我们在预测私有化部署,我们认为中国也需要一百万张以上显卡,就是100亿以上的体量。中国大概每三年需要接近500亿每年体量的显卡,这是一个大机遇。这是机遇本身。
我们沐曦是做GPU芯片,我们是初创企业,第一颗芯片上市。说一个数字大家可能更有感觉一点,如果现在ChatGPT问4000个字,回来4000个字花多少钱,80美分,差不多是6块钱左右。这个价格是什么价格呢?是去年显卡的价格。但是按照今年显卡在中国的价格涨了多少倍呢?我可以告诉大家,上个星期中国的显卡价格和去年12月份相比,我们价格已经涨了3倍。这是非常大的一个数字。
魏总不仅仅站在算力角度看,变成全体系,从算力的绿色,有商业价值,讲到模型可信,还有和应用结合起来。
接下来听听杨总的想法。
这三样东西当我们放在一起的时候,我们实际上为自己提出了一个新的命题,我们这时候需要构建下一代的,从算力开始往上管理整个人工智能,还有邓总和刘总说到的数据问题。整个管理我们要能够管理起来下一代人工智能的平台。刚才我讲了几点,实际上是IBM最近一段时间致力于做的事情,我们希望构建一个平台,使得人工智能成本,以及在商业环境里的应用可以快速普及起来,我觉得这也是我们的机遇,当然也是我们的挑战。
第二点,人工智能最终这类大模型还是要起到作用,不管是商业的作用,还是对社会的作用。背后有一点是什么呢?人工智能吐出来的输出是可信的。比如说今天一台手术用人工智能做支撑,它如果做一个错误决定可想而知。通用偶尔犯一次错误不要紧,但是如果进入到商用环境,比如说驾驶和健康,这是不允许出错的。这时要有一个机制,人工智能从生成到运用的过程要管理起来,我们管这个过程叫人工智能的治理,这是第二个非常重要的环节。
第三点,人工智能在各个环节的应用。今天谈了非常多的通用,我建议大家看一下专用,通用基础上和专用两类人工智能怎么样结合。
人工智能这一轮ChatGPT出来以后,我们看到的现象是什么呢?以往我们不管是产品,还是企业里面用的一系列解决方案,都是原有方案的基础上把人工智能加进来。当ChatGPT起来了以后,我们看到的变成人工智能为主,“人工智能+”各种各样的东西,这个环节意味着什么呢?将来会有一系列创新的数字化产品出来。企业的劳动力也会得到大大的解放,会变得更智能。最后影响的是什么呢?最后真正影响的是产业链重新的布局。企业价值链会发生改变,因为人工智能。当这么大变成的基础上,我们实际上最应该关心的一件事是什么?就是人工智能训练的成本和价值要达到一个完美的平衡。今天我们现在看到的是什么呢?不管是从电费还是计算来讲,成本都非常高。这里有一点大家要倡导的是绿色计算,一定要在低成本的情况下计算出来,这是第一点。
接下来有请IBM的魏总。
第三个挑战,算法。大模型要基于上千亿的参数来计算,混合精度计算模型很不稳定,同时调试也很困难,所以从ChatGPT 1、2、3、4,每次都是很艰难。
第四个挑战,就是今天张院士讲的工程化挑战。每次训练可能都需要上千张甚至上万张卡同时进行运算,网络架构设计等等,工程化的实现是非常难的。再回到刚才主持人提到算力方面的挑战,技术层面,也和工程相关,突破现有单集群的规模,让算力的增加,首先算力能达到线性化,两千张卡比一千张卡算力提高一倍,是比较容易实现,如果两万张是不是也可以保持线性增长,工程上是很难的。GPU更新的速度太快了,对云计算公司来讲,对用到大模型的企业来讲,都存在不停的适配,不停的跟进最新的算力服务的提供。谢谢!
第一个挑战,算力的挑战。现在一方面高端的算力因为一些原因拿不到。第二个国产化算力还需要一定的时间,杨总更有发言权。
第二个挑战,数据。刚刚邓总讲了,我们做大模型的时候,发现数据总量不够。二是数据质量不高。我们要构建基于中文语义的大模型时面临很大的挑战。三是训练时面临的安全问题,对算力和数据的挑战。
谢谢主持人。大家对云计算很熟悉,云计算最早解决三个问题,计算、存储和网络。所以大家在讨论大模型的时候,为大模型所需要的算力资源,所需要的数据存储都为云计算的发展带来了很大的机遇。但是我们发现有四个方面的挑战:
有请刘总。
算力方面,因为我们是做超算,我们感觉市场是多样化的,现在大家都在做大模型,就需要大模型不断重复的投入,这个重复投入是不是国家的一个方针,否则大家一旦把大模型做出来后,最后肯定只会选出前几名,后面几名就比较危险,同时也会造成大量投入的浪费。这个问题是需要讨论的一个问题。
我觉得现在应该有一个铁三角,铁三角一个是算力,一个是模型,还有就是数据。当前数据质量是一个比较堪忧的问题,特别是在国外进行大模型训练的时候,因为国外有很多不错的文献,还有一些科技文献,所以模型训练出来的智能化很高。但是我们现在在大模型训练的时候,我们大部分是来自于互联网,所以质量就不是特别理想。
第一个问题,我先来提提看,大家都知道现在的大模型都是基于大算力基础大的数据堆积,以及大的参数量的应用。在这样的情况下,我们各位老师从各自的角度,如何来看大模型出来以后,在算力的产业面临的机遇和挑战,其中最值得注意的问题在哪里?
今天的讨论大概有三个环节,第一个环节是集体性的问题,待会儿四位老师都要有回答,但是我想大家还是随意一些,不见得是前前后后的问题。第二个是每一位老师都要单独回答我一个问题,第三是有一个总结和寄语。
大家都知道,今天一下午都在讨论AI,AI是驱动人类、社会进步的核心驱动力,最近又由于以ChatGPT为代表的AIGI,现在到AGI大模型的时代。在大模型的时代当中又会给我们带来什么样的机会呢?今天我们有算力公司的,有芯片公司的,也有大数据中心的各位专家领导和老师们,我们在这里一起来讨论一下。看看在这样的大模型的时代,围绕整个算力工作带来的算力的机会又是在哪里。
各位嘉宾,各位领导大家下午好!很荣幸以今天“数实相融,创新智算”为主题来共同探讨大模型时代算力的发展。我是本场圆桌的主持人钟俊浩。来自于上海,我是上海市人工智能行业协会的秘书长,也是上海市人工智能标准化技术委员会的秘书长。
上海市人工智能行业协会秘书长,上海市人工智能标准化技术委员会秘书长钟俊浩先生;贵安新区科创产业发展公司常务副总经理邓周灰先生;优刻得科技股份有限公司副总裁刘杰先生;IBM大中华区混合云及人工智能专家实验室总经理魏永明先生;沐曦联合创始人,CTO 兼首席软件架构师杨建先生
有请各位对话嘉宾在台上落座。现场交给本场圆桌主持人钟俊浩秘书长。
谢谢杨院长的分享。
现场来宾们,接下来进入圆桌对话环节。第一场圆桌对话的主题是数实相融,创新智算。我们非常荣幸地请到5位重磅嘉宾,他们是:
会议现场。人民网 潘佳倩摄
最后用Faynman话结尾,凡是我不能创造都不能理解,生成式智能化说凡是我能理解的我都能创造,谢谢大家!
总结,人工智能是新型生产力和新型创造力,不仅可以是AI机器工具,也有望成为科学研究的工具。当然这里生成式人工智能基础理论还是很不完善,不可解释,不可控,未来我们要发展基础理论,再一个是把生成式人工智能用好,来加速元宇宙的构建,促进行业数字化转型,做到虚实结合。
这是预测学习,这是机器人当中非常重要的问题,任务在一起增加,我们也做了一些工作,在机器人当中还是有一些成果。有了它后进行控制,我们把能够被人操控的现象,以及不能够被人操控的现象解耦开,解耦开就能做预测,这样效力就会提高。左边的自动驾驶速度非常高,右边的自动驾驶是Dreamer的工作,效率非常低,只能做简单的跟随。
我们也有几个小的工作,主要是用计算机视觉学习视觉模型。这里是一个叫视觉理解复杂的物理世界,然后通过强化学习人在环路的物理世界,和持续学习变化的物理世界。尽管是世界模型,世界可大可小,我们是小世界,一花一世界,这里主要研究了流体以及自动驾驶和机器人三个主要问题,这是专家给出的方程,我们给不出方程,但是我们可以繁衍出流体,可以告诉流体的位置、方向、速度、加速度,这是我们给出来,最后怎么解出方程来,这要靠张原始,机器视觉已经进步很大,以前是为了好看,现在部分推断机理。
世界模型花一两分钟说一下。这是未来的方向,这是YannLeCun额提出的AI新架构,自主智能架构,让AI像人类知觉+自监督一样对物理世界进行学习与推理,这是他提出的架构,总的来讲是强化学习的架构,现在一般强化学习没有模型,他希望做有模型的,而且这个模型做得特别大,世界模型,尽可能把人类学的物理现象都学进去的这么一个东西,我觉得有了大模型之后是可能的。
现在生成式人工智能最大的问题,包括前面提到的例子还是有一些问题的,不可控,我们三维人脸做到可控生成。这是一些其他例子,怎么样生成卡通,我觉得非常好。做动画的时候需要绑定,绑定师也是很贵的,我们把动画绑定的问题基本上做到智能化。这是一个怪兽,右边基本上是自动绑定的,和人工绑定基本可以做到一样。
这是人体重建,现在人体重建需要动作捕捉的房间,动作捕捉房间成本很高,而且空间也是受限的,我们通过单个视频去生成三维的人体运动。有了这样的技术之后,希望做出杨小康跳出杨丽萍一样的孔雀舞,这在以后完全是有可能的。
希望在生成式数字人当中,把神经渲染,以及多模态、大模型结合进来后,实现数据驱动,流程紧张,清晰可控可解释的数字人生成,要做到可泛化可驱动。
这个例子是单张的照片,通过单张的照片,结合一些经验,能够构造出一个立体的人脸。这样的话,可以以非常低的成本做元宇宙数字人的低成本入口。有了人脸后,还要进入这个场景,计算机图形学里面需要重新打光的,我们也把这个光影问题处理得比较好了。然后就是换脸,电影当中是比较有用的,比如说某一个明星最近有点问题,我们是可以做的,技术上是有的。
生成式人工智能在视觉方面,应该说在二维里面做的挺好,前面例子很有创意,分辨率也多,但是在三维当中很多问题,视频当中也有很多问题。这是视频生成式人工智能后面的发展方向。这是黄仁勋给的例子,用生成式做的。生成式人工智能有几个趋势,大模型要更通用,要多模态,这是GPT4已经在做的,物理世界的模拟要更逼真,再一个是数字人也要更丰富更立体,虚拟人和虚拟世界能够交互。这是人工智能应用的几项工作,这是我们对现在生成式三维数字人做的综述,如果有人要做AIGC的话可以对我们论文进行指导。
我们从视觉角度来讲,有一个工具非常重要diffusion,去噪,就像雕塑一样,把石头慢慢雕刻,也是一个去噪的过程。这里很霸气,雕像就在石头里,我只是把不需要的地方去掉,我觉得生成式人工智能也是在做开创时代的事情,是一种当代的艺术。这是一些工具,这里非常重要的神经网络渲染,这也是一个非常复杂的神经网络拟合,就用神经网络表示右边非常复杂的图像,这是可以的。反正这是一个函数,是可以拟合的。我们在后面工作当中会用到神经网络这个工具。
以生成人脸为例,希望通过学习数据,结合经验,构建人脸,对人脸空间当中采样,然后进行呈现,得到一个新的人脸,这个人脸可能是世界上没有的。也许是人类十万年前的祖先,也可以是一百年后的美国总统,这个可能是不存在的,但是的确又很像。
元宇宙有两个东西非常重要,一是人的虚拟化。二是物的虚拟化。生成式人工智能,可以是元宇宙当中内容的生成器,也可以去比较好的构建虚拟数字人,以及虚拟世界。我后面可能会主要讲这两个例子。生成式人工智能,以前人脸识别是判别式模型,假设前来生成人脸让人脸进入元宇宙就是生成式人工智能,前面我们国家搞新基建搞了十几年,判别式人工智能使得我们国家人工智能取得领先,生成式人工智能是未来十年,算力要求,数据要求更高。贵州贵阳可以起到很大的作用。
生成式人工智能不仅生成语言、语音、图像、代码,也能生成科学假设和科学现象,前面张院士已经给出非常多的例子。如果跟人比智商比,语言大模型已经很接近了。语言大模型是不是做得比人聪明很多,是不是有必要,是值得商榷,但是它必然和人打交道,大家科学是无止境的,我觉得后续可以重点发力。
接下来看一下视频,这是元宇宙生成式人工智能,生成式人工智能是gartner提出来的,进而生成全新的、原创的数据,他说到2025年生成式人工智能产生的数据将占据人类全部数据的10%,这显然是大大加速,有了GPT加速,有了语言大模型之后,生成式人工智能产生数据达到80%时候,人类是不是进入了元宇宙,二八原则可以这样看。
通用语言大模型也是新型的创造力。对很多顶尖设计师来讲,能够做这样的设计也是很难的,也是需要很长时间的。但是这个东西用通用语言大模型,结合我们的成像处理,基本上一秒钟就可以搞出这样一个东西,它的确是新型的创造力。国家也在努力搞大模型,真正的诸神之战,据说有70几个大模型,甚至上百个大模型在搞。这里还是需要有待于观察,我们国家的大模型和发达国家的大模型,是不是能够减少差距,我相信能减少,但是人家也在进步,这都是辩证的看。它是非常耗能的一件事情,怎么样有序去引导,形成合力,使得生态能够弄好。贵阳贵安新区可以给国家提一些建议,更多把算力集中起来搞,我觉得可能需要顶层规划,这是非常有必要的。
科学又是第一生产力,前面张院士已经有了讲解,特别是在化学、蛋白质、生物医药,这些都是一些结构、序列,这跟我们的语言是非常类似的,所以说在这种环境当中,它的效率是非常高的。当然,它也可以做方程,方程的难度要难得多,现在很多人直接把语言大模型运用到蛋白质,效果非常好。如果企业家可以更多关注一下这件事。前面说的是生产力。
工作环境中,微软把GPT4非常好结合到office系统里,写程序方面,孙老师也提到可以帮助程序员提高效率,可以帮助一般的程序员,40%几的代码机器写,效率能够提高50%以上。如果对高级程序员呢?顶尖的程序员来讲,可能90%的程序都可以是生成的,效率可以提高90%以上。这是openAI顶尖的科学家就可以做到这样。底下是调用机器人,通用的语言大模型就能够调用机器操作系统底层的一些语言,能够自动去规划机器人。所以既能够在工作环境上做得好,也能够把程序写得好,也能够在工厂上做得好,它当然就是一种新型生产力。
更大的角度来讲,整个训练是在开放的环境当中训练,向上是提问题,人提问题回答问题的过程中,人要接触这个世界,所以GPT绝对不是封闭的东西,接触不到大智能,它能够通过人去接触。所以在这个过程中能够学习大智能的环境,如果说我们从竞争力的角度来讲,随机的问题,以及问答越多,这个国家可能更有竞争力。往下可以是调用,可以调用计算机语言,也可以调用电路设计语言,可以调用科学计算语言,所以这是通过API就把所有计算机联通,也跟传感联通,使得和数字空间紧密联系在一起,所以这是人机物协同的开放系统,这里通用的语言大模型起到非常重要的作用,因为人类语言是一切语言的基础,包括计算机语言,包括分子式也是语言,这是语言的基础。我们写程序,论文等表达都是用人类语言,各个方面进步是非常大的。
这里最主要的问题是,它的不可解释性,它是与生俱来的。甚至某种程度上不可控性,甚至会犯错误也是与生俱来的。小孩子学习一定是会受一些挫折,犯一些可以忍受的小错误。所以GPT也是这样。你说预训练模型,它是统计模型,强化学习是试错的过程,它一定是在训练过程中需要容错的环境,所以这里非常重要的一点,要把模型训练好,一定是需要宽容的环境,这是非常重要的。怎么样创造需要大家一起努力。
您觉得通用的语言大模型ChatGPT,现在讲ChatGPT越讲越不顺,一开始还挺顺,讲多了反而不顺。通用语言大模型和人类大脑是可以高度类比的。人生出来就有861个主要神经元,ChatGPT大概有1750亿神经元,数量级上来讲是非常可比的。人生出来,它也是预训练模型,是经过我们几万亿的遗传生成的XY染色体决定的预训练模型,脑袋其实就是预训练模型,生出来之后,比如说小学开始要学习,其实就是通过强化学习去学习各个学科的内容,学习工作的能力,这是跟环境交互的强化学习。ChatGPT也是人类反馈的强化学习,前面我们也提到了,通过专家使得它的知识能够对齐,同时人要在社会上生活,需要法律与道德的规制,我们GPT也要有相应的API等东西来规制它,所以这两个是非常相似的。
这是一个技术演进,这里关键是生成式预训练Transformer,前面各位专家都讲了,我就不多讲了。原理主要是有Transformer学习做完形填空,句子兼容,然后做自监督进行学习,这是他的几个步骤,人类反馈的强化学习。
人工智能发展了60多年,有了ChatGPT4后,某种程度上回答了图灵之问,某种程度上已经是通用人工智能了,而且部分解决了图灵的测试,所以说通用人工智能初步的版本的确已经来了。
前面各位专家院士讲的很深刻,我主要给大家放一些视频,让大家轻松一下。
我的汇报是两部分,一是稍微回顾一下生成式人工智能里的语言大模型,我不用特别展开,我主要是说一点我自己的观点。二是重点讲元宇宙生成式人工智能。
接下来让我们用热烈掌声欢迎上海交通大学人工智能研究院常务副院长、人工智能教育部重点实验室主任、国家杰出青年科学基金获得者、IEE/CAAI Fellow杨小康先生发表主旨演讲,题目是《生成式人工智能》,掌声有请。
非常感谢孙院长精彩分享,期待大模型加入更多的模态,完成更复杂的任务,进一步让人工智能把人从繁复的工作中解脱出来。
会议现场。人民网 潘佳倩摄
4月28日中央政治局召开会议,提出要重视通用人工智能发展,营造创新生态,重视防范风险。中央提出通用人工智能说法,为什么我改题目了,中央提出了这个东西,这件事是深思熟虑的产物。注意ChatGPT出来之前,提通用人工智能是学术界很少的一部分人,大家一般不相信它有,所以一般不太提,但是ChatGPT提出来发生了变化,中央提出了说法,相当于我们将来在这方面会有新的征程。
谢谢大家!我就讲到这里。
大模型服务于人文研究,研究古希腊文字靠大模型也取得了非常好的效果,这个就不讲了。使人类文化发生变化,会带来人类伦理问题,这个也不讲了。最近恩Hinton离职谷歌,人工智能会给人类带来风险,他觉得发表这个关键在谷歌不太方便,觉得退出来可能会发表自己的观点,他是这波人工智能的主要推手之一。
大模型可以服务于科学研究,我就不讲了。刚才张院士也讲了,Alphafold,这个会带来很多科学的进步,我们也会做很多工作,把它用在化学分子式的分析上,效果很好,只要找到问题,大模型对我们是小菜一碟,很快就发表了一篇子刊,发表一个月有一千多次下载,特别受欢迎,成为了封面文章。
这是国外一家咨询公司给的数据,说什么呢?创造的企业价值,1997-2001 是绿的,20多年。过去20多年给企业创造的价值是这么多倍,是巨大的增量。另外会使知识工作者的工作效率大大提高,预期到2030年,绿的是财会,如果它帮助你,会使你的效力提高一倍,对公司是好事,对个人不一定是好事。意味着财会人员要砍掉一半,不需要这么多人了。紫色是程序员,编程效率会提高2倍,意味着75%的程序员可能不行了,可能不要了。剩下的人需要水平更高,不会取代程序员,它会因为把生产效率提高不需要那么多程序员,需要水平更高的程序员。
要命的是什么?以前人和机器交流,任何人交流是用语言交流很通常,人和机器交流不通常,仪器是用人和机器语言,自然语言交互是没有的,是不行的。如果真的做好了,现在看起来是这个能力,将来订酒店就用Enterprise,别的订票酒店公司就没机会,跟你啰嗦半天两小时订不到,那边两分钟搞定,我干嘛要用你,会重塑你的阶段。我个人判断OPENAI发展,有可能微软罩不住它,很有可能成为类似谷歌这样的企业。
这件事对解决社会的作用是非常巨大的,它可以重塑一个产业,也能够重塑产业的生态。比如说ChatGPT跟一些国际上最有名的做衣食、住、行、用、学习等互联网企业合作,比如说和Enterprise做旅游的一家公司,ChatGPT跟他合作,就会出现什么情况呢?比如我是一个用户我想订一个酒店,我想订离王府井不太远的酒店,酒店不太贵。最好稍微离王府井近一点,但是安静一点,别太吵,你就会提各种要求。以前要做到这一点很费劲,你要是一个领导,秘书给你查两个小时才能找到这么一个酒店。但是你现在跟Enterprise,你付了钱,你认可这件事,它就跟你学,很快它就会特别理解你,很快你订酒店就离不开它了。
后面大模型更强调意义,叫做基础模型。实际上是把互联网上所有的数据、图像、文本、视频、三维的信息数据库等等,统统用我刚才讲的算法给它打到一个大模型里边去,所谓这个模型叫做基础模型,是基础设施,是任何计算的基础。你在这个基础模型之上构造其他各种应用,都会比原来要做得好,要显著的好,大概是这样的基础模型。
这个模型是语言模型,但是这几年拓展多模态,靠这个模型把语言和图像打通,道理一样。比如说我给一张图片,带着文字。把图片中一小段,比如说类似于BERT,算法一样,通过这个把文本信息打到图片里,反过来把文本词遮挡住,让图片和文本联合猜我遮挡是什么词,把图片和文本信息打到词里,做到大象无形,超越了文本和图像。包括用对比学习把图文空间给对齐,由文生成图,所以才会有刚才我说的能把阿房宫画出来,背后是有深层次原因的,这一套都是由科技进步带来的。
恩格斯说过一个非常深刻的话,恩格斯谈到事物普遍联系的辩证途径,当我们深思熟虑地考虑自然界或人类历史或我们自己精神升华的时候,首先呈现在我们眼前是一幅由种种联系和相互作用无穷无尽地交织起来的画面。大模型在语义空间里做到了这一条,好像在座各位互相都认识,互相的关系大家也很清楚,合起伙来,团结起来做一件事,能量就比每个散沙强大不知道多少倍,大概就是这个道理。
刚才张东晓院士也提到了,相当于什么?牛顿物理世界中的万有引力,牛顿说“任何两个物体之间都有吸引力”,都有作用,也给了算法,也给了公式来算它。这是在意义的宇宙里边,任意两个概念之间产生了联系,联系强度也告诉你。通过向量建立了意义宇宙的定律,牛顿定理确定了宇宙的基本秩序,这些确定了语义宇宙的基本秩序,他把词、句子和篇章等所有语言打通,这是人类历史上从来没有做过的事,他完成了。所以他取得的效果不是平白无故,是有深刻的原因。
毕达格拉斯是古希腊最伟大的数学家之一,有一句名言“万物皆数”,我套用这句话说“万物皆向量”,在人工智能时代。我说一维空间打造二维空间里看,发现很多词是相关的,比如说这几个词挨着非常近,这几个词意思比较像。像上面两个搞到一起了。所有的词做出来。这一边是名词,那边是动词,再一边是副词,所以不同词类的词搞到一起,就分开了。比如说(英文)一个词有两个词,一个是褐的意思,一个是起重机的意思,多意就分开了,这是语言学中难的问题,都解决好了。十年前汉语辞典不标这个词是名词还是动词,为什么?专家们总是有争议这个词属于名词和动词,争吵不清,最后干脆说不标。后来说必须标,汉语词典没词类说不过去,后来才标的。这个事是很不容易,以前是语言学专家做,现在机器自动算出来的。
我刚才讲产生涌现现象,其实有一个很重要的内因,就是它通过Transformers架构,特别GPT3深度学习的办法,给每个词给了一个项量,原来说两个词,说上海和沪这两个词,机器是不知道这两个词是一个意思,它不知道,你必须告诉它,我们有专家告诉它这两个词是一个意思。实际上传统语言模型中词和词之间不说话,互相不认识。让你来合起伙来办一件事你的能力就不行,它给每个词一个项量,自动算出一个项量,所有词给一个项量,有了项量就可以发现词和词之间的关系,相当于在座各位每个人和每个人之间全都认识了。认识的程度,项量求一个点击就能算出这两个东西关系的紧密程度,还能给每两个人的亲疏关系,比较亲还是比较疏远就可以算出来。词是语言的概念系统,它把概念系统打通了。
这个东西特别适合神经网络的机制来做,Transformers架构,围绕这个东西发展了多少这个架构,包括GPT系列,GPT1、GPT2、GPT3到ChatGPT4全部是这个架构,这是内在的。现在所有做人工智能高性能全部是基于Transformers架构,成为事实标准,不一定是最优,但是大家认它。ChatGPT也是基于它来做的。你认真去想的话,可以追溯到图灵测试,50年。图灵测试50年提出,其实是QA形式,一问一答,正好是ChatGPT。现在有人说ChatGPT推动了图灵测试,它是对着这儿来的,但是其实还是没有通过,看你通过几岁小孩的图灵测试,通过人类图灵测试还是没有通过,但是确实比很多人要做得好,这是在图灵测试上取得了巨大的进步。
第二个模型叫理解模型,代表产物叫BERT。生成模型是根据前文生成后边的东西,理解模型是什么?理解模型是50年代语言教学提出来的,完形填空,一段话遮挡掉一个词,让你根据上下文猜我挡的是什么词,现在让机器做这件事情,所以叫理解模型,那个是生成模型,只用前文,理解模型是前后文都用,两个算法都非常高,高度的简单。但是有一个特别大的好处是什么,都叫做自我监督学习,不需要人教它,它都知道答案。机器可以做到互联网规模,这个事互联网上任意文本都可以干,不需要人介入,人介入规模就做不上去,这是它最大的好处。
产生了什么现象呢?实际上展现了涌现现象。我这里就不展开了,上午讲了。涌现现象的直接表现是机器好像有了举一反三的能力,就不展开了。做这件事的后边,有大模型,叫语言大模型。这个分两个类型,一是语言的生成模型,就是GPT3,生成模型让机器说人话。核心的任务是下一个词预测,我给一个上文,我昨天晚上吃了烤肉,然后停住,在任何一个点停住,我昨天晚上吃了,让机器预测下一个词吃什么,有点明知故问,下一个词是烤肉,它知道烤肉。它整个深层神经网络机制偏向预测下一个词是烤肉,其实就是这么简单。这个东西是一个抓手,通过这个基本任务,把语言的各个要素,通过计算的手段给组织起来了,这叫生成模型。生成模型好处是什么?可以生成无穷无尽的话。
场景二是阿房宫的建筑风格,场景三是水景与桥梁。场景四春光与武殿,还挺震撼,猛一看是西方格局,再一看还是东方的宫廷人物。场景五迷宫般的宫殿布局。是开放式的,特别感到不可思议的是,ChatGPT4主要做英文,中文是捎带的,比国内系统用洪荒之力做好得多,这是差距,这是让我真正感到比较震惊的地方。
他把杜牧的《阿房宫赋》说请找出描述阿房宫的句子,这是顾问。GPT4说以下是描写“阿房宫的句子”,只要描写阿房宫全挑出来,一句没落。下面的跟阿房宫描述没关系的句子一个没挑出来,完全对。所以它理解古文的能力很厉害。再问它,假如根据这些诗句画阿房宫,你会怎么描绘。它分成了五个场景,场景一是阿房宫的宏伟壮观,场景二是阿房宫建筑风格,场景三是水景与桥梁,场景四是春光与武殿。场景五是迷宫般的宫殿布局。第一个要点是描写蜀山、骊山宫殿的场景,展现阿房宫的气势磅礴。相当于把小剧本做出来,剧本应该分几个场景,每个要点是什么,就给做出来了。根据这个再用他们的画图软件,场景一就给你画出来了,完全是机器的创造,这几张图前人是没有画过的。
ChatGPT的感受,通用人工智能的幽灵,通用人工智能的幽灵在世界徘徊,徘徊了几个月了,ChatGPT这几个词越说越不顺嘴,越说越绕嘴,我自己的研究是自然语言处理,完全吻合。所以对这件事是感受最深的,它确实厉害,我试两三个例子,确实厉害,是真实的感受。所以火遍全球是有道理的。我举一个例子,这个例子是网上网民传的例子,我当时不信,觉得做不了这么好,我让学生去做一遍,一看结果是对的。拿这个例子说明,为什么把它叫通用人工智能的幽灵。
题目我给换了一下,换成“ChatGPT和大模型开启人类的通用人工智能之旅”,这个说法可能更加震撼,也更加符合现在的感受。
我今天上午在一个论坛上有一个报告,这两个报告是互补的,如果对这个问题有比较完整的了解,我不知道有没有回放,这两个是完全互补的。
接下来让我们用热烈的掌声欢迎清华大学计算机科学与技术系教授、清华大学人工智能研究院常务副院长、欧洲科学院外籍院士、国际计算语言学学会(ACL)会士、中国人工智能学会会士、中国中文信息学会会士孙茂松先生发表演讲,题目是《ChatGPT与大模型:启示及思考》,掌声有请。
非常感谢张院士的精彩分享。机器学习正转向数据驱动,当知识的嵌入和知识的发现形成了一个闭环,人工智能解决实际问题的能力就将得到大幅的提升。
机器学习、人工智能模型可以解决具有复杂非线性映射关系的问题。郑院士也提到了数据,数据多那叫数据大,我们要从数据大到大数据,大数据技术,为我们的服务,不仅仅停留在数据多的基础上。另外,引入行业知识,可以有效提升机器学习模型效果,数据的预处理、模型结果、模型效果这个环节嵌入领域知识。大家听到比较多是AI+X,还是X+AI,这里我的观点是,解决实际问题应该是“X+AI”,大模型有很强的能力,很博学,相当于中小学生,要解决实际问题还要上大学,还要念一个专业,念一个博士,或者是成为那个领域的工程师。所以大模型基础上,还是要进行深度的学习。数据和模型的有机结合就非常重要。总而言之,知识的嵌入和知识的发现在机器学习和人工智能的发展中同样重要,谢谢大家!
我总结一下,利用稀疏回归、遗传算法、符号数学可以从时空观测数据中直接挖掘控制方程,深度学习提供了计算导数可行的方式。对挖掘方程来讲,因此在简约性和准确性取一个平衡,8项解出的数字和3项就能解出,你当然希望方程是简单的。这个过程其实就是知识发现的过程,有很多应用,我就不讲了。核心是数据模型的融合和双驱动。
实际问题是你并不知道有这个方程的情况下怎么办?海水入侵到淡水,或者是地热开采用凉的水灌入地下,开采热水,地热开采的过程,或者是水力压力,刚才讲贵州有页岩气,页岩气把带沙子的水注入到地下,就造成水的压裂,沙子在里面运行。黄色的是沙子,绿色是带沙子的水,运行的规律到底是怎么样?短期瞬态的宏观方程是不知道的,通过微观实验得到一些数据,得到数据后进行分析,通过刚才讲的方法进行挖掘,最后我们得到方程。不同的两种工况下的方程,方程误差是最小最简洁的,简洁和误差之间要有一个平衡,实际上这个方程是有物理意义的。这是误差最小,简洁的方程,一方面数学上是成立的,第二是物理上可以预测。当我们改变工况的时候,这个方程有预测的能力,所以这个方程相当于是找到了宏观方程,是从来没有的宏观方程。
刚才讲X分之一有,U和X出发,第一代迭代和真实是完全不像的,经过16项得到一些项有点像,也不完全一样,经过48代迭代以后就找到了这个方程,这个方程实际上就是你要的方程,能够变异。从特别简单的,自变量、应变量开始简单的结构到复杂的结构,再到你要的结构,能够做到这一步。
KdV方程我们是知道,有完备备选项情况下,我们是能找到这个答案,如果用不完备,正确项并不在里面,KdV方程式,U乘上U偏导,还有U的3阶导,但是这里并没有前面正确项,它通过组合自己得到解是没问题的。但是这里对有些问题来讲,还是更需要数据结构的概念。可以用来表达任何一个项,这里通过遗传、编译等各种办法得到新的项。它可以解决这么复杂的问题,一般情况下,我们可能不会认为X分之一,乘上U的偏导是你方程的项,但是没有给这个项的情况下,既然找出来了。还有这样的也可以找出来,这样很复杂的方程也能够发现,就是因为有数字结构。
但是这种有一个很强的条件,正确的项必须在我的口袋里面,答案就在我的口袋里面,只不过我不知道是其中哪一个而已,但是往往你的口袋并没有那么大,正确东西并不在你的口袋里怎么办?通过半开放侯选集办法,可能这些不是我要的项,我变异组合有没有可能新的项,有可能对我解决问题有帮助,更重要的是用符号数学的办法,只要用一个自变量、应变量、运算规则自己组合,通过结构等办法来解决,比如说这样的表达式,有一些数可以长点、高点、矮点、胖点,可以变异。
我们看,如果有一个数据道理方程是什么样,还有一个你没见过的现象,不知道方程的情况下,能不能找到它的规律。机器学习有很好的映射能力,但是它可能是一个黑箱,黑箱就是知其然不知其所以然,工作你知道它工作,不工作你不知道为什么不工作。如果能把黑箱用方程和表达式表达出来,这也是一种可解释性,那么我们对它的过程就了解的非常清晰了。这个问题就转嫁成数学问题。因为我们的方程,我们方程都是比较简洁的,我们方程只有几项的方程,但是不知道能有几项,如果知道几个方程项就反过来找到参数而已,但是不知道哪一个项是在是一阶段,还是二阶段,还是一阶段和二阶段的在你的方程里,你不知道。也许有很多项,我们猜这里17项都有可能,我们拿数据拟合去看,有的存在项系数非零,不存在项数据等于零,如果能这样做,就能找到这里系数哪些项存在,并且方程就知道了。
小结一下:核心就是知识的嵌入。既有理论指导的深度学习模型,将物理规律、工程控制、专家经验等先验信息融入的深度学习模型训练中,有更好的可解释性和鲁棒性。
人工智能能不能帮我们发现知识,有数据能不能得到新的模型,特别是新的从来没有过的模型,能不能得到。可以回顾一下,开普勒他花38年时间收集行星轨迹数据,他把数据放在椭圆上,发现确实符合椭圆的轨迹,帮助他发现了三大行星运动的三大定力,牛顿花几十年发现万有引力定论。AI有没有可能加快这一过程?这里的问题是从数据中提取未发现的知识,并推进人类认知的边界。利用深度学习,或者是人工智能模型的很强的非线性高纬空间的映射能力。
油田的开采,比如说你有一些井,不同的油田有不同的井分布,可以自动给出油开采的过程,还有剩余油的分布等等。而且误差非常小。
刚才提到这里是用软约束的办法,当然也可以用硬约束的办法做。必须强制要求符合物理的规律,具体的细节就不讲了,大家感兴趣可以看一些参考文献,有非常好的效果。当然整个过程还是很复杂的,我们也发展了一些自动化知识嵌入的框架和工具包,这样就可以自动的进行嵌入。首先,你有一个新的问题,一个方程,你有新的问题,只要把问题告诉他,就可以自动把方程约束放在人工智能模型里去,这些是具体情况,我也不介绍了。
如果我们有能力的认知,比如说我们知道方程,那简单是最简洁完美的知识总结,如何结合起来?我们要有数据,要满足数据,另外一方面,我们要满足方程的约束。这种情况下,如果都要满足的情况下,当然这种可以进行软约束,就是在统计的意义上,两方面都要满足。可以做预测的话,可以有一个新的场景,就可以很好地预测,预测的误差也会非常地小。特别是要反复求解,要做不确定性分析,反问题、优化设计等等,反复求解的话,这种模型是非常高效的。时间关系就不深度讲了,但是你可以扩展到很复杂的情况。比如说油水、油气方程很复杂,既要麻烦数据,又要满足方程的约束。
风力发电和光伏发电一样,实际上有很大的随机性,受风速的影响。但是每台风机安装后有一定的规律。从历史的数据中,如果能得到它的概率分布的信息,比如说概率的密度分布函数,如果我们把概率密度分布函数和机器学习结合起来,当然这里有很多数学问题,我就不讲了。这样做了以后再来做预测,就可以得到非常好的预测效果,实际上有99%的准确率。
这里有一个例子,比如说贵阳的明天到底要用多少电,负荷的问题,当然这与人口密度和工业结构有很大的关系,一方面大的趋势,大的结构由专家的经验,或者工程控制理一个知识,给我们一个大趋势。但是又受随机因素影响,比如说明天的天气,明天下雨还是天晴对它有很多影响。深度学习方法可以帮助给出一个大的趋势,这样就可以得到非常好的评估效果。
这是北京12个区的情况,我们学习以后在丰台区从来没有进行学习过,但是我们做预测,红色是预测结果,黑色是真实的,灰色是一个区间,这些年预测效果非常好,精度可以达到99%,有这个精度对我们拉闸限电可以起到一定的帮助,可以避免拉闸限电。
知识和数据如何结合起来?当然结合可以在各个环节结合,可以在数据预处理环节,也可以在模型构建过程中,也可以在模型评估过程中来进行嵌入。如果嵌入知识以后,人工智能模型在物理上更加合理,数学上更加准确,计算上更加稳定,这样的模型还可以解决很多实际的问题。
知识如何嵌入到数据,构建具有物理常识的AI模型,如何从数据中挖掘出知识,拓展能力认知的边界。这是另外一个问题,我们可以看一下,第二部分。
第二,知识的嵌入。
刚刚提到知识驱动,模型增加系统,像早期的国际象棋到围棋,围棋就需要更多的数据。有机化学结构的分析,早期机器学习系统是可以的,但是现在蛋白质结构的分析就需要靠数据驱动。这两者要达到一定的平衡。对很多行业来讲,比如说能源行业,我们要活化利用这个行业多年的知识积累,进行知识和数据的双驱动,提升模型精度,降低数据的要求。比如说,知识加人工智能构建智慧能源技术。
偏差往上偏,往上偏,偏差是一样,还有商增商减,商减是违反物理规律。有的是没有常识,缺少知识,这样情况下很容易被攻击。比如说这是一只熊猫,加上噪音,人看是熊猫,但是人工智能识别成长臂猿,完全是不同的物种。那边是巴士,加上噪音就变成红色的蛙,很容易受攻击,这是因为缺少尝试。对人来讲,怎么看都不会有问题,但是对自动驾驶那就是很大的问题了。自动驾驶如果识别错了,那就是一个非常大的问题。
在这里我想讨论一下,知识和数据天平中,数据驱动方法,有的场景数据实际上是极度稀缺,但是模型又是很大的,刚才郑院士提到大模型、大算力,GPT 3就需要很多的模型和算力,当然算力是贵州的优势。但是有一些是很难达到,像我从事的领域能源、风电这个领域很容易得到,另外贵州有页岩气,页岩气一口井打下去就是几千万人民币,你肯定是不能负担很多井的。
数据驱动无论是大数据分析、数据科学、机器学习等等,有不同的名称。但是在数据和模型的天平中这里侧重于数据,如果有数据我们能做什么?能解决什么问题?比如我们来看这样的例子,比如光伏的发电,属于有一个工厂,有一个屋顶,有一个电站,我们想知道明天到底发多少电,这对你购买电很有好处。当然我们需要天气预报的信息,辐照、温度、湿度等等,我们需要历史的发电量,如果两者之间能够建立一定的影射关系,我们今天拿到明天的天气预报,我们就能够预测明天能发多少电。比如说,这是一个央企的集中式的光伏电站,这是隔天发电量,今天预测明天,明天预测后天,准确率还是非常好,可以达到97%的准确率,风电、光伏等等都可以这样做,案例很多,我就不一一说了。
第三代人工智能应该是什么样子的?我觉得第三代人工智能,第一代人工智能和第二代人工智能都有各自的优缺点,如果两个都能结合起来就构成第三代人工智能的要素,这也是今天我想和大家分享的。
人工智能的发展,第一代人工智能是知识驱动的,那时候基本上是智库。虽然有一个完备的规则的,现在的人工智能,像第一代人工智能很有代表性的IBM深蓝击败国际象棋冠军,那个模型还是增加系统。但是现在有代表性的AlphaGo,AlphaGo开始的模型是数据驱动的模型,就因为看了很多棋谱,学习到了方法。这里对数据的要求高,但是也有一些缺点,待会儿我们会讲。
另外一种方法就是现在的大模型,人工智能用数据驱动的方法。这里也有影射关系,但是我们并不知道这个影射关系,就像原来我们父母教我们,那是狗,那是猫,我们父母并没有给我们一个定义,那是狗那是猫,但是多次教我们两次时我们就知道那是狗,那是猫,因为我们学到影射关系。就像阿拉伯数字也是一样,如果学到影射关系,如果新的动物过来,就会知道这是狗,这是猫,这是数据驱动的方法,影射可能是一个黑箱子,很难用语言和数据表达出来,这是数据驱动的方法。我们解决问题或者建模,应该是数据驱动还是模型驱动?这是一个问题。
我想从另外一个角度来谈,就是知识的嵌入和知识的发现,这里可以是大模型非常好的应用,或者是一个大模型的提高。分享三个内容,数据驱动、数据嵌入、数据发现。
模型驱动方法大家很熟,编一个万年历,老师让你写一个算法,哪一天就能把这个日子算对,不管谁编,只要是对的,它的结果都是一样的。这里的核心是有一个算法的,算法可以是很简单的算法,也可以是非常复杂的算法。算法可能由100个方程组成的算法都是可能的。
首先非常高兴参加数博会“人工智能大模型”高端对话。今天我给大家分享的是《科学机器学习中的知识嵌入与知识发现》。大家可能会想什么是机器学习,仁者见仁,智者见智,英文两个词可以翻译成科学机器学习,(英文)应是用科学的原理帮助提高完善人工智能的算法和技术。另外是AI(英文)人工智能为科学服务。比如科学的发现,大家可能听说过新的蛋白质结构发现等等,还有方程挖掘。
非常感谢郑院士所做的分享,AI大模型训练与应用离不开巨大的算力支撑,AI大算力时代已经到来,我们需要给予充分的关注,及时重构认知。接下来让我们以热烈的掌声,欢迎美国国家工程院院士、东方理工高等研究院常务副院长兼教务长张东晓先生发表主旨演讲,题目是《科学机器学习中的知识嵌入与知识发现》,掌声有请张院士。
最后,做一个小结。什么意思?人家有一万个卡,有没有可能把8000个卡做到和1万个卡的性能一样,是有可能的。我刚才说了我的机器结构很明白,数据并行做得通信比较快的系统里去。另外装到另外的版本,我很明白。8000块卡比1万块卡性能好是有可能的。如果不明白,你装1万块卡上去,性能是人家1万块卡的50%也是有可能的。从网络拓扑与并行优化、体系结构与访存策略、存储结构与检查点策略三个角度,通过软硬件结合的方式进行软件优化。做模型的人要知道你装的机器是什么样,不能先装,先装性能肯定不好,先装还没有人家1万块卡好,你装的好8000块卡比1万块卡还要好。年轻人要写一篇文章,无论是哪一位老师的模型都不一样,无论是华为还是寒武纪都没关系,我们是怎么样匹配使效果更好。讲得不对的地方,请大家批评指正,谢谢大家!
知道了这件事情,什么模型情况下放在哪些地方合适?数据放在哪一个存储器合适,检测在哪里设置,我都清楚了。把我们做的模型按照这个办法装上去,达到了比较好的效果。你要注意你的模型怎么样,装在哪一个地方,要装哪一个模型,机器通信结构什么样,应该采取什么模型,因此我们做了一个东西,支持阿里巴巴的训练。还有这是阿里巴巴的图,我们这个东西做完以后,性能会比较好。EastMoE比较容易知道模型跟系统结构比较匹配的,腾讯用了我们这个东西,华为、阿里巴巴也用这个东西,我这里很高兴他们用,而不是管他们要钱。这是百度的情况,阿里巴巴的情况。
第二,数据量这么大,怎么把它存到整个系统里去,这也是一个问题。每6个核组,每个核组64个,1个计算控制核心,一定要合适,不然就会出问题。怎么把数据放到比较合适的存储器里面去。第三,大规模检查点存储性能优化。训练的时候,训练10天、8天,半个月,一个月,可能中间又要出问题,出问题后重来就比较麻烦。检查这个怎么生成也有讲究,这和系统结构是有关的。
现在大模型训练的时候,不是只有一个模型,部分是数据并行,部分是模型并行,混合的,有的是专家并行。如果是数据并行了,意味着通信要多,我们想象一下把这个模型安装在什么地方合适?装在256个节点内部比较合适,因为通信多,通信快,还是可以的,是不是这个意思。如果装在256之间,那通信空间就大了。因此要知道系统结构是什么样,什么部分通信小,什么地方通信费时间。数据并行装在256个CPU内部,如果模型并行的放在两个256之间,这样通信量就能少很多。如果你不知道这件事,随便装了,那这个开销就大了,这是一个事。
模型并行。把整个模型分成1/10,都分成10分,每台机器找1/10的模型,数据是整个的,每台机器都找这个数据。这种情况下也要交换数据,但是相对于高的来说,交换数据次数相对少一点。我就简单讲到这里,告诉你,如果是数据并行交换数据次数多,如果模型并行次数相对少一点。
我举两个例子,一个是数据并行。一个是模型并行。先说说数据并行。我举一个例子,一个模型来了以后,假设10台机器,大模型安装在10台机器上,然后把训练的数据分成10份,各装1/10,让它去进行训练。训练的时候要注意,大家看不可能训练到底就拿结果,因为只有1/10的数据进行了训练。要知道有很多次迭代,每次迭代两台机器要交换数据,这叫数据并行。数据并行交换次数比较多,通信次数比较多,如果数据并行情况下,数据并行把整个模型每个都装一套,数据1/10,要求两个机器之间通信挺多的,希望比较快。
我们预训练模型Transfomer就是矩阵乘法,我们都知道现在模型太大了,训练的时候都是并行的,什么意思?不是说一个模型就一个CPU做就行,串行了,串行CPU不够,一个CPU能快到哪里,训练数据很多,也放不下,因此现在都是并行的。100台机器,1万台机器同时做训练,这叫并行的模型。
举一个例子来说,我们组也做了一个大模型。大模型规模与效果是正相关关系,我们有一个大模型了,装在哪里呢?新一代神威超级计算机,这台计算机速度很快,性能很高,大模型怎么装到这台机器上去?最左边是8×8的小CPU,一共6的5个和,一共有6个这么个东西,合在一块就是1个CPU,1个CPU有这么多东西,这个东西一共有256个东西,组成了超级体,超级体里有256个CPU,每个CPU之间通信很快,都有直联的,这个点到这个点通信很快,这是它做得。256个CPU通信非常快,大家要记住这件事。很多个超级体,两个超级体之间要通信的话就比较慢,不像下面一步能到。256个CPU之间非常快,两个256之间通信就比较费劲了。
整体系统化的主要挑战在硬件方面,新型异构机器在计算网络存储方面都存在硬件的限制,软件方面负载不均匀,并行扩展比较难,因此AI模型和硬件如何做匹配,如何适配,是这样一回事。因此我给我们组年轻人出了一个题目,我说“现在做大模型的人很多”,他一个大模型,他又一个大模型,都做得很好,机器也很多,有华为的,有寒武纪、曙光,一个模型上如何在这台机器上做得最优你要有办法。实际上做大模型的人对系统结构还不太熟,系统工程化就是这么一个事,把它大模型和机器怎么匹配起来效果好一点。
新的应用软件出来了,ChatGPT就是新的应用场景,它如何在新型硬件系统的设计与优化,正反面都有。如何设计优化,把大模型装到这个机器上去,让它效果好,这就叫整体系统工程化。
整体系统工程化实际上是软硬件协同的系统设计与优化。十年前北京大学学大气物理天气预报的专家毕业了,他是做天气预报的,他懂语言也懂数据结构,就能写一个天气预报的软件,写得挺好的。但是最近五年,十年以后还有这个人,他写出来的软件,有可能装不了,即使能装效果也不好。主要是什么问题呢?他对系统不熟悉。软件要冲着系统写,怎么回事呢?新型硬件层出不穷,现在好多的硬件都出来了。我们现在做人工智能大模型训练的机器花样也很多。有GPU的,有英伟达的,有FBGI等很多样子。这是一点。大家知道SSD,性能提高了,但是编软件怎么充分发挥作用。因此我们说,新型硬件的使用对软件系统的设计提出了巨大的挑战。有新的硬件出来了,你的大模型必须跟这个硬件有匹配才行。
举一个简单的例子,ChatGPT听说有一万块卡,一万块GPU公司的卡,有人说比这个多一点,但是不管怎么样都有一万块卡,有没有完成以后,怎么把这一万块卡装上,装得好就是一万块卡,如果装得不好,我们要想把系统工程化做得好,可能八千块卡就达到一万块的效果,我试着把这件事情能不能说清楚。
ChatGPT出来以后,技术层次有三方面进展。第一,数据清洗。互联网数据有很多乱七八糟的数据,一定要用好的数据训练才行,因此数据清洗ChatGPT做得非常好。
第二,人工标注反馈。有很多反馈,你知道它越做越好。
第三,整体系统工程化。我今天主要来讲这三件事情做完以后,ChatGPT给人感觉这个系统取得了飞跃,更多用户的反馈,系统的聊天质量会越来越好。是这样一件事。其实数据清洗我不会,人工标注反馈我也不会,我主要讲整体系统工程化,这个东西要做得好才行。
李主席,马市长,袁涛董事长,好多做AI模型的大专家,以及好多朋友。今天在座很多人知道我,我在清华大学计算机系,我做什么事情呢?我做高性能计算,做存储器方面,你怎么来讲与AI模型有关的事呢?
我今天题目整体系统工程化在大模型系统中的应用,不一定讲得多,请大家批评指正。
非常感谢袁书记精彩致辞,让我们携手共进推动沪黔两地数字经济的蓬勃发展。
接下来让我们热烈掌声欢迎中国工程院院士、清华大学计算机系教授郑纬民先生发表演讲,题目是《整体系统工程化在大模型系统中的应用》,有请。
沪黔两地之间拥有许多相近之处和互补优势,张江集团非常希望能够与贵州省在信息技术和人工智能领域有更加紧密的合作,我们也非常愿意采取更加开放的姿态,不断推进科技创新,不断加强合作交流,在技术研发、人才培养和成果转化等方面实现互利互赢,谱写更加美好的篇章。在此我再次感谢大家的到来,希望本次论坛能够充分挖掘人工智能前沿技术的应用价值和潜力,进一步推动两地产业的融合发展,期待我们在未来的合作当中走得更远,取得更大的成就。谢谢大家!
人工智能是上海三大先导产业之一,作为上海人工智能创新应用先导区的核心承载区,张江人工智能产业形成了集群规模的优势,创新的生态优势,场景的赋能优势。张江科学城已集聚人工智能企业600多家,成为顶尖AI巨头的聚集地,张江人工智能岛建设成为全国首个人工智能创新先导区的示范区,快速汇聚了人工智能、大数据、云计算、元宇宙等一大批产业项目。张江机器人谷正在打造智能制造硬核产业集中承载区。张江集中创新园正进一步推动AI+生物医药、AI+医疗器械等产业的交叉融合和集成创新。张江实现了人工智能产学研用投创新链的集聚赋能,已成为驱动上海经济高质量发展的新引擎。
党的二十大报告当中关于加快实施创新驱动发展战略,加快实现高水平的科技自立自强的要求,指明新阶段新征程的努力发展方向,在未来张江集团将把提升创新策源能力作为新的战略目标,把促进科技成果向产业端转移转化作为新的历史使命。进一步加强创新投资和技术创新,特别是要保持信息技术和人工智能产业的领先地位,不断拓展新的产业领域,促进不同领域之间的深度融合,完善产业链的布局和生态体系的建设。
2022年是我们张江集团成立30周年,也是张江高科技园区成立30周年,经过30年的不懈奋斗和努力,张江从30年前的千亩农田成为中国创新创业的一片沃土,张江已经孕育成为具有重要影响力科技创新的策源地和具有持续高动能的创新驱动的发展地。打造出了人工智能等领域强大的产业链,汇聚了一大批具有强大科研能力的高新技术企业。同时,诞生了张江集团,张江集团也是30年,也是我们上海浦东科技研究和产业发展蝶变的见证者、亲历者和推动者。
尊敬的李主席,马市长,尊敬各位领导,各位来宾,大家下午好!
很荣幸能够在数博会与贵安发展集团共同联合举办这场人工智能大模型论坛,共同探讨人工智能发展的未来和应用,在此我谨代表上海张江集团有限公司对莅临现场的各位领导,各位嘉宾,致以我们最诚挚的感谢。
感谢马市长的精彩致辞。贵阳也将继续助力数字经济发展,也期待沪黔两地更加密切的交流与合作。
接下来以热烈的掌声有请上海张江(集团)有限公司党委书记、董事长袁涛先生为活动致辞,有请。
会议现场。人民网 潘佳倩摄
我们将持续打造优化便利化、法治化、市场化的营商环境,为入驻贵阳贵安的企业提供优质高效便捷的服务,确保大家投资放心,发展安心,创业顺心,生活舒心。
最后,祝本次活动圆满成功,祝各位嘉宾身体健康,工作顺利,万事如意,谢谢大家!
当前,科技创新给数字经济蓬勃发展带来了新的机遇,ChatGPT、大模型所带来的这种冲击让技术变革和产业变革的浪潮来得更加汹涌。这次我们与上海张江集团共同携手,联合举办本次高端对话活动,也是希望共同探讨大数据、大算力、大模型给我们带来的机遇与挑战。共同探索合作机遇,以大数据+为主线,有效连接两地的产业资源,成就张江科技园区科技成果的转化和孵化,实现沪黔科技创新成果的协同共享。依托我们沪黔两地在数据、算力、模型等各方面的优势和产业资源。结合上海的大市场、大平台、大流通、大开放的优势,充分发挥贵州的资源禀赋、自然条件以及数据聚集的优势,深度拓展我们之间共同的合作。共同推动沪黔两地的数字经济蓬勃发展。
今年以来,在贵州省委徐麟书记的亲自关心推动下,贵阳贵安与上海浦东新区与张江集团达成一系列合作共识,上海张江集团作为张江科学城开发建设的主力军,新型产业的推动者,科创生态的营造者,具有强大的园区开发运营能力和产业资源整合能力,拥有着无可比拟的品牌优势、团队优势和资源优势,有着丰富的成功经验。我们将在贵安新区共同合作建设新的产业园区。来打造沪黔科技创新成果的转化中心,沪黔产业成果的示范基地。
贵阳贵安是国家第一个大数据综合试验区的核心区,是全国一体化算力网络当中规模最大的国家枢纽节点。刚才主席也谈到了,这里聚集着全世界同一个地区聚集超大型算力中心,坚持数字产业化、产业数字化,坚持数字经济发展带动实体经济的融合。从风生水起到落地生根,再到集聚成势完成三级跳,大数据成为贵阳贵安被世界所认识的一张亮丽名片。贵州省数字经济增速一直位列全国前列,贵阳贵安数字经济占比也在去年达到了44%,超过全国平均水平10个百分点。实现三年三部大数据地方立法,建成全国首个大数据交易所,首个国家大数据工程实验室,我们正在规划建设全国规模最大,存算能力一流的高安全、高可靠、高可用的数据中心集群。这里算力资源充足,应用场景丰富,创新氛围浓厚,拥有着数字经济先行先试的优势,能够为大数据、大算力、大模型的技术发展和应用提供广阔的空间。我们希望能够成为您的首选试验田。
尊敬的各位领导,各位企业家,各位嘉宾朋友们,大家好!非常欢迎大家来到5月的贵阳贵安,这里万物并秀,生机盎然。欢迎大家来到2023中国国际大数据产业博览会。
我们共同出席人工智能大模型高端对话活动,在这里谨代表贵阳市贵安新区和数博会执委会向与会的各位领导、专家、企业家和嘉宾朋友们,表示热烈的欢迎,向大家长期以来给予贵阳贵安大数据产业发展的关心支持表示衷心地感谢。
贵阳市委副书记、市长、贵安新区党工委副书记、管委会党组书记、主任马宁宇先生为活动致辞。人民网 潘佳倩摄
非常感谢李主席的精彩致辞,也欢迎各界朋友能够扎根贵州发展,共谱数字创新的新篇章,奋进新征程。接下来热烈掌声邀请到贵阳市委副书记、市长、贵安新区党工委副书记、管委会党组书记、主任马宁宇先生为活动致辞。
上海是国家东数西算的重要节点,是人工智能热土,在信息技术和人工智能领域,贵州与上海产业结构各具特色,各有所长,互补性特别强,两地有着多年的良好合作基础,未来合作前景非常广阔。非常希望能够通过此次高端对话,进一步深化沪黔科技交流合作,促进创新体制机制,深化产学研用结合,集成优势资源,共同推动人工智能与数字经济、实体经济深度融合,创新发展。 最后,衷心的祝愿此次人工智能大模型高端对话取得圆满成功,丰硕成果,为两地合作与发展做出积极的贡献,谢谢大家!
今天后面有这么多人没有座位站着参加这次活动,一方面感到很抱歉,应该把会场搞大一点。同时我也感到大家对大模型时代人工智能对未来影响的关心。昨天我跟郑纬民院士在一起聊天的时候,还特别向他请教。说我们这次数博会,大家肯定特别关心人工智能在ChatGPT飞速发展的时候,我们未来会怎么样,看到大家跟我的心情是一样的。
2023年是全面贯彻党的二十大精神的开局之年,是实施“十四五”规划承上启下的关键一年。人工智能是重要的战略机遇,以人工智能开发应用为代表的新一轮科技革命在加速演变,在这样的关键节点,贵州将立足数字经济发展创新区的战略定位,牢记总书记的嘱托,在实施数字经济战略上努力抢新机。贵州将积极打造新一代信息技术产业,大数据产业和人工智能产业集群。推动数字经济和实体经济深度融合,加速制造业数字化向智能化、高端化和绿色化、集聚化转型升级。
数博会是贵州发展的一张亮丽的名片,从2015年到现在,数博会已经连续成功举办了八届,见证和参与了贵州大数据产业从无到有的蓬勃发展,过去几年贵州实施大数据战略行动,抢占发展先机,数字经济增速连续七年位居全国第一。成为了全球集聚大型和超大型的数据之一,贵州作用算力枢纽节点和综合试验区,积累了较大的算力和数据实力。
尊敬的郑纬民院士,马宁宇市长,尊敬的各位来宾,女士们,先生们,大家好!很荣幸与大家相聚在这场有关大数据、大算力和人工智能大模型的高端对话活动,一起探讨趋势、展望未来,我谨代表贵州省人民政府对各位院士、专家、学者、企业家,以及上海的各位来宾表示热烈的欢迎和衷心的感谢。对本次活动的举办表示热烈的祝贺。
第十四届全国政协委员,全国工商联常委,贵州省政协副主席,省工商联(总商会)主席(会长)李汉宇先生为活动致辞。人民网 潘佳倩摄
接下来,就让我们以热烈的掌声有请第十四届全国政协委员,全国工商联常委,贵州省政协副主席,省工商联(总商会)主席(会长)李汉宇先生为活动致辞。
今天现场还有很多重要的高端对话嘉宾,在这里就不作一一介绍了,在之后的圆桌环节里我们将进一步认识他们。让我们再次以热烈的掌声对各位领导和嘉宾的到来表示热烈的欢迎。同时,也要感谢贵州省政府、贵阳市政府,为行业搭建了数博会这个具有引领性、权威性的交流平台。
第十四届全国政协委员,全国工商联常委,贵州省政协副主席,省工商联(总商会)主席(会长)李汉宇先生;贵阳市委副书记、市长,贵安新区党工委副书记、管委会主任马宁宇先生;贵州省科技厅厅长廖飞先生;贵安新区党工委委员,工信局局长吴宏春女士
同时,出席今天活动的院士及顶尖专家有:中国工程院院士、清华大学计算机系教授郑纬民先生;美国国家工程院院士、东方理工高等研究院常务副院长兼教务长张东晓先生;清华大学人工智能研究院常务副院长孙茂松先生;上海交通大学人工智能研究院常务副院长杨小康先生以及承办方领导:上海张江(集团)有限公司党委书记、董事长袁涛先生;贵安发展集团党委书记、董事长罗佳玲女士
首先,请允许我荣幸介绍今天出席活动贵州省贵阳新区贵阳贵安的领导和嘉宾,他们是:
自ChatGPT爆发以来,大模型技术与产业发展日新月异,大模型时代极速展开,AI引领的新一轮科技革命正加速演进。未来,AI大模型作为新型基础设施将有怎样的发展?将为数字经济发展带来哪些机遇与挑战?本次活动以“大数据、大算力、大模型”为题,汇聚众多顶尖科学家、企业家,通过主旨演讲和圆桌对话分享洞见,共探数据、算力与AI大模型的技术和产业趋势。
本次高端对话活动由 2023 数博会执委会主办,上海张江(集团)有限公司和贵州贵安发展集团有限公司承办,机器之心、上海市浦东新区张江科学城商会、上海市浦东新区工商联张江人工智能商会,将对接沪黔两地优势产业资源,进一步深化两地科技交流合作,扎实推进“东数西算”工程,助力数字经济高质量发展。
尊敬的各位领导,各位来宾,女士们,先生们,大家下午好!5月的贵阳,群贤毕至,共论“数实相融 算启未来”。欢迎来到2023 中国国际大数据产业博览会“人工智能大模型高端对话”活动的现场。我是贵州广播电视台主持人冬冬。
会议现场。人民网 潘佳倩摄
会议现场。人民网 潘佳倩摄
各位网友大家下午好,2023数博会直播 | 高端对话:“人工智能大模型”直播即将开始,敬请关注。