很容易拿到研究生毕业证。
10月的国庆假期,李易去了一趟西海省,看了最新投建的数据中心启用。
之前投建的几个数据中心,其实已经使用到星海半导体自研的芯片和系统。
只不过李易当时都在忙各种事情,没有去看。
西海数据中心投入使用,李易过来看了一下。
占地百多亩的数据中心!
楼层都不高,毕竟只是用来放置服务器。
建设速度才会这么快。
这还是数据中心建设各方面要求很高。
否则这个建设速度会更高。
西海数据中心,采用的是液冷技术。
其中冷却液和相关技术,是星海半导体联合燕大材料实验室研究出来的。
能提升服务器性能的同时,降低功耗,节约水资源和电力资源。
要知道,这种数据中心,最大的消耗就是电费!
哪怕是网络带宽费用,也不如电费来的吓人。
所以,国家后续出台政策:东数西算!
建数据中心、云计算、大数据一体化的新型算力网络体系,将东部算力需求有序引导到西部。
西部地广人稀、资源丰富。
东部地区人多,电力消耗太大。
再把各种数据中心都建设在东部?
那电力消耗会非常恐怖。
如今,音符云投建的多个数据中心完全启用。
剩下几个数据中心,明年也会陆续投入使用。
所有的数据中心投入使用后,将200万台服务器。
目前,星海集团和音符集团的数据,已经完全放在自己的数据中心。
算力中心提供的算力超过3000PetaFLOPS的算力!
后续,光刻厂工程完工。
升级更优秀的人工智能芯片。
这个算力还能翻倍!
目前音符云的算力……已经能支撑数千亿参数模型级别的完整训练。
未来再翻倍,足以轻松支撑万亿参数模型的完整训练。
人工智能参数模型的训练,第100步、1000步、步……各方面的表现都不会太好,理解能力和处理能力,可能连现在手机厂商的语音助手都不如。
表现可以说是:0分
但是:当训练达到10万参数,Ai发生了质的变化,如果之前是0分……那么现在应该能有10-20分了,算是一个:人工智障了!
当训练参数达从10的5次方,到10的6次方(100万),模型暴涨到100分!
Ai在某个领域内,从一窍不通,到百窍皆通,全都会了!
百万参数已经是一个质的变化!
在2022年,谷歌发布一篇论文:当参数达到1000亿时,模型会出现更多的神奇现象,突然能理解语言,能处理大规模任务。
而GPT2的时代,也就是10几亿参数而已!
GPT2距离千亿参数还相差甚远……但是微软投入百亿美刀级别的资金,加速GPT3达到千亿参数。
当时,人们觉得人类的创造力是不可能被Ai取代。
事实上……Ai是能取代人类创造力的!
如今音符云的算力,足以支撑数千亿参数的训练,接下来就是不断投入数据进行训练。
这需要海量的人力、物力、资金。
同时,这个算力,能轻松支持人工智能商用了!!
哪怕是GPT4级别的成熟人工智能,目前音符云海量算力,也能支撑它商用!
全球商用!