马斯克开源Grok-1,奥特曼“安利”GPT-5,黄仁勋公布Blackwell……AI“史诗级升级”,浙江从业者怎么看?
杭州网  发布时间:2024-03-19 17:03   

这两天大概是我们见证AI大发展的时刻。

当地时间3月17日,北京时间18日凌晨,马斯克旗下xAI公司宣布正式开源其大模型Grok-1。该模型引人关注的有两点:一是参数达到3140亿,远超OpenAI GPT-3.5的1750亿,是迄今参数量最大的开源大语言模型;二则它是一个混合专家大模型,简单来说,就像把各个领域的“专家”集合到了一起,遇到任务派发给不同领域的专家,最后汇总结论,提升效率。

就在这一新闻产生的“硝烟”还未散去,有媒体爆料,OpenAI的CEO奥特曼首次公开表示,GPT-5将实现史诗级性能跃升。而在硬件方面,英伟达再次推出“超级芯片”——Blackwell B200 GPU和GB200;B200一块能顶5个H100,30倍推理加速,能训练万亿参数大模型。

今年,我们或将见证AI又一历史性升级。

“爱讽刺”的大模型&“碾压”的大模型

先从马斯克的Grok-1说起。

在国内外形形色色的大模型中,Grok跟马斯克本人一样,自带流量。去年3月,马斯克注册成立xAI。团队12名初创人员来自DeepMind、OpenAI、谷歌研究院、微软研究院、特斯拉、多伦多大学等,据悉曾参与过DeepMind的Alpha Code和OpenAI的GPT-3.5和GPT-4等项目。所以,一开始大家都相信它是冲着GPT去的。

成立公司半年多,xAI就发布了Grok。业内评价集中在两点:只训练了两个月,部分能力就超越GPT3.5;以及,不知是有意还是无意的,这是一个善于讽刺的聊天机器人。

讽刺的特征很符合马斯克的做派。这位OpenAI创始人之一,就多次公开讽刺OpenAI公司一点都不“open”,没有开源大模型,前不久还因此一纸诉状将OpenAI告上法庭;然后在吊足了各方胃口后,开源了自己的大模型——不过是Grok-1,不是最新版的Grok-1.5。熟悉行业情况的读者知道,大模型差半代,也会差很远。

不知是否真的因为马斯克发布“挑战书”,OpenAI“迎战”了:有媒体报道,奥特曼在硅谷出席一个活动时现场表示,GPT-5的性能提升的程度将超出预期,甚至还表示,低估GPT-5能力的初创公司将被下一代模型所碾压。

对于Grok-1的开源,国内业内人士比较“看淡”。记者采访了几位大厂的大模型专家,有的表示要先测试下再说;有的说尝试其他大模型并不是自己的主业;也有的表示了肯定,觉得对大模型发展整体生态建设、生态多元化有一定促进作用,“多个方向总是好的”。

相比下,GPT-5的关注度明显更高。

“GPT-5可能将在多个方面带来创新和改进,比如包括更好的理解和生成语言的能力、更广泛的知识覆盖、更高效的学习算法、更强的逻辑推理能力以及更低的误解率等。”同济大学电子与信息工程学院吴迪博士说,每次GPT系列模型的升级,OpenAI都在力求突破现有的限制,包括提高模型的泛化能力、减少偏差和误导信息的生成,以及提升交互的自然性和用户体验。史诗级的性能跃升可能还会包括改进的安全性和可靠性,以确保AI技术的负责任使用,并减少潜在的负面影响。

开源或闭源都不简单

“企业选择开源或闭源,并没有大家想象中这么简单。”浙江大数据交易中心总经理孔俊告诉记者。一般而言,企业开源要有足够的技术自信,门槛还是蛮高的,比如阿里通义千问大模型在IDC的“AI大模型技术能力评估测试”中获得了6项满分。

选择开源,有打造生态、获取数据等多方面考量。有专家表示,开源其实并不一定意味着做公益,也有商业化的考量,可能其商业利益比较长远,而现阶段需要拓展生态、扩大影响力。

据研究机构观察,相关大模型厂商在开源还是闭源选择上十分灵活:目前,完全闭源的国外有OpenAI的GPT-3.5、GPT-4,国内有百度的文心大模型;先闭源再开源,有阿里云的通义千问;也有先开源再闭源,比如百川智能的Baichuan-7B、Baichuan-13B。

“大模型三要素,数据、算力、算法。开源可能因为数据不够,就以开放合作的模式,邀请有数据的各方面进来尝试。”孔俊说,这也是数据使用的一种方式,或对国内推进数据要素市场化有一定参考价值。

当地时间本周一,英伟达召开年度开发者大会,黄仁勋公布了新一代GPU架构Blackwell,支持构建实时生成式AI。有业内人士分析,英伟达的新架构离不开开源的支持。2022年5月,在挨了开发者们十年骂后,英伟达终于推动GPU计算的开源化,吸引了大量研发人员参与创新,PyTorch、TensorFlow等被广泛使用的深度学习框与英伟达GPU深度绑定,这也为英伟达自家GPU产品积累了大量优化经验。

更重要的是,这种良性的生态互动建立起来后,市场也随之打开。据悉,目前英伟达的高端GPU已占据全球88%的市场份额,市值约为2.2万亿美元,仅次于微软和苹果。

“大模型开源会成为一种趋势,并形成基础版本开源、高阶版本闭源的格局。”浙江大学软件学院教授、复杂系统与数据工程研究所副所长张微向记者科普道,开源可以理解为是一名高中生,具备一定基础知识,有很强的拓展空间,然后进入闭源的大学学习阶段,选择文、理、医等具体方向,也就是场景细分化、专业化。

综合现阶段国内外发展趋势,张微建议,一方面算力、算法、数据等基础建设确实很重要,另一方面,我国产业门类、产业链比较齐全,制造业相对发达,这也是一大优势;国内大模型厂商和初创公司,当下的方向可以放在细分领域上,争取在行业上领先。

基础、基础还是基础

面对这次AI软硬件“史诗级升级”,相关人士还是再次强调了基础的重要性。

在张微看来,尽管现在大模型“百舸争流”,但随着产业发展,真正基础性的通用大模型最后不会留下太多,就像当年共享单车的市场竞争过程一样。而这也对特别是大公司打造通用性大模型提出了更高要求。

“从整个产业发展来看,还是要从基础抓起。”吴迪说,一方面,开源的大模型并不是说简单拿来用,也要学习其逻辑架构,要不然只能一直跟在别人身后;另一方面,即使是开源大模型,其核心部分并不一定百分之百开源,尤其是最新版本的大模型,马斯克的xAI如此,OpenAI也是如此;就像中国网友评价特斯拉的开源“已经落后”,一个道理。

相比下,吴迪更觉得国内大模型在产学研结合方面力度还可以进一步增加,“高校有技术,但硬件条件相对不足。大模型对硬件配置要求很高,往往需要硬件集群,这可能是企业的优势。而说得更远一点,目前全世界的大模型,本质上都是统计概率模型。这就离不开对数学基础的重视。”

孔俊也强调了对政府、高校、企业合作的重视,“数据、算力、算法确一不可。目前政府部门正在努力加大高质量数据供给、培育国产算力,鼓励高校企业加快算法研究。”

目前,我国在算力方面尽管顶级芯片相对缺乏,但总量及增量发展迅速。去年11月,工信部公布的一组数据显示,近年来,我国算力产业年增长率近30%,算力总规模位居全球第二。截至去年底,我国算力核心产业规模达到1.8万亿元。

当然,算力有了也得用起来,就涉及到国产算力好不好用的问题。此前也有业内人士指出,我们的算力存在一方面花了很多钱但不好用、一方面算力又短缺的“怪圈”。压力给到国内自主研发的算力芯片。

除了上述产业基础,不少业内人士也提到了一些制度基础,比如法律。

当地时间13日,欧洲议会正式投票通过并批准《人工智能法案》,以严格规范人工智能的使用。

3月16日上午,在北京举办的首届“AI善治论坛”发布《人工智能法(学者建议稿)》。起草专家组由中国政法大学数据法治研究院、西北政法大学法治学院、中国信息通信研究院等七家单位的专家组成。

“随着技术进步,持续关注和评估AI技术的社会、伦理和安全影响是非常重要的。AI领域的快速发展需要伴随着相应的政策、指导原则和监管措施,以确保这些先进技术能够为社会带来积极的影响,并有效管理潜在的风险。”吴迪说,这方面,中国因为大数据、人工智能当产业起步比较早,对个人数据隐私保护关注度更高;而法制的完善,将进一步推动人工智能产业的发展。

来源:潮新闻  作者:记者 金春华  编辑:高明桢
返回
杭州网·国家重点新闻网站