微软和谷歌的大模型竞赛中又杀出了一个新对手——Meta。Meta公司的研究人员周末发布了一种新的大型语言模型,加剧了科技巨头的人工智能军备竞赛升温。
此前,凭借OpenAI的ChatGPT技术,微软公司拔得头筹,并促使谷歌和百度等全球科技巨头都匆忙加入到这场竞赛。但ChatGPT自发布3.0版本以来就拒绝开源,这也引起了业界的不满。
业内呼吁开源
【资料图】
Meta公司在博客中称,最新发布的大型语言模型LLaMA将对非商业的用途进行授权许可,提供给政府、民间社会和学术界的研究人员和实体。尽管Meta的大型语言模型LLaMA尚未开源代码,但是允许对学术研究人员开放,将该模型作为底座进行机器训练已经是一大进步。
澜舟科技创始人兼CEO周明曾任职于微软亚洲研究院。他认为,应该鼓励更多大型语言模型开源,从而可以使更多人拿这些语言模型当底座。“现在很多大学教授都很恐慌,因为搞个小数据发表文章已经没有意义了,我们很高兴看到Meta或者亚马逊可以挑战微软和谷歌现在的闭源模式。”周明说道。
根据Meta的介绍,LLaMA模型以更少的参数和更小的规模达到更优的效果,130亿个参数的LLaMA模型就可胜过GPT-3的能力,650亿参数的LLaMA模型可与谷歌Chinchilla70B及PaLM-540B竞争,这些模型的规模甚至比谷歌的AI聊天机器人Bard更大。
Meta将模型更小参数所驱动的更大能力归因于“更清洁”的数据和增强训练稳定性的“架构改进”。这也给中国的大模型开发提供启发。周明表示:“Meta的LLaMA模型更小,但能力更强,可能在架构上又有新发现,或者新算法的出现。”
兼顾科技成果两面性
近日,科技部相关领导也对ChatGPT表现出了关注。
周明对此表示:“中国一定要有自己的核心人工智能技术,我认为做大模型的公司,肯定有巨大的空间可以超越ChatGPT,ChatGPT只是吹响了下一代人工智能的号角,但绝不是终点,我们应该相信有企业能够走出中国特色的下一代人工智能之路。”
监管对于类似ChatGPT的态度也是企业和投资人密切关注的,例如隐私和伦理问题。清华大学国强教授、智能产业研究院首席研究员聂再清告诉第一财经记者:“用户向ChatGPT提问的问题,本身就带有信息量,向它输入信息,不排除有一定的信息泄露风险,包括信息跨境流动问题。这取决于这个产品的研发人员、运营人员、数据管理者等,是否对相关信息进行了妥当处理,不让个人隐私等外泄,或用于其他用途。如果有问题,责任应由他们承担。”
全球的监管层已经注意到ChatGPT这一技术带来的潜在风险,走在技术法规政策制定前沿的欧盟率先对ChatGPT带来的潜在风险做出回应。欧盟委员会分管内部市场(工业)委员蒂埃里·布雷顿(Thierry Breton)此前表示,欧盟新拟议的人工智能法规将解决围绕ChatGPT聊天机器人和人工智能技术风险的担忧。
“正如ChatGPT所展示的那样,人工智能解决方案可以为企业和公民提供巨大的机会,但也可能带来风险。 这就是为什么我们需要一个坚实的监管框架来确保基于高质量数据的可信赖人工智能。”布雷顿在书面评论中写道。
“如果相关法规针对生成式AI在文字内容生成方面没有明确的规定,那么随着ChatGPT这类技术的应用更加广泛,未来可能需要重新审视在包括文章、论文、广告等生成内容方面的审核。”聂再清对第一财经记者表示。