简单科技手抄报OpenAI新模型开源犹如大厂的丰富果园为开源社区浇灌滋养
编辑:Aeneas 好困【新智元导读】OpenAI再次开源,其意在于「播种」还是「抛媚眼」?就在刚刚,据The Information最新爆料,OpenAI即将推出全新的开源大语言模型。
这场「革命性更新」,直接让开源LLM领域如同春日风起。短短几周内,各种ChatGPT平替就以惊人的速度崛起。
Alpaca、Vicuna、Koala、ChatLLaMA 、FreedomGPT、ColossalChat……简直是「家族盛宴」的大热闹。
其实,在羊驼之前,开源模型曾经打破了OpenAI的梦想。
当时,刚发布的Dall-E 2因其令人瞩目的文生图效果,在网上引起了一阵小范围的轰动。
然而,当OpenAI还在尝试出售API服务时,一款开放替代方案突然出现——Stable Diffusion。
随着Stable Diffusion迅速崭露头角,Dall-E 2也很快被开发者们遗忘了。
开源大模型,要颠覆硅谷巨擘?
UC Berkeley计算机教授Ion Stoica正是使用Meta研究开发Vicuna的学者之一。
为了提升Vicuna能力,他和团队正在努力增加模型中的计算量,这有助于处理涉及推理任务,比如编写代码。
开发Vicuna的是一个伯克利团队,每年的预算高达数百万美元,其中约50万美元来自包括微软、谷歌和亚马逊等上市公司。
UC Berkeley计算机教授Ion Stoica表示,现在免费提供的AI模型性能已经接近谷歌和OpenAI专有的水平,无疑,大多数开发者最终会选择免费工具。
一方面,开源可以让开发者使用自己的数据解决特定问题;另一方面,如Vicuna这样训练成本甚至低至几百美元,不需要向大厂支付昂贵费用。
Meta CEO小扎对此策略早已深思熟虑。在4月份的一次电话会议中,他提到:“如果行业能达成基础工具标准化,我们就能从他人改进中受益,这样更好。”
而谷歌则未完全采取专有方式处理AI软件。早在2020年,它就发布了一个开源语言模型T5,让开发者构建执行翻译和摘要任务软件。随后,又发布了更先进的Flan-T5。
比如,现在许多开源平替基于Meta LLaMA构建,而其他模型使用名为Pile的大型公共数据集,由非营利组织EleutherAI整理。这一切可能都将改变,因为现在外界开始质疑这种开放性是否可持续?
参考资料:
https://www.technologyreview.com/2023/05/12/1072950/open-source-ai-google-openai-eleuther-meta/
https://www.theinformation.com/articles/open-source-ai-is-gaining-on-google-and-chatgpt