dram存储
在新型财富管理领域,双方将利用腾讯的企业微信、腾讯文档等内外部办公协同平台,共同推进东北证券数字化建设,提升展业效率和员工办公体验。
第二,优先发展哈弗的经销商网络,之后发展长城体系内的经销商,包括欧拉、坦克、魏这些品牌的经销商,到第三轮进行全国百强或地方50强经销商的选择,所以经销商主体并不是唯一性。作为老牌自主品牌,长城汽车想要占领山头并不困难,只是缺乏上帝视角。
而排名第一的比亚迪,当月新能源汽车销量为19.39万辆。这样的结构可以实现9种不同的工作模式,比比亚迪的DM-i多了5种。狗系列,包括一代大狗,二代大狗和酷狗。但新能源大潮的袭卷之下,需要大象能够敏捷转身。乔心昱认为,自身产品在卷的过程中,会降低用户的体验,甚至会出现流失用户的可能。
所以,哈弗销售网络的建立,要回到最基本的商业逻辑。目前,已经开业投入运营了160多家,到月底应该能超过200家。发布会所看到的大模型并不一定具备可商用化的质量,我们重视的是如何将模型打造成可商用化的大模型,务实地帮助企业实现大模型的落地。
而且,我们所做的是能批量生产的模型,就像特斯拉的Model系列一样,我们并非只做一款模型,而是要能生产出N款模型。目前竹间智能已经为600多家客户做了NLP的落地。我们会根据客户的需求帮他们定制适合的模型,无论是70亿参数,130亿参数,还是650亿参数的大模型,都在我们大模型工厂(LLM Factory)的服务范围内。竹间智能作为一家初创企业为何选择去填补这块空白?其实从简仁贤以往的履历中就能得到答案2006年加入微软负责Bing核心产品的研发、2012年担任微软亚洲互联网工程院副院长,负责微软亚太地区的搜索及AI产品的技术研发,并主导开发微软小娜(Cortana)......可以说,这些宝贵的经验是竹间智能研究NLP的弹药,但这并不意味着其NLP的研发之路是一帆风顺的。
雷峰网:机器人的概念怎么理解?简仁贤:机器人的中枢就是大模型,但这个机器人是一个应用,它可以帮助人们完成任务。雷峰网:和以前相比,客户的态度有转变吗?简仁贤:我们之前也推广过大模型,花费了大量时间去教育市场和客户,但是由于门槛比较高,客户也需要购买GPU,当时很多客户并没有充足的预算,也无法理解大模型能带来的实际效果,所以推广效果并不明显。
因为在简仁贤看来,等大模型火了之后再做就来不及了,很多东西等所有人看明白后再去做就是红海了。雷峰网:大模型工厂(LLM Factory)是大模型火了之后开始做的吗?简仁贤:不是,从2021年起,尽管大模型当时并未大热,竹间就开始关注大模型了,2022年中开始研究,现在我们已在内部进行应用实践。另一是坚持开源并走向中大型模型。雷峰网:所以说,这也是对客户的挑战?简仁贤:对。
作者丨何思思编辑丨林觉民2015年从微软离职的简仁贤,创办了竹间智能,从成立之初,竹间智能就专注于AI技术的研发,并在NLP(自然语言处理)领域下足了功夫。简仁贤坦言,现在人们更愿意每天在媒体上面看谷歌怎么样了,Meta怎么样了,OpenAI怎么样了,谁谁谁怎么样了,这些都是趋势,不能反映企业内部的问题,这时大模型厂商真正要做的是,在企业预算资源有限的情况下,帮助企业把大模型融入到业务系统中,做增强,做赋能。雷峰网:闭源大模型和开源大模型争夺市场有什么不同?简仁贤:闭源大模型争夺的是C端市场,而开源大模型争夺的是B端市场。我们具有能为企业整理数据的know-how和工具,如果只提供大模型而不协助整理数据,不能微调大模型,那么客户将无法有效使用大模型。
与谷歌和微软保持闭源策略不同,Meta的LLaMA是开源的(参数权重除外),其在整个开源世界的影响力远超谷歌和。以下是雷峰网和简仁贤的对话:像特斯拉Model一样,做量化,让大模型更平民化雷峰网:从什么时候开始关注大模型的?简仁贤:实际上我们已经在大模型的研究领域耕耘超过两年的时间。
这就避免了客户需要购买大量的GPU,或是纠结于如何选择合适的模型,或者是走进大笔经费的无效投入。在国内,高质量,梳理过的数据短缺是一大问题,特别是有效的中文数据更是稀缺,缺少能使用到模型训练微调的高质量的数据。
目前要把大模型用好,需要很好的提示词,这个99%以上的人是不会的,绝大多数的人他们只关心自己所使用的产品的性能能不能给他们带来价值,所以应用最重要。雷峰网:所以让客户低成本的享受大模型的能力,也是我们重点要做的?简仁贤:我们的目标就是将人工智能平民化,让所有的企业都有自己的大模型,都能负担得起的大模型,甚至我们设定一个目标:成立99万大模型试验室,让企业在99万的预算内即可打造一个企业自有的大模型,让大模型变得更为平民化。其实对于我们来说,创建大模型不难的,因为我们有know-how,真正的难点在于客户需要整理数据。雷峰网:那什么才是最重要的?简仁贤:真正重要的是,最后用大模型驱动做出的产品是否有实际应用价值。种方式我们都采用,快速在企业场景中,落地应用,快速验证可商用化。很多人认为,这是其长期深耕NLP技术,厚积薄发的结果,简仁贤也并不否认这一点。
大模型+知识+应用,才是未来软件的范式雷峰网:业界有人说以前的软件范式是信息+连接,未来是知识+陪伴,您认为未来软件的新范式是什么样的?简仁贤:我认为未来软件的范式是大模型+知识+应用。大模型自研与否不重要,关键要走最后一公里路雷峰网:您怎么定义竹间在大模型方面的服务模式?简仁贤:我们提供Model-as-a-Service,模型即服务,这意味着我们的产品和工具平台可以快速帮助客户构建模型,而且这个模型可以迅速地与企业的业务系统进行连接。
雷峰网:多了一个应用,这个逻辑是怎么推论出来的?简仁贤:我始终坚信,能够触及用户的产品才是最具价值的。当然,很多国内外的大企业或上市公司都拥有自己的数据,但缺乏的是数据梳理方法——如何沉淀优质数据,然后去训练模型?这是最大的挑战。
雷峰网:怎么帮客户解决这个问题?简仁贤:在数据梳理的过程中,不存在所谓的弯道超车,必须积累行业经验和know-how。但如果你说:我有一个应用程序,你只需对它说几句话,它就能帮你写信。
在有限的预算内,帮助企业将大模型融入业务系统,才是真正值得我们关心的大模型发展趋势。雷峰网:竹间做这件事情,对企业最大的好处是什么?简仁贤:对于绝大多数的企业客户来说,他们无法投入数千万资金进行从0开始的基础大模型的预训练,即使有资金也无法做得到,数据,算力,know-how,维护等。此外,最流行的开源大模型是基于Meta开源的LLaMA模型(参数权重需要商用许可),大多数2023年发布的大模型也都是机遇开源的基础模型框架来训练的,或者是基于不同模型用不同数据与不同训练方法开发出来的,未来的软件世界,实用的,可商用化的,都不会是原始的基础模型。那么GPT 4的训练语料是谁做的呢?并不一定是GPT 4,可能是收集其他软件的人类使用数据,如 Twitter, Reddit, 等。
雷峰网:为什么谷歌、微软不开源?简仁贤:简单来说,他们需要通过这些模型来提高他们主营业务的获利,以提高他们的竞争力,对业务有价值的核心技术,谁会开源?雷峰网:听下来发现,竹间更倾向于做B端,那会不会像谷歌微软一样做超级巨大模型?简仁贤:我们的目标并非是直接为三、四亿用户服务的超大模型,这是大企业的工作。如果一个企业创建了一个模型,然后将这个模型交给了他人,可能整个企业的机密就无法保障了。
竹间智能不会开发布会哗众取宠,也不会向别人吹嘘自己的技术有多牛,而是让每个人都用到这项新技术,创造出能给用户带来价值的大模型产品。此外,我认为企业所需的并非仅仅是一个大模型,而是多个大模型,使用 EmotiBrain Model Factory,能高效训练微调大模型,更能进一步降低成本。
因此,企业的目标应该是让每个人都能使用到技术,而不是向外界夸耀自己的技术有多么强大。这才是大模型发展的重点,科技的进展日新月异,如何把握住最新技术,了解客户的需求,将合适的技术与产品落地到企业业务中才是我们最关注的重点。
雷峰网:安全问题保证了,对于竹间来说做大模型最难的是什么?简仁贤:数据梳理。在这种情况下,企业如果想要享受大模型的能力,对我们来说就意味着巨大的商业机会。同时,雷峰网还了解到,早在2021年GPT 2刚出来时竹间智能就开始研究,并逐渐把机器学习平台往大模型上迁移。从大模型的概念火出圈后,国内出现了多家大模型产品,诸如百度的文心一言、阿里商务千义通问、讯飞星火认知、商汤日日新...比比皆是,有关大模型的讨论也都是参数是多少、做到什么程度了等等。
客户将可以直接看到效果,竹间提供从准备数据,模型微调,最有效的微调方法,将微调训练的know-how开发到EmotiBrain的模型工厂中,而且成本相对较低,无需自备GPU资源,既可以享有定制化的大模型。因此,我认为未来的软件范式是模型+知识+应用。
大模型是根据训练的数据来生成结果的。另一个现实是:目前没有任何非AI企业有足够的计算资源和预算来开发通用大模型。
因此,每一家企业都会想要建立自己的大模型,这为我们带来了万亿级别的商机,即如何帮助企业快速建立大模型。如果没有,就很难进行,需要从数据收集和准备训练数据做起。