激动人心!重温这些珍贵的“首次”瞬间

腾讯还与贵阳市人民政府签订战略合作,探索数字技术在智慧城市建设层面的场景应用。

万科也通过企业微信实现更高效的客户管理与更快速响应,为全国370万潜在购房客户提供置业建议。数字新连接:助力产业链进一步数字化协同万科作为不动产行业的全球领先企业,拥有丰富的业务场景,服务数量众多的客户,管理大量的资产和各类设备,旨在探索和应用各类科技手段,更好地服务其客户。

激动人心!重温这些珍贵的“首次”瞬间

两家总部位于深圳的世界500强企业牵手,怀揣更好服务客户的初心,将在多领域展开合作,共同探索中国企业管理与发展的新方法、新路径。企业微信作为具备社交属性的办公管理工具,自2019年起就助力万科在行业首创全天候在线管家服务,为全国937万业主提供专属服务。经过近40年的发展,万科的业务从房地产开发、物业服务,到商业、长租公寓、物流仓储、酒店与度假、教育等。从更加贴近客户的数字营销、工地开放线上化、前置管家、打造社区文化……万科始终将客户放在第一位。新效率范式:一站式管理协作平台提质增效作为房地产行业领跑者,万科持续创新、敢于尝试、开放包容,努力拥抱数字化。

其中作为这次战略合作首个落地项目,企业微信将成为万科的移动数字化底座,对内横向连通房地产开发、物业服务、长租公寓等8大业务,连接员工及上下游产业伙伴,对外为过千万客户提供更多场景、高质量的服务体验。通过数字化管理工具,万科可以对客户更好地进行分类管理和提供个性化服务,创建健康活跃的社群,已成为行业标杆。各种模型都可以有不同大小的 size, 不同数量级的参数,这就好比我们喜欢的衣服有S、M、L、XL、XXL各种尺码,我们可以从以前的S尺码模型做到现在的M、L,甚至是XL尺码的模型。

自2021年GPT2问世,我们就开始关注了,并将机器学习平台向大模型开发方向迁移。以下是雷峰网和简仁贤的对话:像特斯拉Model一样,做量化,让大模型更平民化雷峰网:从什么时候开始关注大模型的?简仁贤:实际上我们已经在大模型的研究领域耕耘超过两年的时间。数据梳理和数据标注是两个概念。我们更提供了终端的应用,让企业能快速享受到大模型带来的业务价值。

目前要把大模型用好,需要很好的提示词,这个99%以上的人是不会的,绝大多数的人他们只关心自己所使用的产品的性能能不能给他们带来价值,所以应用最重要。我们具有能为企业整理数据的know-how和工具,如果只提供大模型而不协助整理数据,不能微调大模型,那么客户将无法有效使用大模型。

激动人心!重温这些珍贵的“首次”瞬间

做好数据梳理,帮企业落地模型才是王道雷峰网:与通用大模型相比,竹间做大模型的意义是什么?简仁贤:通用人工智能,AGI,并不能真正解决企业的业务问题,绝大多数的公司都不能把自己的私有数据上传出去。而且,我们所做的是能批量生产的模型,就像特斯拉的Model系列一样,我们并非只做一款模型,而是要能生产出N款模型。雷峰网:所以说,这也是对客户的挑战?简仁贤:对。微软也同样如此,他们使用GPT 4为Office全家桶和Bing等产品做了升级,他们所做的就是最后一公里的工作。

那么GPT 4的训练语料是谁做的呢?并不一定是GPT 4,可能是收集其他软件的人类使用数据,如 Twitter, Reddit, 等。同时,雷峰网还了解到,早在2021年GPT 2刚出来时竹间智能就开始研究,并逐渐把机器学习平台往大模型上迁移。我们会根据客户的需求帮他们定制适合的模型,无论是70亿参数,130亿参数,还是650亿参数的大模型,都在我们大模型工厂(LLM Factory)的服务范围内。如果坚持所有事情都从零开始,在企业落地阶段,可能并不现实。

我们在与客户交流的过程中发现,他们的需求不是高考,获取律师资格、取得MBA,他们需要的是解决自己的业务问题,而中大型模型就足以满足这一需求。那竹间提供的大模型工厂(LLM Factory)可以在短时间内,快速且低成本的,帮助企业构建自己的大模型,将其部署到本地并与现有系统融合,从而协助企业进行业务的升级。

激动人心!重温这些珍贵的“首次”瞬间

这个模型留在客户端,属于客户所有,而不是我们。随着今年大模型的爆发,现在大多数客户都明白了大模型能够给企业带来什么样的价值。

因此,企业的目标应该是让每个人都能使用到技术,而不是向外界夸耀自己的技术有多么强大。那么,如何架设一座桥梁跨越这个鸿沟呢?这座桥就是应用,就是产品。雷峰网:大模型工厂(LLM Factory)是大模型火了之后开始做的吗?简仁贤:不是,从2021年起,尽管大模型当时并未大热,竹间就开始关注大模型了,2022年中开始研究,现在我们已在内部进行应用实践。作为B端的服务提供者,我们在金融、能源、制造、消费、传媒等领域已经积累了丰富的经验。越早开始,积累的经验就越丰富,而后期投入则不可避免地要面对各种问题,这些问题我们往往已经解决过,现在的道路已经相对平坦。但值得注意的是,彼时国内对NLP的研发还处于空白,也没有一款成熟的NLP产品出现

就像我刚才举的例子,Transformer是谷歌开源的,但是在谷歌的PaLM 2中使用的训练数据是从GPT 4产生的语料中获取的。因此,模型安全至关重要,我们的模型工厂首先能保证数据安全,其次能保证模型安全,确保企业的所有数据都万无一失。

如果只有模型和知识,却没有应用,那么它就无法被人们所接受。雷峰网:那什么才是最重要的?简仁贤:真正重要的是,最后用大模型驱动做出的产品是否有实际应用价值。

客户将可以直接看到效果,竹间提供从准备数据,模型微调,最有效的微调方法,将微调训练的know-how开发到EmotiBrain的模型工厂中,而且成本相对较低,无需自备GPU资源,既可以享有定制化的大模型。雷峰网:所以您认为,大模型是不是自研已经不重要了?简仁贤:坦率来说,目前绝大多数的生成式AI都是基于谷歌开发的 Transformer 开发出来的模型, 如果谷歌没有开源Transformer,OpenAI就没法开发出ChatGPT,也就不会有GPT 4。

这就避免了客户需要购买大量的GPU,或是纠结于如何选择合适的模型,或者是走进大笔经费的无效投入。我们的通用大模型和模型工厂部署到客户端,结合客户的数据和行业know-how,再进行参数调整,便能微调训练出一个7B-65B的大模型。竹间智能不会开发布会哗众取宠,也不会向别人吹嘘自己的技术有多牛,而是让每个人都用到这项新技术,创造出能给用户带来价值的大模型产品。随着今年大模型的爆发,现在大多数客户都明白了大模型能够给企业带来什么样的价值。

大模型+知识+应用,才是未来软件的范式雷峰网:业界有人说以前的软件范式是信息+连接,未来是知识+陪伴,您认为未来软件的新范式是什么样的?简仁贤:我认为未来软件的范式是大模型+知识+应用。我们在与客户交流的过程中发现,他们的需求不是高考,获取律师资格、取得MBA,他们需要的是解决自己的业务问题,而中大型模型就足以满足这一需求。

越早开始,积累的经验就越丰富,而后期投入则不可避免地要面对各种问题,这些问题我们往往已经解决过,现在的道路已经相对平坦。像Open AI的GPT-4,由于模型参数庞大,需要的训练数据与维护工作量庞大,寻要的GPU资源更高达24000张A100-80G的GPU,是不可能将GPT-4这样的模型部署到客户端去操作。

完成训练后,我们的Benchmark 系统可以对训练结果进行比较,然后根据客户的不同业务场景与目标,为他们选择最合适的模型,企业不再需要花大钱组建模型训练团队。大模型是根据训练的数据来生成结果的。

种方式我们都采用,快速在企业场景中,落地应用,快速验证可商用化。转眼到2023年,在人们还在谈论大模型怎么做的时候,竹间智能就推出了大模型工厂(LLM Factory)。这样他们就能迅速理解并接受,他们不会关心这个应用程序背后是否有大模型。我们具有能为企业整理数据的know-how和工具,如果只提供大模型而不协助整理数据,不能微调大模型,那么客户将无法有效使用大模型。

Meta目前是开源领域中最大的企业,也是大模型的主要贡献者。从大模型的概念火出圈后,国内出现了多家大模型产品,诸如百度的文心一言、阿里商务千义通问、讯飞星火认知、商汤日日新...比比皆是,有关大模型的讨论也都是参数是多少、做到什么程度了等等。

因此,我认为未来的软件范式是模型+知识+应用。近8年来,企业对我们的信任度高,我们也深入理解他们在NLP的需求,有助于企业将大语言模型落地。

雷峰网:其实这也在一定程度上解决了数据安全的问题?简仁贤:我们的大模型服务强调的是数据安全和模型安全,事实上,模型安全更为重要,因为企业的许多know-how都融入了模型中。创办初期,简仁贤带领团队专心搞研发,2017年开始尝试做商业化探索,2020年形成规模化发展。

发布于 2021-10-21 14:50:21
收藏
分享
海报
0 条评论
833
上一篇:【三晋安全行】运城:多措并举筑牢安全生产防线? 下一篇:绿色低碳成为社会新风尚

「小礼物走一走?雪碧可乐来一罐!」

还没有人赞赏,支持一下吧

哇~真是太棒了

可乐雪碧奶茶加多宝矿泉水
支付宝
目录

    0 条评论

    本站已关闭游客评论,请登录或者注册后再评论吧~

    忘记密码?

    图形验证码