赞
踩
整理 | 彭慧中 责编 | 屠敏
出品 | CSDN(ID:CSDNnews)
备受瞩目的开源创业公司Hugging Face一周之内完成了价值1亿美元的C轮融资。在完成此轮融资之后,Hugging Face估值将达到20亿美元。
本轮融资仍由Lux Capital领投,红杉资本和Coatue首次参与跟投,其他跟投的投资方包括 Addition、Betaworks、AIX Ventures、Cygni Capital、Kevin Durant和Olivier Pomel这些Hugging Face原有的投资方。
Hugging Face创立于2016年。它的名字来源于一个表情符号,看起来像一张“张开双手拥抱你”的笑脸,最早是一家开发聊天机器人的企业。起初,他们想要打造一个可以理解任何类型对话主题的聊天机器人来为无聊的年轻人解闷。当然,这样的创意虽然看起来很好,但显然并没有做得很大。
HuggingFace的转变主要来源于它在NLP领域的贡献。在Google发布BERT(Bidirectional Encoder Representation from Transformers)模型不久之后,HuggingFace贡献了一个基于Pytorch的BERT预训练模型,即pytorch-pretrained-bert。相信这个库很多人都使用过,因为pytorch框架的友好、BERT的强大,以及pytorch-pretrained-bert的简单易用,使这个repo也是受到大家的喜爱,不到10天就突破了1000个star,于是也顺着NLP模型的发展不断扩张。后来,HuggingFace整合了他们贡献的NLP领域的预训练模型,发布了Transformers库(https://github.com/huggingface/transformers)。目前,Transformers库在GitHub上已有62.3k个Star,Fork数量达到了1.48k。
Transformers 为数以千计的预训练模型奠定了基础(包括我们熟知的Bert、GPT、GPT-2、XLM等),支持100多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨就是让最先进的 NLP 技术人人易用。Transformer还提供了便于快速下载和使用的API,让你可以把预训练模型用于给定文本上,在自己的数据集上对它们进行微调,然后通过modle hub与社区共享它们。此外,Transformer由三个最热门的深度学习库——Jax、PyTorch和TensorFlow支持,它们之间可以无缝整合。
Hugging Face的愿景是构建机器学习领域的GitHub。它是一个社区驱动型的平台,拥有大量的资源。开发人员可以在机器学习模型、数据集和 ML 应用程序上不断创建、创新和互相协作。
Hugging Face 还提供托管服务,允许你通过编程接口使用数千个模型的推理API,以及“自动训练”模型的能力。
现在,已有超过1万家公司正在使用该公司的服务来建立机器学习技术。这些公司的机器学习科学家、数据科学家和机器学习工程师在Hugging Face的产品和服务的帮助下,节省了无数时间,同时加快了他们的机器学习进程。
Hugging Face团队表示,本轮融资将用于人工智能的科研、开源、产品和以及人工智能民主化方面。他们相信,未来的人工智能的方向是通过公开分享模型、数据集、训练程序、评估指标和合作解决问题。开源和开放科学会带来信任,促进社区的稳健发展和持续创新,而未来的人工智能也一定是建立在这个基础之上的。
参考资料:
https://techcrunch.com/2022/05/09/hugging-face-reaches-2-billion-valuation-to-build-the-github-of-machine-learning/
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。