Movatterモバイル変換


[0]ホーム

URL:


Ir al contenido
WikipediaLa enciclopedia libre
Buscar

Hugging Face

De Wikipedia, la enciclopedia libre
Hugging Face
Información de publicación
CreadorClément Delangue, Julien Chaumond y Thomas Wolf

Tiponegocio ycomunidad virtual
Campoaprendizaje automático
Sede centralBrooklyn (Estados Unidos) yParís (Francia)
Productosmodelos de IA, conjuntos de datos
Ingresos15 000 000 dólares estadounidenses
Empleados170
Miembro deBigScience Research Workshop yDataCite
FilialesHugging Face SAS
Sitio webhuggingface.co

Hugging Face, Inc. es una empresa estadounidense que desarrolla herramientas para crear aplicaciones utilizando elaprendizaje automático.[1]​ Es conocida por subiblioteca detransformadores creada para aplicacionesde procesamiento de lenguaje natural y su plataforma que permite a los usuarios compartir conjuntos de datos y modelos de aprendizaje automático.[2]

Historia

[editar]

La empresa fue fundada en 2016 por losfranceses Clément Delangue,[N 1]​ Julien Chaumond y Thomas Wolf, originalmente como una organización que desarrollaba una aplicaciónde chatbot dirigida a adolescentes.[3]​ Después deabrir el modelo detrás del chatbot, la empresahizo un giro para centrarse en el cometido de ser una plataforma para el aprendizaje automático. Su campo de acción es el procesamiento del lenguaje natural (NLP), también se centra en otras áreas del aprendizaje automático (ML), como lavisión de máquina (Machine Vision), elaprendizaje por refuerzo (Reinforcement Learning) o elaprendizaje supervisado (Supervised Learning).

  • En marzo de 2021 Hugging Face recaudó $ 40 millones en una ronda de financiación de la Serie B.[4]
  • El 28 de abril de 2021 la compañía lanzó el taller de investigación BigScience en colaboración con varios otros grupos de investigación para lanzar unmodelo grande de lenguaje abierto.[5]​ En 2022, el taller concluyó con el anuncio de BLOOM, un modelo de lenguaje grande multilingüe con 176 mil millones de parámetros.[6]
  • El 21 de diciembre de 2021 la empresa anunció la adquisición de Gradio, unabiblioteca de software que se utiliza para realizar demostraciones interactivas denavegador de modelos de aprendizaje automático.[7]
  • El 5 de mayo de 2022 anunció su ronda de financiación Serie C liderada por Coatue y Sequoia.[8]​ La compañía recibió una valoración de $ 2 mil millones.
  • El 13 de mayo de 2022 presentó su Programa de estudiantes embajadores (Student Ambassador Program) para ayudar a cumplir su objetivo de enseñar aprendizaje automático a 5 millones de personas para 2023.[9]
  • El 26 de mayo de 2022 anunció una asociación con Graphcore para optimizar su biblioteca de Transformers para Graphcore IPU.[10]
  • El 3 de agosto de 2022 anunció Private Hub, una versión empresarial de su Hugging Face Hub público que admiteSaaS o implementación local.[11]
  • En febrero de 2023 anunció una asociación conAmazon Web Services (AWS) que permitiría que los productos de Hugging Face estén disponibles para los clientes de AWS para usarlos como componentes básicos para sus aplicaciones personalizadas.[12]​ La compañía también dijo que la próxima generación de BLOOM se ejecutará en Trainium, unchip de aprendizaje automático patentado creado por AWS.[13][14]
  • Mayo de 2023: Hugging Face yServiceNow se asociaron para desarrollar StarCoder, un nuevo modelo de lenguaje de código abierto. El modelo creado como parte de la Iniciativa BigCode es una versión mejorada del modelo StarCoderBase entrenado en 35 mil millones de tokens dePython. StarCoder es un sistema gratuito de generación de código de IA alternativo a Copilot deGitHub,AlphaCode deDeepMind y CodeWhisperer de Amazon.[15]

Hugging Face Hub

[editar]

El Hugging Face Hub es una plataforma (servicio web centralizado) que aloja, según sus propias declaraciones, más de 120.000 modelos, 20.000 conjuntos de datos y 50.000 demos:[2][16]

  • Repositorios de código basados enGit, con funciones similares a GitHub, incluidas discusiones y solicitudes de incorporación de cambios para proyectos
  • Modelos, también con control de versiones basado en Git
  • Conjuntos de datos, principalmente en texto, imágenes y audio
  • Aplicaciones web ("espacios" y "widgets"), destinadas a demostraciones a pequeña escala de aplicaciones de aprendizaje automático.

Hugging Chat

[editar]

Como sugiere el nombre, HuggingChat es una interfaz de chat de IA. El competidor del conocidoChatGPT se implementó junto con la organización sin fines de lucroLAION y su modeloOpen Assistant. Al igual que ChatGPT, HuggingChat debe reaccionar a las entradas y, por ejemplo, escribir textos o códigos. Hugging Chat se lanzó en 2023 y, según HuggingFace, continuará expandiéndose.[2]

Otras bibliotecas

[editar]

Además de Transformers y Hugging Face Hub, el ecosistema Hugging Face contiene bibliotecas para otras tareas, comoel procesamiento de conjuntos de datos ("Datasets"), evaluación de modelos ("Evaluate"), simulación ("Simulate") y demostraciones de aprendizaje automático (" Gradio").[17]

Protección de datos

[editar]

Hugging Face no almacena datos de clientes en forma de cargas útiles o tokens que se reenvían al punto final de inferencia. Almacenan registros durante 30 días. Todos los puntos finales de inferencia utilizan TLS/SSL para cifrar los datos en tránsito.[18]

Notas

[editar]
  1. Clement Delangue, CEO de Hugging Face, trabajó anteriormente para Moodstocks, entre otros. Moodstocks, especializada en visión por computadora/reconocimiento de imágenes, fue adquirida por Google en 2016. Anteriormente, Delangue fundó "VideoNot.es", su producto: una herramienta que crea notas automáticamente al reproducir videos. En 2023, Delangue invirtió en "Scenario", una empresa emergente que se especializa en el desarrollo de aplicaciones de modelado de objetos 3D para Metaverse.

Referencias

[editar]
  1. «Hugging Face – The AI community building the future.».huggingface.co. Consultado el 20 de agosto de 2022. 
  2. abcAnn Kathrin Hermes (15 de mayo de 2023).«Was ist Hugging Face? - Open Source für Künstliche Intelligenz» [¿Qué es Hugging Face? - Código Abierto para Inteligencia Artificial](en alemán). Consultado el 17 de mayo de 2023. 
  3. «Hugging Face wants to become your artificial BFF».TechCrunch(en inglés estadounidense). 9 de marzo de 2017. Consultado el 17 de mayo de 2023. «“Hay mucha gente trabajando en inteligencia artificial para aplicaciones de utilidad o productividad”, dijo Delangue, cofundador y director ejecutivo, en septiembre de 2016, cuando la aplicación aún estaba en una versión beta privada temprana. “Estamos construyendo una IA para que te diviertas hablando con ella. Cuando hables con ella, te reirás y sonreirás, será entretenida".» 
  4. «Hugging Face raises $40 million for its natural language processing library». 11 de marzo de 2021. 
  5. «Inside BigScience, the quest to build a powerful open language model». 10 de enero de 2022. 
  6. «BLOOM».bigscience.huggingface.co. Consultado el 20 de agosto de 2022. 
  7. «Gradio is joining Hugging Face!».huggingface.co. Consultado el 20 de agosto de 2022. 
  8. Cai, Kenrick.«The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution».Forbes(en inglés). Consultado el 20 de agosto de 2022. 
  9. «Student Ambassador Program's call for applications is open!».huggingface.co. Consultado el 20 de agosto de 2022. 
  10. «Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers».huggingface.co. Consultado el 19 de agosto de 2022. 
  11. «Introducing the Private Hub: A New Way to Build With Machine Learning».huggingface.co. Consultado el 20 de agosto de 2022. 
  12. James Bourne (23 de febrero de 2023).«AWS and Hugging Face expand partnership to make AI more accessible»(en inglés). Consultado el 17 de mayo de 2023. 
  13. Bass, Dina (21 de febrero de 2023).«Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up».Bloomberg News. 
  14. Nellis, Stephen (21 de febrero de 2023).«Amazon Web Services pairs with Hugging Face to target AI developers».Reuters. 
  15. Daniel Domínguez.«Hugging Face Releases StarCoder, the Next-Generation LLM for Seamless Code Generation»(en inglés). Consultado el 17 de mayo de 2023. «StarCoder was trained in over 80 programming languages as well as text from GitHub repositories, including documentation and Jupyter programming notebooks, plus it was trained on over 1 trillion tokens and with a context window of 8192 tokens, giving the model an impressive 15.5 billion parameters. This has outperformed larger models like PaLM, LaMDA, and LLaMA, and has proven to be on par with or even better than closed models like OpenAI’s code-Cushman-001.» 
  16. «Hugging Face Hub documentation».huggingface.co. Consultado el 20 de agosto de 2022. 
  17. «Hugging Face - Documentation».huggingface.co. Consultado el 18 de febrero de 2023. 
  18. «Security & Compliance». Consultado el 17 de mayo de 2023. 
Control de autoridades

Obtenido de «https://es.wikipedia.org/w/index.php?title=Hugging_Face&oldid=165313032»
Categoría:
Categoría oculta:

[8]ページ先頭

©2009-2025 Movatter.jp