HuggingFace

Hugging Face es una empresa y plataforma que se ha destacado en el campo del procesamiento del lenguaje natural (NLP)

Fue fundada en Brooklyn, en 2016, por Clément Delangue junto a Julien Chaumond y Thomas Wolf. La liga al proyecto HuggingFace es la siguiente: https://huggingface.co/

Estas son algunas de las empresas y organizaciones que utilizan los modelos Hugging Face y Transformer, que también contribuyen a la comunidad compartiendo sus modelos.

Librería Transformers de HuggingFace 🤗 en Python

La librería Transformers de Hugging Face es una herramienta poderosa para trabajar con modelos de lenguaje natural preentrenados y tareas relacionadas.

Dicha librería está diseñada para facilitar el uso y la implementación de modelos de lenguaje natural, como BERT, GPT, RoBERTa, y muchos otros.

Incluye un Pipeline API, que simplifica la ejecución de tareas comunes: análisis de sentimientos, clasificación de texto, generación de texto, entre otras.

Instalación

!pip install transformers[sentencepiece]

Análisis de sentimiento

from transformers import pipeline

# Cargar el modelo de análisis de sentimientos para español
classifier_es = pipeline("sentiment-analysis", model="nlptown/bert-base-multilingual-uncased-sentiment")

# Ejemplo de análisis de sentimientos en español
result = classifier_es("Estoy interesado en la platica")
print(result)
#result = classifier_es("Estoy muy feliz")
#print(result)

En este ejemplo, se está utilizando el modelo "nlptown/bert-base-multilingual-uncased-sentiment", que es un modelo BERT pre-entrenado en varios idiomas.

Etiquetado de texto

from transformers import pipeline

classifier_es = pipeline("zero-shot-classification", model="facebook/bart-large-mnli")

result = classifier_es(
    "Este es un curso sobre la biblioteca Transformers",
    candidate_labels=["educación", "política", "negocios"],
)

print(result)

En este ejemplo, se está utilizando el modelo "facebook/bart-large-mnli" que es un modelo BART preentrenado para varios idiomas (multilingüe). Donde candidate_labels: son las etiquetas posibles para la clasificación.

Generación de Texto

from transformers import pipeline

generator_es = pipeline("text-generation", model="datificate/gpt2-small-spanish")

result = generator_es("Hola a todos, hoy es")

print(result[0]['generated_text'])

En este ejemplo, se está utilizando el modelo "datificate/gpt2-small-spanish" que es un modelo GPT-2 pre-entrenado para el lenguaje español.

Traducción

from transformers import pipeline

translator_es_de = pipeline("translation", model="Helsinki-NLP/opus-mt-es-de")

result = translator_es_de("Buenas tardes, Gaby")

print(result[0]['translation_text'])

Estamos utilizando el modelo "Helsinki-NLP/opus-mt-es-de" para traducción del español (es) al alemán (de).

Los modelos de Hugging Face se pueden encontrar en el siguiente link: https://huggingface.co/models

Last updated