in

Cómo usar BERT de la biblioteca de transformadores Hugging Face

0CBT3R2MMjM925OMb

Cómo usar BERT de la biblioteca de transformadores Hugging Face

Cómo usar BERT de la biblioteca de transformadores Hugging Face para cuatro tareas importantes

Saketh Kotamraju

18 de enero·11 min de lectura

0*CBT3R2MMjM925OMb

En este artículo, demostraré cómo usar BERT usando la biblioteca Hugging Face Transformer para cuatro tareas importantes. También le mostraré cómo puede configurar BERT para cualquier tarea para la que desee usarlo, además de las tareas estándar para las que fue diseñado.

Una revisión rápida de la arquitectura de BERT

BERT es un transformador bidireccional pre-entrenado tucantar una combinación de modelos de lenguaje enmascarado y predicción de la siguiente oración. La parte central de BERT son los codificadores bidireccionales apilados del modelo de transformador, pero durante el entrenamiento previo, se agrega un modelado de lenguaje enmascarado y un cabezal de predicción de la siguiente oración en BERT. Cuando digo «cabeza», me refiero a que se agregan algunas capas adicionales a BERT que se pueden usar para generar una salida específica. La salida sin procesar de BERT es la salida de los codificadores bidireccionales apilados. Este hecho es especialmente importante ya que le permite hacer cualquier cosa con BERT, y verá ejemplos de esto más adelante en el artículo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Usar GPS

Cómo descargar y usar Waze sin una conexión a Internet: rápido y fácil

oracle social share fb 480 2516041

¿Qué es la gestión de datos maestros (MDM)?