Modelos de clasificación en aprendizaje automático

Contenidos

Este artículo fue publicado como parte del Blogatón de ciencia de datos.

Introducción

classification-machine-learning-algorithms-6195900

Y aprendemos en el camino.

Las empresas, de manera similar, aplican su aprendizaje pasado a la toma de decisiones relacionadas con las operaciones y las nuevas iniciativas, por ejemplo, relacionadas con la clasificación de clientes, productos, etc. Sin embargo, aquí se vuelve un poco más complejo ya que hay múltiples partes interesadas involucradas. Además, las decisiones deben ser precisas debido a su impacto más amplio.

Con la evolución de la tecnología digital, los seres humanos han desarrollado múltiples activos; las máquinas son una de ellas. Hemos aprendido (y continuamos) a usar máquinas para analizar datos usando estadísticas para generar información útil que sirve como ayuda para tomar decisiones y pronósticos.

Las máquinas no hacen magia con datos, sino que aplican estadísticas simples.

En este contexto, revisemos un par de algoritmos de aprendizaje automático que se usan comúnmente para la clasificación e intentemos comprender cómo funcionan y se comparan entre sí. Pero primero, entendamos algunos conceptos relacionados.

Conceptos básicos

El aprendizaje supervisado se define como la categoría de análisis de datos donde el resultado objetivo es conocido o etiquetado, por ejemplo, si el cliente o los clientes compraron un producto o no. Sin embargo, cuando la intención es agruparlos en función de lo que todos compraron, entonces se convierte en Sin supervisión. Esto se puede hacer para explorar la relación entre los clientes y lo que compran.

Tanto la clasificación como la regresión pertenecen al aprendizaje supervisado, pero la primera se aplica cuando el resultado es finito, mientras que la última es para infinitos valores posibles de resultado (por ejemplo, predecir el valor en dólares de la compra).

La distribución normal es la conocida distribución en forma de campana de una variable continua. Ésta es una extensión natural de los valores que toma normalmente un parámetro.

Dado que los predictores pueden tener diferentes rangos de valores, por ejemplo, el peso humano puede ser de hasta 150 (kg), pero la altura típica es sólo de hasta 6 (pies); los valores necesitan escala (alrededor de la media respectiva) para hacerlos comparables.

La colinealidad es cuando dos o más predictores están relacionados, es decir, sus valores se mueven juntos.
Los valores atípicos son valores excepcionales de un predictor, que pueden ser ciertos o no.

regression-vs-classification-in-machine-learning-4568442

Regresión logística

La regresión logística utiliza el poder de la regresión para realizar la clasificación y lo ha estado haciendo muy bien durante varias décadas, para permanecer entre los modelos más populares. Una de las principales razones del éxito del modelo es su poder de explicabilidad, es decir, señalar la contribución de los predictores individuales, cuantitativamente.

A diferencia de la regresión que usa mínimos cuadrados, el modelo usa la probabilidad máxima para ajustar una curva sigmoidea en la distribución de la variable objetivo.

Dada la susceptibilidad del modelo a la multicolinealidad, aplicarlo paso a paso resulta ser un mejor enfoque para finalizar los predictores elegidos del modelo.

El algoritmo es una opción popular en muchas tareas de procesamiento del lenguaje natural, por ejemplo, detección de habla tóxica, clasificación de temas, etc.

plot-3541612

Redes neuronales artificiales

Las redes neuronales artificiales (ANN), llamadas así porque intentan imitar el cerebro humano, son adecuadas para conjuntos de datos grandes y complejos. Su estructura se compone de capas de nodos intermedios (similares a las neuronas) que se asignan juntas a las múltiples entradas y la salida de destino.

Es un algoritmo de autoaprendizaje, ya que comienza con un mapeo inicial (aleatorio) y, a partir de entonces, autoajusta iterativamente los pesos relacionados para ajustar con precisión la salida deseada para todos los registros. Las múltiples capas brindan una capacidad de aprendizaje profundo para poder extraer características de nivel superior de los datos sin procesar.

El algoritmo proporciona una alta precisión de predicción, pero es necesario escalar características numéricas. Tiene amplias aplicaciones en campos futuros que incluyen visión artificial, PNL, reconocimiento de voz, etc.

artificial-neural-network-3501528_960_720-5695969

Bosque aleatorio

Un bosque aleatorio es un conjunto confiable de múltiples árboles de decisión (o CART); aunque más popular para la clasificación que las aplicaciones de regresión. Aquí, los árboles individuales se construyen mediante ensacado (es decir, agregación de bootstraps que no son más que múltiples conjuntos de datos de trenes creados mediante muestreo de registros con reemplazo) y se dividen usando menos características. El bosque diverso resultante de árboles no correlacionados exhibe una variación reducida; por lo tanto, es más robusto frente al cambio de datos y traslada su precisión de predicción a nuevos datos.

Sin embargo, el algoritmo no funciona bien para conjuntos de datos que tienen muchos valores atípicos, algo que debe abordarse antes de la construcción del modelo.

Tiene amplias aplicaciones en los campos financiero, minorista, aeronáutico y muchos otros.

forest7-3591004

Bayes ingenuo

Si bien es posible que no nos demos cuenta de esto, ¡este es el algoritmo que se usa más comúnmente para filtrar correos electrónicos no deseados!

Aplica lo que se conoce como probabilidad posterior usando el Teorema de Bayes para hacer la categorización de los datos no estructurados. Y al hacerlo, asume ingenuamente que los predictores son independientes, lo que puede no ser cierto.

El modelo funciona bien con un pequeño conjunto de datos de entrenamiento, siempre que estén presentes todas las clases del predictor categórico.

naive-2432706

KNN

El algoritmo K-Nemost Neighbor (KNN) predice basándose en el número especificado (k) de los puntos de datos vecinos más cercanos. Aquí, el preprocesamiento de los datos es significativo ya que afecta directamente las mediciones de distancia. A diferencia de otros, el modelo no tiene fórmula matemática, ni capacidad descriptiva.

Aquí, el parámetro ‘k’ debe elegirse sabiamente; ya que un valor más bajo que el óptimo conduce a un sesgo, mientras que un valor más alto afecta la precisión de la predicción.

Es un modelo simple y bastante preciso que se prefiere principalmente para conjuntos de datos más pequeños, debido a los enormes cálculos involucrados en los predictores continuos.

En un nivel simple, KNN puede usarse en un entorno predictor bivariado, por ejemplo, altura y peso, para determinar el sexo dada una muestra.

knn2-8013361

Poniendolo todo junto

El rendimiento de un modelo depende principalmente de la naturaleza de los datos. Dado que los conjuntos de datos comerciales tienen múltiples predictores y son complejos, es difícil identificar un algoritmo que siempre funcione bien. Por lo tanto, la práctica habitual es probar varios modelos y encontrar el adecuado.

Como comparación de alto nivel, los aspectos más destacados que se encuentran generalmente para cada uno de los algoritmos anteriores se anotan a continuación en algunos parámetros comunes; para que sirva como instantánea de referencia rápida.

32753screenshot202020-11-2820at2010-09-4020pm-9816822

Además, existen múltiples palancas, por ejemplo, equilibrio de datos, imputación, validación cruzada, conjunto entre algoritmos, conjunto de datos de trenes más grande, etc. además del ajuste de hiperparámetros del modelo, que pueden utilizarse para ganar precisión. Si bien la precisión de la predicción puede ser lo más deseable, las empresas también buscan los predictores destacados que contribuyen (es decir, un modelo descriptivo o su explicabilidad resultante).

Finalmente, el aprendizaje automático permite a los humanos decidir cuantitativamente, predecir y mirar más allá de lo obvio, aunque a veces también en aspectos previamente desconocidos.

Suscribite a nuestro Newsletter

No te enviaremos correo SPAM. Lo odiamos tanto como tú.