Una guida per principianti all'automazione nella scienza dei dati

Condividere su Facebook
Condividere su twitter
Condividere su linkato
Condividere su telegramma
Condividere su WhatsApp

Contenuti

introduzione

Los recursos liderados en ciencia de datos no están creciendo como se esperaba y el crecimiento es solo del 14%.

Incluso en la era digital actual, la ciencia de datos todavía requiere mucho trabajo manual. Almacenar los datos generados, limpiarlos, analisi esplorativa, visualizar los datos y finalmente ajustarle un modelo para permitir la toma de decisiones. El trabajo manual se puede automatizar hasta cierto punto y, così, el comienzo de la automatización en la ciencia de datos.

El ciclo de vida de un conjunto de datos en el proyecto de ciencia de datos es el siguiente

99307pic2-5-7207310

A excepción de la comprensión empresarial y la implementación del modelo, casi todos los aspectos de la canalización de la ciencia de datos están en proceso de automatización. Veamos algunos de los desarrollos en esta área.

Recopilación automática de datos

Dado que los datos son la piedra angular de todo análisis, debemos invertir una cantidad considerable de nuestro tiempo en comprenderlos. Los datos incompletos podrían dar lugar a modelos poco fiables o sesgados y, si la empresa tomara decisiones sobre estos modelos, no hace falta decir que conduciría a desastres que uno ni siquiera podría imaginar.

Dataprep es una biblioteca de Python de código abierto que nos permite preparar los datos con solo unas pocas líneas de código. Dataprep nos permite visualizar cualquier dato que falte en nuestro conjunto de datos, descubrir los datos que faltan es obligatorio mientras preparamos los datos para que podamos reemplazarlos con datos útiles en consecuencia.

A continuación se muestra la sintaxis para instalar la biblioteca Dataprep usando pip install

pip install -U dataprep

El conector es un componente de DataPrep que tiene como objetivo simplificar la recopilación de datos de las API web al proporcionar un conjunto estándar de operaciones. Es un contenedor de API de código abierto que acelera el desarrollo al realizar llamadas a múltiples API. Agiliza la llamada a múltiples API a través de una biblioteca intuitiva.

A continuación se muestra la sintaxis para instalar Dataprep.connector

from dataprep.connector import *

Veamos un ejemplo del uso de connect para recopilar datos. Con Connector, puede recopilar datos de uno de los principales sitios de recomendaciones en línea: Gañido.

from dataprep.connector import connect

# use the connect function with the "yelp" string and Yelp access token, both specified as parameters. This action allows us to create a Connector to the Yelp Web API:

yelp_connector = connect("yelp", _auth={"access_token":"<Your Yelp access token>"})

yelp_connector.info()# gives information on using Connector over Web API

Produzione

35957pic2-12-1919266

in questo esempio, solo hay un punto final disponible para Yelp: empresas. tuttavia, si desea conectarse a un punto final de Yelp diferente, puede crear un nuevo archivo de configuración.

yelp_connector.show_schema (“business”) # explorar el esquema de punto final “Azienda” de acuerdo con su definición de archivo de configuración

Limpieza automática de datos

La limpieza de datos es una de las tareas más tediosas para un científico de datos, ocupa su valioso tiempo. Ha sido un tema de investigación exclusiva durante los últimos años. Tanto las nuevas empresas como las empresas grandes y establecidas ofrecen automatización y herramientas para la limpieza de datos.

DataPrep.Clean tiene como objetivo proporcionar una gran cantidad de funciones con una interfaz unificada para limpiar y estandarizar datos de varios tipos semánticos en Pandas.

DataPrep.Clean contiene funciones simples diseñadas para limpiar y validar datos en un DataFrame. A continuación se muestran los aspectos más destacados de la biblioteca DataPrep.Clean.

El siguiente código demuestra cómo usar DataPrep.Clean. Usaremos el conjunto de datos waste_hauler del repositorio interno de conjuntos de datos de DataPrep.

from dataprep.clean import *
from dataprep.datasets import load_dataset
df = load_dataset('waste_hauler')

df.head()

Produzione

56911pic2-13-2536069
df = clean_headers(df)#converts the headers into snake case
print(df.colonne)
77063pic2-14-4153140

Hay muchas más funciones en dataprep.clean como se muestra a continuación

df = clean_phone(df, 'phone')#To standardize their formats, we can use the function clean_phone()

df = clean_address(df, 'local_address')#to standardize the inconsistencies in address


Exploración automática de datos:

La exploración de datos se refiere a los pasos preliminares en el análisis de datos y la construcción de modelos en los que los analistas de datos utilizan técnicas estadísticas para describir las características del conjunto de datos, como tamaño, qualità, cantidad y precisión, y resumirlo para comprender mejor la naturaleza de los datos.

DataPrep.EDA es la herramienta EDA más rápida y sencilla de Python. Permite a los científicos de datos comprender a los pandas con unas pocas líneas de código en segundos.

La función plot_missing () permite un análisis exhaustivo de los valores faltantes y su impacto en el conjunto de datos. A continuación se describe la funcionalidad de plot_missing () para un marco de datos dado df.

from dataprep.eda import plot_missing
from dataprep.datasets import load_dataset
df = load_dataset("titanic")
trama_mancante(df)
52798pic2-8-1768374

Hay muchas más funciones en dataprep.eda como se muestra a continuación

plot_correlation() #generates correlation matrices and correlation coefficient
complotto(df) #plots a histogram for each numerical column, a bar chart for each categorical column, and computes dataset statistics.

Nos permite crear informes detallados desde un Pandas / Dask DataFrame con la función create_report. DataPrep.EDA es 100 veces más rápido que las herramientas de creación de perfiles basadas en Pandas, genera visualizaciones interactivas en un informe que hace que el informe parezca más atractivo y también admite big data con millones de filas trabajando con lo que no era fácil con la biblioteca de pandas tradicional.

Modelado automático de ML:

El siguiente paso y el más buscado en el ciclo de vida de la ciencia de datos es el ajuste de modelos. El aprendizaje automático automatizado (AutoML) es actualmente la comidilla de la ciudad dentro de la comunidad de ciencia de datos. Auto ML nos proporciona las herramientas que nos ayudan a encontrar el modelo de aprendizaje automático apropiado para el conjunto de datos dado con la mínima participación del usuario.

LightAutoML es una de las bibliotecas de Python diseñada para realizar varias tareas como clasificación y regresión binaria / multiclase en conjuntos de datos tabulares, que contienen diferentes tipos de datos como numéricos, categorico, textos, eccetera.

Otro ejemplo es Auto-Sklearn. Es una biblioteca de Python que se utiliza para descubrir automáticamente modelos de alto rendimiento para tareas de regresión. Utiliza modelos de aprendizaje automático de la biblioteca de aprendizaje automático scikit-learn.

El beneficio de Auto-Sklearn es que, además de descubrir la preparación de datos y el modelo que funciona para un conjunto de datos, también puede aprender de modelos que funcionaron bien en conjuntos de datos similares y pueden crear automáticamente un conjunto de datos de alto rendimiento. modelos descubiertos como parte del proceso de optimización.

Nel seguente esempio, usaremos Auto-Sklearn para descubrir un modelo para el conjunto de datos de la sonda. il AutoSklearnClassifier está configurado para funcionar durante 5 minutos con 8 núcleos y limitar la evaluación de cada modelo a 30 secondi.

from pandas import read_csv
da sklearn.model_selection import train_test_split
from sklearn.preprocessing import LabelEncoder
from sklearn.metrics import accuracy_score
from autosklearn.classification import AutoSklearnClassifier
URL="https://raw.githubusercontent.com/jbrownlee/Datasets/master/sonar.csv"
dataframe = read_csv(URL, header=None)

# split into input and output elements
data = dataframe.values
X, y = dati[:, :-1], dati[:, -1]

# minimally prepare dataset
X = X.astype('float32')
y = LabelEncoder().fit_transform(y.astype('str'))

# split into train and test sets
X_treno, X_test, y_train, y_test = train_test_split(X, e, test_size=0,33, random_state=1)

# define search
model = AutoSklearnClassifier(time_left_for_this_task=5*60, per_run_time_limit=30, n_jobs=8)
model.fit(X_treno, y_train)#perform the search
Stampa(model.sprint_statistics())#summarize

Produzione

11168pic2-9-3886232

Evaluación del modelo:

Una vez construido el modelo, es hora de comprobar el rendimiento del mismo o más bien la precisión con la que está funcionando el modelo. Si la precisión no está a la altura de la marca, el modelo no se considera el ajuste correcto para ese conjunto de datos.

23568pic2-10-9035625

Como en el caso del ejemplo anterior, definimos una clase AutoSklearnClassifier para controlar la búsqueda y configurarla para que se ejecute durante un tiempo específico, Diciamo 2 minuti, y descartar cualquier modelo que tarde más de 30 segundos en evaluarse. Al final de estos 2 minuti, podemos revisar las estadísticas de la búsqueda y evaluar el modelo con mejor rendimiento.

# evaluate best model
y_hat = model.predict(X_test)
acc = accuracy_score(y_test, y_hat)
Stampa("Precisione: %.2F" % acc)

Se logró la precisión de clasificación del 81,2 per cento, lo que es razonablemente hábil.

Limitazioni

89720pic2-11-7147757

A pesar de que la automatización ha ido en aumento en los últimos tiempos, definitivamente hay algunas advertencias / desventajas. Lo más importante es que AutoML necesita más recursos, altrimenti, llevará más tiempo ejecutarlo. El procesamiento automático de aprendizaje automático de datos no estructurados y semiestructurados es técnicamente difícil.

Spesso, los problemas realistas son una combinación de múltiples objetivos, come tale, existe la necesidad de hacer diferencias sutiles entre la toma de decisiones y el costo, lo que requiere la intervención de un científico de datos. Siempre existirá la necesidad de puntos de control manuales donde los seres humanos puedan intervenir y firmar partes del proceso automatizado. Esto puede agregar la responsabilidad necesaria y ayudar con la regulación y la gobernanza. Perciò, la aprobación final siempre la dará el científico de datos.

Riferimenti

https://www.inciter.io/

https://dataprep.ai/

https://machinelearningmastery.co

Los medios que se muestran en este artículo sobre Automatización en la ciencia de datos no son propiedad de DataPeaker y se utilizan a discreción del autor.

Iscriviti alla nostra Newsletter

Non ti invieremo posta SPAM. Lo odiamo quanto te.