.
¡La semilla está plantada!
Comencemos desde el principio, cuando surgió la idea. Puede que estés pensando que la técnica de Deep Learning ha florecido recientemente, por lo que habría comenzado hace unos 20-30 años, pero déjame decirte que todo comenzó hace unos 78 años. Sí, lo leíste bien, la historia del aprendizaje profundoEl aprendizaje profundo, una subdisciplina de la inteligencia artificial, se basa en redes neuronales artificiales para analizar y procesar grandes volúmenes de datos. Esta técnica permite a las máquinas aprender patrones y realizar tareas complejas, como el reconocimiento de voz y la visión por computadora. Su capacidad para mejorar continuamente a medida que se le proporcionan más datos la convierte en una herramienta clave en diversas industrias, desde la salud... a menudo se remonta a 1943 cuando Walter Pitts y Warren McCulloch creó un modelo informático que apoyaba las redes neuronales del cerebro humano. Utilizaron una mezcla de algoritmos y aritmética que llamaron «lógica de umbral» para imitar el procedimiento de pensamiento.
Desde ese momento, Deep Learning ha evolucionado de manera constante, con solo dos rupturas significativas en su desarrollo. Ambos estaban vinculados a los infames inviernos de inteligencia artificial.
¡El brote de semillas es visible!
Durante la Guerra Fría, cuando los científicos estadounidenses intentaban traducir del ruso al inglés y algunos de los más grandes matemáticos como Alan Turing (a menudo conocido como el padre de la informática moderna) que creó el Prueba de Turing para probar la inteligencia de una máquina. Frank Rosenblatt, a un matemático se le ocurrió el primer modelo basado en redes neuronales llamado Perceptrón en el año 1958. Esto es equivalente al modelo de aprendizaje automático Regresión logística con una función de pérdidaLa función de pérdida es una herramienta fundamental en el aprendizaje automático que cuantifica la discrepancia entre las predicciones del modelo y los valores reales. Su objetivo es guiar el proceso de entrenamiento al minimizar esta diferencia, permitiendo así que el modelo aprenda de manera más efectiva. Existen diferentes tipos de funciones de pérdida, como el error cuadrático medio y la entropía cruzada, cada una adecuada para distintas tareas y... ligeramente distinto.
Inspiración: neurona biológica
Es claro por la historia que siempre nos inspiramos en la naturaleza y este caso no es distinto. Esto está muy inspirado por la naturaleza y la biología de nuestro cerebro. En ese momento, tenían una comprensión muy básica del funcionamiento de las neuronas en nuestro cerebro. Permítanme presentarles primero la neurona biológica.
Si tocamos el nivel de la superficie de una neurona biológica, entonces se compone principalmente de 3 partes, núcleo, dendritas y axones. Las señales / impulsos eléctricos son recibidos por estas dendritas conectadas al núcleo donde el propio núcleo realiza algún procesamiento y para terminar envía un mensaje en forma de señal eléctrica al resto de las neuronas conectadas por medio de axones. Esta es la explicación más simple del funcionamiento de una neurona biológica, las personas que estudian biología serían conscientes de cuán enormemente compleja es su estructura y exactamente cómo funciona.
Entonces, a esos matemáticos y científicos se les ocurrió la manera de representar matemáticamente esta neurona biológica donde hay n entradas para un cuerpo y cada una tiene algunos pesos, dado que todas las entradas pueden no ser igualmente importantes para producir la salida. Esta salida no es más que aplicar una función después de tomar la suma de los productos de estas entradas y sus respectivos pesos. Dado que esta idea del perceptrón está lejos de la compleja realidad de una neurona biológica, podemos decir que está vagamente inspirada en la biología.
¡Es un retoño ahora!
Ahora llegó la era en la que la gente preguntaba por qué no podíamos crear una red de neuronas conectadas que se inspirara de nuevo en el cerebro biológico de criaturas vivientes como seres humanos, monos, hormigas, etc., que simplemente disponen una estructura de neuronas interconectadas. Se hicieron muchos intentos desde la década de 1960, pero esto tuvo éxito en un post fundamental en 1986 por un grupo de matemáticos, uno de los cuales fue Geoffrey Hinton (tiene contribuciones fenomenales en el campo del aprendizaje automático y la IA).
Entonces se les ocurrió la idea de Retropropagación algoritmo. Resumidamente, podemos recordar este algoritmo como una regla de diferenciación en cadena. Esto no solo hizo factible el entrenamientoEl entrenamiento es un proceso sistemático diseñado para mejorar habilidades, conocimientos o capacidades físicas. Se aplica en diversas áreas, como el deporte, la educación y el desarrollo profesional. Un programa de entrenamiento efectivo incluye la planificación de objetivos, la práctica regular y la evaluación del progreso. La adaptación a las necesidades individuales y la motivación son factores clave para lograr resultados exitosos y sostenibles en cualquier disciplina.... de la Red Neural Artificial, sino que además creó una Bombo de la IA donde la gente hablaba de ello todo el día y pensaba que en los próximos 10 años sería factible que una máquina pensara como un humano.
Pese a que creó tanto revuelo, se desvaneció en la década de 1990 y este período llegó a ser conocido como el AI Invierno debido a que la gente lo promocionó mucho, pero el efecto real fue marginal en ese momento. ¿Cuál crees que podría ser el motivo? Antes de que te revele el motivo detrás de esto, me agradaría que le dieras una posibilidad.
Pensar…
Pensar…
Bien, aquí tienes.
¡Moho polvoriento en la planta!
Pese a que a los matemáticos se les ocurrió este hermoso algoritmo de retropropagación, debido a la falta de poder computacional en la década de 1990 y el falta de datos, esta exageración para terminar murió después de que el Departamento de Defensa de EE. UU. detuviera la financiación para la IA al ver el impacto marginal a lo largo de los años después de haber sido tan promocionado. Entonces, los algoritmos de aprendizaje automático como SVM, Random Forest y GBDT evolucionaron y se volvieron extremadamente populares entre 1995 y 2009.
¡Árbol maduro con flores!
Aunque todos pasaron a los algoritmos como SVM y todo, Geoffrey Hinton aún creía que la verdadera inteligencia se lograría solo por medio de las redes neuronales. Por lo tanto durante casi 20 años, dicho de otra forma, de 1986 a 2006, trabajó en redes neuronales. Y en 2006 se le ocurrió un trabajo fenomenal sobre el entrenamiento de una red neuronalLas redes neuronales son modelos computacionales inspirados en el funcionamiento del cerebro humano. Utilizan estructuras conocidas como neuronas artificiales para procesar y aprender de los datos. Estas redes son fundamentales en el campo de la inteligencia artificial, permitiendo avances significativos en tareas como el reconocimiento de imágenes, el procesamiento del lenguaje natural y la predicción de series temporales, entre otros. Su capacidad para aprender patrones complejos las hace herramientas poderosas... profunda. Este es el comienzo de la era conocida como Aprendizaje profundo. Este post de Geoffrey Hinton no recibió mucha popularidad hasta 2012.
Tal vez se pregunte qué es lo que hizo que las redes neuronales profundas fueran extremadamente populares en 2012. Entonces, en 2012, Stanford realizó una competencia llamada ImageNet, uno de los problemas más difíciles en ese entonces consistía en millones de imágenes y la tarea era identificar los objetos a partir de la imagen dada. Me agradaría que recordaran que en 2012, la gente tenía una enorme cantidad de datos, y al mismo tiempo, el cálculo era muy poderoso en comparación con lo que estaba presente en la década de 1980. La red neuronal profunda o Deep Learning para el caso superó a todos los algoritmos de aprendizaje automático en esta competencia.
Este fue el momento en que los grandes gigantes tecnológicos como Google, Microsoft, Facebook y otros comenzaron a ver el potencial del aprendizaje profundo y comenzaron a invertir fuertemente en esta tecnología.
¡Árbol maduro con frutas!
Hoy, si hablo de los casos de uso de Deep Learning, es factible es importante que sepas que algunos de los asistentes de voz populares como Google Assistant, Siri, Alexa funcionan con aprendizaje profundo. Al mismo tiempo, los coches autónomos de Tesla son posibles gracias a los avances en el aprendizaje profundo. Aparte de esto, además tiene sus aplicaciones en el sector de la salud. Creo firmemente que aún hay mucho potencial en Deep Learning que experimentaríamos en los próximos años.
Estos son algunos de mis perfiles sociales que tal vez quieras visitar:
LinkedIn: https://bit.ly/3ltBarT
Github: https://bit.ly/3rQAYoH
Medio: https://bit.ly/3a66Jn1
Los medios que se muestran en este post no son propiedad de DataPeaker y se usan a discreción del autor.