Este artigo foi publicado como parte do Data Science Blogathon
Introdução
máquina. É inspirado no funcionamento de um cérebro humano e, portanto, é um conjunto de algoritmos de rede neural que tenta imitar o funcionamento do cérebro humano e aprender com as experiências.
Neste artigo, vamos a aprender cómo funciona una neuronal vermelhoAs redes neurais são modelos computacionais inspirados no funcionamento do cérebro humano. Eles usam estruturas conhecidas como neurônios artificiais para processar e aprender com os dados. Essas redes são fundamentais no campo da inteligência artificial, permitindo avanços significativos em tarefas como reconhecimento de imagem, Processamento de linguagem natural e previsão de séries temporais, entre outros. Sua capacidade de aprender padrões complexos os torna ferramentas poderosas.. básica y cómo se mejora a sí misma para hacer las mejores predicciones.
Tabela de conteúdos
- Redes neurais e seus componentes
- Perceptron e perceptron multicamadas
- Trabalho passo a passo da rede neural
- Propagação de retorno e como funciona
- Resumo sobre as funções de ativação
Redes neurais artificiais e seus componentes
Redes neurais é um sistema de aprendizagem computacional que usa uma rede de funções para entender e traduzir uma entrada de dados de uma forma em uma saída desejada, normalmente em outra forma. O conceito de rede neural artificial foi inspirado na biologia humana e na forma como neurônios do cérebro humano trabalham juntos para entender as entradas dos sentidos humanos.
Em palavras simples, redes neurais são um conjunto de algoritmos que tentam reconhecer padrões, relações de dados e informações através do processo que é inspirado e funciona como o cérebro / biologia humana.
Componentes (editar) / Arquitetura de rede neural
Uma rede neural simples consiste em três componentes :
- Camada de entradao "camada de entrada" refere-se ao nível inicial em um processo de análise de dados ou em arquiteturas de redes neurais. Sua principal função é receber e processar informações brutas antes de serem transformadas por camadas subsequentes. No contexto do aprendizado de máquina, A configuração adequada da camada de entrada é crucial para garantir a eficácia do modelo e otimizar seu desempenho em tarefas específicas....
- Manto oculto
- Camada de saídao "Camada de saída" é um conceito utilizado no campo da tecnologia da informação e design de sistemas. Refere-se à última camada de um modelo ou arquitetura de software que é responsável por apresentar os resultados ao usuário final. Essa camada é crucial para a experiência do usuário, uma vez que permite a interação direta com o sistema e a visualização dos dados processados....
Fonte: Wikipedia
Camada de entrada: Também conhecido como nós de entrada, são as entradas / informações do mundo externo que são fornecidas ao modelo para aprender e tirar conclusões. Os nós de entrada passam as informações para a próxima camada, quer dizer, camada escondida.
Manto oculto: A camada oculta é o conjunto de neurônios onde todos os cálculos são realizados nos dados de entrada. Pode haver qualquer número de camadas ocultas em uma rede neural. A rede mais simples consiste em uma única camada oculta.
Camada de saída: A camada de saída é a saída / conclusões do modelo derivadas de todos os cálculos realizados. Pode haver um ou mais nós na camada de saída. Se tivermos um problema de classificação binária, a nóO Nodo é uma plataforma digital que facilita a conexão entre profissionais e empresas em busca de talentos. Através de um sistema intuitivo, permite que os usuários criem perfis, Compartilhar experiências e acessar oportunidades de trabalho. Seu foco em colaboração e networking torna o Nodo uma ferramenta valiosa para quem deseja expandir sua rede profissional e encontrar projetos que se alinhem com suas habilidades e objetivos.... de salida es 1, mas no caso de classificação de múltiplas classes, nós de saída podem ser mais do que 1.
Perceptron e perceptron multicamadas
Perceptron é uma forma simples de rede neural e consiste em uma única camada onde todos os cálculos matemáticos são realizados.
Fonte: kindonthegenius.com
Enquanto que, Perceptron Multicamadas também conhecido como Redes neurais artificiais Consiste em mais de uma percepção que é agrupada para formar uma rede neural de várias camadas.
Fonte: Metade
Na foto acima, a rede neural artificial consiste em quatro camadas interconectadas:
- Uma camada de entrada, com 6 nós de entrada.
- Capa 1 escondido, com 4 nós ocultos / 4 perceptrons
- Manto oculto 2, com 4 nós ocultos
- Camada de saída com 1 nó de saída
Passo a passo Working de la red neuronal artificial
Fonte: Xenonstack.com
Na primeira etapa As unidades de entrada são passadas, quer dizer, os dados são passados com alguns pesos anexados à camada oculta.. Podemos ter qualquer número de camadas ocultas. Na foto acima, as entradas x1,X2,X3,… .XNorte passou.
Cada camada oculta consiste em neurônios. Todas as entradas estão conectadas a cada neurônio.
Depois de transmitir os ingressos, todos os cálculos são feitos na camada oculta (Oval azul na imagem)
O cálculo realizado em camadas ocultas é realizado em duas etapas que são as seguintes :
Em primeiro lugar, todas as entradas são multiplicadas por seus pesos. El peso es el gradienteGradiente é um termo usado em vários campos, como matemática e ciência da computação, descrever uma variação contínua de valores. Na matemática, refere-se à taxa de variação de uma função, enquanto em design gráfico, Aplica-se à transição de cores. Esse conceito é essencial para entender fenômenos como otimização em algoritmos e representação visual de dados, permitindo uma melhor interpretação e análise em... o coeficiente de cada variávelEm estatística e matemática, uma "variável" é um símbolo que representa um valor que pode mudar ou variar. Existem diferentes tipos de variáveis, e qualitativo, que descrevem características não numéricas, e quantitativo, representando quantidades numéricas. Variáveis são fundamentais em experimentos e estudos, uma vez que permitem a análise de relações e padrões entre diferentes elementos, facilitando a compreensão de fenômenos complexos..... Mostra a força da entrada particular. Depois de atribuir os pesos, uma variável de polarização é adicionada. Tendência é uma constante que ajuda o modelo a se encaixar da melhor maneira possível.
COM1 = W1*Sobre1 + C2*Sobre2 + C3*Sobre3 + C4*Sobre4 + C5*Sobre5 + b
C1, C2, C3, C4, W5 são os pesos atribuídos às entradas de entrada1, Sobre2, Sobre3, Sobre4, Sobre5, e b é o viés.
- Mais tarde, na segunda etapa, a o função de despertarA função de ativação é um componente chave em redes neurais, uma vez que determina a saída de um neurônio com base em sua entrada. Seu principal objetivo é introduzir não linearidades no modelo, permitindo que você aprenda padrões complexos em dados. Existem várias funções de ativação, como o sigmóide, ReLU e tanh, cada um com características particulares que afetam o desempenho do modelo em diferentes aplicações.... se aplica a la ecuación lineal Z1. A função de ativação é uma transformação não linear que é aplicada à entrada antes de enviá-la para a próxima camada de neurônios. A importância da função de ativação é incutir não linearidade no modelo.
Existem várias funções de ativação que serão listadas na próxima seção.
Todo o processo descrito no ponto 3 realizado em cada camada oculta. Depois de passar por todas as camadas ocultas, nós vamos para a última camada, quer dizer, nossa camada de saída que nos dá a saída final.
O processo explicado acima é conhecido como propagação direta.
Depois de obter as previsões da camada de saída, o erro é calculado, quer dizer, a diferença entre a produção real e esperada.
Se o erro for grande, então, medidas são tomadas para minimizar o erro e com o mesmo propósito, A propagação para trás é realizada.
O que é propagação para trás e como funciona?
A propagação reversa é o processo de atualizar e encontrar os valores ideais de pesos ou coeficientes que ajuda o modelo a minimizar o erro, quer dizer, a diferença entre os valores reais e previstos.
Mas aqui está a questão: Como os pesos são atualizados e os novos pesos calculados??
Pesos são atualizados com a ajuda de otimizadores.. Otimizadores são os métodos / formulações matemáticas para mudar os atributos das redes neurais, quer dizer, os pesos para minimizar o erro.
Propagação para trás inclinada para baixo
Gradient Descent é um dos otimizadores que ajuda a calcular os novos pesos. Vamos entender passo a passo como o Gradient Descent otimiza a função de custo.
Na imagem abaixo, a curva é nossa curva de função de custo e nosso objetivo é minimizar o erro de tal forma que Jmin quer dizer, mínimos globais são alcançados.
Fonte: Quora
Passos para alcançar mínimos globais:
Primeiro, pesos são inicializados aleatoriamente quer dizer, o valor aleatório do peso e as interseções são atribuídos ao modelo enquanto a propagação direta e erros são calculados depois de todo o cálculo. (Como discutido acima)
Então o o gradiente é calculado, quer dizer, derivado de erro com pesos atuais
Mais tarde, os novos pesos são calculados usando a seguinte fórmula, Onde a é a taxa de aprendizagem que é o parâmetro também conhecido como tamanho da etapa para controlar a velocidade ou etapas da propagação de retorno. Fornece controle adicional sobre a velocidade com que queremos nos mover ao redor da curva para atingir mínimos globais.
Fonte: hmkcode.com
4.Este processo de cálculo dos novos pesos, então os erros dos novos pesos e então a atualização dos pesos. continua até atingirmos as mínimas globais e a perda ser minimizada.
Um ponto a ter em mente aqui é que a taxa de aprendizagem, quer dizer, em nossa atualização de peso A equação deve ser escolhida com sabedoria. A taxa de aprendizagem é a quantidade de mudança ou o tamanho do passo dado para alcançar os mínimos globais. Não deve ser muito pequeno uma vez que vai demorar para convergir, assim como não deve ser muito grande que não atinge os mínimos globais em tudo. Por tanto, a taxa de aprendizagem é o hiperparâmetro que devemos escolher com base no modelo.
Fonte: Educative.io
Para saber a matemática detalhada e a regra da cadeia de retropropagação, ver anexo tutorial.
Resumo sobre as funções de ativação
Funções de gatilho são anexados a cada neurônio e são equações matemáticas que determinam se um neurônio deve disparar ou não com base em se a entrada do neurônio é relevante para a previsão do modelo ou não. O objetivo da função de ativação é introduzir não linearidade nos dados.
Vários tipos de funções de gatilho são:
- Função de ativação sigmóide
- Função de ativação TanH / Tangente hiperbólica
- Função de unidade linear retificada (retomarA função de ativação do ReLU (Unidade linear retificada) É amplamente utilizado em redes neurais devido à sua simplicidade e eficácia. Definida como ( f(x) = máx.(0, x) ), ReLU permite que las neuronas se activen solo cuando la entrada es positiva, lo que contribuye a mitigar el problema del desvanecimiento del gradiente. Su uso ha demostrado mejorar el rendimiento en diversas tareas de aprendizaje profundo, haciendo de ReLU una opción...)
- Leaky ReLU
- Softmax
Confira este blog para uma explicação detalhada das funções de ativação.
Notas finais
Aquí concluyo mi explicación paso a paso de la primera Red Neural de Aprendizaje ProfundoAqui está o caminho de aprendizado para dominar o aprendizado profundo em, Uma subdisciplina da inteligência artificial, depende de redes neurais artificiais para analisar e processar grandes volumes de dados. Essa técnica permite que as máquinas aprendam padrões e executem tarefas complexas, como reconhecimento de fala e visão computacional. Sua capacidade de melhorar continuamente à medida que mais dados são fornecidos a ele o torna uma ferramenta fundamental em vários setores, da saúde... o que é ANA. Tentei explicar o processo de Propagation Forwarding e Backpropagation da maneira mais simples possível. Espero que valha a pena ler este artigo 🙂
Por favor, sinta-se à vontade para se conectar comigo no LinkedIn e compartilhe sua valiosa contribuição. Por favor, verifique meus outros artigos aqui.
Sobre o autor
Soy Deepanshi Dhingra, Atualmente trabalho como pesquisador de ciência de dados e tenho formação em análise, Análise exploratória de dados, aprendizado de máquina e aprendizado profundo.
A mídia mostrada neste artigo sobre a rede neural artificial não é propriedade da DataPeaker e é usada a critério do autor.