Deep Learning e Indústria 4.0

On 1 de julho de 2021 by admin

Deep Learning e Indústria 4.0: com o advento da Indústria 4.0, aplicações da inteligência artificial tornaram-se proeminentes devido aos avanços tecnológicos correspondentes. Vale salientar: a utilização de sensores e microcontroladores que constituem a base estrutural para a internet das coisas.

Dentre as mais variadas técnicas de machine learning, podemos ressaltar aquelas referentes às redes neurais artificiais densas (deep learning). Elucidaremos de maneira sucinta os conceitos fundamentais para a implementação das redes neurais referidas.

Neste post, iniciaremos pela descrição da estrutura mais básica em uma rede neural artificial, denominada como perceptron. Apresentaremos em seguida a extensão dos perceptrons o processo de Backpropagation.

Deep Learning e Indústria 4.0

No contexto Deep Learning e Indústria 4.0 possuimos o perceptron remete à mimetização do funcionamento de um neurônio natural. Pode ser compilado em três etapas: chegada de um sinal eletroquímico, processamento deste sinal e emissão do sinal processado.

Perceptron

De acordo com a figura 1 acima, na qual um sinal [ x1, x2 ] chega ao neurônio, que realiza seu processamento por meio de uma soma ponderada (ω1, ω2) com a complementação de um peso bias (θ), o resultado é usado como argumento da função de ativação não linear F(x), constituindo assim o sinal de saída S.

Ilustração da utilização de redes neurais: classificação de dados não lineares.
Classificação usando (a) regressão linear e (b) redes neurais.
Fonte: Vídeo MIT Introduction to Deep Learning | 6.S191

Considerando a complexidade do processo descrito, devemos entretanto observar que esta estrutura apresenta uma semelhança evidente com métodos de regressão linear, logo, podemos ressaltar que a devida distinção remete à implementação da função de ativação F(x), que acrescenta a não linearidade no sinal de saída, em vista
disso, esta estrutura apresenta-se como uma metodologia mais adequada para realizarclassificações de dados não lineares (Figura 2).

Industria 4.0 e Perceptron

Em geral, um neurônio não é suficiente para realizar as devidas classificações, o que remete na elaboração de um estrutura constituída por camadas de neurônios, conforme ilustramos na figura 3 acima, mantendo todas as etapas descritas no processo do perceptron.

O sinal de entrada será direcionado a dois neurônios que constituem a primeira camada interna, da qual resulta um sinal. Este será direcionado para a segunda camada, que por fim emite o sinal de saída, que será avaliado para o processo de aprendizagem.

Deste modo a rede neural representada na figura 3 poderia ser formulada pelo seguinte sistema de equações matriciais:

O sinal de entrada, junto ao peso bias, forma o vetor de entrada (x1, x2, θ), que será multiplicado pela primeira matriz, produzindo os argumentos (x3, x4) para as primeiras funções de ativação Fi(xi), da qual resulta o sinal da primeira camada interna (s3, s4), o qual será multiplicado pela segunda matriz, produzindo os argumentos (x5, x6, x7) da
segunda função de ativação Gi(xi), da qual resulta o sinal da segunda camada interna (s5, s6, s7), que por fim, será multiplicado pela terceira matriz, resultando no sinal de saída, e assim é como ocorre a propagação de um sinal por uma rede neural artificial.

O processo de aprendizagem Backpropagation

Considerando que estamos num processo de aprendizado supervisionado, podemos avaliar a qualidade do sinal de saída. Utilizando uma função que diferenciará este sinal da respectiva resposta esperada, obtendo deste modo o erro do sinal de saída:

J(ω) = ERRO = | RESPOSTA – SAÍDA |


Neste caso, os pesos devem ser ajustados para anularmos o erro calculado.

Deep Learning e Indústria 4.0: Método do gradiente descendente

Representação da busca pelo conjunto de pesos {ω} que minimizam a função erro
J(ω) usando o método do gradiente descendente.
Fonte: Vídeo MIT Introduction to Deep Learning | 6.S191

O conjunto ótimo dos pesos {ωi} pode ser determinado por métodos heurísticos ou determinísticos, como o método do gradiente descendente, ilustrado na figura 4 acima; neste caso a formulação matemática remete à definição do vetor gradiente, o qual estará direcionado sempre para o valor crescente da função erro J(ω), desse modo, o conjunto
de pesos que minimizam J(ω) podem ser determinados usando a seguinte expressão:

Observando a figura 4 em conjunto com a expressão acima, podemos afirmar que o conjunto de pesos na etapa i+1 será igual ao conjunto na etapa i menos o gradiente da função erro, o que remete ao termo descendente, multiplicada por uma constante α, que é definida como a taxa de aprendizagem da rede, pois seu valor indica a velocidade de varredura no espaço dos pesos.

Por fim, devemos salientar que, uma escolha adequada para esta constante propicia menores custos computacionais e resultados mais eficientes. Nos próximos artigos elucidaremos melhor sobre formulações de busca para estes pesos {ω}, inclusive àquelas referentes ao método do gradiente descendente.

Sobre o tema, temos mais textos no blog, como o link abaixo

Autor: Davi Chagas

http://www2.decom.ufop.br/imobilis/inteligencia-artificial-e-deep-learning/

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *