Carregando...

Blog Neurotech

Compartilhamos nossas melhores idéias aqui.
Home / Blog / DEEP LEARNING: MODA OU REALIDADE?

DEEP LEARNING: MODA OU REALIDADE?

Tem uma buzzword que tem acompanhado a maioria das conversas sobre Inteligência Artificial (IA) hoje em dia: Deep Learning. Mas não é só uma modinha, tanto que Deep Learning está no pico das expectativas do Hype Cycle - Gartner. Essa vertente está entre as mais avançadas na área de IA e é por onde vamos avançar nos próximos anos. Por isso, muita gente interessada em Inteligência Artificial como ferramenta de negócio tem me pedido para explicar o que é essa tecnologia. E o interesse aumenta quando digo que, com Deep Learning, a máquina “aprende” e consegue generalizar como nunca visto na história, o que faz as empresas terem ganho nas vendas, na redução dos custos e no aumento da satisfação do seu cliente.

A tradução em português, “aprendizagem profunda”, não é tão bacana, assim como outro termo usado, “redes neurais profundas”. Mas as duas expressões descrevem bem o que acontece quando estamos falando em Deep Learning, já que a própria máquina vai encontrar os padrões e correlações em uma grande profundidade. Ou seja, é um sistema que aprende a partir de um conjunto de dados e extrapola esse conhecimento de forma autônoma para um outro conjunto de dados, totalmente novos para o algoritmo. Algo muito mais próximo do que vemos em filmes de ficção científica (apesar de essas coisas de filme ainda estarem bem distantes mesmo).

Mas nem precisa ir muito longe. Deep Learning está entre nós em aplicações do dia a dia. Você já usou o tradutor do Google, por exemplo? Ele aprende a partir das informações (dados) que recebe dos usuários e também consegue melhorar as próprias respostas. O mesmo acontece com os famosos carros autônomos e assistentes virtuais como a do Android e Siri, do iOS. Outro caso é o AlphaGo, máquina que ganhou do “melhor humano do mundo” no jogo Go. Mas isso é só uma amostra de casos bem conhecidos. No Brasil já aplicamos essa tecnologia desde 1998. Dá pra acreditar?

Muitas empresas estão usando Deep Learning neste momento com seus dados, seja para lhe oferecer ofertas personalizadas, entender seu perfil para analisar uma proposta de crédito, checar sua digital para lhe dar acesso a algo ou conversar com clientes através de chatbots.

DIFERENÇA ENTRE MACHINE LEARNING E DEEP LEARNING

É natural que, com o crescimento do interesse das empresas em Inteligência Artificial, as pessoas queiram saber mais sobre o assunto e acabem confundindo os termos. De forma superficial, a Inteligência Artificial (IA) é um conceito mais amplo que engloba os sistemas que fazem as máquinas simularem a inteligência humana. Machine Learning é o conjunto de técnicas para chegar à IA via aprendizagem de dados e o conhecimento gerado em cima deles. Já o Deep Learning é uma subárea de Machine Learning que tem conseguido chegar a melhores resultados do que as técnicas tradicionais.

Tudo começou com Frank Rosenblatt através da criação do Perceptron em 1957 no Laboratório de Aeronáutica de Cornell. Em uma coletiva de imprensa de 1958 organizada pela Marinha dos EUA, Rosenblatt fez declarações sobre o Perceptron que causou uma controvérsia na comunidade de IA. O The New York Times relatou que o Perceptron como:

"O embrião de um computador eletrônico que a Marinha espera poder andar, falar, ver, escrever, reproduzir e ter consciência de sua existência".

Apesar do grande avanço, o Perceptron é um algoritmo de classificação binária. Ele faz suas previsões com base em uma função preditora linear combinando um conjunto de pesos com o vetor de recursos. Ou seja, um algoritmo linear para classificação de duas classes (bom ou mau cliente, fraude ou não fraude, venda ou não venda, etc).

Em 1970, Seppo Linnainmaa introduziu o modo reverso de diferenciação automática (AD). O objetivo era calcular eficientemente a derivada de uma função composta diferenciável que pode ser representada como um gráfico. Mais tarde, David E. Rumelhart, Ronald J. Williams e Geoffrey Hinton exploraram o algoritmo backpropagation para redes neurais multi-níveis (multi-layer neural networks).

Geoffrey Hinton é visto como o "Padrinho do Aprendizado Profundo". O grande marco de reconhecimento de imagem veio por meio do algoritmo AlexNet, projetado por seu aluno Alex Krizhevsky. Ele desenhou um Deep Learning para o desafio Imagenet em 2012 que tinha como objetivo fazer o reconhecimento automático de imagens. Esse algoritmo ajudou a revolucionar o campo da visão computacional porque até então, os algoritmos usavam técnicas tradicionais de machine learning. E, a partir do AlexNet, foi possível reduzir em 10% o erro do classificador. Note pela figura abaixo que após a divulgação do AlexNet em 2012, a área passou a ser dominada por DeepLearning (pontos em laranja).


Em 2012, o algoritmo AlexNet obteve 10% a menos na taxa de erro (ponto laranja em 2012),
o que fez com que, a partir dali, as aplicações de reconhecimento de imagem passassem a
utilizar DeepLearning


Tudo isso só foi possível graças a duas tendências:

  • Volume de dados cada vez maior: o volume de dados criados nos últimos dois anos é maior do que a quantidade produzida em toda a história da humanidade.
  • Capacidade de processamento: em 1998, o treino de uma rede neural com 50 mil registros e 50 atributos demorava 2 semanas. Hoje, treinamos modelos de Deep Learning na Neurotech com 12 milhões de registros e 5.000 variáveis em 1 hora

O TREINAMENTO DA MÁQUINA EM DEEP LEARNING

Para poder dar resultados em Machine Learning ou em Deep Learning, a máquina precisa ser treinada para pensar com um humano. Isso é feito com a inclusão de dados para serem processados pelas redes neurais artificiais, algoritmos criados para reconhecer padrões e classificar informações, assim como o cérebro faz. Desse modo, o sistema vai "treinar" com dados. Quanto mais dados e quanto mais relevantes eles forem, melhores serão os resultados do algoritmo.

É bom dizer que, em Deep Learning, o treinamento da máquina requer um volume maior de dados – e, por isso, é uma técnica mais indicada para quem já atua com Big Data, em geral médias e grandes empresas. Por outro lado, com a alta capacidade de processamento dessa tecnologia, os dados podem ser brutos, sem tanta necessidade de pré-processamento de dados como as técnicas de Machine Learning precisam.