Manual Prático do Deep Learning - Redes Neurais Profundas
- Descrição
- Currículo
- FAQ
- Revisões
Já pensou se as Redes Neurais viessem com um Manual Prático de instruções passo-a-passo sobre como construí-las?
Pois é, esse manual agora existe!
Com ajuda desse Manual, você vai implementar desde os neurônios mais básicos (como o Perceptron, o Adaline e o Sigmoid) até uma Rede Neural completa com:
-
learning rate
-
momentum
-
dropout
-
regularização L1/L2
-
técnicas de inicialização de pesos (normal, uniform, e glorot/xavier)
-
mini-batch Gradiente Descendente
-
freezing
-
learning rate decay
-
early stopping
-
batch normalization
Além disso, esse Manual também contém segredos e dicas de especialistas pra lhe ajudar a treinar suas próprias Redes Neurais bem mais fácil, como:
-
quais os melhores valores para cada hiperparâmetro (learning rate, qtde. de camadas, qtde. neurônios, tamanho do batch, etc)?
-
o que fazer quando a rede não converge?
-
como evitar os problemas de vanishing/exploding gradients?
-
como identificar e resolver underfitting e overfitting?
Esse Manual também acompanha a ferramenta essencial pra implementação de Redes Neurais: a Backpropagation.
Poucas pessoas sabem utilizá-la, mas nesse Manual você encontra um método único e memorável de ensino conhecido como “deriva quem tá dentro e multiplica por quem tá fora!“.
Tudo isso feito pelo autor desse Manual, que:
-
é Google Developer Expert em Machine Learning desde 2018
-
trabalha com Machine Learning e Deep Learning desde 2016
-
é professor de Pós-Graduação em Machine Learning
-
é Doutor em Deep Learning
-
tem um nanodegree em Deep Learning
-
treina Redes Nerais desde 2015
-
1Apresentação do CursoVídeo Aula
-
2Inteligência Artificial, Machine Learning e Deep LearningVídeo Aula
-
3Por que estudar Deep Learning?Vídeo Aula
-
4Aplicações do Deep LearningVídeo Aula
-
5Regressão, Classificação, Aprendizado Não-Supervisionado e por ReforçoVídeo Aula
-
6Instalações e código-fonteVídeo Aula
Você pode acessar o código-fonte do repositório nesse link:
https://github.com/arnaldog12/Manual-Pratico-Deep-Learning
E baixar o miniconda nesse link:
https://docs.conda.io/en/latest/miniconda.html
Os slides podem ser baixados/visualizados nesse link:
https://www.icloud.com/keynote/0LZvPsaugs7uCqr4TS-keRh-g#Manual
-
7Perceptron e o bebê que joga pingue-pongueVídeo Aula
Vídeo completo: https://www.youtube.com/watch?v=1n5uFGk2pnc
-
8Intuição sobre o Perceptron - Parte 1 (Regressão)Vídeo Aula
-
9Intuição sobre o Perceptron - Parte 2 (Classificação)Vídeo Aula
-
10Manual do PerceptronVídeo Aula
-
11Como o Perceptron aprende?Vídeo Aula
-
12Learning Rate e seus efeitosVídeo Aula
-
13Implementando o Perceptron: revisãoVídeo Aula
-
14Implementando o Perceptron: pseudo-algoritmoVídeo Aula
-
15Implementando o Perceptron: classificação em pythonVídeo Aula
-
16Implementando o Perceptron: classificação em numpyVídeo Aula
-
17Exercício de classificaçãoVídeo Aula
-
18Implementando o Perceptron: regressão linearVídeo Aula
-
19Learning rates diferentes pra pesos e bias? Como assim??Vídeo Aula
-
20Exercício de regressãoVídeo Aula
-
21Questionário do PerceptronQuestionário
Nesse questionário, nós vamos revisar os conceitos aprendidos nesse módulo. Boa sorte!
-
22Manual do AdalineVídeo Aula
-
23Perceptron vs AdalineVídeo Aula
-
24Como o Adaline aprende?Vídeo Aula
⚠️ Atenção: aos 4:30, o sinal de menos é omitido da forma vetorial. Tal erro já foi corrigido nos slides (link no README do repositório).
-
25Resumos das diferenças entre o Perceptron e o AdalineVídeo Aula
-
26Implementando o Adaline: revisãoVídeo Aula
-
27Implementando o Adaline: regressãoVídeo Aula
-
28Implementando o Adaline: classificaçãoVídeo Aula
-
29Exercício de classificaçãoVídeo Aula
-
30Questionário do AdalineQuestionário
-
31Manual do Neurônio SigmoidVídeo Aula
-
32Entropia Cruzada (Cross-Entropy)Vídeo Aula
-
33Implementando o Neurônio Sigmoid: revisãoVídeo Aula
-
34Implementando o Neurônio Sigmoid: scikit-learnVídeo Aula
-
35Implementando o Neurônio Sigmoid: numpyVídeo Aula
-
36Exercício de Regressão Logística: scikit-learnVídeo Aula
-
37Exercício de Regressão Logística: numpyVídeo Aula
-
38Características das Funções de AtivaçãoVídeo Aula
-
39Função de Ativação LinearVídeo Aula
-
40Função de Ativação SigmoidVídeo Aula
-
41Função de Ativação TanhVídeo Aula
-
42Função de Ativação ReLUVídeo Aula
-
43Função de Ativação Leaky ReLUVídeo Aula
-
44Função de Ativação eLUVídeo Aula
-
45Qual função de ativação utilizar na prática?Vídeo Aula
-
46Função SoftmaxVídeo Aula
-
47Implementando as funções de ativação: linearVídeo Aula
-
48Implementando as funções de ativação: sigmoidVídeo Aula
-
49Implementando as funções de ativação: tanhVídeo Aula
-
50Implementando as funções de ativação: ReLUVídeo Aula
-
51Implementando as funções de ativação: leaky ReLUVídeo Aula
-
52Implementando as funções de ativação: eLUVídeo Aula
-
53O que vamos aprender nesse módulo?Vídeo Aula
-
54Circuitos de valores reais e o Alpinista CegoVídeo Aula
-
55Estratégia 1: Busca AleatóriaVídeo Aula
-
56Estratégia 2: Busca Aleatória LocalVídeo Aula
-
57Estratégia 3: Gradiente NuméricoVídeo Aula
-
58A definição de derivadasVídeo Aula
-
59Implementando o Gradiente NuméricoVídeo Aula
-
60Estratégia 4: Gradiente Analítico (implementação)Vídeo Aula
-
61Resumos das EstratégiasVídeo Aula
-
62Múltiplas PortasVídeo Aula
-
63Regra da Cadeia: introduçãoVídeo Aula
-
64Regra da Cadeia: aplicaçãoVídeo Aula
-
65Regra da Cadeia: implementaçãoVídeo Aula
-
66Interpretando as derivadasVídeo Aula
-
67Verificando as derivadas pelo Gradiente Analítico - parte 1Vídeo Aula
-
68Verificando as derivadas pelo Gradiente Analítico - parte 2Vídeo Aula
-
69Derivando o Neurônio SigmoidVídeo Aula
-
70Neurônio Sigmoid como um Circuito - Parte 1Vídeo Aula
-
71Se tornando um Ninja em Backpropagation - Parte 1Vídeo Aula
-
72Se tornando um Ninja em Backpropagation - Parte 2Vídeo Aula
-
73Se tornando um Ninja em Backpropagation - Parte 3Vídeo Aula
-
74Se tornando um Ninja em Backpropagation - Parte 4Vídeo Aula
-
75Se tornando um Ninja em Backpropagation - Parte 5Vídeo Aula
-
76Se tornando um Ninja em Backpropagation - Parte 6Vídeo Aula
-
77Se tornando um Ninja em Backpropagation - Parte 7Vídeo Aula
-
78Resumo dos Padrões de BackpropagationVídeo Aula
-
79Derivando o Neurônio Sigmoid como um Ninja!Vídeo Aula
-
80Derivando o Neurônio Sigmoid como um Ninja no Código - ForwardVídeo Aula
-
81Derivando o Neurônio Sigmoid como um Ninja no Código - BackpropVídeo Aula
-
82Exercício de BackpropagationVídeo Aula
-
83Exercício de Backpropagation - RespostaVídeo Aula