Uma máquina Boltzmann restrita (RBM) é uma rede neural artificial estocástica generativa que pode aprender uma distribuição de probabilidade sobre um conjunto de entradas. As RBMs são usadas para construir redes de crenças profundas (DBN).
Uma RBM é uma rede neural de duas camadas onde os nós visíveis estão totalmente conectados aos nós ocultos, mas os nós ocultos não estão conectados uns aos outros. Os nós ocultos formam uma cadeia de Markov que pode ser usada para gerar novas amostras a partir dos dados de entrada.
Os pesos das conexões entre os nós são aprendidos usando o algoritmo de divergência contrastiva. Os RBMs têm sido usados para redução de dimensionalidade, classificação e filtragem colaborativa. Quantas camadas tem a máquina Boltzmann? A máquina Boltzmann é um tipo de rede neural artificial que pode aprender as representações internas dos dados. Uma máquina Boltzmann tem dois tipos de nós: visíveis e ocultos. Os nós visíveis são os nós de entrada e os nós ocultos são os nós de saída. Os nós são interligados por um conjunto de pesos. Os pesos são atualizados por um processo chamado descida de gradiente estocástico.
Como funcionam as funções de ativação?
Funções de ativação são funções matemáticas que são usadas para decidir se um neurônio deve ou não ser ativado. Isto é feito multiplicando o sinal de entrada com um peso e depois passando-o através da função de ativação. A saída da função de ativação é então usada para determinar se o neurônio deve ou não ser ativado.
Há uma variedade de funções de ativação que podem ser usadas, mas as mais comuns são as funções sigmóide, tanh, e ReLU.
A função sigmóide é usada para comprimir o sinal de entrada num intervalo entre 0 e 1. Isto é útil para problemas de classificação onde queremos ser capazes de emitir uma probabilidade.
A função tanh é semelhante à função sigmóide, mas esmaga o sinal de entrada num intervalo entre -1 e 1. Isto pode ser útil para problemas de regressão.
A função ReLU é a função de ativação mais comumente usada em aprendizagem profunda. Ela simplesmente limita o sinal de entrada a 0, de modo que quaisquer valores negativos são ajustados para 0 e quaisquer valores positivos são deixados inalterados. Isto pode ser útil para problemas em que só queremos considerar valores positivos.
Como são treinados os RBMs?
O treinamento de uma Máquina Boltzmann Restrita (RBM) normalmente consiste em duas fases: uma fase de pré-treinamento e uma fase de afinação.
Na fase de pré-treinamento, o RBM é treinado usando aprendizagem não supervisionada em um conjunto de dados de entrada. Esta fase tipicamente consiste em ajustar iterativamente os pesos do RBM a fim de minimizar o erro entre a saída real do RBM e a saída desejada.
Na fase de ajuste fino, o RBM é treinado usando aprendizagem supervisionada em um conjunto de dados etiquetados. Esta fase normalmente consiste em ajustar iterativamente os pesos do RBM a fim de minimizar o erro entre a saída real do RBM e a saída desejada.
Porque se chama uma máquina Boltzmann? O termo "máquina Boltzmann" foi introduzido pela primeira vez por Geoffrey Hinton em um artigo publicado em 1986. No artigo, Hinton descreveu um tipo de rede neural que poderia ser usada para aprender as distribuições de probabilidade. O nome "máquina Boltzmann" vem do fato de que a rede é baseada na distribuição Boltzmann, que é uma distribuição de probabilidade que descreve a distribuição de energia em um sistema.