T1 Redes Neurais Daniel Coelho Guimaraes 1021361
GRUPO 1 | GRUPO 2 | GRUPO 3 | ||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
II | III | IV | V | VI | VII | II | III | IV | V | VI | VII | II | III | IV | V | VI | VII | |
primeira hidden layer | 0 | 1 | 1 | 2 | 1 | 1 | 0 | 1 | 1 | 2 | 1 | 1 | 0 | 1 | 1 | 2 | 1 | 1 |
segunda hidden layer | 0 | 2 | 2 | 2 | 2 | 0 | 0 | 2 | 2 | 2 | 2 | 0 | 0 | 2 | 2 | 2 | 2 | 0 |
Class. Correta (%) | 53.03 | 90.98 | 90.46 | 91.33 | 79.33 | 91.33 | 50.60 | 89.42 | 89.60 | 91.33 | 76.66 | 91.3 | 56.49 | 90.12 | 89.94 | 86.66 | 77.33 | 86.66 |
Class. Incorreta (%) | 46.96 | 9.01 | 9.53 | 8.66 | 20.66 | 8.66 | 49.39 | 10.57 | 10.39 | 8.66 | 23.33 | 8.66 | 43.50 | 9.8 | 10.05 | 13.33 | 22.66 | 13.33 |
MAE (%) | 0.49 | 0.41 | 0.16 | 0.15 | 0.33 | 0.16 | 0.49 | 0.15 | 0.15 | 0.15 | 0.34 | 0.15 | 0.49 | 0.17 | 0.17 | 0.16 | 0.33 | 0.16 |
RMSE (%) | 0.50 | 0.49 | 0.28 | 0.29 | 0.40 | 0.28 | 0.53 | 0.29 | 0.29 | 0.27 | 0.42 | 0.28 | 0.49 | 0.29 | 0.29 | 0.32 | 0.41 | 0.32 |
RAE (%) | 99.32 | 31.53 | 33.25 | 30.67 | 66.30 | 32.19 | 99.57 | 30.95 | 31.28 | 30.42 | 68.56 | 31.32 | 100.12 | 35.29 | 34.72 | 33.52 | 67.62 | 33.72 |
RRSE (%) | 100.46 | 56.15 | 56.79 | 58.67 | 81.75 | 56.92 | 107.82 | 59.70 | 59.70 | 55.88 | 84.90 | 56.28 | 100.11 | 58.73 | 58.91 | 65.09 | 82.97 | 64.85 |
Instancias Corretamente Classificadas | 306 | 525 | 522 | 137 | 119 | 137 | 292 | 516 | 517 | 137 | 115 | 137 | 326 | 520 | 519 | 130 | 116 | 130 |
Instancias Incorretamente Classificadas | 271 | 52 | 55 | 13 | 31 | 13 | 285 | 61 | 60 | 13 | 35 | 13 | 251 | 57 | 58 | 20 | 34 | 20 |
Media (%) | Desvio Padrao (%) | |
---|---|---|
II | 53.37 | 2.41 |
III | 90.17 | 0.72 |
IV | 90 | 0.43 |
V | 89.77 | 2.69 |
VI | 77.76 | 1.39 |
VII | 89.76 | 2.68 |
Justificativa II: Nesse caso a rede realiza overfitting muito rápido pois aumentando o número de neuronios escondidos (o tamanho da rede) foi observado que a classificação se mantinha, logo nesse caso a rede não necessita ser muito flexível sendo desnecessário o uso de camadas escondidas.
obs: Após feita a normalização, os resultados obtidos (para a mesma configuração de neuronios) melhorou. Logo, a normalização teve efeito positivo na rede.
Justificativa IV: Ao variar o número de épocas com a mesma configuração o resultado foi curioso pois com uma época a rede teve um resultado significantemente pior (53 %) com 100 epócas o resultado foi o melhor obtido (90.46 %) e com 1000 épocas o resultado piorou um pouco (87 %). Isso indica, que esse algoritmo é ótimo para um número entre 100 e 1000 épocas o que é comprovado pois a configuração III classificou 90.98 % corretos com 500 épocas (default). A configuração dos neuronios permaceceu a mesma da configuração III, pois a estrutura da rede continuou a mesma assim como a entrada, logo não faz sentido variar os neurônios nesse caso.
Justificativa V: Utilizando 10% do conjunto de treino para validar foi observado que diferentemente da configuração I, agora a rede necessita ser mais flexível e se abdicar do padrão linear pois foi observado que que ao aumentar o número de camadas foi obtido mais acertos. Adcionando duas camadas uma com 2 e 2 neurônios foi possível realizar o ajuste fino que maximizava o número de acertos.
Justificativa VI: Realizando o filtro dos atributos numéricos para binários foi obtido um resultado pior que para a mesma configuração sem a utilização do filtro. O números de camadas escondidas e o número de neurônios em cada camada foi variado mas o resultado permaneceu. Isso sugere que alterar os atributos numéricos para algum outro formato como o binário pode empobrecer a rede i.e. reduzir sua velocidade e acurácia na classificação do padrão.
Justificativa VII: Após agrupar os atributos ESTC e NDEP em 2 grupos de valores, foi obtido um resultado melhor utilizando uma camada escondida com um neurônio comparado a configuração III. Esse resultado se deu pois alguns grupos de valores tinham quantidades insignificantes e essa filtro “MergeTwoValues” ajudou o algoritmo a encontrar um melhor resultado por eliminar o ruido na entrada. Foi obtido um resultado um pouco melhor com a configuração descrita, na configuração padrão (nenhuma camada escondida) o algoritmo teve performance um pouco pior por precisar de um pouco mais flexibilidade após o agrupamento.