Bloco A, sala 513-2
Quando precisamos decidir sobre uma questão critica, usualmente consultamos vários experts da área ao invés de confiarem no julgamento de um único consultor
Em aprendizado de máquina, um modelo pode ser considerado como um “expert”. Então combina-los é uma boa idéia?
Experimentalmente tem sido mostrado que modelos combinados apresentam melhores desempenhos do que um sistema decisório único
Melhor do que o melhor modelo selecionado usando cross validation.
Neutraliza ou minimiza drasticamente a instabilidade inerente dos algoritmos de aprendizagem.
Sistemas combinados reduzem a variância (decomposição bias-variance)
Em geral, quanto maior for o número de classificadores combinados, maior a redução da variância
Apesar de normalmente os sistemas combinados apresentarem melhores resultados, não há garantias que isto ocorrerá sempre.
Ainda é uma área de pesquisa com muito pontos para serem confirmados teoricamente.
Modelos combinados são mais difíceis de analisar.
Custo computacional
A estrutura do sistema
Tipos:
Também conhecido por vários outros nomes:
Tem sido utilizado com sucesso em problemas onde um único modelo não funciona bem.
Bons resultados são encontrados em várias aplicações em uma larga variedade de cenários
Abordagem: redudante ou paralela de combinação
Modelos: treinados com a mesma tarefa
Suas respostas são combinadas para produzir estimativas mais confiáveis
A fronteira de decisão que separa os dados de diferentes classes pode ser muito complexa ou estar fora do escopo do classificador.
A idéia de ensembles é que o sistema de classificação siga a abordagem dividir-para-conquistar;
O espaço de dados é dividido em porções menores e mais “fáceis” de aprender por diferentes classificadores;
Assim a linha base da fronteira de decisão pode ser aproximada por meio de uma combinação apropriada dos diferentes classificadores.
Muitos ensembles usam modelos "fracos" (weak classifier)
A combinação das saídas produzidas pelos classificadores reduz o risco de escolha por um classificador com um pobre desempenho
Os modelos são componentes que fornecem redundância
Um aspecto importante é diversidade
As técnicas mais conhecidas que combinam modelos para problemas de regressão e classificação são:
BAGGING
BOOSTING
Possui uma implementação simples e intuitiva;
A diversidade é obtida com o uso de diferentes subconjuntos de dados aleatoriamente criados com reposição;
Cada subconjunto é usado para treinar um classificador do mesmo tipo;
As saídas dos classificadores são combinadas por meio do voto majoritário com base em suas decisões;
Usado para a construção de ensembles com árvores de decisão;
Variação da quantidade de dados e atributos;
Usando árvores de decisão com diferentes inicializações;
A combinação de modelos do bagging pode reduzir overfitting. Ele atua principalmente na componente de variância do erro, e pode ser executado em paralelo.
Já o boosting pode atuar tanto na componente de bias quando na de variância do erro. Entretanto, ele pode levar a um overfitting e é executado sequencialmente.