Galeria de mapas mentais Aprendizagem em conjunto
Inclui algoritmos de ensacamento e reforço, com introdução detalhada e descrição abrangente. Espero que seja útil para amigos interessados!
Editado em 2023-12-23 14:09:40A segunda unidade do Curso Obrigatório de Biologia resumiu e organizou os pontos de conhecimento, abrangendo todos os conteúdos básicos, o que é muito conveniente para todos aprenderem. Adequado para revisão e visualização de exames para melhorar a eficiência do aprendizado. Apresse-se e colete-o para aprender juntos!
Este é um mapa mental sobre Extração e corrosão de mim. O conteúdo principal inclui: Corrosão de metais, Extração de metais e a série de reatividade.
Este é um mapa mental sobre Reatividade de metais. O conteúdo principal inclui: Reações de deslocamento de metais, A série de reatividade de metais.
A segunda unidade do Curso Obrigatório de Biologia resumiu e organizou os pontos de conhecimento, abrangendo todos os conteúdos básicos, o que é muito conveniente para todos aprenderem. Adequado para revisão e visualização de exames para melhorar a eficiência do aprendizado. Apresse-se e colete-o para aprender juntos!
Este é um mapa mental sobre Extração e corrosão de mim. O conteúdo principal inclui: Corrosão de metais, Extração de metais e a série de reatividade.
Este é um mapa mental sobre Reatividade de metais. O conteúdo principal inclui: Reações de deslocamento de metais, A série de reatividade de metais.
Aprendizagem em Conjunto (Parte 1)
Introdução
Idéia; construir e combinar vários alunos fracos para completar tarefas de aprendizagem;
Ilustração:
Duas questões que precisam ser prestadas atenção na aprendizagem integrada
Como treinar um único aluno fraco?
Método 1: alterar o peso do conjunto de dados de treinamento
Método 2: alterar a distribuição de probabilidade do conjunto de dados de treinamento
Como combinar alunos fracos em alunos fortes?
Método 1: método de votação paralela
Método 2: método de ponderação serial
Duas categorias principais de aprendizagem em conjunto
Bagging: Não há forte dependência entre os alunos básicos e um método de paralelização que pode ser gerado simultaneamente
algoritmo representativo
floresta aleatória
Ideia de algoritmo: usar árvores de decisão como alunos fracos e integrar os alunos fracos no método de empacotamento
Como a floresta aleatória é aleatória? (alterando a distribuição de probabilidade do conjunto de dados)
Método 1: Floresta-RI
Cada vez que você constrói um conjunto de treinamento, você precisa selecionar aleatoriamente k amostras do conjunto de dados D e selecionar aleatoriamente n recursos de M recursos.
Ilustração:
Método 2: Floresta-RC
Cada vez que um conjunto de treinamento é construído, n recursos precisam ser selecionados aleatoriamente dos M recursos do conjunto de dados D e ponderados linearmente para formar um conjunto de dados contendo F novos recursos. (Número aleatório com coeficiente de peso [-1,1])
Ilustração:
Etapas do algoritmo
Etapa 1: Escolha um aluno fraco (árvore de decisão, KNN, regressão logística, etc.)
Etapa 2: construir um conjunto de treinamento baseado na aleatoriedade
Floresta-RI
Floresta-RC
Etapa 3: treinar o aluno fraco atual
Etapa 4: determinar se o aluno forte está qualificado com base no mecanismo de votação
Mecanismo de votação: o modo de todos os resultados fracos dos alunos
Ilustração:
Vantagens e desvantagens
vantagem
Durante o treinamento, as árvores são independentes umas das outras e a velocidade de treinamento é rápida.
O erro de generalização utiliza estimativa imparcial e o modelo tem forte capacidade de generalização.
Ele tem seu próprio conjunto de dados empacotados, portanto não há necessidade de separar o conjunto de validação cruzada
Diante de conjuntos de dados desequilibrados e ausentes, a precisão do modelo ainda é alta
deficiência
Florestas aleatórias podem se ajustar demais a alguns problemas ruidosos de classificação ou regressão
A floresta aleatória tem muitos parâmetros e é difícil de ajustar.
otimização
Visando o problema de muitos parâmetros e dificuldade de ajuste de parâmetros
Familiarize-se primeiro com os parâmetros e depois ajuste-os com base na pesquisa de grade.
Ilustração da influência dos parâmetros no modelo:
Boosting: Existe uma forte dependência entre os alunos básicos e um método de serialização que deve ser gerado serialmente.
algoritmo representativo
AdaBoost
Ideia de algoritmo: treinar um aluno fraco em cada rodada O peso das amostras de treinamento na rodada anterior é alterado e usado como dados de treinamento para o aluno fraco na próxima rodada. Finalmente, cada aluno fraco é combinado em um modelo integrado. ponderação linear.
Etapas do algoritmo
Etapa 1: Escolha um aluno fraco (árvore de decisão, KNN, regressão logística, etc.)
Etapa 2: inicializar ou atualizar pesos amostrais
Inicialize os pesos amostrais, ou seja, cada amostra tem o mesmo peso
Atualizar os pesos das amostras, ou seja, reduzir o peso das amostras classificadas corretamente e aumentar o peso das amostras classificadas incorretamente.
Ilustração:
Etapa 3: treinar o aluno fraco atual
Etapa 4: Calcule o peso do aluno fraco atual
Etapa 1: Calcular a taxa de erro do aluno fraco atual (a razão entre o número de amostras classificadas incorretamente e o número de todas as amostras)
Etapa 2: Calcular o peso do aluno fraco atual com base na taxa de erro
Ilustração:
Etapa 5: adicione o aluno fraco atual ao modelo linear e determine se ele está qualificado
modelo linear
Ilustração:
Como julgar?
Precisão de alunos fortes
O número de alunos fracos entre alunos fortes
Vantagens e desvantagens
vantagem
AdaBoost tem alta precisão
AdaBoost pode usar diferentes algoritmos de classificação como classificadores fracos e não está limitado a árvores de decisão.
deficiência
O treinamento de parâmetros é demorado
O desequilíbrio de dados pode facilmente levar à perda de precisão
O número de classificadores fracos não é fácil de determinar
otimização
Visando o consumo de tempo de treinamento: Use algoritmo de distribuição direta para acelerar a otimização dos parâmetros
Se o número de classificadores for difícil de determinar: use validação cruzada para auxiliar na determinação
GBDT (árvore de aumento de gradiente)
aumentar a árvore
Árvore de reforço de regressão: adição simples de vários regressores fracos
Árvore de aumento de classificação: basta adicionar vários classificadores fracos
Árvores de aumento de gradiente: classificação unificada, árvores de aumento de regressão
Ideia de algoritmo: usar a árvore de regressão CART como um aluno fraco, construir uma nova rodada de alunos fracos com base na perda dos alunos fracos e, finalmente, adicionar linearmente todos os alunos fracos.
Etapas do algoritmo
Etapa 1: Escolha um aluno fraco (árvore de decisão, KNN, regressão logística, etc.)
Etapa 2: Construir um conjunto de treinamento (aleatoriedade) calculando o gradiente negativo da função de perda do aluno fraco atual (residual de ajuste) e amostragem aleatória de recursos e amostras do conjunto de dados D
Etapa 3: treinar o aluno fraco atual
Etapa 4: adicione o aluno fraco atual ao modelo linear e determine se ele está qualificado
Vantagens e desvantagens
vantagem
Adequado para dados de baixa dimensão e pode lidar com dados não lineares
Usando algumas funções de perda robustas, é muito robusto para valores discrepantes
Devido às vantagens do ensacamento e do reforço, o nível teórico é superior ao da floresta aleatória e do adaboost.
deficiência
Dificuldade em treinar dados em paralelo devido a dependências entre alunos fracos
Dimensões de dados mais altas aumentarão a complexidade computacional do algoritmo.
Como o aluno fraco é um regressor, não pode ser usado diretamente para classificação.
otimização
Obtenha paralelismo parcial por meio de SGBT de autoamostragem
XGboost: uma implementação eficiente de GBDT, com novos termos de regularização e ajuste quadrático de expansão de Taylor da função de perda
LightGBM: Uma implementação eficiente do XGBoost, que discretiza recursos de ponto flutuante contínuo em k valores discretos e constrói um histograma com largura k, acelerando os cálculos e economizando recursos de espaço.