Galeria de mapas mentais pasta de dados e pasta de modelo
Este é um mapa mental sobre a pasta de dados e a pasta de modelo. A pasta de dados e a pasta de modelo são respectivamente responsáveis por armazenar dados e arquivos relacionados ao modelo no projeto e são uma parte importante do gerenciamento e operação do projeto.
Editado em 2024-02-08 15:42:24이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
이것은 (III) 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제에 대한 마인드 맵이며, 주요 함량은 다음을 포함한다 : 저산소증-유도 인자 프롤릴 하이드 록 실라 제 억제제 (HIF-PHI)는 신장 빈혈의 치료를위한 새로운 소형 분자 경구 약물이다. 1. HIF-PHI 복용량 선택 및 조정. Rosalasstat의 초기 용량, 2. HIF-PHI 사용 중 모니터링, 3. 부작용 및 예방 조치.
이것은 Kuka Industrial Robots의 개발 및 Kuka Industrial Robot의 모션 제어 지침에 대한 마인드 맵입니다. 주요 내용에는 쿠카 산업 로봇의 역사, 쿠카 산업 로봇의 특성, 쿠카 산업 로봇의 응용 분야, 2. 포장 프로세스에서 쿠카 로봇은 빠르고 일관된 포장 작업을 달성하고 포장 효율성을 높이며 인건비를 줄입니다. 2. 인건비 감소 : 자동화는 운영자에 대한 의존성을 줄입니다. 3. 조립 품질 향상 : 정확한 제어는 인간 오류를 줄입니다.
408 컴퓨터 네트워크가 너무 어렵습니까? 두려워하지 마세요! 나는 피를 구토하고 지식 맥락을 명확히하는 데 도움이되는 매우 실용적인 마인드 맵을 분류했습니다. 컨텐츠는 매우 완전합니다. 네트워크 아키텍처에서 응용 프로그램 계층, TCP/IP 프로토콜, 서브넷 디비전 및 기타 핵심 포인트에 이르기까지 원칙을 철저히 이해하는 데 도움이 될 수 있습니다. 📈 명확한 논리 : Mindmas 보물, 당신은 드문 기회가 있습니다. 서둘러! 이 마인드 맵을 사용하여 408 컴퓨터 네트워크의 학습 경로에서 바람과 파도를 타고 성공적으로 해변을 얻으십시오! 도움이 필요한 친구들과 공유해야합니다!
tema central
pasta de dados
Filhote
Dividir
Teste.csv
Conjunto de teste
Trem.csv
Conjunto de treinamento
Val.csv
Conjunto de validação
Miniimagenet
Dividir
Get_unlabel.py
Definir lista de categorias de imagens
Extraia dados de três arquivos CSV (train.csv, val.csv e test.csv) relacionados ao conjunto de dados Mini-ImageNet, agrupando os nomes dos arquivos e rótulos de categoria em um dicionário (mini_info) com os rótulos de categoria classificados em ordem
Leia dados de três arquivos CSV no diretório tieredimagenet/split e organize os nomes dos arquivos e rótulos de categoria em outro dicionário (tiered_info)
As categorias que aparecem na list_class_list, mas não na mini_class_list, são identificadas e essas categorias não rotuladas são armazenadas na lista sem rótulo. Em seguida, imprima o número de categorias não rotuladas e seus conteúdos
Escreva informações não rotuladas em um arquivo CSV para formar o arquivo unlabel.csv
conjunto de dados original
trem.csv
val.csv
teste.csv
Conjunto de dados gerado
sem rótulo.csv
Dados adicionais de teste e validação
Aux_test.csv
Aux_val.csv
Rede de imagens em camadas
Dividir
Get_spilt.py
Percorra diferentes partes do conjunto de dados (treinar, val, testar), gerar arquivos CSV correspondentes e gravar o caminho e o rótulo do arquivo no arquivo CSV para processamento de dados subsequente, treinamento de modelo e outras tarefas.
Conjunto de dados gerado
trem.csv
val.csv
teste.csv
pasta de modelo
Carregador de dados
Cub.py
Uma classe de conjunto de dados PyTorch CUB para carregar o conjunto de dados CUB (Caltech-UCSD Birds-200-2011).
Define constantes como caminho da imagem do conjunto de dados, caminho de segmentação e caminho do cache.
Função de pré-processamento de dados get_transforms:
Gere as transformações necessárias para a transformação de dados com base em parâmetros de entrada, incluindo corte aleatório, inversão horizontal aleatória, perturbação de cor e normalização.
Defina diferentes normalizações de dados de acordo com diferentes tipos de backbone para se adaptar às diferentes necessidades de treinamento do modelo.
Classe de conjunto de dados CUB:
Herda a classe Dataset do PyTorch e é usada para carregar conjuntos de dados CUB.
As seguintes operações são realizadas na função de inicialização __init__: analisa o arquivo CSV e obtém dados e rótulos.
Conte o número de categorias em um conjunto de dados.
Chame o método get_transforms para obter as transformações necessárias para a transformação de dados.
O método parse_csv é usado para analisar arquivos CSV e obter dados e informações de rótulo.
O método __len__ retorna o comprimento do conjunto de dados.
O método __getitem__ é usado para obter a amostra no índice especificado, que inclui: tentar usar a biblioteca jpeg4py para decodificar a imagem JPEG e, se isso falhar, usar a biblioteca PIL para abrir a imagem.
Aplique transformação de dados (pré-processamento) e retorne imagens e rótulos.
Mini_imagenet.py
Crie uma classe de conjunto de dados PyTorch (classe MiniImageNet) para trabalhar com o conjunto de dados MiniImageNet. Esta classe de conjunto de dados é usada para carregar dados de imagem e fornecer operações de pré-processamento e aprimoramento de dados correspondentes para treinar modelos de redes neurais.
Função de aprimoramento de dados get_transforms: Retorna a sequência de transformação de dois métodos de transformação de imagem (aprimorado e não aprimorado) com base no tamanho da imagem especificado, estrutura da rede neural (backbone) e intensidade de aprimoramento de dados
Classe de conjunto de dados MiniImageNet MiniImageNet: inclui funções como carregamento de dados, análise de caminho de imagem e aprimoramento de dados.
Método __init__: Inicialize a classe do conjunto de dados, aceite o nome da divisão do conjunto de dados e alguns parâmetros e chame a função get_transforms para obter o método de conversão de dados.
Método parse_csv: analisa caminhos de imagem e rótulos de arquivos CSV para construir conjuntos de dados.
Método __len__: Retorna o comprimento do conjunto de dados (número de imagens).
Método __getitem__: Obtenha o item de dados de acordo com o índice, tente usar a biblioteca jpeg4py para decodificar a imagem no formato JPEG, se falhar, use a biblioteca PIL.
Amostras.py
Para tarefas de meta-aprendizagem e classificação, o código implementa diferentes classes de amostragem para fornecer métodos flexíveis de amostragem e carregamento de dados para tarefas de meta-aprendizagem e uma estrutura flexível de amostragem e carregamento de dados para tarefas de meta-aprendizagem. implementar e testar diferentes algoritmos de meta-aprendizagem.
Categorias Classe Sampler:
Durante a inicialização, passe no rótulo (label), o número de amostras em cada lote (n_batch), o número de amostras em cada categoria (n_cls) e o número de amostras amostradas em cada lote de cada categoria (n_per).
Gere cada lote de dados por meio do método __iter__, selecione aleatoriamente n_per amostras para cada categoria e retorne um tensor unidimensional achatado.
Classe CategoriasViewSampler:
Durante a inicialização, passe no rótulo (label), o número de amostras em cada lote (n_batch), o número de amostras em cada categoria (n_cls), o número de amostras em cada categoria para o conjunto de suporte (n_shot), e o número de amostras em cada categoria para consulta O número de amostras no conjunto (n_query) e o número de visualizações em cada tarefa (n_view).
O método __iter__ gera cada lote de dados para cada categoria, n_shot n_query amostras são selecionadas aleatoriamente, das quais as primeiras n_shot são usadas para o conjunto de suporte e as últimas n_query são usadas para o conjunto de consultas. Os conjuntos de suporte são rotulados com informações adicionais indicando o número da visualização.
Classe RandomSampler:
Durante a inicialização, passe o rótulo (label), o número de amostras em cada lote (n_batch) e o número de rótulos por amostra em cada lote (n_per).
O método __iter__ gera dados para cada lote e n_per amostras são selecionadas aleatoriamente para cada lote.
Classe ClassSampler:
Durante a inicialização, passe o rótulo (label) e o número de amostras por lote (n_per) para cada categoria.
O método __iter__ gera dados para cada lote e, para cada categoria, n_per amostras são selecionadas aleatoriamente.
Classe InSetSampler:
Usado para ResNet Fine-Tune, o número de amostras em cada lote (n_batch), o número de rótulos para cada amostra em cada lote (n_sbatch) e o pool de amostras (pool) são transmitidos durante a inicialização.
O método __iter__ gera dados para cada lote e cada lote seleciona aleatoriamente n_sbatch amostras do conjunto de amostras.
Camadas_imagenet_raw.py
Usado principalmente para carregar o conjunto de dados Tiered ImageNet, fornecendo funções de pré-processamento de dados, carregamento de imagens e processamento de etiquetas
Modelos
_init_.py
Se um diretório contiver um arquivo chamado __init__.py, o Python tratará o diretório como um pacote, permitindo que você use a instrução import para importar módulos ou subpacotes no diretório.
Diz ao Python para também importar a classe FewShotModel no módulo model.models.base ao importar o pacote atual.
Maml.py
A estrutura Model-Agnostic Meta-Learning (MAML) implementada usando PyTorch é usada para meta-aprendizagem, implementa modelos MAML e fornece diferentes métodos de avaliação, incluindo avaliação de permutação e avaliação integrada. Esta é uma estrutura geral para meta-aprendizagem, aplicável a uma variedade de tarefas.
Seção 1: Importando bibliotecas e módulos
Parágrafo 2: função update_params
Esta função aceita um valor de perda, um dicionário de parâmetros (params) e atualiza os parâmetros usando gradiente descendente. A função retorna os parâmetros atualizados.
Parágrafo 3: função inner_train_step
A função inner_train_step representa a etapa interna de treinamento no meta-aprendizado. Ele aceita um modelo, suportando dados e alguns parâmetros, depois realiza o treinamento interno e retorna parâmetros atualizados após o treinamento interno.
Parágrafo 4: Classes MAML
Executa uma passagem direta de MAML, usando parâmetros treinados internamente. Existem outros métodos de avaliação como forward_eval, forward_eval_perm e forward_eval_ensemble.
Parágrafo 5: Implementação do modelo
Selecione ResNetMAML como rede backbone de acordo com a categoria de rede backbone fornecida e inicialize os parâmetros do modelo. A atualização dos parâmetros é realizada em inner_train_step, utilizando a função de perda de entropia cruzada para treinamento interno. Os resultados da previsão são dimensionados usando o parâmetro de temperatura.
MAMLUnicorn.py
Implementou um algoritmo de meta-aprendizagem, especificamente uma variante baseada em Model-Agnostic Meta-Learning (MAML), para tarefas de aprendizagem Few-Shot
Redes
Convnet.py
Define um modelo básico de rede neural convolucional (ConvNet)
Sua principal função é processar a imagem de entrada por meio de operações de convolução e pooling e, finalmente, gerar um tensor de recursos com canais z_dim, que pode ser usado para diversas tarefas, como classificação de imagens, extração de recursos, etc.
Convnet_maml.py
Um modelo baseado em meta-aprendizagem é implementado, especificamente o algoritmo MAML (Model-Agnostic Meta-Learning) para meta-aprendizagem em tarefas de aprendizagem de pequenas amostras.
Dropblock.py
Define um módulo PyTorch chamado DropBlock que implementa uma técnica de regularização chamada DropBlock
Res12.py
Rede neural projetada com base na arquitetura ResNet, usada principalmente para tarefas Few-Shot Learning
Toda a rede adota a estrutura do ResNet, mas o design leva em consideração as características da tarefa Few-Shot Learning, incluindo a introdução do DropBlock e o ajuste dinâmico de alguns parâmetros. Ao mesmo tempo, o código também contém operações de inicialização para parâmetros do modelo.
Res12_maml.py
Uma rede neural baseada na arquitetura ResNet, usada principalmente para adaptabilidade de modelos (Model-Agnostic Meta-Learning, MAML) e compartilhamento de parâmetros de modelo em meta-learning (Meta-Learning).