Aprendizado profundo para avaliação da qualidade de imagem de angiografia por tomografia de coerência óptica

Obrigado por visitar Nature.com.Você está usando uma versão de navegador com suporte CSS limitado.Para obter a melhor experiência, recomendamos que você use um navegador atualizado (ou desative o Modo de Compatibilidade no Internet Explorer).Além disso, para garantir suporte contínuo, mostramos o site sem estilos e JavaScript.
Sliders mostrando três artigos por slide.Use os botões voltar e avançar para percorrer os slides ou os botões do controlador de slides no final para percorrer cada slide.
A angiografia tomográfica de coerência óptica (OCTA) é um novo método para visualização não invasiva dos vasos da retina.Embora a OCTA tenha muitas aplicações clínicas promissoras, determinar a qualidade da imagem continua a ser um desafio.Desenvolvemos um sistema baseado em aprendizado profundo usando o classificador de rede neural ResNet152 pré-treinado com ImageNet para classificar imagens superficiais do plexo capilar de 347 exames de 134 pacientes.As imagens também foram avaliadas manualmente como verdadeiras por dois avaliadores independentes para um modelo de aprendizagem supervisionada.Como os requisitos de qualidade de imagem podem variar dependendo das configurações clínicas ou de pesquisa, dois modelos foram treinados, um para reconhecimento de imagens de alta qualidade e outro para reconhecimento de imagens de baixa qualidade.Nosso modelo de rede neural mostra uma excelente área sob a curva (AUC), IC 95% 0,96-0,99, \(\kappa\) = 0,81), que é significativamente melhor do que o nível de sinal relatado pela máquina (AUC = 0,82, 95 % CI).0,77–0,86, \(\kappa\) = 0,52 e AUC = 0,78, IC 95% 0,73–0,83, \(\kappa\) = 0,27, respectivamente).Nosso estudo demonstra que métodos de aprendizado de máquina podem ser usados ​​para desenvolver métodos de controle de qualidade flexíveis e robustos para imagens OCTA.
A angiografia tomográfica de coerência óptica (OCTA) é uma técnica relativamente nova baseada na tomografia de coerência óptica (OCT) que pode ser usada para visualização não invasiva da microvasculatura retiniana.OCTA mede a diferença nos padrões de reflexão de pulsos de luz repetidos na mesma área da retina, e as reconstruções podem então ser calculadas para revelar vasos sanguíneos sem o uso invasivo de corantes ou outros agentes de contraste.OCTA também permite imagens vasculares com resolução profunda, permitindo que os médicos examinem separadamente as camadas superficiais e profundas dos vasos, ajudando a diferenciar entre doenças coriorretinianas.
Embora esta técnica seja promissora, a variação da qualidade da imagem continua a ser um grande desafio para uma análise de imagem confiável, dificultando a interpretação da imagem e impedindo a adoção clínica generalizada.Como a OCTA utiliza múltiplas varreduras consecutivas de OCT, ela é mais sensível a artefatos de imagem do que a OCT padrão.A maioria das plataformas comerciais OCTA fornece sua própria métrica de qualidade de imagem chamada Signal Strength (SS) ou às vezes Signal Strength Index (SSI).Contudo, imagens com alto valor de SS ou SSI não garantem a ausência de artefatos de imagem, o que pode afetar qualquer análise de imagem subsequente e levar a decisões clínicas incorretas.Artefatos de imagem comuns que podem ocorrer em imagens OCTA incluem artefatos de movimento, artefatos de segmentação, artefatos de opacidade de mídia e artefatos de projeção1,2,3.
Como as medidas derivadas do OCTA, como a densidade vascular, são cada vez mais utilizadas em pesquisas translacionais, ensaios clínicos e prática clínica, há uma necessidade urgente de desenvolver processos de controle de qualidade de imagem robustos e confiáveis ​​para eliminar artefatos de imagem4.Conexões ignoradas, também conhecidas como conexões residuais, são projeções na arquitetura de redes neurais que permitem que informações contornem camadas convolucionais enquanto armazenam informações em diferentes escalas ou resoluções5.Como os artefatos de imagem podem afetar o desempenho geral da imagem em pequena escala e em grande escala, as redes neurais de conexão saltada são adequadas para automatizar essa tarefa de controle de qualidade5.Trabalhos publicados recentemente mostraram-se promissores para redes neurais convolucionais profundas treinadas usando dados de alta qualidade de estimadores humanos6.
Neste estudo, treinamos uma rede neural convolucional que ignora conexões para determinar automaticamente a qualidade das imagens OCTA.Baseamo-nos em trabalhos anteriores desenvolvendo modelos separados para identificar imagens de alta qualidade e imagens de baixa qualidade, uma vez que os requisitos de qualidade de imagem podem diferir para cenários clínicos ou de investigação específicos.Comparamos os resultados dessas redes com redes neurais convolucionais sem perder conexões para avaliar o valor da inclusão de recursos em vários níveis de granularidade no aprendizado profundo.Em seguida, comparamos nossos resultados com a intensidade do sinal, uma medida comumente aceita de qualidade de imagem fornecida pelos fabricantes.
Nosso estudo incluiu pacientes com diabetes que frequentaram o Yale Eye Center entre 11 de agosto de 2017 e 11 de abril de 2019. Foram excluídos pacientes com qualquer doença coriorretiniana não diabética.Não houve critérios de inclusão ou exclusão baseados em idade, sexo, raça, qualidade de imagem ou qualquer outro fator.
As imagens OCTA foram adquiridas usando a plataforma AngioPlex em um Cirrus HD-OCT 5000 (Carl Zeiss Meditec Inc, Dublin, CA) sob protocolos de imagem de 8\(\times\)8 mm e 6\(\times\)6 mm.O consentimento informado para participação no estudo foi obtido de cada participante do estudo, e o Conselho de Revisão Institucional da Universidade de Yale (IRB) aprovou o uso do consentimento informado com fotografia global para todos esses pacientes.Seguindo os princípios da Declaração de Helsínquia.O estudo foi aprovado pelo IRB da Universidade de Yale.
As imagens da placa de superfície foram avaliadas com base no Motion Artifact Score (MAS) descrito anteriormente, no Segmentation Artifact Score (SAS) descrito anteriormente, no centro foveal, na presença de opacidade da mídia e na boa visualização de pequenos capilares, conforme determinado pelo avaliador de imagens.As imagens foram analisadas por dois avaliadores independentes (RD e JW).Uma imagem tem uma pontuação de 2 (elegível) se todos os seguintes critérios forem atendidos: a imagem está centrada na fóvea (menos de 100 pixels do centro da imagem), MAS é 1 ou 2, SAS é 1 e a opacidade da mídia é menor que 1. Presente em imagens de tamanho /16, e pequenos capilares são vistos em imagens maiores que 15/16.Uma imagem será classificada como 0 (sem classificação) se algum dos seguintes critérios for atendido: a imagem estiver descentralizada, se MAS for 4, se SAS for 2 ou a opacidade média for maior que 1/4 da imagem, e os pequenos capilares não podem ser ajustados mais de 1 imagem/4 para distinguir.Todas as outras imagens que não atendem aos critérios de pontuação 0 ou 2 são pontuadas como 1 (recorte).
Na fig.1 mostra imagens de amostra para cada uma das estimativas em escala e artefatos de imagem.A confiabilidade interavaliadores dos escores individuais foi avaliada pela ponderação kappa de Cohen8.As pontuações individuais de cada avaliador são somadas para obter uma pontuação geral para cada imagem, variando de 0 a 4. Imagens com pontuação total de 4 são consideradas boas.Imagens com pontuação total de 0 ou 1 são consideradas de baixa qualidade.
Uma rede neural convolucional da arquitetura ResNet152 (Fig. 3A.i) pré-treinada em imagens do banco de dados ImageNet foi gerada usando fast.ai e a estrutura PyTorch5, 9, 10, 11. Uma rede neural convolucional é uma rede que usa o aprendido filtros para digitalizar fragmentos de imagens para estudar características espaciais e locais.Nosso ResNet treinado é uma rede neural de 152 camadas caracterizada por lacunas ou “conexões residuais” que transmitem informações simultaneamente com múltiplas resoluções.Ao projetar informações em diferentes resoluções pela rede, a plataforma pode aprender os recursos de imagens de baixa qualidade em vários níveis de detalhe.Além do nosso modelo ResNet, também treinamos AlexNet, uma arquitetura de rede neural bem estudada, sem perder conexões para comparação (Figura 3A.ii)12.Sem conexões perdidas, esta rede não será capaz de capturar recursos com maior granularidade.
O conjunto original de imagens OCTA13 de 8\(\times\)8mm foi aprimorado usando técnicas de reflexão horizontal e vertical.O conjunto de dados completo foi então dividido aleatoriamente no nível da imagem em conjuntos de dados de treinamento (51,2%), teste (12,8%), ajuste de hiperparâmetros (16%) e validação (20%) usando a caixa de ferramentas python14 do scikit-learn.Foram considerados dois casos, um baseado na detecção apenas de imagens de maior qualidade (pontuação geral 4) e outro baseado na detecção apenas de imagens de qualidade mais baixa (pontuação geral 0 ou 1).Para cada caso de uso de alta e baixa qualidade, a rede neural é treinada novamente uma vez em nossos dados de imagem.Em cada caso de uso, a rede neural foi treinada por 10 épocas, todos os pesos das camadas, exceto os mais altos, foram congelados e os pesos de todos os parâmetros internos foram aprendidos por 40 épocas usando um método de taxa de aprendizado discriminativo com uma função de perda de entropia cruzada 15, 16..A função de perda de entropia cruzada é uma medida da escala logarítmica da discrepância entre os rótulos de rede previstos e os dados reais.Durante o treinamento, a descida gradiente é realizada nos parâmetros internos da rede neural para minimizar perdas.Os hiperparâmetros de taxa de aprendizagem, taxa de abandono e redução de peso foram ajustados usando otimização Bayesiana com 2 pontos iniciais aleatórios e 10 iterações, e a AUC no conjunto de dados foi ajustada usando os hiperparâmetros como meta de 17.
Exemplos representativos de imagens OCTA de 8 × 8 mm de plexos capilares superficiais pontuaram 2 (A, B), 1 (C, D) e 0 (E, F).Os artefatos de imagem mostrados incluem linhas tremeluzentes (setas), artefatos de segmentação (asteriscos) e opacidade da mídia (setas).A imagem (E) também está descentralizada.
As curvas de características operacionais do receptor (ROC) são então geradas para todos os modelos de redes neurais, e os relatórios de intensidade do sinal do motor são gerados para cada caso de uso de baixa e alta qualidade.A área sob a curva (AUC) foi calculada usando o pacote pROC R, e os intervalos de confiança de 95% e os valores de p foram calculados usando o método DeLong18,19.As pontuações cumulativas dos avaliadores humanos são usadas como linha de base para todos os cálculos ROC.Para a intensidade do sinal relatada pela máquina, a AUC foi calculada duas vezes: uma vez para o ponto de corte do Índice de Escalabilidade de alta qualidade e uma vez para o ponto de corte do Índice de Escalabilidade de baixa qualidade.A rede neural é comparada com a intensidade do sinal AUC refletindo suas próprias condições de treinamento e avaliação.
Para testar ainda mais o modelo de aprendizagem profunda treinado em um conjunto de dados separado, modelos de alta e baixa qualidade foram aplicados diretamente à avaliação de desempenho de 32 imagens de lajes de superfície de 6\(\times\) 6mm de face completa coletadas da Universidade de Yale.A massa ocular é centralizada ao mesmo tempo que a imagem 8 \(\times \) 8 mm.As imagens de 6\(\×\) 6 mm foram avaliadas manualmente pelos mesmos avaliadores (RD e JW) da mesma maneira que as imagens de 8\(\×\) 8 mm, a AUC foi calculada, bem como a precisão e o kappa de Cohen .igualmente .
A razão de desequilíbrio de classe é 158:189 (\(\rho = 1,19\)) para o modelo de baixa qualidade e 80:267 (\(\rho = 3,3\)) para o modelo de alta qualidade.Como a proporção de desequilíbrio de classe é inferior a 1:4, nenhuma alteração arquitetônica específica foi feita para corrigir o desequilíbrio de classe20,21.
Para visualizar melhor o processo de aprendizagem, foram gerados mapas de ativação de classe para todos os quatro modelos de aprendizagem profunda treinados: modelo ResNet152 de alta qualidade, modelo ResNet152 de baixa qualidade, modelo AlexNet de alta qualidade e modelo AlexNet de baixa qualidade.Os mapas de ativação de classe são gerados a partir das camadas convolucionais de entrada desses quatro modelos, e os mapas de calor são gerados pela sobreposição de mapas de ativação com imagens de origem dos conjuntos de validação de 8 × 8 mm e 6 × 6 mm .
R versão 4.0.3 foi utilizado para todos os cálculos estatísticos, e as visualizações foram criadas usando a biblioteca de ferramentas gráficas ggplot2.
Coletamos 347 imagens frontais do plexo capilar superficial medindo 8 \(\times \)8 mm de 134 pessoas.A máquina relatou a intensidade do sinal em uma escala de 0 a 10 para todas as imagens (média = 6,99 ± 2,29).Das 347 imagens adquiridas, a média de idade ao exame foi de 58,7 ± 14,6 anos e 39,2% eram de pacientes do sexo masculino.De todas as imagens, 30,8% eram de caucasianos, 32,6% de negros, 30,8% de hispânicos, 4% de asiáticos e 1,7% de outras raças (Tabela 1).).A distribuição etária dos pacientes com OCTA diferiu significativamente dependendo da qualidade da imagem (p < 0,001).A porcentagem de imagens de alta qualidade em pacientes mais jovens de 18 a 45 anos foi de 33,8% em comparação com 12,2% de imagens de baixa qualidade (Tabela 1).A distribuição do status de retinopatia diabética também variou significativamente na qualidade da imagem (p < 0,017).Entre todas as imagens de alta qualidade, o percentual de pacientes com RDP foi de 18,8% comparado a 38,8% de todas as imagens de baixa qualidade (Tabela 1).
As classificações individuais de todas as imagens mostraram confiabilidade interavaliações moderada a forte entre as pessoas que leram as imagens (kappa ponderado de Cohen = 0,79, IC 95%: 0,76-0,82), e não houve pontos de imagem onde os avaliadores diferiram em mais de 1 (Fig. 2A)..A intensidade do sinal correlacionou-se significativamente com a pontuação manual (correlação do momento do produto de Pearson = 0,58, IC 95% 0,51–0,65, p<0,001), mas muitas imagens foram identificadas como tendo alta intensidade de sinal, mas baixa pontuação manual (Fig. .2B).
Durante o treinamento das arquiteturas ResNet152 e AlexNet, a perda de entropia cruzada na validação e no treinamento cai em mais de 50 épocas (Figura 3B,C).A precisão da validação na época final do treinamento é superior a 90% para casos de uso de alta e baixa qualidade.
As curvas de desempenho do receptor mostram que o modelo ResNet152 supera significativamente a potência do sinal relatada pela máquina em casos de uso de baixa e alta qualidade (p <0,001).O modelo ResNet152 também supera significativamente a arquitetura AlexNet (p = 0,005 e p = 0,014 para casos de baixa e alta qualidade, respectivamente).Os modelos resultantes para cada uma dessas tarefas foram capazes de atingir valores de AUC de 0,99 e 0,97, respectivamente, o que é significativamente melhor do que os valores de AUC correspondentes de 0,82 e 0,78 para o índice de intensidade do sinal da máquina ou 0,97 e 0,94 para AlexNet ..(Fig. 3).A diferença entre ResNet e AUC na intensidade do sinal é maior ao reconhecer imagens de alta qualidade, indicando benefícios adicionais do uso do ResNet para esta tarefa.
Os gráficos mostram a capacidade de cada avaliador independente de pontuar e comparar com a intensidade do sinal relatada pela máquina.(A) A soma dos pontos a serem avaliados é usada para criar o número total de pontos a serem avaliados.Imagens com uma pontuação geral de escalabilidade de 4 recebem alta qualidade, enquanto imagens com uma pontuação geral de escalabilidade de 1 ou menos recebem baixa qualidade.(B) A intensidade do sinal se correlaciona com estimativas manuais, mas imagens com alta intensidade de sinal podem ser de pior qualidade.A linha pontilhada vermelha indica o limite de qualidade recomendado pelo fabricante com base na intensidade do sinal (intensidade do sinal \(\ge\)6).
O aprendizado de transferência ResNet fornece uma melhoria significativa na identificação da qualidade da imagem para casos de uso de baixa e alta qualidade em comparação com os níveis de sinal relatados pela máquina.(A) Diagramas de arquitetura simplificados de arquiteturas pré-treinadas (i) ResNet152 e (ii) AlexNet.(B) Histórico de treinamento e curvas de desempenho do receptor para ResNet152 em comparação com a intensidade do sinal relatada pela máquina e os critérios de baixa qualidade do AlexNet.(C) Histórico de treinamento do receptor ResNet152 e curvas de desempenho em comparação com a intensidade do sinal relatada pela máquina e os critérios de alta qualidade AlexNet.
Depois de ajustar o limite de decisão, a precisão máxima de previsão do modelo ResNet152 é de 95,3% para o caso de baixa qualidade e 93,5% para o caso de alta qualidade (Tabela 2).A precisão máxima de previsão do modelo AlexNet é de 91,0% para o caso de baixa qualidade e 90,1% para o caso de alta qualidade (Tabela 2).A precisão máxima da previsão da intensidade do sinal é de 76,1% para o caso de uso de baixa qualidade e 77,8% para o caso de uso de alta qualidade.De acordo com o kappa de Cohen (\(\kappa\)), a concordância entre o modelo ResNet152 e os estimadores é de 0,90 para o caso de baixa qualidade e 0,81 para o caso de alta qualidade.O kappa AlexNet de Cohen é 0,82 e 0,71 para casos de uso de baixa e alta qualidade, respectivamente.O kappa de intensidade do sinal de Cohen é 0,52 e 0,27 para os casos de uso de baixa e alta qualidade, respectivamente.
A validação de modelos de reconhecimento de alta e baixa qualidade em imagens 6\(\x\) de uma placa plana de 6 mm demonstra a capacidade do modelo treinado para determinar a qualidade da imagem em vários parâmetros de imagem.Ao usar placas rasas de 6\(\x\) 6 mm para qualidade de imagem, o modelo de baixa qualidade teve uma AUC de 0,83 (IC 95%: 0,69–0,98) e o modelo de alta qualidade teve uma AUC de 0,85.(IC 95%: 0,55–1,00) (Tabela 2).
A inspeção visual dos mapas de ativação das classes da camada de entrada mostrou que todas as redes neurais treinadas usaram recursos de imagem durante a classificação da imagem (Fig. 4A, B).Para imagens de 8 \(\times \) 8 mm e 6 \(\times \) 6 mm, as imagens de ativação ResNet seguem de perto a vasculatura da retina.Os mapas de ativação AlexNet também seguem os vasos da retina, mas com resolução mais grosseira.
Os mapas de ativação de classe para os modelos ResNet152 e AlexNet destacam recursos relacionados à qualidade da imagem.(A) Mapa de ativação de classe mostrando ativação coerente após vasculatura retiniana superficial em imagens de validação de 8 \(\times \) 8 mm e (B) extensão em imagens de validação menores de 6 \(\times \) 6 mm.Modelo LQ treinado em critérios de baixa qualidade, modelo HQ treinado em critérios de alta qualidade.
Foi demonstrado anteriormente que a qualidade da imagem pode afetar significativamente qualquer quantificação de imagens OCTA.Além disso, a presença de retinopatia aumenta a incidência de artefatos de imagem7,26.Na verdade, em nossos dados, consistentes com estudos anteriores, encontramos uma associação significativa entre o aumento da idade e a gravidade da doença retiniana e a deterioração na qualidade da imagem (p < 0,001, p = 0,017 para idade e status de RD, respectivamente; Tabela 1) 27 Portanto, é fundamental avaliar a qualidade da imagem antes de realizar qualquer análise quantitativa de imagens OCTA.A maioria dos estudos que analisam imagens OCTA usam limites de intensidade de sinal relatados por máquina para descartar imagens de baixa qualidade.Embora tenha sido demonstrado que a intensidade do sinal afeta a quantificação dos parâmetros OCTA, a alta intensidade do sinal por si só pode não ser suficiente para descartar imagens com artefatos de imagem2,3,28,29.Portanto, é necessário desenvolver um método mais confiável de controle de qualidade de imagem.Para tanto, avaliamos o desempenho dos métodos de aprendizado profundo supervisionado em relação à intensidade do sinal relatada pela máquina.
Desenvolvemos vários modelos para avaliar a qualidade da imagem porque diferentes casos de uso de OCTA podem ter diferentes requisitos de qualidade de imagem.Por exemplo, as imagens devem ser de qualidade superior.Além disso, parâmetros quantitativos específicos de interesse também são importantes.Por exemplo, a área da zona avascular foveal não depende da turbidez do meio não central, mas afeta a densidade dos vasos.Embora a nossa investigação continue a concentrar-se numa abordagem geral à qualidade de imagem, não vinculada aos requisitos de qualquer teste específico, mas destinada a substituir directamente a intensidade do sinal comunicada pela máquina, esperamos dar aos utilizadores um maior grau de controlo para que possam pode selecionar a métrica específica de interesse do usuário.escolha um modelo que corresponda ao grau máximo de artefatos de imagem considerado aceitável.
Para cenas de baixa e alta qualidade, mostramos excelente desempenho de redes neurais convolucionais profundas com falta de conexão, com AUCs de 0,97 e 0,99 e modelos de baixa qualidade, respectivamente.Também demonstramos o desempenho superior da nossa abordagem de aprendizagem profunda quando comparado aos níveis de sinal relatados apenas pelas máquinas.As conexões de salto permitem que as redes neurais aprendam recursos em vários níveis de detalhe, capturando aspectos mais sutis das imagens (por exemplo, contraste), bem como recursos gerais (por exemplo, centralização da imagem30,31).Como os artefatos de imagem que afetam a qualidade da imagem são provavelmente melhor identificados em uma ampla faixa, as arquiteturas de redes neurais com conexões ausentes podem apresentar melhor desempenho do que aquelas sem tarefas de determinação da qualidade da imagem.
Ao testar nosso modelo em imagens OCTA de 6\(\×6mm), notamos uma diminuição no desempenho de classificação tanto para modelos de alta quanto de baixa qualidade (Fig. 2), em contraste com o tamanho do modelo treinado para classificação.Comparado ao modelo ResNet, o modelo AlexNet apresenta uma queda maior.O desempenho relativamente melhor do ResNet pode ser devido à capacidade das conexões residuais de transmitir informações em múltiplas escalas, o que torna o modelo mais robusto para classificar imagens capturadas em diferentes escalas e/ou ampliações.
Algumas diferenças entre imagens de 8 \(\×\) 8 mm e 6 \(\×\) imagens de 6 mm podem levar a uma classificação inadequada, incluindo uma proporção relativamente alta de imagens contendo áreas avasculares foveais, alterações na visibilidade, arcadas vasculares e nenhum nervo óptico na imagem 6×6 mm.Apesar disso, nosso modelo ResNet de alta qualidade foi capaz de atingir uma AUC de 85% para imagens de 6 \(\x\) 6 mm, configuração para a qual o modelo não foi treinado, sugerindo que as informações de qualidade da imagem codificadas na rede neural é apropriado.para um tamanho de imagem ou configuração de máquina fora de seu treinamento (Tabela 2).De forma tranquilizadora, mapas de ativação semelhantes a ResNet e AlexNet de imagens de 8 \(\times \) 8 mm e 6 \(\times \) 6 mm foram capazes de destacar vasos retinianos em ambos os casos, sugerindo que o modelo possui informações importantes.são aplicáveis ​​para classificar ambos os tipos de imagens OCTA (Fig. 4).
Lauerman et al.A avaliação da qualidade da imagem em imagens OCTA foi realizada de forma semelhante usando a arquitetura Inception, outra rede neural convolucional de conexão saltada6,32 usando técnicas de aprendizagem profunda.Eles também limitaram o estudo às imagens do plexo capilar superficial, mas usando apenas as imagens menores de 3×3 mm do Optovue AngioVue, embora também tenham sido incluídos pacientes com diversas doenças coriorretinianas.Nosso trabalho se baseia em seus fundamentos, incluindo vários modelos para abordar vários limites de qualidade de imagem e validar resultados para imagens de diferentes tamanhos.Também relatamos a métrica AUC dos modelos de aprendizado de máquina e aumentamos sua já impressionante precisão (90%)6 para modelos de baixa qualidade (96%) e alta qualidade (95,7%)6.
Este treinamento tem diversas limitações.Primeiramente, as imagens foram adquiridas com apenas um aparelho OCTA, incluindo apenas imagens do plexo capilar superficial em 8\(\times\)8 mm e 6\(\times\)6 mm.A razão para excluir imagens de camadas mais profundas é que os artefatos de projeção podem tornar a avaliação manual das imagens mais difícil e possivelmente menos consistente.Além disso, as imagens só foram adquiridas em pacientes diabéticos, para os quais a OCTA está emergindo como uma importante ferramenta diagnóstica e prognóstica33,34.Embora tenhamos conseguido testar o nosso modelo em imagens de diferentes tamanhos para garantir que os resultados eram robustos, não conseguimos identificar conjuntos de dados adequados de diferentes centros, o que limitou a nossa avaliação da generalização do modelo.Embora as imagens tenham sido obtidas de apenas um centro, elas foram obtidas de pacientes de diferentes origens étnicas e raciais, o que é um ponto forte único do nosso estudo.Ao incluir a diversidade no nosso processo de formação, esperamos que os nossos resultados sejam generalizados num sentido mais amplo e que evitemos codificar o preconceito racial nos modelos que treinamos.
Nosso estudo mostra que redes neurais que ignoram conexões podem ser treinadas para alcançar alto desempenho na determinação da qualidade da imagem OCTA.Fornecemos esses modelos como ferramentas para pesquisas futuras.Como métricas diferentes podem ter requisitos de qualidade de imagem diferentes, um modelo de controle de qualidade individual pode ser desenvolvido para cada métrica usando a estrutura aqui estabelecida.
Pesquisas futuras devem incluir imagens de diferentes tamanhos, de diferentes profundidades e diferentes máquinas OCTA para obter um processo de avaliação de qualidade de imagem de aprendizagem profunda que possa ser generalizado para plataformas OCTA e protocolos de imagem.A pesquisa atual também se baseia em abordagens de aprendizagem profunda supervisionada que requerem avaliação humana e avaliação de imagens, o que pode ser trabalhoso e demorado para grandes conjuntos de dados.Resta saber se os métodos de aprendizagem profunda não supervisionados podem distinguir adequadamente entre imagens de baixa qualidade e imagens de alta qualidade.
À medida que a tecnologia OCTA continua a evoluir e as velocidades de digitalização aumentam, a incidência de artefatos de imagem e imagens de baixa qualidade pode diminuir.Melhorias no software, como o recurso de remoção de artefatos de projeção recentemente introduzido, também podem aliviar essas limitações.No entanto, muitos problemas permanecem, pois a imagem de pacientes com má fixação ou turbidez significativa do meio invariavelmente resulta em artefatos de imagem.À medida que o OCTA se torna mais amplamente utilizado em ensaios clínicos, é necessária uma consideração cuidadosa para estabelecer diretrizes claras para níveis aceitáveis ​​de artefatos de imagem para análise de imagens.A aplicação de métodos de aprendizagem profunda a imagens OCTA é uma grande promessa e são necessárias mais pesquisas nesta área para desenvolver uma abordagem robusta ao controle de qualidade de imagem.
O código usado na pesquisa atual está disponível no repositório octa-qc, https://github.com/rahuldhodapkar/octa-qc.Os conjuntos de dados gerados e/ou analisados ​​durante o presente estudo estão disponíveis aos respectivos autores mediante solicitação razoável.
Spaide, RF, Fujimoto, JG & Waheed, NK Artefatos de imagem em angiografia de coerência óptica.Retina 35, 2163–2180 (2015).
Fenner, BJ et al.Identificação de características de imagem que determinam a qualidade e reprodutibilidade das medições de densidade do plexo capilar da retina na angiografia por OCT.BR.J. Oftalmol.102, 509–514 (2018).
Lauerman, JL et al.Influência da tecnologia de rastreamento ocular na qualidade da imagem da angiografia OCT na degeneração macular relacionada à idade.Arco grave.clínico.Exp.oftalmologia.255, 1535–1542 (2017).
Babyuch AS et al.As medições de densidade de perfusão capilar OCTA são usadas para detectar e avaliar isquemia macular.cirurgia oftalmológica.Imagem a laser da retina 51, S30 – S36 (2020).
He, K., Zhang, X., Ren, S., e Sun, J. Deep Residual Learning for Image Recognition.Em 2016 na Conferência IEEE sobre Visão Computacional e Reconhecimento de Padrões (2016).
Lauerman, JL et al.Avaliação automatizada da qualidade da imagem angiográfica de OCT usando algoritmos de aprendizagem profunda.Arco grave.clínico.Exp.oftalmologia.257, 1641–1648 (2019).
Lauermann, J. et al.A prevalência de erros de segmentação e artefatos de movimento na angiografia por OCT depende da doença da retina.Arco grave.clínico.Exp.oftalmologia.256, 1807–1816 (2018).
Pask, Adam et al.Pytorch: uma biblioteca de aprendizado profundo imperativa e de alto desempenho.Processamento avançado de informações neurais.sistema.32, 8026–8037 (2019).
Deng, J. et al.ImageNet: um banco de dados de imagens hierárquicas em grande escala.Conferência IEEE de 2009 sobre Visão Computacional e Reconhecimento de Padrões.248–255.(2009).
Classificação de Krizhevsky A., Sutzkever I. e Hinton GE Imagenet usando redes neurais convolucionais profundas.Processamento avançado de informações neurais.sistema.25, 1 (2012).


Horário da postagem: 30 de maio de 2023
  • conversamos
  • conversamos