Utilizamos cookies para comprender de qué manera utiliza nuestro sitio y para mejorar su experiencia. Esto incluye personalizar el contenido y la publicidad. Para más información, Haga clic. Si continua usando nuestro sitio, consideraremos que acepta que utilicemos cookies. Política de cookies.

Presenta Sitios para socios Información LinkXpress
Ingresar
Publique su anuncio con nosotros
GLOBETECH PUBLISHING LLC

Deascargar La Aplicación Móvil




Herramienta de diagnóstico de IA funciona a la par que radiólogos en detección de enfermedades en radiografías de tórax

Por el equipo editorial de MedImaging en español
Actualizado el 21 Sep 2022
Print article
Imagen: Nueva herramienta supera el obstáculo principal en el diseño clínico de IA (Fotografía cortesía de Unsplash)
Imagen: Nueva herramienta supera el obstáculo principal en el diseño clínico de IA (Fotografía cortesía de Unsplash)

La mayoría de los modelos de inteligencia artificial (IA) requieren el etiquetado de conjuntos de datos durante su "entrenamiento" para que puedan aprender a identificar correctamente las patologías. Este proceso es especialmente engorroso para las tareas de interpretación de imágenes médicas, ya que implica la anotación a gran escala por parte de médicos humanos, lo que a menudo es costoso y requiere mucho tiempo. Por ejemplo, para etiquetar un conjunto de datos de rayos X de tórax, los radiólogos expertos tendrían que mirar cientos de miles de imágenes de rayos X una por una y anotar explícitamente cada una con las condiciones detectadas. Si bien los modelos de IA más recientes han tratado de abordar este cuello de botella de etiquetado aprendiendo de datos no etiquetados en una etapa de "entrenamiento previo", eventualmente requieren un ajuste fino en los datos etiquetados para lograr un alto rendimiento. Ahora, los científicos han desarrollado una herramienta de diagnóstico de IA que puede detectar enfermedades en radiografías de tórax, directamente a partir de descripciones del lenguaje natural contenidas en los informes clínicos que las acompañan.

El nuevo modelo llamado CheXzero que fue desarrollado por científicos de la Facultad de Medicina de Harvard (Boston, MA, EUA) y colegas de la Universidad de Stanford (Stanford, CA, EUA) es autosupervisado, en el sentido de que aprende de manera más independiente, sin necesidad de datos etiquetados a mano antes o después del entrenamiento. El paso se considera un avance importante en el diseño de IA clínica porque la mayoría de los modelos de IA actuales requieren una laboriosa anotación humana de grandes cantidades de datos antes de que los datos etiquetados alimenten el modelo para entrenarlo. El modelo se basa únicamente en radiografías de tórax y las notas en inglés que se encuentran en los informes de rayos X adjuntos. El modelo fue “entrenado” en un conjunto de datos disponible públicamente que contiene más de 377.000 radiografías de tórax y más de 227.000 notas clínicas correspondientes.

Luego, se probó su desempeño en dos conjuntos de datos separados de radiografías de tórax y las notas correspondientes recopiladas de dos instituciones diferentes, una de las cuales estaba en un país diferente. Esta diversidad de conjuntos de datos tenía como objetivo garantizar que el modelo funcionara igual de bien cuando se expusiera a notas clínicas que pueden usar una terminología diferente para describir el mismo hallazgo. Tras las pruebas, los investigadores identificaron con éxito patologías que no fueron anotadas explícitamente por médicos humanos. Superó a otras herramientas de IA autosupervisadas y funcionó con una precisión similar a la de los radiólogos humanos. El enfoque, dijeron los investigadores, eventualmente podría aplicarse a modalidades de imágenes mucho más allá de los rayos X, incluidas las tomografías computarizadas, las resonancias magnéticas y los ecocardiogramas.

“Estamos viviendo los primeros días de los modelos médicos de inteligencia artificial de próxima generación que pueden realizar tareas flexibles aprendiendo directamente del texto”, dijo el investigador principal del estudio, Pranav Rajpurkar, profesor asistente de informática biomédica en el Instituto Blavatnik en HMS. “Hasta ahora, la mayoría de los modelos de IA se han basado en la anotación manual de grandes cantidades de datos, alrededor de 100.000 imágenes, para lograr un alto rendimiento. Nuestro método no necesita tales anotaciones específicas de la enfermedad”.

“Con CheXzero, uno puede simplemente alimentar al modelo con una radiografía de tórax y el informe de radiología correspondiente, y aprenderá que la imagen y el texto en el informe deben considerarse similares; en otras palabras, aprenderá a coincidir la radiografía de tórax con su informe adjunto”, agregó Rajpurkar. “El modelo puede eventualmente aprender cómo los conceptos en el texto no estructurado se corresponden con los patrones visuales en la imagen”.

Enlaces relacionados:
Facultad de Medicina de Harvard  
Universidad de Stanford

Miembro Oro
Solid State Kv/Dose Multi-Sensor
AGMS-DM+
New
X-Ray Detector
FDR-D-EVO III
New
Brachytherapy Planning System
Oncentra Brachy
Under Table Shield
3 Section Double Pivot Under Table Shield

Print article
Radcal

Canales

RM

ver canal
Imagen: El MRgFUS puede tratar con éxito el cáncer de próstata para aquellos en riesgo intermedio (Fotografía cortesía de 123RF)

Terapia de ultrasonido enfocado guiada por resonancia magnética se muestra prometedora en tratamiento del cáncer de próstata

Los médicos y radiólogos intervencionistas utilizan la terapia de ultrasonido enfocado guiado por resonancia magnética (MRgFUS) para apuntar con precisión áreas específicas... Más

Ultrasonido

ver canal
Imagen: Estructura del transductor de ultrasonido transparente propuesto y su transmitancia óptica (Fotografía cortesía de POSTECH)

Transductor de ultrasonido transparente de banda ancha ultrasensible mejora diagnóstico médico

El sistema de imágenes de modo dual ultrasonido-fotoacústico combina el contraste de imágenes moleculares con imágenes de ultrasonido. Puede mostrar detalles moleculares y estructurales... Más

Medicina Nuclear

ver canal
Imagen: PET/CT de un paciente masculino de 60 años con sospecha clínica de cáncer de pulmón (Fotografía cortesía de  EJNMMI Physics)

Adquisición temprana de PET FDG dinámica de 30 minutos podría reducir a la mitad tiempos de exploración pulmonar

Las exploraciones PET FDG F-18 son una forma de observar el interior del cuerpo utilizando un tinte especial, y estas exploraciones pueden ser estáticas o dinámicas. Las exploraciones estáticas... Más

Imaginología General

ver canal
Imagen: El modelo AI ingresa y analiza una imagen de la tomografía de emisión de positrones (PET) (Fotografía cortesía de la Universidad de Chalmers)

Modelo de IA detecta 90 % de casos de cáncer linfático a partir de imágenes de PET y TC

El uso de la inteligencia artificial (IA) en el análisis de imágenes médicas ha sido testigo de avances significativos recientemente. Se están desarrollando nuevas herramientas... Más

TI en Imaginología

ver canal
Imagen: La nueva Medical Imaging Suite hace que los datos de imágenes de atención médica sean más accesibles, interoperables y útiles (Fotografía cortesía de Google Cloud)

Nueva suite de imágenes médicas de Google Cloud hace los datos de imágenes médicas más accesibles

Las imágenes médicas son una herramienta fundamental que se utiliza para diagnosticar a los pacientes, y cada año se escanean miles de millones de imágenes médicas en... Más
Copyright © 2000-2024 Globetech Media. All rights reserved.