fbpx
InicioActualidadMonitorizar a los pacientes de la UCI a través del reconocimiento facial

Monitorizar a los pacientes de la UCI a través del reconocimiento facial

Un equipo de científicos japoneses ha utilizado la tecnología de reconocimiento facial para desarrollar un sistema automatizado que puede predecir cuándo los pacientes en la Unidad de Cuidados Intensivos (UCI) tienen un alto riesgo de comportamiento inseguro, como la extracción accidental de su tubo de respiración, con una precisión moderada (75%).

La nueva investigación, presentada en el congreso Euroanestesia de este año (la reunión anual de la Sociedad Europea de Anestesiología), sugiere que la herramienta automatizada de detección de riesgos tiene el potencial de monitorear continuamente la seguridad del paciente, y podría eliminar algunas de las limitaciones asociadas con la capacidad limitada del personal, lo que dificulta la observación continua de pacientes críticos junto a la cama.

«Al usar las imágenes que tomamos de la cara y los ojos de un paciente, pudimos entrenar sistemas informáticos para reconocer el movimiento del brazo de alto riesgo. Nos sorprendió el alto grado de precisión que obtuvimos, lo que demuestra que esta nueva tecnología tiene el potencial de ser una herramienta útil para mejorar la seguridad del paciente, y es el primer paso para una UCI inteligente que se planifica en nuestro hospital», ha reconocido el Dr. Akane Sato, del Hospital Universitario de la Ciudad de Yokohama (Japón), quien dirigió la investigación.

Los pacientes críticamente enfermos son sedados rutinariamente en la UCI para prevenir el dolor y la ansiedad, permitir procedimientos invasivos y mejorar la seguridad del paciente. Sin embargo, proporcionar a los pacientes un nivel óptimo de sedación es un desafío. Los pacientes que están sedados inadecuadamente tienen más probabilidades de mostrar comportamientos de alto riesgo, como la eliminación accidental de dispositivos invasivos.

El estudio incluyó a 24 pacientes postoperatorios (edad promedio de 67 años) que ingresaron en la UCI en el Hospital Universitario de la Ciudad de Yokohama entre junio y octubre de 2018. El modelo de prueba de concepto se creó utilizando imágenes tomadas por una cámara montada en el techo sobre las camas de los pacientes. Se analizaron alrededor de 300 horas de datos para encontrar imágenes diurnas de pacientes frente a la cámara en una buena posición del cuerpo que mostraran claramente su rostro y ojos.

En total, 99 imágenes fueron objeto de aprendizaje automático, un algoritmo que puede analizar imágenes específicas basadas en datos de entrada, en un proceso que se asemeja a la forma en que un cerebro humano aprende información nueva. En última instancia, el modelo pudo alertar contra el comportamiento de alto riesgo, especialmente alrededor de la cara del sujeto con alta precisión.

«Diversas situaciones pueden poner a los pacientes en riesgo, por lo que nuestro siguiente paso es incluir situaciones adicionales de alto riesgo en nuestro análisis y desarrollar una función de alerta para advertir a los profesionales de la salud sobre conductas de riesgo. Nuestro objetivo final es combinar varios datos de detección, como señales vitales en nuestras imágenes para desarrollar un sistema de predicción de riesgos totalmente automatizado», ha señalado el Dr. Sato.

Los autores señalan varias limitaciones, entre ellas el hecho de que se necesitan más imágenes de pacientes en diferentes posiciones para mejorar la capacidad de generalización de la herramienta en la vida real. También señalan que el monitoreo de la conciencia del paciente puede mejorar la precisión al distinguir entre el comportamiento de alto riesgo y el movimiento voluntario.

artículos relacionados

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí