doi: 10.56294/saludcyt20241341
ORIGINAL
Exploring computational methods in the statistical analysis of imprecise medical data: between epistemology and ontology
Exploración de métodos computacionales en el análisis estadístico de datos médicos imprecisos: entre epistemología y ontología
Zulmary Carolina Nieto Sánchez1
*, Antonio José Bravo Valero2
*
1Corporación Universitaria Minuto de Dios. San José de Cúcuta, Colombia.
2Universidad Simón Bolívar, Facultad de Ciencias Básicas y Biomédicas, Centro de Crecimiento Empresarial – MACONDOLAB. Cúcuta, Colombia.
Citar como: Nieto Sánchez, ZC, Bravo Valero, AJ. Exploración de métodos computacionales en el análisis estadístico de datos médicos imprecisos: entre epistemología y ontología. Salud, Ciencia y Tecnología. 2024; 4:1341. https://doi.org/10.56294/saludcyt20241341
Enviado: 18-04-2024 Revisado: 15-07-2024 Aceptado: 19-07-2024 Publicado: 31-07-2024
Editor: Dr. William Castillo-González
ABSTRACT
The accuracy of the results is essential to evaluate the effectiveness of statistical methods in the analysis of medical data with uncertainty. Indicators such as margin of error, percent agreement and coefficient of determination quantified accuracy under epistemic and ontological uncertainty. The stability of the methods was assessed by variation in trend analysis, sensitivity to small variations and model robustness. Data reliability focused on the selection of methods that effectively handle epistemic uncertainty, recording assumptions, sensitivity analysis and internal consistency. Ontological imprecision was quantified using the fuzzy membership degree and the overlap coefficient. The exploration of computational methods underlined the importance of accuracy and the handling of epistemic and ontological uncertainty, ensuring reliable results. The geometric mean filter, with a score of 0,7790, stood out as the best for its accuracy and ability to effectively handle uncertainty.
Keywords: Statistics; Computational Methods; Imprecise Data; Uncertainty; Epistemology; Ontology.
RESUMEN
La exactitud de los resultados es esencial para evaluar la eficacia de métodos estadísticos en el análisis de datos médicos con incertidumbre. Indicadores como el margen de error, el porcentaje de concordancia y el coeficiente de determinación cuantificaron la precisión bajo incertidumbre epistémica y ontológica. La estabilidad de los métodos se evaluó mediante la variación en análisis de tendencias, la sensibilidad a pequeñas variaciones y la robustez del modelo. La confiabilidad de los datos se centró en la selección de métodos que manejan eficazmente la incertidumbre epistémica, registrando supuestos, análisis de sensibilidad y consistencia interna. La imprecisión ontológica se cuantificó mediante el grado de pertenencia difuso y el coeficiente de solapamiento. La exploración de métodos computacionales subrayó la importancia de la precisión y el manejo de la incertidumbre epistémica y ontológica, asegurando resultados fiables. El filtro de media geométrica, con una puntuación de 0,7790, destacó como el mejor por su precisión y capacidad para el manejo eficaz de la incertidumbre.
Palabras clave: Estadística; Métodos Computacionales; Datos Imprecisos; Incertidumbre; Epistemología; Ontología.
INTRODUCCIÓN
La incertidumbre representa un desafío significativo en el análisis de decisiones y la planificación de estas. En muchos campos, el enfoque predominante ha sido ignorar la incertidumbre, cuantificarla con amplios márgenes de error, intentar reducirla o abordar únicamente aquella incertidumbre que es fácilmente cuantificable.(1,2,3,4)
No obstante, estos métodos no se concentran en resolver los problemas asociados a las incertidumbres relacionadas con el estado del contexto global, que son principalmente atribuibles a factores humanos. Estas incertidumbres son poco comprendidas, ya que sus distribuciones de probabilidad y, por lo tanto, su impacto en los posibles resultados, son desconocidos.(5,6,7)
En las últimas décadas, el auge de la ciencia estadística la ha transformado en una disciplina emergente, moderna y crucial para el análisis de datos, impulsando significativamente la conversión de datos en información significativa facilitan para la toma de decisiones. Los procesos que convierten la abundante información disponible en valor para personas, organizaciones y la sociedad en el contexto mundial están siendo moldeados por la integración de diversas disciplinas, como la matemática, la estadística y la computación.(8,9,10,11,12)
Tal integración ha sido fundamental para analizar extensos datos médicos, que son esenciales para diagnósticos precisos y tratamientos efectivos, particularmente en el análisis de imágenes computacionales en medicina. Estudiar la incertidumbre en la ciencia de datos es crucial, ya que transformar datos en valor es una necesidad actual en las transformaciones en ámbitos sociales, políticos, culturales, económicos, académicos y organizacionales.(13,14,15,16)
Mejorar los procesos de explicación de la incertidumbre en conjuntos de datos es fundamental para convertir la información en valor para la sociedad. Las organizaciones, como sistemas sociales, deben satisfacer las necesidades de la población, elevando su calidad de vida y asegurando un alto grado de factibilidad social.(17,18,19)
Esta investigación busca generar conocimiento sobre los métodos de análisis estadístico en datos médicos imprecisos mediante un diagnóstico detallado que determine y caracterice aspectos definitorios del comportamiento de dichos métodos en la explicación de la incertidumbre. Se examinan conjuntos de datos médicos con valores imprecisos, derivados de la incertidumbre epistémica y ontológica.
La aplicación de técnicas de vanguardia en el análisis de imágenes en medicina permite una evaluación más precisa de los diagnósticos, mejorando así la calidad de la atención al paciente. La cuantificación y manejo de la incertidumbre en estos análisis permiten el desarrollo de metodologías robustas y confiables. Los métodos computacionales evaluados en este estudio, como los filtros de media geométrica y los modelos de máxima verosimilitud, han demostrado ser efectivos en la gestión de la imprecisión y el ruido.(20,21,22,23)
MÉTODO
Diseño metódico
El diseño metódico de esta investigación se estructura en tres fases principales. Cada una de estas fases es crucial para el demostrar la validez de los métodos propuestos para el análisis de datos médicos imprecisos. Esta estructura metódica garantiza una evaluación integral y rigurosa de los métodos computacionales en el análisis de datos médicos imprecisos.(24,25)
En la primera fase, se realiza una selección exhaustiva de los métodos computacionales más adecuados, considerando su capacidad para manejar la incertidumbre epistémica y ontológica presente en los datos médicos. La segunda fase se centra en la descripción de una base de datos sintética que representan diversos escenarios de ruido e imprecisión en CT. Finalmente, la tercera fase implica la aplicación de la estrategia de caracterización, en la cual los métodos seleccionados se aplican a las bases de datos escogidas, permitiendo evaluar su desempeño y robustez en contextos de alta incertidumbre.
Métodos computacionales
Es crucial seleccionar técnicas o métodos estadísticos representativos y relevantes en el manejo de datos con grados de incertidumbre. Se consideran cinco métodos por su aplicabilidad y robustez para la evaluación integral de su desempeño y limitaciones. Cada uno de estos métodos ha sido elegido por sus capacidades específicas para manejar la incertidumbre epistémica y ontológica, y por su relevancia en la literatura científica sobre análisis de datos imprecisos. El análisis discriminante cuadrático (QDA) es conocido por su capacidad para clasificar datos con modelos no lineales y su robustez frente a la variabilidad en las clases.(26) El agrupamiento K-means es adaptable a diferentes estructuras de datos y útil para identificar patrones ocultos.(27) La estimación de máxima verosimilitud (MLE) de modelos de Wiener (MLE Wiener) y de Poisson (MLE Poisson) es esencial en el análisis de señales y eventos discretos,(28) respectivamente, y se destaca por su precisión y robustez frente a fluctuaciones y dispersión en los datos.(29,30) Los filtros de media geométrica (Geometric means) son efectivos para suavizar datos y minimizar el impacto de valores atípicos, siendo altamente robustos frente a ruido y outliersI.(31)
Conjunto de datos
El estudio se focalizó en seis bases de datos sintéticas basadas en imágenes de tomografía computarizada (CT).(32) Estas bases se generaron para reproducir imperfecciones comunes en CT, como el ruido de Poisson y los artefactos de stair-step y streak. Tales conjuntos sirven para evaluar técnicas de procesamiento de imágenes dispuestas como planos axiales:
• DB1: Ground Truth. Base de datos de referencia libre de imperfecciones.
• DB2: Poisson. Base de datos contaminada con ruido de Poisson.
• DB3: Stair-Step. Base de datos con artefactos de stair-step simulados.
• DB4: Streak. Base de datos con artefactos de streak simulados.
• DB5: Artifacts. Base de datos con ambos artefactos, stair-step y streak.
• DB6: Hybrid. Base de datos híbrida con ruido de Poisson y ambos artefactos.
La Figura 1 presenta un corte axial (transversal) o imagen 2-D de tres de las seis bases de datos, además muestra cortes coronales (frontales) de tres bases de datos.
Figura 1. Cortes axiales y coronales de las bases de datos tridimensionales
Estrategia de caracterización
La estrategia estructurada para caracterizar los métodos computacionales de análisis estadístico de conjuntos de datos con valores imprecisos abarca tres dimensiones principales del análisis. La Figura 2 muestra estructura de exploración de métodos computacionales en el análisis estadístico de datos imprecisos.
La primera dimensión, la precisión en el análisis estadístico, se abordará mediante la evaluación de la capacidad de los métodos seleccionados para producir resultados fiables frente a datos imprecisos. La segunda dimensión, el manejo de la incertidumbre epistémica, utilizará técnicas que permitan modelar la incertidumbre derivada del conocimiento incompleto o imperfecto sobre los datos. La tercera dimensión, el manejo de la incertidumbre ontológica, se enfocará en la variabilidad y la naturaleza inherente de los datos, aplicando métodos que puedan ofrecer resultados significativos a pesar de la incertidumbre inherente en la realidad representada por los datos. Esta estrategia integral asegura una caracterización detallada y precisa de los métodos computacionales seleccionados, proporcionando una base sólida para su aplicación en contextos de datos con alta incertidumbre.(33,34)
En este estudio, las tres dimensiones a abordar son fundamentales para explorar los métodos computacionales en el análisis estadístico de datos imprecisos, examinando la relación entre epistemología y ontología. Cada una de estas dimensiones se analizó detalladamente para comprender cómo los métodos seleccionados pueden gestionar y mitigar la imprecisión inherente en los datos, proporcionando una visión integral y robusta del desempeño de los métodos computacionales en contextos de alta incertidumbre.(35,36)
La precisión en el análisis estadístico es crucial para garantizar resultados fiables y consistentes en el procesamiento de datos, especialmente en el ámbito de las imágenes médicas. Esta dimensión se divide en dos subdimensiones clave: la exactitud de los resultados estadísticos y la estabilidad frente a variaciones en datos imprecisos. La exactitud de los resultados estadísticos se evalúa mediante indicadores como el margen de error,(37) el porcentaje de concordancia (38) entre resultados y valores reales, la diferencia media absoluta (39) entre predicciones y observaciones, y el coeficiente de determinación (r²)(40) en modelos estadísticos.
Figura 2. Estructura para la caracterización de los métodos computacionales
Estos indicadores permiten cuantificar la proximidad de los resultados obtenidos por los métodos computacionales a los valores reales, asegurando que los análisis reflejen fielmente las características de los datos. En el contexto de las imágenes médicas, tales como tomografías computarizadas, una alta exactitud es esencial para diagnósticos precisos y tratamientos efectivos.
La estabilidad frente a variaciones en datos imprecisos es otra subdimensión crítica que se evalúa mediante la sensibilidad de los métodos estadísticos a pequeñas variaciones en los datos y su robustez frente a cambios en la estabilidad de los datos de entrada. Este aspecto es particularmente relevante en el análisis de imágenes médicas, en el cual los datos pueden estar sujetos a variaciones debido a diferentes factores, como el ruido en la adquisición de imágenes o variaciones en las condiciones de escaneo.
Para medir esta estabilidad, se desarrollan procedimientos para determinar el coeficiente de variación en análisis de tendencias,(41) la sensibilidad del análisis a pequeñas variaciones en datos,(42) el coeficiente de variación en resultados ante datos imprecisos,(43) y la robustez del modelo estadístico frente a cambios en la precisión de los datos.(44) Estos procedimientos incluyen la generación de versiones de datos con diferentes niveles de ruido y la aplicación de métodos estadísticos para obtener métricas de error como el error cuadrático medio (MSE) y la diferencia media absoluta (MAD).
Estas métricas, normalizadas y combinadas en una única métrica compuesta, permiten evaluar la consistencia de los resultados frente a las imprecisiones en los datos. Un método estadístico robusto mostrará baja variabilidad en estas métricas, indicando su capacidad para mantener la precisión incluso en condiciones de datos imprecisos.
El manejo de la incertidumbre epistémica en el análisis de datos médicos es crucial para garantizar la fiabilidad de los resultados. Esta dimensión se divide en dos subdimensiones clave: el análisis de la fiabilidad de los datos y la identificación de fuentes de incertidumbre epistémica. La evaluación de la confiabilidad de los datos se centra en evaluar el grado de confianza que se puede obtener en la información proveniente de diversas fuentes, lo cual es crucial en el procesamiento de imágenes médicas como CT. Indicadores como el nivel de confianza en la fuente de datos y la frecuencia de actualización y revisión de datos son esenciales para esta evaluación, asegurando que las imágenes procesadas sean representativas y precisa.
La identificación de fuentes de incertidumbre epistémica implica registrar y cuantificar los supuestos asociados a la generación de datos, analizar la sensibilidad de los resultados frente a cambios en estos supuestos y evaluar la consistencia interna de la fuente de datos. En el contexto de las imágenes médicas, esto puede incluir la variabilidad introducida por diferentes equipos de imagen, las condiciones bajo las cuales se adquirieron las imágenes y los algoritmos utilizados para procesarlas.
La dimensión manejo de la incertidumbre ontológica se centra en cómo se aborda la imprecisión inherente en la naturaleza de los datos, particularmente en imágenes médicas. Esta dimensión incluye dos subdimensiones principales: cuantificación de la imprecisión ontológica e integración de conceptos difusos en el análisis. La cuantificación de la imprecisión ontológica se realiza evaluando el grado de pertenencia difuso(45) asignado a conceptos y el coeficiente de solapamiento en la definición de categorías.(46)
La cuantificación de la imprecisión ontológica se aborda mediante funciones de pertenencia que asignan grados de pertenencia a niveles de ruido en las imágenes. Estos grados varían entre 0 y 1, indicando la fuerza con la que una imagen pertenece a un concepto específico, como el ruido alto. Para cada imagen contaminada, se calcula un valor representativo del nivel de ruido, generalmente utilizando la media de los valores de los píxeles. La función de pertenencia luego se aplica a este nivel de ruido para obtener los grados de pertenencia difusa, que proporcionan una medida clara de la imprecisión ontológica presente en los datos.
La subdimensión, integración de conceptos difusos en el análisis, mejora la robustez del modelo estadístico frente a variaciones en los datos de entrada. La lógica difusa permite manejar adecuadamente la imprecisión ontológica, asegurando que los modelos estadísticos mantengan una alta estabilidad y fiabilidad incluso cuando se enfrentan a datos con altos niveles de ruido. En el contexto de las imágenes médicas, esto es esencial para mantener la precisión en el diagnóstico y la interpretación de las imágenes, ya que los métodos basados en lógica difusa pueden adaptarse mejor a las variaciones y artefactos presentes en los datos clínicos, garantizando así resultados más fiables y adecuados para el análisis de toma de decisiones médicas.
RESULTADOS
Todos los procedimientos computacionales empleados en este estudio fueron codificados utilizando Octave, en software ampliamente utilizado para cálculos numéricos y análisis de datos.(47) Octave ofrece una sintaxis compatible con MATLAB, lo que facilita la implementación de algoritmos complejos y la manipulación de grandes volúmenes de datos, como las imágenes médicas.
Esta elección se fundamenta en la capacidad de Octave para ejecutar eficientemente operaciones matriciales y vectores, esenciales para el procesamiento de señales y la aplicación de técnicas estadísticas de vanguardia. Además, su accesibilidad y extensibilidad permiten a los investigadores desarrollar y probar métodos de manera colaborativa y reproducible, asegurando la fiabilidad y validez de los resultados obtenidos en el manejo de incertidumbres epistémicas y ontológicas en datos médicos. La implementación en Octave garantiza que los procedimientos sean replicables y fácilmente integrables en futuros estudios, facilitando la evolución continua de las metodologías aplicadas en la investigación médica.(48)
La precisión de los métodos se evaluó mediante el margen de error, porcentaje de concordancia, diferencia media absoluta (MAD) y el coeficiente de determinación (r²). Los resultados muestran que el filtro de media geométrica obtuvo el mejor desempeño con un margen de error del 0,09 %, un porcentaje de concordancia por SSIM de 0,8993, MAD de 27,28 y r² de 0,9714, lo que indica su superioridad en precisión y manejo de incertidumbre. En la evaluación de métodos estadísticos desde la subdimensión de estabilidad frente a variaciones en datos imprecisos, el mejor método para el coeficiente de variación de tendencias fue el filtro de media geométrica con 0,0307.
En cuanto a la sensibilidad a pequeñas variaciones, el filtro de media geométrica también se destacó con 0,1861. Para el coeficiente de variación de datos imprecisos, el mejor resultado fue nuevamente para el filtro de media geométrica con 0,3905. Finalmente, en términos de robustez del modelo, el filtro de media geométrica sobresalió con un valor de 0,1469. La combinación de estas métricas en una puntuación compuesta confirmó su robustez frente a datos imprecisos (figura 3).
Figura 3. Distribución de los desempeños por método en la dimensión 1
La evaluación del manejo de la incertidumbre epistémica involucró la aplicación de cinco métodos estadísticos (QDA, K-means, MLE Wiener, MLE Poisson, media geométrica) a las imágenes contaminadas (DB2 a DB6) y la implementación de un proceso de validación de la consistencia interna mediante el error cuadrático medio (MSE). Los resultados indicaron que el mejor método fue MLE Poisson con una puntuación de 3882.
No obstante, el filtro de media geométrica también mostró robustez al reducir el ruido y manejar datos imprecisos, MSE de 4971, destacándose por su capacidad para mantener la estabilidad y precisión en contextos de alta incertidumbre. Ambos métodos demostraron ser efectivos en la gestión de datos imprecisos, pero el MLE Poisson sobresalió en el contexto de ruido Poissoniano.
La imprecisión ontológica se cuantifica mediante dos indicadores: el grado de pertenencia difuso y el coeficiente de solapamiento en las categorías. Usando lógica difusa, se asignaron grados de pertenencia al concepto de “ruido alto” en imágenes contaminadas, mostrando alta consistencia en los niveles de ruido. Los coeficientes de superposición difusa indicaron un alto solapamiento entre categorías, subrayando la necesidad de manejar adecuadamente la imprecisión ontológica. Se evaluaron cinco métodos, destacando el filtro de media geométrica por su robustez ante la variabilidad del ruido, y MLE Poisson por su capacidad para modelar eventos discretos. La lógica difusa mejora la precisión en la caracterización de datos imprecisos.
DISCUSIÓN
Se destaca la eficacia del filtro de media geométrica, que demostró ser el mejor método en términos de coeficiente de variación de tendencias, sensibilidad a pequeñas variaciones, coeficiente de variación de datos imprecisos y robustez del modelo. Este método superó a otros como el análisis discriminante cuadrático (QDA), K-means y las estimaciones de máxima verosimilitud (MLE) de modelos de Wiener y Poisson en varios aspectos clave.(49)
La lógica difusa también se mostró efectiva en la mejora de la precisión y robustez del análisis, particularmente en la gestión de la imprecisión ontológica. Estos hallazgos subrayan la importancia de elegir métodos que no solo sean precisos, sino que también manejen eficazmente la incertidumbre inherente en los datos, proporcionando una base sólida para futuras aplicaciones en contextos de alta incertidumbre.(50)
La relevancia clínica del análisis de imágenes médicas de CT se ve reflejada en la aplicación de los métodos propuestos. En particular, el filtro de media geométrica mostró una capacidad superior para suavizar las imágenes, reduciendo el impacto de ruido y artefactos sin comprometer la integridad de la información anatómica. Este método demostró ser especialmente robusto frente a variaciones en los datos imprecisos, manteniendo la estabilidad y precisión del análisis incluso en condiciones de alta incertidumbre.(51,52)
La capacidad de manejar eficazmente la incertidumbre epistémica y ontológica es crucial para mejorar la confiabilidad de los diagnósticos y la planificación de tratamientos, destacando la importancia de integrar técnicas avanzadas de análisis estadístico y lógica difusa en el procesamiento de imágenes médicas. Estos resultados proporcionan una base para la implementación de estos métodos en prácticas clínicas, mejorando así la calidad y fiabilidad de las decisiones médicas basadas en imágenes.(53,54)
CONCLUSIONES
El presente estudio evaluó la eficacia de varios enfoques estadísticos en el análisis de datos que presentan incertidumbre epistémica y ontológica. El filtro de media geométrica destacó como el método más efectivo, sobresaliendo en indicadores clave como la variabilidad de tendencias, la sensibilidad a pequeñas fluctuaciones, la estabilidad del modelo y la precisión en datos imprecisos. Con una puntuación compuesta de 0,7790, su superior desempeño se debe a su capacidad para manejar la imprecisión y el ruido en los datos, garantizando resultados precisos y confiables.
La selección de métodos estadísticos que combinan alta precisión con robustez frente a la variabilidad y la incertidumbre inherente en los datos es crucial. La lógica difusa, integrada en este estudio, mejoró significativamente la caracterización y manejo de la imprecisión ontológica, resaltando su relevancia en análisis estadísticos complejos.
Para evaluar la precisión de los resultados estadísticos, se utilizaron varios indicadores, incluyendo el margen de error, la concordancia entre resultados y valores reales, la diferencia media absoluta entre predicciones y observaciones, y el coeficiente de determinación. Estos indicadores permitieron cuantificar la precisión de los resultados bajo la influencia de la incertidumbre epistémica y ontológica.
La estabilidad de los métodos frente a variaciones en los datos fue crucial para garantizar la fiabilidad de los resultados. La evaluación de la confiabilidad de los datos se centró en el nivel de confianza en la fuente de datos, seleccionando métodos que manejan eficazmente la incertidumbre epistémica y aseguran resultados fiables en conjuntos de datos con valores imprecisos.
La identificación y cuantificación de la incertidumbre epistémica y ontológica se abordó mediante la evaluación de los supuestos asociados a la fuente de datos, el análisis de sensibilidad frente a cambios en supuestos y la evaluación de la consistencia interna de la fuente de datos. La lógica difusa se utilizó para asignar grados de pertenencia a conceptos y evaluar la imprecisión ontológica en los datos. Los resultados de este estudio proporcionan una base sólida para la implementación de estos métodos en prácticas clínicas y otras áreas con alta incertidumbre, mejorando la calidad y fiabilidad de las decisiones basadas en datos.
REFERENCIAS
1. Maghrabie, H., Beauregard, Y., & Schiffauerova, A. Grey-based Multi-Criteria Decision Analysis approach: Addressing uncertainty at complex decision problems. Technological Forecasting and Social Change. 2019; 146:366-379. https://doi.org/10.1016/J.TECHFORE.2019.05.031
2. Keith, A., & Ahner, D. A survey of decision making and optimization under uncertainty. Annals of Operations Research. 2019; 300:319-353. https://doi.org/10.1007/s10479-019-03431-8
3. Hewitt, M., Ortmann, J., & Rei, W. Decision-based scenario clustering for decision-making under uncertainty. Annals of Operations Research. 2021;1-25. https://doi.org/10.1007/s10479-020-03843-x
4. Moroni, S., & Chiffi, D. Uncertainty and Planning: Cities, Technologies and Public Decision-Making. Perspectives on Science. 2022; 30:237-259. https://doi.org/10.1162/posc_a_00413
5. Hinkel, J., Feyen, L., Hemer, M., Cozannet, G., Lincke, D., Marcos, M., Mentaschi, L., Merkens, J., Moel, H., Muis, S., Nicholls, R., Vafeidis, A., Wal, R., Vousdoukas, M., Wahl, T., Ward, P., & Wolff, C. Uncertainty and Bias in Global to Regional Scale Assessments of Current and Future Coastal Flood Risk. Earth’s Future. 2021;9. https://doi.org/10.1029/2020EF001882
6. Ng, S., Faraji-Rad, A., & Batra, R. Uncertainty Evokes Consumers’ Preference for Brands Incongruent with their Global–Local Citizenship Identity. Journal of Marketing Research. 2020; 58:400-415. https://doi.org/10.1177/0022243720972956
7. Herran, D., Tachiiri, K., & Matsumoto, K. Global energy system transformations in mitigation scenarios considering climate uncertainties. Applied Energy. 2019; 243:119-131. https://doi.org/10.1016/J.APENERGY.2019.03.069
8. Afanador Cubillos N. Historia de la producción y sus retos en la era actual. Región Científica. 2023;2(1):202315. https://doi.org/10.58763/rc202315
9. Stefan, A. Statistics for Making Decisions. The American Statistician. 2022; 76:87-88. https://doi.org/10.1080/00031305.2021.2020003
10. Roman-Acosta D, Rodríguez-Torres E, Baquedano-Montoya MB, López-Zavala L, Pérez-Gamboa AJ. ChatGPT y su uso para perfeccionar la escritura académica en educandos de posgrado. Praxis Pedagógica. 2024;24(36):53-75. https://revistas.uniminuto.edu/index.php/praxis/article/view/3536
11. Hassani, H., Beneki, C., Silva, E., Vandeput, N., & Madsen, D. The science of statistics versus data science: What is the future? Technological Forecasting and Social Change. 2021; 173:121111. https://doi.org/10.1016/J.TECHFORE.2021.121111
12. Kammerer-David MI, Murgas-Téllez B. La innovación tecnológica desde un enfoque de dinámica de sistemas. Región Científica. 2024;3(1):2024217. https://doi.org/10.58763/rc2024217
13. Chicco D, Shiradkar R. Ten quick tips for computational analysis of medical images. PLOS Computational Biology. 2023;19. https://doi.org/10.1371/journal.pcbi.1010778
14. Barisoni L, Lafata K, Hewitt S, Madabhushi A, Balis U. Digital pathology and computational image analysis in nephropathology. Nature Reviews Nephrology. 2020;16:669-685. https://doi.org/10.1038/s41581-020-0321-6
15. Sengupta K, Srivastava P. Quantum algorithm for quicker clinical prognostic analysis: an application and experimental study using CT scan images of COVID-19 patients. BMC Medical Informatics and Decision Making. 2021;21. https://doi.org/10.1186/s12911-021-01588-6
16. Liu Z, Wang S, Dong D, Wei J, Fang C, Zhou X, et al. The Applications of Radiomics in Precision Diagnosis and Treatment of Oncology: Opportunities and Challenges. Theranostics. 2019;9:1303-1322. https://doi.org/10.7150/thno.30309
17. Abdar M, Pourpanah F, Hussain S, Rezazadegan D, Liu L, Ghavamzadeh M, et al. A Review of Uncertainty Quantification in Deep Learning: Techniques, Applications and Challenges. Information Fusion. 2020;76:243-297. https://doi.org/10.1016/j.inffus.2021.05.008
18. Wang X, Yao L, Wang X, Paik H, Wang S. Uncertainty Estimation With Neural Processes for Meta-Continual Learning. IEEE Transactions on Neural Networks and Learning Systems. 2022;34:6887-6897. https://doi.org/10.1109/TNNLS.2022.3215633
19. Al-turjman F, Zahmatkesh H, Mostarda L. Quantifying Uncertainty in Internet of Medical Things and Big-Data Services Using Intelligence and Deep Learning. IEEE Access. 2019;7:115749-115759. https://doi.org/10.1109/ACCESS.2019.2931637
20. Herzog L, Murina E, Dürr O, Wegener S, Sick B. Integrating uncertainty in deep neural networks for MRI based stroke analysis. Medical image analysis. 2020;65:101790. https://doi.org/10.1016/j.media.2020.101790
21. Ghesu F, Georgescu B, Mansoor A, Yoo Y, Gibson E, Vishwanath R, et al. Quantifying and Leveraging Predictive Uncertainty for Medical Image Assessment. Medical image analysis. 2020; 68:101855. https://doi.org/10.1016/j.media.2020.101855
22. Rajaraman S, Zamzmi G, Yang F, Xue Z, Jaeger S, Antani S. Uncertainty Quantification in Segmenting Tuberculosis-Consistent Findings in Frontal Chest X-rays. Biomedicines. 2022;10. https://doi.org/10.3390/biomedicines10061323
23. Sathiyamoorthi V, Ilavarasi A, Murugeswari K, Ahmed S, Devi B, Kalipindi M. A deep convolutional neural network based computer aided diagnosis system for the prediction of Alzheimer’s disease in MRI images. Measurement. 2020; 171:108838. https://doi.org/10.1016/j.measurement.2020.108838
24. Cabeli V, Verny L, Sella N, Uguzzoni G, Verny M, Isambert H. Learning clinical networks from medical records based on information estimates in mixed-type data. PLoS Computational Biology. 2020;16. https://doi.org/10.1371/journal.pcbi.1007866
25. Vellido A. The importance of interpretability and visualization in machine learning for applications in medicine and health care. Neural Computing and Applications. 2019; 32:18069-18083. https://doi.org/10.1007/s00521-019-04051-w
26. Sifaou H, Kammoun A, Alouini M. High-Dimensional Quadratic Discriminant Analysis Under Spiked Covariance Model. IEEE Access. 2020;8:117313-117323. https://doi.org/10.1109/ACCESS.2020.3004812
27. Ikotun A, Ezugwu E, Abualigah L, Abuhaija B, Heming J. (2023). K-means clustering algorithms: A comprehensive review, variants analysis, and advances in the era of big data. Information Sciences. 2023;622(C):178–210. https://doi.org/10.1016/j.ins.2022.11.139
28. Dembińska A, Jasiński K. Maximum likelihood estimators based on discrete component lifetimes of a k-out-of-n system. TEST. 2020; 30:407-428. https://doi.org/10.1007/s11749-020-00724-0
29. Correia S, Guimarães P, Zylkin T. Fast Poisson estimation with high-dimensional fixed effects. The Stata Journal. 2019; 20:115-95. https://doi.org/10.1177/1536867X20909691
30. Mannam V, Zhang Y, Zhu Y, Nichols E, Wang Q, Sundaresan V, Zhang S, Smith C, Bohn PW, Howard SS. Real-time image denoising of mixed Poisson-Gaussian noise in fluorescence microscopy images using Image. Optica. 2022;9(4):335-345. https://doi.org/10.1364/OPTICA.448287
31. Navya B, Sridevi J, Vasanth K. Modified Geometric Mean as an Estimator of Outlier based Artifacts in Natural Images. 2022 3rd International Conference on Smart Electronics and Communication (ICOSEC). Trichy, India: IEEE; 2022. p. 1095–102. https://doi.org/10.1109/ICOSEC54921.2022.9951924
32. Vera M, Bravo A, Medina R. Description and use of three-dimensional numerical phantoms of cardiac computed tomography images. Data. 2022;7(8):115. https://doi.org/10.3390/data7080115
33. Muñoz Bonilla HA, Menassa Garrido IS, Rojas Coronado L, Espinosa Rodríguez MA. La innovación en el sector servicios y su relación compleja con la supervivencia empresarial. Región Científica. 2024;3(1):2024214. https://doi.org/10.58763/rc2024214
34. Li X, Chen W, Li F, Kang R. Reliability evaluation with limited and censored time-to-failure data based on uncertainty distributions. Applied Mathematical Modelling. 2021;94:403-420. https://doi.org/10.1016/J.APM.2021.01.029
35. Grzegorzewski P, Romaniuk M. Bootstrap Methods for Epistemic Fuzzy Data. International Journal of Applied Mathematics and Computer Science. 2022;32:285-297. https://doi.org/10.34768/amcs-2022-0021
36. Derbyshire J. Answers to questions on uncertainty in geography: Old lessons and new scenario tools. Environment and Planning A: Economy and Space. 2019;52:710-727. https://doi.org/10.1177/0308518X19877885
37. Asim Shahid M, Alam M, Mohd Su’ud M. Improved accuracy and less fault prediction errors via modified sequential minimal optimization algorithm. PloS one. 2023;18(4):e0284209. https://doi.org/10.1371/journal.pone.0284209
38. Schober P, Mascha E, Vetter T. Statistics From A (Agreement) to Z (z Score): A Guide to Interpreting Common Measures of Association, Agreement, Diagnostic Accuracy, Effect Size, Heterogeneity, and Reliability in Medical Research. Anesthesia and analgesia. 2021;133(6):1633-1641. https://doi.org/10.1213/ANE.0000000000005773
39. Sánchez-González J, Rocha-de-Lossada C, Flikier D. Median absolute error and interquartile range as criteria of success against the percentage of eyes within a refractive target in IOL surgery. Journal of Cataract & Refractive Surgery. 2020;46(10):1441. https://doi.org/10.1097/j.jcrs.0000000000000248
40. Chicco D, Warrens MJ, Jurman G. The coefficient of determination R-squared is more informative than SMAPE, MAE, MAPE, MSE and RMSE in regression analysis evaluation. PeerJ Computer Science. 2021;7:e623. https://doi.org/10.7717/peerj-cs.623
41. Sarker IH. (2021). Data science and analytics: an overview from data-driven smart computing, decision-making and applications perspective. SN Computer Science. 2021;2(5):377. https://doi.org/10.1007/s42979-021-00765-8
42. Antoniano-Villalobos I, Borgonovo E, Lu X. Nonparametric estimation of probabilistic sensitivity measures. Statistics and Computing. 2019; 30:447-467. https://doi.org/10.1007/s11222-019-09887-9
43. Lee M, Khoo M, Chew X, Then P. Effect of Measurement Errors on the Performance of Coefficient of Variation Chart With Short Production Runs. IEEE Access. 2020; 8:72216-72228. https://doi.org/10.1109/ACCESS.2020.2985410
44. Ortiz-Pimiento N, Díaz-Serna F. (2019). Relative average deviation as measure of robustness in the stochastic project scheduling problem. Revista Facultad de Ingeniería. 2019;28(52):77-97. https://doi.org/10.19053/01211129.v28.n52.2019.9756
45. Starczewski J, Goetzen P, Napoli C. Triangular Fuzzy-Rough Set Based Fuzzification of Fuzzy Rule-Based Systems. Journal of Artificial Intelligence and Soft Computing Research. 2020; 10:271-285. https://doi.org/10.2478/jaiscr-2020-0018
46. Shoaip N, El-Sappagh S, Abuhmed T, Elmogy M. A dynamic fuzzy rule-based inference system using fuzzy inference with semantic reasoning. Scientific reports. 2024;14(1):4275. https://doi.org/10.1038/s41598-024-54065-1
47. Eaton JW, Bateman D, Hauberg S, Wehbring R. GNU Octave version 5.1.0 manual: A high-level interactive language for numerical computations. 2019. https://www.gnu.org/software/octave/doc/interpreter
48. Li G, Yang L, Lee C, Wang X, Rong M. A Bayesian Deep Learning RUL Framework Integrating Epistemic and Aleatoric Uncertainties. IEEE Transactions on Industrial Electronics. 2021;68:8829-8841. https://doi.org/10.1109/TIE.2020.3009593
49. Chen S, Zhang Q, Zhang T, Zhang L, Peng L, Wang S. Robust State Estimation With Maximum Correntropy Rotating Geometric Unscented Kalman Filter. IEEE Transactions on Instrumentation and Measurement. 2022;71:1-14. https://doi.org/10.1109/TIM.2021.3137553
50. Cao B, Zhao J, Liu X, Arabas J, Tanveer M, Singh A, Lv Z. Multiobjective Evolution of the Explainable Fuzzy Rough Neural Network With Gene Expression Programming. IEEE Transactions on Fuzzy Systems. 2022;30:4190-4200. https://doi.org/10.1109/TFUZZ.2022.3141761
51. Kubíček J, Strycek M, Cerný M, Penhaker M, Prokop O, Vilimek D. Quantitative and Comparative Analysis of Effectivity and Robustness for Enhanced and Optimized Non-Local Mean Filter Combining Pixel and Patch Information on MR Images of Musculoskeletal System. Sensors. 2021;21. https://doi.org/10.3390/s21124161
52. ARABI H, Zaidi H. Non-local mean denoising using multiple PET reconstructions. Annals of Nuclear Medicine. 2020;35:176-186. https://doi.org/10.1007/s12149-020-01550-y
53. Meng Z, Pang Y, Pu Y, Wang X. New hybrid reliability-based topology optimization method combining fuzzy and probabilistic models for handling epistemic and aleatory uncertainties. Computer Methods in Applied Mechanics and Engineering. 2020;363:112886. https://doi.org/10.1016/j.cma.2020.112886
54. Hüllermeier E, Waegeman W. Aleatoric and epistemic uncertainty in machine learning: an introduction to concepts and methods. Machine Learning. 2019;110:457-506. https://doi.org/10.1007/s10994-021-05946-3
FINANCIACIÓN
Ninguna.
CONFLICTO DE INTERESES
Ninguno.
CONTRIBUCIÓN DE AUTORÍA
Conceptualización: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Curación de datos: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Análisis formal: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Adquisición de fondos: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Investigación: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Metodología: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Administración del proyecto: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Recursos: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Software: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Supervisión: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Validación: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Visualización: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Redacción – borrador original: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.
Redacción – revisión y edición: Zulmary Carolina Nieto Sánchez, Antonio José Bravo.