Estadísticahttps://hdl.handle.net/10669/2922024-03-29T14:55:00Z2024-03-29T14:55:00ZDesarrollo y validación de una herramienta estadística para la estimación de incertidumbre de medida para inventarios de gases de efecto invernadero utilizando el método de simulación de Monte Carlohttps://hdl.handle.net/10669/908652024-02-01T15:50:28Z2024-01-01T00:00:00ZDesarrollo y validación de una herramienta estadística para la estimación de incertidumbre de medida para inventarios de gases de efecto invernadero utilizando el método de simulación de Monte Carlo
El presente proyecto busca generar una herramienta estadística validada, que permita estimar la incertidumbre de medida para las emisiones de un inventario de gases de efecto invernadero mediante la propagación de distribuciones de probabilidad aplicando el método de simulación de Monte Carlo. Su justificación se fundamenta en la ausencia de software u hoja de cálculo de libre acceso que permita esta estimación de forma coherente con los requisitos de reporte del PPCN 2.0 y en su necesidad latente por parte las organizaciones que pretenden alcanzar la carbono neutralidad según las políticas ambientales de Costa Rica.
Inicialmente, se abordó y generó una propuesta de estimación de incertidumbre para los factores de emisión incluidos en la base de datos oficial del país, mantenida por el IMN. Esta propuesta incluyó a los factores de emisión caracterizados por intervalos de variación asimétricos y otros factores de emisión con ausencia de información sobre su incertidumbre. Dicha propuesta fue publicada internacionalmente en dos artículos científicos y fue adoptada por el IMN en la última publicación de la base de datos.
Posteriormente, se pasó a la construcción de la herramienta denominada GEISER, programada en lenguaje R bajo una estructura de aplicación web (librerías shiny). Su interfaz permite al usuario: contar con instrucciones generales de uso, incorporar información de un inventario con hasta cinco emisiones cuantificadas directamente y diez emisiones cuantificadas indirectamente, obtener un resumen de los resultados asociados al inventario (emisión total, su incertidumbre estándar, intervalo de cobertura al 95 % y una gráfica de su distribución) y el detalle de cada emisión y su incertidumbre estándar para identificar posibles oportunidades de mejora. Para lograr la generación de estos resultados, la herramienta usa bases de datos predefinidas y métodos de simulación de Monte Carlo (incluyendo el remuestreo o bootstrapping) para simular poblaciones asociadas a todas las variables de entrada y combinarlas para generar una población simulada de la variable de salida (emisión total del inventario), siguiendo los lineamientos establecidos en guías de estimación de incertidumbre pertinentes (GUM, GUM-S1 y Guía Metodológica del PPCN).
Seguidamente, se validó la exactitud de la herramienta (presentando diferencias menores a un 5 % con respecto a resultados de casos de referencia), su robustez (evidenciando cambios reducidos ante la incorporación de hasta un 10 % de valores extremos) y uso por parte de un usuario potencial. Por último, la herramienta fue publicada a través de enlace de descarga de un repositorio web mantenido por el autor y se identificaron las principales limitaciones y recomendaciones de mejora a ser consideradas en una próxima actualización de la herramienta.
2024-01-01T00:00:00ZImplementación del modelo de Rasch para la generación automática de pruebas de aulahttps://hdl.handle.net/10669/903292023-11-09T16:13:31Z2023-01-01T00:00:00ZImplementación del modelo de Rasch para la generación automática de pruebas de aula
Este trabajo se circunscribe a temas relacionadas con la automatización de exámenes en el aula, partiendo de la teoría clásica de los tests (TCT), para luego analizar el aporte de la teoría de respuesta al ítem (TRI), específicamente por medio del modelo de Rasch y utilizando como base una herramienta de software denominada “The Examiner”, que permite la creación, calificación y análisis de pruebas de aula.
Se aprovecha la información consignada en la base de datos del software para 1428 ítems utilizados en exámenes reales y aplicados en una universidad estatal, con el fin de analizar los indicadores que el software calcula como predichos. Se realiza una comprobación de los cálculos internos del software, para concluir que la información generada es útil para la confección de exámenes. En este sentido y como elementos clave, el software aporta información sobre la media esperada para los exámenes aplicados y sobre el coeficiente de confiabilidad o consistencia esperado mediante el alfa de Cronbach. Los resultados del análisis permiten concluir que los cálculos que genera el software para estos valores predichos se pueden utilizar como información de referencia útil para la confección previa de exámenes a partir de ítems consignados con información histórica.
Por otro lado, se utiliza la información de la base de datos para ajustar el modelo de Rasch a las pruebas de aula ejecutadas, así como a pruebas simuladas y se concluye que este modelo genera un buen ajuste a nivel de exámenes, ítems y personas, por lo cual se convierte en una alternativa para incorporarlo como parte de las funcionalidades del software en versiones posteriores y así enriquecer el análisis que brinda el enfoque de la TCT.; This work is related to the automation of exams in the classroom, starting from the classical test theory (CTT) and then analyzing the contribution of the item response theory (IRT), specifically through the Rasch model and using a software tool called “The Examiner”, which allows the creation, grading and analysis of classroom tests.
The information recorded in the software database for 1428 items used in real exams and applied in a state university is used, in order to analyze the indicators that the software calculates as predicted. A verification of the internal calculations of the software is carried out, to conclude that the information generated is useful for the preparation of exams. In this line and as key elements, the software provides information on the expected average for the applied tests and on the expected alpha coefficient. The results of the analysis allow to conclude that the calculations generated by the software for these predicted values can be used as useful reference information for the preliminary preparation of examinations from items recorded with historical information.
On the other hand, the information from the database is used to adjust the Rasch model to the classroom tests carried out, as well as to simulated tests, and it is concluded that this model generates good adjustments either for exams, items, and people. Then, it becomes an alternative to incorporate it as part of the software functionalities in later versions and this way enrich the analysis provided by the TCT approach.
2023-01-01T00:00:00ZEvaluación de la probabilidad de perdida esperada de una cartera de crédito de consumo en el mercado financiero hondureño a través de modelos alternativos: Caso de aplicación con puntajes de créditohttps://hdl.handle.net/10669/902682023-10-31T21:08:59Z2023-01-01T00:00:00ZEvaluación de la probabilidad de perdida esperada de una cartera de crédito de consumo en el mercado financiero hondureño a través de modelos alternativos: Caso de aplicación con puntajes de crédito
En un sector financiero global competitivo, las instituciones buscan métodos
científicos, como el aprendizaje de máquinas, para identificar clientes solventes y
reducir pérdidas crediticias. En Honduras, las entidades financieras se apoyan en
burós de crédito y consultorías analíticas para desarrollar herramientas que
minimicen la probabilidad de impago, pero no hay un marco de referencia que
demuestre mejoras con modelos de aprendizaje de máquinas. Esta investigación
busca evaluar la pérdida esperada en una cartera de crédito de consumo en el
mercado hondureño hasta diciembre de 2020, al comparar modelos de aprendizaje
de máquinas y estadísticos, con el objetivo de determinar si las metodologías
alternativas mejoran la estimación de incumplimiento y la pérdida esperada en la
cartera de crédito.
En este estudio se compararon modelos como regresión logística, bosques
aleatorios, XGBoost y redes neuronales a través de métricas de rendimiento y una
comparación de negocio con base en la pérdida esperada acumulada. Además, se
utilizaron datos de información crediticia desde mayo de 2018 hasta febrero de 2020
proporcionados por un buró de crédito hondureño. Las variables independientes
incluyeron información sociodemográfica y comportamiento de pago de créditos
mensualmente, mientras que la variable dependiente identificó como malos
pagadores a aquellos con morosidad mayor que 60 días en los 12 meses
posteriores a la solicitud de crédito.
El modelo XGBoost se seleccionó como el mejor entre los modelos de
aprendizaje de máquinas, ya que mostró métricas de rendimiento superiores.
Asimismo, obtuvo una puntuación de 0.4072 en Kolmogorov Smirnov (KS), por lo
que superó en más de 3.75 % a los otros modelos, al igual que en la métrica área
bajo la curva ROC (Auroc). Además, presentó mejor capacidad predictiva y de
discriminación que la regresión logística, con una mejora del 7.66 % en sensibilidad
y 4.41 % en casos predichos correctamente.
Este estudio proporciona evidencia para mejorar la gestión del riesgo
crediticio en entidades financieras mediante la adopción del modelo XGBoost.
2023-01-01T00:00:00ZComparación de métodos de evaluación de modelos climáticos globales para América Centralhttps://hdl.handle.net/10669/902462023-10-30T15:46:55Z2023-01-01T00:00:00ZComparación de métodos de evaluación de modelos climáticos globales para América Central
El objetivo de este estudio es analizar el comportamiento de seis técnicas utilizadas
en la evaluación de la similitud entre dos campos espaciotemporales, especialmente
en el ámbito climático, cuatro de ellas aplicadas desde una perspectiva espacial,
y las dos restantes desde una perspectiva temporal, basadas en el análisis de datos funcionales,
bajo el supuesto de que estos últimos aportarán informaciónn adicional. Para
lograrlo, primero se generaron datos sintéticos para visualizar el comportamiento de
las técnicas en escenarios controlados, conformados por las combinaciones de diversos
valores de correlación lineal entre los campos, razón de sus desviaciones estándar, sesgo
y diferencias de forma en sus distribuciones. Posteriormente se realizó una simulación
para observar la robustez de cada técnica ante valores faltantes. La Efi ciencia Espacial
Wasserstein fue el indicador seleccionado luego de realizar estos diseños, gracias a que
este cuanti ca correctamente la similitud y se mantiene estable al lidiar con valores
perdidos. Este indicador se utilizó para ordenar 48 modelos climáticos de acuerdo a
su capacidad para reproducir el ciclo anual de algunas variables climáticas, considerando
el periodo de 1979 a 1999. Se seleccionaron seis modelos gracias a tres métodos
de análisis multicriterio: la norma euclídea, TOPSIS y PROMETHEE. Estos muestran
rendimientos de cientes en al menos una variable o en algún mes o estación en específico, sin embargo, conocer la superioridad general de estos modelos facilita futuras
investigaciones aplicadas.
2023-01-01T00:00:00Z