admin – Blog y noticias sobre ingeniería | Structuralia https://blog.structuralia.com En nuestro blog trabajamos en contenidos especializados para que estés informado en todo momento sobre toda la actualidad, tendencias y consejos relacionados con la ingeniería. Wed, 19 Nov 2025 10:40:28 +0000 es hourly 1 https://wordpress.org/?v=6.9.4 https://blog.structuralia.com/wp-content/uploads/2024/12/cropped-structuralia-favicon-1-32x32.png admin – Blog y noticias sobre ingeniería | Structuralia https://blog.structuralia.com 32 32 Cargas distribuidas sobre forjados en edificios convencionales https://blog.structuralia.com/cargas-distribuidas-sobre-forjados https://blog.structuralia.com/cargas-distribuidas-sobre-forjados#respond Fri, 25 Jul 2025 11:42:22 +0000 https://blog.structuralia.com/cargas-distribuidas-sobre-forjados-edificios-convencionales Muchas veces se subestima la importancia del forjado de un edificio dentro de la estabilidad y resistencia estructural. Parece que el cálculo de los esfuerzos debe centrarse solo en vigas y columnas, pero nada más lejos de la realidad. Los forjados, además de ser los planos horizontales que permiten hace vida en los edificios, cumplen un rol clave: distribuyen las cargas estructurales hacia los distintos pórticos que conforman la estructura de un edificio convencional.

Cargas estructurales de un edificio

Pero, ¿Qué son las cargas en las estructuras? Son todas aquellas fuerzas externas que se ejercen sobre los elementos estructurales de un edificio. Pueden ser constantes, como el peso propio de los materiales y acabados, o dinámicas, como las provocadas por el viento, el uso humano, la nieve o incluso el mobiliario pesado.

Esto nos adelanta una idea de lo que significan las cargas distribuidas en los elementos estructurales de un edificio. Concretando, nos referimos aquellas cargas que se ven aplicadas sobre toda la longitud o el área de un elemento estructural (viento, nieve, solados, etc.), en contraposición a las cargas puntuales, como puede llegar a ser un vehículo, una caja fuerte, o un elemento de poca superficie y de gran peso.

Tipos de cargas distribuidas

  • Cargas distribuidas lineales: Son aquellas cargas que se reparten equitativamente de forma estrictamente lineal, esto quiere decir que por lo general se miden en N/m
  • Cargas distribuidas superficiales: Son aquellas cargas que se reparten equitativamente a lo largo y ancho de una superficie, por lo tanto, se miden en N/m2

Lógica para el cálculo de las cargas distribuidas

Como ya hemos adelantado, el forjado de un edificio es el mejor ejemplo de un elemento diseñado para repartir las cargas. Por eso, lo utilizamos como base para entender el método de cálculo de cargas distribuidas. Para profundizar sobre la composición y el comportamiento estructural de los forjados y sus variantes, recomendamos visitar nuestro post sobre tipos de forjados. 

Debemos partir de la base, de que un forjado está compuesto por una serie de “viguetas”, repartidas equitativamente y apoyadas sobre dos pórticos (vigas y columnas), y una capa superficial que vincula todas las viguetas. Estas últimas son las verdaderas responsables de distribuir las cargas hacia los pórticos. 

Área de influencia

Siempre que esto se cumpla, se puede simplificar el cálculo haciendo la suposición de que las vigas de los pórticos reciben las cargas desde el punto medio de la vigueta perpendicular que se apoya en ella, y posteriormente la viga, lo transmite a las columnas. El área que se crea desde el punto medio de cada vigueta y la viga del pórtico, es conocida como “área de influencia”.

En consecuencia, todas las cargas que reciba el forjado dentro del área de influencia, se considera como una carga superficial, que a efectos de cálculo, se traduce en una carga lineal sobre la viga del pórtico, multiplicando la carga superficial por el ancho del área de influencia.

Para las cargas distribuidas se maneja una lógica bastante sencilla, pero para profundizar en las metodologías de cálculo y dimensionamiento de los elementos estructurales recomendamos el Máster en Cálculo de Estructuras de Structuralia, que aborda las últimas herramientas de software para el cálculo global de estructuras.

Tomando en cuenta la verdadera importancia de las cargas distribuidas sobre un forjado, y manejando esta lógica tan sencilla, se logran evitar fracturas en los distintos acabados de los suelos e incluso en el propio forjado, ocasionado por la diferencia de cargas; eso sí, siempre y cuando los demás elementos estructurales estén correctamente dimensionados y diseñados. 

]]>
https://blog.structuralia.com/cargas-distribuidas-sobre-forjados/feed 0
¿Conoces los diferentes tipos de carretera existentes? https://blog.structuralia.com/conoces-los-diferentes-tipos-de-carretera https://blog.structuralia.com/conoces-los-diferentes-tipos-de-carretera#respond Fri, 25 Jul 2025 11:06:01 +0000 https://blog.structuralia.com/conoces-los-diferentes-tipos-de-carretera-existentes ¿Sabes diferenciar entre una autopista y una autovía? Resolveremos esta y otras cuestiones a continuación… ¡No te lo pierdas!

Para realizar una clasificación fehaciente de los tipos de carreteras existentes, atenderemos a lo estipulado en el Artículo 2º de la Ley 37/2015, de 29 de septiembre, de Carreteras del Estado (España).

Así, el citado texto divide las carreteras en autopistas, autovías, carreteras multicarril y carreteras convencionales. Algunas de sus características, como veremos a continuación, nos permitirán diferenciar unas de otras y ser conscientes de sus singularidades.

New call-to-action

Esta es la clasificación de las carreteras en España:

1. Autovías y autopistas

La diferencia entre autopista y autovía está en el tipo de accesos y exclusividad para automóviles. Ambas forman parte de los principales tipos de carreteras en España.

Autopistas

tipos de carreteras autopistas
  • Circulación exclusiva de automóviles.
  • No hay accesos a las propiedades colindantes, lo cual hay que tener muy en cuenta a la hora de las solicitudes de nuevos accesos.
  • No puede ser cruzada a nivel por ninguna otra infraestructura de transporte, lo que condiciona el diseño de los enlaces que se vayan a construir para conectar con carreteras nuevas.
  • Consta de distintas calzadas para cada sentido de circulación, separadas entre sí. 

Autovías 

  • La diferencia con las autopistas es que pueden ser cruzadas a nivel por otra infraestructura viaria y que la circulación puede no ser exclusiva para automóviles.
  • En España se presenta la circunstancia de que existen autovías de primer nivel, lo cual dificulta su diferenciación de las primeras y provoca que la sociedad las confunda con frecuencia. 

2. Carreteras convencionales

Una carretera convencional es toda vía que no reúne las condiciones técnicas de una autovía o autopistas. Tienen un solo carril por sentido, sin separación física y con menor velocidad permitida.

carreteras convencionales

La diferencia entre carretera convencional y autovía es clara: mientras la autovía ofrece mayor seguridad, separación de calzadas y enlaces a distinto nivel, la carretera convencional permite accesos directos, cruces y un uso más diverso (incluidos ciclistas o vehículos agrícolas).

3. Carreteras autonómicas

Las carreteras autonómicas son aquellas vías cuya titularidad y gestión corresponden a las Comunidades Autónomas de España. Es decir, son responsabilidad de cada gobierno regional, a diferencia de las carreteras estatales (que dependen del Gobierno central) o las provinciales/locales (que pueden depender de diputaciones o ayuntamientos).

4. Autovías que sirven de circunvalación

Las autovías que sirven de circunvalación son un tipo específico de autovía (o autopista) cuya función principal es rodear total o parcialmente una ciudad o área metropolitana. Su objetivo es desviar el tráfico de paso que no necesita entrar en el centro urbano, mejorando así la fluidez de la circulación y reduciendo la congestión en las vías interiores de la ciudad.

5. Carreteras de la red provincial

Las carreteras provinciales están gestionadas por las Diputaciones o cabildos insulares. Conectan localidades dentro de una misma provincia y enlazan con redes autonómicas y estatales.
Cumplen un papel intermedio en la estructura jerárquica de los tipos de carreteras en España.

6. Carreteras locales de la red municipal

Las carreteras locales de la red municipal son vías que pertenecen y son gestionadas por los ayuntamientos. Su función principal es conectar distintas zonas dentro del propio término municipal, como barrios, urbanizaciones, zonas rurales, caminos agrícolas o accesos a instalaciones municipales.

Estas carreteras suelen tener un uso más local o vecinal, con menor volumen de tráfico que las vías provinciales o autonómicas. Aunque no están pensadas para largas distancias, son esenciales para la movilidad diaria de los ciudadanos y el funcionamiento logístico de cada municipio.

7. Autovías o carreteras con itinerario europeo

Las autovías o carreteras con itinerario europeo son vías que forman parte de la Red Transeuropea de Transporte, también conocida como red E-road. Esta red conecta diferentes países del continente mediante carreteras identificadas con la letra “E” seguida de un número, como la E-5 o la E-90.

En España, muchas de estas rutas coinciden con autovías o autopistas nacionales, y permiten una circulación fluida e ininterrumpida de personas y mercancías entre países. Están señalizadas con placas verdes y blancas, diferentes a las habituales azules de las carreteras nacionales.

New call-to-action
]]>
https://blog.structuralia.com/conoces-los-diferentes-tipos-de-carretera/feed 0
El primer edificio BREEAM Excepcional de España en sostenibilidad https://blog.structuralia.com/el-primer-edificio-de-espana-con-certificado-de-construccion-sostenible-breeam-excepciona https://blog.structuralia.com/el-primer-edificio-de-espana-con-certificado-de-construccion-sostenible-breeam-excepciona#respond Fri, 25 Jul 2025 06:43:22 +0000 https://blog.structuralia.com/el-primer-edificio-de-espana-con-certificado-de-construccion-sostenible-breeam-excepcional La ampliación de la Oficina de Armonización del Mercado Interior (OAMI), actualmente conocida como Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) que se encuentra en Alicante, en España, se convirtió en el primer edificio de nueva construcción en España, Portugal e Italia en obtener la máxima calificación del certificado BREEAM, alcanzando la categoría de «Excepcional». Este distintivo reconoce la excelencia en sostenibilidad, eficiencia y respeto medioambiental alcanzado por el complejo.

Características de la ampliación

La ampliación tiene una superficie de 39.000 metros cuadrados, cumpliendo con los máximos criterios de desarrollo sostenible. Dentro de esta superficie tendremos tres plantas destinadas al aparcamiento de vehículos, una planta baja y tres plantas para oficinas.

Su diseño le permite reducir en gran medida el consumo de dióxido de carbono, obteniendo la energía que necesita para funcionar mediante paneles solares ubicados en la parte superior del edificio, aerogeneradores o de fuentes geotérmicas.

El edificio dispone de cafetería, comedor, cajero automático, gimnasio, entre otros servicios, con los que se consigue reducir al máximo los desplazamientos de los trabajadores, obteniéndose así una reducción de las emisiones de dióxido de carbono a la atmósfera. Además, se fomenta el uso de la bicicleta con aparcamientos destinados a tal fin, duchas y taquillas.

El edificio ha conseguido reducir al máximo el consumo de agua, con diferentes medidas. Un ejemplo de esto es la plantación de vegetación autóctona que no requiere ser regada de forma constante, evitándose usar las cantidades de agua que se utilizarían con otro tipo de plantas.

Certificación BREEAM® y evaluación

El certificado BREEAM (Building Research Establishment Environmental Assessment Methodology) contribuye a una construcción más sostenible, obteniéndose así indudables beneficios económicos, sociales, ambientales y culturales.

La certificación BREEAM evalúa varios aspectos del rendimiento ambiental de los edificios (nuevos y existentes) en categorías como energía, agua, transporte, salud y bienestar, materiales y gestión de residuos, entre otras. Los edificios reciben un nivel que puede ir desde “aprobado” hasta “excepcional”, y el proceso debe renovarse periódicamente según el esquema correspondiente.

En 2025, continúa aplicándose ampliamente en más de 90 países, con cientos de millas de edificios certificados bajo sus diferentes esquemas y niveles de exigencia.

]]>
https://blog.structuralia.com/el-primer-edificio-de-espana-con-certificado-de-construccion-sostenible-breeam-excepciona/feed 0
Diseño paramétrico en arquitectura https://blog.structuralia.com/arquitectura-y-diseno-diseno-parametrico https://blog.structuralia.com/arquitectura-y-diseno-diseno-parametrico#respond Wed, 04 Jun 2025 13:59:56 +0000 https://blog.structuralia.com/?p=8512 El término paramétrico no es un término recién creado, surgió relacionado con las matemáticas y, aunque, incluso civilizaciones antiguas utilizaban principios que pertenecían al diseño paramétrico, el concepto fue evolucionando a través de la historia. 

En el diseño paramétrico, partiendo de una determinada idea, realizamos una abstracción mediante procesos geométricos y matemáticas, que nos permite obtener un diseño que tenga un resultado más preciso, es decir, optimizamos el resultado. 

Los parámetros utilizados en el proceso de diseño son variables que permiten realizar cambios que modifican diferentes características del diseño. Por lo tanto, dependiendo del tipo de diseño que queramos obtener, deberemos decidir exactamente los parámetros que van a actuar y las interrelaciones que habrá entre ellos para obtener lo que nosotros deseamos. 

Las posibilidades del uso del diseño paramétrico son muy amplias y puede emplearse desde la arquitectura hasta la música, pasando por el diseño de productos, la ingeniería o la moda. 

Diseño paramétrico y arquitectura 

Como se ha comentado, el diseño paramétrico se puede aplicar a multitud de campos. En este artículo se va a explorar como este tipo de diseño está cambiando las posibilidades de hacer arquitectura y como ha ido evolucionando. 

En la primera mitad del siglo XX, cuando todavía no había surgido la era digital, y caracterizándose por la experimentación empírica, los arquitectos Antoni Gaudí y Frei Otto utilizaron diseños paramétricos “analógicos”.  

Antoni Gaudí realizó modelos colgantes que consistían en un tablero en el techo del que colgaban cadenas con saquitos cargados, la deformación de las cadenas con los pesos era la curva de geometría óptima que debía utilizar en las cúpulas y los arcos. Utilizó un proceso iterativo cambiando las diferentes variables y observando y analizando el comportamiento de la estructura para emplear la más adecuada. Esta maqueta podemos considerarla como una de las primeras aplicaciones de diseño paramétrico en la arquitectura.

En la segunda mitad del siglo XX surge la era digital y con ella los primeros programas para el diseño de la arquitectura. De este modo, se podía diseñar la edificación de forma integral, pudiendo utilizar formas arquitectónicas complejas y únicas. Como ejemplo de esta arquitectura podemos hablar del Museo Guggenheim de Bilbao, del arquitecto Frank Gehry, en el que se empleó el software de modelado paramétrico CATIA. El diseño paramétrico se utilizó tanto en el diseño como en la ejecución de la obra, puesto que los elementos estructurales eran todos diferentes. Respecto a la fachada, como dato anecdótico, se necesitaron 60.000 horas de diseño por ordenador, dada su complejidad. 

La tercera etapa está definida por la introducción de la Inteligencia Artificial (IA). Es en la que nos encontramos en este momento, permite generar infinidad de soluciones para un mismo problema, porque, durante el proceso de diseño, el algoritmo es el que se encarga de tomar parte de las decisiones que se llevan a cabo. Aparece de este modo el diseño generativo

De todos modos, la inteligencia artificial está generando controversia. Os dejamos este interesante artículo sobre La innovación en arquitectura y las tecnologías de la industria 4.0.

Arquitectura generativa 

Según Autodesk, el diseño generativo es el proceso de introducir objetivos de diseño, materiales, limitaciones de costes y otros datos en un programa informático que evalúa todas las soluciones posibles. El diseño generativo permite, a los arquitectos y otros participantes en el proceso de construcción, identificar el mejor diseño para un edificio basándose en datos del mundo real. 

En la arquitectura generativa, el diseño se realiza entre el arquitecto y el software que maneja los algoritmos. El arquitecto debe decidir cuáles son los objetivos que tiene que cumplir el diseño arquitectónico y lo debe de hacer empleando un lenguaje de algoritmos. No se basa en formas, los objetivos que elige son parámetros como valor de las cargas a soportar, altura, anchura, etc. A continuación, el software empleado lleva a cabo todos los objetivos que el arquitecto ha previsto, teniendo en cuenta muchos parámetros al mismo tiempo como el coste, el rendimiento, el uso de materiales, … y dando lugar a muchas soluciones. De nuevo el arquitecto será el que clasifique las soluciones que se han generado y elija la que crea, que se ajusta más a lo que él buscaba.  

Este procedimiento se puede repetir, es un ciclo iterativo, con la ventaja de que el sistema aprende de sus sucesivos resultados, por lo tanto, en cada iteración se puede lograr un diseño más optimizado y eficiente ahorrando mucho tiempo. Se aumenta la creatividad, porque el arquitecto quizás nunca habría llegado a soluciones aportadas de esta manera. 

Además, el diseño generativo ayuda al arquitecto a descubrir nuevas posibilidades de la arquitectura. Se puede gestionar a la vez gran cantidad de información registrándola con toda precisión, sin que nada quede al azar. 

Conclusiones 

Desde que han surgido nuevas herramientas para el diseño, la arquitectura no tiene límites y proyectos que serían imposibles, por su complejidad, están empezando a ser reales. 

El diseño paramétrico está en constante desarrollo porque las tecnologías van avanzando a pasos de gigante. Con la inteligencia artificial las posibilidades de elección de formas completamente nuevas son muy amplias.  

Si estás interesado en especializarte en esta área, te recomendamos que accedas a nuestro Máster de Formación Permanente en Construcción y Coordinación de Modelos Virtuales Paramétricos de Edificación con él podrás liderar el nuevo mercado de la construcción. 

]]>
https://blog.structuralia.com/arquitectura-y-diseno-diseno-parametrico/feed 0
Proyecto TFM: Licitación en Proyecto Público Privado de Carreteras https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras#respond Tue, 29 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras

Descubre cómo un alumno analiza la licitación de un proyecto de carreteras en una Asociación Público-Privada desde la perspectiva de un fondo de inversión.

Trabajo Fin de Master: Informe Ejecutivo sobre la Licitación No. 1/2016 del Proyecto Público Privado de Carreteras “Diseño, construcción, operación y financiamiento de la infraestructura vial en Rutas Nº 12, 54, 55, 57 y construcción del Bypass de la ciudad de Carmelo CIRCUITO 1 en Uruguay”.

Proyecto TFM: Trabajo de Fin de Master para el Máster Internacional en Proyectos de Colaboración Público-Privados

Este Trabajo de Fin de Master para el Máster Internacional en Proyectos de Colaboración Público-Privados consistió en ponerse dentro de los zapatos de un analista financiero de un Fondo de Inversión dedicado a invertir en proyectos de colaboración público-privada o de Asociaciones Público-Privadas – APP mediante la modalidad de inversión de Project Finance.  El cliente consistía en una empresa dedicada al desarrollo de proyectos de concesiones de carreteras que solicitó financiamiento al Fondo para participar en un concurso de licitación pública de diseño, construcción, operación y financiamiento de ciertas rutas en la ciudad de Carmelo en Uruguay en 2016.  Para esto se debió analizar cuidadosamente los pliegos de licitación para identificar alertas sobre la viabilidad financiera del proyecto, pero sobre todo respecto al repago de la deuda hacia el Fondo, es decir un análisis de viabilidad y riesgos desde el punto de vista del financista.  ¡Interesante perspectiva!

1. Descripción del Proyecto de Concesión Vial

El proyecto comprende el diseño, construcción y/o rehabilitación, mantenimiento y financiamiento de 17 subtramos dentro de los 4 tramos mencionados y el bypass totalizando 260,27 kms.  En este aspecto es importante recalcar que el proyecto contiene una sección greenfield en donde se debe diseñar, planificar, construir y mantener obras viales nuevas que no existen; yellowfield en donde las obras requieren importantes ampliaciones y rehabilitaciones; y brownfield en donde ciertos tramos existen y están operativos que deben ser puestos a punto acorde a los indicadores de servicios solicitados y mantenidos.    

El contrato corre por 20 años plazo y el monto máximo de oferta es de 3.000.000.000 de Unidades Indexadas (moneda uruguaya indexada al dólar para contrarrestar la inflación misma que en 22 años de vida alcanzó de manera acumulada el 530%).  Los pliegos para participación en el concurso del 

El pago al contratista se realiza mediante fórmulas que corresponden a 3 componentes A, B y C que toman en cuenta variables de indicadores de servicio mediante coeficientes técnicos, la infraestructura terminada y el tráfico de los tramos reparados, rehabilitados, construidos, mantenidos y reparados lo indica que los ingresos contemplan una porción de inciertos fluctuante con el mercado de automóviles, riesgo para un financista respecto al repago de su deuda.

El concurso público se realiza mediante precalificación de los interesados y luego en realizar una propuesta técnica por 30% de la calificación y una propuesta económica por 70%, evidenciando que la productividad y precio juegan como principal factor decisorio.

1.Pliegos Analizados MTOP UY 2016

Ilustración 1 Pliegos Analizados MTOP Uruguay

2. Análisis de Riesgos del Proyecto

Se realizó una ponderación de riesgos basada en la metodología aplicada por el Ministerio de Economía y Finanzas del Ecuador.  La metodología realiza una valoración entre 1 y 9 de los riesgos, entendiendo que 0 equivale a la no existencia del riesgo y 10 a un riesgo convertido en cierto y de alto impacto por lo tanto imposible de manejar o mitigar.  La metodología se resume en el siguiente gráfico y consiste en multiplicar el número según la probabilidad asignada por el número del impacto asignado y obtener un resultado del riesgo:

2.Metodologia Riesgos MEF EC

Ilustración 2 Metodologia Riesgos MEF EC

La calificación de riesgo global del proyecto, siendo el promedio simple de todas las ponderaciones de los diferentes riesgos fue de 3.56 equivalente a un proyecto con riesgo moderado, además de que a mayo 2022 el EMBI (Emerging Markets Bond Index de JP Morgan) de Uruguay alcanzó 1.53 cuando la región tiene un promedio de 4.18 y a nivel global es de 3.85 por lo cual el país presenta leves riesgos macroeconómicos.

3.Ponderacion de RiesgosIlustración 3 Ponderación de Riesgos del Proyecto

En cuanto a la distribución de riesgos, se concluye que en principio se sigue los lineamientos de mejores prácticas a nivel internacional y el proyecto presenta una alta transferencia de riesgos hacia el contratista sin embargo se realizó un análisis de ciertos riesgos importantes para el criterio del Fondo: 

  • El más complejo es la asunción del riesgo de demanda (ingreso que depende del volumen del tráfico) en uno de los 3 componentes del pago por disponibilidad, que realmente se traduce en un pago por uso o peaje sombra.  Esto implica que los modelos financieros deben demostrar viabilidad con una reducción de ingresos de hasta 10% y sin arriesgar el repago de la deuda.
  • Se destaca que, en caso de huelgas o malestar social, no se contemplarían como fuerza mayor y estos riesgos pueden recaer sobre el contratista directamente por lo cual es importante que se cuente con retroalimentación de la aceptación del público sobre el proyecto y la consulta previa.
  • Se asegura el repago de la deuda al financista en primera prelación y se aseguran step-in rights siempre con aprobación de la entidad contratante.  Sin embargo, se alerta que en caso de una terminación anticipada se utilizará las garantías de fiel cumplimiento para repago de la deuda senior pero en caso que quede un saldo deberá ser satisfecha por los accionistas por lo cual se requerirá garantías o colaterales directos de los accionistas.
  • En los pliegos se contempla como opción de resolución de conflictos, fuera de la justicia común de Uruguay, la opción de arbitraje en el mismo Uruguay donde el laudo arbitral será inapelable.  Esta opción de arbitraje nacional constituye un posible riesgo inaceptable ya que podría ocurrir un sesgo en el arbitraje y no corresponde a la práctica usual de que se pueda tener un arbitraje internacional en Nueva York o Londres

3. Análisis de la Información Proporcionada (perspectiva del financista)

Se realizó un análisis de información proporcionada con el objeto de identificar estudios necesarios o información faltante para poder decidir sobre financiar el proyecto con razonabilidad:

  1. Dentro de los pliegos se proporcionó un estudio de tráfico por día y por tramo basado en la información recolectada a través de los años de las porciones existentes, sin embargo, es necesario que se encargue un estudio de tráfico robusto de una empresa de alta reputación preferiblemente internacional.  El estudio ayudará a corroborar o brindar nuevos estimados y sobre todo proyecciones futuras.  Esto es esencial para definir los límites para el modelo financiero sobre reducción de ingresos y máximos de financiamiento.
  2. Al ser una carretera con componentes greenfield es importante que solicitar un análisis previo de los posibles impactos ambientales y sociales que puedan conllevar riesgos reputacionales, costos de reparación no programados y además posibles reasentamientos de personas y acciones sociales en contra del proyecto.
      
  3. Se deberá solicitar una debida diligencia sobre la infraestructura existente, el status legal de los predios y el marco legal de la licitación.  Este análisis que se encargará a alguna firma local con conocimiento de las leyes locales.  Así también se deberá estimar los tiempos para obtención de licencias para construcción, obtención de licencias ambientales, entre otras, para asegurar que los plazos podrán ser alcanzados especialmente en cuanto a la operación de la infraestructura.
  4. Se debe solicitar a la empresa cliente un estudio de prefactibilidad de costos de operación y mantenimiento, así como de costos de construcción.  Este estudio forma parte vital de lo que los proponentes privados deben realizar previo a presentar una oferta.  La información levantada junto con una provisión para riesgos inesperados sería utilizada para elaborar el modelo económico financiero y crear el Plan Económico Financiero y derivado de esto la propuesta final, tanto técnica como económica.  Si bien este estudio lo debe realizar el proponente privado, para evitar problemas de agencia, el fondo requerirá una auditoría o verificación de los estudios.

En conclusión, sobre la información proporcionada, si bien el proyecto presenta una adecuada estructuración, el riesgo de demanda es bastante alto y las condiciones y políticas financieras que se impondrán al privado, y que serán reflejadas en el modelo financiero, dependen de información vital que debe ser complementada o levantada, tal como: un estudio de tráfico, estudio socio ambiental, debida diligencia de infraestructura y predios necesarios y costos a nivel de prefactibilidad.  Sin estos estudios no se podría realizar una oferta de financiamiento para el concurso.

4. Otras condiciones para el proyecto (para el contratista y financista)

Para la elaboración del modelo financiero y plan económico financiero es importante que el Fondo de Inversión tome en cuenta las siguientes consideraciones:

  • Capital Social mínimo Aportado Los pliegos del contrato establecen que como mínimo los accionistas deberán aportar un 15% de capital social a la Sociedad Específica de Proyecto del total del CAPEX necesario y al momento de la conformación se deberá aportar el 25% de este monto esperando en 4 meses completar el restante 75% de capital social.  Esto quiere decir que el financiamiento deberá ser como máximo de 75% del CAPEX.
  • Límite a la reducción de Patrimonio Bajo ninguna circunstancia durante la vida del contrato se podrá reducir el capital social y patrimonio perteneciente al privado de la SPV, en caso que esto ocurra puede considerarse una causal de terminación por causa del concesionario si no se cuenta con autorización previa y justificada por la Entidad Contratante.
  • Autorización en caso de emisión de bonos u otras obligaciones En caso de que se decida financiar el proyecto con bonos u otras obligaciones, se deberá obtener la aprobación de la entidad contratante previo a la firma del contrato.
  • Autorización y prohibición de cesión de acciones Queda prohibida la cesión de acciones hasta finalizar la construcción de obra.  Solamente se lo podrá realizar bajo autorización de la entidad contratante por un máximo de 20% siempre que la SPV mantenga las ratios de solvencia requerida para la licitación.  Esto es liquidez de 1, máximo apalancamiento de 2 y rentabilidad de 5% de la constructora principal accionista.
  • Garantías exigidas y fondo de provisión Se requiere una garantía de fiel cumplimiento de contrato por $1.600.000 dólares americanos y un fondo de reparo de $1.600.000 dólares americanos para la etapa de construcción y puesta a punto.  Para la etapa de operación y mantenimiento se requiere una garantía de fiel cumplimiento de $2.500.000 dólares que se deberá mantener hasta 12 meses luego de la reversión del activo.  Se retendrá del pago por disponibilidad un 1.5% mínimo que se constituirá en un fondo de provisión que se utilizará para compensar las condiciones que no se cumplan al momento de entrega del activo según las condiciones requeridas.  Se devolverá hasta 2 años luego de la entrega final de los activos.
  • Costo del Fideicomiso El contratista deberá depositar anualmente en el fideicomiso un valor de $1.700.000 unidades indexadas que serán utilizadas para costos del contralor o fiscalizador.

Conclusiones sobre la información financiera sobre el contratista y el financista

Las presentadas son condiciones que implican límites, tanto a la estrategia de financiamiento como de gestión de la empresa de propósito específico del proyecto que deberá considerar tanto el financista como el contratista.  Además, se establecen costos, sobre todo de garantías, fondos y fideicomisos, en que deben incurrirse mismos que reducen los flujos operativos y éstos deben considerarse en costos de inversión y costos de mantenimiento reduciendo el flujo disponible para el servicio de la deuda.  Esto debe incluirse en el modelo financiero para así calcular las ratios de cobertura de la deuda necesarios e incluso en los análisis de sensibilidad que el Fondo debe exigir al contratista.

5. Sensibilidades del Modelo Financiero de los Proponentes (para el financista)

En los pliegos del proyecto se solicita un resumen con información del resultado de aplicar distintas sensibilidades en variables elegidas y su reflejo en otras variables seleccionadas.  Las sensibilidades aplicadas deberán reflejar el impacto sobre las siguientes variables utilizando el modelo financiero: TIR del accionista, TIR del proyecto, y ratios de cobertura del servicio de la deuda – DSCR (mínimo y promedio).

4.Cascada de Fllujo Project FinanceIlustración 4 Cascada de Flujos para Project Finance

Las variables y la magnitud que se han elegido para las sensibilidades son: 

  • Variación de obras iniciales en + y – 15% (se entiende que sería el CAPEX total necesario para la primera fase para el componente A, B y C).  Se debería considerar un aumento de CAPEX de 25% debido a que las carreteras pueden resultar en altos sobrecostos.
  • Variación de las inversiones asociadas al mantenimiento mayor durante la fase de explotación por + y – 15% del CAPEX.  Se concluye que son suficientes.
  • Reducción de ingresos anuales del PPD por 5% por concepto de deducciones (sería el PPD total).  Se considera que no es suficiente para el financista.  Se entiende que si se llega a una reducción de -8% por 2 años consecutivos sería motivo de terminación por causa del concesionario.  Para consumo de los financistas se debería considerar una caída de -10% en el PPD que podría ocurrir debido a una sobre estimación en las proyecciones de tráfico.
  • Sensibilidad ante aumento de la tasa de financiamiento de 15%.  se considera que no es necesaria siempre y cuando se incluya el costo de implementar el SWAP de tasa de interés en los flujos operativos y de financiamiento.

Si bien se han solicitado las principales variables de impacto, para consumo del financista, las variables adicionales deberían incluir:

  • Loan Life Coverage Ratio – ratio del valor presente de ingresos en el tiempo del repago del financiamiento para cubrir el valor presente neto total del servicio de la deuda global 
  • Project Life Coverage Ratio – ratio del valor presente de ingresos en el tiempo total del proyecto respecto para cubrir el valor presente neto del total del servicio de la deuda global

Estas variables ayudarían a verificar que no se rompan los límites de comodidad de riesgo del financista siendo la LLCR la más ácida.

Adicional a las sensibilidades requeridas, el financista debe solicitar un análisis de sensibilidad y su impacto en las variables antes mencionadas (TIR accionista y proyecto, DSCR mínimo y promedio, PLCR y LLCR) de las siguientes variables:

  • Impacto de un aumento del OPEX en 10% que no se consideró previamente y puede ocurrir debido a la inflación o sobreestimación de costos.
  • Presentar un escenario pesimista que incluya: +15% de CAPEX inicial, -10% PPD y +5% CAPEX de reparación y +5% OPEX 
  • Se podría correr con las variables de sensibilidades un modelo estocástico tipo Monte Carlo para identificar que los escenarios de NO Financiación sean menores al 10%.

6. Conclusión y Recomendación

Luego del resumen y análisis presentado sobre el Trabajo de Fin de Master se concluye que la oportunidad de inversión para el Fondo de Inversión sobre la concesión de carreteras en Uruguay es de riesgo moderado y sería atractiva debido a que el MTOP de Uruguay es una entidad con experiencia comprobada.  Además, Uruguay no presenta un riesgo país fuera de grado de inversión y el proyecto se encuentra adecuadamente estructurado.

En este sentido, el análisis financiero y económico del analista del Fondo, deberá recomendar que se continúe con el trabajo con el cliente y solicitar los estudios adicionales requeridos.  Una vez con esa información se podrá completar el modelo financiero acordado e incluir condiciones financieras para mitigar el riesgo de mercado por PPD como colaterales de accionistas, así como un diferencial entre la deuda pendiente de pago cada año y la garantía de ejecución de la concesionaria y finalmente incluir una cuenta de reserva de servicio de deuda por 1 año.


RESEÑA DEL AUTOR:

1619971908191Santiago Martín Ramírez Chiriboga es economista ecuatoriano por la Universidad San Francisco de Quito con más de 10 años de experiencia profesional y 5 años especializándome en créditos para el desarrollo social, ambiental y de infraestructura.  Con una Maestría en Ciencias de Economía por la Universidad de Amsterdam de los Países Bajos y un Máster en Finanzas por la EUDE Business School de España.  Recientemente he logrado el título de Master Internacional en Proyectos de Colaboración Público-Privados emitido por Structuralia y validado por la Universidad Isabel I en España.

He desempeñado funciones económicas, financieras, estadísticas y de estrategia en las áreas de riesgo, crédito e inversiones, inteligencia de mercado, gerencia de programas y proyectos, desarrollo social y ambiental, y asistencia técnica en bancos de desarrollo, el Ministerio de Economía y Finanzas de Ecuador, y el Programa de las Naciones Unidas para el Desarrollo – PNUD.  Actualmente me desempeño como Experto en Estructuración y Riesgos de Asociaciones Público-Privadas (PPP´s en inglés) para el Departamento del Tesoro de los Estados Unidos en su misión de apoyo al Gobierno del Ecuador.

TESTIMONIO DEL AUTOR:

1. ¿Por qué elegiste Structuralia?

«Este programa lo elegí luego de qué investigando en internet representaba la mejor opción en cuanto a costo beneficio pues el precio es accesible, especialmente con las oportunidades de becas OEA, la temática y cursos son bastante específicos y por lo tanto profesionales, y su plataforma web para aprendizaje funcional y amigable desde el computador y el teléfono. Además, al explorar sobre Structuralia, me atrajo que es una institución dedicada en buena medida a la Ingeniería por lo cual, desde mi ámbito financiero y económico representa una oportunidad ya que las Asociaciones Público Privadas esencialmente requieren de conocimientos económicos, de ingeniería, finanzas y legales.«

2. ¿Qué es lo que más destacarías del máster?

«Lo más destacable del Master es el Trabajo de Fin de Master. Dentro de los cursos existe mucha literatura, y me tomé el tiempo para intentar absorber todo el contenido e ir relacionándolo con la literatura previa y mi experiencia profesional. Llegado el Trabajo Fin de Master, al requerir un análisis bancario sobre los pliegos de un proyecto de carretera de Colaboración Público-Privado, inicialmente pensé que era un desafío fuerte ya que representa las actividades reales que un banco de inversión requeriría. Sin embargo al realizarlo me dí cuenta que mi criterio se había fortalecido y las herramientas aprendidas fueron de completa utilidad para producir un buen trabajo, profesional y a la altura de cualquier analista senior de un banco de inversión para proyectos de Asociación Público Privado e Infraestructura mediante Project Finance.«

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«Realizar el Máster me ayudó a fortalecer y complementar mis conocimientos en esta materia tan específica y de escaza oferta académica Además me ayudó a tener conocimientos sobre las diferentes pespectivas de los diversos integrantes (inversionistas, industriales, Estado) las cuales son en muchas ocasiones contrarias pero existe un punto de equilibrio en donde los incentivos se alinean para todos. Finalmente espero que estos conocimientos que me han permitido especializarme en una temática compleja y poco conocida me abran puertas para alcanzar oportunidades de trabajo internacional que es lo que anhelo.»

]]>
https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras/feed 0
Proyecto TFM: Modelo para la detección de fraudes en transacciones https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones#respond Tue, 22 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones

Descubre cómo un alumno ha desarrollado un modelo innovador para detectar fraudes en transacciones y combatir los ciberataques en este TFM.

Actualmente, con el avance de la tecnología y el acceso a Internet, los pagos han evolucionado y existen diferentes formas de realizarlos, ya sea de manera física o virtual. Así como los pagos han ido cambiando para adaptarse a las necesidades y comodidades de clientes y comercios, los ciberdelincuentes también han ido evolucionando. A pesar de las diferentes medidas de seguridad que adoptan las entidades financieras, los fraudes en medios de pagos es una problemática que se enfrenta día con día.

Las entidades financieras y emisores de medios de pago deben evolucionar en conjunto con las necesidades del sector, hacer uso de la creciente tecnología y la disposición de datos para establecer medidas de seguridad y establecer medidas de detención temprana de fraudes.

Creación de modelo para la detección de fraudes en transacciones en tarjetas de crédito

Este interesante TFM elaborado Magaly Fonseca ex-alumna del Máster en Big Data y Business Analytics en Structuralia nos profundiza en esta temática tan importante hoy creando un «Modelo para la detección de fraudes en transacciones de tarjetas de crédito». 

1. Elección de Dataset

Para la elaboración de este trabajo de fin de master se seleccionó un dataset, de los disponibles en la página Kaggle, el cual cuenta con información para trabajar con el objetivo de entrenar un modelo de aprendizaje capaz de detectar casos de fraudes en las transacciones. El dataset elegido se llama card_transdata el cual contiene información de transacciones con tarjetas de crédito.

El dataset es un archivo de extensión csv y consta de 8 columnas. Descritas a continuación:

  • Distance_from_home: la distancia desde casa respecto a donde ocurrió la transacción.

  • Distance_from_last_transaction: indica la distancia entre el punto de la transacción con respecto a la última transacción registrada, es decir, la transacción anterior.
  • Radio_to_median_purchase_price: es la relación entre el monto de la transacción y el precio medio de compra del cliente.
  • Repeat_retailer: indica con 1 si la transacción se realizó desde el mismo minorista y con 0 si no.
  • Used_chip: en esta columna se indica con 1 si en la transacción se utilizó el chip de la tarjeta de crédito y con 0 si no se utilizó.
  • Used_pin_number: en este campo se señala con 1 si en la transacción se usó el número de pin y con 0 en caso contrario.
  • Online_order: se indica con 1 si la transacción corresponde a un pedido en línea y 0 si no fue así.
  • Fraud: indica si la transacción fue identificada como fraude o no, al igual que las columnas anteriores con los valores 1 para los casos fraude y 0 para los no fraude.

2. ETL con Trifacta

Para el proceso de extracción, tratamiento y carga de los datos (ETL) se hace uso de la herramienta Trifacta. Para iniciar el proceso se carga el dataset card_transdata.csv en la herramienta y se crea el flujo con el nombre de “datos de transacciones”.

Como primer paso en el proceso de transformación se realiza el perfilado de datos, con el fin de conocer a fondo el contenido del dataset y verificar la calidad de los datos con el objetivo de determinar las transformaciones que deban realizarse para poder trabajar con los datos y obtener resultados confiables.

Imagen 1 (1) (1)Imagen 1. Verificación de la calidad de los datos iniciales en Trifacta.

Según se muestra en la imagen anterior, los datos de las 8 columnas del dataset se encuentran con una buena calidad ya que la barra indicadora en todos los casos se encuentra en verde, lo que se traduce en que los datos están correctos, coinciden con el formato de la celda y no hay valores inválidos ni vacíos. Se puede apreciar además que el dataset tiene dos tipos de datos: enteros y decimales. Por lo tanto, se procede a finalizar el proceso de ETL, corriendo el job en Trifacta para obtener el dataset y continuar con la parte analítica del mismo.

3. Estudio estadístico

Parte importante al trabajar con datos es conocerlos y realizar un estudio analítico que nos permita tomar las mejores decisiones para el tratamiento de los mismo, para dicho proceso se realizó el análisis en Python.

1. Análisis EDA

Imagen 2 (1) (1)Imagen 2. Gráficos de las variables categóricas.

Gracias a los gráficos se puede observar que el 88.2% de las transacciones se realizaron en el mismo minorista que la compra anterior. En el 35% de las transacciones se utilizó el chip. En el 10.1% de las compras se usó el pin y el 65.1% de las transacciones fueron compras en línea. Por último, el 8.7% de las transacciones son fraude.

Se realizan boxplot para las variables continuas, para observar la distribución de los datos de dichas variables:

Imagen 3 (1)Imagen 3. Boxplot de las variables continuas.

En las tres variables se pueden observar que existen valores atípicos que sobresalen del resto de datos, al considerar la descripción de las variables, a saber: distancia desde casa, distancia desde la última transacción y razón respecto a la media de compra; además tomando en cuenta que lo que se desea más adelante es entrenar un modelo que prediga si la transacción corresponde o no a un fraude, estos valores atípicos podrían representar movimientos de fraude por lo que se determina que deben mantenerse.

2. Estudio de correlaciones

Parte importante del análisis es realizar un estudio de correlaciones para observar si existe relación entre las diferentes variables que componen el dataset. Debido a que se tiene variables continuas y categóricas se utiliza el método de Spearman, que se puede utilizar para ambos tipos de variables:

Imagen 4 (1)Imagen 4. Correlación de las variables

En el resultado se puede apreciar una fuerte correlación (0.6) entre las variables distancia desde casa y si la compra se realizó en el mismo minorista. Además, se puede apreciar un adelanto de las variables que influyen en la variable de nuestro interés (fraude) donde la razón respecto a la media de compra es la variable que tiene mayor correlación con fraude (0.3) aunque el valor no es tan alto, le sigue la variable compra en línea con 0.2 y distancia desde casa con 0.1. Un punto importante resalta de este análisis, aparecen dos variables con correlación negativa con fraude, las cuales son uso de chip y uso de número de pin ambas con un valor de -0.1 lo que se podría interpretar que el uso de esto dos métodos de seguridad son efectivos para evitar el fraude en las transacciones.

Como último paso del análisis estadístico se realizan pruebas de hipótesis (anova) para corroborar la influencia o no de las variables en nuestra variable de interés que es el fraude, se muestra el resultado:

Imagen 5 (1)Imagen 5. Resultado de Anovas

Como se puede apreciar, la única variable que tiene un valor mayor a 0.05 es si la compra fue en el mismo minorista, por lo que se rechaza la hipótesis nula de que la variable es influyente. El resto de variables sí son influyentes.

4. Visualización

Una vez realizado el proceso de ETL y el análisis estadístico de los datos disponibles, se procede a cargar el dataset en PowerBI para la creación de un dashboard que permita visualizar la información disponible:

Imagen 6 (1)Imagen 6. Carga del dataset a PowerBI.

Una vez cargada el dataset, se procede a realizar algunas transformaciones de los datos, solamente para facilitar la visualización, dichas transformaciones corresponden al tipo de dato de las columnas con información booleana, se pasa de 0 y 1 a tipo “true/false” y en el caso de la columna Fraude se cambia el tipo de dato a texto y se reemplazan los 0 por la palabra “no” y los 1 por “si”. Cabe indicar que estas transformaciones se realizan solamente para efectos de facilitar la visualización, pero no modifican la fuente de los datos (el dataset).

Con las transformaciones descritas anteriormente, se procede a crear el dashboard con la información relevante para el caso en estudio:

Imagen 7 (1)

En el dashboard se puede visualizar como dato principal la cantidad total de fraudes detectados, que corresponde a 87403 casos; lo cual representa el 8.74% de las transacciones, fácilmente observable en el gráfico de pastel.

Además, se muestra una tabla en la que se compara las medianas de las variables numéricas para los casos fraude respecto a los no fraude, en dicha tabla se puede apreciar una diferencia significativa en las medianas de la variable “razón respecto a la media de compra” en los casos de fraude (5.07) en comparación a las transacciones no fraudulentas (0.91); también existe una diferencia importante en las medianas de la variable “distancia desde casa”, ya que en los casos de fraude la mediana es mucho mayor que los casos de no fraude; mientras que para la variable “distancia desde la última transacción” la diferencia de las medianas no es significativa (0.2).

Por último, se muestran 4 gráficos de barra, uno para cada variable booleana relacionadas a la variable fraude. Se puede observar fácilmente en ellos que para los casos de fraude la mayoría de las transacciones se realizaron en el mismo minorista, también se aprecia que la mayor proporción de fraudes se realizaron en compras en línea. Además, se puede apreciar que las medidas de seguridad como el uso del chip y el número de pin son efectivas para la prevención de fraudes, siendo el uso de numero de pin más efectiva.

5. Construcción de modelo de detección de fraudes

Con el objetivo de realizar un modelo de detección de fraudes, lo cual sería un modelo de aprendizaje de clasificación. En primera instancia se procede a determinar las variables a utilizar, como se determinó al final del análisis estadístico, las variables que son influyentes para determinar si es fraude o no son todas excepto si la compra fue en el mismo minorista. Además, esta variable tenía una alta correlación con la variable distancia desde casa, por lo que solamente se debe utilizar una de ellas, esto representa una razón mas para descartar la variable “repeat_retailer”.

1. Definición de variables de entrada y salida.

Con la información anterior, se procede a definir las variables de entrada y salida como primer paso de la construcción del modelo; se define también los datos de entrenamiento y prueba, siendo de prueba el 30% de los datos; además, se realiza un escalado de los datos.

Una vez definido, se procede a realizar la predicción utilizando diferentes métodos de aprendizaje supervisado.

2. Árbol de decisión

Se realiza una matriz de confusión para verificar la calidad del modelo

Resultado de la matriz de confusión:

Según lo mostrado en la matriz de confusión se procede a calcular las métricas que nos indiquen la calidad del modelo. Tenemos lo siguiente:

TP = 273905

FP = 2

FN = 2

TN = 26091

Accuracy = 0.9999

Se aprecia un accuracy muy bueno; sin embargo, como se apreció en el análisis estadístico los casos de fraude corresponde a un 8.7% de los datos, por lo que se tienen los datos desbalanceados, es decir, se tiene muchos datos de una clase (no fraude) y pocos de otra (fraude). Dado lo anterior, se procede a calcular el F1 score, la cual es la métrica más adecuada para este tipo de casos.

Precision = 0.9999

Recall = 0.9999

F1 score = 0.9999

Se puede apreciar que el F1 score es muy cercano a 1 por lo que se puede concluir que el modelo tiene muy buena calidad y tendrá mucha efectividad al predecir próximas transacciones fraudulentas.

3. Random Forest

Se muestra el resultado de la matriz de confusión.

Como se puede apreciar tiene el mismo resultado que con el árbol de decisión.

4. K-nearest neighbors

Resultado de la matriz de confusión.

Con la matriz anterior se puede apreciar que la calidad de este modelo es menor que la del modelo con el método de árbol de decisión. Se calculan las métricas de evaluación del modelo:

TP = 273713

FP = 194

FN = 500

TN = 25593

Accuracy = 0.9977

Precision = 0.9993

Recall = 0.9982

F1 score = 0.9987

5. Naive bayes

Resultado de la matriz de confusión:

Se puede observar que con este método la calidad del modelo decae aún más en comparación con los modelos anteriores. Se muestran las métricas de evaluación:

TP = 269793

FP = 4114

FN = 10801

TN = 15292

Accuracy = 0.9503

Precision = 0.9850

Recall = 0.9615

F1 score = 0.9731

 6. Comparación de los modelos

Finalmente, a modo de resumen se muestra una tabla comparativa de las métricas de los diferentes modelos utilizados, donde se puede apreciar que el método con mejor métricas y por tanto el que debe usarse es el árbol de decisión con un F1 score de 99.99%

7. Clustering

Otra parte importante para el negocio es categorizar las transacciones, haciendo uso de las ventajas que brinda el machine learning y data mining se procede a realizar el clustering. Para este objetivo se trabajó con las variables numéricas disponibles en el dataset. Como se pudo apreciar en la visualización (dashboard de PowerBI), las variables “distancia desde casa” y “razón respecto a la media de compra” fueron las variables que presentaron mayor variación en las medianas cuando se analizaban por separado los casos fraude respecto a los que no son fraude; es por esta razón que se toman estas dos variables para el proceso de Clustering.

Para determinar la cantidad idónea de cluster se utiliza el método Elbow.

A continuación, se muestran los resultados de dicho método, como se puede apreciar la cantidad de cluster a usar es 3.

Imagen 8. WCSS en función de K (número de clusters).

Una vez definida la cantidad óptima de clusters, se procede a realizar el clustering y a graficar para apreciar la distribución de los datos en cada uno de los clusters:

En el gráfico se puede apreciar un primer cluster (azul) con transacciones que están cerca de casa pero con razón respecto a la media de compra alta. Además, un segundo cluster (rojo) con transacciones que tienen una distancia desde casa media y la razón respecto a la media de compra también media. Por último, un tercer cluster (verde) con razón respecto a la media de compra baja y distancia desde casa alta.

8. Conclusiones

  • El dataset card_transdata tiene una buena calidad de los datos en su fuente original por lo que el tratamiento para los procesos posteriores es mínimo.
  • El 8.7% de las transacciones en estudio corresponde a fraudes.
  • Producto del estudio estadístico, se determina que las variables “distancia desde casa” y “mismo minorista” tienen correlación.
  • Con respecto a fraude, se determinó que todas las variables del dataset son influyentes excepto la variable “mismo minorista”.
  • En el estudio de correlaciones se aprecia cómo las medidas de seguridad adoptadas como uso de chip y uso de número de pin son efectivas para evitar el fraude ya que tienen una correlación negativa con los casos fraude.
  • Se realizan diferentes modelos haciendo uso métodos de aprendizaje supervisado con el fin de detectar casos de fraude, siendo el más efectivo el modelo que utiliza el método árbol de decisión, con un F1 score de 99.99%, por lo tanto, es el modelo que se debe utilizar.
  • Se realizó la categorización de las transacciones en 3 clusters, utilizando las variables continuas “distancia desde casa y “razón respecto a la media de compra”, haciendo uso del método elbow para determinar la cantidad óptima de cluster y utilizando el algoritmo K-Means para el clustering en sí.

El equipo de Structuralia agradece a Magaly Fonseca por su excelente trabajo realizado. ¡Mucho éxito en su carrera profesional y en todos los desafíos que se proponga por delante!


RESEÑA DEL AUTOR:

Formato IG (99)Magaly Fonseca Maroto, graduada en licenciatura en Ingeniería en Producción Industrial del Instituto Tecnológico de Costa Rica. También cursó un técnico en redes de computadoras, además de poseer estudios en Six Sigma Green Belt, Servicio al Cliente y PowerBI. Recientemente ha obtenido un Máster en Big Data y Business Analytics en Structuralia.

Trabaja desde hace 12 años en la empresa estatal de electricidad y telecomunicaciones en Costa Rica ICE (Instituto Costarricense de Electricidad), donde ha liderado diferentes equipos de trabajo técnicos y se encarga de realizar informes de gestión del área y participar en proyectos de mejora.

TESTIMONIO DEL AUTOR:

1. ¿Por qué elegiste Structuralia?

«Elegí Structuralia por la facilidad de estudiar online. El plan de estudio me pareció muy completo y acorde a mis necesidades y además tuve la facilidad de optar por una beca de la OEA.«

2. ¿Qué es lo que más destacarías del máster?

«Lo que destaco del máster en Big Data y Business Analytics es la amplitud de los temas abordados, como profesional en ingeniería industrial sin conocimientos robustos en computación y programación, la manera en que el máster abarca los temas me permitió una mayor comprensión y aplicación. Me parece muy bien que la metodología se centre en que el estudiante entienda a fondo cada uno de los temas con amplio fundamento teórico junto con la práctica, la cual es muy importante para interiorizar lo visto en la teoría.
Además, el hecho de poder ir desarrollando los temas de manera individual según el propio ritmo del estudiante es un punto muy favorable en Structuralia, sumado a la plataforma la cual es muy amigable y la manera en que va indicando el porcentaje de avance del módulo y del máster en general es muy útil».

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«Durante mi desarrollo profesional he logrado entender la importancia de contar con los datos de manera rápida, oportuna y eficaz para transformarlos en información que permita la toma de decisiones de una manera robusta y acertada, este máster me ha ayudado a complementar mi carrera como ingeniera industrial y potencializar con los conocimientos en Big Data y Business Analytics, siendo temas que se encuentran en auge estoy segura que el conocimiento adquirido me abrirá muchas puertas para seguir creciendo profesionalmente y contribuir en el desarrollo de la empresa en la que me desenvuelva».

]]>
https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones/feed 0
Proyecto TFM: Predicción de series temporales con modelos de IA https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia#respond Tue, 15 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia

Este proyecto TFM optimiza la predicción de series temporales con modelos de IA. Descubre enfoques avanzados para análisis de datos y toma de decisiones.

New call-to-action

Proyecto TFM: Predicción de series temporales con modelos de IA

Este artículo se centra en el Trabajo de Fin de Máster en Big Data y Business Analytics de nuestro ex alumno del Daniel Cano Alvira, que busca explorar el potencial de la inteligencia artificial para predecir movimientos en los índices bursátiles con el objetivo de lograr un rendimiento positivo en los mercados financieros. El proyecto representa posibles aplicaciones de técnicas de inteligencia artificial en el campo de las inversiones, ofreciendo y desarrollando dos posibles perspectivas para afrontar el reto.

Objetivos del TFM

El objetivo del trabajo es la creación de un modelo de predicción de precios para aplicar a los mercados financieros. Para ello se usará Python con el fin de descargar los precios de diversos activos financieros conectándose a Yahoo Finance. No se incluirá el código desarrollado en este post para que no se prolongue demasiado.

Datos del Proyecto

Yahoo Finance es un servicio en línea proporcionado por Yahoo que ofrece una variedad de información financiera de forma gratuita, incluyendo datos sobre acciones, noticias financieras, herramientas de análisis y recursos para el seguimiento de mercados e inversiones.

Si bien no goza de una API oficial, gracias a la gran cantidad de repositorios disponibles en GitHub se podrán obtener los datos de cotizaciones de forma sencilla. El repositorio que se va a emplear se llama yfinance, desarrollado por Ran Aroussi, es la mejor alternativa para Yahoo Finance, si bien cada vez consta de más métodos obsoletos debido a la mejora de la seguridad de la página web contra el webscraping. Para el alcance de este proyecto solo se usará el método “Ticker” y se descargarán los datos de cotización de algunos índices bursátiles de la página de índices mundiales de Yahoo Finance mediante un webscraping muy sencillo. Un índice bursátil es un dato calculado mediante una ecuación sobre unos activos concretos con el objetivo de reflejar las variaciones de valor o rentabilidades de los activos que lo componen. Los datos se devolverán como velas japonesas, este tipo de dato consta de 4 componentes principales para describir el movimiento del precio del activo subyacente. Dichos componentes se explican a continuación junto con el resto de datos disponibles en la tabla obtenida.

  • Date: Fecha y hora de inicio de la vela japonesa. Al descargar velas de intervalo diario existirá una por día y por lo tanto la fecha será diaria. 

  • Open (Apertura): Precio del activo al inicio del intervalo temporal de la vela.
  • High (Máximo): Precio máximo de cotización durante el intervalo temporal de la vela. 
  • Low (Mínimo): Precio mínimo de cotización durante el intervalo temporal de la vela. 
  • Close (Cierre): Precio del activo al final del intervalo temporal de la vela. 
  • Volume (Volumen): Cantidad de contratos que se han transferido en el total de transacciones llevadas a cabo en el intervalo temporal de la vela. 
  • Dividends (Dividendos): Cantidad monetaria retribuida por acción a los dueños de acciones de una empresa. Esto solo aplica cuando se trata de acciones o ETFs. 
  • Stock Splits (División de acciones): Relación se multiplica el número de acciones para tener más disponibles en el mercado o menos. Si es menor a uno se considera una división inversa, en la que se reduce el número de acciones, normalmente con el objetivo de subir el precio. Si es mayor que uno la cantidad de acciones aumenta, bajando el precio y haciéndolas más accesibles. Esto solo aplica cuando se trata de acciones o ETFs. 

Para nuestro caso además se calcularán nuevos datos a partir de los ya mencionados con el objetivo de obtener mayor capacidad de predicción. A continuación, se explican los principales. 

  • Range: Rango de precios de cotización de esa vela, se obtiene restando el máximo menos el mínimo. 

  • Range per unit: Rango en por unidad, se calcula dividiendo el rango (Range) entre el precio de apertura (Open). 
  • Open to Close: Rango entre apertura y cierre, se obtiene restando el precio de cierre (Close) menos el precio de apertura (Open). Cabe destacar que al contrario que el Rango este dato será negativo cuando la cotización descienda. 
  • Open to Close per unit: Rango entre apertura y cierre dividido entre el precio de apertura (Open). 
  • Gap: Diferencia entre el precio de apertura actual y el precio de cierre de la vela anterior. 
  • Gap per unit: Diferencia entre el precio de apertura actual y el precio de cierre de la vela anterior dividida entre el cierre anterior. 
  • Moving Average difference per unit: Diferencia entre el precio de apertura actual y las medias móviles de 10, 20, 50, 100 y 200 periodos entre la media. 
  • Week Day: Número del día de la semana, entre el 0 y el 4 al que pertenece la vela.

Selección del universo de activos a estudiar

Una vez realizado el webscraping de los índices bursátiles se decidió filtrarlos debido a la cantidad inicial. Mediante el análisis de las series temporales de los distintos índices se concluyó que los más operados son los del mercado americano y que hay índices que tienen un rango diario considerablemente inferior a los demás, como son: N225, IXIC, GSPC o AORD. Cabe destacar que el SPY consta de un volumen decente, suficiente volatilidad y un precio correcto para permitir eficiencia en la gestión de riesgo con la operativa real. A continuación, veremos la correlación entre los activos seleccionados.

 Predicción de series temporales con modelos de IA

A partir de la figura se puede observar la alta correlación entre los mismos, no siendo negativa en ningún caso e inferior a 0.5 solo en 3 casos. Dado que los índices proporcionan una visión general de la dirección y la salud de un segmento particular del mercado financiero, cuando dicho índice representa las mejores empresas de un país se suele considerar que su rendimiento será parecido a la salud económica del país. Si se une esto a la alta correlación entre los índices de distintos países se podría considerar que los ciclos económicos se encuentran relativamente sincronizados, probablemente debido a la gran globalización y dependencia internacional. Podemos deducir de todo ello que probablemente los propios índices tengan cierto valor predictivo entre ellos, esta será la hipótesis del segundo caso de estudio que se realizará.

Métricas de valoración de estrategias

Para validar los sistemas de predicción se calcularán las métricas estándar del sector y algunas que personalmente creo pueden ser interesantes y ayudan a la compresión del comportamiento del sistema. Todas estas métricas están basadas en las operaciones pasadas y por lo tanto son puramente orientativas y cambiantes con el tiempo.

1. Rentabilidad

Mide el rendimiento en términos de ganancia neta en relación con el capital invertido. Una rentabilidad positiva indica que el sistema está generando beneficios. 

Rentabilidad=Ganancia NetaCapital Invertido×100

2. Ratio de Sharpe

Evalúa la relación entre el rendimiento adicional obtenido por asumir riesgos y la volatilidad del sistema. Un ratio de Sharpe alto indica un mejor rendimiento ajustado al riesgo. En la práctica, el rendimiento de los bonos del gobierno a corto plazo, como los bonos del Tesoro de Estados Unidos con vencimientos de tres o seis meses, es comúnmente utilizado como una aproximación de la tasa libre de riesgo. Esta elección se basa en la suposición de que estos bonos son relativamente seguros y líquidos. Ya que esto queda fuera del ámbito de estudio de este trabajo se va a usar una tasa libre de riesgo igual a 0 que sería el equivalente a tener el dinero en la cuenta del banco.

Ratio Sharpe=Rendimiento Esperado – Tasa Libre de RiesgoVolatilidad×100

3. Ratio de Sortino

Se trata de una métrica muy similar al ratio de Sharpe pero en la cual en vez de emplear la volatilidad total del sistema solo se tendrá en cuenta la de las posiciones negativas.

Ratio de Sortino=Rendimiento Esperado – Tasa Libre de RiesgoDesviación Estándar Negativa×100

4. Máxima pérdida

Mide la mayor disminución del balance de la cartera desde el máximo. Cuanto menor sea mayor será la estabilidad del sistema.

Máxima Pérdida=1-Balance ActualBalance Máximo×100

5. Porcentaje de operaciones ganadoras

Probabilidad de que una operación cualquiera sea ganadora.

Probabilidad de Ganar=Número de Operaciones ExitosasNúmero Total de Operaciones×100

6. Ratio de beneficio entre riesgo

Evalúa la relación entre las ganancias y las pérdidas, ayudando a determinar si el sistema está generando recompensas proporcionalmente mayores a los riesgos asumidos. 

Ratio Beneficio-Riesgo=Beneficio Promedio por OperaciónPérdida Promedio por Operación

7. Esperanza matemática

Representa el promedio ponderado de todos los posibles resultados de una variable aleatoria, tomando en cuenta la probabilidad de que cada resultado ocurra. En el contexto financiero, la esperanza matemática puede utilizarse para calcular el rendimiento esperado de una inversión, ayudando a los inversores a tomar decisiones informadas sobre dónde asignar sus recursos. 

Esperanza=(Probabilidad de Ganar * Beneficio Promedio por Operación –

Probabilidad de Perder * Pérdida Promedio por Operación)×100

Siendo: Probabilidad de Perder = 1-Probabilidad de Ganar

De la ecuación previa se puede entender la relación entre la probabilidad de ganar y el ratio de riesgo. Habrá un punto límite tras el cual la esperanza sea negativa para cada valor de probabilidad de ganancia puesto que cuanto menor sea mayor tendrá que ser el retorno de la inversión en relación a la pérdida (ratio de riesgo) para seguir siendo rentable.

8. Tamaño de Kelly

Fórmula utilizada en la teoría de la gestión de capital y en la teoría de la información para determinar el tamaño óptimo de una serie de apuestas. Es aplicable en situaciones donde se realizan apuestas o inversiones sucesivas, busca maximizar el crecimiento del capital a largo plazo. Es importante destacar que el Criterio de Kelly es una estrategia agresiva y, si bien puede maximizar el crecimiento a largo plazo, también puede llevar a la pérdida de una gran parte del capital en el corto plazo si las estimaciones de las probabilidades son inexactas. 

Kelly=Probabilidad de Ganar -Probabilidad de PerderRatio Beneficio-Riesgo×100

9. Porcentaje de tiempo en el mercado

Relación entre la cantidad de días que se tienen operaciones en mercado y la cantidad de días que se ha aplicado el sistema. Se suele considerar mejor cuando el porcentaje es menor ya que se está expuesto a menos riesgos y menos comisiones, en caso de que haya comisiones de mantenimiento.

Tasa de Exposición=Tiempo con Posiciones AbiertasTiempo de Ejecución del Sistema×100

Primer caso de estudio

El primer intento de predicción consistirá en la aplicación de un modelo en inteligencia artificial basado únicamente en las características derivadas del precio del propio activo. Se hará una comparativa sobre la aplicación de los modelos: 

  • Regresión Lineal
  • Regresión Logística
  • K Vecinos Cercanos (K Nearest Neighbours or KNN)
  • Ingenuo Bayes (Naive Bayes)
  • Red Neuronal (Neural Network)
  • Bosque Aleatorio (Random Forest)
  • Máquina de Vector de Soporte (Support Vector Machine o SVM)

Si bien se ha desarrollado el código de dichos modelos en vez de usar las librerías más comunes no se publicará para no extender el post demasiado. Si se quiere acceso consultar al autor.

Para no extender la duración del proyecto se realizó una pequeña optimización antes de comparar los modelos, a continuación se mostrarán 3 gráficas distintas que se usarán para comparar los resultados con datos de entrenamiento y los de prueba con el objetivo final de identificar posibles sobreoptimizaciones.

La primera gráfica muestra la variación de la probabilidad de ganar entre el resultado de la predicción con datos de prueba y los datos de entrenamiento. Se puede deducir que cuanto más cercano a 0 sea el valor menor será el sobre ajuste. En las líneas de nivel proyectadas en el plano inferior se puede apreciar que el modelo KNN es el más sobre ajustado de todos mientras que los modelos de Regresión Lineal y Red Neuronal son los menos sobre ajustados, llegando a desenvolverse mejor con los datos de prueba que con los de entrenamiento en algunos activos.

Predicción de series temporales con distintos modelos de IA 3

 

En la siguiente figura se puede observar la diferencia en la esperanza matemática obtenida con los datos de entrenamiento y los datos de prueba. Dado que la probabilidad de ganar afecta a esperanza matemática se puede apreciar que los modelos en los que menos varía dicha métrica entre el entrenamiento y los datos de prueba son los mismos que en la gráfica previa. Si bien el modelo de Regresión Lineal es el que menos varía, al tener en cuenta todos los activos el modelo KNN vuelve a ser el más sobre ajustado, reafirmando así lo deducido previamente.

Predicción de series temporales con distintos modelos de IA 2

 

Los modelos Naive Bayes y KNN son los que menor esperanza matemática media obtienen, como se puede ver en la siguiente gráfica. Cabe resaltar que los modelos de Regresión Lineal, Redes Neuronales y SVM son los que tienen menos activos con esperanza matemática negativa, haciendo que sean los más polivalentes. No se han añadido los resultados aplicando el modelo PCA sobre las características usadas puesto que los resultados han sido peores de los obtenidos sin su aplicación.

Predicción de series temporales con distintos modelos de IA 4

 

Por último se calculará la evolución del balance de cada modelo para cada activo estudiado.

Se considerará un capital inicial de 100.000,0$ y una asignación del 100 % a cada uno de los modelos. Dado que la gestión del riesgo queda fuera del alcance de este trabajo se operará con el capital total cada vez que se realice una operación. Además, se considerarán solo las operaciones en largo y unas comisiones nulas. En la figura se puede observar un gráfico para cada activo con la correspondiente curva de balance para cada modelo entrenado. Se puede apreciar que de forma general ningún modelo destaca, pero que hay modelos que operan relativamente bien los índices americanos y podría merecer la pena profundizar en ellas e introducir estrategias de gestión de riesgo.

Cabe destacar que solo se han usado dos años de datos para el estudio, que dichos años coinciden con un año de recesión y otro de inicio de expansión debido a las políticas llevadas a cabo por los bancos centrales. Sería conveniente llevar a cabo un estudio sobre mayor cantidad de datos e incluir un test de walk forward.

Segundo caso de estudio

El segundo ejercicio consistirá en la predicción de los precios del SPY, un ETF que replica el comportamiento del SP500. La idea detrás de este ejercicio se basa en la diferencia horaria entre los diferentes mercados alrededor del mundo. Dado que el mercado asiático ha cerrado cuando el mercado americano abre sería coherente pensar que la sesión de ese día podría verse afectada por el comportamiento de los mercados que operan en husos horarios anteriores. Se dividirán los datos en partes iguales, siendo la primera mitad los datos de entrenamiento y la segunda mitad los datos a predecir. Además, se mantendrá la misma gestión operativa que en el ejercicio anterior. 

En este caso los modelos estudiados serán los siguientes:

La a continuación presenta un análisis comparativo de los modelos en términos de las métricas previamente definidas. Se puede observar que diferentes modelos destacan en diferentes métricas, resaltando la importancia de considerar múltiples criterios al evaluar estrategias financieras.

Se ha decidido tomar como referencia la estrategia de mantener el capital total invertido en el activo, comúnmente llamado “Buy & Hold”. Para esta estrategia se obtiene un beneficio de 104,035.87$ con una rentabilidad del 104.03 %. El Sharpe es 0.84, y el Sortino es 0.062. Además la máxima pérdida (Max. DrawDown) durante el periodo de prueba sería del 22.94 % y la probabilidad de ganar del 56.17 %. De forma general la aplicación del PCA no parece aportar valor, siendo la única excepción el modelo Random Forest. Aunque los beneficios pueden ser más bajos con el uso del PCA, la reducción en la dimensionalidad puede ser útil en términos de simplicidad y eficiencia computacional. El modelo de Regresión Logística es el que menor rentabilidad obtiene, esto se debe a la poca frecuencia operativa, siendo el tiempo de mercado cercano al 3 %. Esto y la alta fiabilidad lo convierten en el modelo con menor pérdida máxima y mayor ratio de Sharpe.

Predicción de series temporales con distintos modelos de IA 6

Por el otro lado el modelo de K Vecinos más Cercanos (KNN) es el que logra mayor rentabilidad, si bien esto se debe al sobre ajuste. Esto se da cuando el modelo se ajusta demasiado a los datos de entrenamiento, generando patrones poco generalizados. Se puede observar en la figura superior. Durante la primera mitad (entrenamiento) el capital aumenta de forma constante sin casi oscilación mientras que en los datos de prueba el capital oscila entre un máximo y un mínimo de forma constante.

La mejor estrategia de cara a su operación real sería la del modelo de Regresión Lineal, a la cual se le podrían incluir las señales producidas por el modelo de Regresión Logística con el objetivo de lograr así mayores beneficios. En este caso concreto las señales del modelo de Regresión Logístico se dan también por el modelo de Regresión Lineal por lo que no aportaría nada a menos que se tuviese en cuenta en la estrategia de gestión de riesgo.

Predicción de series temporales con distintos modelos de IA 6

En la figura anterior se puede comparar el retorno y la pérdida acumulada en cada instante de la estrategia final y la estrategia con “Buy & Hold”. Como se puede apreciar la máxima pérdida es casi un tercio de la de “Buy & Hold” mientras que la rentabilidad final de la estrategia es 1.4 veces la de “Buy & Hold”. Todo ello permitiéndonos entrar a mercado solo la mitad de las veces.

Conclusiones

El objetivo del presente proyecto era estudiar la viabilidad de modelos de inteligencia artificial en la predicción de precios de activos operados en los mercado financieros. Se trata de un proyecto que se ha centrado más en los modelos y su comparación que en la gestión del capital y el porfolio. Si bien se ha demostrado que por muy de moda que esté la inteligencia artificial no es el santo grial, se ha conseguido obtener estrategias que pueden merecer la pena. En el primer ejercicio se ha visto que los modelos a menudo fracasarán en su tarea si se les alimenta solo con datos derivados de lo que se quiere predecir. Solo en los mercados más líquidos lograban una cierta precisión. El último ejercicio ha demostrado la necesidad de evitar sobre ajustar los modelos ya que pueden provocar un desastre cuando se apliquen a una operativa real. Además, se ha dejado en evidencia la importancia de la ingeniería de factores para obtener variables con mayor capacidad predictiva. La inteligencia artificial convive con nosotros en el día a día y lleva décadas siendo aplicada en los mercados financieros. Hará falta mucho estudio y recursos para poder obtener un sistema que pueda hacer frente a los retornos de los referentes del sector como Medallion Fund.

En el futuro sería conveniente incluir gestión operativa y de capital puesto que hay muchas variables que dependen de ello y se han supuesto en este trabajo. Algunas ideas por las que empezar podrían ser: añadir límite de pérdidas y de ganancias a las posiciones en vez de mantenerlas abiertas durante todo el día y definir un algoritmo para asignar el porcentaje de la cuenta a arriesgar en cada momento. Por otro lado, sería conveniente definir el tiempo a esperar para volver a entrenar al modelo, dado que para mantener al modelo actualizado es conveniente entrenarlo con datos nuevos. Habría que definir cada cuánto se debe entrenar y la cantidad de datos a utilizar, puesto que puede que patrones pasados contradigan a patrones actuales y deterioren la capacidad predictiva del modelo.


Reseña del autor

Proyecto TFM Daniel CanoDaniel Cano, es Graduado en Ingeniería de la Energía por la Universidad Politécnica de Madrid y recientemente a cursado el Máster en Big Data y Business Analytics. Actualmente desarrolla sus labores profesionales en Técnicas Reunidas S.A., concretamente en el departamento de Transformación Digital. Daniel tiene tu propia página personal de proyectos, «One Made«. 

Testimonio del autor

1. ¿Por qué elegiste Structuralia?

«Mi empresa me dio la opción de poder formarme y especializarme con un máster, al tener que elegir entre varias opciones el Máster de Structuralia fue el que más me atrajo de todos.»

2. ¿Qué es lo que más destacarías del máster?

«Lo que más destacaría es que entrega muy buena documentación y material en el Máster en Big Data y Business Analytics.»

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«La realización del este Máster me ha ayudado a entender mejor y reforzar conceptos que ya sabía. También he podido aprender sobre nuevas herramientas de Big Data.«


New call-to-action

 

]]>
https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia/feed 0
Proyecto TFM: Análisis de Reforestación para Estudio de Microcuenca https://blog.structuralia.com/proyecto-tfm-an%c3%a1lisis-de-reforestaci%c3%b3n https://blog.structuralia.com/proyecto-tfm-an%c3%a1lisis-de-reforestaci%c3%b3n#respond Tue, 08 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-an%c3%a1lisis-de-reforestaci%c3%b3n

Descubre cómo un alumno investiga la reforestación en una microcuenca en su proyecto de TFM, explorando su impacto ambiental y beneficios ecológicos.

¿Conoces la importancia de controlar el riesgo de desastres y cambio climático? ¿Conoces los múltiples motivos que pueden desencadenar estos problemas y cómo solucionarlos? El Máster en gestión del riesgo de desastres y gobernanza climática es uno de los másteres destacados de Structuralia ya que aporta los conocimientos y capacidades necesarias para la investigación aplicada y el manejo de instrumentos y herramientas para la gestión de estos riesgos. Este interesante y profundo TFM realizado por nuestro ex-alumno Jorge Castro Rivera es un gran reflejo de ello.

¿Por qué elegí este tema para desarrollar mi TFM?

La gestión del riesgo de desastres y la gestión del cambio climático, son dos temas relevantes en la actualidad, que requieren articular los puntos en común, alrededor de los fenómenos hidroclimatológicos y sus impactos en el desarrollo de la sociedad humana. En este sentido, el trabajo de grado desarrolla una caracterización general del escenario de riesgo por avenidas torrenciales en Colombia, los factores detonantes, los posibles impactos, y cómo influye la deforestación en la ocurrencia de dichos fenómenos, así como se interrelaciona la reforestación con la mitigación de emisión de carbono a la atmosfera a partir de los usos que se le da al suelo, particularmente con las prácticas de conservación del suelo y las coberturas vegetales.

Conceptos claves

Las Avenidas torrenciales son «un flujo muy rápido a extremadamente rápido de detritos saturados, no plásticos (Índice de plasticidad menor que 5%), que transcurre principalmente confinado a lo largo de un canal o cauce con pendiente pronunciada (Hunger, et. al. 2001). Es uno de los movimientos en masa más peligrosos debido a sus características de ocurrencia súbita, altas velocidades y grandes distancias de viaje (UNGRD, 2017).

MOCOA-TRAGEDIA-2 (1)

Foto  1: Avenida torrencial ocurrida en Mocoa, Colombia, 2018. Fuente: (Network, 2018)

La deforestación puede definirse como la conversión de una extensión boscosa en no boscosa. La reforestación y la forestación pueden definirse como la conversión de tierras no boscosas en boscosas, diferenciándose únicamente en el tiempo durante el que las tierras han carecido de bosques. Así mismo, podría proponerse una definición alternativa de la deforestación basada en una disminución dada de la cubierta de dosel o de la densidad de carbono, o en el rebase de uno de una secuencia de umbrales. Del mismo modo, la forestación y la reforestación podrían definirse también en términos de un aumento de la cubierta de dosel o de la densidad de carbono. Ninguna de estas definiciones tiene que ver con el concepto de cambio del uso de las tierras” (IPCC, 2000).

Por otra parte, la captura de carbono se define como: “Proceso en el que un flujo relativamente puro de dióxido de carbono (CO2) procedente de fuentes industriales y de fuentes relacionadas con la energía se separa (captura), se condiciona, se comprime y se transporta hasta un lugar de almacenamiento para su aislamiento de la atmósfera durante un largo período. A veces se denomina “captura y secuestro de carbono” (IPCC [.-D. V.-O.-O., 2018).

Objetivos del TFM

El objetivo general del trabajo de grado fue realizar un análisis de la reforestación como instrumento de captura de carbono y reducción de la amenaza por avenida torrencial en la microcuenca La Guayabal en el municipio de Cocorná, departamento de Antioquia, Colombia.

Adicionalmente, se buscaba realizar un análisis de la reforestación como instrumento de reducción de la amenaza en una cuenca que presenta amenaza por avenida torrencial y articuladamente desarrollar un análisis descriptivo de la reforestación como instrumento de captura de carbono en una cuenca que presenta amenaza por avenida torrencial.

1. Contexto

De los 32 departamentos que tiene Colombia, 7 de ellos concentran el 59% de las áreas más susceptibles a avenidas torrenciales, es decir, Chocó, Cundinamarca, Antioquia, Boyacá, Tolima, Santander y Caquetá. Adicionalmente, de acuerdo con el Departamento Nacional de Planeación -DNP, 12,4 millones de hectáreas en el país pueden presentar avenidas torrenciales altas, es decir el 10.8% de la superficie del país (DNP, 2018).

Mapa de avenidas torrenciales (1)

Ilustración 1: mapa de avenidas torrenciales. Fuente: (DNP, 2018)

Por otra parte, de acuerdo con el Instituto de Hidrología, Meteorología y Estudios Ambientales -IDEAM, en los últimos 30 años, Colombia ha perdido más de 6 millones de hectáreas, es decir el 11% de sus bosques naturales (Ministerio de Ambiente y Desarrollo Sostenible & IDEAM, 2019). En el año 2016, el país perdió 178.597 hectáreas, 44% más de lo reportado en el año 2015 (124.035 hectáreas), lo cual comparándose con años anteriores, 64.442 hectáreas en 1990 y 59.021 en el año 2010, se evidencia el aumento progresivo de la deforestación en el país (IDEAM, 2014).

Densidad de deforestación (1)

Ilustración 2: Densidad de deforestación y áreas con bosques naturales. Fuente: (Ministerio de Ambiente y Desarrollo Sostenible & IDEAM, 2019)

Por último, el Inventario Nacional de Gases de Efecto Invernadero realizado por el IDEAM, se tiene que las emisiones de GEI debidas a la deforestación en el año 2010, corresponden al 36% de las emisiones totales del país. Igualmente, las principales emisiones se han generado por la deforestación del bosque natural que se convierte en pastizales (40%), otras tierras forestales (25%) y en cultivos (11%). (IDEAM P. M., 2016).

Por otro lado, la reforestación en Colombia, tiene un enorme potencial debido a las condiciones climáticas que favorecen el rápido desarrollo de las plantaciones, la vocación forestal del suelo (54% del territorio) las excelentes condiciones del clima, la geografía y las políticas, planes y estrategias que se han lanzado en el país (Ministerio de Ambiente y Desarrollo Sostenible & IDEAM, 2019).

Los sistemas de bosques, las plantaciones forestales y los sistemas agroforestales, mitigan el cambio climático, dado que fijan carbono en su biomasa, necromasa y los suelos, constituyéndose en alternativas de sumideros de carbono atmosférico. De esta forma, los servicios ecosistémicos que prestan los bosques y sistemas forestales y agroforestales, dependiendo de la composición de las especies, la precipitación, la temperatura, las características del suelo, indican que en plantaciones forestales de 6 a 30 años, almacenan entre 0,03 y 0,11 Pg C año-1, lo cual puede estabilizar las emisiones de CO2 producto de la deforestación y cambios en el uso del suelo (Patiño Forero, 2018).

La implementación de proyectos de Mecanismos de Desarrollo Limpio (MDL) enfocados a plantaciones forestales, conservación de bosques y restauración ecológica, se constituyen en este sentido, en una alternativa viable para aprovechar el potencial que tiene el país, mitigar la emisión de GEI y disminuir la amenaza por avenidas torrenciales en las cuencas objeto de intervención (Chavarro M, 2008, como se citó en (Patiño Forero, 2018)).

2. Presentación del estudio de caso

Para el análisis de la reforestación como instrumento de captura de carbono y reducción de la amenaza en una cuenca con amenaza por avenida torrencial, se toma un estudio de caso, el cual fue elegido de acuerdo con la información disponible. El estudio de caso es el municipio de Cocorná en el departamento de Antioquia, en la microcuenca de la quebrada Guayabal, tributaria del río Cocorná. Esta quebrada reviste de importancia, dado que es un atractivo turístico y cultural, abastece el acueducto urbano, y tiene un Plan de Ordenamiento y Manejo de Microcuenca.

La microcuenca La Guayabal tiene una extensión aproximada de 1.371,53 Hectáreas (13,71 Km2), su cauce principal es la quebrada La Guayabal que tiene una longitud de 10,73 km y que abastece el acueducto del municipio de Cocorná. De acuerdo al documento diagnóstico del Esquema de Ordenamiento Territorial, la microcuenca de La Guayabal, tiene una aptitud de uso del suelo en toda su extensión para el uso forestal, en las categorías de bosque natural productor/protector, conservación, protección y/o manejo especial y plantación productora-protectora; sin embargo, el uso actual predominante es el forestal, con un 40,8%, seguido por el pecuario con un 29,9%, que es el que genera el mayor conflicto de uso por estar localizado en zonas de rondas hídricas, las cuales deben tener una función de protección, finalmente, el uso agrícola también es representativo en la microcuenca (MASORA, 2015).

Frente a las amenazas de origen socionatural, se tiene que la microcuenca presenta fenómenos de remoción en masa en la parte media y baja de la cuenca, asociados a los conflictos de uso por la actividad pecuaria y agrícola y las características geomorfológicas y de pendiente; y amenaza por avenidas torrenciales. La microcuenca tiene una alta pluviosidad, se estima en 4.311 mm al año, con una distribución bimodal, el cual es uno de los factores detonantes de las avenidas torrenciales, así como los procesos de remoción en masa (MASORA, 2015).

3. Proceso y resultados obtenidos

Para definir el factor de protección que tienen los usos actuales de la microcuenca La Guayabal que permita tener unos criterios clarificadores del comportamiento de la cuenca frente a eventos torrenciales, para a partir de ellos establecer la ordenación requerida, es decir, la restauración hidrológica y forestal, se tiene una metodología, fundamentada en un modelo paramétrico definido a partir de dos modelos: Universal Soil Loss Equation -USLE y el Modified Universal Soil Loss Equation -MUSLE, que da como resultado un índice de protección del suelo por la vegetación (Mintegui Aguirre & Robredo Sánchez, 2008).  Este índice, se desarrolla a partir de unos indicadores que representan la erosión fluvial, la vulnerabilidad del suelo a la erosión, la topografía del terreno, la cubierta vegetal, las prácticas de manejo y conservación de suelos, el volumen de escorrentía y el caudal punta generado en la cuenca (Mintegui Aguirre & Robredo Sánchez, 2008).

Los índices de protección que van desde 1,0 (máxima protección) a 0,0 (protección nula) y se corresponden para cada tipo de suelo diferenciado dentro de la cuenca. Para el caso de las pendientes que tiene la microcuenca, se tiene que el 3,15% del área de la microcuenca tiene una pendiente baja con el rango entre el 0-18%, media baja con el 9,21% del área, es decir con un rango entre el 19 y 35%, media con el 33,25% del área con un rango entre el 36 y 67%, alta con el 29,03% de la cuenca con un rango entre el 68 y 100% y muy alta con el 25,35% con un rango mayor al 100% de pendiente (CORNARE, 2008). Lo que quiere decir, que para la mayor parte del área de la microcuenca, las pendientes, condicionan los índices de protección por la vegetación, por lo que su uso debe ser revisado e intervenido, con el fin de intervenir las condiciones de amenaza de la microcuenca por avenidas torrenciales.

Índices de protección del suelo por la vegetación en la microcuenca La Guayabal. 

Tabla 1: Índices de protección del suelo por la vegetación en la microcuenca La Guayabal. Fuente: Elaboración propia a partir de (Mintegui Aguirre & Robredo Sánchez, 2008)

A partir de la metodología propuesta por Mintegui Aguirre y Robredo Sánchez, y la información disponible para la microcuenca, se clasificó tal como se desarrolla en la Tabla anterior, el índice de protección que tiene la cobertura actual del uso del suelo en la microcuenca, de esta forma se tiene que el 51,18% del área de estudio, presenta un índice de protección de 0,3; que corresponde a usos de cultivos densos y uso pecuario, es decir un índice muy bajo, que requiere una intervención en prácticas agrícolas y ambientales que sean más compatibles con la aptitud del uso del suelo y permita mejor la calidad del suelo y la cobertura para poder reducir la amenaza por avenida torrencial.

Concorna antioquia (1)

Foto  2: Cocorná, Antioquia, Colombia. Fuente: Viajar en verano

Los siguientes usos, con un factor de protección de 0,4 y 0,5, son los definidos por el uso urbano, cultivos agrícolas sin prácticas de conservación de suelos, y uso forestal con ecosistemas degradados e intervenidos, los cuales se presentan en áreas de pendiente media (entre 18% y 24%), es decir, la pendiente comprendida entre la iniciación de la erosión y la de arrastre total, y con un área correspondiente al 41,06% de la microcuenca. Estas áreas requieren igualmente una intervención, que permita ampliar la cobertura vegetal y con prácticas de conservación de suelos. Finalmente, se tiene el uso forestal por área de protección declarada y cultivos silvopastoriles: árboles, algunos rastrojos, arbustos, matorrales y espacios naturales con los pastos y forrajes, que corresponden solamente al 7,73% del área de la microcuenca y con un índice de protección de 1,0 y 0,9.

De acuerdo con estos resultados, es evidente, que para poder disminuir la amenaza por avenidas torrenciales en la microcuenca de La Guayabal, es necesario aumentar la reforestación, dado que estas aumentan las escorrentías en la cuenca y la regulación hídrica, no afecta a la erosión del suelo sino por el contrario ayuda a mitigar sus efectos por la interceptación, infiltración y retención de agua, además de evitar mayores pérdidas de suelo, que pueden aportar material en las avenidas torrenciales.

Ahora bien, frente al análisis de la reforestación como instrumento de captura de carbono en la microcuenca la guayabal, se tiene que los proyectos forestales en la mitigación de los gases de efecto invernadero, se pueden agrupar en 3 tipos, los enfocados a la conservación del carbono, es decir el control de las tasas de deforestación, protección de bosques, manejo forestal, entre otros, los proyectos de captura de carbono, a partir de las plantaciones forestales, aumento de la cobertura de bosques, agroforestería e intervención de bosques degradados y los proyectos de sustitución de carbono, enfocados al reemplazo de combustibles fósiles (Russo, 2009).

Para el caso del trabajo que ocupa este trabajo, y de acuerdo con las características que presenta la microcuenca La Guayabal, se tiene que las características agroecológicas (alta precipitación, suelos moderadamente profundos y bien drenados, buena radiación solar, alta luminosidad) propician un rápido desarrollo de los bosques y una acelerada producción de biomasa forestal (CORNARE, 2008), lo que permite que sea factible el desarrollo de proyectos enfocados a la conservación del carbono y a proyectos de captura de carbono.

De acuerdo con lo desarrollado en el numeral 7.1 del presente documento, se concluye que la microcuenca posee aproximadamente un 40% del área en coberturas que protegen el suelo y contribuyen con el mantenimiento y la regulación de los caudales, la captura de carbono, la regulación de la temperatura, la conservación y protección de la biodiversidad, mientras que el 60% restante se encuentra en cultivos y pastos, en su mayoría como soporte de la economía de su población.

Ahora bien, y teniendo en cuenta las características de la microcuenca, es factible el desarrollo de proyectos de Mecanismos de Desarrollo Limpio (MDL), que incluya las plantaciones forestales y los bosques existentes a un bajo costo. En estos proyectos, se pueden incluir acciones enfocadas a los sistemas agroforestales, plantaciones protectoras, plantaciones forestales y proyectos REDD + (Reducción de emisiones por deforestación y degradación) como alternativas de mitigación en áreas de bosques (Chavarro M, 2008, como se citó en (Patiño Forero, 2018)).

De esta forma, se tiene que a 558,48 de la microcuenca La Guayabal (las definidas como áreas para la recuperación ambiental, específicamente en las áreas de alta pendiente, rondas hídricas y partes altas de la microcuenca) son aptas para el desarrollo de proyectos de conservación de carbono, según el análisis realizado en el numeral anterior, y 136,87 Ha (producción agroforestal) podrían destinarse a proyectos de captura de carbono. Es necesario anotar, que este análisis es meramente descriptivo, enfocado al potencial de desarrollo de proyectos MDL, dado que estimar la biomasa total, almacenamiento y fijación de carbono atmosférico en biomasa arriba y abajo del suelo en plantaciones forestales y sistemas agroforestales existentes en la microcuenca, requieren mediciones en campo, que permitan definir el potencial de almacenamiento del carbono, y no es el alcance del presente trabajo. (Patiño Forero, 2018).

De acuerdo con el estudio citado de captura en biomasa en plantaciones forestales y sistemas agroforestales en una localidad del departamento del Tolima en Colombia, se tiene que los sistemas agroforestales y las plantaciones forestales capturan grandes cantidades de carbono atmosférico, con valores que van de 18,6 a 64,4 Mg C por hectárea, lo que demuestra la importancia de estos ecosistemas en la mitigación del cambio climático, adicional a ello, la importancia de estos sistemas de uso del suelo radica en que además de mitigar el cambio climático generan productos u otros servicios que apoyan el bienestar de los productores y sus familias. Aunque no es comparable, con el área de estudio, tomando simplemente como referencia el valor más bajo de 18,6 MG C ha, las 292 hectáreas de la microcuenca La Guayabal que se encuentran en bosque primario y secundario, podrían almacenar 5.431,2 Mg C ha-1 por año (Patiño Forero, 2018).

Conclusiones

De acuerdo con la documentación revisada y analizada, se pude decir como conclusión general que la reforestación intercepta fuertemente la escorrentía superficial, donde la cobertura vegetal (bosques, plantaciones forestales, sistemas agroforestales), juega un papel importante en la retención e infiltración, aportando de esta forma en la disminución de la amenaza por avenidas torrenciales.

En el análisis del estudio de caso, y según la aplicación del índice de protección de una cuenca como factor detonante de una avenida torrencial, se tuvo que el uso actual del suelo de la microcuenca La Guayabal genera unos conflictos de uso del suelo, que hacen que el 51,18% del área de estudio, presenta un índice bajo de protección (0,3), que requiere una intervención en prácticas agrícolas y ambientales que sean más compatibles con la aptitud del uso del suelo y permita mejor la calidad del suelo y la cobertura para poder reducir la amenaza por avenida torrencial.

Frente al análisis de la reforestación como instrumento de captura de carbono, solo se obtuvieron resultados descriptivos, dado que se requieren metodologías robustas y mediciones en campo, para obtener insumos que puedan dar cuenta del potencial de desarrollo de proyectos de reforestación o de MDL a partir de la captura de carbono, por lo tanto, solo se pudo evidenciar la importancia de los bosques y sistemas forestales para la mitigación del cambio climático, a partir de la bibliografía consultada.


Reseña del Autor

Fotos Contenidos (1)Reseña del autor: Jorge Andrés Castro Rivera, es Administrador Ambiental de profesión, egresado de la Universidad Tecnológica de Pereira (Colombia) y máster en gestión ambiental urbana, por la Universidad Nacional de Córdoba (Argentina). Recientemente se graduó del Máster de Gestión del Riesgo de Desastres y Gobernanza Climática de Structuralia.

Tiene una experiencia profesional de más de 20 años, especialmente en las áreas de planificación y políticas y gestión pública, gestión del riesgo de desastres y evaluación ambiental de proyectos en diferentes sectores: Así mismo es docente universitario en el área ambiental y gestión del riesgo de desastres.

Testimonio del autor:

1. ¿Qué es lo que más destacarías del máster?

«El máster en gestión del riesgo de desastres y gobernanza climática, tiene varios puntos destacables: sus profesores son personas destacadas en las temáticas que imparten, lo cual se vio reflejado en el contenido. Igualmente, el diseño y contenido de los diferentes módulos abarcan ampliamente la temática de la gestión del riesgo y la gestión del cambio climático, lo que lo hace muy completo, con un nivel de profundidad suficiente para formarse adecuadamente.«

2. ¿En crees que te va ayudar en tu desarrollo profesional?

«Particularmente, mi campo profesional actual es la gestión del riesgo de desastres, por lo que considero que haber cursado el máster me brindó las herramientas necesarias para ahondar en el campo de estudio de los riesgo de desastres y los riesgos climáticos. Considero que me puede ayudar a escalar profesionalmente, en cargos en los que pueda marcar una diferencia en las políticas públicas.«

3. ¿Por qué elegiste Structuralia?

«La modalidad virtual que tiene Structuralia es muy conveniente para profesionales que como yo, no siempre tienen horarios fijos para dedicarse el estudio. Por lo tanto, poder contar con los módulos disponibles en todo momento y lugar, lo hace ideal para avanzar profesionalmente.«

]]>
https://blog.structuralia.com/proyecto-tfm-an%c3%a1lisis-de-reforestaci%c3%b3n/feed 0
Proyecto TFM: Línea Ferrocarril Andalucía y Murcia https://blog.structuralia.com/proyecto-tfm-l%c3%adnea-ferrocarril-andaluc%c3%ada-murcia https://blog.structuralia.com/proyecto-tfm-l%c3%adnea-ferrocarril-andaluc%c3%ada-murcia#respond Thu, 03 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-l%c3%adnea-ferrocarril-andaluc%c3%ada-murcia

¿Se puede encontrar el encaje óptimo del BIM en la obra civil? Este interesante Proyecto TFM se adentra en las problemáticas y ejecuciones óptimas de su proyecto.

Descarga la guía gratuita sobre implantación BIM en organizaciones

La demanda del uso y aplicación de la metodología BIM, ya sea en diseño o en obra, es cada vez más creciente, por parte de la Administración y de entidades privadas, y el mundo de la edificación y la arquitectura nos lleva a nosotros, los ingenieros civiles, una clara ventaja

Esta ventaja queda reflejada, por una parte, en la limitada madurez de los softwares de ingeniería civil disponibles en el mercado y, por otra parte, en los conocimientos de la metodología BIM por parte de técnicos y de clientes, quienes, a menudo, no conocen en profundidad las múltiples ventajas de esta nueva forma de trabajar. Por tales motivos, nos encontramos en un estado del arte del BIM en la obra civil en el cual los avances de los softwares y las necesidades o problemas encontrados por los técnicos se retroalimentan, permitiendo a ambos crecer, mejorar y, en definitiva, encontrar el encaje óptimo del BIM en la obra civil.

Si bien los condicionantes de una edificación son particulares, ¿qué margen de maniobra tiene el BIM en una obra de ingeniería civil? Y, particularmente, ¿qué margen de maniobra tiene en una obra lineal? Nos movemos en un espacio mucho más grande (o largo), con elementos lineales que pueden tener kilómetros de distancia y que, por tanto, cualquier modificación en dicho elemento repercute en otros múltiples elementos, no solamente de manera lineal sino también bidimensional y tridimensionalmente y que, a su vez, tienen un alto impacto paisajístico, ambiental, social y económico.

El Máster BIM avanzado en diseño y ejecución de obras lineales de Structuralia trata de abordar estas problemáticas. Tras cursar este Máster, nuestro ex alumno Jordi Moliner se ha aventurado a abordar dichas problemáticas él mismo en un proyecto de obra lineal con su Trabajo Final de Máster, el cual sintetiza en este increíble artículo.

TFM, Línea Ferrocarril Andalucía – Murcia, del PK 0+000 AL 1+049,452, en Guadix, Provincia de Granada

El objetivo del TFM es demostrar y poner en práctica una visión y enfoque global de los problemas reales que se encuentran a la hora de enfrentarse a un proyecto de Ingeniería Civil (concretamente, de una obra lineal), utilizando la metodología BIM.

Los puntos a desarrollar en el TFM son los siguientes:

  1. Elaboración de un BEP
  2. Definición de las fases del proyecto
  3. Diseño y planificación del proyecto de obra lineal
  4. Presentación realista del proyecto

Ámbito del Proyecto

Para el presente TFM, y de acuerdo con las directrices e información base proporcionadas por Structuralia, se ha abordado el Proyecto constructivo de línea de ferrocarril Andalucía – Murcia, del PK 0+000 al 1+049,452, en Guadix, provincia de Granada, España.

Si bien el proyecto constructivo gira en torno a esta línea de ferrocarril, en el ámbito de proyecto existe una zona urbana y un libramiento carretero. Estos dos elementos no se han desarrollado a nivel de proyecto constructivo, pero sí se han considerado a la hora de integrar la línea de ferrocarril en el entorno dentro delmodelo Infraworks,lo cual ha ayudado a tomar mejores decisiones a lo largo del proyecto.

Figura 1. Ámbito de proyecto de la nueva urbanización. Se observa la A-92 en su paso por Guadix, visto en ortofoto en planta.

Figura 1. Ámbito de proyecto de la nueva urbanización. Se observa la A-92 en su paso por Guadix, visto en ortofoto en planta.

Figura 2. Ámbito de proyecto de la nueva urbanización. En primer plano, la línea de ferrocarril proyectada y al fondo, el libramiento carretero, todo modelado en Infraworks.

Figura 2. Ámbito de proyecto de la nueva urbanización. En primer plano, la línea de ferrocarril proyectada y al fondo, el libramiento carretero, todo modelado en Infraworks.

Elaboración del BIM Execution Plan

En el Plan de Ejecución BIM (BIM Execution Plan, BEP) se detalla la estrategia de utilización de BIM para el proyecto, así como las capacidades y competencias del equipo redactor del proyecto para cumplir con los requisitos de información del cliente. 

En los puntos siguientes expongo los puntos más relevantes del BEP.

Objetivos y usos BIM

De acuerdo con las directrices del cliente, el objetivo general de la utilización de BIM es prevenir que existan cambios críticos tanto en el tiempo asignado para cada actividad como en el presupuesto por el cuál ha sido contratado el servicio.

Los objetivos específicos marcados durante la ejecución del proyecto son:

1. Visualizar la solución para facilitar la interpretación y comunicación del proyecto.

      1. Generar planos más coherentes.
      2. Analizar los puntos críticos e incidencias del proyecto.
      3. Identificar y ubicar elementos o materiales dentro del edificio o infraestructura para tomar decisiones.

      2. Facilitar la trazabilidad del avance del proyecto.

      1. Seguimiento del desarrollo del proyecto.
      2. Evaluar la correcta definición de la propuesta.

3. Facilitar la gestión de la infraestructura acabada.

      1. Identificar y ubicar los elementos o materiales dentro del edificio o infraestructura.

Responsable de cada objetivo y uso BIM

Los objetivos y usos BIM, así como los entregables BIM necesarios, quedan asignados a uno o múltiples técnicos del equipo redactor, quiénes se encargan de asegurar su calidad y utilidad a lo largo de la redacción de proyecto. Para este TFM, mi rol sería de BIM mánager, además de coordinador de proyecto, pero contaría con el apoyo de especialistas de cada rama de ingeniería y modeladores.

En algunos objetivos y usos BIM también se requiere la participación y supervisión de técnicos del cliente.

Entregables BIM

Se entiende por Entregables BIM todos los documentos e información necesaria para la obtención de modelos BIM, así como todos los productos resultantes del uso de herramientas y flujos de trabajo BIM.

Estrategia de colaboración y entorno de datos compartidos (CDE)

El CDE está compuesto por la plataforma BIM 360, ya que los softwares con los que se va a trabajar son de Autodesk.

Estructuración de los modelos BIM

El conjunto de la información digital del proyecto estará segregado en varios modelos BIM, con una codificación específica, como, por ejemplo:

Los modelos de Disciplina se generarán sobre la plataforma Civil 3D y AUTODESK REVIT 2022.

Estos modelos contendrán toda la información necesaria referente a los elementos modelados, su detalle geométrico y la información contenida en ellos, para hacerlos compatibles con los usos definidos en este BEP. 

Los Modelos de cada Disciplina se integrarán y constituirán el modelo federado de coordinación, que se denominará Modelo Federado. El equipo de proyecto proporcionará cada modelo de Disciplina validado con el fin de efectuar la federación de modelos de acuerdo con el PEB. El responsable BIM será responsable de la generación y mantenimiento del Modelo Federado.

El Modelo Federado se compondrá de los diferentes modelos de Disciplina en formato IFC y estos archivos se federarán sobre la plataforma NAVISWORKS MANAGE 2022 y se podrán visualizar sobre la plataforma NAVISWORKS FREEDOM 2016 o superior. Además, los mismos archivos IFC, estarán disponibles individualmente, con el fin de que cualquier agente pueda realizar la federación de los archivos que componen el modelo federado, en cualquier plataforma o visor IFC.

Coordenadas de referencia

Con el objetivo de que la disposición de los elementos sea compatible entre los distintos modelos a la hora de formar el Modelo Federado, todos los modelos deberán disponer de coordenadas idénticas en su espacio BIM.

Se deben definir dos coordenadas UTM en el sistema ETRS89 correspondientes a los ejes X, Y y Z, y que servirán de nexo común entre los modelos, con bases georeferenciadas obtenidas del levantamiento topográfico previsto. 

Contenido paramétrico del modelo

Los niveles de información (LOI) están divididos en 4 grupos:

  • LOI 1: Entregable de los proyectos Básicos.

  • LOI 2: Entregable de proyectos ejecutivos.
  • LOI 3: Entregable a Final de obra (As built).
  • LOI 4: Entregable por el modelo de Operación y Mantenimiento.

En este proyecto se utilizará LOI 2.

Plan de aseguramiento de la calidad de la información (PACI)

Para garantizar la calidad de la información introducida en el modelo y obtener unos entregables finales con información fiable, se realizarán las acciones de control internas de los modelos, realizadas principalmente por el BIM Manager y modeladores.

Definición de las fases del proyecto

Una vez elaborado el BEP, conviene definir las fases de redacción del proyecto, que son las siguientes:

  1. Diseño conceptual.
  2. Diseño de detalle.
  3. Property Sets y generación de sólidos.
  4. Exportación del modelo.

Estas fases se abordan a lo largo del Diseño del proyecto de obra lineal, detallado a continuación.

Diseño del proyecto de obra lineal

Diseño conceptual

La zona de proyecto viene dada por el enunciado del propio TFM, como podría venir dada por el cliente del proyecto u obra en cuestión.

El corredor escogido tiene un impacto ambiental y urbanístico bajo, con pocos o ningún servicio afectado y evadiendo cualquier cruce con otras infraestructuras viales o cauces que pudieran necesitar grandes viaductos. Tampoco se interfiere con el desarrollo urbanístico actual del núcleo urbano. La variante carretera queda en el otro lado del núcleo urbano, paralela al ferrocarril.

Figura 3 proyecto tfm

Figura 3. Ubicación del corredor ferroviario. Infraworks ayuda a analizar el espacio disponible, así como el impacto con otras infraestructuras y zonas urbanos. También la interferencia con servicios urbanos y cauces hidrológicos.

Diseño del detalle

Se ha utilizado la topografía proporcionada por Structuralia, con un nivel de detalle suficiente para desarrollar el proyecto de detalle. A partir de esta topografía, se ha obtenido una superficie conCivil 3Dsobre la cual se diseñará el trazado ferroviario.

Figura 4. Superficie TIN “EG” (Existing Ground) creada a partir de la topografía proporcionada.

Figura 4. Superficie TIN “EG” (Existing Ground) creada a partir de la topografía proporcionada.

    • Normativa: Se ha seguido la normativa vigente de ADIF, teniendo en cuenta valores máximos en situaciones normales y excepcionales.
    • Velocidad del diseño: De acuerdo con las directrices del cliente, la velocidad de proyecto es de 120 km/h. La velocidad mínima para comprobar la insuficiencia de peralte se limita a 80 km/h.

Estas velocidades permitirían, si se cumplen ciertos requerimientos de trazado en función de parámetros como la orografía, grado de urbanización y otros condicionantes, la circulación de trenes tanto de pasajeros como de mercancías.

      1. Planeamiento de desarrollo urbanístico e industrial de la zona, proporcionado por Structuralia.
      2. Presencia de edificaciones o industrias.
      3. Presencia de infraestructuras viarias y ferroviarias en la zona.
      4. Presencia de zonas ambientales protegidas.
      5. Presencia de dominio público hidráulico.

El trazado en planta se compone de alineaciones recta, clotoide (L=160 m) y curva (R = 800 m).  

El peralte se ha limitado a 140 mm en la curva de 800 metros de radio, para los cuales las clotoides de 160 metros de longitud permiten la correcta transición de peralte.

Figura 5. Planta del trazado ferroviario.

Figura 5. Planta del trazado ferroviario.

    • Trazado en alzado: Se limita la pendiente longitudinal al 1,5% (es decir, 15 milésimas), con el objetivo de que puedan circular trenes de pasajeros y de mercancías.

Se podría haber subido a 25 milésimas para reducir el movimiento de tierras, ya que el terreno es accidentado, pero se ha preferido mantenerlo a 15 milésimas para habilitar la operación de ambos trenes.

Figura 6. Alzado del trazado ferroviario, con pendiente constante de 15 milésimas. En rojo, el trazado en alzado y en azul, el terreno natural.

Figura 6. Alzado del trazado ferroviario, con pendiente constante de 15 milésimas. En rojo, el trazado en alzado y en azul, el terreno natural.

    • Otros condicionantes: La altura máxima de desmonte es de 9 metros, mientras que la altura máxima de terraplén es de 11 metros. Son alturas considerables pero que están presentes en otras obras ferroviarias del país ya ejecutadas.

No se han previsto apartaderos ni estaciones, por lo que no se ha analizado la necesidad de verificar ningún aspecto de trazado relacionado con aparatos de vías, desvíos, cambios, piquetes, etc. El diseño de la estación de este núcleo urbano podría ser una línea de trabajo futura a desarrollar en otro TFM relacionado con la metodología BIM, pero que queda fuera del alcance del presente TFM.

Debido a que no hay intersección con otras obras lineales o zonas urbanizadas, y debido a la inexistencia de túneles, no se ha contemplado ninguna normativa ni especificación para gálibos.

    • Sección tipo: Se ha diseñado una sección tipo clásica de ferrocarril, a partir de la herramienta SubAssembly Composer de Civil 3D, incluyendo los elementos ferroviarios más comunes, de acuerdo con las directrices y dimensiones solicitadas por el cliente, tales como:

      • Tren, traviesas y raíles.
      • Balasto, subbalasto y capa de forma.
      • Canalizaciones.
      • Terraplén y desmonte.
      • Cunetas.

Figura 7. Sección transversal con la presencia de elementos de drenaje longitudinal y canalizaciones, obtenida de SubAssembly Composer.

Figura 7. Sección transversal con la presencia de elementos de drenaje longitudinal y canalizaciones, obtenida de SubAssembly Composer.

    • Obra lineal: Una vez recogidos todos los elementos de trazado en planta, alzado y sección, se ha procedido a obtener la obra lineal (corridor).

Figura 8. Aspecto de la obra lineal vista en el Object Viewer de Civil 3D.

Figura 8. Aspecto de la obra lineal vista en el Object Viewer de Civil 3D.

Según indicaciones del cliente, debido a la orografía y a la necesidad de túneles en otros tramos de la línea, esta línea se concibe como la primera línea alimentada mediante baterías eléctricas recargables en origen y destino, por lo que se prescinde de la electrificación de la línea y la catenaria asociada.

  • Señalización y comunicaciones

Se ha previsto la instalación de canaletas y prismas de señalización y comunicaciones en la sección tipo ferroviaria.

No se han detectado servicios urbanos en el ámbito de proyecto, por lo que no hay necesidad de afectar ningún servicio ni diseñar ninguna reposición.

Se han diseñado y programado los códigos necesarios a partir de SubAssembly Composer de Civil 3D para cada uno de los volúmenes, superficies y longitudes de los distintos elementos que componen la sección tipo, para poder obtener de forma automatizada las mediciones de cada uno de esos elementos.

Se han obtenido los planos de planta – perfil y secciones transversales.

Property Sets y generacion de sólidos

A cada uno de los elementos que componen la sección tipo se les ha asignado un conjunto de propiedades o property sets (PSETs). 

Las propiedades mecanizadas (como puede ser el volumen de subbalasto) son las que aportan la información más interesante y que puede ser actualizada de forma sencilla en caso de que la obra sufra modificaciones.

Por desgracia, Civil 3D solo permite obtener volúmenes mecanizados, por lo que, para raíles o canalizaciones, cuyos elementos es interesante conocer la longitud, se debe configurar la obtención de ese dato a partir de fórmulas, que suelen consistir en la división del volumen que Civil 3D obtiene de forma automática entre la sección de raíl o canalización, que debe ser introducida por el usuario.

Una vez generados los sólidos del modelo, se pueden visualizar los PSETs mecanizados.

Figura 9. El volumen es uno de los PSETs asociados al sólido SUBBALASTO, que habilita una medición mecanizada e inteligente que se actualiza con cada cambio del modelo.
Figura 9. El volumen es uno de los PSETs asociados al sólido SUBBALASTO, que habilita una medición mecanizada e inteligente que se actualiza con cada cambio del modelo.

Exportación del modelo

  • Exportación a Navisworks

Se ha exportado toda la información generada por Civil 3D a Navisworks, y se ha generado un plan de obra asociado a cada uno de los elementos importados. Este plan de obra permite asociar cada sólido con una tarea, de manera que se puede ver el avance parcial de la obra y los sólidos en función de las tareas completadas asociadas a dichos sólidos.

Navisworks aglutina información como PSETs, planes de obra, visualizaciones 3D e interferencias. De haber tenido estructuras u otros elementos diseñados en otros softwares, como Revit, hubiera sido posible importarlos a Navisworks para verlos de manera conjunta.

Figura 10. Aspecto del modelo importado a Navisworks con la planificación de obra.

Figura 10. Aspecto del modelo importado a Navisworks con la planificación de obra.

También se ha exportado el modelo a IFC, para que pueda visualizarse con los distintos visores gratuitos disponibles en el mercado. En este caso, el visor elegido esBIMcollab.

Figura 11. Aspecto del modelo en el visor IFC.

Figura 11. Aspecto del modelo en el visor IFC.

Presentación realista del proyecto

Con el objetivo de realizar el vídeo de presentación de la obra lineal, también se ha exportado el modelo a Infraworks, donde también se ha modelado la zona urbanizada y la variante de carretera.

Infraworks es un software de fácil manejo con resultados que son muy potentes a nivel conceptual y estético, lo que permite sacar mucho partido a una idea a nivel comercial y presentaciones a clientes, así como realizar análisis de diseños conceptuales.

Figura 12. Fotograma del vídeo de presentación realizado mediante Infraworks.

Figura 12. Fotograma del vídeo de presentación realizado mediante Infraworks.

Conclusiones

Creo que el Máster capacita al alumno para poder empezar a desarrollar y aplicar la metodología BIM tanto de forma individual como de forma global en sus equipos de trabajo, cambiando la forma de trabajo tradicional por una forma de trabajo a priori más compleja pero que a la larga da unos frutos muy positivos.

El TFM ha sido clave para poder realizar un proyecto de obra lineal en BIM en primera persona, desde cero hasta la entrega definitiva al cliente.

Los softwares BIM actuales del mercado permiten llevar el diseño a un nivel de análisis superior. No obstante, pienso que, si bien el progreso estos últimos años ha sido grande, a todos los agentes BIM (firmas consultoras, constructoras, administraciones, entidades privadas…) y, en especial, a aquellos del mundo de la ingeniería civil y de las obras lineales, nos queda mucho camino por recorrer. 


Reseña del autor

Jordi Moliner Proyecto TFM

Jordi Moliner Martínez es graduado en Ingeniería Civil y Máster en Ingeniería de Caminos, Canales y Puertos por la Universidad Politécnica de Catalunya. Durante su etapa universitaria, realiza programas de movilidad en la École Spéciale des Travaux Publics (París) y en Tongji University (Shanghai). Habla español, catalán, inglés (C1) y francés (B2). Ha cursado recientemente el Máster BIM avanzado en diseño y ejecución de obras lineales en Structuralia y actualmente cursa un Máster en Inteligencia Artificial aplicada a la Ingeniería y Arquitectura.

En 2018 se incorpora a Meta Engineering como Ingeniero de Proyectos de Obra Civil y en 2021 asume el cargo de Director del Área de Proyectos y Estudios de Obra Civil en la División Internacional de la compañía. 

Lidera un equipo de unas 20 personas en la oficina de Meta Engineering en México y, además de dirigir la gestión técnica, económica, comercial y humana del Área, asume la gestión de proyectos complejos en materia de ferrocarriles, carreteras y urbanizaciones en países como México, España, Panamá o Costa Rica.

Testimonio del autor

1. ¿Por qué elegiste Structuralia?

«Principalmente, por los contenidos que ofrece este Máster en particular, que no aborda únicamente los conocimientos para ser BIM Mánager, sino que también profundiza en el uso de cada uno de los softwares de diseño, mostrando las problemáticas reales de cada software y ofreciendo una visión integral de lo que supone trabajar en metodología BIM en obra civil.»

2. ¿Qué es lo que más destacarías del máster?

«El nivel de conocimientos que ofrecen cada uno de los módulos y el gran número de software que pone al alcance del alumno: Civil 3D, Navisworks, Infraworks, Synchro, Presto, Dynamo…«

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«En conocer cómo funciona la metodología BIM en obra lineal, su potencial y sus limitaciones, para poder adoptarla tanto a nivel individual y (pasito a pasito), integrarla en el equipo internacional de obra civil de Meta Engineering.«


Nuevo llamado a la acción

 

]]>
https://blog.structuralia.com/proyecto-tfm-l%c3%adnea-ferrocarril-andaluc%c3%ada-murcia/feed 0