Blog y noticias sobre ingeniería | Structuralia https://blog.structuralia.com En nuestro blog trabajamos en contenidos especializados para que estés informado en todo momento sobre toda la actualidad, tendencias y consejos relacionados con la ingeniería. Mon, 31 Mar 2025 10:47:28 +0000 es hourly 1 https://wordpress.org/?v=6.8.1 https://blog.structuralia.com/wp-content/uploads/2024/12/cropped-structuralia-favicon-1-32x32.png Blog y noticias sobre ingeniería | Structuralia https://blog.structuralia.com 32 32 Proyecto TFM: Licitación en Proyecto Público Privado de Carreteras https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras#respond Tue, 29 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras

Descubre cómo un alumno analiza la licitación de un proyecto de carreteras en una Asociación Público-Privada desde la perspectiva de un fondo de inversión.

Nueva llamada a la acción

Trabajo Fin de Master: Informe Ejecutivo sobre la Licitación No. 1/2016 del Proyecto Público Privado de Carreteras “Diseño, construcción, operación y financiamiento de la infraestructura vial en Rutas Nº 12, 54, 55, 57 y construcción del Bypass de la ciudad de Carmelo CIRCUITO 1 en Uruguay”.

Proyecto TFM: Trabajo de Fin de Master para el Máster Internacional en Proyectos de Colaboración Público-Privados

Este Trabajo de Fin de Master para el Máster Internacional en Proyectos de Colaboración Público-Privados consistió en ponerse dentro de los zapatos de un analista financiero de un Fondo de Inversión dedicado a invertir en proyectos de colaboración público-privada o de Asociaciones Público-Privadas – APP mediante la modalidad de inversión de Project Finance.  El cliente consistía en una empresa dedicada al desarrollo de proyectos de concesiones de carreteras que solicitó financiamiento al Fondo para participar en un concurso de licitación pública de diseño, construcción, operación y financiamiento de ciertas rutas en la ciudad de Carmelo en Uruguay en 2016.  Para esto se debió analizar cuidadosamente los pliegos de licitación para identificar alertas sobre la viabilidad financiera del proyecto, pero sobre todo respecto al repago de la deuda hacia el Fondo, es decir un análisis de viabilidad y riesgos desde el punto de vista del financista.  ¡Interesante perspectiva!

1. Descripción del Proyecto de Concesión Vial

El proyecto comprende el diseño, construcción y/o rehabilitación, mantenimiento y financiamiento de 17 subtramos dentro de los 4 tramos mencionados y el bypass totalizando 260,27 kms.  En este aspecto es importante recalcar que el proyecto contiene una sección greenfield en donde se debe diseñar, planificar, construir y mantener obras viales nuevas que no existen; yellowfield en donde las obras requieren importantes ampliaciones y rehabilitaciones; y brownfield en donde ciertos tramos existen y están operativos que deben ser puestos a punto acorde a los indicadores de servicios solicitados y mantenidos.    

El contrato corre por 20 años plazo y el monto máximo de oferta es de 3.000.000.000 de Unidades Indexadas (moneda uruguaya indexada al dólar para contrarrestar la inflación misma que en 22 años de vida alcanzó de manera acumulada el 530%).  Los pliegos para participación en el concurso del 

El pago al contratista se realiza mediante fórmulas que corresponden a 3 componentes A, B y C que toman en cuenta variables de indicadores de servicio mediante coeficientes técnicos, la infraestructura terminada y el tráfico de los tramos reparados, rehabilitados, construidos, mantenidos y reparados lo indica que los ingresos contemplan una porción de inciertos fluctuante con el mercado de automóviles, riesgo para un financista respecto al repago de su deuda.

El concurso público se realiza mediante precalificación de los interesados y luego en realizar una propuesta técnica por 30% de la calificación y una propuesta económica por 70%, evidenciando que la productividad y precio juegan como principal factor decisorio.

1.Pliegos Analizados MTOP UY 2016

Ilustración 1 Pliegos Analizados MTOP Uruguay

2. Análisis de Riesgos del Proyecto

Se realizó una ponderación de riesgos basada en la metodología aplicada por el Ministerio de Economía y Finanzas del Ecuador.  La metodología realiza una valoración entre 1 y 9 de los riesgos, entendiendo que 0 equivale a la no existencia del riesgo y 10 a un riesgo convertido en cierto y de alto impacto por lo tanto imposible de manejar o mitigar.  La metodología se resume en el siguiente gráfico y consiste en multiplicar el número según la probabilidad asignada por el número del impacto asignado y obtener un resultado del riesgo:

2.Metodologia Riesgos MEF EC

Ilustración 2 Metodologia Riesgos MEF EC

La calificación de riesgo global del proyecto, siendo el promedio simple de todas las ponderaciones de los diferentes riesgos fue de 3.56 equivalente a un proyecto con riesgo moderado, además de que a mayo 2022 el EMBI (Emerging Markets Bond Index de JP Morgan) de Uruguay alcanzó 1.53 cuando la región tiene un promedio de 4.18 y a nivel global es de 3.85 por lo cual el país presenta leves riesgos macroeconómicos.

3.Ponderacion de RiesgosIlustración 3 Ponderación de Riesgos del Proyecto

En cuanto a la distribución de riesgos, se concluye que en principio se sigue los lineamientos de mejores prácticas a nivel internacional y el proyecto presenta una alta transferencia de riesgos hacia el contratista sin embargo se realizó un análisis de ciertos riesgos importantes para el criterio del Fondo: 

  • El más complejo es la asunción del riesgo de demanda (ingreso que depende del volumen del tráfico) en uno de los 3 componentes del pago por disponibilidad, que realmente se traduce en un pago por uso o peaje sombra.  Esto implica que los modelos financieros deben demostrar viabilidad con una reducción de ingresos de hasta 10% y sin arriesgar el repago de la deuda.
  • Se destaca que, en caso de huelgas o malestar social, no se contemplarían como fuerza mayor y estos riesgos pueden recaer sobre el contratista directamente por lo cual es importante que se cuente con retroalimentación de la aceptación del público sobre el proyecto y la consulta previa.
  • Se asegura el repago de la deuda al financista en primera prelación y se aseguran step-in rights siempre con aprobación de la entidad contratante.  Sin embargo, se alerta que en caso de una terminación anticipada se utilizará las garantías de fiel cumplimiento para repago de la deuda senior pero en caso que quede un saldo deberá ser satisfecha por los accionistas por lo cual se requerirá garantías o colaterales directos de los accionistas.
  • En los pliegos se contempla como opción de resolución de conflictos, fuera de la justicia común de Uruguay, la opción de arbitraje en el mismo Uruguay donde el laudo arbitral será inapelable.  Esta opción de arbitraje nacional constituye un posible riesgo inaceptable ya que podría ocurrir un sesgo en el arbitraje y no corresponde a la práctica usual de que se pueda tener un arbitraje internacional en Nueva York o Londres

3. Análisis de la Información Proporcionada (perspectiva del financista)

Se realizó un análisis de información proporcionada con el objeto de identificar estudios necesarios o información faltante para poder decidir sobre financiar el proyecto con razonabilidad:

  1. Dentro de los pliegos se proporcionó un estudio de tráfico por día y por tramo basado en la información recolectada a través de los años de las porciones existentes, sin embargo, es necesario que se encargue un estudio de tráfico robusto de una empresa de alta reputación preferiblemente internacional.  El estudio ayudará a corroborar o brindar nuevos estimados y sobre todo proyecciones futuras.  Esto es esencial para definir los límites para el modelo financiero sobre reducción de ingresos y máximos de financiamiento.
  2. Al ser una carretera con componentes greenfield es importante que solicitar un análisis previo de los posibles impactos ambientales y sociales que puedan conllevar riesgos reputacionales, costos de reparación no programados y además posibles reasentamientos de personas y acciones sociales en contra del proyecto.
      
  3. Se deberá solicitar una debida diligencia sobre la infraestructura existente, el status legal de los predios y el marco legal de la licitación.  Este análisis que se encargará a alguna firma local con conocimiento de las leyes locales.  Así también se deberá estimar los tiempos para obtención de licencias para construcción, obtención de licencias ambientales, entre otras, para asegurar que los plazos podrán ser alcanzados especialmente en cuanto a la operación de la infraestructura.
  4. Se debe solicitar a la empresa cliente un estudio de prefactibilidad de costos de operación y mantenimiento, así como de costos de construcción.  Este estudio forma parte vital de lo que los proponentes privados deben realizar previo a presentar una oferta.  La información levantada junto con una provisión para riesgos inesperados sería utilizada para elaborar el modelo económico financiero y crear el Plan Económico Financiero y derivado de esto la propuesta final, tanto técnica como económica.  Si bien este estudio lo debe realizar el proponente privado, para evitar problemas de agencia, el fondo requerirá una auditoría o verificación de los estudios.

En conclusión, sobre la información proporcionada, si bien el proyecto presenta una adecuada estructuración, el riesgo de demanda es bastante alto y las condiciones y políticas financieras que se impondrán al privado, y que serán reflejadas en el modelo financiero, dependen de información vital que debe ser complementada o levantada, tal como: un estudio de tráfico, estudio socio ambiental, debida diligencia de infraestructura y predios necesarios y costos a nivel de prefactibilidad.  Sin estos estudios no se podría realizar una oferta de financiamiento para el concurso.

4. Otras condiciones para el proyecto (para el contratista y financista)

Para la elaboración del modelo financiero y plan económico financiero es importante que el Fondo de Inversión tome en cuenta las siguientes consideraciones:

  • Capital Social mínimo Aportado Los pliegos del contrato establecen que como mínimo los accionistas deberán aportar un 15% de capital social a la Sociedad Específica de Proyecto del total del CAPEX necesario y al momento de la conformación se deberá aportar el 25% de este monto esperando en 4 meses completar el restante 75% de capital social.  Esto quiere decir que el financiamiento deberá ser como máximo de 75% del CAPEX.
  • Límite a la reducción de Patrimonio Bajo ninguna circunstancia durante la vida del contrato se podrá reducir el capital social y patrimonio perteneciente al privado de la SPV, en caso que esto ocurra puede considerarse una causal de terminación por causa del concesionario si no se cuenta con autorización previa y justificada por la Entidad Contratante.
  • Autorización en caso de emisión de bonos u otras obligaciones En caso de que se decida financiar el proyecto con bonos u otras obligaciones, se deberá obtener la aprobación de la entidad contratante previo a la firma del contrato.
  • Autorización y prohibición de cesión de acciones Queda prohibida la cesión de acciones hasta finalizar la construcción de obra.  Solamente se lo podrá realizar bajo autorización de la entidad contratante por un máximo de 20% siempre que la SPV mantenga las ratios de solvencia requerida para la licitación.  Esto es liquidez de 1, máximo apalancamiento de 2 y rentabilidad de 5% de la constructora principal accionista.
  • Garantías exigidas y fondo de provisión Se requiere una garantía de fiel cumplimiento de contrato por $1.600.000 dólares americanos y un fondo de reparo de $1.600.000 dólares americanos para la etapa de construcción y puesta a punto.  Para la etapa de operación y mantenimiento se requiere una garantía de fiel cumplimiento de $2.500.000 dólares que se deberá mantener hasta 12 meses luego de la reversión del activo.  Se retendrá del pago por disponibilidad un 1.5% mínimo que se constituirá en un fondo de provisión que se utilizará para compensar las condiciones que no se cumplan al momento de entrega del activo según las condiciones requeridas.  Se devolverá hasta 2 años luego de la entrega final de los activos.
  • Costo del Fideicomiso El contratista deberá depositar anualmente en el fideicomiso un valor de $1.700.000 unidades indexadas que serán utilizadas para costos del contralor o fiscalizador.

Conclusiones sobre la información financiera sobre el contratista y el financista

Las presentadas son condiciones que implican límites, tanto a la estrategia de financiamiento como de gestión de la empresa de propósito específico del proyecto que deberá considerar tanto el financista como el contratista.  Además, se establecen costos, sobre todo de garantías, fondos y fideicomisos, en que deben incurrirse mismos que reducen los flujos operativos y éstos deben considerarse en costos de inversión y costos de mantenimiento reduciendo el flujo disponible para el servicio de la deuda.  Esto debe incluirse en el modelo financiero para así calcular las ratios de cobertura de la deuda necesarios e incluso en los análisis de sensibilidad que el Fondo debe exigir al contratista.

5. Sensibilidades del Modelo Financiero de los Proponentes (para el financista)

En los pliegos del proyecto se solicita un resumen con información del resultado de aplicar distintas sensibilidades en variables elegidas y su reflejo en otras variables seleccionadas.  Las sensibilidades aplicadas deberán reflejar el impacto sobre las siguientes variables utilizando el modelo financiero: TIR del accionista, TIR del proyecto, y ratios de cobertura del servicio de la deuda – DSCR (mínimo y promedio).

4.Cascada de Fllujo Project FinanceIlustración 4 Cascada de Flujos para Project Finance

Las variables y la magnitud que se han elegido para las sensibilidades son: 

  • Variación de obras iniciales en + y – 15% (se entiende que sería el CAPEX total necesario para la primera fase para el componente A, B y C).  Se debería considerar un aumento de CAPEX de 25% debido a que las carreteras pueden resultar en altos sobrecostos.
  • Variación de las inversiones asociadas al mantenimiento mayor durante la fase de explotación por + y – 15% del CAPEX.  Se concluye que son suficientes.
  • Reducción de ingresos anuales del PPD por 5% por concepto de deducciones (sería el PPD total).  Se considera que no es suficiente para el financista.  Se entiende que si se llega a una reducción de -8% por 2 años consecutivos sería motivo de terminación por causa del concesionario.  Para consumo de los financistas se debería considerar una caída de -10% en el PPD que podría ocurrir debido a una sobre estimación en las proyecciones de tráfico.
  • Sensibilidad ante aumento de la tasa de financiamiento de 15%.  se considera que no es necesaria siempre y cuando se incluya el costo de implementar el SWAP de tasa de interés en los flujos operativos y de financiamiento.

Si bien se han solicitado las principales variables de impacto, para consumo del financista, las variables adicionales deberían incluir:

  • Loan Life Coverage Ratio – ratio del valor presente de ingresos en el tiempo del repago del financiamiento para cubrir el valor presente neto total del servicio de la deuda global 
  • Project Life Coverage Ratio – ratio del valor presente de ingresos en el tiempo total del proyecto respecto para cubrir el valor presente neto del total del servicio de la deuda global

Estas variables ayudarían a verificar que no se rompan los límites de comodidad de riesgo del financista siendo la LLCR la más ácida.

Adicional a las sensibilidades requeridas, el financista debe solicitar un análisis de sensibilidad y su impacto en las variables antes mencionadas (TIR accionista y proyecto, DSCR mínimo y promedio, PLCR y LLCR) de las siguientes variables:

  • Impacto de un aumento del OPEX en 10% que no se consideró previamente y puede ocurrir debido a la inflación o sobreestimación de costos.
  • Presentar un escenario pesimista que incluya: +15% de CAPEX inicial, -10% PPD y +5% CAPEX de reparación y +5% OPEX 
  • Se podría correr con las variables de sensibilidades un modelo estocástico tipo Monte Carlo para identificar que los escenarios de NO Financiación sean menores al 10%.

6. Conclusión y Recomendación

Luego del resumen y análisis presentado sobre el Trabajo de Fin de Master se concluye que la oportunidad de inversión para el Fondo de Inversión sobre la concesión de carreteras en Uruguay es de riesgo moderado y sería atractiva debido a que el MTOP de Uruguay es una entidad con experiencia comprobada.  Además, Uruguay no presenta un riesgo país fuera de grado de inversión y el proyecto se encuentra adecuadamente estructurado.

En este sentido, el análisis financiero y económico del analista del Fondo, deberá recomendar que se continúe con el trabajo con el cliente y solicitar los estudios adicionales requeridos.  Una vez con esa información se podrá completar el modelo financiero acordado e incluir condiciones financieras para mitigar el riesgo de mercado por PPD como colaterales de accionistas, así como un diferencial entre la deuda pendiente de pago cada año y la garantía de ejecución de la concesionaria y finalmente incluir una cuenta de reserva de servicio de deuda por 1 año.


RESEÑA DEL AUTOR:

1619971908191Santiago Martín Ramírez Chiriboga es economista ecuatoriano por la Universidad San Francisco de Quito con más de 10 años de experiencia profesional y 5 años especializándome en créditos para el desarrollo social, ambiental y de infraestructura.  Con una Maestría en Ciencias de Economía por la Universidad de Amsterdam de los Países Bajos y un Máster en Finanzas por la EUDE Business School de España.  Recientemente he logrado el título de Master Internacional en Proyectos de Colaboración Público-Privados emitido por Structuralia y validado por la Universidad Isabel I en España.

He desempeñado funciones económicas, financieras, estadísticas y de estrategia en las áreas de riesgo, crédito e inversiones, inteligencia de mercado, gerencia de programas y proyectos, desarrollo social y ambiental, y asistencia técnica en bancos de desarrollo, el Ministerio de Economía y Finanzas de Ecuador, y el Programa de las Naciones Unidas para el Desarrollo – PNUD.  Actualmente me desempeño como Experto en Estructuración y Riesgos de Asociaciones Público-Privadas (PPP´s en inglés) para el Departamento del Tesoro de los Estados Unidos en su misión de apoyo al Gobierno del Ecuador.

TESTIMONIO DEL AUTOR:

1. ¿Por qué elegiste Structuralia?

«Este programa lo elegí luego de qué investigando en internet representaba la mejor opción en cuanto a costo beneficio pues el precio es accesible, especialmente con las oportunidades de becas OEA, la temática y cursos son bastante específicos y por lo tanto profesionales, y su plataforma web para aprendizaje funcional y amigable desde el computador y el teléfono. Además, al explorar sobre Structuralia, me atrajo que es una institución dedicada en buena medida a la Ingeniería por lo cual, desde mi ámbito financiero y económico representa una oportunidad ya que las Asociaciones Público Privadas esencialmente requieren de conocimientos económicos, de ingeniería, finanzas y legales.«

2. ¿Qué es lo que más destacarías del máster?

«Lo más destacable del Master es el Trabajo de Fin de Master. Dentro de los cursos existe mucha literatura, y me tomé el tiempo para intentar absorber todo el contenido e ir relacionándolo con la literatura previa y mi experiencia profesional. Llegado el Trabajo Fin de Master, al requerir un análisis bancario sobre los pliegos de un proyecto de carretera de Colaboración Público-Privado, inicialmente pensé que era un desafío fuerte ya que representa las actividades reales que un banco de inversión requeriría. Sin embargo al realizarlo me dí cuenta que mi criterio se había fortalecido y las herramientas aprendidas fueron de completa utilidad para producir un buen trabajo, profesional y a la altura de cualquier analista senior de un banco de inversión para proyectos de Asociación Público Privado e Infraestructura mediante Project Finance.«

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«Realizar el Máster me ayudó a fortalecer y complementar mis conocimientos en esta materia tan específica y de escaza oferta académica Además me ayudó a tener conocimientos sobre las diferentes pespectivas de los diversos integrantes (inversionistas, industriales, Estado) las cuales son en muchas ocasiones contrarias pero existe un punto de equilibrio en donde los incentivos se alinean para todos. Finalmente espero que estos conocimientos que me han permitido especializarme en una temática compleja y poco conocida me abran puertas para alcanzar oportunidades de trabajo internacional que es lo que anhelo.»

Nueva llamada a la acción

]]>
https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras/feed 0
Proyecto TFM: Modelo para la detección de fraudes en transacciones https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones#respond Tue, 22 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones

Descubre cómo un alumno ha desarrollado un modelo innovador para detectar fraudes en transacciones y combatir los ciberataques en este TFM.

transformación digital

Actualmente, con el avance de la tecnología y el acceso a Internet, los pagos han evolucionado y existen diferentes formas de realizarlos, ya sea de manera física o virtual. Así como los pagos han ido cambiando para adaptarse a las necesidades y comodidades de clientes y comercios, los ciberdelincuentes también han ido evolucionando. A pesar de las diferentes medidas de seguridad que adoptan las entidades financieras, los fraudes en medios de pagos es una problemática que se enfrenta día con día.

Las entidades financieras y emisores de medios de pago deben evolucionar en conjunto con las necesidades del sector, hacer uso de la creciente tecnología y la disposición de datos para establecer medidas de seguridad y establecer medidas de detención temprana de fraudes.

Creación de modelo para la detección de fraudes en transacciones en tarjetas de crédito

Este interesante TFM elaborado Magaly Fonseca ex-alumna del Máster en Big Data y Business Analytics en Structuralia nos profundiza en esta temática tan importante hoy creando un «Modelo para la detección de fraudes en transacciones de tarjetas de crédito». 

1. Elección de Dataset

Para la elaboración de este trabajo de fin de master se seleccionó un dataset, de los disponibles en la página Kaggle, el cual cuenta con información para trabajar con el objetivo de entrenar un modelo de aprendizaje capaz de detectar casos de fraudes en las transacciones. El dataset elegido se llama card_transdata el cual contiene información de transacciones con tarjetas de crédito.

El dataset es un archivo de extensión csv y consta de 8 columnas. Descritas a continuación:

  • Distance_from_home: la distancia desde casa respecto a donde ocurrió la transacción.

  • Distance_from_last_transaction: indica la distancia entre el punto de la transacción con respecto a la última transacción registrada, es decir, la transacción anterior.
  • Radio_to_median_purchase_price: es la relación entre el monto de la transacción y el precio medio de compra del cliente.
  • Repeat_retailer: indica con 1 si la transacción se realizó desde el mismo minorista y con 0 si no.
  • Used_chip: en esta columna se indica con 1 si en la transacción se utilizó el chip de la tarjeta de crédito y con 0 si no se utilizó.
  • Used_pin_number: en este campo se señala con 1 si en la transacción se usó el número de pin y con 0 en caso contrario.
  • Online_order: se indica con 1 si la transacción corresponde a un pedido en línea y 0 si no fue así.
  • Fraud: indica si la transacción fue identificada como fraude o no, al igual que las columnas anteriores con los valores 1 para los casos fraude y 0 para los no fraude.

2. ETL con Trifacta

Para el proceso de extracción, tratamiento y carga de los datos (ETL) se hace uso de la herramienta Trifacta. Para iniciar el proceso se carga el dataset card_transdata.csv en la herramienta y se crea el flujo con el nombre de “datos de transacciones”.

Como primer paso en el proceso de transformación se realiza el perfilado de datos, con el fin de conocer a fondo el contenido del dataset y verificar la calidad de los datos con el objetivo de determinar las transformaciones que deban realizarse para poder trabajar con los datos y obtener resultados confiables.

Imagen 1 (1) (1)Imagen 1. Verificación de la calidad de los datos iniciales en Trifacta.

Según se muestra en la imagen anterior, los datos de las 8 columnas del dataset se encuentran con una buena calidad ya que la barra indicadora en todos los casos se encuentra en verde, lo que se traduce en que los datos están correctos, coinciden con el formato de la celda y no hay valores inválidos ni vacíos. Se puede apreciar además que el dataset tiene dos tipos de datos: enteros y decimales. Por lo tanto, se procede a finalizar el proceso de ETL, corriendo el job en Trifacta para obtener el dataset y continuar con la parte analítica del mismo.

3. Estudio estadístico

Parte importante al trabajar con datos es conocerlos y realizar un estudio analítico que nos permita tomar las mejores decisiones para el tratamiento de los mismo, para dicho proceso se realizó el análisis en Python.

1. Análisis EDA

Imagen 2 (1) (1)Imagen 2. Gráficos de las variables categóricas.

Gracias a los gráficos se puede observar que el 88.2% de las transacciones se realizaron en el mismo minorista que la compra anterior. En el 35% de las transacciones se utilizó el chip. En el 10.1% de las compras se usó el pin y el 65.1% de las transacciones fueron compras en línea. Por último, el 8.7% de las transacciones son fraude.

Se realizan boxplot para las variables continuas, para observar la distribución de los datos de dichas variables:

Imagen 3 (1)Imagen 3. Boxplot de las variables continuas.

En las tres variables se pueden observar que existen valores atípicos que sobresalen del resto de datos, al considerar la descripción de las variables, a saber: distancia desde casa, distancia desde la última transacción y razón respecto a la media de compra; además tomando en cuenta que lo que se desea más adelante es entrenar un modelo que prediga si la transacción corresponde o no a un fraude, estos valores atípicos podrían representar movimientos de fraude por lo que se determina que deben mantenerse.

2. Estudio de correlaciones

Parte importante del análisis es realizar un estudio de correlaciones para observar si existe relación entre las diferentes variables que componen el dataset. Debido a que se tiene variables continuas y categóricas se utiliza el método de Spearman, que se puede utilizar para ambos tipos de variables:

Imagen 4 (1)Imagen 4. Correlación de las variables

En el resultado se puede apreciar una fuerte correlación (0.6) entre las variables distancia desde casa y si la compra se realizó en el mismo minorista. Además, se puede apreciar un adelanto de las variables que influyen en la variable de nuestro interés (fraude) donde la razón respecto a la media de compra es la variable que tiene mayor correlación con fraude (0.3) aunque el valor no es tan alto, le sigue la variable compra en línea con 0.2 y distancia desde casa con 0.1. Un punto importante resalta de este análisis, aparecen dos variables con correlación negativa con fraude, las cuales son uso de chip y uso de número de pin ambas con un valor de -0.1 lo que se podría interpretar que el uso de esto dos métodos de seguridad son efectivos para evitar el fraude en las transacciones.

Como último paso del análisis estadístico se realizan pruebas de hipótesis (anova) para corroborar la influencia o no de las variables en nuestra variable de interés que es el fraude, se muestra el resultado:

Imagen 5 (1)Imagen 5. Resultado de Anovas

Como se puede apreciar, la única variable que tiene un valor mayor a 0.05 es si la compra fue en el mismo minorista, por lo que se rechaza la hipótesis nula de que la variable es influyente. El resto de variables sí son influyentes.

4. Visualización

Una vez realizado el proceso de ETL y el análisis estadístico de los datos disponibles, se procede a cargar el dataset en PowerBI para la creación de un dashboard que permita visualizar la información disponible:

Imagen 6 (1)Imagen 6. Carga del dataset a PowerBI.

Una vez cargada el dataset, se procede a realizar algunas transformaciones de los datos, solamente para facilitar la visualización, dichas transformaciones corresponden al tipo de dato de las columnas con información booleana, se pasa de 0 y 1 a tipo “true/false” y en el caso de la columna Fraude se cambia el tipo de dato a texto y se reemplazan los 0 por la palabra “no” y los 1 por “si”. Cabe indicar que estas transformaciones se realizan solamente para efectos de facilitar la visualización, pero no modifican la fuente de los datos (el dataset).

Con las transformaciones descritas anteriormente, se procede a crear el dashboard con la información relevante para el caso en estudio:

Imagen 7 (1)

En el dashboard se puede visualizar como dato principal la cantidad total de fraudes detectados, que corresponde a 87403 casos; lo cual representa el 8.74% de las transacciones, fácilmente observable en el gráfico de pastel.

Además, se muestra una tabla en la que se compara las medianas de las variables numéricas para los casos fraude respecto a los no fraude, en dicha tabla se puede apreciar una diferencia significativa en las medianas de la variable “razón respecto a la media de compra” en los casos de fraude (5.07) en comparación a las transacciones no fraudulentas (0.91); también existe una diferencia importante en las medianas de la variable “distancia desde casa”, ya que en los casos de fraude la mediana es mucho mayor que los casos de no fraude; mientras que para la variable “distancia desde la última transacción” la diferencia de las medianas no es significativa (0.2).

Por último, se muestran 4 gráficos de barra, uno para cada variable booleana relacionadas a la variable fraude. Se puede observar fácilmente en ellos que para los casos de fraude la mayoría de las transacciones se realizaron en el mismo minorista, también se aprecia que la mayor proporción de fraudes se realizaron en compras en línea. Además, se puede apreciar que las medidas de seguridad como el uso del chip y el número de pin son efectivas para la prevención de fraudes, siendo el uso de numero de pin más efectiva.

5. Construcción de modelo de detección de fraudes

Con el objetivo de realizar un modelo de detección de fraudes, lo cual sería un modelo de aprendizaje de clasificación. En primera instancia se procede a determinar las variables a utilizar, como se determinó al final del análisis estadístico, las variables que son influyentes para determinar si es fraude o no son todas excepto si la compra fue en el mismo minorista. Además, esta variable tenía una alta correlación con la variable distancia desde casa, por lo que solamente se debe utilizar una de ellas, esto representa una razón mas para descartar la variable “repeat_retailer”.

1. Definición de variables de entrada y salida.

Con la información anterior, se procede a definir las variables de entrada y salida como primer paso de la construcción del modelo; se define también los datos de entrenamiento y prueba, siendo de prueba el 30% de los datos; además, se realiza un escalado de los datos.

Una vez definido, se procede a realizar la predicción utilizando diferentes métodos de aprendizaje supervisado.

2. Árbol de decisión

Se realiza una matriz de confusión para verificar la calidad del modelo

Resultado de la matriz de confusión:

Según lo mostrado en la matriz de confusión se procede a calcular las métricas que nos indiquen la calidad del modelo. Tenemos lo siguiente:

TP = 273905

FP = 2

FN = 2

TN = 26091

Accuracy = 0.9999

Se aprecia un accuracy muy bueno; sin embargo, como se apreció en el análisis estadístico los casos de fraude corresponde a un 8.7% de los datos, por lo que se tienen los datos desbalanceados, es decir, se tiene muchos datos de una clase (no fraude) y pocos de otra (fraude). Dado lo anterior, se procede a calcular el F1 score, la cual es la métrica más adecuada para este tipo de casos.

Precision = 0.9999

Recall = 0.9999

F1 score = 0.9999

Se puede apreciar que el F1 score es muy cercano a 1 por lo que se puede concluir que el modelo tiene muy buena calidad y tendrá mucha efectividad al predecir próximas transacciones fraudulentas.

3. Random Forest

Se muestra el resultado de la matriz de confusión.

Como se puede apreciar tiene el mismo resultado que con el árbol de decisión.

4. K-nearest neighbors

Resultado de la matriz de confusión.

Con la matriz anterior se puede apreciar que la calidad de este modelo es menor que la del modelo con el método de árbol de decisión. Se calculan las métricas de evaluación del modelo:

TP = 273713

FP = 194

FN = 500

TN = 25593

Accuracy = 0.9977

Precision = 0.9993

Recall = 0.9982

F1 score = 0.9987

5. Naive bayes

Resultado de la matriz de confusión:

Se puede observar que con este método la calidad del modelo decae aún más en comparación con los modelos anteriores. Se muestran las métricas de evaluación:

TP = 269793

FP = 4114

FN = 10801

TN = 15292

Accuracy = 0.9503

Precision = 0.9850

Recall = 0.9615

F1 score = 0.9731

 6. Comparación de los modelos

Finalmente, a modo de resumen se muestra una tabla comparativa de las métricas de los diferentes modelos utilizados, donde se puede apreciar que el método con mejor métricas y por tanto el que debe usarse es el árbol de decisión con un F1 score de 99.99%

7. Clustering

Otra parte importante para el negocio es categorizar las transacciones, haciendo uso de las ventajas que brinda el machine learning y data mining se procede a realizar el clustering. Para este objetivo se trabajó con las variables numéricas disponibles en el dataset. Como se pudo apreciar en la visualización (dashboard de PowerBI), las variables “distancia desde casa” y “razón respecto a la media de compra” fueron las variables que presentaron mayor variación en las medianas cuando se analizaban por separado los casos fraude respecto a los que no son fraude; es por esta razón que se toman estas dos variables para el proceso de Clustering.

Para determinar la cantidad idónea de cluster se utiliza el método Elbow.

A continuación, se muestran los resultados de dicho método, como se puede apreciar la cantidad de cluster a usar es 3.

Imagen 8. WCSS en función de K (número de clusters).

Una vez definida la cantidad óptima de clusters, se procede a realizar el clustering y a graficar para apreciar la distribución de los datos en cada uno de los clusters:

En el gráfico se puede apreciar un primer cluster (azul) con transacciones que están cerca de casa pero con razón respecto a la media de compra alta. Además, un segundo cluster (rojo) con transacciones que tienen una distancia desde casa media y la razón respecto a la media de compra también media. Por último, un tercer cluster (verde) con razón respecto a la media de compra baja y distancia desde casa alta.

8. Conclusiones

  • El dataset card_transdata tiene una buena calidad de los datos en su fuente original por lo que el tratamiento para los procesos posteriores es mínimo.
  • El 8.7% de las transacciones en estudio corresponde a fraudes.
  • Producto del estudio estadístico, se determina que las variables “distancia desde casa” y “mismo minorista” tienen correlación.
  • Con respecto a fraude, se determinó que todas las variables del dataset son influyentes excepto la variable “mismo minorista”.
  • En el estudio de correlaciones se aprecia cómo las medidas de seguridad adoptadas como uso de chip y uso de número de pin son efectivas para evitar el fraude ya que tienen una correlación negativa con los casos fraude.
  • Se realizan diferentes modelos haciendo uso métodos de aprendizaje supervisado con el fin de detectar casos de fraude, siendo el más efectivo el modelo que utiliza el método árbol de decisión, con un F1 score de 99.99%, por lo tanto, es el modelo que se debe utilizar.
  • Se realizó la categorización de las transacciones en 3 clusters, utilizando las variables continuas “distancia desde casa y “razón respecto a la media de compra”, haciendo uso del método elbow para determinar la cantidad óptima de cluster y utilizando el algoritmo K-Means para el clustering en sí.

El equipo de Structuralia agradece a Magaly Fonseca por su excelente trabajo realizado. ¡Mucho éxito en su carrera profesional y en todos los desafíos que se proponga por delante!


RESEÑA DEL AUTOR:

Formato IG (99)Magaly Fonseca Maroto, graduada en licenciatura en Ingeniería en Producción Industrial del Instituto Tecnológico de Costa Rica. También cursó un técnico en redes de computadoras, además de poseer estudios en Six Sigma Green Belt, Servicio al Cliente y PowerBI. Recientemente ha obtenido un Máster en Big Data y Business Analytics en Structuralia.

Trabaja desde hace 12 años en la empresa estatal de electricidad y telecomunicaciones en Costa Rica ICE (Instituto Costarricense de Electricidad), donde ha liderado diferentes equipos de trabajo técnicos y se encarga de realizar informes de gestión del área y participar en proyectos de mejora.

TESTIMONIO DEL AUTOR:

1. ¿Por qué elegiste Structuralia?

«Elegí Structuralia por la facilidad de estudiar online. El plan de estudio me pareció muy completo y acorde a mis necesidades y además tuve la facilidad de optar por una beca de la OEA.«

2. ¿Qué es lo que más destacarías del máster?

«Lo que destaco del máster en Big Data y Business Analytics es la amplitud de los temas abordados, como profesional en ingeniería industrial sin conocimientos robustos en computación y programación, la manera en que el máster abarca los temas me permitió una mayor comprensión y aplicación. Me parece muy bien que la metodología se centre en que el estudiante entienda a fondo cada uno de los temas con amplio fundamento teórico junto con la práctica, la cual es muy importante para interiorizar lo visto en la teoría.
Además, el hecho de poder ir desarrollando los temas de manera individual según el propio ritmo del estudiante es un punto muy favorable en Structuralia, sumado a la plataforma la cual es muy amigable y la manera en que va indicando el porcentaje de avance del módulo y del máster en general es muy útil».

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«Durante mi desarrollo profesional he logrado entender la importancia de contar con los datos de manera rápida, oportuna y eficaz para transformarlos en información que permita la toma de decisiones de una manera robusta y acertada, este máster me ha ayudado a complementar mi carrera como ingeniera industrial y potencializar con los conocimientos en Big Data y Business Analytics, siendo temas que se encuentran en auge estoy segura que el conocimiento adquirido me abrirá muchas puertas para seguir creciendo profesionalmente y contribuir en el desarrollo de la empresa en la que me desenvuelva».

New call-to-action

]]>
https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones/feed 0
Proyecto TFM: Predicción de series temporales con modelos de IA https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia#respond Tue, 15 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia

Este proyecto TFM optimiza la predicción de series temporales con modelos de IA. Descubre enfoques avanzados para análisis de datos y toma de decisiones.

New call-to-action

Proyecto TFM: Predicción de series temporales con modelos de IA

Este artículo se centra en el Trabajo de Fin de Máster en Big Data y Business Analytics de nuestro ex alumno del Daniel Cano Alvira, que busca explorar el potencial de la inteligencia artificial para predecir movimientos en los índices bursátiles con el objetivo de lograr un rendimiento positivo en los mercados financieros. El proyecto representa posibles aplicaciones de técnicas de inteligencia artificial en el campo de las inversiones, ofreciendo y desarrollando dos posibles perspectivas para afrontar el reto.

Objetivos del TFM

El objetivo del trabajo es la creación de un modelo de predicción de precios para aplicar a los mercados financieros. Para ello se usará Python con el fin de descargar los precios de diversos activos financieros conectándose a Yahoo Finance. No se incluirá el código desarrollado en este post para que no se prolongue demasiado.

Datos del Proyecto

Yahoo Finance es un servicio en línea proporcionado por Yahoo que ofrece una variedad de información financiera de forma gratuita, incluyendo datos sobre acciones, noticias financieras, herramientas de análisis y recursos para el seguimiento de mercados e inversiones.

Si bien no goza de una API oficial, gracias a la gran cantidad de repositorios disponibles en GitHub se podrán obtener los datos de cotizaciones de forma sencilla. El repositorio que se va a emplear se llama yfinance, desarrollado por Ran Aroussi, es la mejor alternativa para Yahoo Finance, si bien cada vez consta de más métodos obsoletos debido a la mejora de la seguridad de la página web contra el webscraping. Para el alcance de este proyecto solo se usará el método “Ticker” y se descargarán los datos de cotización de algunos índices bursátiles de la página de índices mundiales de Yahoo Finance mediante un webscraping muy sencillo. Un índice bursátil es un dato calculado mediante una ecuación sobre unos activos concretos con el objetivo de reflejar las variaciones de valor o rentabilidades de los activos que lo componen. Los datos se devolverán como velas japonesas, este tipo de dato consta de 4 componentes principales para describir el movimiento del precio del activo subyacente. Dichos componentes se explican a continuación junto con el resto de datos disponibles en la tabla obtenida.

  • Date: Fecha y hora de inicio de la vela japonesa. Al descargar velas de intervalo diario existirá una por día y por lo tanto la fecha será diaria. 

  • Open (Apertura): Precio del activo al inicio del intervalo temporal de la vela.
  • High (Máximo): Precio máximo de cotización durante el intervalo temporal de la vela. 
  • Low (Mínimo): Precio mínimo de cotización durante el intervalo temporal de la vela. 
  • Close (Cierre): Precio del activo al final del intervalo temporal de la vela. 
  • Volume (Volumen): Cantidad de contratos que se han transferido en el total de transacciones llevadas a cabo en el intervalo temporal de la vela. 
  • Dividends (Dividendos): Cantidad monetaria retribuida por acción a los dueños de acciones de una empresa. Esto solo aplica cuando se trata de acciones o ETFs. 
  • Stock Splits (División de acciones): Relación se multiplica el número de acciones para tener más disponibles en el mercado o menos. Si es menor a uno se considera una división inversa, en la que se reduce el número de acciones, normalmente con el objetivo de subir el precio. Si es mayor que uno la cantidad de acciones aumenta, bajando el precio y haciéndolas más accesibles. Esto solo aplica cuando se trata de acciones o ETFs. 

Para nuestro caso además se calcularán nuevos datos a partir de los ya mencionados con el objetivo de obtener mayor capacidad de predicción. A continuación, se explican los principales. 

  • Range: Rango de precios de cotización de esa vela, se obtiene restando el máximo menos el mínimo. 

  • Range per unit: Rango en por unidad, se calcula dividiendo el rango (Range) entre el precio de apertura (Open). 
  • Open to Close: Rango entre apertura y cierre, se obtiene restando el precio de cierre (Close) menos el precio de apertura (Open). Cabe destacar que al contrario que el Rango este dato será negativo cuando la cotización descienda. 
  • Open to Close per unit: Rango entre apertura y cierre dividido entre el precio de apertura (Open). 
  • Gap: Diferencia entre el precio de apertura actual y el precio de cierre de la vela anterior. 
  • Gap per unit: Diferencia entre el precio de apertura actual y el precio de cierre de la vela anterior dividida entre el cierre anterior. 
  • Moving Average difference per unit: Diferencia entre el precio de apertura actual y las medias móviles de 10, 20, 50, 100 y 200 periodos entre la media. 
  • Week Day: Número del día de la semana, entre el 0 y el 4 al que pertenece la vela.

Selección del universo de activos a estudiar

Una vez realizado el webscraping de los índices bursátiles se decidió filtrarlos debido a la cantidad inicial. Mediante el análisis de las series temporales de los distintos índices se concluyó que los más operados son los del mercado americano y que hay índices que tienen un rango diario considerablemente inferior a los demás, como son: N225, IXIC, GSPC o AORD. Cabe destacar que el SPY consta de un volumen decente, suficiente volatilidad y un precio correcto para permitir eficiencia en la gestión de riesgo con la operativa real. A continuación, veremos la correlación entre los activos seleccionados.

 Predicción de series temporales con modelos de IA

A partir de la figura se puede observar la alta correlación entre los mismos, no siendo negativa en ningún caso e inferior a 0.5 solo en 3 casos. Dado que los índices proporcionan una visión general de la dirección y la salud de un segmento particular del mercado financiero, cuando dicho índice representa las mejores empresas de un país se suele considerar que su rendimiento será parecido a la salud económica del país. Si se une esto a la alta correlación entre los índices de distintos países se podría considerar que los ciclos económicos se encuentran relativamente sincronizados, probablemente debido a la gran globalización y dependencia internacional. Podemos deducir de todo ello que probablemente los propios índices tengan cierto valor predictivo entre ellos, esta será la hipótesis del segundo caso de estudio que se realizará.

Métricas de valoración de estrategias

Para validar los sistemas de predicción se calcularán las métricas estándar del sector y algunas que personalmente creo pueden ser interesantes y ayudan a la compresión del comportamiento del sistema. Todas estas métricas están basadas en las operaciones pasadas y por lo tanto son puramente orientativas y cambiantes con el tiempo.

1. Rentabilidad

Mide el rendimiento en términos de ganancia neta en relación con el capital invertido. Una rentabilidad positiva indica que el sistema está generando beneficios. 

Rentabilidad=Ganancia NetaCapital Invertido×100

2. Ratio de Sharpe

Evalúa la relación entre el rendimiento adicional obtenido por asumir riesgos y la volatilidad del sistema. Un ratio de Sharpe alto indica un mejor rendimiento ajustado al riesgo. En la práctica, el rendimiento de los bonos del gobierno a corto plazo, como los bonos del Tesoro de Estados Unidos con vencimientos de tres o seis meses, es comúnmente utilizado como una aproximación de la tasa libre de riesgo. Esta elección se basa en la suposición de que estos bonos son relativamente seguros y líquidos. Ya que esto queda fuera del ámbito de estudio de este trabajo se va a usar una tasa libre de riesgo igual a 0 que sería el equivalente a tener el dinero en la cuenta del banco.

Ratio Sharpe=Rendimiento Esperado – Tasa Libre de RiesgoVolatilidad×100

3. Ratio de Sortino

Se trata de una métrica muy similar al ratio de Sharpe pero en la cual en vez de emplear la volatilidad total del sistema solo se tendrá en cuenta la de las posiciones negativas.

Ratio de Sortino=Rendimiento Esperado – Tasa Libre de RiesgoDesviación Estándar Negativa×100

4. Máxima pérdida

Mide la mayor disminución del balance de la cartera desde el máximo. Cuanto menor sea mayor será la estabilidad del sistema.

Máxima Pérdida=1-Balance ActualBalance Máximo×100

5. Porcentaje de operaciones ganadoras

Probabilidad de que una operación cualquiera sea ganadora.

Probabilidad de Ganar=Número de Operaciones ExitosasNúmero Total de Operaciones×100

6. Ratio de beneficio entre riesgo

Evalúa la relación entre las ganancias y las pérdidas, ayudando a determinar si el sistema está generando recompensas proporcionalmente mayores a los riesgos asumidos. 

Ratio Beneficio-Riesgo=Beneficio Promedio por OperaciónPérdida Promedio por Operación

7. Esperanza matemática

Representa el promedio ponderado de todos los posibles resultados de una variable aleatoria, tomando en cuenta la probabilidad de que cada resultado ocurra. En el contexto financiero, la esperanza matemática puede utilizarse para calcular el rendimiento esperado de una inversión, ayudando a los inversores a tomar decisiones informadas sobre dónde asignar sus recursos. 

Esperanza=(Probabilidad de Ganar * Beneficio Promedio por Operación –

Probabilidad de Perder * Pérdida Promedio por Operación)×100

Siendo: Probabilidad de Perder = 1-Probabilidad de Ganar

De la ecuación previa se puede entender la relación entre la probabilidad de ganar y el ratio de riesgo. Habrá un punto límite tras el cual la esperanza sea negativa para cada valor de probabilidad de ganancia puesto que cuanto menor sea mayor tendrá que ser el retorno de la inversión en relación a la pérdida (ratio de riesgo) para seguir siendo rentable.

8. Tamaño de Kelly

Fórmula utilizada en la teoría de la gestión de capital y en la teoría de la información para determinar el tamaño óptimo de una serie de apuestas. Es aplicable en situaciones donde se realizan apuestas o inversiones sucesivas, busca maximizar el crecimiento del capital a largo plazo. Es importante destacar que el Criterio de Kelly es una estrategia agresiva y, si bien puede maximizar el crecimiento a largo plazo, también puede llevar a la pérdida de una gran parte del capital en el corto plazo si las estimaciones de las probabilidades son inexactas. 

Kelly=Probabilidad de Ganar -Probabilidad de PerderRatio Beneficio-Riesgo×100

9. Porcentaje de tiempo en el mercado

Relación entre la cantidad de días que se tienen operaciones en mercado y la cantidad de días que se ha aplicado el sistema. Se suele considerar mejor cuando el porcentaje es menor ya que se está expuesto a menos riesgos y menos comisiones, en caso de que haya comisiones de mantenimiento.

Tasa de Exposición=Tiempo con Posiciones AbiertasTiempo de Ejecución del Sistema×100

Primer caso de estudio

El primer intento de predicción consistirá en la aplicación de un modelo en inteligencia artificial basado únicamente en las características derivadas del precio del propio activo. Se hará una comparativa sobre la aplicación de los modelos: 

  • Regresión Lineal
  • Regresión Logística
  • K Vecinos Cercanos (K Nearest Neighbours or KNN)
  • Ingenuo Bayes (Naive Bayes)
  • Red Neuronal (Neural Network)
  • Bosque Aleatorio (Random Forest)
  • Máquina de Vector de Soporte (Support Vector Machine o SVM)

Si bien se ha desarrollado el código de dichos modelos en vez de usar las librerías más comunes no se publicará para no extender el post demasiado. Si se quiere acceso consultar al autor.

Para no extender la duración del proyecto se realizó una pequeña optimización antes de comparar los modelos, a continuación se mostrarán 3 gráficas distintas que se usarán para comparar los resultados con datos de entrenamiento y los de prueba con el objetivo final de identificar posibles sobreoptimizaciones.

La primera gráfica muestra la variación de la probabilidad de ganar entre el resultado de la predicción con datos de prueba y los datos de entrenamiento. Se puede deducir que cuanto más cercano a 0 sea el valor menor será el sobre ajuste. En las líneas de nivel proyectadas en el plano inferior se puede apreciar que el modelo KNN es el más sobre ajustado de todos mientras que los modelos de Regresión Lineal y Red Neuronal son los menos sobre ajustados, llegando a desenvolverse mejor con los datos de prueba que con los de entrenamiento en algunos activos.

Predicción de series temporales con distintos modelos de IA 3

 

En la siguiente figura se puede observar la diferencia en la esperanza matemática obtenida con los datos de entrenamiento y los datos de prueba. Dado que la probabilidad de ganar afecta a esperanza matemática se puede apreciar que los modelos en los que menos varía dicha métrica entre el entrenamiento y los datos de prueba son los mismos que en la gráfica previa. Si bien el modelo de Regresión Lineal es el que menos varía, al tener en cuenta todos los activos el modelo KNN vuelve a ser el más sobre ajustado, reafirmando así lo deducido previamente.

Predicción de series temporales con distintos modelos de IA 2

 

Los modelos Naive Bayes y KNN son los que menor esperanza matemática media obtienen, como se puede ver en la siguiente gráfica. Cabe resaltar que los modelos de Regresión Lineal, Redes Neuronales y SVM son los que tienen menos activos con esperanza matemática negativa, haciendo que sean los más polivalentes. No se han añadido los resultados aplicando el modelo PCA sobre las características usadas puesto que los resultados han sido peores de los obtenidos sin su aplicación.

Predicción de series temporales con distintos modelos de IA 4

 

Por último se calculará la evolución del balance de cada modelo para cada activo estudiado.

Se considerará un capital inicial de 100.000,0$ y una asignación del 100 % a cada uno de los modelos. Dado que la gestión del riesgo queda fuera del alcance de este trabajo se operará con el capital total cada vez que se realice una operación. Además, se considerarán solo las operaciones en largo y unas comisiones nulas. En la figura se puede observar un gráfico para cada activo con la correspondiente curva de balance para cada modelo entrenado. Se puede apreciar que de forma general ningún modelo destaca, pero que hay modelos que operan relativamente bien los índices americanos y podría merecer la pena profundizar en ellas e introducir estrategias de gestión de riesgo.

Cabe destacar que solo se han usado dos años de datos para el estudio, que dichos años coinciden con un año de recesión y otro de inicio de expansión debido a las políticas llevadas a cabo por los bancos centrales. Sería conveniente llevar a cabo un estudio sobre mayor cantidad de datos e incluir un test de walk forward.

Segundo caso de estudio

El segundo ejercicio consistirá en la predicción de los precios del SPY, un ETF que replica el comportamiento del SP500. La idea detrás de este ejercicio se basa en la diferencia horaria entre los diferentes mercados alrededor del mundo. Dado que el mercado asiático ha cerrado cuando el mercado americano abre sería coherente pensar que la sesión de ese día podría verse afectada por el comportamiento de los mercados que operan en husos horarios anteriores. Se dividirán los datos en partes iguales, siendo la primera mitad los datos de entrenamiento y la segunda mitad los datos a predecir. Además, se mantendrá la misma gestión operativa que en el ejercicio anterior. 

En este caso los modelos estudiados serán los siguientes:

La a continuación presenta un análisis comparativo de los modelos en términos de las métricas previamente definidas. Se puede observar que diferentes modelos destacan en diferentes métricas, resaltando la importancia de considerar múltiples criterios al evaluar estrategias financieras.

Se ha decidido tomar como referencia la estrategia de mantener el capital total invertido en el activo, comúnmente llamado “Buy & Hold”. Para esta estrategia se obtiene un beneficio de 104,035.87$ con una rentabilidad del 104.03 %. El Sharpe es 0.84, y el Sortino es 0.062. Además la máxima pérdida (Max. DrawDown) durante el periodo de prueba sería del 22.94 % y la probabilidad de ganar del 56.17 %. De forma general la aplicación del PCA no parece aportar valor, siendo la única excepción el modelo Random Forest. Aunque los beneficios pueden ser más bajos con el uso del PCA, la reducción en la dimensionalidad puede ser útil en términos de simplicidad y eficiencia computacional. El modelo de Regresión Logística es el que menor rentabilidad obtiene, esto se debe a la poca frecuencia operativa, siendo el tiempo de mercado cercano al 3 %. Esto y la alta fiabilidad lo convierten en el modelo con menor pérdida máxima y mayor ratio de Sharpe.

Predicción de series temporales con distintos modelos de IA 6

Por el otro lado el modelo de K Vecinos más Cercanos (KNN) es el que logra mayor rentabilidad, si bien esto se debe al sobre ajuste. Esto se da cuando el modelo se ajusta demasiado a los datos de entrenamiento, generando patrones poco generalizados. Se puede observar en la figura superior. Durante la primera mitad (entrenamiento) el capital aumenta de forma constante sin casi oscilación mientras que en los datos de prueba el capital oscila entre un máximo y un mínimo de forma constante.

La mejor estrategia de cara a su operación real sería la del modelo de Regresión Lineal, a la cual se le podrían incluir las señales producidas por el modelo de Regresión Logística con el objetivo de lograr así mayores beneficios. En este caso concreto las señales del modelo de Regresión Logístico se dan también por el modelo de Regresión Lineal por lo que no aportaría nada a menos que se tuviese en cuenta en la estrategia de gestión de riesgo.

Predicción de series temporales con distintos modelos de IA 6

En la figura anterior se puede comparar el retorno y la pérdida acumulada en cada instante de la estrategia final y la estrategia con “Buy & Hold”. Como se puede apreciar la máxima pérdida es casi un tercio de la de “Buy & Hold” mientras que la rentabilidad final de la estrategia es 1.4 veces la de “Buy & Hold”. Todo ello permitiéndonos entrar a mercado solo la mitad de las veces.

Conclusiones

El objetivo del presente proyecto era estudiar la viabilidad de modelos de inteligencia artificial en la predicción de precios de activos operados en los mercado financieros. Se trata de un proyecto que se ha centrado más en los modelos y su comparación que en la gestión del capital y el porfolio. Si bien se ha demostrado que por muy de moda que esté la inteligencia artificial no es el santo grial, se ha conseguido obtener estrategias que pueden merecer la pena. En el primer ejercicio se ha visto que los modelos a menudo fracasarán en su tarea si se les alimenta solo con datos derivados de lo que se quiere predecir. Solo en los mercados más líquidos lograban una cierta precisión. El último ejercicio ha demostrado la necesidad de evitar sobre ajustar los modelos ya que pueden provocar un desastre cuando se apliquen a una operativa real. Además, se ha dejado en evidencia la importancia de la ingeniería de factores para obtener variables con mayor capacidad predictiva. La inteligencia artificial convive con nosotros en el día a día y lleva décadas siendo aplicada en los mercados financieros. Hará falta mucho estudio y recursos para poder obtener un sistema que pueda hacer frente a los retornos de los referentes del sector como Medallion Fund.

En el futuro sería conveniente incluir gestión operativa y de capital puesto que hay muchas variables que dependen de ello y se han supuesto en este trabajo. Algunas ideas por las que empezar podrían ser: añadir límite de pérdidas y de ganancias a las posiciones en vez de mantenerlas abiertas durante todo el día y definir un algoritmo para asignar el porcentaje de la cuenta a arriesgar en cada momento. Por otro lado, sería conveniente definir el tiempo a esperar para volver a entrenar al modelo, dado que para mantener al modelo actualizado es conveniente entrenarlo con datos nuevos. Habría que definir cada cuánto se debe entrenar y la cantidad de datos a utilizar, puesto que puede que patrones pasados contradigan a patrones actuales y deterioren la capacidad predictiva del modelo.


Reseña del autor

Proyecto TFM Daniel CanoDaniel Cano, es Graduado en Ingeniería de la Energía por la Universidad Politécnica de Madrid y recientemente a cursado el Máster en Big Data y Business Analytics. Actualmente desarrolla sus labores profesionales en Técnicas Reunidas S.A., concretamente en el departamento de Transformación Digital. Daniel tiene tu propia página personal de proyectos, «One Made«. 

Testimonio del autor

1. ¿Por qué elegiste Structuralia?

«Mi empresa me dio la opción de poder formarme y especializarme con un máster, al tener que elegir entre varias opciones el Máster de Structuralia fue el que más me atrajo de todos.»

2. ¿Qué es lo que más destacarías del máster?

«Lo que más destacaría es que entrega muy buena documentación y material en el Máster en Big Data y Business Analytics.»

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«La realización del este Máster me ha ayudado a entender mejor y reforzar conceptos que ya sabía. También he podido aprender sobre nuevas herramientas de Big Data.«


New call-to-action

 

]]>
https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia/feed 0
Proyecto TFM: Análisis de Reforestación para Estudio de Microcuenca https://blog.structuralia.com/proyecto-tfm-an%c3%a1lisis-de-reforestaci%c3%b3n https://blog.structuralia.com/proyecto-tfm-an%c3%a1lisis-de-reforestaci%c3%b3n#respond Tue, 08 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-an%c3%a1lisis-de-reforestaci%c3%b3n

Descubre cómo un alumno investiga la reforestación en una microcuenca en su proyecto de TFM, explorando su impacto ambiental y beneficios ecológicos.

New call-to-action

¿Conoces la importancia de controlar el riesgo de desastres y cambio climático? ¿Conoces los múltiples motivos que pueden desencadenar estos problemas y cómo solucionarlos? El Máster en gestión del riesgo de desastres y gobernanza climática es uno de los másteres destacados de Structuralia ya que aporta los conocimientos y capacidades necesarias para la investigación aplicada y el manejo de instrumentos y herramientas para la gestión de estos riesgos. Este interesante y profundo TFM realizado por nuestro ex-alumno Jorge Castro Rivera es un gran reflejo de ello.

¿Por qué elegí este tema para desarrollar mi TFM?

La gestión del riesgo de desastres y la gestión del cambio climático, son dos temas relevantes en la actualidad, que requieren articular los puntos en común, alrededor de los fenómenos hidroclimatológicos y sus impactos en el desarrollo de la sociedad humana. En este sentido, el trabajo de grado desarrolla una caracterización general del escenario de riesgo por avenidas torrenciales en Colombia, los factores detonantes, los posibles impactos, y cómo influye la deforestación en la ocurrencia de dichos fenómenos, así como se interrelaciona la reforestación con la mitigación de emisión de carbono a la atmosfera a partir de los usos que se le da al suelo, particularmente con las prácticas de conservación del suelo y las coberturas vegetales.

Conceptos claves

Las Avenidas torrenciales son «un flujo muy rápido a extremadamente rápido de detritos saturados, no plásticos (Índice de plasticidad menor que 5%), que transcurre principalmente confinado a lo largo de un canal o cauce con pendiente pronunciada (Hunger, et. al. 2001). Es uno de los movimientos en masa más peligrosos debido a sus características de ocurrencia súbita, altas velocidades y grandes distancias de viaje (UNGRD, 2017).

MOCOA-TRAGEDIA-2 (1)

Foto  1: Avenida torrencial ocurrida en Mocoa, Colombia, 2018. Fuente: (Network, 2018)

La deforestación puede definirse como la conversión de una extensión boscosa en no boscosa. La reforestación y la forestación pueden definirse como la conversión de tierras no boscosas en boscosas, diferenciándose únicamente en el tiempo durante el que las tierras han carecido de bosques. Así mismo, podría proponerse una definición alternativa de la deforestación basada en una disminución dada de la cubierta de dosel o de la densidad de carbono, o en el rebase de uno de una secuencia de umbrales. Del mismo modo, la forestación y la reforestación podrían definirse también en términos de un aumento de la cubierta de dosel o de la densidad de carbono. Ninguna de estas definiciones tiene que ver con el concepto de cambio del uso de las tierras” (IPCC, 2000).

Por otra parte, la captura de carbono se define como: “Proceso en el que un flujo relativamente puro de dióxido de carbono (CO2) procedente de fuentes industriales y de fuentes relacionadas con la energía se separa (captura), se condiciona, se comprime y se transporta hasta un lugar de almacenamiento para su aislamiento de la atmósfera durante un largo período. A veces se denomina “captura y secuestro de carbono” (IPCC [.-D. V.-O.-O., 2018).

Objetivos del TFM

El objetivo general del trabajo de grado fue realizar un análisis de la reforestación como instrumento de captura de carbono y reducción de la amenaza por avenida torrencial en la microcuenca La Guayabal en el municipio de Cocorná, departamento de Antioquia, Colombia.

Adicionalmente, se buscaba realizar un análisis de la reforestación como instrumento de reducción de la amenaza en una cuenca que presenta amenaza por avenida torrencial y articuladamente desarrollar un análisis descriptivo de la reforestación como instrumento de captura de carbono en una cuenca que presenta amenaza por avenida torrencial.

1. Contexto

De los 32 departamentos que tiene Colombia, 7 de ellos concentran el 59% de las áreas más susceptibles a avenidas torrenciales, es decir, Chocó, Cundinamarca, Antioquia, Boyacá, Tolima, Santander y Caquetá. Adicionalmente, de acuerdo con el Departamento Nacional de Planeación -DNP, 12,4 millones de hectáreas en el país pueden presentar avenidas torrenciales altas, es decir el 10.8% de la superficie del país (DNP, 2018).

Mapa de avenidas torrenciales (1)

Ilustración 1: mapa de avenidas torrenciales. Fuente: (DNP, 2018)

Por otra parte, de acuerdo con el Instituto de Hidrología, Meteorología y Estudios Ambientales -IDEAM, en los últimos 30 años, Colombia ha perdido más de 6 millones de hectáreas, es decir el 11% de sus bosques naturales (Ministerio de Ambiente y Desarrollo Sostenible & IDEAM, 2019). En el año 2016, el país perdió 178.597 hectáreas, 44% más de lo reportado en el año 2015 (124.035 hectáreas), lo cual comparándose con años anteriores, 64.442 hectáreas en 1990 y 59.021 en el año 2010, se evidencia el aumento progresivo de la deforestación en el país (IDEAM, 2014).

Densidad de deforestación (1)

Ilustración 2: Densidad de deforestación y áreas con bosques naturales. Fuente: (Ministerio de Ambiente y Desarrollo Sostenible & IDEAM, 2019)

Por último, el Inventario Nacional de Gases de Efecto Invernadero realizado por el IDEAM, se tiene que las emisiones de GEI debidas a la deforestación en el año 2010, corresponden al 36% de las emisiones totales del país. Igualmente, las principales emisiones se han generado por la deforestación del bosque natural que se convierte en pastizales (40%), otras tierras forestales (25%) y en cultivos (11%). (IDEAM P. M., 2016).

Por otro lado, la reforestación en Colombia, tiene un enorme potencial debido a las condiciones climáticas que favorecen el rápido desarrollo de las plantaciones, la vocación forestal del suelo (54% del territorio) las excelentes condiciones del clima, la geografía y las políticas, planes y estrategias que se han lanzado en el país (Ministerio de Ambiente y Desarrollo Sostenible & IDEAM, 2019).

Los sistemas de bosques, las plantaciones forestales y los sistemas agroforestales, mitigan el cambio climático, dado que fijan carbono en su biomasa, necromasa y los suelos, constituyéndose en alternativas de sumideros de carbono atmosférico. De esta forma, los servicios ecosistémicos que prestan los bosques y sistemas forestales y agroforestales, dependiendo de la composición de las especies, la precipitación, la temperatura, las características del suelo, indican que en plantaciones forestales de 6 a 30 años, almacenan entre 0,03 y 0,11 Pg C año-1, lo cual puede estabilizar las emisiones de CO2 producto de la deforestación y cambios en el uso del suelo (Patiño Forero, 2018).

La implementación de proyectos de Mecanismos de Desarrollo Limpio (MDL) enfocados a plantaciones forestales, conservación de bosques y restauración ecológica, se constituyen en este sentido, en una alternativa viable para aprovechar el potencial que tiene el país, mitigar la emisión de GEI y disminuir la amenaza por avenidas torrenciales en las cuencas objeto de intervención (Chavarro M, 2008, como se citó en (Patiño Forero, 2018)).

2. Presentación del estudio de caso

Para el análisis de la reforestación como instrumento de captura de carbono y reducción de la amenaza en una cuenca con amenaza por avenida torrencial, se toma un estudio de caso, el cual fue elegido de acuerdo con la información disponible. El estudio de caso es el municipio de Cocorná en el departamento de Antioquia, en la microcuenca de la quebrada Guayabal, tributaria del río Cocorná. Esta quebrada reviste de importancia, dado que es un atractivo turístico y cultural, abastece el acueducto urbano, y tiene un Plan de Ordenamiento y Manejo de Microcuenca.

La microcuenca La Guayabal tiene una extensión aproximada de 1.371,53 Hectáreas (13,71 Km2), su cauce principal es la quebrada La Guayabal que tiene una longitud de 10,73 km y que abastece el acueducto del municipio de Cocorná. De acuerdo al documento diagnóstico del Esquema de Ordenamiento Territorial, la microcuenca de La Guayabal, tiene una aptitud de uso del suelo en toda su extensión para el uso forestal, en las categorías de bosque natural productor/protector, conservación, protección y/o manejo especial y plantación productora-protectora; sin embargo, el uso actual predominante es el forestal, con un 40,8%, seguido por el pecuario con un 29,9%, que es el que genera el mayor conflicto de uso por estar localizado en zonas de rondas hídricas, las cuales deben tener una función de protección, finalmente, el uso agrícola también es representativo en la microcuenca (MASORA, 2015).

Frente a las amenazas de origen socionatural, se tiene que la microcuenca presenta fenómenos de remoción en masa en la parte media y baja de la cuenca, asociados a los conflictos de uso por la actividad pecuaria y agrícola y las características geomorfológicas y de pendiente; y amenaza por avenidas torrenciales. La microcuenca tiene una alta pluviosidad, se estima en 4.311 mm al año, con una distribución bimodal, el cual es uno de los factores detonantes de las avenidas torrenciales, así como los procesos de remoción en masa (MASORA, 2015).

3. Proceso y resultados obtenidos

Para definir el factor de protección que tienen los usos actuales de la microcuenca La Guayabal que permita tener unos criterios clarificadores del comportamiento de la cuenca frente a eventos torrenciales, para a partir de ellos establecer la ordenación requerida, es decir, la restauración hidrológica y forestal, se tiene una metodología, fundamentada en un modelo paramétrico definido a partir de dos modelos: Universal Soil Loss Equation -USLE y el Modified Universal Soil Loss Equation -MUSLE, que da como resultado un índice de protección del suelo por la vegetación (Mintegui Aguirre & Robredo Sánchez, 2008).  Este índice, se desarrolla a partir de unos indicadores que representan la erosión fluvial, la vulnerabilidad del suelo a la erosión, la topografía del terreno, la cubierta vegetal, las prácticas de manejo y conservación de suelos, el volumen de escorrentía y el caudal punta generado en la cuenca (Mintegui Aguirre & Robredo Sánchez, 2008).

Los índices de protección que van desde 1,0 (máxima protección) a 0,0 (protección nula) y se corresponden para cada tipo de suelo diferenciado dentro de la cuenca. Para el caso de las pendientes que tiene la microcuenca, se tiene que el 3,15% del área de la microcuenca tiene una pendiente baja con el rango entre el 0-18%, media baja con el 9,21% del área, es decir con un rango entre el 19 y 35%, media con el 33,25% del área con un rango entre el 36 y 67%, alta con el 29,03% de la cuenca con un rango entre el 68 y 100% y muy alta con el 25,35% con un rango mayor al 100% de pendiente (CORNARE, 2008). Lo que quiere decir, que para la mayor parte del área de la microcuenca, las pendientes, condicionan los índices de protección por la vegetación, por lo que su uso debe ser revisado e intervenido, con el fin de intervenir las condiciones de amenaza de la microcuenca por avenidas torrenciales.

Índices de protección del suelo por la vegetación en la microcuenca La Guayabal. 

Tabla 1: Índices de protección del suelo por la vegetación en la microcuenca La Guayabal. Fuente: Elaboración propia a partir de (Mintegui Aguirre & Robredo Sánchez, 2008)

A partir de la metodología propuesta por Mintegui Aguirre y Robredo Sánchez, y la información disponible para la microcuenca, se clasificó tal como se desarrolla en la Tabla anterior, el índice de protección que tiene la cobertura actual del uso del suelo en la microcuenca, de esta forma se tiene que el 51,18% del área de estudio, presenta un índice de protección de 0,3; que corresponde a usos de cultivos densos y uso pecuario, es decir un índice muy bajo, que requiere una intervención en prácticas agrícolas y ambientales que sean más compatibles con la aptitud del uso del suelo y permita mejor la calidad del suelo y la cobertura para poder reducir la amenaza por avenida torrencial.

Concorna antioquia (1)

Foto  2: Cocorná, Antioquia, Colombia. Fuente: Viajar en verano

Los siguientes usos, con un factor de protección de 0,4 y 0,5, son los definidos por el uso urbano, cultivos agrícolas sin prácticas de conservación de suelos, y uso forestal con ecosistemas degradados e intervenidos, los cuales se presentan en áreas de pendiente media (entre 18% y 24%), es decir, la pendiente comprendida entre la iniciación de la erosión y la de arrastre total, y con un área correspondiente al 41,06% de la microcuenca. Estas áreas requieren igualmente una intervención, que permita ampliar la cobertura vegetal y con prácticas de conservación de suelos. Finalmente, se tiene el uso forestal por área de protección declarada y cultivos silvopastoriles: árboles, algunos rastrojos, arbustos, matorrales y espacios naturales con los pastos y forrajes, que corresponden solamente al 7,73% del área de la microcuenca y con un índice de protección de 1,0 y 0,9.

De acuerdo con estos resultados, es evidente, que para poder disminuir la amenaza por avenidas torrenciales en la microcuenca de La Guayabal, es necesario aumentar la reforestación, dado que estas aumentan las escorrentías en la cuenca y la regulación hídrica, no afecta a la erosión del suelo sino por el contrario ayuda a mitigar sus efectos por la interceptación, infiltración y retención de agua, además de evitar mayores pérdidas de suelo, que pueden aportar material en las avenidas torrenciales.

Ahora bien, frente al análisis de la reforestación como instrumento de captura de carbono en la microcuenca la guayabal, se tiene que los proyectos forestales en la mitigación de los gases de efecto invernadero, se pueden agrupar en 3 tipos, los enfocados a la conservación del carbono, es decir el control de las tasas de deforestación, protección de bosques, manejo forestal, entre otros, los proyectos de captura de carbono, a partir de las plantaciones forestales, aumento de la cobertura de bosques, agroforestería e intervención de bosques degradados y los proyectos de sustitución de carbono, enfocados al reemplazo de combustibles fósiles (Russo, 2009).

Para el caso del trabajo que ocupa este trabajo, y de acuerdo con las características que presenta la microcuenca La Guayabal, se tiene que las características agroecológicas (alta precipitación, suelos moderadamente profundos y bien drenados, buena radiación solar, alta luminosidad) propician un rápido desarrollo de los bosques y una acelerada producción de biomasa forestal (CORNARE, 2008), lo que permite que sea factible el desarrollo de proyectos enfocados a la conservación del carbono y a proyectos de captura de carbono.

De acuerdo con lo desarrollado en el numeral 7.1 del presente documento, se concluye que la microcuenca posee aproximadamente un 40% del área en coberturas que protegen el suelo y contribuyen con el mantenimiento y la regulación de los caudales, la captura de carbono, la regulación de la temperatura, la conservación y protección de la biodiversidad, mientras que el 60% restante se encuentra en cultivos y pastos, en su mayoría como soporte de la economía de su población.

Ahora bien, y teniendo en cuenta las características de la microcuenca, es factible el desarrollo de proyectos de Mecanismos de Desarrollo Limpio (MDL), que incluya las plantaciones forestales y los bosques existentes a un bajo costo. En estos proyectos, se pueden incluir acciones enfocadas a los sistemas agroforestales, plantaciones protectoras, plantaciones forestales y proyectos REDD + (Reducción de emisiones por deforestación y degradación) como alternativas de mitigación en áreas de bosques (Chavarro M, 2008, como se citó en (Patiño Forero, 2018)).

De esta forma, se tiene que a 558,48 de la microcuenca La Guayabal (las definidas como áreas para la recuperación ambiental, específicamente en las áreas de alta pendiente, rondas hídricas y partes altas de la microcuenca) son aptas para el desarrollo de proyectos de conservación de carbono, según el análisis realizado en el numeral anterior, y 136,87 Ha (producción agroforestal) podrían destinarse a proyectos de captura de carbono. Es necesario anotar, que este análisis es meramente descriptivo, enfocado al potencial de desarrollo de proyectos MDL, dado que estimar la biomasa total, almacenamiento y fijación de carbono atmosférico en biomasa arriba y abajo del suelo en plantaciones forestales y sistemas agroforestales existentes en la microcuenca, requieren mediciones en campo, que permitan definir el potencial de almacenamiento del carbono, y no es el alcance del presente trabajo. (Patiño Forero, 2018).

De acuerdo con el estudio citado de captura en biomasa en plantaciones forestales y sistemas agroforestales en una localidad del departamento del Tolima en Colombia, se tiene que los sistemas agroforestales y las plantaciones forestales capturan grandes cantidades de carbono atmosférico, con valores que van de 18,6 a 64,4 Mg C por hectárea, lo que demuestra la importancia de estos ecosistemas en la mitigación del cambio climático, adicional a ello, la importancia de estos sistemas de uso del suelo radica en que además de mitigar el cambio climático generan productos u otros servicios que apoyan el bienestar de los productores y sus familias. Aunque no es comparable, con el área de estudio, tomando simplemente como referencia el valor más bajo de 18,6 MG C ha, las 292 hectáreas de la microcuenca La Guayabal que se encuentran en bosque primario y secundario, podrían almacenar 5.431,2 Mg C ha-1 por año (Patiño Forero, 2018).

Conclusiones

De acuerdo con la documentación revisada y analizada, se pude decir como conclusión general que la reforestación intercepta fuertemente la escorrentía superficial, donde la cobertura vegetal (bosques, plantaciones forestales, sistemas agroforestales), juega un papel importante en la retención e infiltración, aportando de esta forma en la disminución de la amenaza por avenidas torrenciales.

En el análisis del estudio de caso, y según la aplicación del índice de protección de una cuenca como factor detonante de una avenida torrencial, se tuvo que el uso actual del suelo de la microcuenca La Guayabal genera unos conflictos de uso del suelo, que hacen que el 51,18% del área de estudio, presenta un índice bajo de protección (0,3), que requiere una intervención en prácticas agrícolas y ambientales que sean más compatibles con la aptitud del uso del suelo y permita mejor la calidad del suelo y la cobertura para poder reducir la amenaza por avenida torrencial.

Frente al análisis de la reforestación como instrumento de captura de carbono, solo se obtuvieron resultados descriptivos, dado que se requieren metodologías robustas y mediciones en campo, para obtener insumos que puedan dar cuenta del potencial de desarrollo de proyectos de reforestación o de MDL a partir de la captura de carbono, por lo tanto, solo se pudo evidenciar la importancia de los bosques y sistemas forestales para la mitigación del cambio climático, a partir de la bibliografía consultada.


Reseña del Autor

Fotos Contenidos (1)Reseña del autor: Jorge Andrés Castro Rivera, es Administrador Ambiental de profesión, egresado de la Universidad Tecnológica de Pereira (Colombia) y máster en gestión ambiental urbana, por la Universidad Nacional de Córdoba (Argentina). Recientemente se graduó del Máster de Gestión del Riesgo de Desastres y Gobernanza Climática de Structuralia.

Tiene una experiencia profesional de más de 20 años, especialmente en las áreas de planificación y políticas y gestión pública, gestión del riesgo de desastres y evaluación ambiental de proyectos en diferentes sectores: Así mismo es docente universitario en el área ambiental y gestión del riesgo de desastres.

Testimonio del autor:

1. ¿Qué es lo que más destacarías del máster?

«El máster en gestión del riesgo de desastres y gobernanza climática, tiene varios puntos destacables: sus profesores son personas destacadas en las temáticas que imparten, lo cual se vio reflejado en el contenido. Igualmente, el diseño y contenido de los diferentes módulos abarcan ampliamente la temática de la gestión del riesgo y la gestión del cambio climático, lo que lo hace muy completo, con un nivel de profundidad suficiente para formarse adecuadamente.«

2. ¿En crees que te va ayudar en tu desarrollo profesional?

«Particularmente, mi campo profesional actual es la gestión del riesgo de desastres, por lo que considero que haber cursado el máster me brindó las herramientas necesarias para ahondar en el campo de estudio de los riesgo de desastres y los riesgos climáticos. Considero que me puede ayudar a escalar profesionalmente, en cargos en los que pueda marcar una diferencia en las políticas públicas.«

3. ¿Por qué elegiste Structuralia?

«La modalidad virtual que tiene Structuralia es muy conveniente para profesionales que como yo, no siempre tienen horarios fijos para dedicarse el estudio. Por lo tanto, poder contar con los módulos disponibles en todo momento y lugar, lo hace ideal para avanzar profesionalmente.«


Arquitectura sostenible

]]>
https://blog.structuralia.com/proyecto-tfm-an%c3%a1lisis-de-reforestaci%c3%b3n/feed 0
Proyecto TFM: Línea Ferrocarril Andalucía y Murcia https://blog.structuralia.com/proyecto-tfm-l%c3%adnea-ferrocarril-andaluc%c3%ada-murcia https://blog.structuralia.com/proyecto-tfm-l%c3%adnea-ferrocarril-andaluc%c3%ada-murcia#respond Thu, 03 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-l%c3%adnea-ferrocarril-andaluc%c3%ada-murcia

¿Se puede encontrar el encaje óptimo del BIM en la obra civil? Este interesante Proyecto TFM se adentra en las problemáticas y ejecuciones óptimas de su proyecto.

Descarga la guía gratuita sobre implantación BIM en organizaciones

La demanda del uso y aplicación de la metodología BIM, ya sea en diseño o en obra, es cada vez más creciente, por parte de la Administración y de entidades privadas, y el mundo de la edificación y la arquitectura nos lleva a nosotros, los ingenieros civiles, una clara ventaja

Esta ventaja queda reflejada, por una parte, en la limitada madurez de los softwares de ingeniería civil disponibles en el mercado y, por otra parte, en los conocimientos de la metodología BIM por parte de técnicos y de clientes, quienes, a menudo, no conocen en profundidad las múltiples ventajas de esta nueva forma de trabajar. Por tales motivos, nos encontramos en un estado del arte del BIM en la obra civil en el cual los avances de los softwares y las necesidades o problemas encontrados por los técnicos se retroalimentan, permitiendo a ambos crecer, mejorar y, en definitiva, encontrar el encaje óptimo del BIM en la obra civil.

Si bien los condicionantes de una edificación son particulares, ¿qué margen de maniobra tiene el BIM en una obra de ingeniería civil? Y, particularmente, ¿qué margen de maniobra tiene en una obra lineal? Nos movemos en un espacio mucho más grande (o largo), con elementos lineales que pueden tener kilómetros de distancia y que, por tanto, cualquier modificación en dicho elemento repercute en otros múltiples elementos, no solamente de manera lineal sino también bidimensional y tridimensionalmente y que, a su vez, tienen un alto impacto paisajístico, ambiental, social y económico.

El Máster BIM avanzado en diseño y ejecución de obras lineales de Structuralia trata de abordar estas problemáticas. Tras cursar este Máster, nuestro ex alumno Jordi Moliner se ha aventurado a abordar dichas problemáticas él mismo en un proyecto de obra lineal con su Trabajo Final de Máster, el cual sintetiza en este increíble artículo.

TFM, Línea Ferrocarril Andalucía – Murcia, del PK 0+000 AL 1+049,452, en Guadix, Provincia de Granada

El objetivo del TFM es demostrar y poner en práctica una visión y enfoque global de los problemas reales que se encuentran a la hora de enfrentarse a un proyecto de Ingeniería Civil (concretamente, de una obra lineal), utilizando la metodología BIM.

Los puntos a desarrollar en el TFM son los siguientes:

  1. Elaboración de un BEP
  2. Definición de las fases del proyecto
  3. Diseño y planificación del proyecto de obra lineal
  4. Presentación realista del proyecto

Ámbito del Proyecto

Para el presente TFM, y de acuerdo con las directrices e información base proporcionadas por Structuralia, se ha abordado el Proyecto constructivo de línea de ferrocarril Andalucía – Murcia, del PK 0+000 al 1+049,452, en Guadix, provincia de Granada, España.

Si bien el proyecto constructivo gira en torno a esta línea de ferrocarril, en el ámbito de proyecto existe una zona urbana y un libramiento carretero. Estos dos elementos no se han desarrollado a nivel de proyecto constructivo, pero sí se han considerado a la hora de integrar la línea de ferrocarril en el entorno dentro delmodelo Infraworks,lo cual ha ayudado a tomar mejores decisiones a lo largo del proyecto.

Figura 1. Ámbito de proyecto de la nueva urbanización. Se observa la A-92 en su paso por Guadix, visto en ortofoto en planta.

Figura 1. Ámbito de proyecto de la nueva urbanización. Se observa la A-92 en su paso por Guadix, visto en ortofoto en planta.

Figura 2. Ámbito de proyecto de la nueva urbanización. En primer plano, la línea de ferrocarril proyectada y al fondo, el libramiento carretero, todo modelado en Infraworks.

Figura 2. Ámbito de proyecto de la nueva urbanización. En primer plano, la línea de ferrocarril proyectada y al fondo, el libramiento carretero, todo modelado en Infraworks.

Elaboración del BIM Execution Plan

En el Plan de Ejecución BIM (BIM Execution Plan, BEP) se detalla la estrategia de utilización de BIM para el proyecto, así como las capacidades y competencias del equipo redactor del proyecto para cumplir con los requisitos de información del cliente. 

En los puntos siguientes expongo los puntos más relevantes del BEP.

Objetivos y usos BIM

De acuerdo con las directrices del cliente, el objetivo general de la utilización de BIM es prevenir que existan cambios críticos tanto en el tiempo asignado para cada actividad como en el presupuesto por el cuál ha sido contratado el servicio.

Los objetivos específicos marcados durante la ejecución del proyecto son:

1. Visualizar la solución para facilitar la interpretación y comunicación del proyecto.

      1. Generar planos más coherentes.
      2. Analizar los puntos críticos e incidencias del proyecto.
      3. Identificar y ubicar elementos o materiales dentro del edificio o infraestructura para tomar decisiones.

      2. Facilitar la trazabilidad del avance del proyecto.

      1. Seguimiento del desarrollo del proyecto.
      2. Evaluar la correcta definición de la propuesta.

3. Facilitar la gestión de la infraestructura acabada.

      1. Identificar y ubicar los elementos o materiales dentro del edificio o infraestructura.

Responsable de cada objetivo y uso BIM

Los objetivos y usos BIM, así como los entregables BIM necesarios, quedan asignados a uno o múltiples técnicos del equipo redactor, quiénes se encargan de asegurar su calidad y utilidad a lo largo de la redacción de proyecto. Para este TFM, mi rol sería de BIM mánager, además de coordinador de proyecto, pero contaría con el apoyo de especialistas de cada rama de ingeniería y modeladores.

En algunos objetivos y usos BIM también se requiere la participación y supervisión de técnicos del cliente.

Entregables BIM

Se entiende por Entregables BIM todos los documentos e información necesaria para la obtención de modelos BIM, así como todos los productos resultantes del uso de herramientas y flujos de trabajo BIM.

Estrategia de colaboración y entorno de datos compartidos (CDE)

El CDE está compuesto por la plataforma BIM 360, ya que los softwares con los que se va a trabajar son de Autodesk.

Estructuración de los modelos BIM

El conjunto de la información digital del proyecto estará segregado en varios modelos BIM, con una codificación específica, como, por ejemplo:

Los modelos de Disciplina se generarán sobre la plataforma Civil 3D y AUTODESK REVIT 2022.

Estos modelos contendrán toda la información necesaria referente a los elementos modelados, su detalle geométrico y la información contenida en ellos, para hacerlos compatibles con los usos definidos en este BEP. 

Los Modelos de cada Disciplina se integrarán y constituirán el modelo federado de coordinación, que se denominará Modelo Federado. El equipo de proyecto proporcionará cada modelo de Disciplina validado con el fin de efectuar la federación de modelos de acuerdo con el PEB. El responsable BIM será responsable de la generación y mantenimiento del Modelo Federado.

El Modelo Federado se compondrá de los diferentes modelos de Disciplina en formato IFC y estos archivos se federarán sobre la plataforma NAVISWORKS MANAGE 2022 y se podrán visualizar sobre la plataforma NAVISWORKS FREEDOM 2016 o superior. Además, los mismos archivos IFC, estarán disponibles individualmente, con el fin de que cualquier agente pueda realizar la federación de los archivos que componen el modelo federado, en cualquier plataforma o visor IFC.

Coordenadas de referencia

Con el objetivo de que la disposición de los elementos sea compatible entre los distintos modelos a la hora de formar el Modelo Federado, todos los modelos deberán disponer de coordenadas idénticas en su espacio BIM.

Se deben definir dos coordenadas UTM en el sistema ETRS89 correspondientes a los ejes X, Y y Z, y que servirán de nexo común entre los modelos, con bases georeferenciadas obtenidas del levantamiento topográfico previsto. 

Contenido paramétrico del modelo

Los niveles de información (LOI) están divididos en 4 grupos:

  • LOI 1: Entregable de los proyectos Básicos.

  • LOI 2: Entregable de proyectos ejecutivos.
  • LOI 3: Entregable a Final de obra (As built).
  • LOI 4: Entregable por el modelo de Operación y Mantenimiento.

En este proyecto se utilizará LOI 2.

Plan de aseguramiento de la calidad de la información (PACI)

Para garantizar la calidad de la información introducida en el modelo y obtener unos entregables finales con información fiable, se realizarán las acciones de control internas de los modelos, realizadas principalmente por el BIM Manager y modeladores.

Definición de las fases del proyecto

Una vez elaborado el BEP, conviene definir las fases de redacción del proyecto, que son las siguientes:

  1. Diseño conceptual.
  2. Diseño de detalle.
  3. Property Sets y generación de sólidos.
  4. Exportación del modelo.

Estas fases se abordan a lo largo del Diseño del proyecto de obra lineal, detallado a continuación.

Diseño del proyecto de obra lineal

Diseño conceptual

La zona de proyecto viene dada por el enunciado del propio TFM, como podría venir dada por el cliente del proyecto u obra en cuestión.

El corredor escogido tiene un impacto ambiental y urbanístico bajo, con pocos o ningún servicio afectado y evadiendo cualquier cruce con otras infraestructuras viales o cauces que pudieran necesitar grandes viaductos. Tampoco se interfiere con el desarrollo urbanístico actual del núcleo urbano. La variante carretera queda en el otro lado del núcleo urbano, paralela al ferrocarril.

Figura 3 proyecto tfm

Figura 3. Ubicación del corredor ferroviario. Infraworks ayuda a analizar el espacio disponible, así como el impacto con otras infraestructuras y zonas urbanos. También la interferencia con servicios urbanos y cauces hidrológicos.

Diseño del detalle

Se ha utilizado la topografía proporcionada por Structuralia, con un nivel de detalle suficiente para desarrollar el proyecto de detalle. A partir de esta topografía, se ha obtenido una superficie conCivil 3Dsobre la cual se diseñará el trazado ferroviario.

Figura 4. Superficie TIN “EG” (Existing Ground) creada a partir de la topografía proporcionada.

Figura 4. Superficie TIN “EG” (Existing Ground) creada a partir de la topografía proporcionada.

    • Normativa: Se ha seguido la normativa vigente de ADIF, teniendo en cuenta valores máximos en situaciones normales y excepcionales.
    • Velocidad del diseño: De acuerdo con las directrices del cliente, la velocidad de proyecto es de 120 km/h. La velocidad mínima para comprobar la insuficiencia de peralte se limita a 80 km/h.

Estas velocidades permitirían, si se cumplen ciertos requerimientos de trazado en función de parámetros como la orografía, grado de urbanización y otros condicionantes, la circulación de trenes tanto de pasajeros como de mercancías.

      1. Planeamiento de desarrollo urbanístico e industrial de la zona, proporcionado por Structuralia.
      2. Presencia de edificaciones o industrias.
      3. Presencia de infraestructuras viarias y ferroviarias en la zona.
      4. Presencia de zonas ambientales protegidas.
      5. Presencia de dominio público hidráulico.

El trazado en planta se compone de alineaciones recta, clotoide (L=160 m) y curva (R = 800 m).  

El peralte se ha limitado a 140 mm en la curva de 800 metros de radio, para los cuales las clotoides de 160 metros de longitud permiten la correcta transición de peralte.

Figura 5. Planta del trazado ferroviario.

Figura 5. Planta del trazado ferroviario.

    • Trazado en alzado: Se limita la pendiente longitudinal al 1,5% (es decir, 15 milésimas), con el objetivo de que puedan circular trenes de pasajeros y de mercancías.

Se podría haber subido a 25 milésimas para reducir el movimiento de tierras, ya que el terreno es accidentado, pero se ha preferido mantenerlo a 15 milésimas para habilitar la operación de ambos trenes.

Figura 6. Alzado del trazado ferroviario, con pendiente constante de 15 milésimas. En rojo, el trazado en alzado y en azul, el terreno natural.

Figura 6. Alzado del trazado ferroviario, con pendiente constante de 15 milésimas. En rojo, el trazado en alzado y en azul, el terreno natural.

    • Otros condicionantes: La altura máxima de desmonte es de 9 metros, mientras que la altura máxima de terraplén es de 11 metros. Son alturas considerables pero que están presentes en otras obras ferroviarias del país ya ejecutadas.

No se han previsto apartaderos ni estaciones, por lo que no se ha analizado la necesidad de verificar ningún aspecto de trazado relacionado con aparatos de vías, desvíos, cambios, piquetes, etc. El diseño de la estación de este núcleo urbano podría ser una línea de trabajo futura a desarrollar en otro TFM relacionado con la metodología BIM, pero que queda fuera del alcance del presente TFM.

Debido a que no hay intersección con otras obras lineales o zonas urbanizadas, y debido a la inexistencia de túneles, no se ha contemplado ninguna normativa ni especificación para gálibos.

    • Sección tipo: Se ha diseñado una sección tipo clásica de ferrocarril, a partir de la herramienta SubAssembly Composer de Civil 3D, incluyendo los elementos ferroviarios más comunes, de acuerdo con las directrices y dimensiones solicitadas por el cliente, tales como:

      • Tren, traviesas y raíles.
      • Balasto, subbalasto y capa de forma.
      • Canalizaciones.
      • Terraplén y desmonte.
      • Cunetas.

Figura 7. Sección transversal con la presencia de elementos de drenaje longitudinal y canalizaciones, obtenida de SubAssembly Composer.

Figura 7. Sección transversal con la presencia de elementos de drenaje longitudinal y canalizaciones, obtenida de SubAssembly Composer.

    • Obra lineal: Una vez recogidos todos los elementos de trazado en planta, alzado y sección, se ha procedido a obtener la obra lineal (corridor).

Figura 8. Aspecto de la obra lineal vista en el Object Viewer de Civil 3D.

Figura 8. Aspecto de la obra lineal vista en el Object Viewer de Civil 3D.

Según indicaciones del cliente, debido a la orografía y a la necesidad de túneles en otros tramos de la línea, esta línea se concibe como la primera línea alimentada mediante baterías eléctricas recargables en origen y destino, por lo que se prescinde de la electrificación de la línea y la catenaria asociada.

  • Señalización y comunicaciones

Se ha previsto la instalación de canaletas y prismas de señalización y comunicaciones en la sección tipo ferroviaria.

No se han detectado servicios urbanos en el ámbito de proyecto, por lo que no hay necesidad de afectar ningún servicio ni diseñar ninguna reposición.

Se han diseñado y programado los códigos necesarios a partir de SubAssembly Composer de Civil 3D para cada uno de los volúmenes, superficies y longitudes de los distintos elementos que componen la sección tipo, para poder obtener de forma automatizada las mediciones de cada uno de esos elementos.

Se han obtenido los planos de planta – perfil y secciones transversales.

Property Sets y generacion de sólidos

A cada uno de los elementos que componen la sección tipo se les ha asignado un conjunto de propiedades o property sets (PSETs). 

Las propiedades mecanizadas (como puede ser el volumen de subbalasto) son las que aportan la información más interesante y que puede ser actualizada de forma sencilla en caso de que la obra sufra modificaciones.

Por desgracia, Civil 3D solo permite obtener volúmenes mecanizados, por lo que, para raíles o canalizaciones, cuyos elementos es interesante conocer la longitud, se debe configurar la obtención de ese dato a partir de fórmulas, que suelen consistir en la división del volumen que Civil 3D obtiene de forma automática entre la sección de raíl o canalización, que debe ser introducida por el usuario.

Una vez generados los sólidos del modelo, se pueden visualizar los PSETs mecanizados.

Figura 9. El volumen es uno de los PSETs asociados al sólido SUBBALASTO, que habilita una medición mecanizada e inteligente que se actualiza con cada cambio del modelo.
Figura 9. El volumen es uno de los PSETs asociados al sólido SUBBALASTO, que habilita una medición mecanizada e inteligente que se actualiza con cada cambio del modelo.

Exportación del modelo

  • Exportación a Navisworks

Se ha exportado toda la información generada por Civil 3D a Navisworks, y se ha generado un plan de obra asociado a cada uno de los elementos importados. Este plan de obra permite asociar cada sólido con una tarea, de manera que se puede ver el avance parcial de la obra y los sólidos en función de las tareas completadas asociadas a dichos sólidos.

Navisworks aglutina información como PSETs, planes de obra, visualizaciones 3D e interferencias. De haber tenido estructuras u otros elementos diseñados en otros softwares, como Revit, hubiera sido posible importarlos a Navisworks para verlos de manera conjunta.

Figura 10. Aspecto del modelo importado a Navisworks con la planificación de obra.

Figura 10. Aspecto del modelo importado a Navisworks con la planificación de obra.

También se ha exportado el modelo a IFC, para que pueda visualizarse con los distintos visores gratuitos disponibles en el mercado. En este caso, el visor elegido esBIMcollab.

Figura 11. Aspecto del modelo en el visor IFC.

Figura 11. Aspecto del modelo en el visor IFC.

Presentación realista del proyecto

Con el objetivo de realizar el vídeo de presentación de la obra lineal, también se ha exportado el modelo a Infraworks, donde también se ha modelado la zona urbanizada y la variante de carretera.

Infraworks es un software de fácil manejo con resultados que son muy potentes a nivel conceptual y estético, lo que permite sacar mucho partido a una idea a nivel comercial y presentaciones a clientes, así como realizar análisis de diseños conceptuales.

Figura 12. Fotograma del vídeo de presentación realizado mediante Infraworks.

Figura 12. Fotograma del vídeo de presentación realizado mediante Infraworks.

Conclusiones

Creo que el Máster capacita al alumno para poder empezar a desarrollar y aplicar la metodología BIM tanto de forma individual como de forma global en sus equipos de trabajo, cambiando la forma de trabajo tradicional por una forma de trabajo a priori más compleja pero que a la larga da unos frutos muy positivos.

El TFM ha sido clave para poder realizar un proyecto de obra lineal en BIM en primera persona, desde cero hasta la entrega definitiva al cliente.

Los softwares BIM actuales del mercado permiten llevar el diseño a un nivel de análisis superior. No obstante, pienso que, si bien el progreso estos últimos años ha sido grande, a todos los agentes BIM (firmas consultoras, constructoras, administraciones, entidades privadas…) y, en especial, a aquellos del mundo de la ingeniería civil y de las obras lineales, nos queda mucho camino por recorrer. 


Reseña del autor

Jordi Moliner Proyecto TFM

Jordi Moliner Martínez es graduado en Ingeniería Civil y Máster en Ingeniería de Caminos, Canales y Puertos por la Universidad Politécnica de Catalunya. Durante su etapa universitaria, realiza programas de movilidad en la École Spéciale des Travaux Publics (París) y en Tongji University (Shanghai). Habla español, catalán, inglés (C1) y francés (B2). Ha cursado recientemente el Máster BIM avanzado en diseño y ejecución de obras lineales en Structuralia y actualmente cursa un Máster en Inteligencia Artificial aplicada a la Ingeniería y Arquitectura.

En 2018 se incorpora a Meta Engineering como Ingeniero de Proyectos de Obra Civil y en 2021 asume el cargo de Director del Área de Proyectos y Estudios de Obra Civil en la División Internacional de la compañía. 

Lidera un equipo de unas 20 personas en la oficina de Meta Engineering en México y, además de dirigir la gestión técnica, económica, comercial y humana del Área, asume la gestión de proyectos complejos en materia de ferrocarriles, carreteras y urbanizaciones en países como México, España, Panamá o Costa Rica.

Testimonio del autor

1. ¿Por qué elegiste Structuralia?

«Principalmente, por los contenidos que ofrece este Máster en particular, que no aborda únicamente los conocimientos para ser BIM Mánager, sino que también profundiza en el uso de cada uno de los softwares de diseño, mostrando las problemáticas reales de cada software y ofreciendo una visión integral de lo que supone trabajar en metodología BIM en obra civil.»

2. ¿Qué es lo que más destacarías del máster?

«El nivel de conocimientos que ofrecen cada uno de los módulos y el gran número de software que pone al alcance del alumno: Civil 3D, Navisworks, Infraworks, Synchro, Presto, Dynamo…«

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«En conocer cómo funciona la metodología BIM en obra lineal, su potencial y sus limitaciones, para poder adoptarla tanto a nivel individual y (pasito a pasito), integrarla en el equipo internacional de obra civil de Meta Engineering.«


Nuevo llamado a la acción

 

]]>
https://blog.structuralia.com/proyecto-tfm-l%c3%adnea-ferrocarril-andaluc%c3%ada-murcia/feed 0
Aplicación de los Fundamentos de Ingeniería, Mercados y Proyectos EPC https://blog.structuralia.com/proyecto-tfm-aplicacion-de-los-fundamentos-de-ingenieria-mercados-y-proyectos-epc https://blog.structuralia.com/proyecto-tfm-aplicacion-de-los-fundamentos-de-ingenieria-mercados-y-proyectos-epc#respond Wed, 02 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/?p=8413 Aplicación de los Fundamentos de Ingeniería, Mercados y Proyectos EPC

Francis Gallardo, en su Trabajo Final de Máster (TFM) del Máster en Ingeniería, Mercados y Contratos EPC de las Industrias de Petróleo, Gas Natural y Petroquímica, aplica los conocimientos adquiridos para analizar el funcionamiento de una International Oil Company (IOC). A través de este estudio, explora la ingeniería de proyectos EPC, la dinámica del mercado energético y su papel en la transición hacia un modelo más sostenible. A continuación, presentamos los aspectos clave de su investigación.

En el Máster en Ingeniería, Mercados y Contratos EPC de las Industrias de Petróleo, Gas Natural y Petroquímica, se estudian las características y el funcionamiento de los sectores de Petróleo, Gas y Petroquímico, así como, los procesos para la producción de biocombustibles, combustibles renovables o más sostenibles, el aprovechamiento del gas natural (tanto de yacimiento, así como, el gas natural sintético) como base para la generación de energía eléctrica y su papel en la cadena de producción de hidrogeno y la combinación de todos estos procesos con tecnologías de captura de emisiones (CCSU: Carbon capture, storage and use). De estos sectores se analizan tanto las bases técnicas y de ingeniería, así como los ejercicios que definen la dinámica de su mercado global.

Esto, bajo la perspectiva del papel del sector energético en la transición hacia una calidad de vida sostenible, según las bases planteadas en el Acuerdo de Paris 2030.

De igual manera, se profundiza en la gestión de proyectos, ilustrando la dirección y gerencia organizativa y administrativa que se ejecuta en el desarrollo de los grandes proyectos de ingeniería, aprovisionamiento y construcción.

En base a estos tópicos se construyó este trabajo final de máster (TFM) titulado Fundamentos de Ingeniería, Mercados y Contratos EPC de las Industrias de Petróleo, Gas Natural y Petroquímica, aplicado al caso de estudio de una International Oil Company (IOC), cuyo objetivo general es aplicar las destrezas adquiridas en los tópicos anteriormente descritos, a través del análisis de diferentes
casos y escenarios presentes en los sectores en los que opera una compañía internacional de petróleo o una IOC (International Oil Company).

Con el objetivo de ilustrar el proceso de estudio llevado a cabo y la información obtenida, mostraremos algunos fragmentos de los casos estudiados y sus análisis.

Complejidad de la Refinería y Margen de Refinación

El índice de complejidad de la refinería indica el alcance, la capacidad y la intensidad de capital de los procesos posteriores a la unidad de destilación atmosférica. Nos permite, clasificar a las refinerías en un rango de categoría desde simples a muy complejas, y una de las aplicaciones prácticas es que nos da una idea del tipo de crudos que puede procesar la refinería y de la capacidad de
aprovechamiento de este. Mientras más 3compleja puede procesar crudos más pesados y transformarlos en productos más valiosos.

Se requiere conocer el índice de complejidad dos refinerías que la IOC tiene en propiedad

Para ello, a partir de una serie de datos conocidos, fue necesario realizar una serie de cálculos basados en las siguientes ecuaciones:

Lo que nos permitió llegar al resultado mostrado en la siguiente tabla:

Donde:

  • Factor de complejidad de unidad (CFU).
  • Capacidad unidad de proceso (Ci).
  • Capacidad unitaria relativa a la capacidad de destilación atmosférica (Q ADU %).
  • Índice de complejidad de unidad (CI).
  • Índice de complejidad de la refinería (CIR).

Según los datos tabulados, el valor del índice de complejidad para cada refinería se encuentra entre el rango 5<CIR<14), el cual es el establecido para la categoría de refinerías complejas. Sin embargo, también se puede observar que el mayor índice de la Refinería 2 denota mayor complejidad en su configuración, casi alcanzando la clasificación de “muy compleja” (CIR>14).

Crack Spread y Rentabilidad de una refinería

El Crack Spread es una medida simple que permite estimar el margen de refino en un momento y unas circunstancias dadas del mercado. Se basa en la diferencia de precios del mercado de uno o dos productos de la pizarra de producción y el precio de un barril de crudo. Existen diferentes combinaciones para el crack spread que pueden ser creadas en función de la configuración que se desee reflejar. Uno de ellos es el 1:1 el cual mide la diferencia entre el precio de un barril de crudo y el precio de un barril de gasolina, es común en refinerías que maximizan la producción de gasolina. El crack spread 3:2:1 el cual contrasta los precios de crudo, gasolina y diésel. Este último fue el aplicado al caso de estudio.

Fórmula para el cálculo:

Conociendo los datos de mercado (Precios de Crudo y Productos), se plantea para la Refinería 1 del apartado anterior, determinar el margen teórico de refinación “Crack Spread” de configuración 3- 2-1 y analizar su rentabilidad.

De acuerdo con la Tabla anterior, en esas condiciones dadas de mercado, el Crack Spread para la Refinería 1 resulta en un valor de 14.32 $/bbl. Podemos comentar lo siguiente:

  • Es un valor positivo lo cual indica que esta combinación de precios de materia prima y productos (Oferta, Demanda) en este momento dado del mercado es un escenario favorable o rentable.
  • Si se está evaluando como posible cobertura contra el riesgo en el mercado de futuro. Entonces es un escenario favorable.

Rentabilidad de la Refinería

El crack spread excluye los costos de refinado distinto a los costos del crudo y además los precios y rendimientos de toda la cesta de productos. Por lo que su valor positivo no es determinante de la rentabilidad de una refinería.

Para analizar la rentabilidad de la operación una Refinería se debe conocer:

  • Margen Bruto de Refinación (Gross Refining Margin) en función del precio y rendimiento de la cesta de productos.
  • Margen Variable en el que descontamos los costos variables de los procesos (Energía, químicos y catalizadores requeridos).
  • Margen Operativo en el que se deducen los costos fijos (mano de obra, mantenimiento, gastos generales, seguros e impuestos).
  • El costo asociado tanto a la compra como al transporte del crudo (Freight Cost), si aplica.

Teniendo en cuenta estos factores, se puede calcular el Margen de Refinación real acorde a la configuración y utilización de la refinería y se puede también evaluar el Return on Investment (ROI) de una operación con determinado crudo.

Como ejercicio práctico, si asumimos por el tipo de Crack Spread solicitado (3-2-1), el cual es muy común de la configuración de Refinación en los Estados Unidos, que se trata de una refinería en US GC (Golf Coast), podremos consultar algunas fuentes de información.

Por ejemplo, en EIA Methodology Notes Oil Industry and Markets Division Agosto 2024 se ha publicado la tabla de Márgenes de refinación de varias regiones, incluyendo la Costa del Golfo en Estados Unidos. Este, considera la configuración de la refinería, los rendimientos en productos (yields), costos de energía, costos de emisiones si aplica, así como tipo de crudo, costo y transporte.
Siendo así, obtenemos un valor más cercano al real para el Margen de la Refinería 1. Como se observa en la imagen, es un valor menor al calculado mediante el Crack Spread, 11.08 vs 14.32 $/bbl, lo cual es lógico ya que el mismo refleja todos los factores de costos y operativos necesarios para determinar el margen real de una refinería.

Por tanto, teniendo en cuenta el valor real de 11.08 $/bbl se puede decir que la operación de la refinería es rentable.

Evaluación de Costos de Plantas de regasificación de LGN: Onshore y FSRU (Floating, Storage and Regasification Unit)

Conociendo los gastos de inversión estimados en la construcción de una Terminal de Regasificación Onshore de 3 mtpa con 180.000 m3 de almacenamiento, frente a una FSRU de similar capacidad, ambas en propiedad de la IOC, definir cuál de las dos instalaciones es la más económica.

Para lograr conocer cuál de las dos instalaciones es la más conveniente en función de la economía de proyecto de inversión, a partir de los costos estimados y de la aplicación de una serie de fórmulas de cálculo, se pueden obtener los gastos en capital (CAPEX) y los gastos operativos (OPEX) de cada proyecto lo que nos permite contrastar cada escenario. Esta comparación la podemos visualizar de manera grafica en la siguiente figura.


Para este caso, la instalación más económica en todos los aspectos considerados ha resultado ser la FSRU. Con un costo total de CAPEX+OPEX de 405 m$ vs 689 m$ de la instalación Onshore. Esto tiende a ser así, debido a que las unidades FSRU permiten mayor flexibilidad en cuanto a reubicación, arrendamientos, impuestos, servicios, permisos.

En cuanto al tiempo de construcción, asumiendo que se trata de la construcción de un nuevo barco y no de la conversión de un antiguo metanero a FSRU el tiempo de construcción a pesar de ser más largo que en el caso de una conversión, sigue siendo más corto que la construcción de una instalación en tierra. Esta última podría tomar entre 36 y 40 meses mientras que la de la FSRU estará entre 27 y 36 meses, lo cual es una ventaja frente a la instalación convencional en tierra.

Mercado y Precios del Gas Natural

Henry Hub Natural Gas Spot Price

En este apartado se hizo el estudio del comportamiento de los precios de mercado del gas natural considerando un periodo de 6 años, desde el 2018 hasta el 2024. Se identificaron cuales fueron los valores mínimo y máximo de cotización de mercado del Henry Hub Natural Gas Spot Price (Dollars per Million Btu, (monthly), cuándo se produjeron y cuáles fueron las circunstancias coyunturales que los propiciaron. Por tanto, se desarrolló un análisis detallado, sin embargo, en este articulo solo citaremos algunos de los escenarios más conocidos durante tal periodo y el comportamiento observado para el periodo 2023-2024.


Junio 2020: El 11-03-19 la OMS decreta oficialmente la Pandemia del Covid-19. La disminución de las actividades en los distintos sectores económicos y de manufactura como parte de los esfuerzos para mitigar la crecida de contagios del virus conllevó a una disminución del consumo energético y por tanto de las fuentes de energía.

Por otra parte, la estación de invierno 2019-2020, conocida en el sector energético como The heating season ya que es la época en que se necesita combustible para calentar los hogares y áreas comerciales, siendo menos severa, con temperaturas más templadas, conllevó a menos necesidad de combustible y por tanto a que los niveles de inventario de gas natural en US y Europa más alto que la misma temporada el año anterior.

Mayo 2022: La invasión de Rusia a Ucrania se inició en febrero de 2022. Ya comienza entonces en este periodo a reflejarse la influencia en los precios que la geopolítica relacionada a tal situación conlleva. Rusia y Ucrania son países claves en el suministro de GN principalmente a Europa. Rusia por sus reservas, y Ucrania por su red de transporte y almacenamiento y también sus reservas offshore en el Mar Negro. En el 2021 Rusia fue el primer país exportador de GN principalmente para Europa y también para Asia . Este conflicto representa disminución en el suministro, por tanto, Europa y Asia buscan y compiten por cargos de LGN desde otras zonas.

Las condiciones climáticas más severas durante el invierno 2021-2022 se tradujo en que en US el consumo de GN aumentase.

Agosto 2022: Continua el escenario descrito en el apartado anterior. Los factores que contribuyen a la volatilidad en los primeros meses de este año incluyen:

  • El clima y mayor consumo por temperaturas más frías durante el invierno.
  • Disminución en la producción de gas natural desde finales de 2021 debido a las bajas temperaturas.
  • Récord de las exportaciones de GNL desde US a Europa para compensar la reducción de suministro desde Rusia. Este país es el principal proveedor de GN a la Unión Europea y el Reino Unido mediante los siguientes sistemas (capacidad conjunta 16 Bcf/d):
    • Offshore (underwater Baltic Sea) gasoducto Nord Stream 1 hacia Alemania.
    • Vía Bielorrusia hacia Polonia.
    • Vía Ucrania hacia Eslovaquia.

Adicionalmente, US este año ha visto incremento de sus exportaciones de GN hacia México. El GN desde US hasta México, fluye a través desde las áreas de producción de Permian, a través de los sistemas:

  • Chihuahua-Bahio (Samalayuca-Sasabe gasoducto).
  • The Wahalajara system (Waha Hub en Texas hasta Guadalajara).

Período 2023-2024: Podemos ver en el gráfico la diferencia de precios con respecto a los años anteriores, y vemos que, ha alcanzado su punto más bajo en Marzo 2024. Durante estos dos últimos años, luego de la de la volatilidad que azotó los precios en los años anteriores, la tendencia ha sido menor volatilidad y menores precios. Tal es el escenario que, la volatilidad pudo ser amortiguada inclusive, ante eventos como los ataques ocurridos a buques este año en el Mar Rojo. Esto se debe principalmente a tres factores: menor consumo, mayor producción, mayores niveles de inventarios.

Inviernos con temperaturas más altas tanto en 2023 como en 2024 e incremento de la producción de GN y de Líquidos del Gas natural redujeron la extracción de inventarios en US.

En Europa por su parte, desde 2022, luego de estar expuestos a la inestabilidad generada por la disminución del suministro desde Rusia, los gobiernos de esta región decidieron establecer como medida mandataria y que se encuentra en vigencia hasta marzo del 2025, la reducción del consumo de GN en al menos 15%. Esta medida, en adición a, inviernos con mayores temperaturas tanto en
2023 como en 2024 ha permitido a la región alcanzar niveles de récords de inventarios.

Adicionalmente, se han instalado nuevas facilidades para la recepción de LGN en Alemania, lo que permite continuar con importación de cargos de LGN principalmente desde US. Aligerando la dependencia del GN por diferentes gasoductos provenientes de Rusia. Además, se han colocado en servicio nuevas FSRU para expandir la capacidad de regasificación en varios terminales.

Ahora bien, de camino hacia el mix energético sostenible, el Gas Natural es un puente de transición en el paso de combustibles fósiles a energías renovables, debido a, su potencial para la generación de energía eléctrica con menos emisiones y también por su potencial para la producción de hidrógeno y de productos petroquímicos. Por lo anterior, los proyectos de GN y GNL continuarán en
aumento con la finalidad de cubrir el consumo de los futuros años. Según el International Energy Outlook 2023 de EIA, debido a factores como el crecimiento económico en regiones como la India y China, se espera un aumento de su consumo para generar energía eléctrica. En la figura siguiente se puede apreciar los pronósticos, hasta el año 2050, de producción y consumo del GN, y se visualiza la brecha entre ambos, para Europa, Eurasia y Asia Pacífico. Es decir, el mercado por cubrir.

Industria Petroquímica

Se proyecta una demanda creciente para los compuestos y derivados petroquímicos debido a su aplicación en la obtención y fabricación de un gran número de compuestos, materiales y herramientas de importante utilidad en los diferentes sectores de la vida diaria. El diseño e ingeniería de los proyectos de construcción de nuevas plantas petroquímicas o de la integración de procesos petroquímicos a las actuales plantas de refinación, requiere la selección de los productos a elaborar y de las tecnologías para su obtención. Existe la opción de desarrollar una tecnología propia, para lo cual se requiere el trabajo previo de un equipo de investigación y desarrollo, lo que significa contemplar un periodo de tiempo adicional, o se tiene la opción de seleccionar del grupo
de procesos comerciales o patentes ofrecidas por los distintos licenciantes en la industria.

En este caso, se requiere seleccionar un derivado intermedio o final petroquímico y el proceso comercial (patente) para su obtención.

Óxido de Propileno

El Óxido de Propileno (Propylene Oxide, PO) es un líquido incoloro con muy bajo punto de ebullición, de alta volatilidad, alta reactividad debido a su polaridad y a las características de su anillo epoxi que se abre fácilmente en combinación con otras sustancias. Con olor característico, similar al éter.

Es un compuesto derivado de la cadena petroquímica del Propileno. Ocupa el segundo lugar en cuanto a usos del Propileno luego de la Producción de Polipropileno (PP) y copolímeros. Es punto de partida para la obtención de los siguientes productos:

  • Poliuretanos y solventes industriales: a partir de la síntesis de poliol poli éter. Las espumas de poliuretanos son fundamentales para el aislamiento térmico (y actualmente muy aplicado en construcción de edificaciones por su ligereza), solventes y adhesivos para la construcción y manufactura, piezas automotrices, recubrimientos, suelas para zapatos y gomas deportivos.
  • Glicoles Propilenicos o Propilenglicol: En distintos grados para las diferentes aplicaciones. Entre ellas, anticongelantes, excipiente y solvente en las industrias farmacéutica, cosméticas y alimentaria.

Mas de 10 MMton de PO se producen anualmente a nivel mundial.

Existen dos principales vías para la producción de Oxido de Propileno a partir de Propileno: la hidro halogenación del Propileno con cloruro de hidrógeno y la otra es mediante la oxidación. Dentro de la vía de oxidación, se han desarrollado varias patentes basadas en la epoxidación del Propileno con Peróxido de Hidrogeno (HP), por tanto, llamadas procesos HPPO (Hydrogen Peroxyde to propylene Oxide).

Acá, se decidió proponer como vía de producción la tecnología Evonik-Uhde. Tecnología HPPO (Hydrogen Peroxide to Propylene
Oxide) Evonik-Uhde para la producción de Óxido de Propileno a partir de Propileno y Peróxido de Hidrogeno.

La tecnología ha estado en operación comercial desde el 2008 con su primera planta en SK Picglobal, Corea
del Sur, cuya capacidad actualmente es de 130.000 ton/año.

Algunas de las ventajas que proponen los licenciantes de la tecnología, son las siguientes:

  • Permite el uso tanto de propileno grado polimérico (PG) como de propileno grado químico (PG).
  • Las condiciones medianamente severas de operación del reactor (<100 C, 30 bar) produce menos productos secundarios o no deseados con respecto a otras vías de producción.
  • Menor consumo de materia prima y energía (Por la transferencia eficiente de calor en el proceso).
  • Mediante su patente de la tecnología de producción de peróxido de hidrogeno, Evonik y ThyssenKrupp Uhde ofrecen integrar de forma optimizada al diseño, la planta de producción de dicho compuesto.

Proceso

Se conforma de 4 bloques: Reacción, Recuperación de Propileno, Purificación del Oxido de Propileno y Recuperación del Solvente.

Gestión de Proyectos y Contratos EPC

Reclamaciones más habituales planteadas en los contratos EPC

Un proyecto industrial es un proyecto técnico destinado a la construcción de una planta industrial. Además de tener un tiempo, alcance y costo establecidos, se requiere cumplir con unas especificaciones de calidad determinadas que garantizan el funcionamiento adecuado y seguro del producto o resultado obtenido.

Para su ejecución, se presentan dentro de los proyectos industriales distintos tipos de contrataciones. Una de ellas son los proyectos EPC (Engineering, Procurement, and Construction). En un proyecto EPC los propietarios del proyecto (Cliente) contratan a una empresa (Contratista EPC) y le designan la responsabilidad de elaborar la ingeniería de detalle, llevar a cabo las compras de
materiales y equipos y ejecutar la construcción y puesta en marcha de la planta.

Durante el desarrollo del proyecto pueden ocurrir eventos o situaciones que afectan las premisas acordadas para los parámetros tiempo, costo, alcance y calidad y por tanto afectan la fluidez de todo el proceso. Este tipo de situaciones llevará, en el mejor de los casos, a la efectiva comunicación entre el cliente y el contratista para tomar las medidas que aseguren su solución y así llegar a la conclusión exitosa de las actividades, o si esto no es posible, se recurrirá inclusive a un arbitraje o laudo internacional.

A continuación, se exponen algunos ejemplos de reclamaciones más habituales planteadas en los contratos EPC, relacionadas a los parámetros tiempo, costo y calidad. Algunas de ellas pueden estar relacionadas por su naturaleza, con más de un parámetro.

El retraso implica tiempo. En caso de retaso las actividades se culminan en un tiempo mayor al planificado.

En cuanto al costo, las fallas en la interpretación de las cantidades y especificaciones de equipos, materiales o recursos impactan en los costos directos.

La inconformidad con el resultado del trabajo y el desempeño de los equipos es directamente resultado de fallas en la calidad del proyecto.

Sin embargo, recordemos que cada uno de estos bloques está relacionado, la falla en alguno de estos puede repercutir en los otros. Por ejemplo, falla en la calidad del resultado, traerá retrasos y/ o costos asociados. O los cambios inesperados en costos pueden llevar a procedimientos adicionales que retrasan el desarrollo del proyecto.

Para evitar estas situaciones, es importante que cada pieza del organigrama del proyecto cumpla su trabajo. Se debe tener en cuenta que, la calidad del proyecto no solo aplica a la evaluación técnica de los equipos o de los procesos industriales, sino que abarca el control de la calidad de todos los procedimientos y metodologías de trabajo aplicados.

Eventos de Fuerza Mayor

Una situación significativa que origina variaciones en las premisas inicialmente acordadas para los parámetros tiempo, costo, alcance y calidad del proyecto son los eventos de fuerza mayor.

Fuerza Mayor: concepto para calificar aquellos eventos repentinos que hacen imposible el cumplimiento de las obligaciones.

En general, para que exista fuerza mayor suelen identificarse 3 requisitos:

  • Externalidad: el evento de fuerza mayor debe estar fuera del entorno de control de las partes.
  • Imprevisibilidad: el evento debe ser inesperado, no previsible.
  • Irresistibilidad: el evento debe hacer imposible el cumplimiento de las obligaciones.

Adicionalmente, a estos tres aspectos, siempre debe tenerse en cuenta las estipulaciones del contrato elaborado en cada caso, ya que, se debe verificar si no existen clausulas referentes a los reclamos relacionados a fuerza mayor.

La International Chamber of Commerce considera en su publicación: Cláusulas de fuerza mayor y de onerosidad excesiva, como casos presuntos de fuerza mayor los siguientes:

  1. Guerra (ya esté declarada o no), hostilidades, invasión, actos de enemigos extranjeros, amplia movilización militar.
  2. Guerra civil, disturbios, rebelión y revolución, usurpación -militar o no- del poder, insurrección, actos de terrorismo, sabotaje o piratería.
  3. Restricciones monetarias y comerciales, embargo, sanción.
  4. Acto de una autoridad, ya sea legal o ilegal, cumplimiento de cualquier ley u orden gubernamental, expropiación, ocupación de obras, requisa, nacionalización.
  5. Plaga, epidemia, desastre o evento natural extremo.
  6. Explosión, incendio, destrucción de equipos, interrupción prolongada del transporte. telecomunicaciones, sistemas de información o energía.
  7. Disturbios laborales generales tales como boicot, huelga y cierre patronal, huelga de celo, ocupación de fábricas y locales.

En el caso de evento natural extremo se podría reseñar el caso Global Tungsten & Powder Corp vs Largo Resources Ltd. El objeto del contrato era la comercialización de un concentrado de tungsteno. El demandado argumentó que una sequía le había impedido producir concentrado de tungsteno debido a la escasez de agua. A pesar, de que el tribunal reconoció el evento como fuerza
de causa mayor de igual manera estableció que el demandado debió cumplir con su obligación mediante la implementación de medidas alternativas que le permitieran abastecerse de agua, por ejemplo, camiones cisterna, aunque implicase mayor costo.

Conclusiones

  • La intensidad de capital y el nivel de complejidad y especialización de las unidades aguas abajo de la unidad de destilación atmosférica en una refinería define su índice de complejidad. En el caso de las refinerías estudiadas, los índices están en el rango 5<CI<14 que corresponde a refinerías complejas.
  • El crack spread positivo de la Refinería 1 indica que una operación es viable en unas condiciones dadas del mercado en un periodo determinado. Pero esto no es definitivo en la rentabilidad de las operaciones a largo plazo, ya que, para ello se requiere, un análisis de costos, que parte de la determinación de la tasa de retorno y de los márgenes bruto, variable
    y operativos y de cómo se optimizan las operaciones de la refinería.
  • Dado los menores costos, el proyecto de GNL más económico para la empresa será la unidad de regasificación flotante FSRU.
  • El mercado de GN, al igual que el del crudo, es un mercado con un nivel alto de sensibilidad ante las circunstancias naturales, demográficas y geopolíticas del entorno en un tiempo dado. El periodo 2023-2024 ha sido de menor volatilidad, pero menores precios que en periodos anteriores. En los próximos años la brecha que persiste entre las tasas de producción y consumo de los países importadores de esta materia prima representa la oportunidad de mercado a cubrir en los proyectos de inversión.
  • El Óxido de Propileno (PO) es un producto intermedio en la cadena petroquímica del Propeno o Propileno. Su importancia radica a que, es punto de partida para la producción de Poliuretanos y de Propilenglicol.
  • Tiempo, costo, alcance y calidad son las variables que rigen el cumplimiento exitoso del desarrollo y ejecución de un proyecto EPC.
  • Un concepto que se presenta en los contratos EPC es el de causa de “Fuerza Mayor” y se refiere a aquellos eventos repentinos que hacen imposible el cumplimiento de las obligaciones contractuales. Debe cumplir con los requisitos de externalidad, imprevisibilidad e irresistibilidad.

Reseña del Autor


Francis Gallardo: «Soy Ingeniero Químico de Procesos, egresada de la Universidad Central de Venezuela. He tenido la oportunidad de trabajar en las áreas de optimización de pozos de producción, optimización de sistemas de refinación mediante el software Aspen PIMS, y de investigación y desarrollo en la manufactura de productos químicos, entre ellos, poliuretanos.»

Testimonio de Autor

¿Por qué elegiste Structuralia?

«Es una institución con una sólida trayectoria y que aporta una importante contribución en la difusión de material audiovisual, de investigación y de la enseñanza en la ciencia y áreas STEM.»

¿Qué es lo que más destacarías del máster?

«Lo que me llevó a elegir esta especialización fue el interés en profundizar en los procesos industriales ya existentes y en cómo se desarrolla el mercado global de la energía, así como, adentrarme en las nuevas tecnologías.

Se estudia la industria, los procesos de producción, la integración petroquímica, el desarrollo y dirección de los proyectos que permiten la construcción e instalación de tales procesos y se analiza la dinámica del mercado, todo esto bajo la perspectiva de que la tendencia es hacia el “Mix energético” o diversidad de fuentes de energía. Se analizan los procesos de las tecnologías de
combustibles y carburantes biosintéticos y renovables (Biofuels and Advanced Biofuels) y de las biorrefinerías, al igual que, las tecnologías de aprovechamiento del gas natural y del papel de este en los procesos de producción de hidrógeno y en la combinación de estos con CCSU (Carbon Capture, Storage and Use).

Mas aún, no solo se limita a los procesos relacionados al área O&G y Petroquímica, sino que permite consolidar y reforzar los conocimientos de los procesos químicos que son las bases de las principales industrias.»

¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«Considero que, estos conocimientos son herramientas indispensables al ser profesional del área de ingeniería en la realidad actual. Una realidad en la que se requiere la generación de procesos industriales más sostenibles y en equilibrio con el ecosistema. La visión tecnológica, de desarrollo de proyectos y del mercado que he adquirido me permite ser parte en el diseño, desarrollo y
ejecución de procesos, y en la toma de decisiones relacionada en cada uno de estos aspectos, con la seguridad del conocimiento de la dinámica actual y de la tendencia esperada en la industria.»

]]>
https://blog.structuralia.com/proyecto-tfm-aplicacion-de-los-fundamentos-de-ingenieria-mercados-y-proyectos-epc/feed 0
Sistema de aislamiento térmico exterior o SATE en edificación https://blog.structuralia.com/sistema-de-aislamiento-termico-exterior https://blog.structuralia.com/sistema-de-aislamiento-termico-exterior#respond Tue, 01 Apr 2025 14:34:04 +0000 https://blog.structuralia.com/?p=8404 El sistema de aislamiento térmico exterior se ha convertido en una herramienta clave en la edificación sostenible, destacando por su flexibilidad en la construcción de edificios. En los últimos años, su difusión ha aumentado exponencialmente debido a la creciente necesidad de reducir el impacto ambiental proveniente de la ineficiencia energética de los edificios. La construcción sostenible busca minimizar el consumo de energía y las emisiones de carbono a la atmósfera, y este sistema representa una solución eficaz para lograrlo.

¿Qué es el sistema de aislamiento térmico exterior (SATE)?

El sistema de aislamiento térmico exterior o SATE es una técnica de construcción que consiste en aplicar una capa de material aislante en la parte exterior de las fachadas de los edificios nuevos o existentes. Este sistema está compuesto por varias capas: una capa aislante (que puede ser de poliestireno expandido, lana mineral, o espuma de poliuretano), una capa de refuerzo que incluye una malla de fibra de vidrio, y finalmente una capa de acabado que protege y da su aspecto final a la fachada. Estos materiales trabajan en conjunto para mejorar la eficiencia energética del edificio al minimizar las pérdidas de calor en invierno y el sobrecalentamiento en verano.

Detalle real de la composición del sistema de aislamiento térmico exterior. Saterhonaterm

Ventajas del sistema de aislamiento térmico exterior

El sistema de aislamiento térmico exterior presenta múltiples ventajas en comparación con los métodos tradicionales de aislamiento. En términos técnicos, una de las ventajas más importantes es la reducción de la transmisión térmica. El valor de transmisión térmica, también conocido como coeficiente de transferencia de calor o U-Value, es un índice crucial en la evaluación de la eficiencia energética de un edificio. Con la aplicación de SATE, los edificios pueden llegar a valores de transmisión térmica tan bajos como 0,15 W/m²K, lo que es una mejora significativa respecto a los valores comunes de los edificios con aislamiento convencional, que rondan los 0,3 W/m²K.

Desde una perspectiva económica, esta mejora en la transmisión térmica implica un considerable ahorro energético. Según estudios recientes, los edificios que emplean sistemas de aislamiento térmico exterior pueden reducir su consumo energético en hasta un 40%. Esto se refleja directamente en una bajada en los costos de calefacción y refrigeración, lo que a largo plazo justifica la inversión inicial en este tipo de aislamiento. Además, el uso de SATE puede contribuir a la prolongación de la vida útil de los materiales de construcción, al proteger las fachadas de las agresiones climáticas, postergando la necesidad de mantenimiento.

Consideraciones para la implementación del SATE

A la hora de escoger el sistema de aislamiento térmico exterior como solución en nuestros proyectos, es fundamental considerar varios aspectos técnicos y prácticos. En primer lugar, la elección del material aislante es importantísima; dependiendo del clima y las condiciones específicas del edificio, se deberá optar por materiales con propiedades térmicas, acústicas, y de resistencia al fuego adecuadas. Por ejemplo, en zonas con altas exigencias térmicas, la lana mineral puede ser preferible debido a su baja conductividad térmica y alta resistencia al fuego.

Otro aspecto a considerar es la compatibilidad del SATE con la estructura existente del edificio. No todos los edificios son óptimos para la instalación de un sistema de aislamiento térmico exterior sin antes realizar ajustes. Es primordial realizar un estudio preliminar para conocer la capacidad de la fachada para soportar el peso adicional y para garantizar que la instalación no perjudique la ventilación y la humedad en el interior del edificio.

Finalmente, es importante tener en cuenta las normativas locales y las certificaciones energéticas. El cumplimiento de estas regulaciones no solo garantiza la seguridad y eficiencia del sistema, sino que también puede ofrecer beneficios fiscales y acceder a subvenciones destinadas a la mejora de la eficiencia energética en la construcción.

Proceso de instalación de sistema de aislamiento térmico exterior. Arbone Rehabilitación

El sistema de aislamiento térmico exterior se presenta como una solución efectiva y sostenible para mejorar la eficiencia energética en los edificios. Sin embargo, su correcta implementación requiere de un conocimiento profundo y actualizado sobre materiales, técnicas y normativas. Como arquitectos e ingenieros, es vital que continuemos nuestra formación y especialización en estos temas, para contribuir al desarrollo de una sociedad más sostenible. Para ello, invitamos a todos los profesionales del sector a explorar el catálogo de cursos y maestrías online que ofrece Structuralia, en particular el Máster en Ahorro Energético y Sostenibilidad en la Edificación, que proporciona las herramientas necesarias para liderar en el ámbito de la construcción sostenible.

]]>
https://blog.structuralia.com/sistema-de-aislamiento-termico-exterior/feed 0
15 Comandos de Autocad en español e inglés https://blog.structuralia.com/comandos-de-autocad https://blog.structuralia.com/comandos-de-autocad#respond Mon, 31 Mar 2025 07:00:00 +0000 https://blog.structuralia.com/?p=8393 En el mundo de la arquitectura, donde la precisión y la eficiencia son primordiales, Autocad se ha convertido en una herramienta indispensable. Desde su creación, ha permitido a arquitectos y diseñadores transformar ideas en planos detallados y ejecutables. Dentro de este proceso, el uso de comandos de Autocad es clave para optimizar el flujo de trabajo, permitiendo a los profesionales del sector trabajar con mayor rapidez y precisión. En este artículo, exploraremos la historia de Autocad, su evolución en el campo de la arquitectura, y algunos de los comandos más útiles para mejorar la productividad en este software.

Breve Historia de Autocad

Lanzado por Autodesk en 1982, Autocad revolucionó el diseño asistido por computadora al proporcionar a los arquitectos una herramienta poderosa y versátil para la creación de planos y modelos 3D. En sus inicios, Autocad fue una solución disruptiva, permitiendo que los proyectos de arquitectura fueran diseñados y modificados digitalmente, lo que representaba un avance significativo en comparación con los métodos tradicionales de dibujo a mano. Con el paso del tiempo, el software ha evolucionado constantemente, incorporando nuevas funcionalidades que han mantenido su relevancia en el sector. Hoy en día, Autocad sigue siendo una de las herramientas más utilizadas en el diseño arquitectónico, gracias a su capacidad para adaptarse a las necesidades cambiantes de los profesionales del sector. Su continua actualización y la introducción de nuevos comandos de Autocad han permitido que el software se mantenga a la vanguardia en el desarrollo de proyectos arquitectónicos.

Representaciones complejas planimétricas realizadas con comandos de Autocad. Web.Autocad

Comandos de Autocad Esenciales

Trabajar eficientemente en Autocad requiere un buen dominio de sus múltiples comandos. Estos comandos permiten a los arquitectos y diseñadores realizar tareas repetitivas con mayor rapidez, reduciendo errores y aumentando la precisión en los proyectos. A continuación, te presentamos una lista de 15 comandos de Autocad en español e inglés que te ayudarán a mejorar tu flujo de trabajo:

  1. Línea (Line): Dibuja una línea recta entre dos puntos.
  2. Círculo (Circle): Crea un círculo a partir de un punto central y un radio.
  3. Desfase (Offset): Genera líneas o curvas paralelas a una distancia especificada.
  4. Cortar (Trim): Recorta segmentos de líneas y curvas en la intersección con otros objetos.
  5. Extender (Extend): Prolonga líneas o curvas hasta alcanzar otra línea o borde.
  6. Empalme (Fillet): Redondea o bisela la intersección entre dos líneas o arcos.
  7. Array (Matriz): Crea copias de un objeto en una disposición rectangular o polar.
  8. Descomponer (Explode): Descompone un objeto compuesto en sus partes individuales.
  9. Unir (Join): Une varias líneas, arcos o polilíneas en un solo objeto.
  10. Mover (Move): Desplaza objetos de un lugar a otro dentro del dibujo.
  11. Copiar (Copy): Duplica un objeto o grupo de objetos dentro del mismo dibujo.
  12. Girar (Rotate): Rota un objeto alrededor de un punto específico.
  13. Escalar (Scale): Cambia el tamaño de un objeto según un factor de escala.
  14. Alinear (Align): Alinea y escala objetos en función de otros objetos existentes.
  15. Mirar (Mirror): Crea una copia especular de un objeto a lo largo de un eje definido.

El dominio de estos comandos de Autocad no solo agiliza el proceso de diseño, sino que también mejora la precisión y calidad del trabajo arquitectónico.

BIM y Autocad: Una Sinergia Necesaria

En la actualidad, la metodología BIM (Building Information Modeling) se ha consolidado como una de las principales tendencias en el sector de la arquitectura y la construcción. Esta metodología permite la creación y gestión de un modelo digital de un edificio, integrando información detallada que abarca desde el diseño conceptual hasta la operación y mantenimiento de la construcción. Autocad, gracias a su versatilidad, se complementa perfectamente con herramientas BIM, permitiendo a los arquitectos diseñar con precisión mientras colaboran en un entorno multidisciplinario. La compatibilidad entre comandos de Autocad y las funciones BIM facilita la integración de ambas tecnologías, lo que resulta en proyectos más eficientes y coordinados.

Interfaz del diseño de un edificio utilizando comandos de Autocad. Autodesk

Autocad ha demostrado ser una herramienta fundamental en el desarrollo de proyectos arquitectónicos, y su constante evolución asegura que siga siendo relevante en el futuro. Sin embargo, el éxito en este campo no solo depende de dominar este software, sino también de mantener una formación continua y especializada. A los arquitectos e ingenieros les recomendamos explorar el catálogo de cursos y maestrías online que ofrece Structuralia, enfocándose en temas de arquitectura y BIM. Estas herramientas y conocimientos adicionales no solo les permitirán ser más competitivos en el mercado, sino que también contribuirán al desarrollo de soluciones innovadoras para la sociedad del futuro.

]]>
https://blog.structuralia.com/comandos-de-autocad/feed 0
Proyecto TFM: Tecnologías de registro distribuido aplicadas a la identidad digital y auto soberana https://blog.structuralia.com/proyecto-tfm-tecnolog%c3%adas-de-registro-distribuido-aplicadas-a-la-identidad-digital-y-auto-soberana https://blog.structuralia.com/proyecto-tfm-tecnolog%c3%adas-de-registro-distribuido-aplicadas-a-la-identidad-digital-y-auto-soberana#respond Fri, 28 Mar 2025 08:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-tecnolog%c3%adas-de-registro-distribuido-aplicadas-a-la-identidad-digital-y-auto-soberana

¿Cómo podemos comprobar la importancia de la Identidad en una sociedad cada vez más digitalizada? Este interesante TFM profundiza en ello.

transformación digital

Proyecto TFM: Tecnologías de registro distribuido (DLT) aplicadas a la identidad digital y auto soberana (SSI)

El trabajo realizado por Borja Lanza ex-alumno el Máster en Ciberseguridad y Gestión de la Información en Structuralia y tutorizado por Óscar García-Rama abordó las sinergias que pueden aportar las tecnologías de registro distribuido (DLT) cuyo exponen más popular es blockchain, a la gestión y seguridad de las identidades digitales.

Las cadenas de bloques al estar diseñadas para asegurar la trazabilidad y transparencia de las transacciones, al firmarse mediante el uso de métodos criptográficos, imposibilitan que puedan ser manipuladas o falsificadas por actores maliciosos. Esta inmutabilidad unida a ser sistemas distribuidos, evita la censura y puede favorecer la creación de identidades digitales resuelven los problemas de más de mil millones de personas que actualmente carecen de cualquier tipo de identidad.

Cada vez nuestros datos están más expuestos ya que tenemos que gestionar múltiples identidades o cuentas de usuario. Esto no solo ocurre en redes sociales o páginas webs, sino que para realizar trámites ante las administraciones públicas debemos de contar con medios que nos identifiquen y autoricen a realizar dichos trámites de manera segura y confiable.

Retomar el control de nuestros datos para gestionar quien tiene acceso a ellos y con qué fines es otro de los problemas que idealmente Blockchain puede solventar. Contar con una única fuente de verdad confiable hace mucho más sencillo la autenticación y la verificación de una identidad digital, sin comprometer la privacidad del dueño de la identidad, beneficiando a la ciberseguridad mitigando los riesgos de suplantaciones y robos de identidad.

La investigación aborda desde un marco teórico, el estado del arte sobre las aplicaciones de las tecnologías DLT y específicamente Blockchain a la gestión de la identidad digital, haciendo una revisión de las tecnologías involucradas y las soluciones actuales o futuras en un plazo corto de tiempo.

Objetivos del TFM

Para la realización del TFM se plantearon los siguientes objetivos.

Objetivos teóricos:

    • Realizar un estudio del estado del arte actual de la aplicación de las tecnologías blockchain a la identidad digital.

    • Identificar las aplicaciones disruptivas de las tecnologías DLT y sus casos de uso.
    • Definir buenas prácticas en la aplicación de dichas tecnologías principalmente en los campos de identidad, privacidad y ciberseguridad
    • Resumir las conclusiones obtenidas y detectar futuras tendencias en el campo de estudio de este trabajo.

Personalmente también escogí dicho tema para obtener una visión clara y completa de los conceptos referentes a la identidad digital, sobre todo la identidad auto soberana y de las tecnologías Blockchain y DLT aplicadas a la identidad junto a fundamentos básicos de tecnologías previas.

¿Por qué es tan importante el concepto de identidad para nuestra existencia tanto física como digital?

Definición de Identidad

Algunas definiciones de la DRAE para identidad son

    1. Conjunto de rasgos propios de un individuo o de una colectividad que los caracterizan frente a los demás.
    2. f. Conciencia que una persona o colectividad tiene de ser ella misma y distinta a las demás.

¿Es la identidad es un derecho ligado al ser humano?

Dentro del consenso mundial que es la Declaración Universal de Derechos Humanos (DUDH) de 1948, el término identidad no aparece ninguna vez nombrado en toda la extensión del texto.

Podemos asegurar que si las personas no son correctamente identificadas y cuentan con una identidad única no pueden ejercer los derechos definidos en:

    • Artículo 6: Todo ser humano tiene derecho, en todas partes, al reconocimiento de su personalidad jurídica.

    • Artículo 15.1: Toda persona tiene derecho a una nacionalidad.
    • Artículo 17: Toda persona tiene derecho a la propiedad, individual y colectivamente. 
    • Otros derechos como el matrimonio (Artículo 16), participar en el gobierno de su país (Artículo 21), derecho a seguridad social (Artículo 22), 

Todos estos artículos están relacionados con la identificación de una persona y su acceso a dichos derechos y mantenimiento de un registro que le asegure la defensa de dichos derechos. Por tanto, el derecho de una identidad de una persona es fundamental para el ejercicio de dichos derechos básicos

Imagen 1: Ejemplos de datos relacionados con identidad en 3 contextos diferentes.
Imagen 1: Ejemplos de datos relacionados con identidad en 3 contextos diferentes.

Identidad Autosoberana

Actualmente no existe un consenso pleno de la definición de identidad auto-soberana.

La identidad auto-soberana es el siguiente peldaño más allá de la identidad centrada en el usuario, y esto significa que debe comenzar en el mismo lugar: el usuario tiene que ser el centro de la administración de la identidad. Esto requiere no sólo la interoperabilidad de la identidad de un usuario a través de múltiples localizaciones, con el consentimiento del usuario, sino también un verdadero control del usuario de esa identidad digital, creando una verdadera independencia del usuario.

Para lograrlo, una identidad autosuficiente debe ser transportable; no puede limitarse a un único sitio o ubicación.

Uno de los pioneros de la identidad Christopher Allen en el año 2016, estableció 10 principios para la identidad auto-soberana que se han convertido en una referencia en la materia. 

Dichos principios son:

    1. Acceso: los usuarios deben tener acceso a sus propios datos.

    2. Consentimiento: los usuarios deben aceptar previamente el uso de su identidad por terceros.
    3. Control: los usuarios deben poder controlar sus identidades.
    4. Existencia: los usuarios deben tener una existencia independiente.
    5. Interoperabilidad: las identidades deben poder utilizarse ampliamente.
    6. Minimización: la divulgación de reclamaciones debe reducirse.
    7. Persistencia: las identidades deben ser duraderas.
    8. Protección: los derechos de los usuarios deben ser protegidos.
    9. Portabilidad: la información y los servicios sobre identidad deben ser portables.
    10. Transparencia: los sistemas y algoritmos deben ser transparentes.

Se considera que la identidad auto-soberana es un modelo de identidad digital siempre que cumpla con los siguientes 16 principios. 

    1. Las personas pueden generar sus propios identificadores únicos (control, existencia).

    2. Las personas tienen el control de sus autenticadores (acceso, control, existencia).
    3. Las personas tienen el control de sus credenciales y certificados digitales (acceso, control, existencia).
    4. Las personas pueden recuperar las credenciales y certificados en caso de pérdida o robo de sus autenticadores (acceso, control, existencia, persistencia y protección).
    5. Las personas administran y controlan los datos asociados con su identidad digital (acceso, control).
    6. Las personas pueden hacer divulgaciones selectivas de datos (consentimiento, control, minimización, protección).
    7. La información de identificación personal (IIP) de los individuos se minimiza (minimización, protección).
    8. Las pruebas criptográficas de la propiedad de los identificadores se pueden encontrar en…
    9. una red pública descentralizada (interoperabilidad, persistencia, transparencia).
    10. Las pruebas criptográficas de la propiedad y la validez de las credenciales se pueden encontrar en…
    11. una red pública descentralizada (interoperabilidad, persistencia, transparencia).
    12. El derecho al olvido está garantizado (protección).
    13. Las unidades de gestión de identidad (billeteras digitales) son portables (portabilidad).
    14. Los proveedores de billeteras digitales no tienen acceso a la información sobre el acceso de los individuos a los servicios o las interacciones con otros (acceso, control, protección).
    15. Las copias de seguridad garantizan los niveles máximos de seguridad y privacidad (persistencia, protección).
    16. Las implementaciones cumplen con las políticas regulatorias (protección).

Soluciones de Identidad Digital en Blockchain

El trabajo también analizó algunas de las diferentes soluciones de identidad basadas en blockchain disponibles en junio de 2021.

Aparte de Sovrin e Hyperledger Indy se destaca el desarrollo español impulsado por Alastria.

AlastriaID es el proyecto de Identidad Digital de la Comisión de Identidad de Alastria. Su propuesta de Identidad Digital en Blockchain pretende proporcionar un marco de infraestructura y desarrollo, para llevar a cabo proyectos de Identidad Digital Soberana, con plena validez legal en la zona euro, siguiendo las siguientes premisas:

  • Habilitar un marco para hacer uso de la SSI usando Blockchain, con el Informe Legal SSI eIDAS, también llamado «eIDAS Bridge».

  • Seguir las directrices del Informe del Taller de Identidad Electrónica, del Observatorio y Foro EUBlockchain.
  • Cumplir con el Reglamento eIDAS, según el Reglamento (UE) nº 910/2014 del Parlamento Europeo y del Consejo, de 23 de julio de 2014, relativo a la identificación electrónica y los servicios de confianza para las transacciones electrónicas en el mercado interior y por el que se deroga la Directiva 1999/93/CE.
  • Hacer de la Identidad Digital en Blockchain y el GRPD dos herramientas complementarias, siguiendo las recomendaciones descritas en el Observatorio y Foro EUBlockchain y el estudio del Servicio de Investigación del Parlamento Europeo.

Alastria ID es un modelo maduro que sigue los estándares W3C y ha servido de base al European Self Sovereign Identity Framework  (ESSIF) y a los procesos de estandarización de UNE, CEN/CENELEC, ETSI, ITU e ISO, considerado un estándar de facto. Es Interoperable con ESSIF, proyecto europeo SSI dentro de EBSI e impulsado por el EBP. Actualmente es el estándar UNE 71307. 

Imagen 2: Alastria ID y los 10 principios clave de SSI.
Imagen 2: Alastria ID y los 10 principios clave de SSI.

Pruebas de conocimiento cero (Zero Knowledge Proofs)

Las pruebas de conocimiento cero posibilitan a una parte de una interacción acreditar a otras partes involucradas que una afirmación que realiza es verdadera, sin revelar ninguna información más allá de la validez de la afirmación en sí misma. 

A las partes involucradas se les llama comúnmente demostradores y verificadores, y la afirmación que comparten de manera privada y segura se llama testigo. Su principal objetivo es desvelar el menor número de datos posibles entre las dos partes involucradas. 

Las pruebas de conocimiento cero se utilizar para comprobar que se está en posición de un conocimiento concreto sin revelar ninguna información sobre el conocimiento mismo.

Algunos ejemplos de la aplicación de las ZKP son:

    • Demostrar que una persona es mayor de edad, sin revelar la fecha de nacimiento ni su edad actual.

    • El empadronamiento en una localidad sin mostrar la dirección del domicilio y siendo capaz de usar los servicios del ayuntamiento donde uno reside legalmente. 
    • Demostrar la posesión de una cantidad mínima de dinero para afrontar un pago o una compra, sin mostrar el saldo total o propiedades que sirven de aval. 
    • Demostrar que se tiene unos permisos concretos y licencias que permitan que un vehículo es capaz de circular sin comprometer la privacidad de su propietario.

Las pruebas de conocimiento se utilizan a menudo en la informática para:

    • Probar la propia identidad (por ejemplo, protocolo de autenticación).

    • Probar que uno pertenece a un grupo con privilegios.
    • Demostrar que se ha hecho algo correctamente (realizar un pago).

Para que una prueba ZKP funcione es necesario cumplir determinados parámetros:

    • Exhaustividad: Si la declaración es verdadera, entonces un verificador honesto puede ser convencido de ello por un demostrador honesto.

    • Solidez: Si el demostrador es deshonesto, no pueden convencer al verificador de la solidez de la declaración mintiendo.

    • Conocimiento Cero: Si la declaración es verdadera, el verificador no tendrá idea de cuál es la declaración en realidad.

Conclusiones

La investigación del TFM me permitió comprobar la importancia de la Identidad en una sociedad cada vez más digitalizada y donde las personas, están definidas por diferentes identidades. Estas identidades están en riesgo por diferentes ciber amenazas como pueden ser la usurpación de identidad, el phishing y el robo de credenciales, produciéndose un gran impacto no solo económico cuando se compromete o roban una de nuestras identidades, como puede ser un perfil en una red social.

Por tanto, debemos de ser conscientes de todos los derechos y herramientas que tenemos a nuestra disposición para proteger nuestra información personal que sirve para trazar y analizar nuestros comportamientos con el riesgo de invasión a nuestra privacidad o de vigilancia de nuestros movimientos y pensamientos.

Las tecnologías de registro distribuido (DLT), cuyo máximo exponente es Blockchain, proporcionan la capa tecnológica necesaria para asegurar dicho control de manera segura, resiliente y resistente. Tecnologías que han dado un paso de gigante en estos últimos años, y que están transformando como se intercambia el valor.

Aunque son mayoritariamente conocidas por su aplicación en las criptomonedas su sistema su uso en el campo de la identidad digital es uno de los más revolucionarios, sobre todo en las identidades autosoberanas (SSI). La unión con otras tecnologías como las pruebas de conocimiento zero (ZKP) van a suponer un gran avance en como nos relacionamos en el mundo digital, aportando mayor confianza, seguridad, privacidad y control sobre nuestros datos, a la vez que se asegura la Confidencialidad, Integridad y Disponibilidad de ellos.


En Structuralia agradecemos el enorme desempeño e iniciativa de Borja Lanza y su proyecto TFM. ¿Quieres desarrollar tu futuro profesional igual que Borja? Puedes ingresar a nuestro sitio de Structuralia e investigar la importante cantidad de material formativo en este sector, y adicionalmente la variedad de maestrías especializadas que necesitas para conseguir tus objetivos.


RESEÑA DEL AUTOR:

Formato IG (78)Borja Javier Lanza López es Graduado en Multimedia, Máster Universitario en Aplicaciones Multimedia y Máster Propio de Máster de Inteligencia de Negocio y Big Data por la UOC (Universitat Oberta de Catalunya).

Como profesional de las nuevas tecnologías ha seguido formándose en los últimos avances gracias al Máster en Ciberseguridad y Gestión de Riesgos de la Información avalado por la Universidad Alfonso X el Sabio y el Máster Internacional en Gestión de la Innovación avalado por la Universidad Internacional Isabel I de España ambos impartidos por Structuralia

Desarrolla su carrera profesional como formador y consultor tecnológico centrado principalmente en los campos de Blockchain y Ciberseguridad en proyectos de transformación digital.

TESTIMONIO DEL AUTOR:

1. ¿Qué es lo que más destacarías del máster?

«El Máster en Ciberseguridad y Gestión de Riesgos de la Información proporciona una base amplia y completa sobre las diferentes dimensiones que componen un campo tan amplio y transversal como es la ciberseguridad.«

2. ¿En crees que te va ayudar en tu desarrollo profesional?

» La ciberseguridad es una de las especialidades más demandadas actualmente y con una escasez de profesionales. Contar con una formación especializada y reconocida es una forma de demostrar los conocimientos necesarios para iniciar una carrera en este campo.«

3. ¿Por qué elegiste Structuralia?

«La comodidad y libertad de poder formarse a cualquier hora y en cualquier lugar, más en tiempos difíciles como los actuales, pero con el respaldo de una titulación oficial por una universidad reconocida.

La posibilidad de optar a becas de la Organización de los estados americanos (OEA) es un plus que permite cursar másteres vanguardistas de forma asequible y conocer gente de diferentes países.»

Structuralia celebra a lo largo del todo el curso múltiples master class accesibles a todos los alumnos con profesionales de los diferentes másteres que enriquecen bastante el aprendizaje.

New call-to-action

]]>
https://blog.structuralia.com/proyecto-tfm-tecnolog%c3%adas-de-registro-distribuido-aplicadas-a-la-identidad-digital-y-auto-soberana/feed 0
Cubiertas inclinadas: Materiales recomendados y consideraciones https://blog.structuralia.com/cubiertas-inclinadas https://blog.structuralia.com/cubiertas-inclinadas#respond Thu, 27 Mar 2025 08:00:00 +0000 https://blog.structuralia.com/?p=8377 Las cubiertas inclinadas han sido un elemento fundamental en la arquitectura desde los inicios de la civilización, especialmente en la construcción de viviendas. Estas estructuras no solo cumplen una función protectora contra los elementos, sino que también aportan un carácter estético y simbólico que las hace inconfundibles. Su versatilidad ha permitido que se adapten a diferentes climas y estilos arquitectónicos, convirtiéndolas en una opción predilecta a lo largo de la historia. En este artículo, explorarémos las características funcionales y estéticas de las cubiertas inclinadas, cómo construirlas de manera eficiente, y los materiales más utilizados para su realización.

Función y materiales de las cubiertas inclinadas

Una cubierta inclinada es aquella que se construye con un ángulo específico respecto al plano horizontal, permitiendo la evacuación eficiente del agua de lluvia y la nieve. Esta inclinación varía según el clima de la región y el estilo arquitectónico, asegurando que la estructura sea resistente a la intemperie. Las cubiertas inclinadas son especialmente eficaces en climas lluviosos o nevados, ya que evitan la acumulación de agua y la sobrecarga estructural que esta podría generar.

En cuanto a los materiales, las cubiertas inclinadas suelen construirse con tejas de arcilla, pizarra, metal, o madera, dependiendo del contexto y los requisitos estéticos del proyecto. Las tejas de arcilla y pizarra son tradicionales y ofrecen una excelente durabilidad, mientras que los metales como el acero y el zinc aportan una apariencia más moderna y pueden ser reciclados. La madera, por su parte, se utiliza en climas secos o como elemento decorativo, aportando calidez y un toque natural a la edificación. Estos materiales deben seleccionarse cuidadosamente, teniendo en cuenta la resistencia al clima, la durabilidad y la integración con el diseño general del edificio.

Pritzker Architecture Prize winner: Glenn Murcutt - Sheet2
Cubiertas inclinadas de la icónica The Marie Short House del arquitecto Glenn Murcutt. Re-thinkingthefuture

Consideraciones para proyectar y construir cubiertas inclinadas

Al diseñar cubiertas inclinadas, es esencial que los arquitectos consideren una serie de factores clave para garantizar tanto la funcionalidad como la estética del proyecto. Primero, la inclinación debe calcularse en función del clima y las condiciones meteorológicas del lugar. En zonas con alta precipitación pluvial, una mayor inclinación es recomendable para asegurar un drenaje adecuado. Asimismo, es crucial considerar el peso de los materiales elegidos, especialmente en áreas propensas a nevadas, donde la carga adicional podría comprometer la integridad estructural.

Además, la elección de los materiales debe hacerse en función no solo del rendimiento, sino también del impacto estético y ambiental. Materiales como la pizarra y las tejas de arcilla ofrecen una apariencia tradicional, mientras que los metales y las cubiertas verdes pueden integrarse en diseños contemporáneos y sostenibles. Finalmente, se deben considerar aspectos como la ventilación, el aislamiento térmico y la integración con los sistemas energéticos pasivos, como los paneles solares, que pueden instalarse en cubiertas inclinadas para maximizar la eficiencia energética de la edificación.

Cubiertas inclinadas vs. Cubiertas planas

Las cubiertas planas e inclinadas ofrecen diferentes ventajas y desafíos, dependiendo del contexto en el que se utilicen. Las cubiertas planas son una opción común en la arquitectura contemporánea, especialmente en climas secos, ya que permiten el uso de la superficie para terrazas o jardines. Sin embargo, en climas húmedos, su principal desventaja es la acumulación de agua, lo que requiere sistemas de drenaje más complejos y un mantenimiento constante. Por otro lado, las cubiertas inclinadas, al facilitar la evacuación natural del agua, son más adecuadas para regiones con precipitaciones frecuentes, y ofrecen un aspecto más tradicional que se integra bien en entornos rurales y urbanos.

Descubre los aspectos más relevantes sobre la construcción de cubiertas inclinadas en edificios.
Variaciones creativas de las cubiertas inclinadas en edificios. Glosarioarquitectura

Las cubiertas inclinadas siguen siendo una opción relevante y eficaz en la arquitectura moderna, combinando funcionalidad y estética de manera que pocos otros elementos constructivos pueden lograr. Es fundamental que los arquitectos e ingenieros continúen perfeccionando sus conocimientos y habilidades en la construcción de cubiertas inclinadas, garantizando así que sus proyectos sigan siendo relevantes y sostenibles en el tiempo. La formación continua en este y otros aspectos de la construcción es clave para mantenerse al día en un mundo en constante evolución. Por ello, invitamos a explorar el catálogo de cursos y maestrías online que ofrece Structuralia sobre ingeniería e innovación, una excelente oportunidad para seguir desarrollándose como profesionales y aportar a la sociedad del futuro.

]]>
https://blog.structuralia.com/cubiertas-inclinadas/feed 0